Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.833
Bewertungspunkte
8.892
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
an den nvidia Werbeaussagen festklammert
Ich habe zwei Freesync Monitore (1080p 240Hz), hatte mich bei dem neueren von denen aber tatsächlich umgeschaut ob es A) einen alternativen Monitor mit Gsync Modul gibt der Preislich nicht völlig aus dem Rahmen fällt oder B) einen Freesync Monitor der eben variable Overdrive kann.
Gefunden habe ich weder noch. Dass es dies pauschal auch bei Freesync gibt war mir nicht bewusst und wird auch generell nicht beworben. Kannst du mir da ein paar Modelle nennen, bei denen es nachvollziebar ist dass es funktioniert. Dann wäre das eine Wissenslücke meinerseits.
 
Wie schon einmal geschrieben, nvidia hält die eigenen Kunden für dumm. Anders kann man das schlicht nicht mehr nennen.
Vermutlich ist es genau das was man hier nicht ansprechen darf. Da muss man sich schon mal als Troll betiteln lassen. Aber natürlich ist NVidia damit nicht allein, das ist ein Trend in der gesamten Industrie. Wird aber auch angenommen und immer wo etwas angenommen wird, wird auch geliefert. Bin leider selbst darauf reingefallen.
 
Zuletzt bearbeitet von einem Moderator :
L M A O. Lebst du vll. in einer Parallelwelt?
Nein, aber sie. Schon mal was von eingeschränktem Dynamikumfang bei LCD Panelen gehört und wozu HDR eingeführt wurde? Das hängt mit der Helligkeit der Hintergrundbeleuchtung zusammen und damit der Ausleuchtung der Pixel.

Bei den Filmen meinen sie das HRF Format (60Hz als Kinoformat, was man nicht mehr verwendet und es einen einzigen Film gab) und ich behaupte, das die Projektoren in Kinos jedes Bild zwei mal ausgeben, das bedeutet 24fps in 48Hz, weil das ein Standard dafür ist. Und 48Hz (48fps) Filmmaterial wird nach dem HRF 3D Standard entwickelt.

Im Hobbybereich setzen sich bei Camcordern dann irgendwann 50 und 60Hz durch (25i/25p/30i/50p/60p), womit auch die gesamte Entwicklung im Zusammenhang steht. UHD Filme kann man unter 60Hz speichern, muss beim abspielen aber auf 3D oder HRF verzichten. Zuletzt hat YT Videos auf 60Hz formatiert. Wenn ein Browser es unterstützt kann man sich das dann real ansehen.
 
Zuletzt bearbeitet von einem Moderator :
Was passiert wenn ich eine GPU fps Rate von 79 habe, aber ein Display mit 144Hz und diesen Refresh auch angewählt habe? Sinkt dann die Bildrate auf 79Hz oder werden weiterhin 144 Bilder ausgebeben? Besser wäre als Beispiel 100fps, aber das wird kaum jede GPU schaffen an der ein 144Hz Panel steckt.
Ohne Sync? Dann Refresht der Monitor 144 mal die Sekunde, der Inhalt kann dann halt tearen und manche Frames werden wiederholt.
Ob eine GPU genügend FPS liefern kann kommt immer auf die GPU und enstprechende Anwendung an. Gibt viele ältere Spiel wo 144 FPS oder auch deutlich mehr auch mit schwächeren Karten ohne Probleme ausgegeben werden.
Ja dann passt Win10 sie automatisch an.
Nein, das sind einfach die extra Refreshes vom Monitor. Das ist an der Stelle auch spürbar flüssiger.
genau deshalb haben Asics eine VRR Range ab 48Hz und nicht 1Hz
Haben sie nicht unbedingt, da gibt es vieles, auch ab 30Hz. Zwar richten die sich tatsächlich an die genannten gängigen Formate, was aber nicht bedeutet dass man mit was krummen direkt Probleme bekommt.
wegen dem Fehlen eines GSync Moduls in meinem Laptop behauptet dass es auch völlig ohne dem funktioniert
Das war übrigens auch eine der wenigen Aussagen die nicht angezweifelt wurden, deswegen müssen wir darüber nicht diskutieren.
Schon mal was von eingeschränktem Dynamikumfang bei LCD Panel gehört und wozu HDR eingeführt wurde?
Klar. Was hat das mit dem Abschnitt zu tun den ich explizit zitiert hatte. Mal wieder nichts, an einen zufall glaube ich da nicht.
Da wird einfach irgendwas aus der Tasche gezogen, am besten so abstrus wie möglich.
 
Mein letzter Beitrag zu dem Thema. Da das Kommunikationsniveau zusehend abstürzt.

Da hatte ich mich wohl zu früh gefreut. Leider ist @quantaro an der Stelle nicht so konsequent wie bei der verheerenden Rechtschreibung, die das Lesen fast noch unerträglicher machen als die konstanten Beleidigungen gepaart mit extrem selbstsicher vorgetragenen Falschbehauptungen.

Danke an @Besterino für den Tipp mit "Ignorieren" hier im Forum - den werde ich nun auch das erst Mal benutzen.
 
Tjo, wer selbst den Nachweis nicht selber nachstellen möchte und ein Sturkopf in seiner eigenen Phantasiewelt bleiben will, hat auch nichts anderes als in Ignore verdient.
 
Puh! Hab das erst heute wieder aufgemacht. @quantaro Das Ganze speist sich nur aus Ihrer Unterstellung, dass hier Leute blind nach Label kaufen. Mir war der Inhalt von G-Sync/compatible/ultimate garnicht bekannt. Ich gucke mir vor dem Kauf immer die Specs an. Da sieht man in der Regel, ob ein Display HDR 600, 1000 oder 1 Mio unterstützt. Und ich unterstelle mal, dass das der Großteil der User hier genauso handhabt 😉
 
Welche Falschaussagen sollen das sein?

Zum Beispiel das ein Bild nur teart, wenn die fps Rate über dem Refresh des Monitors liegt und Framedoubeling nur erfolgt, übrigens auch unter VRR, wenn die fps Rate weit unter der Refreshfrequenz des Monitors liegt?

Da muss man sich ehrlich mal den ganzen Unsinn hier durchlesen, den einige dazu verzapfen, aber meinen sie seien Experten, obwohl man mit Fragen dahingehend expiliziet drauf hingewiesen hat.

Übrigens die Framerate unter GSync und Freesync schwankt extrem (kann extrem schwanken), weil der Monitorrefresh an die fps Rate angepasst wird und in den wenigsten Fällen die volle Refreshfrequenz erreicht wird (man schließt "tearen" also so gut wie aus, wenn man ein sehr schnelles Display verwendet, dann braucht es kein VRR, was man als Dev auch mit einem Framelog könnte [59fps bzw. 60fps, bei weit verbreitetem 60Hz Standard]). Um es dann nicht zu einem ruckeln, tearen und Lag kommen zu lassen, werden Frequenzbereiche definiert, wo VRR entweder abgeschaltet wird oder Bilder gedoubelt (siehe Satz 2 meiner Ausführungen). Das sind Bereiche die dem menschlichen Wahrnehmungssinn genähert werden und der Rest ist viel Marketing und PR (dem ja einige hier aufsitzen).*

Aber natürlich ist dann das Gegenüber nur ein NVidia Hater, Troll, kann keine Rechtschreibung und wahrscheinlich ein AMD Fanboy. Spammer fehlt dann noch und soll ignoriert werden, weil die Köpfe einiger Forenmitglieder für technische Details zu klein sind, und man was vom HÖRENSAGEN weitergibt. Was sollte in diesem Forum auch anders funktionieren, als in allen anderen Foren in denen das Diskussionsniveau leidet, sich das gleiche Klientel bewundert was man doch alles weiß, das scheint in diesem Fall aber kaum was wichtiges zu sein.

Hier haben Einige die ganzen technischen Details zu VRR absolut nicht verstanden. Eigentlich müsste man diese alle auf "ignorieren" setzen, aber Danke das ist mir persönlich zu viel. Wozu braucht es dann ein Forum.

Und wie in anderen Foren ist es der Moderation egal, was hier einige zum Besten geben. Garantiert ja Click's. Na dann.

*Ergo: braucht es bei einem Display mit hohem Refresh kein GSync Modul, wenn man eine GPU daran betreibt, die mit ihrer Framerate nie über dem Refresh des Monitors liegt. Tearen ist dann ausgeschlossen und so löst man das übrigens im Notebookbereich und druckt dann GSync-Logos auf Display. Das ist aber kein Verdienst von NVidia, sondern einer in der Panelentwicklung. Stellt man von 144 Hz auf 60Hz, wird ASync genutzt.
 
Zuletzt bearbeitet von einem Moderator :
Da gibt es keinen Trick, die Mausspur ist aus.
Ja dann passt Win10 sie automatisch an.
Du redest doch selbst immer von deinen 30ms. Jetzt nimm halt mal selbst dein Handy zur Hand, stelle es auf irgendeine Auflösung @30FPS.
Das macht das Handy von ganz allein, merken sie es? Wohl eher nicht.
Und dann schmeißt du wieder Dinge durcheinander, bzw. springst von Kinofilmen zur Signallaufzeit vom Auge zum Hirn hin und her, dann haben Pixelprozessoren nichts mit der Bildwiederholrate zu tun, wtf? Was das zur Problematik zur Sache tut, kann ich nicht nachvollziehen.

DAS ist so ziemlich das einzige, worin wir uns hier auf dieser Seite einig sind. Witzigerweise gibst du mit dem Satz auch gleich zu, dass eine höhere FPS zu einer besseren visuelle Wahrnehmung beiträgt, das hast du bisher vehement verleugnet xD
Weil sie den Zusammenhang nicht verstehen, genau deshalb haben Asics eine VRR Range ab 48Hz und nicht 1Hz. Und 60Hz ist ein vielfaches von 30, genauso wie 120 und 144Hz ist ein vielfaches von 24 (ich habe es jetzt schon drei mal geschrieben). Glauben sie an eine Zufälligkeit? Ich nämlich nicht. Die Monitore eigen sich dann expliziet für die Ausgabe von Kinoformaten, ohne das VRR eingreift.
Und ja, Spiele müssen nicht exakt die gleiche Bildwiederholrate haben, wie der Monitor.
Stimmt. (korrigiert)

Übrigens habe nie etwas "verleugnet", sondern behauptet man sieht nicht jedes Bild, weil man es gar nicht verarbeiten kann. Und habe wegen dem Fehlen eines GSync Moduls in meinem Laptop behauptet (was ich übrigens mit einem ähnlichen Zusammenhang per Video eines renommierten Portals nachwies, die Gleiches feststellten), dass es auch völlig ohne dem funktioniert, genauso wie Adative Sync, das NVidia dann GSync nennt (nicht GSync Compatible).

Was passiert wenn ich eine GPU fps Rate von 79 habe, aber ein Display mit 144Hz und diesen Refresh auch angewählt habe? Sinkt dann die Bildrate auf 79Hz oder werden weiterhin 144 Bilder ausgebeben? Besser wäre als Beispiel 100fps, aber das wird kaum jede GPU schaffen an der ein 144Hz Panel steckt.
 
Zuletzt bearbeitet von einem Moderator :
Dann wissen sie ja, dass bestimmte Displays nicht flächendeckend ausgeleuchtet werden (HDR Array).

Bevor ich es vergesse: ja "NVidia", es ist das mieseste 1080p GSync Display das ich je zu Gesicht bekommen habe, mittlerweile mit sattem IPS Glow, in einem 2,5K Gerät ganz ohne tollem GSync Prozessor (Modul). Vielleicht liegt es ja daran. Habe ich einmal gekauft und nie wieder. An eine Zertifzierung glaube ich daher nicht, oder die Qualitätskontrolle hat ein Problem. Gabs ja bei der 2080ti auch schon.

So nun bin ich los.:)
 
Zuletzt bearbeitet von einem Moderator :
Die Range ist nicht größer als bei Adapative Sync, sondern kleiner! Auch wieder so ein Märchen. GSync erfüllt die Anforderungen in einer Range von 2,4 zu 1 was dem Adaptive Sync Standard entspricht. Freesync kann Bereiche von 9-240Hz abdecken, GSync von jeweils 30 bis.

Anfänglich gabs Probleme mit Asic's, die aber mittlerweile Geschichte sind und niemand verbaut dafür ein 500$+ Modul.

Etabliert haben sich Asic's die folgende Wiederholraten sicherstellen können:
36-240hz
21-144Hz
9-60Hz

Wobei die Range von Herstellern festgelegt wird. Geredet wird da oder wurde da in der Presse von einer Freesync-Range von 9-240Hz, was aber totaler Blödsinn ist.

NVidia beginnt wie gesagt ab 30, alles andere wird gedoubelt (was ja den Lag erhöht). GSync muss vor allem flickerfree sein. G-Sync Ultimate führte man zum Zwecke des HDR1000 Standard ein, mit einer Helligkeit von 1.000 cd/m² (1000nits) unter einer vollflächigen Hintergrundbeleuchtung mit 384 Zonen LED als Pflicht, bei einer Abdeckung des DCI-P3-Farbraum von min 95%. Das hat NVidia mittlerweile aufgeweicht. Also von Premium ist da außer beim Preis absolut nichts mehr über, da man auch schon seit längerem keine echten 10bit Panele mehr verbauen muss, sondern 6bit oder 8bit FRC, je nach Variante. Das können sie für diese Preise gerne behalten!
 
Weil das Gehirn eines Gamers, immer nur Gaming im Kopf hat und daher von Märchen und Mythen lebt.

Natürlich gibt es Display die nur 9fps ausgeben, weil es einen Energiespareffekt hat, und für Gamer wird diese Framerate per LFC (unter FSv2) auf einen höheres Niveau gehieft.

Also bleibt der Bereich von ASync größer als der von GSync (ob das nun FreeSync oder GSync Compabile heißt ist völlig egal), weil unter 30fps nichts ausgegeben wird. Können sie gerne mit anderen weiterdiskutieren.

Der Adaptive Sync Standard ist vor allem ein Standard für Stromsparmechanismen (eDP) auf mobilen Displays oder Maschinen die nicht so hohe Wiederholraten brauchen, was zum Beispiel zu einer längeren Akkulaufzeit verhilft, weil der Refresh des Display die größte Menge an Energie bedeuten kann. NVidia und AMD bedienen sich nur aus dem Regal, der eine dediziert > der andere open source, wie immer.

Die GSync Compatbile Zertifizierungen orientieren sich nicht an Rangebereichen, das hatte ich schon geschrieben. Sondern ob ein flickerfreies Bild ohne Artefakte wiedergegeben werden kann. Das sind übrigens alles Mythen die in Foren ersponnen werden. NVidia bevorzugt Bereiche ab 48Hz VRR, weil es vor allem um niedrige Latenz geht (Gaming halt). Die Liste hat sich von damals 3-9 Geräten, mittlerweile deutlich erweitert und im Treiber wird dann GSync automatisch aktiviert, man muss es also expliziet abwählen, wenn man es nicht braucht. 48Hz für Asic bestimmter Bildformate ist dabei eine Größe, die mittlerweile für Medieninhalte angestrebt wird (HTPC), weil es unter 60Hz zum (Mirco-) Stuttering kommen kann (Ruckeln des Bildes, siehe NTSC Standard).

Aber letztlich kommen wir dann zum Thema des Artikels zurück, das NVidia GSync Modul erlaubt unter Ultimate eine VRR von 1fps, nun weiß man auch wozu man den (riesigen) Asic inklusive 3GiB DDR4 braucht. Framebuffering?
 
Zuletzt bearbeitet von einem Moderator :
Mal eine Gegenfrage, ich bringe etwas durcheinander?

Wozu ein Bild 360 mal pro Sekunde ausgeben, wenn es ein Standbild ist? Was für einen Sinn hat das überhaupt, reicht es nicht dieses 1 mal oder 30 mal oder 48 mal pro Sekunde zu wiederholen und dabei vielleicht auch nur einmal zu berechnen?

Was macht es für einen Sinn, ein Foto auf einem Display an dessen Bildinhalt sich nichts ändern, 360 mal pro Sekunde zu refreshen oder 360 mal berechnen zu lassen?

Da sich NVidia zunehmend offenen Standrads verschließt, erfinden sie anhand bestehender Protokolle immer irgendwas..., (was man eigentlich gar nicht braucht). Die VRR dient lediglich der Synchronisation der Bildinhalte in einer Range, die fürs menschliche Auge sinnvoll ist und da waren 24fps und ein vieles davon, in der Vergangenheit ziemlich wichtig.

Erste FreeSync und GSync Display setzen noch auf LVDS, was mittlerweile durch HBR und Compression ersetzt wurde (4K120Hz), was klar ein eDP PSR Standard inklusive erhöhter Bitrate ist, wozu auch ASync gehört.
 
@quantaro das ist einfach alles nur daneben. Da fehlt es offensichtlich bereits an Lesekompetenz. Und Latenz ist übrigens wieder was anderes und es hilft auch nicht, bei Fehlern in der eigenen Darstellung / Argumentation nur neue Nebenkriegsschauplätze aufzumachen, die an der Sache sowas von vorbeigehen, dass es weh tut.

Latenz - zumindest im IT-umfeld - ist ein Begriff, um VERZÖGERUNG zu beschreiben, oder auch eine SIGNALLAUFZEIT. In keinem Fall ist damit eine inhaltliche Veränderung oder Modifikation des Signals verbunden: Auch bei einer hohen "Latenz" kommen trotzdem noch alle Informationen genauso an, nur eben später. Daher würde auch ein Bild mit Tearing genauso mit Tearing bei meinem Hirn ankommen... wenn's vorher flackert, ruckelt oder zerrissen ist, flackert, ruckelt oder ist es zerrissen in meinem Hirn auch 10000ms später. Manmanman. Und die ganze Diskussion um was auch immer zwischen Auge und zwischen Hirn oder im Hirn passiert, ist eh von großer Ahnungslosigkeit geprägt. Gsync oder FreeSync kommen aber ursprünglich aus einer ganz anderen Ecke: da ging es erst überhaupt nicht um Latenz - das kam dann erst später, um die ganzen doofen Gamerkiddies zu befrieden, die glauben, für sie würde ein Unterschied von wenigen ms "Latenz" (von wo nach wo auch immer) im Spielgeschehen über Sieg oder Niederlage entscheiden.

Macht aber nix, ich bin hier raus. Für Rechthaberei gepaart mit völliger Ahnungslosigkeit ist mir meine Zeit zu schade. Viel Spässeken noch.
Ach dann ist man raus? Wie interessant. Was denken sie, wenn es noch weiterginge mit iDP und DDM, wie ihnen da der Kopf in endloser Signallaufzeit versinkt, wenn sie schon bei so einfachen Themen den Hut werfen? Und nur weil man Foren-Mythen kritisiert und sich das halbe Forum angesprochen fühlt (wahrscheinlich zu Recht), ist das noch lange nicht mein persönliches Problem.

Es geht zuweilen auch um Latenzen (ja genau das haben sie völlig richtig erkannt), nämlich des Pixelprozessor (warum können sie sich technisch ja mal erlesen), was sie gut mit "Signallaufzeit" beschrieben (Gatespannung der Transistoren inklusive Leckströme). Die genauso auch zwischen Auge und Hirn besteht (wie von mir beschrieben, weil Latenz auch für "VERZÖGERUNG" steht [als ziemlich einfacher Obergriff und Signallaufzeit genau das ist]). Ahnungslos sind hier nur, genügend die ignorieren einen Haufen Geld für nichts auszugeben, damit Trends im Markt setzen und die Standards dazu nicht wirklich kennen, sich aber als Enthusiasten schimpfen. Aber nur zu, was geht es mich an. Dann aber bitte nicht jammern, dass es alles teuer ist. Die Hersteller nutzen solche (Wissens-) Lücken gnadenlos aus, um über ihr PR Gehabe Ihre Entwicklungen an den Mann oder die Frau zu bringen.

Sie können das mit ihrem sinnlosen Post aber gerne ins Lächerliche ziehen, was sie immer sie meinen!

Latenz ist zumindest im IT Umfeld, "IT Umfeld"? Ehrlich peinlicher geht es nicht. "Keine Modifikation" des Signals, ist völlig lachhaft, was sie zu einem absoluten Laien abstempelt. Die differentielle Übertragung findet bei einer Spannung von 3mV bis 300mV statt und wird natürlich abgeändert (modifiziert!!!!). Weil es zu einem Schalt- und zu anderem Logikpegel gibt und man die Schaltgeschwindigkeit damit realtime anpasst. Genau das macht VRR aus! Das Ganze basiert auf RGB und zwar serialisierte Farbsignale (bspw. LVDS/LMDS inklusive EMI). Dabei werden die Signale zur Störminderung differenziell übertragen, auch Störspannungsunterdrückung genannt.

Fall sie also den "Klugschei*er" raushängen lassen wollten anstatt den "auf Krawall" gebürsteten, ist ihnen das leider nur laienhaft gelungen. Besser wäre dann man lässt es.
 
In Games wird das Bild so häufig wie möglich neu berechnet oder so schnell, wie die Frequenz des Bildschirms wenn man es so einstellt.
Das stimmt nicht.

Es geht um Bildinhalte, und dieser Ausgabeprozess ist unterschiedlich lang bzw. kann unterschiedlich lange Berechnungszeiten haben. Es ist gut möglich, dass der Monitor viel schneller ist als die GPU oder umgekehrt, aber genau dafür gibt es VRR. Das ist kein einseitiger Prozess, sicher macht es Sinn das Hardware dabei zusammenpasst (Pixelmenge). Die GPU kann die Bildausgabe steuern, damit wie schon dargestellt man ein vollständiges Bild zu Gesicht bekommt.

Bei weniger oder höheren Bildinhalten braucht auch der Mensch länger, um diesen Inhalt zu verarbeiten. Dann ist es sinnvoll eher langsam Bilder auszugeben oder zu wiederholen, und manch ein "Ruckeleffekt" ist wegen Realitätsnähe auch erwünscht (bspw. in Filmen).

Refresh eines Bildes bedeutet nicht gleich neue Bildausgabe, sondern man sieht ein Bild dann zweimal, weil es zwischengespeichert wird. Renderqueue.
 
Mein letzter Beitrag zu dem Thema. Da das Kommunikationsniveau zusehend abstürzt.

Ich persönlich habe ein Notebook aus 2020 inklusive GSync IPS Panel mit 144Hz. Das hat "kein" GSync Modul und aktiviert auch nicht GSync Compatible.

Siehe diesen Teardown von PC Perspective aus 2015:

Ich glaube schon das ich GSync mitbezahlt habe, ich frage mich nur was davon? NVidia wird eher nachgesagt, dass dieses Modul die Hersteller Asic in Monitoren ersetzt und sei ähnlich wie DRM, also nichts weiter wie man es jahrelang unter PhysX zelebriert hat, aber diesmal eben auf Basis des gleichen Standards der nicht von NVidia stammt (PhysX hatte man damals von Ageia zugekauft, also auch keine NVidia interne Entwicklung).

Wie ich schon schrieb, ist Kritik in den Fall berechtigt. Bitte einen Gegenbeweis, Teardown oder etwas ähnliches das Gegenteiliges beweist!
 
Zuletzt bearbeitet von einem Moderator :
Natürlich hassen trainierte Gehirne Tricks, vor allem dass man ein GSync Panel ohne tollen GSync Prozessor von NVidia hat, es aber komischerweise trotzdem funktioniert. Kenner nennen diese Werbung ja irreführend, oder Betrug. Vor allem weil man auf deren Hauptseite so einen Prozessor abbildet! Nur passt das nicht in jeden Kopf, so ist es auch mit Wiederholrate oder technischen Details.

Worüber soll man denn stauen, ein Bild das 144mal die sec ausgegeben wird und bei dem sich wenige Pixel ändern? Worüber sich manche Leute noch freuen können. Der Groß der Prozessoren gibt immer die gleiche RGB wieder. Mal selbst überlegen warum.
 
Zuletzt bearbeitet von einem Moderator :
Dann sind sie ein Übermensch! Das Auge sieht sogar 100 Bilder (wenn sie farblich nicht zu aufwendig gestaltet sind), aber das Hirn kann sie nicht verarbeiten und was macht eine GPU bspw. mit den restlichen Bildern im Buffer bei VRR? Verwerfen! So tut es das Hirn auch, sie kommen ja erst gar nicht an. Sie sehen auf dem Bildschirm in 30ms bei 144Hz einen Refresh in welcher Höhe? Wie viele Bilder werden verworfen? Sie haben ja keine multiplen Nerven, oder parallelisierte. Diese übertragen bei einem Reiz genau ein Signal.

Das Polling bzw. die Rate bzw. Reaktionszeit der (CP) Maus ist wieder ein ganz anderes Thema, aber was solls. Vielleicht überlegen sie mal warum das bei einer höheren Ausgabefrequenz sichtbar bessere Ergebnisse liefert. Ausgabefrequenz gleich Abtastrate? Und könnte man diese sogar unter 60Hz verändern?
 
Das Auge > Hirn braucht 30ms, mit etwas Training wohl auch nur 28ms. Und bei hohen Reaktionszeiten der Pixelprozessoren eines Panels kann man eine hohe Bildrate vernachlässigen. Der Trick mit der Maus ist ein Programm das es mittlerweile in Win10 geschafft hat, findet man in der Systemkonfiguration unter Mausspur!

Und falls es sie interessiert, sind Asic's die Inhalte mit 48Hz ausgeben auf das Filmformat in Kinos angepasst, übrigens geht es 144Hz da genauso (als vielfaches von 24fps), wobei die Bilder in Kinos mit 48Hz ausgegeben werden, (dazwischen mit hell > dunkel Phasen, also gedoubelt um das Auge entsprechend zu reizen), unterstützen aber auch die 60Hz Standards, wie 240 oder 360Hz.

Bei LCDs hat man dort gegenüber den Kinoformaten und deren Ausgabe ein Problem, da Pixel eines LCD fast zu gleichhell ausgeleuchtet werden. Ist ja technisch bedingt.

Das ändert alles nichts daran, dass man GSync eigentlich gar nicht bräuchte und das Modul in meinem Laptop fehlt, und hier der normale eDP Standard von NVidia seit Jahren als GSync verkauft wird und selbst unter Ultimate 1Frame pro Sec ruckelt, weil der Mensch wohl ab 18 bis 20 fps braucht um eine Bewegung im Bild als nicht ruckelt wahrzunehmen (denn die 30ms Auge > Hirn sind auch gewisse Grenze für Bewegtbilder). Da diese Displays alle den 60Hz Standard unterstützen (eher nicht NTSC), einigte man sich dann auf 30Hz gleich 30fps, als womöglich niedrigste Ausgabegrenze bei LCDs. Wenn die Pixelprozessoren ausreichend schnell reagieren ist auch unter 30Hz kein Ruckeln wahrzunehmen. Derzeit ist es aber eher so, dass man billigste Technik verwendet und mit hohen Frameraten den Effekt kaschiert. Dies aber zu Höchstpreisen im Markt absetzt.

Der Rest sind Mythen und Märchen von den ewig Besserwissenden, und vor allem persönliche Eindrücke die als Fachwissen verkauft werden, inklusive viel PR und Marketing.
 
Zuletzt bearbeitet von einem Moderator :
Nein 30ms. Schon 20mal hier geschrieben, weil das ein Wert für die visuelle Wahrnehmung von Licht (Helligkeit) ist. Es wird dazwischen nichts gespeichert oder gepuffert. Zudem muss das Gehirn die Information von beiden Augen zu einem Bild zusammenfügen. Dies lässt sich sicherlich noch trainieren, weil das Gehirn bei der Bewertung von 3D Objekten auf abstrakte Modelle zurückgreift. Dieser Wert wird trotzdem nie weit unter 30ms liegen, früher ging man davon aus das dieser viel höher liegt, 100 oder 200ms. Also ist man dann von dem Wert ausgehend in der Lage 33 Bilder pro sec auch wahrzunehmen und zu verarbeiten, zu sehen. Immer wenn man dann ein Bild geliefert bekommt ist es günstiger weise sinnvoll. Die Chance steigt mit der Bildrate, wir aber nicht von jedem so wahrgenommen.

Die höheren Frameraten dienen ja nicht nur der visuellen Wahrnehmung, sondern minimieren Verzögerungen, den technisch bedingten Lag, helfen also auch der Auge > Hirn > Hand Koordination (wieder innerhalb abstrakter Modelle bei gewissem Training oder Wiederholungen), bis Eintritt des von Spielern gewünschten Effekte oder Ergebnis.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten