Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.835
Bewertungspunkte
8.894
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
"Sie" schreiben "Qu*tsch".:)

Synchronisation zwischen Monitor und GPU führt nicht zu einem Bild? Die normale VPE eines halbwegs Erwachsenen liegt bei 30ms, natürlich will das Auge dann ein Bild geliefert bekommen. Ab um die 50 Jahre setzt dann ebenfalls Latenz ein, die des Auges (nicht technischer Natur).

Ob sie also 10000 Bilder mit ihrem Auge sehen können ist irrrelevant, wenn es bis zu Nebenhirnrinde 30ms dauert. Das kann man ja um wenige ms trainieren, aber eine feste Range hat Vorteile den Bildinhalt zu verbessern (kein Zerreissen des Bildes [teraing], weil dies für unser Hirn eine Fehlinformation sein kann) oder ein Bild liefern wenn es das Gehirn verarbeiten kann. Nicht das und fürs Auge! Mit dem Auge alleine nehmen "sie" nichts "wahr".*

*auch so ein Mythos aus Foren.
 
Zuletzt bearbeitet von einem Moderator :
Das geht aber nicht, wenn nur alle 30ms ein Bild von Auge gesendet und vom Hirn verarbeitet werden kann, da ist es gefälliger weise nur sinnvoll genau in diesem Moment, der von Mensch zu Mensch variieren kann, ein Bild dargestellt wird. Das Auge könnte viel mehr Bilder verarbeiten, je nach Lichteinfall und Intensität der Helligkeit. Das gleiche Problem hat man technisch erläutert bei CPU- und GPU Limits. Der jeweilige Host könnte viel mehr verarbeiten, kann es aber nicht weil es einen "Signalstau" gibt.

Ein Pixelprozessor hat eine bestimmte "Trägheit" (Latenz, Verzögerung, Signallaufzeit, Verarbeitungszeit), weil sich LCD Kristalle in schlimmsten Fällen nicht schnell genug bewegen und bevor sie erneut geschaltet werden, erst ihre Ausgangsposition erreichen müssen, denn wenn das nicht passiert gibt es Ghosting. Deshalb variiert (modifiziert=verändert) man bspw. auch Signalspannungen.

Ehrlich, das hier ist kein Enthusiastforum, sondern ein "Kindergarten".

Was Hz betrifft, ist das eine Größe für die Anzahl von Wiederholungen und zwar pro sec, die in Abhängigkeit vom Bildinhalt und neuen Daten die verarbeitet werden müssen, steht. Es ist sinnvoll das diese Frequenz mit der Bildausgabe der GPU übereinstimmt, weil man dann ein "vollständiges" Bild zu Gesicht bekommt, was das Hirn dann auch als solches verarbeitet.

Das nimmt man dann als flüssig wahr!
 
Zuletzt bearbeitet von einem Moderator :
Den Unsinn schrieben sie aber widerholt, Spiele haben eine fixe Bildrate!, weil dies unabhängig von der Ausgabefrequenz ist, damit fps und Hz nicht gleichhoch sein müssen (und das war schon immer so). Ja, in der Tat und genau solche Aussagen sind wirklich peinlich.

Hz und fps orientieren sich seit Jahren an den Kinofilmformaten und genau dafür werden auch Asic's entwickelt. Damit sie diese Rate real wiedergeben können, weil 48Hz unter 60Hz und damit 60 Bildern ruckeln kann. Warum können sie ausrechnen, denn 60 geteilt durch 24 ist wieviel? Dann muss die GPU ein Bild dazwischenschieben oder weglassen und genau das kann abgehakt wirken.

Die Kino-Filme werden in "48Hz" also jedes BILD ZWEIMAL wiedergegeben. Was den 60Hz Standard angeht, liegt diesen Phänomen in den einst Röhrenmonitoren begraben, um das Flimmern unter Zeilensprungverfahren zu minimieren (Vollbildrate > Halbbildrate). Das bedeutet dieser Monitor gibt ein Bild zweimal aus, die Frequenz entspricht nicht der fps Rate (25i/30i fps bei 50 oder 60Hz).
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten