Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.805
Bewertungspunkte
8.722
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
Ich habe einen ASUS ROG PG279, der hat G-SYNC hardware, aber ich höre da keinen Lüfter
Die Lüfter gabs erst für G-Sync Ultimate(HDR), du hast ein normales G-Sync Modul.

Das uprsprüngliche G-Sync Modul hat auch auf ein Altera FPGA gesetzt wobei da böse Zungen von gesprochen haben dass es primär andere Hersteller ausschließen sollte. Was G-Sync zu anderen VRR absetzt ist variable Overdrive, was schon sinnvoll ist umso größer die verwendete Range ist.
 
Die Range ist nicht größer als bei Adapative Sync, sondern kleiner! Auch wieder so ein Märchen. GSync erfüllt die Anforderungen in einer Range von 2,4 zu 1 was dem Adaptive Sync Standard entspricht. Freesync kann Bereiche von 9-240Hz abdecken, GSync von jeweils 30 bis.

Anfänglich gabs Probleme mit Asic's, die aber mittlerweile Geschichte sind und niemand verbaut dafür ein 500$+ Modul.

Etabliert haben sich Asic's die folgende Wiederholraten sicherstellen können:
36-240hz
21-144Hz
9-60Hz

Wobei die Range von Herstellern festgelegt wird. Geredet wird da oder wurde da in der Presse von einer Freesync-Range von 9-240Hz, was aber totaler Blödsinn ist.

NVidia beginnt wie gesagt ab 30, alles andere wird gedoubelt (was ja den Lag erhöht). GSync muss vor allem flickerfree sein. G-Sync Ultimate führte man zum Zwecke des HDR1000 Standard ein, mit einer Helligkeit von 1.000 cd/m² (1000nits) unter einer vollflächigen Hintergrundbeleuchtung mit 384 Zonen LED als Pflicht, bei einer Abdeckung des DCI-P3-Farbraum von min 95%. Das hat NVidia mittlerweile aufgeweicht. Also von Premium ist da außer beim Preis absolut nichts mehr über, da man auch schon seit längerem keine echten 10bit Panele mehr verbauen muss, sondern 6bit oder 8bit FRC, je nach Variante. Das können sie für diese Preise gerne behalten!
 
Und beim Vesa Standard oder Freesync wird da im niedrigen FPS Bereich nicht gedoppelt/verdreifacht oder was? Das Freesync überhaupt Frames verfielfachen kann wurde doch erst nachgereicht, existiert da aber jetzt genauso. Klar sind die Hz bis runter zu 1 bei G-Sync eher Marketing als nützliche Range, aber das kann man der anderen Technik genauso vorwerfen.

Edit: Woher hast du das mit der Freesync Range eig.? Ich habe auf die schnelle kein Display gefunden was unter 30Hz als Range angibt, dafür viele die deutlich weiter oben Anfangen. Mit was aber geworben wird ist LFC (jetzt rate mal für was das steht). Wer hat überhaupt diese Diskussion angetreten?

Woher hast du das 2,4:1 Verhältniss? Das erinnert mich an eines der Ausschlusskriterium von Nvidia für Gsync Compatible Zertifizierungen, weil anfangs manche Freesync Monitore eine deutlich kleinere Range hatten.
 
Zuletzt bearbeitet :
Weil das Gehirn eines Gamers, immer nur Gaming im Kopf hat und daher von Märchen und Mythen lebt.

Natürlich gibt es Display die nur 9fps ausgeben, weil es einen Energiespareffekt hat, und für Gamer wird diese Framerate per LFC (unter FSv2) auf einen höheres Niveau gehieft.

Also bleibt der Bereich von ASync größer als der von GSync (ob das nun FreeSync oder GSync Compabile heißt ist völlig egal), weil unter 30fps nichts ausgegeben wird. Können sie gerne mit anderen weiterdiskutieren.

Der Adaptive Sync Standard ist vor allem ein Standard für Stromsparmechanismen (eDP) auf mobilen Displays oder Maschinen die nicht so hohe Wiederholraten brauchen, was zum Beispiel zu einer längeren Akkulaufzeit verhilft, weil der Refresh des Display die größte Menge an Energie bedeuten kann. NVidia und AMD bedienen sich nur aus dem Regal, der eine dediziert > der andere open source, wie immer.

Die GSync Compatbile Zertifizierungen orientieren sich nicht an Rangebereichen, das hatte ich schon geschrieben. Sondern ob ein flickerfreies Bild ohne Artefakte wiedergegeben werden kann. Das sind übrigens alles Mythen die in Foren ersponnen werden. NVidia bevorzugt Bereiche ab 48Hz VRR, weil es vor allem um niedrige Latenz geht (Gaming halt). Die Liste hat sich von damals 3-9 Geräten, mittlerweile deutlich erweitert und im Treiber wird dann GSync automatisch aktiviert, man muss es also expliziet abwählen, wenn man es nicht braucht. 48Hz für Asic bestimmter Bildformate ist dabei eine Größe, die mittlerweile für Medieninhalte angestrebt wird (HTPC), weil es unter 60Hz zum (Mirco-) Stuttering kommen kann (Ruckeln des Bildes, siehe NTSC Standard).

Aber letztlich kommen wir dann zum Thema des Artikels zurück, das NVidia GSync Modul erlaubt unter Ultimate eine VRR von 1fps, nun weiß man auch wozu man den (riesigen) Asic inklusive 3GiB DDR4 braucht. Framebuffering?
 
Zuletzt bearbeitet von einem Moderator :
Du wirfst hier so ungefähr alles durcheinander was man nur so durcheinander werfen kann.
Low Framerate Compensation sieht bei Nvidia ähnlich aus wie bei AMD, nur gabs die bei AMD am Anfang nichtmal.
Stand jetzt werden Monitore mit Gsync Modul mit einer Range ab 1Hz angegeben und ich finde kein einziges Freesync Display dass unter 30Hz geht.
Es gibt Monitore mit Gsync Modul die von 1-360Hz gehen. Erklär mir gerne inwiefern da jetzt die Freesync Range größer ist.
Das ist bisher nur ohne Begründung in irgendeiner Form dahingestellt, also erachte ich es als falsch bis ich einen Beleg dafür sehe.
Freesync ist genauso wenig ein offener Standard wie Gsync. Beide basieren auf dem Vesa Standard, nur ist das was Nvidia mit Gsync Modul verkauft tatsächlich nicht offen für andere Hersteller.

Gsync Compatible Zertifizierungen haben laut Nvidia diverse Vorraussetzungen und diese Regel mit mindestens 2,4:1 Verhältniss von der minimalen Refreshrate zur maximalen wurde dabei noch nicht gebrochen und sogar offen von Nvidia kommuniziert. Dass es keine Artefakte oder Flackern geben darf gehört natürlich ebenso dazu.
Eine Range bevorzugung in dem Sinne sehe ich jetzt nicht, die haben ja alle bei Freesync als auch Gsync die gleiche Range.
 
Mal eine Gegenfrage, ich bringe etwas durcheinander?

Wozu ein Bild 360 mal pro Sekunde ausgeben, wenn es ein Standbild ist? Was für einen Sinn hat das überhaupt, reicht es nicht dieses 1 mal oder 30 mal oder 48 mal pro Sekunde zu wiederholen und dabei vielleicht auch nur einmal zu berechnen?

Was macht es für einen Sinn, ein Foto auf einem Display an dessen Bildinhalt sich nichts ändern, 360 mal pro Sekunde zu refreshen oder 360 mal berechnen zu lassen?

Da sich NVidia zunehmend offenen Standrads verschließt, erfinden sie anhand bestehender Protokolle immer irgendwas..., (was man eigentlich gar nicht braucht). Die VRR dient lediglich der Synchronisation der Bildinhalte in einer Range, die fürs menschliche Auge sinnvoll ist und da waren 24fps und ein vieles davon, in der Vergangenheit ziemlich wichtig.

Erste FreeSync und GSync Display setzen noch auf LVDS, was mittlerweile durch HBR und Compression ersetzt wurde (4K120Hz), was klar ein eDP PSR Standard inklusive erhöhter Bitrate ist, wozu auch ASync gehört.
 
Wenn ich fies wäre: "investigativ" im Titel für am Ende nicht mehr als ein simpler Teardown mit ein paar zusammengetragenen Google-Ergebnissen geschlossen mit einem "nichts Genaues weiss man auch nicht" ist doch etwas hochtrabend, riecht eigentlich vor allem nach aufgewärmten alten Kamellen (die woanders besser / in diversen Einzelheiten nachzulesen sind) aus Anlass einer persönlichen Anschaffung locker 2 Jahre nach Release des "Untersuchungsgegenstands" (Monitor) und auch bei Gsync ist die Kuh bereits vor längerer Zeit von vielen, sehr hingebungsvoll und informativer durchs Dorf getrieben worden.

*Lufthol*

Bin aber nicht fies, daher abgemildert: Der Inhalt hat meine Erwartung nach dem Titel nicht erfüllt. Bitte beim nächsten Mal Anspruch und Wirklichkeit besser angleichen.

Ansonsten sag ich nur: Gsync =|= Gsync Ultimate =|= Gsync Compatible. Und zwar nicht nur HDR. Ist bei AMD übrigens auch so: FreeSync gibt's auch in verschiedenen Geschmacksrichtungen je nach Zusatz. Und dann gibt's da noch den allgemeinen Oberbegriff für die grundlegende Technik "an sich". Eine Diskussion über technische Details macht wenig Sinn, wenn man nichtmal die Begrifflichkeiten übereinander bekommt.

Und kann bitte @quantaro sich mal das pseudo-"Sie" abgewöhnen, oder es - wenn man es denn schon so formal halten möchte - bitte richtig (groß) schreiben? Gilt übrigens dann auch für "Ihr, Ihnen". Alles andere wirkt leider nur wie gewollt und doch daneben. Beim "Du" kann man es übrigens flexibler halten, da fallen dann immerhin auch solche Unsicherheiten nicht so auf...

Die VRR dient lediglich der Synchronisation der Bildinhalte in einer Range, die fürs menschliche Auge sinnvoll ist und da waren 24fps und ein vieles davon, in der Vergangenheit ziemlich wichtig.
Wieder einmal: Vermengung zweier unterschiedlichen Dinge mit unterschiedlicher Wirkung.

1. Eine "Range" im Sinne einer maximalen Frequenz von 24fps reicht nicht, auch 60fps nicht - das menschliche Auge ist eben doch nicht so schlecht, wie diverse Industrien und Hersteller uns das lange weismachen wollten - das hat inzwischen ja auch die Filmindustrie erkannt. Und 24 FPS werden auch nur geringfügig besser, wenn man Tearing vermeiden kann. Hat die GPU zu wenig Bumms und liefert absolut nicht genug Bilder pro Zeiteinheit, ist das für den Spaß kacke und bleibt kacke. Das Ruckeln sieht man dann immer noch in jeder Bewegung - nur halt ohne Tearing. Wo da die persönliche Schmerzgrenze bei "genug Bumms" liegt, kann man nur selbst entscheiden und ausprobieren.

2. Im übrigens ist das menschliche Auge und die "Range" bzw. die FPS-Zahl im Hinblick auf VRR aber auch erst einmal völlig wurst, da es bei VRR um die Synchronisation zwischen GPU und Monitor und die Vermeidung von TEARING geht (kein Bildrefresh während des Bildaufbaus am Monitor), nicht um die maximale darstellbare Frequenz. Selbst bei einem Standbild kann man niedrige Herzzahlen sehen, z.B. wenn man sich selbst bewegt...

Sorry, bin heute wohl auf Krawall gebürstet
 
Zuletzt bearbeitet :
"Sie" schreiben "Qu*tsch".:)

Synchronisation zwischen Monitor und GPU führt nicht zu einem Bild? Die normale VPE eines halbwegs Erwachsenen liegt bei 30ms, natürlich will das Auge dann ein Bild geliefert bekommen. Ab um die 50 Jahre setzt dann ebenfalls Latenz ein, die des Auges (nicht technischer Natur).

Ob sie also 10000 Bilder mit ihrem Auge sehen können ist irrrelevant, wenn es bis zu Nebenhirnrinde 30ms dauert. Das kann man ja um wenige ms trainieren, aber eine feste Range hat Vorteile den Bildinhalt zu verbessern (kein Zerreissen des Bildes [teraing], weil dies für unser Hirn eine Fehlinformation sein kann) oder ein Bild liefern wenn es das Gehirn verarbeiten kann. Nicht das und fürs Auge! Mit dem Auge alleine nehmen "sie" nichts "wahr".*

*auch so ein Mythos aus Foren.
 
Zuletzt bearbeitet von einem Moderator :
Wozu ein Bild 360 mal pro Sekunde ausgeben, wenn es ein Standbild ist? Was für einen Sinn hat das überhaupt, reicht es nicht dieses 1 mal oder 30 mal oder 48 mal pro Sekunde zu wiederholen und dabei vielleicht auch nur einmal zu berechnen?

Erste FreeSync und GSync Display setzen noch auf LVDS, was mittlerweile durch HBR und Compression ersetzt wurde (4K120Hz), was klar ein eDP PSR Standard inklusive erhöhter Bitrate ist, wozu auch ASync gehört.
Ich versteh die Frage nicht in dem Kontext, ansich ist das ja ein kompletter Freeze bei der Graka unabhänig ob Free- oder G-Sync.
Da kann keiner der beiden irgendwas kompensieren.
360Hz ist ja erst sinnvoll um eben idealerweiße bis zu 360 verschiedene Frames Pro Sekund abzubilden.
Ich versteh nur nicht wo Freesync die größere Range als Gsync haben soll wenn die in der Realität bestenfalls gleichauf sind.
Reden wir vielleicht aneinander Vorbei oder hat einer von uns ein Verständnissproblem bei den verwendeten Begriffen?

Welche Relevanz hat der zweite Absatz hier?
 
Zuletzt bearbeitet :
@quantaro das ist einfach alles nur daneben. Da fehlt es offensichtlich bereits an Lesekompetenz. Und Latenz ist übrigens wieder was anderes und es hilft auch nicht, bei Fehlern in der eigenen Darstellung / Argumentation nur neue Nebenkriegsschauplätze aufzumachen, die an der Sache sowas von vorbeigehen, dass es weh tut.

Latenz - zumindest im IT-umfeld - ist ein Begriff, um VERZÖGERUNG zu beschreiben, oder auch eine SIGNALLAUFZEIT. In keinem Fall ist damit eine inhaltliche Veränderung oder Modifikation des Signals verbunden: Auch bei einer hohen "Latenz" kommen trotzdem noch alle Informationen genauso an, nur eben später. Daher würde auch ein Bild mit Tearing genauso mit Tearing bei meinem Hirn ankommen... wenn's vorher flackert, ruckelt oder zerrissen ist, flackert, ruckelt oder ist es zerrissen in meinem Hirn auch 10000ms später. Manmanman. Und die ganze Diskussion um was auch immer zwischen Auge und zwischen Hirn oder im Hirn passiert, ist eh von großer Ahnungslosigkeit geprägt. Gsync oder FreeSync kommen aber ursprünglich aus einer ganz anderen Ecke: da ging es erst überhaupt nicht um Latenz - das kam dann erst später, um die ganzen doofen Gamerkiddies zu befrieden, die glauben, für sie würde ein Unterschied von wenigen ms "Latenz" (von wo nach wo auch immer) im Spielgeschehen über Sieg oder Niederlage entscheiden.

Macht aber nix, ich bin hier raus. Für Rechthaberei gepaart mit völliger Ahnungslosigkeit ist mir meine Zeit zu schade. Viel Spässeken noch.
 
Zuletzt bearbeitet :
Stand jetzt werden Monitore mit Gsync Modul mit einer Range ab 1Hz angegeben und ich finde kein einziges Freesync Display dass unter 30Hz geht.
Bei gsync (Modul) dürfen die Monitorhersteller nicht mit der tatsächlichen Panel Frequenz werben sondern MÜSSEN die minFrequenz mit Frame Doubling (multiply frames) angeben.
Bei FreeSync MÜSSEN die Monitorhersteller aber die tatsächlichen Panel Frequenz angeben und zusätzlich ob der Monitor Low Framerate Compensation unterstützt.
Offensichtlich hält nvidia seine User für dümmer als AMD seine User.
 
@quantaro das ist einfach alles nur daneben. Da fehlt es offensichtlich bereits an Lesekompetenz. Und Latenz ist übrigens wieder was anderes und es hilft auch nicht, bei Fehlern in der eigenen Darstellung / Argumentation nur neue Nebenkriegsschauplätze aufzumachen, die an der Sache sowas von vorbeigehen, dass es weh tut.

Latenz - zumindest im IT-umfeld - ist ein Begriff, um VERZÖGERUNG zu beschreiben, oder auch eine SIGNALLAUFZEIT. In keinem Fall ist damit eine inhaltliche Veränderung oder Modifikation des Signals verbunden: Auch bei einer hohen "Latenz" kommen trotzdem noch alle Informationen genauso an, nur eben später. Daher würde auch ein Bild mit Tearing genauso mit Tearing bei meinem Hirn ankommen... wenn's vorher flackert, ruckelt oder zerrissen ist, flackert, ruckelt oder ist es zerrissen in meinem Hirn auch 10000ms später. Manmanman. Und die ganze Diskussion um was auch immer zwischen Auge und zwischen Hirn oder im Hirn passiert, ist eh von großer Ahnungslosigkeit geprägt. Gsync oder FreeSync kommen aber ursprünglich aus einer ganz anderen Ecke: da ging es erst überhaupt nicht um Latenz - das kam dann erst später, um die ganzen doofen Gamerkiddies zu befrieden, die glauben, für sie würde ein Unterschied von wenigen ms "Latenz" (von wo nach wo auch immer) im Spielgeschehen über Sieg oder Niederlage entscheiden.

Macht aber nix, ich bin hier raus. Für Rechthaberei gepaart mit völliger Ahnungslosigkeit ist mir meine Zeit zu schade. Viel Spässeken noch.
Ach dann ist man raus? Wie interessant. Was denken sie, wenn es noch weiterginge mit iDP und DDM, wie ihnen da der Kopf in endloser Signallaufzeit versinkt, wenn sie schon bei so einfachen Themen den Hut werfen? Und nur weil man Foren-Mythen kritisiert und sich das halbe Forum angesprochen fühlt (wahrscheinlich zu Recht), ist das noch lange nicht mein persönliches Problem.

Es geht zuweilen auch um Latenzen (ja genau das haben sie völlig richtig erkannt), nämlich des Pixelprozessor (warum können sie sich technisch ja mal erlesen), was sie gut mit "Signallaufzeit" beschrieben (Gatespannung der Transistoren inklusive Leckströme). Die genauso auch zwischen Auge und Hirn besteht (wie von mir beschrieben, weil Latenz auch für "VERZÖGERUNG" steht [als ziemlich einfacher Obergriff und Signallaufzeit genau das ist]). Ahnungslos sind hier nur, genügend die ignorieren einen Haufen Geld für nichts auszugeben, damit Trends im Markt setzen und die Standards dazu nicht wirklich kennen, sich aber als Enthusiasten schimpfen. Aber nur zu, was geht es mich an. Dann aber bitte nicht jammern, dass es alles teuer ist. Die Hersteller nutzen solche (Wissens-) Lücken gnadenlos aus, um über ihr PR Gehabe Ihre Entwicklungen an den Mann oder die Frau zu bringen.

Sie können das mit ihrem sinnlosen Post aber gerne ins Lächerliche ziehen, was sie immer sie meinen!

Latenz ist zumindest im IT Umfeld, "IT Umfeld"? Ehrlich peinlicher geht es nicht. "Keine Modifikation" des Signals, ist völlig lachhaft, was sie zu einem absoluten Laien abstempelt. Die differentielle Übertragung findet bei einer Spannung von 3mV bis 300mV statt und wird natürlich abgeändert (modifiziert!!!!). Weil es zu einem Schalt- und zu anderem Logikpegel gibt und man die Schaltgeschwindigkeit damit realtime anpasst. Genau das macht VRR aus! Das Ganze basiert auf RGB und zwar serialisierte Farbsignale (bspw. LVDS/LMDS inklusive EMI). Dabei werden die Signale zur Störminderung differenziell übertragen, auch Störspannungsunterdrückung genannt.

Fall sie also den "Klugschei*er" raushängen lassen wollten anstatt den "auf Krawall" gebürsteten, ist ihnen das leider nur laienhaft gelungen. Besser wäre dann man lässt es.
 
Ich sags ja gerne noch einmal: Es geht bei den Hz nicht darum, wie viele davon das Auge aufnimmt und das Hirn verarbeiten kann, sondern was in der Zeitspanne zu sehen ist, also wie viele Informationen in der Auge/Hirn Aufnahmephase dargestellt werden können.

Angenommen ich könnte mit der Maus einen perfekten Kreis ziehen in einer bestimmten Geschwindigkeit, sehe ich auf einem 60Hz Monitor im Idealfall 60 Mauscursor, die zusammen eine Kreisbewegung vollziehen. Auf einem 144Hz Monitor eben schon 144 Cursor und auf einem 360Hz Monitor? Kann man sich jetzt denken, ne? Und je mehr Hz, desto "runder" wird dieser Kreis, die Abstände zwischen den Mauscursorn verringert sich.
 
Das geht aber nicht, wenn nur alle 30ms ein Bild von Auge gesendet und vom Hirn verarbeitet werden kann, da ist es gefälliger weise nur sinnvoll genau in diesem Moment, der von Mensch zu Mensch variieren kann, ein Bild dargestellt wird. Das Auge könnte viel mehr Bilder verarbeiten, je nach Lichteinfall und Intensität der Helligkeit. Das gleiche Problem hat man technisch erläutert bei CPU- und GPU Limits. Der jeweilige Host könnte viel mehr verarbeiten, kann es aber nicht weil es einen "Signalstau" gibt.

Ein Pixelprozessor hat eine bestimmte "Trägheit" (Latenz, Verzögerung, Signallaufzeit, Verarbeitungszeit), weil sich LCD Kristalle in schlimmsten Fällen nicht schnell genug bewegen und bevor sie erneut geschaltet werden, erst ihre Ausgangsposition erreichen müssen, denn wenn das nicht passiert gibt es Ghosting. Deshalb variiert (modifiziert=verändert) man bspw. auch Signalspannungen.

Ehrlich, das hier ist kein Enthusiastforum, sondern ein "Kindergarten".

Was Hz betrifft, ist das eine Größe für die Anzahl von Wiederholungen und zwar pro sec, die in Abhängigkeit vom Bildinhalt und neuen Daten die verarbeitet werden müssen, steht. Es ist sinnvoll das diese Frequenz mit der Bildausgabe der GPU übereinstimmt, weil man dann ein "vollständiges" Bild zu Gesicht bekommt, was das Hirn dann auch als solches verarbeitet.

Das nimmt man dann als flüssig wahr!
 
Zuletzt bearbeitet von einem Moderator :
Was für einen Sinn hat das überhaupt, reicht es nicht dieses 1 mal oder 30 mal oder 48 mal pro Sekunde zu wiederholen und dabei vielleicht auch nur einmal zu berechnen?
In Games wird das Bild so häufig wie möglich neu berechnet oder so schnell, wie die Frequenz des Bildschirms wenn man es so einstellt. Alle anderen PC-Anwendungen berechnen das Bild nur neu, wenn sich etwas geändert hat. Die Grafikkarte zeigt dann einfach immer das selbe Bild aus dem selben Speicherbereich der Grafikkarte an. Es ist also durchaus möglich, nicht jede Sekunde ein neues Bild zu berechnen.

Der Bildschirm muss die Anzeige auf dem Panel aber mindestens etwa 30 mal pro Sekunde erneuern. Wenn die Elektronik des Bildschirms ein Pixel des Panels setzt, bleibt diese Information im Panel nicht lange erhalten. Wenn man die Pixel nicht andauernd erneuern würde, hätte man recht schnell kein Bild mehr. Das ist der Grund, weshalb die Bilder mehrmals angezeigt werden, wenn die Bildrate unter 30 FPS sinkt.
 
In Games wird das Bild so häufig wie möglich neu berechnet oder so schnell, wie die Frequenz des Bildschirms wenn man es so einstellt.
Das stimmt nicht.

Es geht um Bildinhalte, und dieser Ausgabeprozess ist unterschiedlich lang bzw. kann unterschiedlich lange Berechnungszeiten haben. Es ist gut möglich, dass der Monitor viel schneller ist als die GPU oder umgekehrt, aber genau dafür gibt es VRR. Das ist kein einseitiger Prozess, sicher macht es Sinn das Hardware dabei zusammenpasst (Pixelmenge). Die GPU kann die Bildausgabe steuern, damit wie schon dargestellt man ein vollständiges Bild zu Gesicht bekommt.

Bei weniger oder höheren Bildinhalten braucht auch der Mensch länger, um diesen Inhalt zu verarbeiten. Dann ist es sinnvoll eher langsam Bilder auszugeben oder zu wiederholen, und manch ein "Ruckeleffekt" ist wegen Realitätsnähe auch erwünscht (bspw. in Filmen).

Refresh eines Bildes bedeutet nicht gleich neue Bildausgabe, sondern man sieht ein Bild dann zweimal, weil es zwischengespeichert wird. Renderqueue.
 
Offensichtlich hält nvidia seine User für dümmer als AMD seine User.
Macht das jetzt tatsächlich einen Unterschied ob man z.B. min 30Hz mit LFC ranschreibt oder die Range ab 1Hz angibt weil LFC bei Gsync immer inbegriffen ist?
Da würde ich auch nicht direkt von für Dumm verkaufen reden und ganz sicher nicht rumposaunen dass Freesync eine größere Range hätte, obwohl die sich in der Realität nichts geben in der Hinsicht.
Refresh eines Bildes bedeutet nicht gleich neue Bildausgabe, sondern man sieht ein Bild dann zweimal.
Was anderes hat er auch nicht geschrieben, weiß nicht warum du da falsch schreien musst und ihn dann nochmal wiederholst.
Aber ich sehe du springst hier von Punkt zu Punkt, weil du einfach nur irgendeinen zusammenhangslosen Käse schreiben kannst ohne irgendwas davon belegen zu wollen, oder tatsächlich zu können.
 
Mein letzter Beitrag zu dem Thema. Da das Kommunikationsniveau zusehend abstürzt.

Ich persönlich habe ein Notebook aus 2020 inklusive GSync IPS Panel mit 144Hz. Das hat "kein" GSync Modul und aktiviert auch nicht GSync Compatible.

Siehe diesen Teardown von PC Perspective aus 2015:

Ich glaube schon das ich GSync mitbezahlt habe, ich frage mich nur was davon? NVidia wird eher nachgesagt, dass dieses Modul die Hersteller Asic in Monitoren ersetzt und sei ähnlich wie DRM, also nichts weiter wie man es jahrelang unter PhysX zelebriert hat, aber diesmal eben auf Basis des gleichen Standards der nicht von NVidia stammt (PhysX hatte man damals von Ageia zugekauft, also auch keine NVidia interne Entwicklung).

Wie ich schon schrieb, ist Kritik in den Fall berechtigt. Bitte einen Gegenbeweis, Teardown oder etwas ähnliches das Gegenteiliges beweist!
 
Zuletzt bearbeitet von einem Moderator :
Das geht aber nicht, wenn nur alle 30ms ein Bild von Auge gesendet und vom Hirn verarbeitet werden kann, da ist es gefälliger weise nur sinnvoll genau in diesem Moment, der von Mensch zu Mensch variieren kann, ein Bild dargestellt wird. Das Auge könnte viel mehr Bilder verarbeiten, je nach Lichteinfall und Intensität der Helligkeit. Das gleiche Problem hat man technisch erläutert bei CPU- und GPU Limits. Der jeweilige Host könnte viel mehr verarbeiten, kann es aber nicht weil es einen "Signalstau" gibt.

Ein Pixelprozessor hat eine bestimmte "Trägheit" (Latenz, Verzögerung, Signallaufzeit, Verarbeitungszeit), weil sich LCD Kristalle in schlimmsten Fällen nicht schnell genug bewegen und bevor sie erneut geschaltet werden, erst ihre Ausgangsposition erreichen müssen, denn wenn das nicht passiert gibt es Ghosting. Deshalb variiert (modifiziert=verändert) man bspw. auch Signalspannungen.

Ehrlich, das hier ist kein Enthusiastforum, sondern ein "Kindergarten".

Was Hz betrifft, ist das eine Größe für die Anzahl von Wiederholungen und zwar pro sec, die in Abhängigkeit vom Bildinhalt und neuen Daten die verarbeitet werden müssen, steht. Es ist sinnvoll das diese Frequenz mit der Bildausgabe der GPU übereinstimmt, weil man dann ein "vollständiges" Bild zu Gesicht bekommt, was das Hirn dann auch als solches verarbeitet.

Das nimmt man dann als flüssig wahr!
Gehirne hassen diesen Trick:

Dann teste mal und überzeuge dich selbst. Stelle deinen Monitor auf 60Hz und mach Kreisbewegungen mit der Maus und immer schön den zeiger anschauen. Dann das gleiche mit 144 Hz. Du wirst staunen.
 
Natürlich hassen trainierte Gehirne Tricks, vor allem dass man ein GSync Panel ohne tollen GSync Prozessor von NVidia hat, es aber komischerweise trotzdem funktioniert. Kenner nennen diese Werbung ja irreführend, oder Betrug. Vor allem weil man auf deren Hauptseite so einen Prozessor abbildet! Nur passt das nicht in jeden Kopf, so ist es auch mit Wiederholrate oder technischen Details.

Worüber soll man denn stauen, ein Bild das 144mal die sec ausgegeben wird und bei dem sich wenige Pixel ändern? Worüber sich manche Leute noch freuen können. Der Groß der Prozessoren gibt immer die gleiche RGB wieder. Mal selbst überlegen warum.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten