Reviews NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync? Wir messen die Systemlatenz! | Praxis

FreeSync und adaptive Sync ist das gleiche... wo soll der Unterschied sein?
Du verstehst es nicht.

Wegen Nvidia und double frame:
...
Minimum Refresh Range

Once the framerate reaches the approximate 36 and below mark, the G-SYNC module begins inserting duplicate refreshes per frame to maintain the panel’s minimum physical refresh rate, keep the display active, and smooth motion perception. If the framerate is at 36, the refresh rate will double to 72 Hz, at 18 frames, it will triple to 54 Hz, and so on. This behavior will continue down to 1 frame per second.
...
 
@summit hat grundsätzlich recht. Allerdings kam das Framedoubling bei Freesync eine ganze Weile später als bei NVidia, die das von der ersten Implementierung hatten.

Der entscheidende und einzige Unterschied zwischen Freesync und GSync ist die Zertifizierung und die damit verbundenen Anforderungen an den Monitor. Jeder Hersteller darf seinen Monitor Freesync Kompatibel nennen, auch wenn er nur eine Range von 50 bis 60 Hz kann. GSync hat deutlich höhere Ansprüche und auch GSync compatible wird als Prädikat nur dann vergeben, wenn der Freesync Monitor bestimmte Mindestanforderungen erfüllt.

Aber sonst sind technisch in der Tat kaum noch relevante Unterschiede auszumachen. So denke ich (ohne es zu 100% sicher zu wissen), dass bei NVidia das Framedoubling komplett im Monitor selbst, also im GSync Chip stattfindet (deswegen braucht der auch den vielen Speicher) wogegen das bei Freesync die Grafikkarte übernehmen muss, d.h. die Grafikkarte muss dann das selbe Bild wiederholt übertragen. Ob das irgendwelche echten Nachteile hat, kann ich aber tatsächlich nicht sagen.
 
@summit hat grundsätzlich recht. Allerdings kam das Framedoubling bei Freesync eine ganze Weile später als bei NVidia, die das von der ersten Implementierung hatten.

Der entscheidende und einzige Unterschied zwischen Freesync und GSync ist die Zertifizierung und die damit verbundenen Anforderungen an den Monitor. Jeder Hersteller darf seinen Monitor Freesync Kompatibel nennen, auch wenn er nur eine Range von 50 bis 60 Hz kann. GSync hat deutlich höhere Ansprüche und auch GSync compatible wird als Prädikat nur dann vergeben, wenn der Freesync Monitor bestimmte Mindestanforderungen erfüllt.

Aber sonst sind technisch in der Tat kaum noch relevante Unterschiede auszumachen. So denke ich (ohne es zu 100% sicher zu wissen), dass bei NVidia das Framedoubling komplett im Monitor selbst, also im GSync Chip stattfindet (deswegen braucht der auch den vielen Speicher) wogegen das bei Freesync die Grafikkarte übernehmen muss, d.h. die Grafikkarte muss dann das selbe Bild wiederholt übertragen. Ob das irgendwelche echten Nachteile hat, kann ich aber tatsächlich nicht sagen.
Dann kann ich es aber messen...

Einfacher Versuch

144 Hz FreeSync Premium vs 144 GSync

Dann die FPS auf 30 limitieren und LDAT wird uns das Ergebnis präsentieren!
 
VSync an ist (bei der üblichen Implementierung) identisch wenn es im Spiel oder im Treiber aktiviert wird: Es führt dazu, dass beim Erreichen der Maximalfrequenz echtes VSync aktiv wird, d.h. die Frames im Backpuffer warten müssen, bis der Monitor das nächste Bild frisch anzeigen kann.

Es ist kein Framelimiter, auch wenn er ähnlich wirkt, ein Framelimiter hat aber immer einen Vorteil was die Latenz angeht.

Und dass VSync an den Lag erhöht kann man so auch nicht sagen. Denn das gilt ja nur, wenn die Framerate höher ist als die Monitorfrequenz. Es ist doch ganz einfach: Ist das Spiel unterhalb der maximalen Frequenz des Monitors, dann ist alles gut und man bekommt das beste Ergebnis mit GSync/Freesync. Ich versuche das immer zu erreichen.

Ist die Framerate dauerhaft überhalb der Frequenz des Monitors, dann habe ich die Wahl: Tearing (und nur die Einbildung einer höheren Framerate, de fakto hat man sie nämlich tatsächlich nicht... der Monitor kann nicht mehr komplette Bilder pro Sekunde anzeigen als er es eben kann) oder man limitiert die Framerate auf die Monitorfrequenz. Über VSync oder über Limiter. Letzteres hat leichte(!) Vorteile, die aber außer Spieler im Extrem-Kompetitiven Bereich kaum jemand tatsächlich spüren wird.

Dann die FPS auf 30 limitieren und LDAT wird uns das Ergebnis präsentieren!

Was erwartest Du denn für Ergebnisse?

Ohne Framedoubling wurde Freesync unterhalb von 30 Hz früher schlicht abgeschaltet - sprich man hatte wieder Tearing. Wenn Du kein Tearing hast, dann geht das nur, weil Framedoubling stattfindet.

Die Latenz, die man in dem Bereich hat, ist immer schlimmstenfalls die maximale Monitorfrequenz. Denn so viel Verzögerung kannst Du im ungünstigsten Fall bekommen, bis wieder ein neues Bild angezeigt werden kann.

Beispiel: Der Monitor beginnt gerade, das selbe Bild zum zweiten Mal anzuzeigen (wegen dem Doubling). Genau da kommt das tatsächlich neue Bild rein. Es muss aber dennoch erst mal das alte Bild vollständig gezeigt werden. Das dauert exakt so lange, wie die Monitorfrequenz, also bei einem 144 Hz Monitor, 1/144tel Sekunde. Diesen zusätzlichen Lag kannst Du also maximal im Bereich unterhalb von 30 fps bekommen. Egal ob bei GSync oder Freesync.
 
Zuletzt bearbeitet von einem Moderator :
144 Hz FreeSync Premium vs 144 GSync
Dann die FPS auf 30 limitieren und ..
... vollkommen sinnlos, dann lieber Geld in neue Graka stecken, die nen ollen FS-Moni ab 40Hz füttern kann.

Bei älteren 4k-Monis gings per CRU bis 33-34Hz runter zu regeln.
 
@summit hat grundsätzlich recht. Allerdings kam das Framedoubling bei Freesync eine ganze Weile später als bei NVidia, die das von der ersten Implementierung hatten.
Umso wichtiger ist, dass dieses Gerücht in das Reich der Fabeln gehört.
AMD hat LFC, nvidia frame doubling. So what?
Der entscheidende und einzige Unterschied zwischen Freesync und GSync ist die Zertifizierung und die damit verbundenen Anforderungen an den Monitor. Jeder Hersteller darf seinen Monitor Freesync Kompatibel nennen, auch wenn er nur eine Range von 50 bis 60 Hz kann. GSync hat deutlich höhere Ansprüche und auch GSync compatible wird als Prädikat nur dann vergeben, wenn der Freesync Monitor bestimmte Mindestanforderungen erfüllt.
Dann nimm doch ein AMD FreeSync™ Premium Monitor.
AMD FreeSync™ Premium
Bildwiederholrate von mindestens 120 Hz bei minimaler FHD-Auflösung
Unterstützung für Low Framerate Compensation (LFC)
Geringe Latenzen

Aber sonst sind technisch in der Tat kaum noch relevante Unterschiede auszumachen. So denke ich (ohne es zu 100% sicher zu wissen), dass bei NVidia das Framedoubling komplett im Monitor selbst, also im GSync Chip stattfindet (deswegen braucht der auch den vielen Speicher) wogegen das bei Freesync die Grafikkarte übernehmen muss, d.h. die Grafikkarte muss dann das selbe Bild wiederholt übertragen. Ob das irgendwelche echten Nachteile hat, kann ich aber tatsächlich nicht sagen.
Kann ein Monitor unmittelbar von der minHz zur maxHz (und zurück) wechseln bedeutet dies, er kann jedes neue Bild(inc Scanout!) IMMER innerhalb maxHz darstellen, extra RAM/Cache kann dies auch nicht schneller machen.
 
Dann kann ich es aber messen...

Einfacher Versuch

144 Hz FreeSync Premium vs 144 GSync

Dann die FPS auf 30 limitieren und LDAT wird uns das Ergebnis präsentieren!
Mal davon abgesehen dass es mir nicht ersichtlich ist was genau du da messen willst.

Wenn du schon im Titel schreibst:"NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync? ..." dann benutze doch bitte auch AMD FreeSync, bis jetzt müsste dort stehen:"NVIDIA G-SYNC vs. Nvidia g-sync compatible (an einem FreeSync Monitor) vs. V-Sync? ...".
 
VSync an ist (bei der üblichen Implementierung) identisch wenn es im Spiel oder im Treiber aktiviert wird: Es führt dazu, dass beim Erreichen der Maximalfrequenz echtes VSync aktiv wird, d.h. die Frames im Backpuffer warten müssen, bis der Monitor das nächste Bild frisch anzeigen kann.

Es ist kein Framelimiter, auch wenn er ähnlich wirkt, ein Framelimiter hat aber immer einen Vorteil was die Latenz angeht.

Und dass VSync an den Lag erhöht kann man so auch nicht sagen. Denn das gilt ja nur, wenn die Framerate höher ist als die Monitorfrequenz. Es ist doch ganz einfach: Ist das Spiel unterhalb der maximalen Frequenz des Monitors, dann ist alles gut und man bekommt das beste Ergebnis mit GSync/Freesync. Ich versuche das immer zu erreichen.

Ist die Framerate dauerhaft überhalb der Frequenz des Monitors, dann habe ich die Wahl: Tearing (und nur die Einbildung einer höheren Framerate, de fakto hat man sie nämlich tatsächlich nicht... der Monitor kann nicht mehr komplette Bilder pro Sekunde anzeigen als er es eben kann) oder man limitiert die Framerate auf die Monitorfrequenz. Über VSync oder über Limiter. Letzteres hat leichte(!) Vorteile, die aber außer Spieler im Extrem-Kompetitiven Bereich kaum jemand tatsächlich spüren wird.



Was erwartest Du denn für Ergebnisse?

Ohne Framedoubling wurde Freesync unterhalb von 30 Hz früher schlicht abgeschaltet - sprich man hatte wieder Tearing. Wenn Du kein Tearing hast, dann geht das nur, weil Framedoubling stattfindet.

Die Latenz, die man in dem Bereich hat, ist immer schlimmstenfalls die maximale Monitorfrequenz. Denn so viel Verzögerung kannst Du im ungünstigsten Fall bekommen, bis wieder ein neues Bild angezeigt werden kann.

Beispiel: Der Monitor beginnt gerade, das selbe Bild zum zweiten Mal anzuzeigen (wegen dem Doubling). Genau da kommt das tatsächlich neue Bild rein. Es muss aber dennoch erst mal das alte Bild vollständig gezeigt werden. Das dauert exakt so lange, wie die Monitorfrequenz, also bei einem 144 Hz Monitor, 1/144tel Sekunde. Diesen zusätzlichen Lag kannst Du also maximal im Bereich unterhalb von 30 fps bekommen. Egal ob bei GSync oder Freesync.
Es ist nicht ganz richtig, was du sagst. Vsync im Treiber ist der facto ein Frame Limiter und agiert auch als solcher bei aktiviertem G-sync bzw Freesync. Nvidia beschreibt das auch so.
Daher ist das ja auch die Lösung in Kombination.
 
... vollkommen sinnlos, dann lieber Geld in neue Graka stecken, die nen ollen FS-Moni ab 40Hz füttern kann.

Bei älteren 4k-Monis gings per CRU bis 33-34Hz runter zu regeln.
Ich möchte nur messen, ob sich die zu niedrige Framerate auf die Latenz auswirkt. Weil ich bei 30 FPS außerhalb der VRR liege!
 
Es ist nicht ganz richtig, was du sagst. Vsync im Treiber ist der facto ein Frame Limiter und agiert auch als solcher bei aktiviertem G-sync bzw Freesync. Nvidia beschreibt das auch so.
Daher ist das ja auch die Lösung in Kombination.
Ok, man lernt ja nie aus. Sinn macht das aber keinen: Denn wenn ein Spiel die Einstellung "VSync an" anbietet, dann macht das synchronisieren ja nicht das Spiel selbst, sondern es wird nur ein Flag gesetzt und die Synchronisation übernimmt weiterhin der Treiber.

Warum sollte es also hier einen Unterschied geben?

Kannst Du mir eine Quelle zeigen, wo NVidia behauptet, VSync im Treiber würde wie ein Framelimiter wirken? Oder meinst

Du speziell die "Fast" Einstellung im Treiber? Die ist etwas besonderes, von der habe ich aber nie gesprochen. Das ist tatsächlich ein spezieller Modus, der so funktioniert, wie Du es beschreibst, aber das wird ja nicht automatisch verwendet wenn man VSync im Treiber erzwingt. Man muss es speziell aktivieren.

Ich möchte nur messen, ob sich die zu niedrige Framerate auf die Latenz auswirkt. Weil ich bei 30 FPS außerhalb der VRR liege!
Wird halt schwer das zu messen. Denn Du hast ja alleine durch die geringe Framerate ja schon grundsätzlich eine Latenz von mindestens 1/30tel Sekunde, also 33ms. Und durch die maximale Verzögerung durch das Doubleframing bei einem 144Hz Monitor ein maximal zusätzliches Delay von 7ms.
 
Zuletzt bearbeitet von einem Moderator :
Es ist nicht ganz richtig, was du sagst. Vsync im Treiber ist der facto ein Frame Limiter und agiert auch als solcher bei aktiviertem G-sync bzw Freesync. Nvidia beschreibt das auch so.
Daher ist das ja auch die Lösung in Kombination.
Lange Rede kurzer Sinn... es gibt nur ein Motto:

Miss es oder vergiss es! Ich messe die Treibereinstellungen...

Das Thema, dass Nvidia V-Sync als Framelimiter bewirbt is mir neu... Frag ich aber direkt mal bei Nvidia nach...
 
Ok, man lernt ja nie aus. Sinn macht das aber keinen: Denn wenn ein Spiel die Einstellung "VSync an" anbietet, dann macht das synchronisieren ja nicht das Spiel selbst, sondern es wird nur ein Flag gesetzt und die Synchronisation übernimmt weiterhin der Treiber.

Warum sollte es also hier einen Unterschied geben?

Kannst Du mir eine Quelle zeigen, wo NVidia behauptet, VSync im Treiber würde wie ein Framelimiter wirken? Oder meinst

Du speziell die "Fast" Einstellung im Treiber? Die ist etwas besonderes, von der habe ich aber nie gesprochen. Das ist tatsächlich ein spezieller Modus, der so funktioniert, wie Du es beschreibst, aber das wird ja nicht automatisch verwendet wenn man VSync im Treiber erzwingt. Man muss es speziell aktivieren.


Wird halt schwer das zu messen. Denn Du hast ja alleine durch die geringe Framerate ja schon grundsätzlich eine Latenz von mindestens 1/30tel Sekunde, also 33ms. Und durch die maximale Verzögerung durch das Doubleframing bei einem 144Hz Monitor ein maximal zusätzliches Delay von 7ms.

Ich meese mit und ohne FreeSync bzw G-Sync
 
Ich meese mit und ohne FreeSync bzw G-Sync
Dann spielt es tatsächlich eine Rolle, ob Du am Monitor oben oder unten misst. Durch das Tearing hast Du im oberen Bereich immer einen Vorteil, das Bild laggt im unteren Bereich stärker.

Denn das Bild wird von oben nach unten aufgebaut.
 
Dann spielt es tatsächlich eine Rolle, ob Du am Monitor oben oder unten misst. Durch das Tearing hast Du im oberen Bereich immer einen Vorteil, das Bild laggt im unteren Bereich stärker.

Denn das Bild wird von oben nach unten aufgebaut.

Das is bekannt... ich schau es mir mal an... ob das messebar is...
 
Aber ein Framelimiter ist trotzdem besser, weil ein Synchronisieren auf die Maximalfrequenz des Monitors immer ein wenig zusätzlichen Lag erzeugt, die Zeit nämlich, die das Bild im Backpuffer liegt, bevor der Monitor ein neues Bild anzeigen kann.
Genau so hab ich mir VSync eigentlich auch immer vorgestellt. D.h. das Bild wird z. B. bei einem 60Hz Monitor um maximal 1/60 s = 16,7 ms verzögert. Wie kommt es dann aber dazu, dass @FritzHunter01 in seinem Artikel bei 60 Hz eine Latenzzunahme von fast 80 ms misst?
 
Ich hab mich vertan... es ist genau umgekehrt: UNTEN am Monitor ist das Bild "aktueller" als oben... :)

Mal schauen, ob das auch messbar ist.

Ich glaube, da geht es jetzt ein wenig durcheinander. Meinem Verständnis nach und in Erinnerung etlicher Tests dazu stellt es sich so dar:

Naturgemäß ist beim (wie auch immer) gesyncten (!) Bildaufbau von oben nach unten der kürzestmögliche Lag nur am obersten Bildschirmrand möglich – der Bildwechsel im unteren Bildbereich ist durch den Bildaufbau verzögert und lagt dadurch immer etwas mehr, je weiter unten der Messpunkt liegt, und ja, das ist messbar und wurde bereits oft nachgewiesen.

Anders sieht es hier bei Bildern ohne Sync aus: Da liegt die kürzeste Wechselzeit immer genau unterhalb der Grenze dort, wo sich der Tearingriss zeigt. Unterhalb des Tearingrisses ist das Bild aktueller und damit der Lag etwas geringer. Damit kann im unteren Bildbereich statistisch betrachtet häufiger ein eine Spur größerer Vorteil für das ungesyncte Bild gemessen werden als im oberen Bildbereich, da eben der Vorteil des aktuelleren Bildes immer stärker im unteren Bildbereich, also eben unter dem Tearingriss, zum Tragen kommt.

Unten *kann* also ohne Sync das Bild aktueller sein, muss es aber nicht. Da ergibt sich eine statistische Verteilung, mal ist unten mehr lag, mal weniger, je nachdem, welche Stelle u*und* welche Situation genau, denn das Bild selbst, wenn schon gerechnet und noch nicht gerissen, ist ja oben prinzipbedingt immer noch früher da, da eben von oben nach unten zeilenweise dargestellt wird.

Bei Sync aber wird oben immer eine Spur weniger Lag gemessen.
 
Zuletzt bearbeitet :
Also immer an gleicher stelle messen. Aber da Fritz sogar ne MSA gemacht hat, wird er das sicherlich schon machen.
 
Das klingt für mich persönlich nach Stotter... das leigt in der Regel daran, dass du mit Frametimes all over the place spielst.

Bie den nächsten Messungen (RTX 3060Ti vs. 6700XT) werde ich hier noch Frametimes und Varianzen mit protokollieren. Da kann ich das besser aufzeigen bzw. beschrieben!

Versuch mal bitte deine Frametime auf eine "gerade" Linie zu bringen. RTSS und Grafik für die FT an!

Bitte kein FL sondern erstmal voll Beballerung... dann Protokolliere mal die FT... das wird bestimmt aussehen, wie Herzkammerfimmern kurz vor dem terminalen Ende!

Dann regelst du mit dem IGFL die FPS runter bis du eine "gerade" Linie in bzgl. der FT hast... Ich denke, dann ist das Problem weg. Zumindest bei Doom...

Bzgl. Metro Exodus hast du mit dem AMD Treiber FL gearbeitet? Aus meiner Erfahrung sind weder der Nvidia noch AMD FL brauchbar umgesetzt.
Kannst du das bitte nochmal versuchen? Welche Einstellungen (Grafik) hast du mit der 5700XT? Da ich auch eine habe, versuche ich das mal zu reproduzieren! Dann kann ich auch mal mit LDAT messen...
Hi. Hab jetzt einige Tests vorgenommen. Du hast Recht. Meine Frametimes sind alles andere als gleichförmig. Wenn ich aber mit dem IGFL auf 60 runter gehe, dann hab ich fettes Tearing im unteren Bildbereich.
Ich teste als nächstes eine Limitierung auch im Treiber (die hatte ich "Aus" gestellt). Davon ab: in z. B. SoTR hab ich kein Tearing und es läuft trotz springender Frametimes ganz smooth. Ist aber auch G-Sync on.
 
Oben Unten