Reviews NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync? Wir messen die Systemlatenz! | Praxis

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.751
Bewertungspunkte
8.481
Punkte
1
Standort
Redaktion
Wenn es um das Thema Latenzen geht, dann hört/liest man oft, dass sich die adaptiven Sync-Technologien negativ auf die Latenzen auswirken sollen. Hmm? Versucht man es sich selbst zu erklären, dann könnte das durchaus sein. Nehmen wir an, ihr habt einen 144 Hz Monitor mit FreeSync oder G-SYNC und bestrahlt den mit 300 FPS. Was […]

Hier den ganzen Artikel lesen
 
Das war doch mal aufschlußreich.

Jetzt bin ich aber auf die Folge Artikel gespannt : )
 
GSync und Freesync verhindert Tearing zu 100%.

Wenn man sich aber überhalb der Maximal-Frequenz des Monitors bewegt, wird sowohl GSync als auch Freesync ganz abgeschaltet, sprich es wird nicht mehr gesynct sondern man hat das selbe Verhalten wie bei VSync-Off. Daher das beobachtete Tearing. So wie es im Artikel steht, klingt es, als würde GSync/Freesync Tearing nicht zuverlässig vehindern, das ist so aber falsch.

Man muss im Treiber oder Spiel zusätzlich VSync einschalten, dann bleibt die Framerate auf die Maximalfrequenz des Monitors begrenzt und man hat nie Tearing.

Aber ein Framelimiter ist trotzdem besser, weil ein Synchronisieren auf die Maximalfrequenz des Monitors immer ein wenig zusätzlichen Lag erzeugt, die Zeit nämlich, die das Bild im Backpuffer liegt, bevor der Monitor ein neues Bild anzeigen kann. Der Framelimiter begrenzt die Framerate aber sozusagen "CPU-Seitig" wodurch das Bild ein paar Millisekunden "aktueller" ist, als eines, dass ungenutzt im Backpuffer der Grafikkarte warten muss. Schneller sieht man die Bilder deswegen nicht, aber sie sind eben zeitlich einen Tick näher am Geschehen.

Bei 60 Hz mag das einen entscheidenden Unterschied machen. Bei 120 Hz... Nun ja. Muss jeder selbst wissen, welch übermenschlichen Fähigkeiten er sich zutraut.
 
Zuletzt bearbeitet von einem Moderator :
Ich weiß nicht, ob es zu kompliziert geschrieben ist oder ich es einfach nicht verstehe - vielleicht übersetzt ihr mal die Latenz-Messwerte in Tabellen-Form oder eine andere Übersicht?
Teilweise widersprechen die Aussagen auch meinen eigenen Erfahrungen und das hat nichts mit "subjektiver Wahrnehmung" zu tun. So hab ich mit der 5700XT in Metro Exodus bei Treiber-seitigen 30 FPS (hatte FreeSync aktiviert) ein deutlich flüssigeres Ergebnis als ohne Sync mit >60 FPS (damals noch 75Hz FreeSync Monitor).
Bei Doom Eternal beobachte ich ebenfalls das von @Grestorn genannte "Phänomen": Hier habe ich deutlich >144 Hz trotzdem fühlt es sich bisweilen hakelig an. War mir bisher nicht bewusst, dass die Sync-Technologie dabei den Dienst quittiert.
Stelle ich jetzt die FPS fix auf z. B. 120 oder limitiere ich nur die Maximale Anzahl auf den Wert?
 
GSync und Freesync verhindert Tearing zu 100%.

Wenn man sich aber überhalb der Maximal-Frequenz des Monitors bewegt, wird sowohl GSync als auch Freesync ganz abgeschaltet, sprich es wird nicht mehr gesynct sondern man hat das selbe Verhalten wie bei VSync-Off. Daher das beobachtete Tearing. So wie es im Artikel steht, klingt es, als würde GSync/Freesync Tearing nicht zuverlässig vehindern, das ist so aber falsch.

Man muss im Treiber oder Spiel zusätzlich VSync einschalten, dann bleibt die Framerate auf die Maximalfrequenz des Monitors begrenzt und man hat nie Tearing.

Aber ein Framelimiter ist trotzdem besser, weil ein Synchronisieren auf die Maximalfrequenz des Monitors immer ein wenig zusätzlichen Lag erzeugt, die Zeit nämlich, die das Bild im Backpuffer liegt, bevor der Monitor ein neues Bild anzeigen kann. Der Framelimiter begrenzt die Framerate aber sozusagen "CPU-Seitig" wodurch das Bild ein paar Millisekunden "aktueller" ist, als eines, dass ungenutzt im Backpuffer der Grafikkarte warten muss. Schneller sieht man die Bilder deswegen nicht, aber sie sind eben zeitlich einen Tick näher am Geschehen.

Bei 60 Hz mag man das einen entscheidenden Unterschied machen. Bei 120 Hz... Nun ja. Muss jeder selbst wissen, welch übermenschlichen Fähigkeiten er sich zutraut.
Moin moin, ich mag deine konstruktiv kritische Art. Im Ernst!

Ich konnte bisweil kein extremes Tearing weder mit FreeSync noch G-SYNC feststellen, wenn ich deutlich mehr FPS auf den Monitor brenne. Was aber passieren kann, dass es im unteren Drittel zu leichtem Tearing kommt. Da muss man aber schon sehr genau hinschauen!

Das FreeSync bzw. G-SYNC oberhalb der Bildwiederholrate gar nicht mehr funktionieren, dass is mir neu. Werde ich direkt mal bei Nvidia anfragen!
 
Ich weiß nicht, ob es zu kompliziert geschrieben ist oder ich es einfach nicht verstehe - vielleicht übersetzt ihr mal die Latenz-Messwerte in Tabellen-Form oder eine andere Übersicht?
Teilweise widersprechen die Aussagen auch meinen eigenen Erfahrungen und das hat nichts mit "subjektiver Wahrnehmung" zu tun. So hab ich mit der 5700XT in Metro Exodus bei Treiber-seitigen 30 FPS (hatte FreeSync aktiviert) ein deutlich flüssigeres Ergebnis als ohne Sync mit >60 FPS (damals noch 75Hz FreeSync Monitor).
Bei Doom Eternal beobachte ich ebenfalls das von @Grestorn genannte "Phänomen": Hier habe ich deutlich >144 Hz trotzdem fühlt es sich bisweilen hakelig an. War mir bisher nicht bewusst, dass die Sync-Technologie dabei den Dienst quittiert.
Stelle ich jetzt die FPS fix auf z. B. 120 oder limitiere ich nur die Maximale Anzahl auf den Wert?
Das klingt für mich persönlich nach Stotter... das leigt in der Regel daran, dass du mit Frametimes all over the place spielst.

Bie den nächsten Messungen (RTX 3060Ti vs. 6700XT) werde ich hier noch Frametimes und Varianzen mit protokollieren. Da kann ich das besser aufzeigen bzw. beschrieben!

Versuch mal bitte deine Frametime auf eine "gerade" Linie zu bringen. RTSS und Grafik für die FT an!

Bitte kein FL sondern erstmal voll Beballerung... dann Protokolliere mal die FT... das wird bestimmt aussehen, wie Herzkammerfimmern kurz vor dem terminalen Ende!

Dann regelst du mit dem IGFL die FPS runter bis du eine "gerade" Linie in bzgl. der FT hast... Ich denke, dann ist das Problem weg. Zumindest bei Doom...

Bzgl. Metro Exodus hast du mit dem AMD Treiber FL gearbeitet? Aus meiner Erfahrung sind weder der Nvidia noch AMD FL brauchbar umgesetzt.
Kannst du das bitte nochmal versuchen? Welche Einstellungen (Grafik) hast du mit der 5700XT? Da ich auch eine habe, versuche ich das mal zu reproduzieren! Dann kann ich auch mal mit LDAT messen...
 
Das FreeSync bzw. G-SYNC oberhalb der Bildwiederholrate gar nicht mehr funktionieren, dass is mir neu. Werde ich direkt mal bei Nvidia anfragen!
Das ist schon (fast) immer so, auch dokumentiert.

Anfangs war es nur bei AMD so, Nvidia hat dann einige Monate nach der Verfügbarkeit von GSync nachgezogen mit dieser Logik:

Wenn GSync/Freesync an ist, ändert sich die Funktion des VSync Schalters (sowohl im Spiel als auch im Treiber):

Wenn VSync aus ist, wird nur bei Frameraten unterhalb der max. Monitorfrequenz gesynct. Ist die Framerate höher, wird nicht mehr gesynct, man hat also Tearing.

Wenn VSync an ist, kann die Framerate nie die Maximalfrequenz des Monitors übersteigen, denn bei Erreichen dieser Frequenz wartet die Rendering-Queue wie bei VSync üblich.

Unterhalb der Maximalfrequenz verhält es sich aber immer gleich: Der Monitor passt sich der Framerate an.

So lange man unterhalb der Maximalfrequenz bleibt, spielt das keine Rolle. Und ansonsten ist es das beste, per Framerate Limiter auf einen Tick unterhalb der Maximalfrequenz zu limitieren. Natürlich nur, wenn man GSync/Freesync an hat, sonst erzeugt das konstantes Tearing.

/edit: Diese Sch... Rechtschreikorrektur sauf dem Tablet...
 
Wenn man sich Aufwand +Nutzen anschaut ... the Winner ist 71fps.(x)
Die paar ms mehr ggü. 140fps gehen eigentlich noch als NO e-sportler.

Macht in Hardwareaufwand und Watt ganz schön Was aus.(schätze mal der Verbrauch ist net linear zu den Fps)
Es gibt ja net nur Overwatch sondern auch die anspruchsvollen Shooter wo dann der PC@147fps
gleichmal 500W benötigt, falls man denn MAXED spielt.(>=1440p)

(x) gibt auch auf nem 144Hz-Moni =142Hz.
 
Zuletzt bearbeitet :
Versuch mal bitte deine Frametime auf eine "gerade" Linie zu bringen. RTSS und Grafik für die FT an!
Bitte kein FL sondern erstmal voll Beballerung... dann Protokolliere mal die FT... das wird bestimmt aussehen, wie Herzkammerfimmern kurz vor dem terminalen Ende!
Dann regelst du mit dem IGFL die FPS runter bis du eine "gerade" Linie in bzgl. der FT hast... Ich denke, dann ist das Problem weg. Zumindest bei Doom...

Bzgl. Metro Exodus hast du mit dem AMD Treiber FL gearbeitet? Aus meiner Erfahrung sind weder der Nvidia noch AMD FL brauchbar umgesetzt.
Kannst du das bitte nochmal versuchen? Welche Einstellungen (Grafik) hast du mit der 5700XT? Da ich auch eine habe, versuche ich das mal zu reproduzieren! Dann kann ich auch mal mit LDAT messen...
Danke für die Anleitung - ich checke das später mal.

Bei Metro habe ich in WQHD mit ultra gespielt. Irgendwo hab ich auch mal gelesen, dass der AMD Treiber die FPS halbiert und dafür nur die mit den besten FT ausspielt (sofern ich das richtig verstanden habe). War auf jeden Fall ziemlich fein.
 
In ME würde ich auf jeden Fall mit AMD-Graka advancedPhysX deaktivieren.

Das wäre übrigens ein Game, wo man auch noch mit ner älteren Budget CPU ganz gut in 4k klar kommt.
Bei neueren Games muss dann halt schauen, welche Gamesettings die CPU am Meisten belasten und
die Regler benutzen.(FoV+Schatten+Distanz+Wolken etc.)
CPU-Reviews könnten daher auch in Ultra ganz interessant sein, wenn die Drawcalls ansteigen.
(immer nur low bei manchen Reviewern erscheint mir zu kurz gesprungen)
 

Anhänge

  • ME.PNG
    ME.PNG
    86,5 KB · Aufrufe : 10
Zuletzt bearbeitet :
Danke für die Anleitung - ich checke das später mal.

Bei Metro habe ich in WQHD mit ultra gespielt. Irgendwo hab ich auch mal gelesen, dass der AMD Treiber die FPS halbiert und dafür nur die mit den besten FT ausspielt (sofern ich das richtig verstanden habe). War auf jeden Fall ziemlich fein.
Welche CPU und Ram hast du da im Einsatz?

Ich kann dass hier mit einem 2700X, 2x8 GB 3200 MHz CL16 (single ranked) und der Sapphire RX 5700XT Nitro+ SE nachstellen... auf dem AOC 75 Hz Monitor...

@Update so ist gerade die Testbench konfiguriert... sonst muss ich auf den 3800X mit 4x8 GB 3200 MHz CL16 (dann dual ranked) gehen... was bedeutet, dass ich alles umbauen muss...
 
Check mal die Signatur. Meine 5700XT ist off Duty, weil defekt. Lief mit 1600X und 2x8GB Ram (XMP @2933MHz). Timings muss ich nachschauen, das hab ich nicht im Kopf.
 
Check mal die Signatur. Meine 5700XT ist off Duty, weil defekt. Lief mit 1600X und 2x8GB Ram (XMP @2933MHz). Timings muss ich nachschauen, das hab ich nicht im Kopf.
Ok, der 1600X is noch aktuell... das wollte ich ich nicht so recht glauben... Ok dann passt in etwa... der 2700X is zwar etwas besser, aber mal schauen, ob ich den Fehler reproduzieren kann
 
Ich kann es manchmal auch kaum glauben, was die Kiste da alles hinzaubert ;)
 
Ich bin ausschließlich in WQHD unterwegs.
 
Jetzt fehlt nur noch der Test ob es Unterschiede gibt zwischen
IGFL
Nvidia FL
RTSS
Spezial K

und ob sich die Latenz erhöht wenn z. B. ein generelles Framelimit auf 142 per externem Tool aktiviert ist und zusätzlich der IGFL auf z. B. 138 genutzt wird (y)
 
Hallo,
Danke erstamal für den tollen Bericht :) Ich spiele wenn möglich immer mit einem "IGFL" und stelle denn Wert bei einem 144Hz Monitor auf 143. Vsync stelle ich dann immer auf aus.

Eine Frage hätte ich noch: "RegEdit Eintrag – Dword: TCPAckFrequency = 1 setzt, der sollte hier eine recht niedrige Serverlatenz haben."
Davon habe ich persönlich noch nie etwas gehört. Kannst du das evtl. noch ein wenig genauer erläutern? Zudem, ist das eine Einstellung die grundsätzlich jeder ohne Bedenken einstellen kann oder gibt es da Nachteile?

Vielen Dank!

Gruss
 
Vielen Dank Igor, ich habe tatsächlich gsync aus dem genannten Grund verschmäht.
Heute Abend mach ich es wieder an
 
Oben Unten