Gaming Grafikkarten Monitor und Desktop Praxis Testberichte VGA

NVIDIA G-SYNC vs. G-SYNC Kompatibel vs. V-Sync? Wir messen die Systemlatenz! | Praxis

Fangen wir mal mit Nvidia an. G-SYNC ist eine Hardware-Lösung, die direkt im Monitor verbaut ist. Daher kosten diese Monitore auch deutlich mehr als FreeSync Monitore. Ja, leider ist dem so! Aber seit der RTX 2000er Generation hat sich Nvidia bzgl. FreeSync Monitoren geöffnet und diesen offenen Standard für Nvidia Grafikkarten möglich gemacht. Das Ganze funktioniert rückwirkend bis zur GTX 1000er Generation also Pascal. Immerhin!

Quelle: NVIDIA

An der Stelle mal ganz allgemein und auch nur kurz erklärt, was diese adaptiven Synchronisierungstechnologien machen. Egal ob FreeSync oder G-SYNC, beide passen die aktuellen FPS der Bildwiederholrate an. Was den Vorteil hat, dass weniger bis gar kein Tearing auf dem Monitor entsteht. Vielleicht hat der ein oder andere den Begriff VRR gehört? Variable Refresh Rate (Bsp.: FreeSync Premium)! Wer also einen echten G-SYNC Monitor hat, der hat auch die VRR Unterstützung von 1 – XXX Hertz. Ab hier geht es jetzt richtig los und es bedarf eines gesonderten Artikels. Andererseits langweile ich euch jetzt mit viel technischem Bla Bla. Ich plane hierzu einen Artikel, der sich mit dem Thema noch näher beschäftigt.

Jetzt schauen wir uns aber mal an, was mit einem Nvidia G-SYNC Monitor bzgl. der Latenzen passiert. Hierzu kommen jetzt ein paar Grafiken. Was habe ich hier gemacht? Nvidia LDAT auf den MSI Oculux geschnallt und das Spiel Overwatch genutzt, um die Latenzen zu messen. Hierbei habe ich unterschiedliche Einstellungen und verschiedene Bildwiederholraten getestet. Dabei habe ich als Referenz zuerst immer G-SYNC und V-Sync deaktiviert. Danach beide Technologien sequenziell aktiviert. Letztlich habe ich noch mit dem IGFL (Ingame Frame Limiter) bzw. RTSS (Rivatuner Statistics Server) die Framerate limitiert, um aufzuzeigen, wie sich V-Sync auf die Latenzen auswirkt.

Overwatch mit RTX 3080 und G-SYNC Monitor MSI Oculux NXG252R

Hier die Einstellungen im Spiel.

Der gute alte Ryzen 7 2700X in Verbindung mit der RTX 3080 bringt es in diesem DX11 Spiel auf durchschnittliche 325 FPS. Kein Nvidia Driver-Overhead – 240 Hz Monitor locker ausgereizt! Hinweis: Die Serverlatenz lag zwischen 30 – 40 ms.

Erste Erkenntnis? G-SYNC hat keinen Einfluss auf die Latenz. Grüße an alle Gerüchteverbreiter!

Ich kann an der Stelle das Mysterium um diese Behauptung mal lüften. Als Nvidia mit G-SYNC um die Ecke kam, war im Treiber sowohl G-SYNC als auch V-Sync standardmäßig aktiviert. Somit war den e-Sportlern vermutlich klar, G-SYNC macht zwar Tearing weg, aber ich habe einen Latenznachteil. Gerücht geboren und bis heute hält es sich noch hartnäckig. Das hat sich in dem Fall Nvidia selbst eingebrockt! Wer sich heute die Treibereinstellungen anschaut, der wird feststellen, dass nur G-SYNC standardmäßig aktiviert ist, wenn ein entsprechender Monitor erkannt wird. Liebe e-Sportler, für ein besseres Spielerlebnis (weniger Tearing) – lasst G-SYNC doch einfach an! Schauen wir mal ein paar weitere Folien an. Wir lesen uns gleich wieder!

Wieder was gelernt? Wo immer möglich, den IGFL nutzen! Ein Eingriff von außen, beeinträchtigt die Latenz. In dem Fall verursacht RTSS eine um ca. 5 ms schlechtere Latenz.

Was euch sicher auch aufgefallen ist, dass bei richtiger Anwendung eines IGFL bzw. RTSS die Latenz bei der Nutzung von V-Sync nur noch um ca. 2 ms schlechter wird. Das liegt daran, weil ich mit der limitierten Framerate hier 4 FPS unterhalb der Bildwiederholfrequenz des Monitors bleibe. Würde ich noch ein paar FPS runter gehen, dann wäre hier sehr wahrscheinlich die Differenz (mit/ohne V-Sync) im Bereich der Messtoleranz. Warum ich so auf das Thema V-Sync abgehe? Weder G-SYNC noch FreeSync können Tearing in Gänze vermeiden.

Es kann immer noch zu Tearing im unteren Bildschirmdrittel kommen! Zumindest dann, wenn deutlich mehr FPS auf den Monitor losgelassen werden als es die Bildwiederholrate hergibt. Wer das nicht haben will, der kommt um eine Limitierung der FPS (min. 4 FPS < Hz des Monitors) und die Aktivierung von V-Sync nicht herum! Man verliert hier ca. 10-12 ms Latenz vergleicht man die Werte ohne FPS-Begrenzung. Letztlich muss das jeder für sich entscheiden! Die e-Sportler werden das sicher nicht machen, aber für ein Singleplayer-Game wäre das eine nützliche Optimierung, um das beste Bild zu bekommen.

Der Vollständigkeit halber hier noch die Grafiken für 144 Hz und 60 Hz.

Was können wir aus den Grafiken lernen? Zum einen bestätigt sich das offensichtliche, mit abnehmender Bildwiederholrate des Monitors – steigt die Latenz, trotz gleicher FPS (Ø 325). Die Werte auf der folgenden Grafik sind auf 0 hinter dem Komma gerundet!

Grüße an alle 60 Hz Spieler: 35 % niedrigere Latenz auf einem 240 Hz Panel bei 325 FPS. So viel zu dem Thema, mir reicht ein 60 Hz Monitor! Bedeutet nicht nur bzgl. der End-zu-End Latenz hat der 60 Hz Spieler das Nachsehen, sondern wichtiger ist: Der 240 Hz Spieler kann euch im Schnitt um ca. 35 % schneller sehen als ihr den Gegner auf dem 60 Hz Monitor seht. Was der 60 Hz Spieler dann noch sieht: Du wurdest von Spieler XXX getötet! Haha. Also nicht nur die FPS machen den Unterschied. Hier macht es auch die restliche Hardware. Skill kann die Hardware aber nicht ersetzen! Schade… Zum anderen sehen wir weiterhin, dass sich der IGFL hier bzgl. der Latenzverringerung deutlich mehr eignet als RTSS. Und das V-Sync bei niedrigen Bildwiederholraten noch drastischer die Latenz beeinfluss als ohnehin schon. Ok, an der Stelle wechseln wir mal das Thema – jetzt kommt FreeSync dran.

134 Antworten

Lade neue Kommentare

RedF

Urgestein

2,705 Kommentare 1,194 Likes

Das war doch mal aufschlußreich.

Jetzt bin ich aber auf die Folge Artikel gespannt : )

Antwort 1 Like

G
Guest

GSync und Freesync verhindert Tearing zu 100%.

Wenn man sich aber überhalb der Maximal-Frequenz des Monitors bewegt, wird sowohl GSync als auch Freesync ganz abgeschaltet, sprich es wird nicht mehr gesynct sondern man hat das selbe Verhalten wie bei VSync-Off. Daher das beobachtete Tearing. So wie es im Artikel steht, klingt es, als würde GSync/Freesync Tearing nicht zuverlässig vehindern, das ist so aber falsch.

Man muss im Treiber oder Spiel zusätzlich VSync einschalten, dann bleibt die Framerate auf die Maximalfrequenz des Monitors begrenzt und man hat nie Tearing.

Aber ein Framelimiter ist trotzdem besser, weil ein Synchronisieren auf die Maximalfrequenz des Monitors immer ein wenig zusätzlichen Lag erzeugt, die Zeit nämlich, die das Bild im Backpuffer liegt, bevor der Monitor ein neues Bild anzeigen kann. Der Framelimiter begrenzt die Framerate aber sozusagen "CPU-Seitig" wodurch das Bild ein paar Millisekunden "aktueller" ist, als eines, dass ungenutzt im Backpuffer der Grafikkarte warten muss. Schneller sieht man die Bilder deswegen nicht, aber sie sind eben zeitlich einen Tick näher am Geschehen.

Bei 60 Hz mag das einen entscheidenden Unterschied machen. Bei 120 Hz... Nun ja. Muss jeder selbst wissen, welch übermenschlichen Fähigkeiten er sich zutraut.

Antwort 2 Likes

Klicke zum Ausklappem
grimm

Urgestein

1,995 Kommentare 1,139 Likes

Ich weiß nicht, ob es zu kompliziert geschrieben ist oder ich es einfach nicht verstehe - vielleicht übersetzt ihr mal die Latenz-Messwerte in Tabellen-Form oder eine andere Übersicht?
Teilweise widersprechen die Aussagen auch meinen eigenen Erfahrungen und das hat nichts mit "subjektiver Wahrnehmung" zu tun. So hab ich mit der 5700XT in Metro Exodus bei Treiber-seitigen 30 FPS (hatte FreeSync aktiviert) ein deutlich flüssigeres Ergebnis als ohne Sync mit >60 FPS (damals noch 75Hz FreeSync Monitor).
Bei Doom Eternal beobachte ich ebenfalls das von @Grestorn genannte "Phänomen": Hier habe ich deutlich >144 Hz trotzdem fühlt es sich bisweilen hakelig an. War mir bisher nicht bewusst, dass die Sync-Technologie dabei den Dienst quittiert.
Stelle ich jetzt die FPS fix auf z. B. 120 oder limitiere ich nur die Maximale Anzahl auf den Wert?

Antwort 1 Like

Klicke zum Ausklappem
FritzHunter01

Moderator

443 Kommentare 411 Likes

Moin moin, ich mag deine konstruktiv kritische Art. Im Ernst!

Ich konnte bisweil kein extremes Tearing weder mit FreeSync noch G-SYNC feststellen, wenn ich deutlich mehr FPS auf den Monitor brenne. Was aber passieren kann, dass es im unteren Drittel zu leichtem Tearing kommt. Da muss man aber schon sehr genau hinschauen!

Das FreeSync bzw. G-SYNC oberhalb der Bildwiederholrate gar nicht mehr funktionieren, dass is mir neu. Werde ich direkt mal bei Nvidia anfragen!

Antwort 1 Like

FritzHunter01

Moderator

443 Kommentare 411 Likes

Das klingt für mich persönlich nach Stotter... das leigt in der Regel daran, dass du mit Frametimes all over the place spielst.

Bie den nächsten Messungen (RTX 3060Ti vs. 6700XT) werde ich hier noch Frametimes und Varianzen mit protokollieren. Da kann ich das besser aufzeigen bzw. beschrieben!

Versuch mal bitte deine Frametime auf eine "gerade" Linie zu bringen. RTSS und Grafik für die FT an!

Bitte kein FL sondern erstmal voll Beballerung... dann Protokolliere mal die FT... das wird bestimmt aussehen, wie Herzkammerfimmern kurz vor dem terminalen Ende!

Dann regelst du mit dem IGFL die FPS runter bis du eine "gerade" Linie in bzgl. der FT hast... Ich denke, dann ist das Problem weg. Zumindest bei Doom...

Bzgl. Metro Exodus hast du mit dem AMD Treiber FL gearbeitet? Aus meiner Erfahrung sind weder der Nvidia noch AMD FL brauchbar umgesetzt.
Kannst du das bitte nochmal versuchen? Welche Einstellungen (Grafik) hast du mit der 5700XT? Da ich auch eine habe, versuche ich das mal zu reproduzieren! Dann kann ich auch mal mit LDAT messen...

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Das ist schon (fast) immer so, auch dokumentiert.

Anfangs war es nur bei AMD so, Nvidia hat dann einige Monate nach der Verfügbarkeit von GSync nachgezogen mit dieser Logik:

Wenn GSync/Freesync an ist, ändert sich die Funktion des VSync Schalters (sowohl im Spiel als auch im Treiber):

Wenn VSync aus ist, wird nur bei Frameraten unterhalb der max. Monitorfrequenz gesynct. Ist die Framerate höher, wird nicht mehr gesynct, man hat also Tearing.

Wenn VSync an ist, kann die Framerate nie die Maximalfrequenz des Monitors übersteigen, denn bei Erreichen dieser Frequenz wartet die Rendering-Queue wie bei VSync üblich.

Unterhalb der Maximalfrequenz verhält es sich aber immer gleich: Der Monitor passt sich der Framerate an.

So lange man unterhalb der Maximalfrequenz bleibt, spielt das keine Rolle. Und ansonsten ist es das beste, per Framerate Limiter auf einen Tick unterhalb der Maximalfrequenz zu limitieren. Natürlich nur, wenn man GSync/Freesync an hat, sonst erzeugt das konstantes Tearing.

/edit: Diese Sch... Rechtschreikorrektur sauf dem Tablet...

Antwort 2 Likes

Klicke zum Ausklappem
RX480

Urgestein

1,001 Kommentare 516 Likes

Wenn man sich Aufwand +Nutzen anschaut ... the Winner ist 71fps.(x)
Die paar ms mehr ggü. 140fps gehen eigentlich noch als NO e-sportler.

Macht in Hardwareaufwand und Watt ganz schön Was aus.(schätze mal der Verbrauch ist net linear zu den Fps)
Es gibt ja net nur Overwatch sondern auch die anspruchsvollen Shooter wo dann der [email protected]
gleichmal 500W benötigt, falls man denn MAXED spielt.(>=1440p)

(x) gibt auch auf nem 144Hz-Moni =142Hz.

Antwort Gefällt mir

grimm

Urgestein

1,995 Kommentare 1,139 Likes

Danke für die Anleitung - ich checke das später mal.

Bei Metro habe ich in WQHD mit ultra gespielt. Irgendwo hab ich auch mal gelesen, dass der AMD Treiber die FPS halbiert und dafür nur die mit den besten FT ausspielt (sofern ich das richtig verstanden habe). War auf jeden Fall ziemlich fein.

Antwort Gefällt mir

RX480

Urgestein

1,001 Kommentare 516 Likes

In ME würde ich auf jeden Fall mit AMD-Graka advancedPhysX deaktivieren.

Das wäre übrigens ein Game, wo man auch noch mit ner älteren Budget CPU ganz gut in 4k klar kommt.
Bei neueren Games muss dann halt schauen, welche Gamesettings die CPU am Meisten belasten und
die Regler benutzen.(FoV+Schatten+Distanz+Wolken etc.)
CPU-Reviews könnten daher auch in Ultra ganz interessant sein, wenn die Drawcalls ansteigen.
(immer nur low bei manchen Reviewern erscheint mir zu kurz gesprungen)

Antwort Gefällt mir

FritzHunter01

Moderator

443 Kommentare 411 Likes

Welche CPU und Ram hast du da im Einsatz?

Ich kann dass hier mit einem 2700X, 2x8 GB 3200 MHz CL16 (single ranked) und der Sapphire RX 5700XT Nitro+ SE nachstellen... auf dem AOC 75 Hz Monitor...

@Update so ist gerade die Testbench konfiguriert... sonst muss ich auf den 3800X mit 4x8 GB 3200 MHz CL16 (dann dual ranked) gehen... was bedeutet, dass ich alles umbauen muss...

Antwort Gefällt mir

grimm

Urgestein

1,995 Kommentare 1,139 Likes

Check mal die Signatur. Meine 5700XT ist off Duty, weil defekt. Lief mit 1600X und 2x8GB Ram (XMP @2933MHz). Timings muss ich nachschauen, das hab ich nicht im Kopf.

Antwort Gefällt mir

FritzHunter01

Moderator

443 Kommentare 411 Likes

Ok, der 1600X is noch aktuell... das wollte ich ich nicht so recht glauben... Ok dann passt in etwa... der 2700X is zwar etwas besser, aber mal schauen, ob ich den Fehler reproduzieren kann

Antwort Gefällt mir

grimm

Urgestein

1,995 Kommentare 1,139 Likes

Ich kann es manchmal auch kaum glauben, was die Kiste da alles hinzaubert ;)

Antwort Gefällt mir

FritzHunter01

Moderator

443 Kommentare 411 Likes

In 1080p rennst du aber in ein häftiges CPU Limit... gerade in DX12 mit der 2080S... Thema Treiber-Overhead

Antwort Gefällt mir

grimm

Urgestein

1,995 Kommentare 1,139 Likes

Ich bin ausschließlich in WQHD unterwegs.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung