Gaming Grafikkarten Monitor und Desktop Praxis Testberichte VGA

NVIDIA G-SYNC vs. G-SYNC Kompatibel vs. V-Sync? Wir messen die Systemlatenz! | Praxis

Wenn es um das Thema Latenzen geht, dann hört/liest man oft, dass sich die adaptiven Sync-Technologien negativ auf die Latenzen auswirken sollen. Hmm? Versucht man es sich selbst zu erklären, dann könnte das durchaus sein. Nehmen wir an, ihr habt einen 144 Hz Monitor mit FreeSync oder G-SYNC und bestrahlt den mit 300 FPS. Was ja bedeutet, dass die Sync-Technologien jetzt eingreifen, um die 300 FPS den 144 Hz anzupassen. Hier könnte es jetzt sein, dass die Software bzw. die Hardware die Systemlatenz zum Nachteil beeinflussen. Ob das so wirklich stimmt, wie man es durchaus in einigen Foren oder YouTube-Videos dieser Welt hört und liest?

Quelle: MSI Blog

Das schauen wir uns in diesem Artikel einfach einmal genauer an! Vorab noch zur Klarstellung, die Systemlatenz ist das was ich hier bzw. im letzten Artikel gemessen habe. Die Serverlatenz ist hier als Teilprodukt mit integriert. Leider kann ich auf die Serverlatenz wenig bis gar keinen Einfluss nehmen. Wer also eine gute DSL, Kabel oder Glasfaserverbindung hat und den RegEdit Eintrag – Dword: TCPAckFrequency = 1 setzt, der sollte hier eine recht niedrige Serverlatenz haben. Wer allerdings über das Handynetz zockt, der kann ggf. eine deutlich schlechtere Serverlatenz erfahren. Leider ist Deutschland in Bezug auf das Thema Breitband-Internet ein Entwicklungsland. Aber dafür zahlen wir im Vergleich zu anderen europäischen Ländern wenigstens das meiste Geld, für die schlechteste Netzabdeckung. Das hat doch auch was!

Dazu vorab der Hinweis auf die bereits veröffentlichten Artikel von Igor bzgl. Nvidia LDAT (klick hier) sowie meinem letzten Artikel zum Thema Nvidia Reflex (klick hier). Beide bilden in gewisser Weise die Basis für einen weiteren Teil meiner Artikelreihe zum Thema Latenzen.

Testsystem

Bevor wir anfangen, hier das Testsystem:

CPU Ryzen 7 2700X (4,2 GHz all core)
Mainboard  MSI MAG X570 ACE
RAM 2×8 GB G.Skill RipJaws V 3200 MHz CL16-18-18-38 (single ranked)
SSD 1 Toshiba Transcend 110S 256 GB (System)
SSD 2 Crucial P2 1000 GB (Spiele)
SSD 3 Crucial P2 1000 GB (Spiele)
SSD 4 Samsung 512 GB 840 Pro (Backup)
CPU Kühler       MSI MAG Coreliquid 360R
Netzteil Seasonic Prime Platinum 1300 Watt
GPU MSI RTX 3080 Suprim X
Sound SoundblasterX AE-5 Plus
Tastatur Sharkoon PureWriter RBG (Red Taster) @1000 Hz Polling Rate
Maus Sharkoon Light² 100 @1000 Hz Polling Rate
Messtechnik NVIDIA LDAT Hardware mit Logitech G203 Prodigy @1.000 Hz Polling Rate
Monitor 1 MSI Oculux NXG252R 240 Hz via DP (Nvidia G-SYNC)
Monitor 2 AOC G2778VQ 75 Hz via DP (AMD FreeSync)

 

Nvidia-Treiberkonfiguration und die Windowseinstellungen

Die Treibereinstellungen entsprechen im Wesentlichen denen des Artikels über Nvidia Reflex und Boost. Einziger Unterschied, ich habe die Einstellung G-SYNC an- und ausgeschaltet, um mögliche Unterschiede festzustellen! V-Sync habe ich im Spiel aktiviert bzw. deaktiviert. Mit dem MSI Afterburner habe ich das Power-Limit der RTX 3080 auf das maximum angehoben. (siehe Bild) Hier seht ihr auch den verwendeten Nvidia-Treiber-Stand 465.89.

Windows war zum Zeitpunkt der Messungen auf dem aktuellen Stand und die Einstellungen bzgl. Spiele und Grafik sind gleich zum letzten Artikel (Nvidia Reflex).

134 Antworten

Lade neue Kommentare

RedF

Urgestein

1,120 Kommentare 382 Likes

Das war doch mal aufschlußreich.

Jetzt bin ich aber auf die Folge Artikel gespannt : )

Antwort 1 Like

G
Guest

GSync und Freesync verhindert Tearing zu 100%.

Wenn man sich aber überhalb der Maximal-Frequenz des Monitors bewegt, wird sowohl GSync als auch Freesync ganz abgeschaltet, sprich es wird nicht mehr gesynct sondern man hat das selbe Verhalten wie bei VSync-Off. Daher das beobachtete Tearing. So wie es im Artikel steht, klingt es, als würde GSync/Freesync Tearing nicht zuverlässig vehindern, das ist so aber falsch.

Man muss im Treiber oder Spiel zusätzlich VSync einschalten, dann bleibt die Framerate auf die Maximalfrequenz des Monitors begrenzt und man hat nie Tearing.

Aber ein Framelimiter ist trotzdem besser, weil ein Synchronisieren auf die Maximalfrequenz des Monitors immer ein wenig zusätzlichen Lag erzeugt, die Zeit nämlich, die das Bild im Backpuffer liegt, bevor der Monitor ein neues Bild anzeigen kann. Der Framelimiter begrenzt die Framerate aber sozusagen "CPU-Seitig" wodurch das Bild ein paar Millisekunden "aktueller" ist, als eines, dass ungenutzt im Backpuffer der Grafikkarte warten muss. Schneller sieht man die Bilder deswegen nicht, aber sie sind eben zeitlich einen Tick näher am Geschehen.

Bei 60 Hz mag das einen entscheidenden Unterschied machen. Bei 120 Hz... Nun ja. Muss jeder selbst wissen, welch übermenschlichen Fähigkeiten er sich zutraut.

Antwort 2 Likes

Klicke zum Ausklappem
grimm

Urgestein

1,358 Kommentare 550 Likes

Ich weiß nicht, ob es zu kompliziert geschrieben ist oder ich es einfach nicht verstehe - vielleicht übersetzt ihr mal die Latenz-Messwerte in Tabellen-Form oder eine andere Übersicht?
Teilweise widersprechen die Aussagen auch meinen eigenen Erfahrungen und das hat nichts mit "subjektiver Wahrnehmung" zu tun. So hab ich mit der 5700XT in Metro Exodus bei Treiber-seitigen 30 FPS (hatte FreeSync aktiviert) ein deutlich flüssigeres Ergebnis als ohne Sync mit >60 FPS (damals noch 75Hz FreeSync Monitor).
Bei Doom Eternal beobachte ich ebenfalls das von @Grestorn genannte "Phänomen": Hier habe ich deutlich >144 Hz trotzdem fühlt es sich bisweilen hakelig an. War mir bisher nicht bewusst, dass die Sync-Technologie dabei den Dienst quittiert.
Stelle ich jetzt die FPS fix auf z. B. 120 oder limitiere ich nur die Maximale Anzahl auf den Wert?

Antwort 1 Like

Klicke zum Ausklappem
FritzHunter01

Moderator

257 Kommentare 167 Likes

Moin moin, ich mag deine konstruktiv kritische Art. Im Ernst!

Ich konnte bisweil kein extremes Tearing weder mit FreeSync noch G-SYNC feststellen, wenn ich deutlich mehr FPS auf den Monitor brenne. Was aber passieren kann, dass es im unteren Drittel zu leichtem Tearing kommt. Da muss man aber schon sehr genau hinschauen!

Das FreeSync bzw. G-SYNC oberhalb der Bildwiederholrate gar nicht mehr funktionieren, dass is mir neu. Werde ich direkt mal bei Nvidia anfragen!

Antwort 1 Like

FritzHunter01

Moderator

257 Kommentare 167 Likes

Das klingt für mich persönlich nach Stotter... das leigt in der Regel daran, dass du mit Frametimes all over the place spielst.

Bie den nächsten Messungen (RTX 3060Ti vs. 6700XT) werde ich hier noch Frametimes und Varianzen mit protokollieren. Da kann ich das besser aufzeigen bzw. beschrieben!

Versuch mal bitte deine Frametime auf eine "gerade" Linie zu bringen. RTSS und Grafik für die FT an!

Bitte kein FL sondern erstmal voll Beballerung... dann Protokolliere mal die FT... das wird bestimmt aussehen, wie Herzkammerfimmern kurz vor dem terminalen Ende!

Dann regelst du mit dem IGFL die FPS runter bis du eine "gerade" Linie in bzgl. der FT hast... Ich denke, dann ist das Problem weg. Zumindest bei Doom...

Bzgl. Metro Exodus hast du mit dem AMD Treiber FL gearbeitet? Aus meiner Erfahrung sind weder der Nvidia noch AMD FL brauchbar umgesetzt.
Kannst du das bitte nochmal versuchen? Welche Einstellungen (Grafik) hast du mit der 5700XT? Da ich auch eine habe, versuche ich das mal zu reproduzieren! Dann kann ich auch mal mit LDAT messen...

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Das ist schon (fast) immer so, auch dokumentiert.

Anfangs war es nur bei AMD so, Nvidia hat dann einige Monate nach der Verfügbarkeit von GSync nachgezogen mit dieser Logik:

Wenn GSync/Freesync an ist, ändert sich die Funktion des VSync Schalters (sowohl im Spiel als auch im Treiber):

Wenn VSync aus ist, wird nur bei Frameraten unterhalb der max. Monitorfrequenz gesynct. Ist die Framerate höher, wird nicht mehr gesynct, man hat also Tearing.

Wenn VSync an ist, kann die Framerate nie die Maximalfrequenz des Monitors übersteigen, denn bei Erreichen dieser Frequenz wartet die Rendering-Queue wie bei VSync üblich.

Unterhalb der Maximalfrequenz verhält es sich aber immer gleich: Der Monitor passt sich der Framerate an.

So lange man unterhalb der Maximalfrequenz bleibt, spielt das keine Rolle. Und ansonsten ist es das beste, per Framerate Limiter auf einen Tick unterhalb der Maximalfrequenz zu limitieren. Natürlich nur, wenn man GSync/Freesync an hat, sonst erzeugt das konstantes Tearing.

/edit: Diese Sch... Rechtschreikorrektur sauf dem Tablet...

Antwort 2 Likes

Klicke zum Ausklappem
RX480

Veteran

142 Kommentare 78 Likes

Wenn man sich Aufwand +Nutzen anschaut ... the Winner ist 71fps.(x)
Die paar ms mehr ggü. 140fps gehen eigentlich noch als NO e-sportler.

Macht in Hardwareaufwand und Watt ganz schön Was aus.(schätze mal der Verbrauch ist net linear zu den Fps)
Es gibt ja net nur Overwatch sondern auch die anspruchsvollen Shooter wo dann der [email protected]
gleichmal 500W benötigt, falls man denn MAXED spielt.(>=1440p)

(x) gibt auch auf nem 144Hz-Moni =142Hz.

Antwort Gefällt mir

grimm

Urgestein

1,358 Kommentare 550 Likes

Danke für die Anleitung - ich checke das später mal.

Bei Metro habe ich in WQHD mit ultra gespielt. Irgendwo hab ich auch mal gelesen, dass der AMD Treiber die FPS halbiert und dafür nur die mit den besten FT ausspielt (sofern ich das richtig verstanden habe). War auf jeden Fall ziemlich fein.

Antwort Gefällt mir

RX480

Veteran

142 Kommentare 78 Likes

In ME würde ich auf jeden Fall mit AMD-Graka advancedPhysX deaktivieren.

Das wäre übrigens ein Game, wo man auch noch mit ner älteren Budget CPU ganz gut in 4k klar kommt.
Bei neueren Games muss dann halt schauen, welche Gamesettings die CPU am Meisten belasten und
die Regler benutzen.(FoV+Schatten+Distanz+Wolken etc.)
CPU-Reviews könnten daher auch in Ultra ganz interessant sein, wenn die Drawcalls ansteigen.
(immer nur low bei manchen Reviewern erscheint mir zu kurz gesprungen)

Antwort Gefällt mir

FritzHunter01

Moderator

257 Kommentare 167 Likes

Welche CPU und Ram hast du da im Einsatz?

Ich kann dass hier mit einem 2700X, 2x8 GB 3200 MHz CL16 (single ranked) und der Sapphire RX 5700XT Nitro+ SE nachstellen... auf dem AOC 75 Hz Monitor...

@Update so ist gerade die Testbench konfiguriert... sonst muss ich auf den 3800X mit 4x8 GB 3200 MHz CL16 (dann dual ranked) gehen... was bedeutet, dass ich alles umbauen muss...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung