Reviews NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync? Wir messen die Systemlatenz! | Praxis

Naturgemäß ist beim (wie auch immer) gesyncten (!) Bildaufbau von oben nach unten der kürzestmögliche Lag nur am obersten Bildschirmrand möglich
Ich habe für den Fall geschrieben, dass kein Sync an ist. Wenn Sync an ist, ist das gesamte Bild eine Momentanaufnahme und vom exakt selben Zeitpunkt (aus sicht der CPU), nämlich genau dem Zustand der beim Present() Call vorliegt.

Ansonsten hast Du ohne VSync recht, nach jedem Tear (und es können mehrere sein!) von oben nach unten gezählt, wird ein neues Bild angezeigt. D.h. nach unten gesehen, wird das Bild am Monitor immer "neuer" (zeitlich gesehen).

Man sieht das auch optisch sehr gut: Wenn die Framerate um ein Vielfaches höher ist als die Monitor-Frequenz, und man macht schnelle links/rechts Bewegungen mit der Maus, dann sieht es (ohne Sync) immer so aus, als würde der untere Teil des Bildes "vorauseilen". Sieht echt etwas eigenartig aus.

Die Message ist eigentlich, dass die Synchronisations-Gegner, die lieber mit 500+ fps spielen (übertrieben jetzt) sich eigentlich einer Illusion hingeben. Sie sehen nicht viel mehr auf dem Schirm, außer Bildfragmenten. Wenn sich der Gegner gerade im oberen Bildschirm bewegt, während der Scanout mit dem unteren Schirmbereich beschäftigt ist, bringen die 500 fps gar nix, sie beschäftigen nur die GPU, die 90% der Zeit für den Orkus rechnet (weil man den Großteil der berechneten Bildbereiche nie zu Gesicht bekommt).

Mehr Bilder pro Sekunde als es die Frequenz des Monitors hergibt, kann dieser halt nun mal nicht darstellen. Also doch besser darauf synchronisieren (am besten variabel) und einen Framelimiter einsetzen. Das ist immer besser.

Hi. Hab jetzt einige Tests vorgenommen. Du hast Recht. Meine Frametimes sind alles andere als gleichförmig. Wenn ich aber mit dem IGFL auf 60 runter gehe, dann hab ich fettes Tearing im unteren Bildbereich.
Ein FL ohne Sync gibt immer(!!!!) Tearing und zwar massiv. Auch wenn der FL sich nah an der Frequenz des Monitors befindet. Wenn man kurz drüber nachdenkt, ist es auch klar.

Das Optimum ist ein variabler Sync und ein FL knapp unterhalb der max. Frequenz des Monitors. Oder, wenn das Spiel und die HW eine solche Framerate nicht hergibt, dann kann man im FL auch alternativ eine Framerate einstellen, die das Spiel immer zuverlässig erreicht, dann hat man zwar weniger fps, dafür aber einen sehr sauberen und geraden Frametimeverlauf und damit ein sehr smoothes Spielerlebnis.
 
Zuletzt bearbeitet von einem Moderator :
Die Message ist eigentlich, dass die Synchronisations-Gegner, die lieber mit 500+ fps spielen (übertrieben jetzt) sich eigentlich einer Illusion hingeben. Sie sehen nicht viel mehr auf dem Schirm, außer Bildfragmenten. Wenn sich der Gegner gerade im oberen Bildschirm bewegt, während der Scanout mit dem unteren Schirmbereich beschäftigt ist, bringen die 500 fps gar nix, sie beschäftigen nur die GPU, die 90% der Zeit für den Orkus rechnet (weil man den Großteil der berechneten Bildbereiche nie zu Gesicht bekommt).
Der mehrheit der "Synchronisations-Gegner" geht es nicht um früher sehen (da hilft letztlich wirklich nur ein Monitor mit mehr Hz), es geht darum den Input zeitlich näher an den Output zu bringen. Und da hilft es, wenn man alle anderen Optionen ausgenutzt hat, nur noch die FPS zu erhöhen.

PS: Der Titel ist immer noch fachlich und technisch schlicht falsch! Schade sowas auf igorslab.de lesen zu "müssen".
 
Der mehrheit der "Synchronisations-Gegner" geht es nicht um früher sehen (da hilft letztlich wirklich nur ein Monitor mit mehr Hz), es geht darum den Input zeitlich näher an den Output zu bringen. Und da hilft es, wenn man alle anderen Optionen ausgenutzt hat, nur noch die FPS zu erhöhen.
Aber das erreichen sie doch auch nicht. Denn am Ende zählt das, was auf dem Schirm sichtbar wird. Es hilft doch nicht, wenn zwar die unteren 10% des Schirms 7ms (bei 144Hz) näher an der Mausbewegung sind, wenn der Rest des Schirms noch das alte Bild zeigt. Und diese 7ms kriegst Du nicht weg, egal welche Framerate Du hast, denn die braucht der Monitor um ein Bild vollständig aufzubauen.

Deswegen: (variablen) Sync an und FL. Dann hat man das optimale Ergebnis.
 
Aber das erreichen sie doch auch nicht. Denn am Ende zählt das, was auf dem Schirm sichtbar wird. Es hilft doch nicht, wenn zwar die unteren 10% des Schirms 7ms (bei 144Hz) näher an der Mausbewegung sind, wenn der Rest des Schirms noch das alte Bild zeigt. Und diese 7ms kriegst Du nicht weg, egal welche Framerate Du hast, denn die braucht der Monitor um ein Bild vollständig aufzubauen.

Deswegen: (variablen) Sync an und FL. Dann hat man das optimale Ergebnis.
Das stimmt so nicht. Was auf dem Schrim sichtbar ist ist eigentlich sogar unbedeutend dafür ob zB du (zeitlich) triffst oder nicht, wenn du das auf dem Monitor siehst ist der "Gegener" schon lange "tot". Vielleicht hast du ihn 1ms früher getroffen bevor er dich getroffen hat und das eventuell auch nur weil dein Mausklick eben früher ausgewertet wurde.
 
Ihr habt Sorgen... ich spiele auf 4K und den einzigen Frame Limiter den ich brauche ist bei den Grafikeinstellungen auf Max zu gehen... dann ist Ende Gelände bei meistens irgendwo zwischen 40 und 60 FPS selbst mit der 3090.

Naja, vielleicht hält mein 120Hz Monitor ja dann doppelt bis dreimal so lange... :D
 
Hab mal bissi mit CRU gespielt, Konnte den Monitor auf 154Hz Takten. Seit dem ich die 154Hz in die grundeinstellung gepackt habe giebts auch kein Freesyc flakern mehr. Habe ich Freesync jetzt mit Übertaktet? Tearing kann ich keines entdecken.

Edit: Ja Freesync habe ich mit "Übertaktet", und es läuft besser als zuvor
 
Zuletzt bearbeitet :
Egal ob FreeSync oder G-SYNC, beide passen die aktuellen FPS der Bildwiederholrate an.
Eventuell habe ich es falsch verstanden, aber ist es nicht genau umgekehrt?
 
Also quasi 2 Framelimiter zur gleichen Zeit? z.B. RTSS auf 140 FPS und IGFL auf 130? Hab ich das so richtig verstanden?

Wenn ja, dann erschleißt sich mir die Logik dahinter nicht? Warum zwei Mal limitieren?

Damit in Spielen ohne ingame Limiter RTSS greift und ich bei Spielen mit ingame Limiter einfach ein paar FPS drunter bleiben und den internen nutzen kann
 
So. Nach diversen Tests folgende Beobachtung: mit FL auf 140 hab ich 0 Tearing. Auch, wenn die FTs in einigen Spielen aussehen, wie ein Herzmonitor. Und die FPS zwischen 6X und 140 schwanken... Hier tut G-Sync was es soll.
 
Wieso solltest Du mit GSync unterhalb der Frequenz des Monitors auch Tearing haben?! Das hat doch auch niemand behauptet, oder?
 
Wieder ein richtig informativer nachfolge Artikel. Freu mich auf die Fortsetzung. Vielen Dank :)
 
Der mehrheit der "Synchronisations-Gegner" geht es nicht um früher sehen (da hilft letztlich wirklich nur ein Monitor mit mehr Hz), es geht darum den Input zeitlich näher an den Output zu bringen. Und da hilft es, wenn man alle anderen Optionen ausgenutzt hat, nur noch die FPS zu erhöhen.

PS: Der Titel ist immer noch fachlich und technisch schlicht falsch! Schade sowas auf igorslab.de lesen zu "müssen".

Ich verstehe zwar nicht, was genau hier fachlich falsch ist, aber du darfst gerne einen Artikel verfassen, der es aus deiner Sicht richtig stellt...

Und noch was, es stimmt, wenn du sagst, dass der Klick deiner Maus und die Konsequenz dessen, in aller Regel den Gegner zerlegt bevor du es in Real siehst.

Aber da du es ja technisch scheinbar besser als aller anderen hier verstehst, solltest du uns bitte erklären, wann genau du den Gegner siehst? Auf den du schießt!

Richtig mit der gleichen Gesamtlatenz inklusive deiner Reaktionszeit... hier spielt der Monitor und die Refresh Rate die wichtigstes Rolle abgesehen von der Serverlatenz!

Ich bin offen für alles und absolut kritikfähig, aber wer mein, dass seine eigenen Gefühle plötzlich Fakten sind...... Der hat es bei mir schwer


Update:
In einem Punkt hattest du in der Tat Recht, Nvidia nutzt unterhalb von 36 FPS auch eine Art LFC Modus... somit immer noch 1:0 Nvidia G-SYNC... bei Freesync (adaptive Sync) hört die VRR bei 48 FPS auf der LFC muss eingreifen... dass das in der Realität kaum einen Unterschied macht ist mir klar, aber dennoch ist es ein Fakt... 36 vs 48 Min-FPS
 
Zuletzt bearbeitet :
Damit in Spielen ohne ingame Limiter RTSS greift und ich bei Spielen mit ingame Limiter einfach ein paar FPS drunter bleiben und den internen nutzen kann
Wenn du spiele ohne IGFL spielst, dann nutz den RTSS und die Spiele die einen IGFL haben, der gut funktioniert, da nutzt du den, aber bitte nur den! Beides ist meiner Meinung nach unzweckmäßig... aber letztlich dir überlassen
 
Ich verstehe zwar nicht, was genau hier fachlich falsch ist, aber du darfst gerne einen Artikel verfassen, der es aus deiner Sicht richtig stellt...
Du schreibst:"NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync?" in deinem "Test" gibt es aber kein AMD und keine Freesync Implementierung sondern lediglich nvidia G-Sync Compatible an einem FreeSync Monitor. Insofern ist schon der gesamte Kontext _fachlich_ falsch. Technisch falsch ist u.a , dass du 2 extrem ungleiche Monitore verwendest, du "testes" so mehr die unterschiedliche Monitore als das dies ein Test über Adaptive-Sync ist.

Und noch was, es stimmt, wenn du sagst, dass der Klick deiner Maus und die Konsequenz dessen, in aller Regel den Gegner zerlegt bevor du es in Real siehst.

Aber da du es ja technisch scheinbar besser als aller anderen hier verstehst, solltest du uns bitte erklären, wann genau du den Gegner siehst? Auf den du schießt!

Richtig mit der gleichen Gesamtlatenz inklusive deiner Reaktionszeit... hier spielt der Monitor und die Refresh Rate die wichtigstes Rolle abgesehen von der Serverlatenz!

Ich bin offen für alles und absolut kritikfähig, aber wer mein, dass seine eigenen Gefühle plötzlich Fakten sind...... Der hat es bei mir schwer
Durch mehr FPS bringst du schlicht den Input zeitlich näher an den Output.
Der Unterschied liegt darin, dass bei (zb) 144Hz und 144FPS der "Input" idR 14ms (2*~7ms) alt ist (und das nur auf den Monitor und FPS bezogen!), bei 144Hz und 500FPS aber nur bei ~9ms liegt. Dies war jetzt nur "betrachtet" was man sieht, denn der Input ist ja auch Netwerk, was wieder etwas ganz anderes ist.
PS: auf meinen "Lieblingsserver" habe ich einen Ping von ~7ms. ;) (Nur einfach mal so zum nachdenken.)

Update:
In einem Punkt hattest du in der Tat Recht, Nvidia nutzt unterhalb von 36 FPS auch eine Art LFC Modus... somit immer noch 1:0 Nvidia G-SYNC... bei Freesync (adaptive Sync) hört die VRR bei 48 FPS auf der LFC muss eingreifen... dass das in der Realität kaum einen Unterschied macht ist mir klar, aber dennoch ist es ein Fakt... 36 vs 48 Min-FPS
Das ist bei AMD UND nvidia Monitor/Panel abhängig!
Wenn dir die minHz nicht reichen, dann nimm doch einen anderen FreeSync Monitor.
ZB:

AOC G2590PX, 24.5"​

Adaptive Sync, AMD FreeSync Premium (30-144Hz via DisplayPort, 30-144Hz via HDMI, mit LFC-Support, ohne HDR), NVIDIA G-Sync Compatible zertifiziert (30-144Hz via DisplayPort)

Der Monitor (das Panel!) geht runter bis 30Hz, FreeSync gibt IMMER die eigenschaften des Panel an, bei GSync(Modul) dürfen die Hersteller dies nicht bekannt geben, da nvidia IMMER mit frame doubling angibt.
 
Hi

Das irritiert mich auch ein wenig.
Besser wäre es zusätzlich gewesen eine AMD Karte mit Freesync auf einen Monitor zu testen der " offiziel" beides kann.
Um die 2 Technologuen direkt zu Vergleichen.
So verwirrt mich das ganze.

Mein Samsung hat kein Freesync aber meine 5600er konnte Enhanced sync.
Wie ist da die Auswirkung, ist damit VRR gemeint?

Kann ich jetzt nicht genauer ansehen da meine Graka in RMA seit einen Monat ist.

Gruss Labberlipoe
 
@FritzHunter01 Danke erstmal für deinen Artikel zu dem Thema, dennoch macht es nicht nur auf mich den Eindruck, dass du dich kaum mit der Thematik auseinander gesetzt hast.
Ich haue da ungerne in die gleiche Kerbe, aber das meiste was hier an Kritik angebracht wird, ist richtig.

Schon alleine das du eine Messung bei 325 FPS MIT Gsync und eine OHNE Gsync gemacht hast, zeigt das.
Gsync/FreeSync KANN doch nur im Frequenzbereich des Monitor funktionieren, ODER der Monitor würde es die FPS auf die max. Frequenz begrenzen. (Was dann wieder ein FrameLimiter wäre. Daher ist die Standarteinstellung im Treiber nach wie vor noch V-Sync ON)
Und genau das Zeigen ja auch deine Messwerte.

Frage:
Mit welchem Energieprofil hast du die Test gemacht? "Maximale Leistung bevorzugen"?

Hier ist ein 1-A Artikel zum Thema Input-Lag und Konfiguration von G-Sync. Auch im Bezug auf die Einstellungen von einem FrameLimiter und wie man genau -2FPS im FrameLimit einstellen sollte.
An der Stelle kannst du auch Technisch noch einmal nachlesen, wieso deine Messung bei 325FPS und GSync ON das gleiche wie mit GSync OFF sind.


Bei den Monitoren wurden ja leider auch Äpfel mit Birnen verglichen, schade.
 
Zuletzt bearbeitet :
@FritzHunter01 Danke erstmal für deinen Artikel zu dem Thema, dennoch macht es nicht nur auf mich den Eindruck, dass du dich kaum mit der Thematik auseinander gesetzt hast.
Ich haue da ungerne in die gleiche Kerbe, aber das meiste was hier an Kritik angebracht wird, ist richtig.

Schon alleine das du eine Messung bei 325 FPS MIT Gsync und eine OHNE Gsync gemacht hast, zeigt das.
Gsync/FreeSync KANN doch nur im Frequenzbereich des Monitor funktionieren, ODER der Monitor würde es die FPS auf die max. Frequenz begrenzen. (Was dann wieder ein FrameLimiter wäre. Daher ist die Standarteinstellung im Treiber nach wie vor noch V-Sync ON)
Und genau das Zeigen ja auch deine Messwerte.

Frage:
Mit welchem Energieprofil hast du die Test gemacht? "Maximale Leistung bevorzugen"?

Hier ist ein 1-A Artikel zum Thema Input-Lag und Konfiguration von G-Sync. Auch im Bezug auf die Einstellungen von einem FrameLimiter und wie man genau -2FPS im FrameLimit einstellen sollte.
An der Stelle kannst du auch Technisch noch einmal nachlesen, wieso deine Messung bei 325FPS und GSync ON das gleiche wie mit GSync OFF sind.


Bei den Monitoren wurden ja leider auch Äpfel mit Birnen verglichen, schade.


Jetzt komm ich langsam dahinter, man stört sich am direkten Vergleich...

Mir ging es hier im Schwerpunkt um die Tatsache, dass es keinen Grund gibt G-Sync oder FreeSync zu deaktivieren... es hat keine Auswirkungen auf die Latenz. Das ist Fakt!

V-Sync kopflos zu aktivieren (ohne Limitierung der FPS unterhalb des Refresh Rate) ist eine Latenzvollbremsung... wer das nicht glaubt, ist herzlich eingeladen, sich hier zu beteiligen... LDAT besorgen und Messen!

Bisher hat mir keine ZDF gezeigt (Zahlen, Daten, Fakten)

Der Vergleich zwischen AMD und Nvidia kommt noch... ich mache das aus Spaß an der Freude und sitze nicht 24h vor dem Kasten... Stichwort: Echtes Leben!

Btw: solange man unterhalb der max. Hz des Monitors bleibt, spielt es keine Rolle ob ihr mit AMD oder Nvidia V-Sync aktiviert. Mit FPS Innerhalb der VRR ist beiden Fällen FreeSync/G-Sync aktiv und somit gibt es keine Latenzprobleme (außer, wenn eure FPS innerhalb der VRR streuen wie eine Gießkanne)

Am Ende des Tages und so steht es auch im Artikel: Wer über der Refresh Rate des Monitors keinen Framelimiter nutzt und V-Sync aktiviert, der muss mit den höheren Latenzen leben...

Wer kein Tearing will, der wird alles anschmeißen was geht und schauen, dass er zusätzlich konstante Frametimes hat (= konstante System-Latenz) Ziel konstante high framerate!

Tut mir leid, wenn ich jemanden hier emotional getroffen haben sollte, das ist kein Grund, seine Gefühle zu Fakten zu machen!
 
Zuletzt bearbeitet :
Mir ging es hier im Schwerpunkt um die Tatsache, dass es keinen Grund gibt G-Sync oder FreeSync zu deaktivieren... es hat keine Auswirkungen auf die Latenz. Das ist Fakt!
Naja, es ist halt, solange man über der max Hz des Monitors ist, macht es ja keinen unterschied. Es hat keine Auswirkung, da GSync/Freesync in dem Fall "aus" ist. Ist halt der Technik geschuldet.

V-Sync kopflos zu aktivieren (ohne Limitierung der FPS unterhalb des Refresh Rate) ist eine Latenzvollbremsung... wer das nicht glaubt, ist herzlich eingeladen, sich hier zu beteiligen... LDAT besorgen und Messen!
Da hast du vollkommen recht.

Bisher hat mir keine ZDF gezeigt (Zahlen, Daten, Fakten)
Naja: https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/
Ich kann den Artikel nur sehr empfehlen für deine Messungen.

Der Vergleich zwischen AMD und Nvidia kommt noch... ich mache das aus Spaß an der Freude und sitze nicht 24h vor dem Kasten... Stichwort: Echtes Leben!
Der würde mich SEHR interessieren.
Wer kein Tearing will, der wird alles anschmeißen was geht und schauen, dass er zusätzlich konstante Frametimes hat (= konstante System-Latenz) Ziel konstante high framerate!
N FrameLimit reicht da wohl und für die besten Latenzen so weit runter, dass man kaum FPS Schwankungen hat. Ich zb nutze meist 100FPS FrameLimit In-Game.

Jetzt komm ich langsam dahinter, man stört sich am direkten Vergleich...
Die Überschrift deinen Artikels nennt sich halt leider "NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync".

Das suggeriert nun mal dass du die Techniken miteinander vergleichst und so ist auch die Erwartungshaltung des Lesers.
 
Oben Unten