Reviews NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync? Wir messen die Systemlatenz! | Praxis

Naja, es ist halt, solange man über der max Hz des Monitors ist, macht es ja keinen unterschied. Es hat keine Auswirkung, da GSync/Freesync in dem Fall "aus" ist. Ist halt der Technik geschuldet.


Da hast du vollkommen recht.


Naja: https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/
Ich kann den Artikel nur sehr empfehlen für deine Messungen.


Der würde mich SEHR interessieren.

N FrameLimit reicht da wohl und für die besten Latenzen so weit runter, dass man kaum FPS Schwankungen hat. Ich zb nutze meist 100FPS FrameLimit In-Game.


Die Überschrift deinen Artikels nennt sich halt leider "NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync".

Das suggeriert nun mal dass du die Techniken miteinander vergleichst und so ist auch die Erwartungshaltung des Lesers.

Ok in Bezug auf die Überschriften muss hier in der Tat eine Verwirrung für den Leser eingestehen. G-Sync vs G-Sync Kompatibel vs V-Sync wäre treffender!

Ich werde es ändern!
 
Ok in Bezug auf die Überschriften muss hier in der Tat eine Verwirrung für den Leser eingestehen. G-Sync vs G-Sync Kompatibel vs V-Sync wäre treffender!

Ich werde es ändern!
Sorry aber auch das ist nicht treffend. Du vergleichst nen 144hz Gsync mit nem 75hz Gsync kompatibeln Monitor.

Das ist echt nicht böse gemeint, aber das ist Äpfel mit bringen verglichen.

"Latenzen mit und ohne Gsync/Vsync Verglichen" während treffend, wenn auch kacke formuliert
 
Mal ganz davon ab, finde ich es richtig dufte von dir, dass du dich als Autor an der Diskussion beteiligst. Bei vielen anderen Portalen stellt der Autor sich selten der Community.
 
Sorry aber auch das ist nicht treffend. Du vergleichst nen 144hz Gsync mit nem 75hz Gsync kompatibeln Monitor.

Das ist echt nicht böse gemeint, aber das ist Äpfel mit bringen verglichen.

"Latenzen mit und ohne Gsync/Vsync Verglichen" während treffend, wenn auch kacke formuliert

Ich zeige in dem Fall ja auch 60 Hz G-SYNC vs 60 Hz G-SYNC Kompatibel...

Mir ist bewusst, dass ich einen 240 Hz mit einem 75 Hz Monitor in den Ring schicke... erschreckender Weise hat der 75 Hz noch nicht mal FreeSync Premium, somit keine VRR...

Ich habe zum Glück noch einen 144 Hz FreeSync Premium Monitor... beim Artikel G-Sync vs FreeSync (Nvidia vs AMD) werde ich den 240 Hz Monitor auf 144 Hz locken. Dann liegt eine gleiche Ausgangsbasis vor!
 
Ich hab das auch nicht so richtig als "gegen"-Vergleich gelesen. Da ich von einem 75Hz Freesync 2 Display komme und auf ein 144Hz G-Sync gewechselt habe, kann ich den Vergleich ganz gut einordnen. Mir ist das Ziel aber nach wie vor etwas unklar. Wenn ich einfach G-Sync anschmeiße und die Karte (auch mit Zickzack Frametimes) zwischen >60 FPS rendert, sieht das nicht nur fein aus, sondern fühlt sich auch smooth an. Das war ja Sinn der Übung. G-Sync spart mir dann das CPU Upgrade (Frametimes) und ggf auch das GPU Upgrade (noch mehr FPS).

Trotzdem hab ich hier einiges gelernt. Danke.
 
Die frage ist doch wieso wendet man das Sych nicht an, wen man es ja schon hat. Ihr wisst schon wieviel das gesunde Menschliche Auge wahrnimmt!
 
Ich zocke in UHD Auflösung!
Der Monitor beherrscht auch G-Sync!
Nutzt es, beim zocken in UHD, G-Sync im Spiel zu aktivieren?
 
Eigentlich, wenn im Treiber richtig erkannt und eingestellt, sieht man mit der "NV Pendulum Demo" die Auswirkung.
Dann stellt sich die Frage nicht ob on oder off.
Danach möchte man nicht mehr ohne. (Auch in niedrigen FPS kein Geruckel und Tearing)
 
@John Wick ja. Gerade dafür ist das gemacht, also wenn die Graka nicht die FPS packt, die der Monitor darstellen könnte - was bei 4K/UHD (leider) immer noch der Regelfall ist, wenn man höhere Grafikeinstellungen wählt.
 
Ok in Bezug auf die Überschriften muss hier in der Tat eine Verwirrung für den Leser eingestehen. G-Sync vs G-Sync Kompatibel vs V-Sync wäre treffender!

Ich werde es ändern!
Ich danke dir. (y)

Bitte noch mal das mit dem LFC bzw Frame Doubling zu überdenken, es gibt da schlicht keinen Vorteil für das gsync Modul. Die minHz bestimmt das verbaute Panel, egal ob Adaptive-Sync, gsync oder FreeSync.


Zu dem Mythos ein Adaptive-Sync Monitor sei auch immer ein FreeSync Monitor und es gäbe bei AMD keine Zertifizierung für die FreeSync Monitore. Es tauchte zwar früher schon immer mal wieder in Foren auf, dass AMD sehr wohl jedes MonitorModell Zertifiziert, nur wurden diese "wissenden" User in den Foren "niedergemacht". Das Gerücht hält sich leider immer noch.

AMD FreeSync Certification Process​

 
. (Posting falsch gelesen und Antwort deswegen überflüssig)
 
Ich danke dir. (y)

Bitte noch mal das mit dem LFC bzw Frame Doubling zu überdenken, es gibt da schlicht keinen Vorteil für das gsync Modul. Die minHz bestimmt das verbaute Panel, egal ob Adaptive-Sync, gsync oder FreeSync.


Zu dem Mythos ein Adaptive-Sync Monitor sei auch immer ein FreeSync Monitor und es gäbe bei AMD keine Zertifizierung für die FreeSync Monitore. Es tauchte zwar früher schon immer mal wieder in Foren auf, dass AMD sehr wohl jedes MonitorModell Zertifiziert, nur wurden diese "wissenden" User in den Foren "niedergemacht". Das Gerücht hält sich leider immer noch.

AMD FreeSync Certification Process​


Ich schau mir das mal an und gegebenenfalls kann ich hierzu ein Gespräch mit AMD führen...

Aus meiner Sicht, spielt es letztlich keine Rolle mehr, ob ich jetzt meine NV GPU mit einem G-SYNC oder G-SYNC Kompatibel Monitor verbinde... wichtig ist doch, dass ich innerhalb der VRR keine Tearing-Probleme bekomme...

Wenn man dann noch die bestmöglichen Frametimes mittels Framelimiter einstellt, dann hat relativ konstante Systemlatenzen und darauf bauen auch alle Artikel hin aus...

Das hier mal was missverständlich rüberkommt, das bleibt nicht aus... dafür gibt es ja das Forum, da können wir drüber diskutieren... Dabei ist mir nur wichtig, dass es konstruktiv bleibt, sonst wird recht schnell toxisch und das muss nicht sein!

Beispiel: von dir, der direkte Angriff mit der Aussage, das sowas hier auf Igorslab kommt...

Letztlich sind die Kerndaten korrekt, im Ausdruck etwas verwirrend, und das kann gerne kritisch angesprochen werden, so kann ich es beim nächsten Mal besser machen!
 
Ich schau mir das mal an und gegebenenfalls kann ich hierzu ein Gespräch mit AMD führen...
Finde ich super, allerdings wird dir der AMD Kollege 100% sowas sagen wie: "Wir kommentieren keine Technik von einem unserer Mitbewerber." aber versuchen kannst du es gerne mal.

Aus meiner Sicht, spielt es letztlich keine Rolle mehr, ob ich jetzt meine NV GPU mit einem G-SYNC oder G-SYNC Kompatibel Monitor verbinde... wichtig ist doch, dass ich innerhalb der VRR keine Tearing-Probleme bekomme...
Da würde ich dir auch zu 100% zustimmen, aber warum dann im Titel "vs. AMD FreeSync vs."?

Wenn man dann noch die bestmöglichen Frametimes mittels Framelimiter einstellt, dann hat relativ konstante Systemlatenzen und darauf bauen auch alle Artikel hin aus...
Auch da stimme ich dir zu, zumindest so lange du dich nur auf "button to pixel lag" beziehst und auch jegliches minimalstest Tearing verhindern willst. Geht es aber um die minimalste _input_ Latenz, dann ist vsync off und deutlich mehr FPS eigentlich immer die bessere Alternative, dies schließt kein Framelimiter aus, denn kann man auch zB auf 480 FPS stellen wenn man locker 500 FPS erreicht. Der Effekt des Framelimiter bleibt der selbe.

Das hier mal was missverständlich rüberkommt, das bleibt nicht aus... dafür gibt es ja das Forum, da können wir drüber diskutieren... Dabei ist mir nur wichtig, dass es konstruktiv bleibt, sonst wird recht schnell toxisch und das muss nicht sein!

Beispiel: von dir, der direkte Angriff mit der Aussage, das sowas hier auf Igorslab kommt...
Du wurdest mehrmals darauf hingewiesen dass da was nicht stimmt. Dann hattest du einiges auch eingesehen aber deine haltung darüber immer noch nicht geändert sondern statt die Fakten zu akzeptieren redest du davon es seinen "gefühle". Sorry aber wenn etwas "toxisch" ist, dann genau das.

Letztlich sind die Kerndaten korrekt, im Ausdruck etwas verwirrend, und das kann gerne kritisch angesprochen werden, so kann ich es beim nächsten Mal besser machen!
Nur der komplette Kontext (Titel) ist/(war?) falsch.


PS: Das 1:0 für Nvidia steht immer noch im Beitrag, sollte doch kein vergleich sein?
Dann frage ich jetzt mal andersrum.
Welchen Vorteil hat das g-sync Modul (alleine auf Adaptive-Sync bezogen) bei der minHz ,wenn doch AMD mit LFC und Nvidia mit frame doubling arbeiten?
 
Zuletzt bearbeitet :
@summit:

Wie kommst Du eigentlich darauf, dass eine höhere Framerate einen Vorteil beim Spiel mit sich bringt, auch wenn man die Frames selbst nie zu Gesicht bekommt? Das hast Du vor einigen Postings mal so dargestellt.

Das klingt als ob Du (bei einem Online MP Spiel) "FPS" mit "Ticks/second" (tps) gleichsetzen würdest. Ticks per second, also wie oft sich die Welt pro Sekunde updated, was oftmals damit verbunden ist, wie oft die Daten zwischen Clients und Server ausgetauscht werden, sind normal von der Framerate entkoppelt und das aus gutem Grund.

D.h. wenn sowohl tps als auch die Zahl der Bilder, die der Spieler zu Gesicht bekommt, und auch die Zeit, bis er ein Änderung des Bildes sieht, nichts mit der fps mehr zu tun hat, was genau soll dann eine solch astronomische fps Rate bringen? Das musst Du mir mal erklären. Die Aussage "der Gegner ist schon tot, bevor man ihn sieht" ist dann in diesem Zusammenhang nonsense. Es geht ja nicht darum, den Tod des Gegners zu sehen, sondern DASS er überhaupt da ist und WO genau er ist. Sonst kann man schlecht auf ihn zielen. Und dazu muss man ihn sehen können. Was schlecht möglich ist, wenn der Monitor "nur" 144 Bilder pro Sekunde anzeigen kann. Dann ist es völlig egal, ob Du 300 oder 500 fps erzeugst - außer Hitze in Deinem Rechner und einem höheren Verbrauch auf Deiner Stromrechnung macht das NULL Unterschied.
 
@summit:

Wie kommst Du eigentlich darauf, dass eine höhere Framerate einen Vorteil beim Spiel mit sich bringt, auch wenn man die Frames selbst nie zu Gesicht bekommt? Das hast Du vor einigen Postings mal so dargestellt.

Das klingt als ob Du (bei einem Online MP Spiel) "FPS" mit "Ticks/second" (tps) gleichsetzen würdest. Ticks per second, also wie oft sich die Welt pro Sekunde updated, was oftmals damit verbunden ist, wie oft die Daten zwischen Clients und Server ausgetauscht werden, sind normal von der Framerate entkoppelt und das aus gutem Grund.

D.h. wenn sowohl tps als auch die Zahl der Bilder, die der Spieler zu Gesicht bekommt, und auch die Zeit, bis er ein Änderung des Bildes sieht, nichts mit der fps mehr zu tun hat, was genau soll dann eine solch astronomische fps Rate bringen? Das musst Du mir mal erklären. Die Aussage "der Gegner ist schon tot, bevor man ihn sieht" ist dann in diesem Zusammenhang nonsense. Es geht ja nicht darum, den Tod des Gegners zu sehen, sondern DASS er überhaupt da ist und WO genau er ist. Sonst kann man schlecht auf ihn zielen. Und dazu muss man ihn sehen können. Was schlecht möglich ist, wenn der Monitor "nur" 144 Bilder pro Sekunde anzeigen kann. Dann ist es völlig egal, ob Du 300 oder 500 fps erzeugst - außer Hitze in Deinem Rechner und einem höheren Verbrauch auf Deiner Stromrechnung macht das NULL Unterschied.
Und wie gesagt kann das Menschliche Auge so oder so nicht mehr als 60 Bilder in der Sek FPS, war nehmen.
 
Und wie gesagt kann das Menschliche Auge so oder so nicht mehr als 60 Bilder in der Sek FPS, war nehmen.
Was sich offensichtlich nicht mit den 60Hz eines Monitors gleichsetzen lässt.
Somal es um die Input/output verzögerung geht.
 
Zuletzt bearbeitet :
Und wie gesagt kann das Menschliche Auge so oder so nicht mehr als 60 Bilder in der Sek FPS, war nehmen.
Das menschliche Auge kann deutlich mehr als 60 Wahrnehmen... sonst würde man den Unterschied zwischen 60 Hz und 144 Hz nicht merken!

Man kann sogar den Unterschied zwischen 144 und 360 Hz wahrnehmen!

Wenn du sagen würdest, dass das menschliche Gehirn, die Wahrnehmung nicht mehr in Gänze verarbeiten kann, dann bin ich bei dir!
 
Finde ich super, allerdings wird dir der AMD Kollege 100% sowas sagen wie: "Wir kommentieren keine Technik von einem unserer Mitbewerber." aber versuchen kannst du es gerne mal.


Da würde ich dir auch zu 100% zustimmen, aber warum dann im Titel "vs. AMD FreeSync vs."?


Auch da stimme ich dir zu, zumindest so lange du dich nur auf "button to pixel lag" beziehst und auch jegliches minimalstest Tearing verhindern willst. Geht es aber um die minimalste _input_ Latenz, dann ist vsync off und deutlich mehr FPS eigentlich immer die bessere Alternative, dies schließt kein Framelimiter aus, denn kann man auch zB auf 480 FPS stellen wenn man locker 500 FPS erreicht. Der Effekt des Framelimiter bleibt der selbe.


Du wurdest mehrmals darauf hingewiesen dass da was nicht stimmt. Dann hattest du einiges auch eingesehen aber deine haltung darüber immer noch nicht geändert sondern statt die Fakten zu akzeptieren redest du davon es seinen "gefühle". Sorry aber wenn etwas "toxisch" ist, dann genau das.


Nur der komplette Kontext (Titel) ist/(war?) falsch.


PS: Das 1:0 für Nvidia steht immer noch im Beitrag, sollte doch kein vergleich sein?
Dann frage ich jetzt mal andersrum.
Welchen Vorteil hat das g-sync Modul (alleine auf Adaptive-Sync bezogen) bei der minHz ,wenn doch AMD mit LFC und Nvidia mit frame doubling arbeiten?
Ich denke, dass es an der Stelle bzgl. toxischer Kommunikation ausreichend besprochen ist und wir uns fortan nur im Kreis drehen. Die Änderungen werden im Laufe des Tages vorgenommen!

Parallel werde ich heute nochmal die Thematik messen, ob bzw. wie sich der NV Treiber bzgl. V-Sync und Framelimiter verhält... das pack ich da in den nächsten Artikel mit rein... Daszu kommt dann eine gesammelte Folie (IGFL, RTSS, NV FL) mit V-Sync in-game, NV Treiber usw.

Dazu muss ich den Artikel noch etwas zurückhalten....

Der echte Vergleich zwischen AMD und Nvidia bzgl. Sync-Technologien kommt dann noch...

An der Stelle mal ein kleiner Spoiler:

Da ich nicht zu 100% die gleiche Hardware habe muss nehmen was ich da habe!

24" 1080p 240 Hz Nvidia G-SYNC (TN Panel) wird dann auf 144 Hz gelockt
27" 1440p (wird auf 1080p gelockt) 144 Hz AMD FreeSync Premium (mit VRR 48-144 Hz) [G-SYNC Kompatibel] IPS Panel

alleine die unterschiedlichen Panels haben einen gewissen Einfluss auf die gesamte Systemlatenz... Pixel-Responce-Time usw.

Ihr seht also, das Thema kann man nicht so wirklich zu 100% besichern.

Es geht mir auch nur darum, dem Endkunden zu zeigen, welche Technologie welche Effekte auf die Latenz haben können.
Aber eigentlich sollte jeder auch im transfer mitnehmen, dass es nicht immer nur um die möglichst höhsten FPS geht...
 
Zuletzt bearbeitet :
Naja dann ist es halt so, dann sind einige wirklich sehr gut im Auge.
 
Also ich habe ca vor einem Jahr meinen Augenarzt gefragt und der ist Professor, wie das so sei! Antwort; schauen Sie selber nach wieviel ihr Auge im Moment erträgt
Das mach mal den einfachen Test und bewege deine Maus im Kreis. Siehst du jezt eine Füssige bewegung auf dem Bildschirm?
Dann nochmal mit einem 144Hz Monitor, es wird schon besser aber flüssig ist das noch nicht.

Ich denke das man ein auf einzelbilder beruhendes Sytem, nicht so einfach mit etwas so Komplexen wie Augen/Hirn vergleichen kann.
 
Oben Unten