Reviews NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync? Wir messen die Systemlatenz! | Praxis

@FritzHunter01 Ich habe hier ne ganze Menge mitgenommen - Danke! Kann auf der Basis jetzt selbst ein bisschen testen und die für mich passende Einstellung finden. Für mich vor allem einen eigenen Test wert: Erledigt allein G-Sync den Job mit der "flüssigen" Darstellung oder hilft es, zusätzlich noch die FPS zu begrenzen. Mit meiner Hardware und in WQHD komme ich bei aller Grafikpracht selten >140 FPS, vor allem in aktuellen Titeln.
Manche haben sich gedanklich wohl immer noch nicht von der "vs" Überschrift getrennt.
Ja, das Thema geht auf meine Kappe... da habe ich etwas unüberlegt die falsche Überschrift gewählt. Aus Fehlern lernt man bekanntlich...

Bei übernächsten Artikel wird die Überschrift passen, denn da wird wirklich AMD vs Nvidia kommen...
 
Wist du auch AMD Enhaced Sync mal durch testen? Hatte das bisher immer an.
 
Ist für mich generell ein sehr spezielles Thema. Da spielen bei der "End-Experience" - meiner bescheidenen Meinung nach - total viele Faktoren rein, die sich kaum reproduzierbar messen, darstellen und vor allem in ihren jeweiligen Auswirkungen separieren lassen.

Ob es irgendwo zu Rucklern / Leistungseinbrüchen kommt, hängt eben vom Gesamtsystem (auch SSD, RAM, sonstige Erweiterungskarten, Hintergrundprogramme, Versionsstände Treiber etc.) ab, wenn's dumm läuft sogar auch vom Netcode - daher eignen sich z.B. Multiplayer-Titel m.E. generell eher wenig für aussagekräftige und auch auf das eigene Daddelzimmer übertragbare Tests/Vergleiche.

Ob das Ganze dann auch noch "wahrnehmbar" ist, da scheiden sich ja bereits bisweilen in der Theorie die Geister und Theorie und Praxis sind dann nochmal verschiedene Schuhe. Und nicht zuletzt: wer behauptet, er könne im Bereich unter 100ms (!) reagieren, löst bei mir maximale Zweifel an der Seriösität aus. Einen "Vorteil" von 16ms zu 24ms Latenz muss man auch erstmal heben können - dazu müsste ich auch IMMER in der Lage sein, die 8ms Unterschied zwischen Wahrnehmung und Reaktion umsetzen zu können, also immer am persönlichen Geschwindigkeitsmaximum von so ca. 200 (!) Millisekunden Reaktionszeit agieren (und das wäre schon VERDAMMT fix!). Das ist völlig illusorisch, d.h. der Faktor Mensch und seine Leistungsfähigkeit (die auch von Tag zu Tag und Minute zu Minute variiert) machen da mehr quasi IMMER Unterschied im kompetitiven Wettkampf aus, als 8, 16 oder gar 50ms Latenz-Unterschied von Frame zu Frame... Vor allem bei uns Normalo-Gamern, die nicht zu den top20 der Welt gehören.

Das nervt mich vor allem an so Darstellungen im Sinne von "Du brauchst die X-ms schnellere Latenz, um gegenüber den anderen Krücken da draußen einen Vorteil zu haben". Bullshit. Brauch' ich nicht. Ich bräuchte mehr Zeit, um meine eigene Reaktionszeit zu trainieren/verbessern und dabei bitte auch gleich die Präzision bei der Umsetzung (Hand-Auge-Koordination), Laufwege und allgemein intensives Traning mit der jeweiligen Spielmechanik. Und selbst mit maximaler Trainingszeit komm ich in meinem Alter nicht auf Reaktionszeiten runter, die mich z.B. mit einem 14-18 Jährigen konkurrieren ließen. Das schafft übrigens auch schon der Mitt-Zwanziger nicht mehr.

Was bleibt ist also die Erkenntnis: man muss es leider durchaus alles selber mit der eigenen Hardware usw. ausprobieren und "your mileage may vary!".
 
Ist für mich generell ein sehr spezielles Thema. Da spielen bei der "End-Experience" - meiner bescheidenen Meinung nach - total viele Faktoren rein, die sich kaum reproduzierbar messen, darstellen und vor allem in ihren jeweiligen Auswirkungen separieren lassen.

Ob es irgendwo zu Rucklern / Leistungseinbrüchen kommt, hängt eben vom Gesamtsystem (auch SSD, RAM, sonstige Erweiterungskarten, Hintergrundprogramme, Versionsstände Treiber etc.) ab, wenn's dumm läuft sogar auch vom Netcode - daher eignen sich z.B. Multiplayer-Titel m.E. generell eher wenig für aussagekräftige und auch auf das eigene Daddelzimmer übertragbare Tests/Vergleiche.

Ob das Ganze dann auch noch "wahrnehmbar" ist, da scheiden sich ja bereits bisweilen in der Theorie die Geister und Theorie und Praxis sind dann nochmal verschiedene Schuhe. Und nicht zuletzt: wer behauptet, er könne im Bereich unter 100ms (!) reagieren, löst bei mir maximale Zweifel an der Seriösität aus. Einen "Vorteil" von 16ms zu 24ms Latenz muss man auch erstmal heben können - dazu müsste ich auch IMMER in der Lage sein, die 8ms Unterschied zwischen Wahrnehmung und Reaktion umsetzen zu können, also immer am persönlichen Geschwindigkeitsmaximum von so ca. 200 (!) Millisekunden Reaktionszeit agieren (und das wäre schon VERDAMMT fix!). Das ist völlig illusorisch, d.h. der Faktor Mensch und seine Leistungsfähigkeit (die auch von Tag zu Tag und Minute zu Minute variiert) machen da mehr quasi IMMER Unterschied im kompetitiven Wettkampf aus, als 8, 16 oder gar 50ms Latenz-Unterschied von Frame zu Frame... Vor allem bei uns Normalo-Gamern, die nicht zu den top20 der Welt gehören.

Das nervt mich vor allem an so Darstellungen im Sinne von "Du brauchst die X-ms schnellere Latenz, um gegenüber den anderen Krücken da draußen einen Vorteil zu haben". Bullshit. Brauch' ich nicht. Ich bräuchte mehr Zeit, um meine eigene Reaktionszeit zu trainieren/verbessern und dabei bitte auch gleich die Präzision bei der Umsetzung (Hand-Auge-Koordination), Laufwege und allgemein intensives Traning mit der jeweiligen Spielmechanik. Und selbst mit maximaler Trainingszeit komm ich in meinem Alter nicht auf Reaktionszeiten runter, die mich z.B. mit einem 14-18 Jährigen konkurrieren ließen. Das schafft übrigens auch schon der Mitt-Zwanziger nicht mehr.

Was bleibt ist also die Erkenntnis: man muss es leider durchaus alles selber mit der eigenen Hardware usw. ausprobieren und "your mileage may vary!".

Damit triffst du des Pudels Kern! Die Reaktionszeit mit best case 0,2 ms ist die längste Latenz im gesamten System!

Mit allem, was ich hier aufzeige, kann man sicherstellen, dass zu 100% der Nutzer die Latenzbremse ist... wer sein System so konfigurieren, dass das Bild bei 144 Hz optimal ist und die Latenz konstant, dann ist vergleich bis hin zu 360 Hz so gering, dass es nur auf den Spieler selbst ankommt...

Das muss jedem hier klar sein!

Der Unterschied von 20-30 ms (144 Hz vs 360 Hz) mal ins blaue behauptet, ist messbar aber in der Realität kann das kein Mensch spüren... auch nicht wahrnehmen... wir haben einen Laserschweißprozess bei uns, da werden in 0,3 Sekunden 6 Schweißpunkte gesetzt... jeder, wirklich jeder, der das mal gesehen hat, der wird festgestellt, dass er nicht in der Lage ist, mir zu sagen, viele Punkte das wirklich waren... zumal ich niemanden vorher sagen, was abgeht...

Beim Zocken, wenn ich 30 min am Stück rumlaufe, dann spüre ich schon kleine Unterschiede... problematisch ist die Zuordnung der möglichen Ursachen... try and error...
 
Leider war dein letzter Kommentar nicht wirklich hilfreich... ich konnte dem nichts abgewinnen...
?

Du machst Reflex und Low Latency an der Framerate fest, dass hat damit aber überhaupt gar nichts zu tun. Es ist wichtig das in einem bestimmten Zeitfenster, wenn du mit der Maus klickst auch die Pixel dargestellt werden und das habe ich einen Beitrag weiter oben erklärt, warum. Die Latency hängt also nicht vom Systemdurchsatz in fps ab. Es gibt extra Tools in Form von Analyzer mit denen die Entwickler die Latenz anpassen können. Es ist also pure Absicht und macht Sinn, es auf die Sehleistung hin zu optimieren, um das Auge auf Dauer nicht zu überfordern.

Zu berücksichtigen ist dabei die Latenzpipeline der jeweiligen GPU. Das Ganze muss mit der GPU aber rein gar nichts zu tun haben, sondern kann schon bei Peripherie, der CPU, den Renderwarteschlangen, dem Display und so weiter beginnen, weil etwas rein von der Systemkonfig oder programmiert nicht zusammen passt, Optimierung fehlt. Die Systemlatency ist Teil der Reflex-Latenzpipeline, als Teil des jeweiligen SDK und du kannst sie manchmal absolut nicht beeinflussen. Die geringste Systemlatenz wird geboten, wenn VRR off ist, nur leidet dann die Bildquali! CPU abhängig kann man dann sampeln, zumal Frames im Vorlauf gerendert werden. Die misst du teilweise auch mit, aber ob sie überhaupt im Sinne der "Click to Display Latenz" dargestellt werden, ist wieder eine ganz andere Frage.

Was du siehst muss ein anderer lange noch nicht sehen, wobei man Zielgenauigkeit bspw. bei niedriger fps Rate trainiert, nicht bei hoher. Hohe fps Raten müssen also die Latenz überhaupt nicht minimieren. Ich kritisiere in keiner Form deinen Artikel, sondern versuche hier nur Grundlagen zu vermittlen, damit man versteht worum es geht. Wenn du meinst das sei nicht brauchbar - dann ist das deine Entscheidung. Das ändert nichts an der Tatsache das Latenzen nicht von der Framerate abhängig gemacht werden können oder nur davon (siehe HRC, HAL, DWR, Maus HW, Sampling, Rendering, Scan, Display und Pixelantwort). Das Thema ist viel komplexer.

Wenn du dafür eine Art Tutorial lieferst es anzupassen bzw. auf die persönl. Bedürfnisse hin zu optimieren, ist das für mich o.k.. So hohe Frameraten wie du hier beschreibst erreicht man in einem Onlinegame bspw. nicht (nicht immer) und die Latenz muss dabei überhaupt nicht leiden (Mouselatency, avg fps, Renderpreset, Displaylatency, Systemlatency). Die Mauslatenz steigt bei höherer Framerate gleich null. Da kannst du so viele Bilder auf dem Bildschirm rendern wie du willst. Wichtig ist eher die avg Latenz, nicht was man maximal erreicht und das ist abhängig vom Performanceoverlay. Zudem gibt es Bildschirme und dazugehörige Hardware die aufeinander abgestimmt sind (Asus, Acer, Dell, MSI usw.), siehe Nvidia Reflex (ab der GTX900 Serie soweit ich weiß).

Ergo kann die Latency bei 55fps deutlich niedriger sein als bei 340, hohe fps Rate ist dabei kein Allheilmittel.
 
Zuletzt bearbeitet von einem Moderator :
Das Auge kann im besten (trainierten) Fall bis zu 55 fps wahrnehmen, dann ist für das menschliche Auge kein Unterschied mehr erkennbar (der Rest ist biologisch gesehen Einbildung und ein reiner Gewöhnungseffekt - trifft gleichermaßen auf niedrigere Bildraten zu, denn wer es gewöhnt ist den stört es nicht).
Können wir bitte solche schon lange widerlegten Behauptungen lassen? Das Auge funktioniert überhaupt nicht in FPS und ist auch nicht arbiträr begrenzt bei 55. Es ist noch dazu einfach falsch, dass man nach 55 (oder 60 oder 75) plötzlich keinen Unterschied mehr merkt. Diminishing Returns? Klar. Aber das ist ein lange widerlegter Mythos, der einfach falsch ist.
 
@FritzHunter01 Ich habe hier ne ganze Menge mitgenommen - Danke! Kann auf der Basis jetzt selbst ein bisschen testen und die für mich passende Einstellung finden. Für mich vor allem einen eigenen Test wert: Erledigt allein G-Sync den Job mit der "flüssigen" Darstellung oder hilft es, zusätzlich noch die FPS zu begrenzen. Mit meiner Hardware und in WQHD komme ich bei aller Grafikpracht selten >140 FPS, vor allem in aktuellen Titeln.
Manche haben sich gedanklich wohl immer noch nicht von der "vs" Überschrift getrennt.
So ist die übliche Einstellung. G-Sync on und FPS bei 140 begrenzen (wenn 144 Monitor)
Den praktischsten Vorteil von G Sync sehe ich in ruckelfreiem spielen, obwohl ich die VGA mit hohen BQ Settings herunterquäle, Mangels superteuren Pixel Beschleuniger in WQHD . Meine Kombination (2070S bei RDR2 bei um 50-75Hz, je nach Aufkommen) kommt mit der Range gut klar.

Das Thema kommt ja nun alle paar Jahre immer wieder neu auf den Tisch und was letzte mal bewusst im Print der PCGH vor 2-3 Jahren?
Das es keine nennenswerte "Mehrlatenz" mit G/Free Sync gibt, ist ein alter Hut - interessanter fand ich eigentlich, ob AMD oder NV einen Unterschied gab, wie im Topic Überschrift angedeutet. Leider ist der Faden komplett abgedriftet.
Und ich bin froh, das ich doch mehr sehe als einige hier mit 55Hz^^
 
?

Du machst Reflex und Low Latency an der Framerate fest, dass hat damit aber überhaupt gar nichts zu tun. Es ist wichtig das in einem bestimmten Zeitfenster, wenn du mit der Maus klickst auch die Pixel dargestellt werden und das habe ich einen Beitrag weiter oben erklärt, warum. Die Latency hängt also nicht vom Systemdurchsatz in fps ab. Es gibt extra Tools in Form von Analyzer mit denen die Entwickler die Latenz anpassen können. Es ist also pure Absicht und macht Sinn, es auf die Sehleistung hin zu optimieren, um das Auge auf Dauer nicht zu überfordern.

Zu berücksichtigen ist dabei die Latenzpipeline der jeweiligen GPU. Das Ganze muss mit der GPU aber rein gar nichts zu tun haben, sondern kann schon bei Peripherie, der CPU, den Renderwarteschlangen, dem Display und so weiter beginnen, weil etwas rein von der Systemkonfig oder programmiert nicht zusammen passt, Optimierung fehlt. Die Systemlatency ist Teil der Reflex-Latenzpipeline, als Teil des jeweiligen SDK und du kannst sie manchmal absolut nicht beeinflussen. Die geringste Systemlatenz wird geboten, wenn VRR off ist, nur leidet dann die Bildquali! CPU abhängig kann man dann sampeln, zumal Frames im Vorlauf gerendert werden. Die misst du teilweise auch mit, aber ob sie überhaupt im Sinne der "Click to Display Latenz" dargestellt werden, ist wieder eine ganz andere Frage.

Was du siehst muss ein anderer lange noch nicht sehen, wobei man Zielgenauigkeit bspw. bei niedriger fps Rate trainiert, nicht bei hoher. Hohe fps Raten müssen also die Latenz überhaupt nicht minimieren. Ich kritisiere in keiner Form deinen Artikel, sondern versuche hier nur Grundlagen zu vermittlen, damit man versteht worum es geht. Wenn du meinst das sei nicht brauchbar - dann ist das deine Entscheidung. Das ändert nichts an der Tatsache das Latenzen nicht von der Framerate abhängig gemacht werden können oder nur davon (siehe HRC, HAL, DWR, Maus HW, Sampling, Rendering, Scan, Display und Pixelantwort). Das Thema ist viel komplexer.

Wenn du dafür eine Art Tutorial lieferst es anzupassen bzw. auf die persönl. Bedürfnisse hin zu optimieren, ist das für mich o.k.. So hohe Frameraten wie du hier beschreibst erreicht man in einem Onlinegame bspw. nicht (nicht immer) und die Latenz muss dabei überhaupt nicht leiden (Mouselatency, avg fps, Renderpreset, Displaylatency, Systemlatency). Die Mauslatenz steigt bei höherer Framerate gleich null. Da kannst du so viele Bilder auf dem Bildschirm rendern wie du willst. Wichtig ist eher die avg Latenz, nicht was man maximal erreicht und das ist abhängig vom Performanceoverlay. Zudem gibt es Bildschirme und dazugehörige Hardware die aufeinander abgestimmt sind (Asus, Acer, Dell, MSI usw.), siehe Nvidia Reflex (ab der GTX900 Serie soweit ich weiß).

Ergo kann die Latency bei 55fps deutlich niedriger sein als bei 340, hohe fps Rate ist dabei kein Allheilmittel.
Was glaubst du, was ich mit LDAT messe?

Ich gebe dir mal ein Hilfsziel, es ist nicht die Luftfeuchtigkeit! :p
 
?

Du machst Reflex und Low Latency an der Framerate fest, dass hat damit aber überhaupt gar nichts zu tun. Es ist wichtig das in einem bestimmten Zeitfenster, wenn du mit der Maus klickst auch die Pixel dargestellt werden und das habe ich einen Beitrag weiter oben erklärt, warum. Die Latency hängt also nicht vom Systemdurchsatz in fps ab. Es gibt extra Tools in Form von Analyzer mit denen die Entwickler die Latenz anpassen können. Es ist also pure Absicht und macht Sinn, es auf die Sehleistung hin zu optimieren, um das Auge auf Dauer nicht zu überfordern.

Zu berücksichtigen ist dabei die Latenzpipeline der jeweiligen GPU. Das Ganze muss mit der GPU aber rein gar nichts zu tun haben, sondern kann schon bei Peripherie, der CPU, den Renderwarteschlangen, dem Display und so weiter beginnen, weil etwas rein von der Systemkonfig oder programmiert nicht zusammen passt, Optimierung fehlt. Die Systemlatency ist Teil der Reflex-Latenzpipeline, als Teil des jeweiligen SDK und du kannst sie manchmal absolut nicht beeinflussen. Die geringste Systemlatenz wird geboten, wenn VRR off ist, nur leidet dann die Bildquali! CPU abhängig kann man dann sampeln, zumal Frames im Vorlauf gerendert werden. Die misst du teilweise auch mit, aber ob sie überhaupt im Sinne der "Click to Display Latenz" dargestellt werden, ist wieder eine ganz andere Frage.

Was du siehst muss ein anderer lange noch nicht sehen, wobei man Zielgenauigkeit bspw. bei niedriger fps Rate trainiert, nicht bei hoher. Hohe fps Raten müssen also die Latenz überhaupt nicht minimieren. Ich kritisiere in keiner Form deinen Artikel, sondern versuche hier nur Grundlagen zu vermittlen, damit man versteht worum es geht. Wenn du meinst das sei nicht brauchbar - dann ist das deine Entscheidung. Das ändert nichts an der Tatsache das Latenzen nicht von der Framerate abhängig gemacht werden können oder nur davon (siehe HRC, HAL, DWR, Maus HW, Sampling, Rendering, Scan, Display und Pixelantwort). Das Thema ist viel komplexer.

Wenn du dafür eine Art Tutorial lieferst es anzupassen bzw. auf die persönl. Bedürfnisse hin zu optimieren, ist das für mich o.k.. So hohe Frameraten wie du hier beschreibst erreicht man in einem Onlinegame bspw. nicht (nicht immer) und die Latenz muss dabei überhaupt nicht leiden (Mouselatency, avg fps, Renderpreset, Displaylatency, Systemlatency). Die Mauslatenz steigt bei höherer Framerate gleich null. Da kannst du so viele Bilder auf dem Bildschirm rendern wie du willst. Wichtig ist eher die avg Latenz, nicht was man maximal erreicht und das ist abhängig vom Performanceoverlay. Zudem gibt es Bildschirme und dazugehörige Hardware die aufeinander abgestimmt sind (Asus, Acer, Dell, MSI usw.), siehe Nvidia Reflex (ab der GTX900 Serie soweit ich weiß).

Ergo kann die Latency bei 55fps deutlich niedriger sein als bei 340, hohe fps Rate ist dabei kein Allheilmittel.
1618328642539.png

1618328852576.png
 

Anhänge

  • 1618328875466.png
    1618328875466.png
    82,4 KB · Aufrufe : 7
?

Du machst Reflex und Low Latency an der Framerate fest, dass hat damit aber überhaupt gar nichts zu tun. Es ist wichtig das in einem bestimmten Zeitfenster, wenn du mit der Maus klickst auch die Pixel dargestellt werden und das habe ich einen Beitrag weiter oben erklärt, warum. Die Latency hängt also nicht vom Systemdurchsatz in fps ab. Es gibt extra Tools in Form von Analyzer mit denen die Entwickler die Latenz anpassen können. Es ist also pure Absicht und macht Sinn, es auf die Sehleistung hin zu optimieren, um das Auge auf Dauer nicht zu überfordern.

Zu berücksichtigen ist dabei die Latenzpipeline der jeweiligen GPU. Das Ganze muss mit der GPU aber rein gar nichts zu tun haben, sondern kann schon bei Peripherie, der CPU, den Renderwarteschlangen, dem Display und so weiter beginnen, weil etwas rein von der Systemkonfig oder programmiert nicht zusammen passt, Optimierung fehlt. Die Systemlatency ist Teil der Reflex-Latenzpipeline, als Teil des jeweiligen SDK und du kannst sie manchmal absolut nicht beeinflussen. Die geringste Systemlatenz wird geboten, wenn VRR off ist, nur leidet dann die Bildquali! CPU abhängig kann man dann sampeln, zumal Frames im Vorlauf gerendert werden. Die misst du teilweise auch mit, aber ob sie überhaupt im Sinne der "Click to Display Latenz" dargestellt werden, ist wieder eine ganz andere Frage.

Was du siehst muss ein anderer lange noch nicht sehen, wobei man Zielgenauigkeit bspw. bei niedriger fps Rate trainiert, nicht bei hoher. Hohe fps Raten müssen also die Latenz überhaupt nicht minimieren. Ich kritisiere in keiner Form deinen Artikel, sondern versuche hier nur Grundlagen zu vermittlen, damit man versteht worum es geht. Wenn du meinst das sei nicht brauchbar - dann ist das deine Entscheidung. Das ändert nichts an der Tatsache das Latenzen nicht von der Framerate abhängig gemacht werden können oder nur davon (siehe HRC, HAL, DWR, Maus HW, Sampling, Rendering, Scan, Display und Pixelantwort). Das Thema ist viel komplexer.

Wenn du dafür eine Art Tutorial lieferst es anzupassen bzw. auf die persönl. Bedürfnisse hin zu optimieren, ist das für mich o.k.. So hohe Frameraten wie du hier beschreibst erreicht man in einem Onlinegame bspw. nicht (nicht immer) und die Latenz muss dabei überhaupt nicht leiden (Mouselatency, avg fps, Renderpreset, Displaylatency, Systemlatency). Die Mauslatenz steigt bei höherer Framerate gleich null. Da kannst du so viele Bilder auf dem Bildschirm rendern wie du willst. Wichtig ist eher die avg Latenz, nicht was man maximal erreicht und das ist abhängig vom Performanceoverlay. Zudem gibt es Bildschirme und dazugehörige Hardware die aufeinander abgestimmt sind (Asus, Acer, Dell, MSI usw.), siehe Nvidia Reflex (ab der GTX900 Serie soweit ich weiß).
Warum habe ich wohl eine MSA bzgl. LDAT gemacht? Ich habe sogar mehrfach die Prozessfähigkeit berechnet und Anova gemacht. Eben weil ich es erst selbst nicht glauben wollte... mir ist die Prozesskette der End zu End Latenz bekannt... und gerade wenn es um Monitor geht (GtG 1ms) bla bla... 360 Hz Werbung... is klar, dass die Response Time für 360 Hz < 2,7 ms sein muss (Average über alles - auch Farbwechsel), sonst werden 360 Hz ziemlich bescheiden aussehen!

Es tut mit leid, wenn ich dein Weltbild zerstören muss, aber LDAT lügt nicht... es ist nicht nur die FPS, die ich mit einem Taschenrechner und einem Würfel zur Latenz bestimmte.

Hier ist sogar die Serverlatenz mit drin... deshalb komme ich in Overwatch auch nicht unter 35 ms... einzig deine Reaktionszeit ist nicht drin... die variiert von Mensch zu Mensch... die kann man aber auch messen... aber nicht mit LDAT, zumindest noch nicht
 
Du willst womit mein Weltbild zerstören?:)

Dann weißt du ja, desto höher die Hz-Zahl desto weniger Lag, die Framerate ist fast zu egal dabei. Du wärst sonst der einzige der was anderes misst. Und falls es dich interessiert, erzeugt ein Frameratenlimit im Treiber den größten Lag und ich kann mir nicht vorstellen, dass du darauf Zugriff hast. Ganz bestimmt nicht. Ich würde es hier jedenfalls nicht schreiben.

Ein Framelimiter macht also in vielen Fällen deutlich mehr Sinn, wenn es um Reduktion von Lag geht, damit man nicht ins Treiberlimit rennt. Egal ob dafür ein Profil angelegt wurde, erkennt der Treiber es.
 
Zuletzt bearbeitet von einem Moderator :
Du willst womit mein Weltbild zerstören?:)

Dann weißt du ja, desto höher die Hz-Zahl desto weniger Lag, die Framerate ist fast zu egal dabei. Du wärst sonst der einzige der was anderes misst. Und falls es dich interessiert, erzeugt ein Frameratenlimit im Treiber den größten Lag und ich kann mir nicht vorstellen, dass du darauf Zugriff hast. Ganz bestimmt nicht. Ich würde es hier jedenfalls nicht schreiben.

Ein Framelimiter macht also in vielen Fällen deutlich mehr Sinn, wenn es um Reduktion von Lag geht, damit man nicht ins Treiberlimit rennt. Egal ob dafür ein Profil angelegt wurde, erkennt der Treiber es.

Ich hab hier einige interessante Messungen... FPS ist nicht immer = die beste Latenz!

Ich kann nicht alles in einen Artikel packen... das kommt Stück für Stück
 
Die Reaktionszeit mit best case 0,2 ms ist die längste Latenz im gesamten System!
Hi, Du meintest sicherlich "0,2 s", nicht "ms". ;)
Macht sonst ja kein Sinn.

Danke für den Test & die vielen Infos!
Habe da auch als Freesyncer einiges mitgenommen und werde das in meinen Spielen austesten.
Bei mir ist nun auch noch rBAR als Feature hinzugekommen. Super für meinen neuen WFHD-144Hz-Monitor.

Grüße
 
So, erster Beitrag, ich hoffe ist berechtigt.. :)
Das die Latenzen zunehmen je weniger Hz der Monitor zur Verfügung stellt scheint mir auch aus dem Grund sehr logisch, dass (ausgehend von 325 fps im Schnitt) die (wegzurechnende) Differenz ja immer größer wird..
Wie sähe es also wohl aus, wenn die GPU lediglich 70 fps im Durchschnitt hergibt. Wären dann die Latenzen für 144 Hz und 240 Hz Monitore identisch? Und bei aktiviertem VSync beim 60 Hz Monitor sogar geringer, da der Eingriff in die "Natur des Monitors" geringer ist..?

PS: Vielen Dank für die tollen Artikel hier. Bin nach langer Abstinenz wieder im Pixel-Geschäft gelandet und habe stets große Freude beim Versuch folgen zu können... :)
 
Oben Unten