Grafikkarten Grundlagenartikel Monitor und Desktop Praxis Testberichte VGA

NVIDIA Reflex und NVIDIA Boost im Praxis-Test: Skill-Verstärker oder Marketing – Was bleibt vom Versprechen übrig?

Messsystemanalyse (MSA) für Nvidia LDAT

Wenn es um das Messen von Latenzen und den damit verbunden Nvidia-eigenen Entwicklungen wie Reflex geht, sollte man schon mal kritisch nachschauen. Schließlich werden die Latenzen mit einem von Nvidia entwickeltem Tool wie LDAT gemessen. An der Stelle könnten jetzt die Ultra-Kritiker ihren großen Auftritt bekommen. Alles anzweifeln, insbesondere, wenn der ein oder andere einen Groll gegen Nvidia hegt. Für alle diese Kritiker habe ich extra was vorbereitet.

Da ich in der Automobilindustrie arbeite, ist eine Messung im Zweifel nur dann glaubwürdig, wenn eine MSA vorliegt. Alles andere würde mich im Zweifel nicht tangieren. Hier ist es das Ziel, nachzuweisen, dass das eingesetzte Messmittel fähig ist. Es soll schließlich das messen, was man messen will. Und das reproduzierbar! Sonst gilt: Wer viel misst, misst Mist!

Was genau ist eine MSA?

Vereinfacht erklärt, zeigt eine MSA auf, ob die gemessenen Werte die Realität ausreichend wiedergeben. Mittels einer MSA wird sichergestellt, dass die Messungen egal wo auf der Welt, mit dem gleichen Messsystem – reproduziert werden können. Wer mehr wissen will: klick hier!  Hierzu habe ich zuerst geprüft, wie sich LDAT auf unterschiedliche Messpositionen im Spiel Call of Duty Modern Warfare auswirkt. Einflüsse durch Bildberechnungen prüfen und ausschließen. Multiplayer-Karte Hackney Yard!

 

Position 1
Position 2
Position 3

 

Die gemessenen Werte habe ich dann mit einer ANOVA untersucht. Die Nullhypothese: Alle Varianzen sind gleich! Wenn diese sich bestätigt, dann bedeutet das, dass die Reproduzierbarkeit gegeben ist. Egal wo man die Messungen im Spiel macht. Das bedeutet aber nicht, dass ihr die gleichen Messwerte wie ich erreicht. Warum das im Zweifel so ist, liegt an diversen anderen Faktoren. Beispielsweise, ob ein CPU oder GPU Limit vorliegt usw. Das Thema CPU Limit merken wir uns mal. Da komm ich später nochmal drauf zu sprechen.  Zum Auswerten der Daten nutze ich das Programm Minitab in der Version 18.

Der p-Wert ist größer 0,05. Somit hat sich meine Hypothese, dass alle Varianzen gleich sind, bestätigt. Nvidia LDAT kann reproduzierbar messen!

Die Messsystemfähigkeit für LDAT ist gegeben: Cgk ≥ 1,33

Wer dazu Fragen hat, der kann mich gerne über das Forum kontaktieren oder sich schlau machen. Hierzu findet man reichlich Lektüre im Internet. Es lohnt sich auch der Blick in Richtung SixSigma, um den Umgang mit statistischen Verfahren zu erlernen. Hier wurde ich bestens geschult und habe diverse Qualifikationen erworben.

Mal was in eigener Sache. Ich gehöre grundsätzlich auch zur Gruppe: „das zweifele ich an“! Aber nur rumheulen und unreflektierte Behauptungen aufstellen, bringt keinen weiter. Hinsetzen und Messen, das hilft, um Klarheit zu schaffen. Daher schönen Gruß an alle Hardcore-Kritiker: LDAT ist über jeden Zweifel erhaben!

Kommentar

Lade neue Kommentare

RedF

Urgestein

4,663 Kommentare 2,552 Likes

Danke für den Test.

Nvidia Reflex + Boost vs. AMD Anti-Lag + Boost wäre echt mal spannend .

Antwort 4 Likes

skullbringer

Veteran

306 Kommentare 328 Likes

Sehr sehr schöner Artikel, Danke dafür! Freue mich schon auf den nächsten Teil...

Antwort Gefällt mir

Wurmspalter

Veteran

105 Kommentare 53 Likes

Danke für den super Artikel. Interessant was es so für kleine Helferlein gibt. Besonders hat es mich gefreut das auch mal ein Cod Teil genommen wurde, zum testen. Danke

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Danke für das Feedback!

Ich werde noch Rainbow Six Siege testen, sobald es bzgl. Reflex verfügar ist. Vorausgesetzt, dass ich dann auch eine RTX der aktuellen Generation hier habe. Leider bin ich hier auf die Unterstützung von Igor angewiesen! Bei den aktuellen Preisen, kauf ich mir ganz sicher keine Nvidia GPU...

Als nächstes kommt das Thema G-Sync bzgl. Latenzen dran... hier pack ich auch den Vergleich zu Freesync mit rein!

Bzgl. Framerate-Limiter vs. Reflex, das wird kurzfristig leider nix... die 3080 muss zurück zu Igor!

Das Thema AMD vs. Nvidia (Reflex vs. Radeon Boost) kommt auch etwas später

Antwort 2 Likes

ro///M3o

Veteran

342 Kommentare 239 Likes

Auch von mir ein herzliches Dankeschön :)
Wieder einmal ein sehr informativer Artikel mit "aha Effekt". Ein Vergleich mit AMDs Technik wäre natürlich sehr cool. Vor allem mit besagten Karten und eventuell noch eine sehr viel Ältere wie ne Vega und ne 1080. Nur ein Vorschlag.

Zum kommenden Synch Artikel wäre auch Klasse, wenn man auch auf die verschiedenen Freesynch Varianten was sagen könnte (normal, premium usw.). Denke aber, dass das schon geplant ist :)
Ich freue mich sehr darauf.

Antwort Gefällt mir

st3phan

Mitglied

98 Kommentare 48 Likes

Interessanter Artikel.

Ich habe das so verstanden, dass im GPU Limit NVidia Reflex die erhöhte Latenz, welche durch das Limit entsteht reduziert (ca. 30%).

So würde man dann (Grafik 1) bei den genannten ca. 30 % auf dem Latenz-Niveau 720/1080p landen.
Spieler auf 720/1080p sind aber mit entsprechenden Frameraten (> 200) auch in einem GPU Limit? Profitieren diese dann auch von Reflex?

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Dein Glück, dass ich sowas hier habe... einen 27" 1080p 75 Hz mit Freesync und einen 27" 1440p 144 Hz mit Freesync Premium....

Das messe ich gerne mit... dann aber mit meiner RX 5700 XT... (Gaming PC ist umgerüstet) auf dem Freesync Premium... macht bzgl. der Aussage, ob Freesync eine Auswirkung auf die Latenz hat, keinen Unterschied

Die anderen Messungen mach ich die Woche noch mit der RTX 3080 auf einem echten G-Sync 1080p 240 Hz vs. Freesync 1080p 75 Hz...

Lass dich mal überrachen!

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Nein Reflex genau wie der Nvidia Ultra low latency (NULL) mode funktioniern nur im GPU limit...

Wenn deine GPU mit >98 % Auslastung fährt, dann entsteht ein Back-Pressure zur CPU (Die Render-Piepline is voll) hier kann (bei DX11) NULL ein paar ms an Latenz reduzieren. Refelx hingehen wirkt wie ein Framelimiter, den ich bisher nutze, um dezent aus dem GPU Limit zu kommen. Der Effekt ist sigifikant größer als der NULL Mode!

Mit der Frage, ob ich da bei einer anderen Auflösung bzgl. Latenz lande, komm ich nicht klar. Ich vermute, du meinst eher, das ich bei vergleichbaren FPS lande. (FPS und Latenz stehen im Zusammenhang)

Wenn ich bei 4k 200 FPS habe ist die Latenz die gleiche, wie bei 200 FPS 1080p

Antwort Gefällt mir

Hans Yolo

Veteran

120 Kommentare 25 Likes

Ich habe seine Frage so verstanden, wenn du bei 4k 200fps erreichst, kriegst du bei 1080 400fps was eben trotzdem wieder eine bessere Latenz gibt.

Antwort Gefällt mir

Zielgruppe

Veteran

280 Kommentare 144 Likes

Danke für den Test.
So schön das auch alles klingt, es handelt sich doch hierbei immer nur um eine lokale Verbesserung. Spielt man auf einem öffentlichen Server wird man trotzdem noch weggeballert. Auch von jemandem der nur einen 60Hz Monitor hat und mit 50 Frames spielt. Den Ping zum Spielserver kann man (fast) nicht beeinflussen. Da wird mal die Hitbox entweder vor oder hinter dem Spieler sein. Kommt auf die Serverticks an.
Mein Monitor kann max. 75Hz, Framelock ist ebenfalls bei 75Hz. Ich wohne auf nem Dorf und mein Internet kommt weder über Kabel, noch über Glasfaser. Ich habe eine Funkverbindung (ok, der Mast steht nur 60m weiter). Aufgrund des (ziemlich geilen) Pings habe ich auch manchmal Probleme den Gegner zu treffen...

View image at the forums

Es bringt mir also nur etwas im Singleplayer, dann natürlich alles in schön.

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Das ist grundsätzlich logisch... Mehr FPS bedeutet geringere Latenz

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Das stimmt so nicht... ich teste das ganze ja in einem Online Spiel... und nicht auf meinem Lokalen System... somit die Latenzen des Servers hier grundsätzlich mit inkludiert... einzig, dass ich alleine auf der Map unterwegs war... wie sich das auf einer vollen Map auswirkt, dass müsste ich an der Stelle mal gesondert messen. Ist halt bescheiden zu handhaben! Mit der Kamara auf dem Monitor ist die Sicht eingeschränkt... Auch LDAT kann man nicht so einfach für eine Runde Zocken konfigurieren! Aber versuchen kann man das... Was aber fakt ist, dass die Latenzreduzierung egal ob mit Reflex oder Framelimiter bei jedem Onlinespiel etwas bringt!

Aus meiner Sicht sind konstante Frametimes der Schlüssel... Dann sind die Latenzen auch bzgl. Varianzen stabil

Antwort Gefällt mir

RedF

Urgestein

4,663 Kommentare 2,552 Likes

Wenn ich aber mit FPS Cap spiele (auf 144) sollte die Latenz gleich oder besser sein wie die ~170FPS wenn ich es nicht begrenze?

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Kommt drau an, ob du mit 170 FPS im GPU Limit bist!?

Was hast du für einen Monitor? Wie sehen deine Frametimes bei 170 FPS aus?

Nutzt du Free oder G-Sync?

V-Sync ?

Antwort Gefällt mir

RedF

Urgestein

4,663 Kommentare 2,552 Likes

Frametimes Muss ich schauen wenn ich zuhause bin. Monitor hat 1440p 144Hz Freesync.
Und wenn ich das richtig verstanden habe muss ich auch unter 145FPS bleiben wenn ich Freesync will.

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Um Tearing zu vermeiden, solltest du 4 FPS unterhalb der Bildwiederholrate bleiben, insbesonder wenn du noch V-Sync nutzen willst... dann gehen die Latenzen auch nicht durch die Decke

Antwort Gefällt mir

RedF

Urgestein

4,663 Kommentare 2,552 Likes

Jo habe es in COD auf 141 FPS begrenzt. V-sync lasse ich immer aus.

Antwort Gefällt mir

Zielgruppe

Veteran

280 Kommentare 144 Likes

Bei Onlinespielen hat der Server das Sagen, den interessiert dein lokales Setting nicht. Reflex hat keinerlei Einfluss auf die TCP Pakete oder den Ping zum Spieleserver. Es geht hier rein und nur um die Systemlatenzen. Und die Systemlatenzen haben keinen Einfluss auf die Serverlatenzen und natürlich auch nicht auf die anderen Spieler.
Ich will das auch nicht schlechtreden, aber leider bringt es nichts, wenn mir Reflex den Spieler zwar etwas früher anzeigt (bspw.), ich den aber trotzdem nicht treffen kann weil die Hitbox erst nach ihm kommt.
Deshalb versteh ich die Werbung von Reflex nicht ganz, dort wird mit Screenshots von Onlinespielen geworben, aber es geht ja ganz klar um Systemlatenzen.
Cold War Server Tick ist ( was ich gelesen habe) 20 Hz.....Reflex hat NULL Einfluss auf deinen Internetanschluß.

Hätte ich entsprechende Hardware würde ich natürlich Reflex ebenfalls nutzen, ganz einfach um ein smoothes Spielfeeling zu bekommen :-)

Antwort Gefällt mir

st3phan

Mitglied

98 Kommentare 48 Likes

Genau so verstehe ich das.

Gleiche Hardware, gleiche Anwendung (Spiel):
1. UHD: -> Bsp. 90 FPS -> GPU im Limit
2. FHD: -> Bsp. 200 FPS -> GPU im Limit

-> beide Male ist die GPU im Limit und profitiert von Nvidia Reflex, nur dass der FHD Spieler ja bereits gegenüber UHD schon einen Latenzvorteil hat.

Habe ich das dann korrekt verstanden?

Wenn ja, merkt man dann bei FHD noch den Latenzvorteil bzw. die Verbesserung oder sind die Verbesserungen eher theoretischer Art?

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung