Gaming Grafikkarten Praxis Redaktion Testberichte VGA

NVIDIA NULL und Reflex vs. AMD Anti-Lag und Radeon Boost – was ist besser? Latenzen in der Praxis!

Was lange währt – wird meistens gut. Für den heutigen Test mit der Frage “NVIDIA NULL und Reflex vs. AMD Anti-Lag und Radeon Boost, was funktioniert besser?” habe ich mir allerdings extra viel Zeit genommen. Seit einiger Zeit schreibe ich ja bereits über das Thema Latenzen und es gab auch es schon den ein oder anderen Artikel von mir zu diesem Thema zu lesen. Im Speziellen hatten wir uns ja schon das Thema NVIDIA Reflex & Boost mit der MSI RTX 3080 Suprim X angeschaut (klick hier) und später auch, wie sich NVIDIA Reflex und Boost gegen den „Ingame Framelimiter“ (IGFL) schlagen (siehe hier)!

Dabei kam wir ja zu der recht interessanten Erkenntnis, dass nicht immer der Grundsatz gilt: Je mehr FPS, desto geringer die Latenz. Man kann auch mit “nur” 168 FPS eine geringere Latenz haben als mit 236 FPS oder besser noch, fast die gleiche Latenz wie mit 325 FPS. Heute aber schauen wir uns aber den großen, von mir bereits mehrfach erwähnten, Showdown zwischen NVIDIA und AMD an. Dabei soll es aber nicht nur um die reinen FPS oder die Frametimes gehen. Nein, in erster Linie geht es jetzt um die Systemlatenz, wenn die GPU mit > 95 % ausgelastet ist. Der klassische GPU-Bottleneck also! Vorab muss ich euch auch noch mitteilen, dass der heutige Artikel nur der erste Teil zum Thema Latenzen bzgl. NVIDIA vs. AMD sein wird. Weitere Artikel werden nämlich noch folgen.

Bevor ich jetzt gleich in die Vollen gehe, hier nochmal für alle mein Testsystem:

CPU Ryzen 7 2700X (4,2 GHz all core)
Mainboard MSI MAG X570 ACE
RAM 2×8 GB G.Skill RipJaws V 3200 MHz CL16-18-18-38 (single ranked)
SSD 1 Toshiba Transcend 110S 256 GB (System)
SSD 2 Crucial P2 1000 GB (Spiele)
SSD 3 Crucial P2 1000 GB (Spiele)
SSD 4 Samsung 512 GB 840 Pro (Backup)
CPU Kühler MSI MAG Coreliquid 360R
Netzteil Seasonic Prime Platinum 1300 Watt
GPU MSI RTX 3080 Suprim X
Sound SoundblasterX AE-5 Plus
Tastatur Sharkoon PureWriter RBG (Red Taster) @1000 Hz Polling Rate
Maus Sharkoon Light² 100 @1000 Hz Polling Rate
Messtechnik NVIDIA LDAT Hardware mit Logitech G203 Prodigy @1.000 Hz Polling Rate
Monitor 1 MSI Oculux NXG252R 240 Hz via DP (Nvidia G-SYNC)
Monitor 2 AOC G2778VQ 75 Hz via DP (AMD FreeSync)

Es treten an, die MSI RTX 3060 Ti Gaming X Trio…

… gegen due in etwas gleich schnelle die MSI RX 6700 XT Gaming X

Wer gewinnt? Na, auf jeden Fall MSI! Denn heiter werden all die Mienen bei dem schönen Wort verdienen! Spaß bei Seite. Die beiden Grafikkarten liegen in Bezug auf ihre Rohleistung in etwa auf Augenhöhe. Somit macht der Vergleich deutlich mehr Sinn als meine RX 5700 XT gegen meine RTX 3080 zu verheizen.

Da wir uns die Systemlatenz anschauen wollen, die mit diversen Gimmicks von AMD bzw. NVIDIA im GPU-Bottleneck verbessert werden soll, kommt jetzt nicht der klassische 10 Spiele-Durchschnitts-FPS Folien-Vergleich. Es geht heute um die in DX11 implementierten Techniken, um den Rückstau in der Render-Pipeline zu verringern und damit die Systemlatenz zu verbessern. Hier haben wir zum einen NULL (NVIDIA Ultra Low Latency) und AMD Anti-Lag. Beide funktionieren auf der Basis des jeweils hauseigenen Treibers. Hier greift der Treiber ins Geschehen ein, um den Rückstau zu minimieren. Was einen Eingriff von außen auf das Spielgeschehen darstellt. Zum anderen gibt es noch NVIDIA Reflex & Boost sowie Radeon Boost. Dazu aber später noch ein paar Worte. Jetzt setzen wir mal die Basis. Und zwar auf Seite Zwei, also bitte umblättern!

Lade neue Kommentare

ApolloX

Veteran

228 Kommentare 85 Likes

Hallo Fritz & Co., danke für den Test und zugehörigen Aufwand.

Ich hätt dazu noch ne generelle Bitte: ihr beschreibt immer in großem Kasten euer Testsystem, gerade dass dort nicht auch noch das Mauspad mit beschrieben ist :-) aber die verwendeten Mess Metriken werden nicht explizit und standardisiert erklärt. Gut, FPS kenn ich, aber wenn ich jetzt aus dem Stehgreif Frametimes oder Systemlatenz erklären müsste, dann müsst ich schon erstmal schlucken. Ich gehör jetzt schon wohl eher zu den PC-Durchblickern und tu mich bei euren Test dennoch oft mal etwas schwer mit der Einordnung verwendeter Metriken - und eure Leser sind vermutlich weit vielschichtiger als wir paar Freaks, die sich halt hauptsächlich zu Wort melden.

Ich fänds also gut, wenn ihr solche Kennwerte analog zum Testsystem auch mal sauber erklären würdet, in welcher Einheit werden die gemessen, was bedeuten die Metriken, was beeinflussen sie, gibts da bestimmte Schwellen, die nicht unter- oder überschritten werden sollten. Wenn die Texte und Boxen dazu einmal gemacht sind, lassen die sich ja bei jedem weiteren Test einfach unters Testsystem kopieren (mit der Auswahl an verwendeten Metriken).

Antwort 2 Likes

Klicke zum Ausklappem
ipat66

Veteran

170 Kommentare 144 Likes

Auf die Gefahr hin,mich gleichzeitig bei AMD und NVIDEA Fan's unbeliebt zu machen,möchte ich einen Gedanken einfließen lassen.
Generell frage ich mich,ob diese FPS Spirale der einzig denkbare Weg ist?

Gewinne ich,weil meine Latenzen und der Ping einfach besser sind,oder weil ich der bessere Spieler bin?
Ist der Gedanke eines Fairplays,wie immer dieser erreicht werden könnte,der Hardwareaufrüstung gewichen?

OK....
Betroffen bin ich von dieser Entwicklung eigentlich gar nicht,da ich höchstens mal auf Steam Autorennen fahre.
„Shooter“ und ähnliche Genres sind nicht so mein Ding...
Würde mich freuen,wenn mein Xplane auf drei 4K-Bildschirmen irgendwann mal mit höchster Qualitätsstufe
und 60 FPS laufen würde.

Gäbe es also im Sinne eines Fairplays nicht die Möglichkeit der Nivellierung der teilnehmenden Spieler
in Onlinespielen?
Eine KI welche Ping und Latenzen ausliest und dann für Chancengleichheit sorgt?

Ist dieser Gedanke zu abwegig?
Vielleicht bin ich vollkommen OUT OF TIME mit diesem Gedanken?

Meine Grundeinstellung des Fairplays ist aber seit meiner frühesten (sportlichen) Jugend Bestandteil
meiner Person.
Mich persönlich würde der Gedanke stören, nur aufgrund der besseren Hardware zu gewinnen...
Wie gesagt,nur ein Gedanke...

Ich ziehe mal meine schusssichere Weste an....:)

Antwort 3 Likes

Klicke zum Ausklappem
G
Guest

Hier wird immer noch ignoriert, dass die Latenz nicht allein abhängig von der GPU ist, das mit der GPU also fast gar nichts zu tun hat (inklusive deren Treibern), den Lesern hier aber gerne eingeredet wird. Die Gamelatenz ist vor allem abhängig von der CPU und der Render Queue, zusätzlich von der Pooling Rate der Mouse und dem Inputlag des Display's. Die GPU spielt dabei nur eine unwesentliche Rolle, Änderungen über den Treiber der GPU wirken aber allgemein.

Also Input (Mouse)=>CPU=>Renderqueue=>GPU=>Monitor! Dabei zeichnet Nvidia besonders niedrige Werte, wenn die Hardware RLA kompatibel ist (und muss es auch sein), sonst könnte sogar AMDs Variante Vorteile bieten. Das Texturing spielt dabei keine wesentliche Rolle, die Berechnungszeit verkürzt sich jedoch wenn die Bildrate steigt.

Die gemessenen Werte gelten also für das Testsystem im getesteten Spiel Overwatch und nicht allgemein, daher sind allgemeine Fazit auch nicht aussagekräftig. Ich vermute mal daher stellt man die Messreihen mit explizieter Erläuterung erst gar nicht online. Fazit ist eher, eine höhere CPU Leistung und Threadoptimierung kann Techniken wie Reflex und Antilag beschleunigen. Das AMD da einige Nachteile im CPU Limit unter DX11 hat, ist bekannt. Trotzdem wird es immer wieder getestet. Warum auch immer...

Das heißt also letztlich, ich kann die Pipeline aus Eingabe=>Berechnung=>Befehl=>Bild=>Visuelle Ausgabe schon bei der Eingabe abschießen (und das liegt auch daran wie schnell "ich selbst" jeweils "klicke"=>ergo spielt der, der vor dem Bildschirm sitzt auch noch eine wesentliche Rolle). Da kann die GPU mal gar nichts dafür und auch kein Hersteller. Zumal per Engine auch gerne auf Hardware optimiert wird (UE4 unter DX11), darauf hat ein CPU oder GPU Hersteller nur unwesentlichen Einfluss, sondern wählen Entwickler die Variante die am Besten zum gewollten Ergebnis passt. Das alles per Treiber zu "cheaten" ist faktisch unmöglich und ist unter DX12 auch nicht mehr erwünscht.

Ich müsste also für auswertbare Messreihen garantieren, dass ich immer gleiche Eingabezeiten erreiche bzw. auf den Bildinhalt immer gleichschnell reagiere, wie nur? Das Ganze setzt sich für alle Stufen in der Pipeline fort, sowie Hintergrundprozesse usw..

Antwort Gefällt mir

Klicke zum Ausklappem
halfevil333

Veteran

134 Kommentare 61 Likes

Danke für den Test @FritzHunter01
Kann mich hier aber generell auch @ipat66 anschließen. Mache um reine Online- und/oder Multiplayer seit deren Bestehen einen großen Bogen. Kann mich dafür einfach nicht begeistern. Und obwohl ich Fallout und die Elder Scrolls-Reihe ohne Ende gespielt habe, und das auch noch tue, gehen die jeweiligen Online-Varianten gar nicht bei mir.
Ich muss jetzt auch nicht unbedingt Eyecandy in den Spielen haben, wenn ich keinen Augenkrebs kriege, reicht mir das. Und meine Schmerzgrenze ist da sicher höher als bei den reinen Gamern und/oder Enthusiasten. Dann lieber ein Flüstern beim Zocken als einen Düsenjet.
Und egal, welches Spiel ihr da in den letzten 1-2 Jahren zum Testen heran gezogen habt: ich habe bisher außer dem Witcher 3 keines davon gespielt. Das einzige, dass ich zumindest noch gekauft habe, ist Cyberpunk. Das aber auch schon ein halbes Jahr vor Erscheinen, habe es aber noch nicht mal bei GOG heruntergeladen.
War vielleicht auch keine schlechte Idee, bei dem, was man von den Anfangsschwierigkeiten so gelesen hat.

Deswegen sind solche Tests aber trotzdem immer interessant, auch wenn es mich im Grunde nach wenig betrifft.

Antwort 1 Like

Klicke zum Ausklappem
FritzHunter01

Moderator

257 Kommentare 167 Likes

Danke für dem Beitrag!

Bitte zuerst dem Artikel bzgl LDAT lesen!

Ich messe mit LDAT alles nicht nur die GPU…

Sorry wenn ich es jetzt mal drastisch und direkt formulieren muss: Wer lesen kann ist klar im Vorteil…

Antwort Gefällt mir

G
Guest

Um so schlimmer.

Sorry, dass es ich jetzt dramatisch schreibe, aber ich halte von den Ergebnissen nicht viel. Viel wichtiger für deine Messreihen sind dann die Taktverläufe der CPU und an welchen USB Port der LDAT hängt. Das die Renderqueue dann eine wesentliche Rolle dabei spielt habe ich bereits geschrieben. Ein Framelimiter wird dann immer bessere Latenzen liefern, aber wo ist das Problem wenn ich den im AMD Treiber aktivieren könnte, aber nicht mache? Die Karte aber rennen lasse?

Immer dann wenn man mit LDAT misst und die CPU + Renderqueue leicht unter dem GPU Limit liefert, zeichnet LDAT wunderbare Latenzen. Mal Gedanken darüber machen und warum! Nvidia scriptet die Renderqueue also per Treiber oder gleich über Reflex SDK. Sie tauschen sie also sozusagen gegen eine GPU kompatible dynamische Variante, soweit es nicht vom Entwickler berücksichtig wird und liefern dazu auch noch gleich das Equipment für Tester.

Ich brauch den Artikel zu LDAT nicht zu lesen und stellt mich hier nicht immer hin, als wäre ich ein "Anfänger".

Das alles steht schon in meinen ersten Beitrag, du scheinst es aber ignorieren zu wollen. Mehr Hinweise kann man nicht geben, tut mir Leid!

Antwort Gefällt mir

Klicke zum Ausklappem
FritzHunter01

Moderator

257 Kommentare 167 Likes

Ich wiederhole mich, lies die Artikel zu LDAT und vor allem die anderen von mir zum Thema Reflex und IGFL

Besonders: MSA zu LDAT

Antwort Gefällt mir

Igor Wallossek

Format©

5,573 Kommentare 8,622 Likes

Ich muss mich da auch mal mit einklinken. Wir haben mit Absicht eher langsame Grafikkarten gewählt, um die CPU als extremen Faktor etwas abzumildern zu können. Da spielte sicher auch die MSA zu LDAT eine Rolle. Die Maus sollte im geeigneten USB 3 Port stecken, das läuft dann eh direkt über die CPU und nicht das Chipset.

Zu AMDs "Frame-Limiter" schreibe ich jetzt mal bewusst nichts im Detail, aber ich kenne niemanden, der den in solchen Spielen nutzen würde. AMDs Frame Rate Target Control (FRTC) steckt in AMDs Chill und ist eher eine Art Range-Limiter, aber kein echter Frame-Limiter im eigentlichen Sinne wie bei NVIDIA. Da steigen die Latenzen mit etwas Pech eher an, als dass sie sinken und die Karte macht meist unvorhersehbare Dinge. Und es wären wieder Äpfel mit Birnen im Vergleich, weil das keiner exakten MSA standhält und bei jedem Run stark abweichende Ergebnisse liefern würde.

Ein In-Game-Limiter ist noch akzeptabel, alles andere von außen aus meiner Sicht eher weniger. Die Gründe sind ja allgemein bekannt.

Edit:
Chill greift sehr stark in den Arbitrator ein, auch was die Power Estimation und die Vorhersage betrifft. Ich habe damals, als Chill aufkam, lange getestet und das Ganze für FP-Shooter als einigermaßen unbrauchbar wieder abgehakt. Der Artikel heute hinterfragt das Zusammenspiel von Grafikhardware und Treiber und beurteilt am Ende auch die Wirksamkeit der vier verschiedenen Technologien und dem, was zwischen dem Klick und dem Pixel am Monitor passiert.

Es ist, bis auf die Grafikkarte, immer die selbe Hardware und LDAT macht nichts anderes, außer den mechanischen Klick abzufangen und den resultierenden Pixel auf dem Bildschirm dazu auszuwerten. Da ist es egal, wer der Hersteller ist, denn AMD hätte das genauso gebaut. Die Systemlatenz ist nun einmal die Summe aus Hard- und SOFTware. Und da müssen die GPU und die Treiber samt Features die Hosen runterlassen. Wie soll man es denn sonst bitte schön testen? Plausibilitätstests mit einer Highspeed-Cam ergeben doch nichts anderes. Den Spieler interessieren doch nur die Latenzen zwischen seiner physikalischen Klickerei und dem ins Auge springenden Pixel.

Diese ganzen Treiber-Features sollen doch dazu dienen, auch diese Latenzen zu verringern. Ein Use-Case, wo kaum welche auftreten, ist da nicht hilfreich, weil man dann auch diese Treiber-Features nicht mehr braucht. Die Wirksamkeit eine Kompressionsverbandes teste ich doch auch nicht mit einem kleinen Blutstropfen. Overwatch ist in gewisser Weise Worst-Case und AMD bewirbt ja seine Features auch mit diesen Spielen. Dann nimmt man es eben auch :)

Antwort Gefällt mir

Klicke zum Ausklappem
FritzHunter01

Moderator

257 Kommentare 167 Likes

Dem ist soweit nichts mehr hinzuzufügen…

Weitere Spiele folgen

Edit:

DX11, DX12 eventuell Vulkan

Antwort Gefällt mir

s
summit

Mitglied

83 Kommentare 38 Likes

AMDs FTRC ist auch auch kein FrameLIMIT, es ist schlicht eine Zielvorgabe (Target) und die macht, gerade mit FreeSync, einen sehr guten Job. Da FRTC möglichst Sync (auch Imput!) bleiben will werden einige Frames (je nach Monitor) auch mal "künstlich" verzögert, in der Summe sollte die Latenz ~ niedriger als ein hartes Limit sein.

Chill ist dann sinnvoll wenn es immer wieder mal böse minFPS Abschnitte im Spiel gibt, dann lieber mit Chill min und max anpassen, als ein hartes Limit auf die minFPS.

EDIT
Und ntürlich bedeuten mehr FPS idR auch niedrigere Latenzen.
Würdest du im GPU Limit bei BEIDEN eine stärkere GPU verwenden (mehr FPS), dann würden beide auch bessere Latenzen Zeigen (bis die GPUs so schnell wären, dass es keinen unterschied mehr machen würde). Du vergleichst hier aber eben nicht nur die verschiedenen GPUs, sondern auch verschiedene Software, nvidia reflex. Du änderst damit also nicht nur die GPUs, sondern auch den "Benchmark".

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung