Grundlagenartikel NVIDIA NULL und Reflex vs. AMD Anti-Lag und Radeon Boost – was ist besser? Latenzen in der Praxis!

Amd Fanboy, herrlich.

Antilag ist mit Reflex nicht vergleichbar, weil eine GPU dedizierte Optimierung fehlt. Das andere ist eine API und selbst Low Latency setzt auf optimierte Synchronisation der Renderbefehle um die Eingaben des Spielers möglichst in der Renderqueue zu bevorzugen. Gut das man kein Wort verstanden hat.

@Igor
Ja warum? Weil die Energiesparfunktionen kurzzeitig für eine bessere Latenz abgeschaltet werden, was bei einem Arbitrator nicht so einfach geht, weil er bekannterweise in Hardware seine Arbeit verrichtet und viel mehr auswertet.

Unter Reflex wird dann die gesamte Renderpipeline auf Low Latency optimiert. Dafür ist Radeon Boost universeller einsetzbar. Nehmt doch mal Bordersland, lieber nicht - nicht das sich da noch Nvidia *an*oys auf den Slips getreten fühlen.

Es geht nicht darum wo die Mouse steckt, sondern der LDAT.

@Gurdi
Er hat nicht nur mich gemeint, sondern alle. Genau da hört die Diskussion für mich auf.

Hab ich Antilag mit Reflex verglichen? Nein!

Da scheinbar deinerseits kein Interesse daran besteht, die Arbeit und die Artikel zum einen zu schätzen und zum anderen zu lesen, habe ich keine Lust auf der Grundlage zu kommunizieren!

Einfach nur schade…

Da ich scheinbar deiner Meinung nach keine Ahnung habe, muss ich wohl versehentlich LDAT in 400 Volt Steckdosen gesteckt haben…
 
Jetzt mal abseits davon wie nun die Integration abläuft (Fakt ist, das es nicht Grundsätzlich funktioniert, AMD selbst sagt: nur bei kompatible Spiele):

Boost dient vorrangig der FPS-Steigerung, und eine Bewerbung als "ultimative Latenzverbesserung" konnte ich zumindest auf AMD.com nicht finden (englischer und deutscher Artikel zu Boost). Ja, es wird eine Latenzverbesserung beworben, aber nicht großartig herausgestellt, der Fokus liegt auf dem FPS-Plus.

Während Reflex mit dem Ziel entwickelt wurde die Latenz zu verbessern, sollte Boost die FPS verbessern. Geringere Latenzen waren bei Boost nur ein willkommener Nebeneffekt.

Die Testergebnisse bleiben interessant, aber das Fazit passt nicht.


Seh ich auch so, aber AMD wirbt damit… im Artikel ist eine AMD Folie… und der Link dazu!
 
Diese Folie hatte ich übersehen.
Naja, PR eben, die neben mit was geht. Die zurückhaltendere formulierung auf amd.com ist passender.
 
Für RDNA2 und DX12! Was hast du getestet?

Bisher habe ich getestet:

Overwatch Fazit gut
Apex Fazit Radeon Desaster (mit Radeon Boost unspielbar)
SotTR DX11& DX12 Fazit spielbar (Aber kein FPS Boost)
CoD MW kein FPS Boost aber Antilag war gut
CP 2077 mit Radeon nicht spielbar…

Ich bin mit AMD in Kontakt… hier gibt es wohl Probleme… ich muss alles neu testen!

Aber so fair bin ich, ich könnte hier AMD und Nvidia ins lächerliche ziehen, was aber keinem was bringt.
 
Es giebt aber auch keinen Latenz Test/Artikel zu dem nicht gemekert wird.

@FritzHunter01 lass dich aber bitte nicht davon abbringen weitere Tests/Artikel zu machen (y)
 
@ArthurUnaBrau Ja, stimme grundsätzlich zu. Ist ja auch passend für die Nerd-Community alles zu messen, was man messen kann und meine Kritik richtet sich mitnichten an @FritzHunter01
Mir geht das auf den Keks, dass beide Hersteller Features bewerben, von denen ich (wirklich ich) nicht ansatzweise nachvollziehen kann, ob und was sie in meinem System bringen (wegen der unzähligen Abhängigkeiten). Insofern bin ich dankbar für den Artikel, denn grundsätzlich hab ich es jetzt verstanden. ABER: die Features liefern Performance in einem Rahmen, der aufgrund der biochemischen Reaktionen quasi 0 Auswirkungen hat.
Plus: Wenn ich eine Sync-Technologie nutze, ist das Thema eh erledigt. Geht also vorwiegend um Frametime-optimierte Kompetitiv-Shooter. Und das war auch meine Erkenntnis nach seitenlangem Lesen. Also ja: informativer Test, der für mich (zumindest heute) wenig Relevanz hat.
 
... wenn man so Artikel online veröffentlicht, sollte man anschließend drei bis fünf Tage garnicht reinschaun, weil sonst fängt man an, jeden Kommentar gleich tendenziell als Kritik an seinem eigenen Meisterwerk zu sehen und sofort drauf zu reagieren. Geht mir auch gerne so, wenn ich irgendwo mal was längeres schreibe und ich kenn diesen Mechanismus bei mir selber. Und genau das hier passiert auch: die Leserschaft diskutiert das Thema kontrovers hin und her - gut so! Aber Fritz befindet sich in (s)einer emotionalen Abwehrschlacht - schalt ab und schaus dir mit Abstand nach dem Wochenende wieder an.
 
... wenn man so Artikel online veröffentlicht, sollte man anschließend drei bis fünf Tage garnicht reinschaun, weil sonst fängt man an, jeden Kommentar gleich tendenziell als Kritik an seinem eigenen Meisterwerk zu sehen und sofort drauf zu reagieren. Geht mir auch gerne so, wenn ich irgendwo mal was längeres schreibe und ich kenn diesen Mechanismus bei mir selber. Und genau das hier passiert auch: die Leserschaft diskutiert das Thema kontrovers hin und her - gut so! Aber Fritz befindet sich in (s)einer emotionalen Abwehrschlacht - schalt ab und schaus dir mit Abstand nach dem Wochenende wieder an.

Hast du Recht… ich war gestern eh schon extrem kurz angebunden!
 
[...]

Ich bin mit AMD in Kontakt… hier gibt es wohl Probleme… ich muss alles neu testen!
[...]

Wenn Du das – insbesondere auch nach Form und Inhalt der Diskussion hier zuvor – hier so mitteilst, möchte ich raten, den Artikel besser mindestens vorläufig zurück zu ziehen. Als Geste an deine Diskussionspartner und zur Selbsterziehung stände dir das jedenfalls gut.
 
Auf die Gefahr hin,mich gleichzeitig bei AMD und NVIDEA Fan's unbeliebt zu machen,möchte ich einen Gedanken einfließen lassen.
Generell frage ich mich,ob diese FPS Spirale der einzig denkbare Weg ist?

Gewinne ich,weil meine Latenzen und der Ping einfach besser sind,oder weil ich der bessere Spieler bin?
Ist der Gedanke eines Fairplays,wie immer dieser erreicht werden könnte,der Hardwareaufrüstung gewichen?

OK....
Betroffen bin ich von dieser Entwicklung eigentlich gar nicht,da ich höchstens mal auf Steam Autorennen fahre.
„Shooter“ und ähnliche Genres sind nicht so mein Ding...
Würde mich freuen,wenn mein Xplane auf drei 4K-Bildschirmen irgendwann mal mit höchster Qualitätsstufe
und 60 FPS laufen würde.

Gäbe es also im Sinne eines Fairplays nicht die Möglichkeit der Nivellierung der teilnehmenden Spieler
in Onlinespielen?
Eine KI welche Ping und Latenzen ausliest und dann für Chancengleichheit sorgt?

Ist dieser Gedanke zu abwegig?
Vielleicht bin ich vollkommen OUT OF TIME mit diesem Gedanken?

Meine Grundeinstellung des Fairplays ist aber seit meiner frühesten (sportlichen) Jugend Bestandteil
meiner Person.
Mich persönlich würde der Gedanke stören, nur aufgrund der besseren Hardware zu gewinnen...
Wie gesagt,nur ein Gedanke...

Ich ziehe mal meine schusssichere Weste an....:)
Hallo, dem möchte ich zustimmen. Zwar ist es erwiesen dass man mit besserer Hardware gewisse Spiele wie Overwatch oder etc flüssiger Spielen kann aber wenn man vorher nichts im Spiel gerissen bekam wird es mit der 2000 Euro RTX Maschine auch nicht zwanghaft besser. Da heutzutage die wichtigsten E-Sports spiele so optimiert sind dass sie auf fast allen Systemen laufen und viele Spieler, auch die mit einem richtig guten System die Grafik runterschrauben um sich nur auf die Gegner konzentrieren zu können, sehe ich es genauso wie du dass man mit dieser FPS Ausrede nichts mehr gewinnen kann. Sehen wir uns allerdings eindrucksvolle Singleplayerspiele an wie zb ein Bioshock oder ein Horizon Zero Dawn dann darf man schon erwarten dass die Metalldinos in 60 FpS übers Bild flitzen
 
Selbst wenn Nvidia 47ms benötigt und AMD 89ms liegt der Wert deutlich unter dem Delay, den sich Nervenzellen bei der Hand-Auge Koordination gönnen, bevor sie einen Reiz weiterleiten. Dieser Delay liegt im Rahmen von 100ms und ist - Stand der Forschung - komplett zufällig.
Klar ist das schnell, aber du kannst auch nicht sagen, dass alles unter 100 ms gut ist, weil das Auge so langsam ist. Die beiden Zeiten kommen ja hinter einander. Es geht 50 - 100 ms von einer Eingabe oder einer Aktion im Game bis das Ereignis auf dem Bildschirm erscheint. Danach braucht das Auge und Gehirn ca. 100 ms bis ich erfasst habe was ich sehe. Zusammen sind es also 150 - 200 ms von einem Ereignis in der Gameengine (geht jetzt nicht um genaue Werte) bis mein Gehirn es erfasst hat. 150 ms sind da immer noch spürbar schneller als 200 ms.

Ich denke aber auch, dass dann 10 - 20 ms mehr oder weniger nicht mehr viel ausmachen.
 
Wenn Du das – insbesondere auch nach Form und Inhalt der Diskussion hier zuvor – hier so mitteilst, möchte ich raten, den Artikel besser mindestens vorläufig zurück zu ziehen. Als Geste an deine Diskussionspartner und zur Selbsterziehung stände dir das jedenfalls gut.

Eben nicht!

Denn bei Overwatch funktioniert alles soweit! Alles andere ist on hold… inklusive retests!

Die Grundlage einer Diskussion ist nicht alles sofort in Frage zu stellen, sondern zuerst, falls notwendig, Verständnis prüfen und dann kann man eine Diskussion starten. Bis man eventuell zu einem Konsens kommt…

Das wäre für dich eine Selbsterziehungsmaßnahme!
 
Ich gebe zu, ich bin nicht so der Ego-Shooter Fan. Aber diese niedrigeren Latenzen resultieren doch auch in ein flüssigeres Spielerlebnis, oder nicht?

Wenn ja, bringt das dann nur was bei ganz aktuellen Shootern oder auch bei älteren Spielen wie z.B. Elite was?
 
Overwatch unterstützt den "vollen" Reflexsupport (nicht nur Low Latency Mode über den Treiber).

@fritzhunter
Das nächste Mal, wenn du dir so verbal die Axt gibst, tut das bitte nicht als Moderator. Das wirft ein verdammt schlechtes Bild auf eure Forumssite.
 
Overwatch unterstützt den "vollen" Reflexsupport (nicht nur Low Latency Mode über den Treiber).

@fritzhunter
Das nächste Mal, wenn du dir so verbal die Axt gibst, tut das bitte nicht als Moderator. Das wirft ein verdammt schlechtes Bild auf eure Forumssite.

Ich war gestern sehr kurz angebunden, da war nix mehr mit denken drücken sprechen…

Dennoch würden alle gut daran tun, zuerst Verständnis schaffen, dann überlegen worum gehts eigentlich, dann kann man diskutieren.

Alles in Frage zu stellen, ohne das Verständnis vorliegt, führt in der Regel zu einem Delta in der Kommunikation und das wiederum zwangsläufig zum Konflikt! Appellier an euch alle an der Stelle, an mich insbesondere…

In dem Fall war gestern kein Fell mehr da, dennoch keine Begründung für meine Überreaktion! Daher kann ich mich bei euch allen nur entschuldigen…

Meine Testmethoden sind für alle operationalisiert und damit die Bedingungen gleich… dass ich nur einen 4,2 GHz Ryzen 7 2700X verwende, hat zwei Gründe:

1. Ich haben keinen Zen 3

2. Wenn ich mit einer älteren CPU im GPU Limit teste, repräsentiert das zwar nicht alle PC user, aber nicht alle haben die neusten CPUs, des Weiteren ist der Abstand der CPUs im GPU Limit verschwindend gering…

Ich würde die Aufregung verstehen, hätte ich eine der Beiden Karten mit dem 3800X auf 4,5 GHz aus meinem Gaming-System getestet…

Nach Rücksprache sowohl mit AMD als auch Nvidia ist der Testaufbau, meine Methode usw. repräsentativ…

Das Thema Mausklick und der menschliche Einfluss ist aufgrund einer automatischen Trickerfunktion nicht gegeben.

Gerne wäre ich bereit auf einer sachlichen Ebene zu sprechen (ich bin über Skype nach Absprache erreichbar) das persönlich Wort hat noch nie geschadet!
 
Ich gebe zu, ich bin nicht so der Ego-Shooter Fan. Aber diese niedrigeren Latenzen resultieren doch auch in ein flüssigeres Spielerlebnis, oder nicht?

Wenn ja, bringt das dann nur was bei ganz aktuellen Shootern oder auch bei älteren Spielen wie z.B. Elite was?

Die im Treiber vorgesehen Gimmicks NULL (nur in DX11) und Antilag (DX11 und DX12) bringen eine paar ms im GPU Limit (aber nur im GPU Limit).

Radeon Boost oder Reflex setzen eine Spielunterstützung voraus!

Zum Thema niedrige Latenz = flüssigeres Spielen

Das kann man so pauschal nicht sagen… aber im Grundsatz ist das quasi das Ziel…
 
Wenn du statt einer Sharkoon Light 100, eine Logitech Pro X verwenden würdest, die dann dazu noch Dynamic Klick (included Report Extension) unter Reflex unterstützt, würde der Unterschied noch größer ausfallen. Und genau das habe ich auch gemeint, nie was anderes. Mauslatenz+PC-Latenz+Anzeigelatenz=Systemlatenz (das habe ich in ähnlicher Weise schon zu einem anderen Artikel deinerseits kommentiert und Latenzarten)! Die GPU spielt bei der Mauslatenz eine unwesentliche Rolle, sie kann sie ohne dedizierte API kaum beeinflussen, oder aber man optimiert beides aufeinander.

Es geht um die Vergleichbarkeit, zumal du Boost sogar testest, aber den Jüngern dann erklärst das Boost im Spiel separat berücksichtigt werden muss?

Kurzum, hättest Du oder Ihr den Vergleich mit AMD Hardware herausgelassen, könnte man vllt. sogar noch sagen, man teilt deine Vorlieben. Um mehr geht es in deinem Fazit nicht, du bevorzugst Nvidia in einem ungleichem Vergleich (im Spiel Overwatch). Ok, so sei es.

Wenn du mit der Kritik daran nicht um kannst, ist das nicht mein Problem. Polled, pulse und latency (flak, example, brand) sind explizit abgestimmt und tested by Nvidia in Hardware. Wo ist das bei AMD so? Dediziert gegen open source, wie immer. Stets ein ungleicher Vergleich, egal ob positiv oder negativ für einen Hersteller.

Was den LDAT angeht, sollte er wie die Maus an einem USB Port hängen der direkt an die CPU verlinkt wird, sonst kann ein Controller mit Eigenlatenz antworten. Der 2700x sei dahingestellt...er stellt direkten USB Support zur Verfügung, siehe I/O.

CPU Taktratenverläufe dahingehend, weil Reflex IMMER marginal unter GPU Limit liefert und auch Energiesparfunktionen abschaltet (ja Reflex braucht mehr Strom als ohne), dass müsste bei AMD anders aussehen. Die dann ins CPU Limit (DX11) oder GPU Limit rennen (Asicpower/Arbitrator/Overhead).
 
Zuletzt bearbeitet von einem Moderator :
Klar ist das schnell, aber du kannst auch nicht sagen, dass alles unter 100 ms gut ist, weil das Auge so langsam ist. Die beiden Zeiten kommen ja hinter einander. Es geht 50 - 100 ms von einer Eingabe oder einer Aktion im Game bis das Ereignis auf dem Bildschirm erscheint. Danach braucht das Auge und Gehirn ca. 100 ms bis ich erfasst habe was ich sehe. Zusammen sind es also 150 - 200 ms von einem Ereignis in der Gameengine (geht jetzt nicht um genaue Werte) bis mein Gehirn es erfasst hat. 150 ms sind da immer noch spürbar schneller als 200 ms.

Ich denke aber auch, dass dann 10 - 20 ms mehr oder weniger nicht mehr viel ausmachen.
Nene. Es gibt eine Varianz bei der Latenz der Reizübermittlung, die aktuell niemand so richtig erklären kann. Und die liegt bei 100ms.
Die Reaktionszeit (Hand-Auge) liegt in sehr günstigen Fällen bei 150-200ms. Aber die Nervenzellen gönnen sich on top nochmal bis zu 100ms. Mal mehr, mal weniger. Scheint Zufall zu sein oder mit Erreichen der Reizschwelle zu tun zu haben. Jedenfalls solange beide Anbieter im Bereich unter diesen 100ms auseinander liegen, ist das Bums. Allein weil die Biochemie mitspielt.
 
Ich gebe zu, ich bin nicht so der Ego-Shooter Fan. Aber diese niedrigeren Latenzen resultieren doch auch in ein flüssigeres Spielerlebnis, oder nicht?

Wenn ja, bringt das dann nur was bei ganz aktuellen Shootern oder auch bei älteren Spielen wie z.B. Elite was?
Generell gilt: Je geringer die gesamte Systemlatenz, desto schneller werden deine Mausklicks und Tastenschläge direkt auf dem Monitor umgesetzt. Flüssig ist hier vielleicht nicht das richtige Wort, das würde ich tatsächlich eher mit einer sehr fixen Frametime gleichsetzen, und da ist dann die Latenz nachrangig. Ein Spiel kann bei 30fps flüssig rüberkommen, wenn die frametime immer bei 33,3ms liegt und keine Abweichung davon zeigt.

Ich würde vielleicht Reaktivität als Begriff in den Mund nehmen (eng. responsiveness)? Vergleiche es vielleicht mit so Sachen wie wenn du in Windows ein Laufwerk öffnest: SSD? Öffnet sich sofort, als wärest du bereits in der Ordnerstruktur gewesen. HDD? Wenn du die Platte länger nicht angesprochen hat, braucht sie beim ersten Öffnen einen kurzen Moment, und dann läuft es. Der Vergleich hinkt auf Hardware-Ebene und ist zugespitzt, aber vom Ding her glaube ich ganz anschaulich.

Nene. Es gibt eine Varianz bei der Latenz der Reizübermittlung, die aktuell niemand so richtig erklären kann. Und die liegt bei 100ms.
Die Reaktionszeit (Hand-Auge) liegt in sehr günstigen Fällen bei 150-200ms. Aber die Nervenzellen gönnen sich on top nochmal bis zu 100ms. Mal mehr, mal weniger. Scheint Zufall zu sein oder mit Erreichen der Reizschwelle zu tun zu haben. Jedenfalls solange beide Anbieter im Bereich unter diesen 100ms auseinander liegen, ist das Bums. Allein weil die Biochemie mitspielt.
Ich verstehe nicht ganz, wieso du deine Ausführungen immer mit einer Negation beginnst. Es widerspricht doch keiner, aber du wirst doch auch nicht widersprechen, dass die Computerlatenz dann noch mal zu der menschlichen Latenz addiert werden muss?
Alternativ kann man ja auch argumentieren, dass 1000ms Systemlatenz kein Thema sind, weil der Mensch ja eh noch eigene Latenz mitbringt (~250ms visuell; ~170ms auditiv; ~150ms haptisch). Habe ein Wenig das Gefühl, wir reden irgendwie teilweise aneinander vorbei 😬

Gerade wenn man die natürliche Latenz, die wir eh alle haben, mit einbezieht, ergibt sich meiner Meinung nach ein stärkeres Argument dafür, die Latenz von PCs zu verringern - nach dem Motto "na wenn ich schon so lange brauche um zu reagieren, dann soll wenigstens das System keine Verzögerung haben".
 
Oben Unten