Radeon Anti-Lag vs. NVIDIA Reflex im Test - Latenzvergleich mit klarem Sieger

wieder falsch - Ein Schießstand-Test ist kein reales Testzenario, weil keine weiteren Spieler gerendered werden müssen. Macht einen Unterschied von ca. 20% aus. Ich würde bis zum eventuellen Erscheinen eines Tests hierrauf nicht weiter antworten. :)
 
Und ich dachte schon ihr wollt euch bei nem kühlen Blonden auf nem echten Schießstand treffen und gucken ob ihr ohne Maus und Tastatur auch noch den schwarzen Ring trefft 😄
 
Aufrufe sind nicht gleich jeder davon bohrt sein Motorblock auf.;)
Klar, manche schauen auch blos aus Langeweile.
Aber betrachte es mal so:
Ein Video wo jemand eine CPU mit Sickstoff bis zum platzen übertacktet schaut man sich gerne an weils interessant und spannend ist.
Das wird kaum jemand nachmachen!
Ein Video wo jemand für ein Spiel an irgendwelchen Grafikkarten und Spieleeinstellungen rumdoktort, bzw. an EQ Schiebereglern rumzieht damit man Schritte besser hört, zieht man sich dann doch eher rein weil man es selber wissen und verwenden möchte, weil so spannend ist das dann doch nicht! (glaube ich zumindest)
 
Habe ich schon gemacht, da findest du einen Artikel auf HomePage

Hier gibts VSync on oder off

Hier gehts primär um Reflex und Boost mit Low Latency Mode.

Zu VSync, konkret ein/aus/schnell/adaptiv hab ich keine Messungen gefunden. VSync schnell und adaptiv sollen Einfluss auf die Latenz haben.
Könntest Du mir den entspr. Artikel bitte verlinken? Danke
 
wieder falsch - Ein Schießstand-Test ist kein reales Testzenario, weil keine weiteren Spieler gerendered werden müssen. Macht einen Unterschied von ca. 20% aus. Ich würde bis zum eventuellen Erscheinen eines Tests hierrauf nicht weiter antworten. :)
Womit auch Deine Testmethode nix bringt,eben weil du die 20% hast die man bei meiner Methode wenigstens mit einrechnen kannst.
Im Spiel zu Testen bringt gar nix weil du unterschiedliche Server und Auslastungen hast,unterschiedliche Spieler......
Wurde alles von A-Z mit LOL getestet und das Ergebnis ergaben feste 144FPS wo du keine Lags und Latenzverzerrungen mehr hast.
 
Klar, manche schauen auch blos aus Langeweile.
Aber betrachte es mal so:
Ein Video wo jemand eine CPU mit Sickstoff bis zum platzen übertacktet schaut man sich gerne an weils interessant und spannend ist.
Das wird kaum jemand nachmachen!
Ein Video wo jemand für ein Spiel an irgendwelchen Grafikkarten und Spieleeinstellungen rumdoktort, bzw. an EQ Schiebereglern rumzieht damit man Schritte besser hört, zieht man sich dann doch eher rein weil man es selber wissen und verwenden möchte, weil so spannend ist das dann doch nicht! (glaube ich zumindest)
Klar PC ist natürlich wieder was anderes als ein Motor weils nicht aufwendig ist,nur die wenigsten können aber auch wirklich was davon mit nehmen und merken überhaupt nen Unterschied.Es wird einfach was Kopiert und der Balken wird länger,mehr nicht.
 
Interessantes Update, 2 Jahre nachdem letzten. Da 2023 auch HyperRX zur Latenz Reduzierung erscheinen wird als neues Feature, bin ich dann auf die neuen Vergleichstest gespannt.
 
Kaum muss ich beruflich mal weg, schon überschlagen sich die Ereignisse 😂

Erstmal danke an euch alle, dass ihr diese Thema so angeregt diskutiert!

Ein Wort zum Test:

Wer sich ein wenig auskennt, der weiß, dass Reflex und Anti-Lag nur im GPU Limit was bringen, daher muss ich meinen Test so gestalten, dass ich auch im GPU Limit ankomme. So viel mal dazu…

Jetzt zum Thema eSports-Settings:

Ich werde das beim nächsten Mal mit berücksichtigen. Und um euch mit einzubinden, hätte ich folgenden Vorschlag.

Valorant fällt raus, da wir hier keine nennenswerten Unterschiede feststellen werden. Ob low oder high Settings… CPU Limit is CPU Limit… das hatten wir schon.

Ich spiele CoD nur unregelmäßig und auf Ultra Setting mit DLSS Qualität und habe meine 240 FPS + mit der 4090

Jetzt seit ihr dran:

Welche „eSports-Settings soll ich gegen die Ultra Settings antreten lassen? Bitte um einen/mehrere Vorschläge (auch als link)

Das Gleiche bitte für Overwatch 2.

Testen werde ich das Ganze dann so ähnlich wie ich es bereits bei früheren Tests in CoD und Overwatch gemacht habe.

Reflex via Frameview (PC Latenz) vs. LDAT (E2E)

Deal??

Irgendwo habe ich gelesen, ob man von 500 FPS auf einem 144 Hz Monitor was hat?

Ja und nein… die Wahrnehmung beliebt bei 144 Hz im Spiel wirken sich die Latenzvorteile im Zweifel aus. Wenn es nicht unglücklich durch die schlechtere Wahrnehmung überschnitten wird.

In diesem Sinne
 
Zuletzt bearbeitet :
Ich denke worauf die meißten aus sind ist:
1. Mit welcher kofing ( Hardware wie Software ) habe ich die geringste Latenz ( Frameview und LDAT ).
2. Wie hole ich die geringste latzenz aus meinem Rot/Grün/Blau/Regenbogen system heraus. ( USB port, RAM Tuning, Interrups, energiesparplan das geht noch ewig weiter ^^ )

Aber ich bin gespannt was @Eribaeri als competitive Pro dazu sagt.
 
Die ermittelten Werte sind selbst für nicht eSportler interesant. Ab 50ms Latenc spürt man selbst in online RPGs deutliche Nachteile. Muß man einer Boss Attacke ausweiche oder bei nem Minigame schnell reagieren macht es einen erheblichen Unterschied, ob man 15 oder 50ms pings hat.
Und die kommen ja schließlich noch oben drauf! Also Ping + PC-Latens. Das läppert sich schnell mal.
Bei 144 FPS hat man eine Frametime von 6,94ms. Bei einer PC-Latens von 50ms wären das immer 7 "verpaßte" Frames. Schon krass.

Wobei ich jegliche reine Software Messung für nur bedingt tauglich halte. Denn selbst wenn es nur 2 Zeilen Code sind beeinflussen die schon das Ergebniss. Allerdings fällt mir auch kein einfacher Weg ein, wie man wirklich extern messen könnte. Dafür müßte man ein einzelnes Signal an entsprechender Stelle erzeugen und wo anders abgreifen. Bei den Herrstellern wäre sowas im Labor vieleicht möglich. Für alle anderen rein finanziel nicht machbar.

Und am Ende kann man als Nutzer eh nur wenig dran ändern, wenn ein Game schlicht schlampig programmiert wurde.
 
Die ermittelten Werte sind selbst für nicht eSportler interesant. Ab 50ms Latenc spürt man selbst in online RPGs deutliche Nachteile. Muß man einer Boss Attacke ausweiche oder bei nem Minigame schnell reagieren macht es einen erheblichen Unterschied, ob man 15 oder 50ms pings hat.
Und die kommen ja schließlich noch oben drauf! Also Ping + PC-Latens. Das läppert sich schnell mal.

Wobei ich jegliche reine Software Messung für nur bedingt tauglich halte. Denn selbst wenn es nur 2 Zeilen Code sind beeinflussen die schon das Ergebniss. Allerdings fällt mir auch kein einfacher Weg ein, wie man wirklich extern messen könnte. Dafür müßte man ein einzelnes Signal an entsprechender Stelle erzeugen und wo anders abgreifen. Bei den Herrstellern wäre sowas im Labor vieleicht möglich. Für alle anderen rein finanziel nicht machbar.

Und am Ende kann man als Nutzer eh nur wenig dran ändern, wenn ein Game schlicht schlampig programmiert wurde.
Deswegen der Schießstand Test mit realer Grafik wie im Spiel und sobald die Scheibe erscheint läuft die Messung bis das Ziel getroffen wurde.
Über die Spieleinstellungen kann man dann Testen was etwas bringt und was nicht.
Als Entwickler kann ich bei Online Spielen auch ohne Probleme durchschnittliche Störgrößen mit einbeziehen.Kleiner in Game Benchmark der auf nem Server liegt.
 
@FritzHunter01
Das Ende der ersten Seite hat mir gefallen......
:LOL: Fakt ist aber auch du hast mit NVIDIA FrameView 1.4.8 die AMD Karte ausgelesen,wir wissen doch alle wie Intels Compiler AMD manipuliert,da kannst locker 25-50% bei AMD und den ms runter rechnen........:ROFLMAO:
Das sollte mal belegt werden. Also nicht 10 Jahre alte Berichte, sondern derzeitige benchmarks. 25-50% war es eh nie. Dazu kommt natürlich, das die damaligen benchmarks CPU-seitig waren, hatten mit GPUs nie was zu tun.

Und weißt Du genau, daß die Software zum messen mit einem Intel compiler erstellt wurde? Selbst wenn, Zahlen?
 
Für alle, die gerne kruden Theorien nachhängen: NVIDIAs Frame View basiert auf OpenSource (PresentMon), freien Bibliotheken (Systemdaten) und der NVAPI. Und das, was als Latenz ausgegeben wird, kommt direkt aus den Spieleengines, so dass es Wurst ist, ob eine AMD- oder NV-Karte im System steckt. Die Impfmücken-Saison hat noch nicht begonnen :D
 
Das sollte mal belegt werden. Also nicht 10 Jahre alte Berichte, sondern derzeitige benchmarks. 25-50% war es eh nie. Dazu kommt natürlich, das die damaligen benchmarks CPU-seitig waren, hatten mit GPUs nie was zu tun.

Und weißt Du genau, daß die Software zum messen mit einem Intel compiler erstellt wurde? Selbst wenn, Zahlen?
Hast die erste Seite von Fritz gelesen.
Da musst ich einfach wieder zuschlagen.;)

Aber was der alte Intel Compiler zu Athlon/Phenom und FX Zeiten mit NVIDIA Software am Hut hat musst mir noch erklären.
 
Mal schüchtern gefragt: gibt es solche Messungen auch für Intel ARC A770 oder A750 zufällig?
 
Dann muss man diese Karten erst mal haben. Die A750 ist im Vergleich zu langsam. Vielleicht zum RX 7600er Launch 😉
 
Also ich muss ehrlich sagen beim Latency Mode habe ich immer nur ON eingestellt im Nvidia Treiber. Weder habe ich einen unterschied zu Ultra gemerkt oder Reflex daher immer augeschaltet gehabt.

Kann man es messe klar, kann man es fühlen? Ich nicht. Außer es war vor 2 Jahren noch nicht so ausgereift, erinneren mich das Reflex auch gern probleme gemacht hat. vielliecht nur gut für Shooter wo es um extreme präzision geht oder ich bin da einfach unempfindlich. :unsure:
 
Oben Unten