Gaming Grafikkarten Praxis Redaktion Testberichte VGA

NVIDIA NULL und Reflex vs. AMD Anti-Lag und Radeon Boost – was ist besser? Latenzen in der Praxis!

Zusammenfassung

Beide Grafikkarten liegen bei der Performance in etwa auf dem gleichen Niveau. Die MSI RX 6700 XT kann mit den mittleren Grafikeinstellungen ein paar mehr FPS auf den Monitor loslassen als die MSI RTX 3060 Ti. Sobald man aber ins GPU Limit kommt, dann dreht sich das Blatt und die MSI RTX 3060 Ti liegt leicht vorne. Macht aber keinen wirklichen Unterschied, weder in Bezug auf die FPS noch in Bezug auf die Systemlatenz. AMD Anti-Lag kann im GPU-Limit zwar die Latenz um ein paar Millisekunden reduzieren, was aber den Bock nicht wirklich fett macht.

Somit agieren die beiden Karten auf Augenhöhe, auch wenn NULL nicht funktioniert hat. Aktiviert der NVIDIA-Nutzer hingegen Reflex & Boost, dann trennt sich die Spreu vom Weizen. Hier zieht NVIDIA in Bezug auf die Latenz auf und davon! Zumindest so lange bis Radeon Boost seinen Auftritt hinlegt. Dann kommen die beiden Karten wieder sehr eng zusammen. Aber nur auf den ersten Blick! Die Details offenbaren hier den Unterschied. Die Streuung von Radeon Boost ist und bleibt ein ungeliebter Nebeneffekt für die Latenz!

Fazit

NVIDIA Reflex & Boost geht den Weg über das Spiel (Eingriff von innen) und wirkt wie ein Framelimiter und schafft es so, die Latenz im GPU-Limit deutlich zu reduzieren. Dabei muss der Spieler keinerlei grafische Einbußen in Kauf nehmen. Ebenso wenig beeinflusst es die durchschnittliche FPS-Rate negativ, dafür aber die 1 % Low positiv! Die Streuung der Latenz bleibt auch dynamisch sehr gering, was für jeden Spieler eine Grundvoraussetzung sein sollte. Wenn ich jetzt ins rote Lager schaue, dann sehe ich hier einen umgedrehten Effekt.

Ohne Radeon Boost sind die 1 % Low viel besser als die von der NVIDIA RTX 3060 Ti, was auch die Streuung nochmals kleiner gestaltet. Mit Radeon Boost aktiviert geht AMD einen anderen Weg als NVIDIA, um die Latenz zu verringern. Die Nachteile werden hier aber sehr schnell mess- und sichtbar! Deutlich schlechtere 1 % Low, die Streuung der Latenz nimmt extrem zu und die Grafikdetails nehmen ab. Letzteres ist aber noch vertretbar. Zumindest in Overwatch!

(Quelle: https://twitter.com/amdgaming/status/1321543316815683585)

Den Weg den AMD mittels Radeon Boost gewählt hat, um die Latenz zu verringern (so wird es von AMD beworben), folgt konsequent dem Motto viel FPS hilft viel. Leider muss ich für mich persönlich festhalten, dass Konsequenz bei AMD im Zweifel bedeutet – auch Holzwege zu Ende zu gehen! Ja, mehr FPS verringert die Latenz, somit bewirbt AMD Radeon Boost nicht grundsätzlich falsch. Die Details machen hier den Unterschied. Vor allem aber hat Radeon Boost einen essenziellen Nachteil: Es funktioniert nur dynamisch! Abschließend noch ein letztes Video, damit ihr sehen könnt, wie Radeon Boost in Aktion aussieht bzw. funktioniert.

Je nach Szene springen die FPS mit Radeon Boost hier von knapp über 100 auf bis zu 250 FPS. Beeindruckend, oder nicht? Wer das Video pausiert und mal langsam (Frame by Frame) genau hinschaut (z.B. von 1:13 auf 1:14), der sieht, dass die Grafik von 200% Renderskalierung (2160p) auf 1080p dynamisch skaliert. Siehe rot markierter Bereich!

Das ist im Spiel Overwatch seitens AMD und den Spieleentwicklern sehr gut gelungen. Ich denke, dass wird man verkraften können. Wobei ich das noch nicht in einer echten Online-Zockerrunde getestet habe, sondern nur auf der Test-Map! Erster Eindruck ist aber vielversprechend. Wer mit den geringen Grafikdetaileinbußen leben kann, für den ist das sicher eine sehr gute Option, um die FPS zu boosten! Zumindest wenn es dynamisch wird. Die Latenz wird damit zwangsläufig mit verringert.

Was ist jetzt unter dem Strich meine persönliche Meinung? Im Spiel Overwatch kann AMD mit NVIDIA in gewisser Weise mithalten. Da die Details hier den Unterschied machen, liegt NVIDIA bzgl. der Gesamtbetrachtung dennoch vorne, insbesondere wenn es um die Systemlatenz geht!

An der Stelle übergebe ich an euch und freue mich auf angeregte Diskussionen im Forum.

 

Die Grafikkarten wurden mir von Igor zu Testzwecken, ohne Einflussnahme seitens Igor oder der Hersteller zu Verfügung gestellt.

Kommentar

Lade neue Kommentare

ApolloX

Urgestein

1,625 Kommentare 905 Likes

Hallo Fritz & Co., danke für den Test und zugehörigen Aufwand.

Ich hätt dazu noch ne generelle Bitte: ihr beschreibt immer in großem Kasten euer Testsystem, gerade dass dort nicht auch noch das Mauspad mit beschrieben ist :-) aber die verwendeten Mess Metriken werden nicht explizit und standardisiert erklärt. Gut, FPS kenn ich, aber wenn ich jetzt aus dem Stehgreif Frametimes oder Systemlatenz erklären müsste, dann müsst ich schon erstmal schlucken. Ich gehör jetzt schon wohl eher zu den PC-Durchblickern und tu mich bei euren Test dennoch oft mal etwas schwer mit der Einordnung verwendeter Metriken - und eure Leser sind vermutlich weit vielschichtiger als wir paar Freaks, die sich halt hauptsächlich zu Wort melden.

Ich fänds also gut, wenn ihr solche Kennwerte analog zum Testsystem auch mal sauber erklären würdet, in welcher Einheit werden die gemessen, was bedeuten die Metriken, was beeinflussen sie, gibts da bestimmte Schwellen, die nicht unter- oder überschritten werden sollten. Wenn die Texte und Boxen dazu einmal gemacht sind, lassen die sich ja bei jedem weiteren Test einfach unters Testsystem kopieren (mit der Auswahl an verwendeten Metriken).

Antwort 2 Likes

ipat66

Urgestein

1,343 Kommentare 1,335 Likes

Auf die Gefahr hin,mich gleichzeitig bei AMD und NVIDEA Fan's unbeliebt zu machen,möchte ich einen Gedanken einfließen lassen.
Generell frage ich mich,ob diese FPS Spirale der einzig denkbare Weg ist?

Gewinne ich,weil meine Latenzen und der Ping einfach besser sind,oder weil ich der bessere Spieler bin?
Ist der Gedanke eines Fairplays,wie immer dieser erreicht werden könnte,der Hardwareaufrüstung gewichen?

OK....
Betroffen bin ich von dieser Entwicklung eigentlich gar nicht,da ich höchstens mal auf Steam Autorennen fahre.
„Shooter“ und ähnliche Genres sind nicht so mein Ding...
Würde mich freuen,wenn mein Xplane auf drei 4K-Bildschirmen irgendwann mal mit höchster Qualitätsstufe
und 60 FPS laufen würde.

Gäbe es also im Sinne eines Fairplays nicht die Möglichkeit der Nivellierung der teilnehmenden Spieler
in Onlinespielen?
Eine KI welche Ping und Latenzen ausliest und dann für Chancengleichheit sorgt?

Ist dieser Gedanke zu abwegig?
Vielleicht bin ich vollkommen OUT OF TIME mit diesem Gedanken?

Meine Grundeinstellung des Fairplays ist aber seit meiner frühesten (sportlichen) Jugend Bestandteil
meiner Person.
Mich persönlich würde der Gedanke stören, nur aufgrund der besseren Hardware zu gewinnen...
Wie gesagt,nur ein Gedanke...

Ich ziehe mal meine schusssichere Weste an....:)

Antwort 3 Likes

Klicke zum Ausklappem
G
Guest

Hier wird immer noch ignoriert, dass die Latenz nicht allein abhängig von der GPU ist, das mit der GPU also fast gar nichts zu tun hat (inklusive deren Treibern), den Lesern hier aber gerne eingeredet wird. Die Gamelatenz ist vor allem abhängig von der CPU und der Render Queue, zusätzlich von der Pooling Rate der Mouse und dem Inputlag des Display's. Die GPU spielt dabei nur eine unwesentliche Rolle, Änderungen über den Treiber der GPU wirken aber allgemein.

Also Input (Mouse)=>CPU=>Renderqueue=>GPU=>Monitor! Dabei zeichnet Nvidia besonders niedrige Werte, wenn die Hardware RLA kompatibel ist (und muss es auch sein), sonst könnte sogar AMDs Variante Vorteile bieten. Das Texturing spielt dabei keine wesentliche Rolle, die Berechnungszeit verkürzt sich jedoch wenn die Bildrate steigt.

Die gemessenen Werte gelten also für das Testsystem im getesteten Spiel Overwatch und nicht allgemein, daher sind allgemeine Fazit auch nicht aussagekräftig. Ich vermute mal daher stellt man die Messreihen mit explizieter Erläuterung erst gar nicht online. Fazit ist eher, eine höhere CPU Leistung und Threadoptimierung kann Techniken wie Reflex und Antilag beschleunigen. Das AMD da einige Nachteile im CPU Limit unter DX11 hat, ist bekannt. Trotzdem wird es immer wieder getestet. Warum auch immer...

Das heißt also letztlich, ich kann die Pipeline aus Eingabe=>Berechnung=>Befehl=>Bild=>Visuelle Ausgabe schon bei der Eingabe abschießen (und das liegt auch daran wie schnell "ich selbst" jeweils "klicke"=>ergo spielt der, der vor dem Bildschirm sitzt auch noch eine wesentliche Rolle). Da kann die GPU mal gar nichts dafür und auch kein Hersteller. Zumal per Engine auch gerne auf Hardware optimiert wird (UE4 unter DX11), darauf hat ein CPU oder GPU Hersteller nur unwesentlichen Einfluss, sondern wählen Entwickler die Variante die am Besten zum gewollten Ergebnis passt. Das alles per Treiber zu "cheaten" ist faktisch unmöglich und ist unter DX12 auch nicht mehr erwünscht.

Ich müsste also für auswertbare Messreihen garantieren, dass ich immer gleiche Eingabezeiten erreiche bzw. auf den Bildinhalt immer gleichschnell reagiere, wie nur? Das Ganze setzt sich für alle Stufen in der Pipeline fort, sowie Hintergrundprozesse usw..

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Danke für den Test @FritzHunter01
Kann mich hier aber generell auch @ipat66 anschließen. Mache um reine Online- und/oder Multiplayer seit deren Bestehen einen großen Bogen. Kann mich dafür einfach nicht begeistern. Und obwohl ich Fallout und die Elder Scrolls-Reihe ohne Ende gespielt habe, und das auch noch tue, gehen die jeweiligen Online-Varianten gar nicht bei mir.
Ich muss jetzt auch nicht unbedingt Eyecandy in den Spielen haben, wenn ich keinen Augenkrebs kriege, reicht mir das. Und meine Schmerzgrenze ist da sicher höher als bei den reinen Gamern und/oder Enthusiasten. Dann lieber ein Flüstern beim Zocken als einen Düsenjet.
Und egal, welches Spiel ihr da in den letzten 1-2 Jahren zum Testen heran gezogen habt: ich habe bisher außer dem Witcher 3 keines davon gespielt. Das einzige, dass ich zumindest noch gekauft habe, ist Cyberpunk. Das aber auch schon ein halbes Jahr vor Erscheinen, habe es aber noch nicht mal bei GOG heruntergeladen.
War vielleicht auch keine schlechte Idee, bei dem, was man von den Anfangsschwierigkeiten so gelesen hat.

Deswegen sind solche Tests aber trotzdem immer interessant, auch wenn es mich im Grunde nach wenig betrifft.

Antwort 1 Like

Klicke zum Ausklappem
FritzHunter01

Moderator

1,120 Kommentare 1,510 Likes

Danke für dem Beitrag!

Bitte zuerst dem Artikel bzgl LDAT lesen!

Ich messe mit LDAT alles nicht nur die GPU…

Sorry wenn ich es jetzt mal drastisch und direkt formulieren muss: Wer lesen kann ist klar im Vorteil…

Antwort Gefällt mir

G
Guest

Um so schlimmer.

Sorry, dass es ich jetzt dramatisch schreibe, aber ich halte von den Ergebnissen nicht viel. Viel wichtiger für deine Messreihen sind dann die Taktverläufe der CPU und an welchen USB Port der LDAT hängt. Das die Renderqueue dann eine wesentliche Rolle dabei spielt habe ich bereits geschrieben. Ein Framelimiter wird dann immer bessere Latenzen liefern, aber wo ist das Problem wenn ich den im AMD Treiber aktivieren könnte, aber nicht mache? Die Karte aber rennen lasse?

Immer dann wenn man mit LDAT misst und die CPU + Renderqueue leicht unter dem GPU Limit liefert, zeichnet LDAT wunderbare Latenzen. Mal Gedanken darüber machen und warum! Nvidia scriptet die Renderqueue also per Treiber oder gleich über Reflex SDK. Sie tauschen sie also sozusagen gegen eine GPU kompatible dynamische Variante, soweit es nicht vom Entwickler berücksichtig wird und liefern dazu auch noch gleich das Equipment für Tester.

Ich brauch den Artikel zu LDAT nicht zu lesen und stellt mich hier nicht immer hin, als wäre ich ein "Anfänger".

Das alles steht schon in meinen ersten Beitrag, du scheinst es aber ignorieren zu wollen. Mehr Hinweise kann man nicht geben, tut mir Leid!

Antwort Gefällt mir

Klicke zum Ausklappem
FritzHunter01

Moderator

1,120 Kommentare 1,510 Likes

Ich wiederhole mich, lies die Artikel zu LDAT und vor allem die anderen von mir zum Thema Reflex und IGFL

Besonders: MSA zu LDAT

Antwort Gefällt mir

Igor Wallossek

1

10,106 Kommentare 18,594 Likes

Ich muss mich da auch mal mit einklinken. Wir haben mit Absicht eher langsame Grafikkarten gewählt, um die CPU als extremen Faktor etwas abzumildern zu können. Da spielte sicher auch die MSA zu LDAT eine Rolle. Die Maus sollte im geeigneten USB 3 Port stecken, das läuft dann eh direkt über die CPU und nicht das Chipset.

Zu AMDs "Frame-Limiter" schreibe ich jetzt mal bewusst nichts im Detail, aber ich kenne niemanden, der den in solchen Spielen nutzen würde. AMDs Frame Rate Target Control (FRTC) steckt in AMDs Chill und ist eher eine Art Range-Limiter, aber kein echter Frame-Limiter im eigentlichen Sinne wie bei NVIDIA. Da steigen die Latenzen mit etwas Pech eher an, als dass sie sinken und die Karte macht meist unvorhersehbare Dinge. Und es wären wieder Äpfel mit Birnen im Vergleich, weil das keiner exakten MSA standhält und bei jedem Run stark abweichende Ergebnisse liefern würde.

Ein In-Game-Limiter ist noch akzeptabel, alles andere von außen aus meiner Sicht eher weniger. Die Gründe sind ja allgemein bekannt.

Edit:
Chill greift sehr stark in den Arbitrator ein, auch was die Power Estimation und die Vorhersage betrifft. Ich habe damals, als Chill aufkam, lange getestet und das Ganze für FP-Shooter als einigermaßen unbrauchbar wieder abgehakt. Der Artikel heute hinterfragt das Zusammenspiel von Grafikhardware und Treiber und beurteilt am Ende auch die Wirksamkeit der vier verschiedenen Technologien und dem, was zwischen dem Klick und dem Pixel am Monitor passiert.

Es ist, bis auf die Grafikkarte, immer die selbe Hardware und LDAT macht nichts anderes, außer den mechanischen Klick abzufangen und den resultierenden Pixel auf dem Bildschirm dazu auszuwerten. Da ist es egal, wer der Hersteller ist, denn AMD hätte das genauso gebaut. Die Systemlatenz ist nun einmal die Summe aus Hard- und SOFTware. Und da müssen die GPU und die Treiber samt Features die Hosen runterlassen. Wie soll man es denn sonst bitte schön testen? Plausibilitätstests mit einer Highspeed-Cam ergeben doch nichts anderes. Den Spieler interessieren doch nur die Latenzen zwischen seiner physikalischen Klickerei und dem ins Auge springenden Pixel.

Diese ganzen Treiber-Features sollen doch dazu dienen, auch diese Latenzen zu verringern. Ein Use-Case, wo kaum welche auftreten, ist da nicht hilfreich, weil man dann auch diese Treiber-Features nicht mehr braucht. Die Wirksamkeit eine Kompressionsverbandes teste ich doch auch nicht mit einem kleinen Blutstropfen. Overwatch ist in gewisser Weise Worst-Case und AMD bewirbt ja seine Features auch mit diesen Spielen. Dann nimmt man es eben auch :)

Antwort Gefällt mir

Klicke zum Ausklappem
FritzHunter01

Moderator

1,120 Kommentare 1,510 Likes

Dem ist soweit nichts mehr hinzuzufügen…

Weitere Spiele folgen

Edit:

DX11, DX12 eventuell Vulkan

Antwort Gefällt mir

s
summit

Veteran

150 Kommentare 73 Likes

AMDs FTRC ist auch auch kein FrameLIMIT, es ist schlicht eine Zielvorgabe (Target) und die macht, gerade mit FreeSync, einen sehr guten Job. Da FRTC möglichst Sync (auch Imput!) bleiben will werden einige Frames (je nach Monitor) auch mal "künstlich" verzögert, in der Summe sollte die Latenz ~ niedriger als ein hartes Limit sein.

Chill ist dann sinnvoll wenn es immer wieder mal böse minFPS Abschnitte im Spiel gibt, dann lieber mit Chill min und max anpassen, als ein hartes Limit auf die minFPS.

EDIT
Und ntürlich bedeuten mehr FPS idR auch niedrigere Latenzen.
Würdest du im GPU Limit bei BEIDEN eine stärkere GPU verwenden (mehr FPS), dann würden beide auch bessere Latenzen Zeigen (bis die GPUs so schnell wären, dass es keinen unterschied mehr machen würde). Du vergleichst hier aber eben nicht nur die verschiedenen GPUs, sondern auch verschiedene Software, nvidia reflex. Du änderst damit also nicht nur die GPUs, sondern auch den "Benchmark".

Antwort 1 Like

FritzHunter01

Moderator

1,120 Kommentare 1,510 Likes

Nein, die Bedingungen (Benchmark) sind gleich!

Es werden die Gimmicks zur Latenzreduzierung beider Hersteller unter den gleichen Bedingungen verglichen.

Das AMD und Nvidia hier unterschiedliche Möglichkeiten nutzen, dafür kann ich nichts. Letztlich schaffen es beide im Spiel Overwatch auf ein ähnliches Niveau zukommen.

Nvidia hat hier bezogen auf die Stabilität und der Tatsache, dass es auch statistisch funktioniert, ganz einfach die Nase ein kleines Stück weiter vorn!

Sollte ich damit die Gefühle einiger AMD Fan-Boys verletzt haben, ist das nicht mein Problem. Zahlen, Daten und Fakten sind mit Gefühlen nicht änderbar.

AMD bewirbt Radeon Boost mit dem Titel: Ultimatives Latenzverbessungs-Gimmick…

Grundsätzlich nicht falsch, aber eben auch nicht wirklich ultimativ!

Antwort Gefällt mir

g
goch

Veteran

466 Kommentare 178 Likes

Ich muss sagen, dass ich von dieser Thematik nicht all zu viel verstehe, es aber auf meine Interessensliste (ähnliche Ansicht wie @ipat66 ) auch nicht wirklich weit oben steht.

ABER wenn man doch hier ein solch sachliches und ausformuliertes Feedback bekommt, auch (oder gerade) wenn dieses auch einmal kritisch ist, empfinde ich die Antworten von @FritzHunter01 schon eher pampisch - das sollte alle, die an dieser tollen Seite und Community mitwirken, doch mit gutem Beispiel voran gehen.

Antwort 1 Like

Igor Wallossek

1

10,106 Kommentare 18,594 Likes

... und es funktioniert vor allem nur bei Overwatch. Soll man jetzt Spiele nehmen, wo es erst gar nichts bringt? Das wiederum wäre dann allgemeingültiger? Es war schon schwer, für Radeon Boost überhaupt einen guten use-case zu finden :D

Das Problem ist eher:
Wie biased ist ein Post? Unter DX12 bekommt übrigens NV eins auf den Deckel, unter DX11 ist Radeon Boost eher ein Totalausfall. Ich erinnere mich aber, hier bereits die Ankündigungend es Follow-Ups gelsen zu haben. Das sollte man schon abwarten, bevor man einem Autor Inkompetenz unterstellt.

Antwort Gefällt mir

s
summit

Veteran

150 Kommentare 73 Likes

Radeon Boost und Radeon Anti-Lag müssen nicht in das Spiel integriert werden, reflex von nvida aber sehr wohl.

Was AMD WIKLICH zu Boost schreibt:

Also "increased responsiveness" mit DX12, nicht zwangsläufig mit DX11.

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Uff Igor, da habt Ihr ja was angezettelt hier...Weiß gar nicht wo ich hier anfangen soll.

Erstmal muss ich @Igor korrigieren, es gibt sowohl Chill als auch einen eigenen Framelimiter im AMD Treiber seit geraumer Zeit wieder(noch nicht all zu lange,ich meine seit etwa 2-3 Treiberversionen wieder),vorher musste man min/max einfach gleich setzten, dass haben aber tatsächlich viele nicht geschnallt und ich hab nicht geschnallt das AMD das dermaßen bescheuert geregelt hat. Naja, Fakt ist,ein Framelimiter via Treiber ist vorhanden.

View image at the forums

Ich stimme Gastello in einigen Punkten bei seiner Ausführung zu und mit Verlaub @FritzHunter01 er ist alles nur kein "AMD Fanboy"
Davon ab,finde ich es absolut unangemessen, als Autor bereits im Artikel wie auch hier dann im Thread mit einem solchen "Kampfbegriff" inflationär zu wuchern. Da bringt dann auch der charmante Wortwitz an einigen Stellen im Artikel keine Besserung mehr,wenn man in eben diesem quasi direkt vermeintliche Kritik/Argumente/Feedback damit stigmatisiert.

In fast jedem Forum ist der Begriff perse ein Grund für eine Sperrung/Verwarnung,das haut man doch nicht so in einen Artikel!

Zu Radeon Boost: Mit dem Thema Latenzen kenne ich mich recht wenig aus, nach meiner Erfahrung funzt Boost aber unter DX12 wesentlich besser,warum auch immer. Generell bin ich der Auffassung das Boost weniger eine Latenzreduktion bringen soll sondern eigentlich primär flüssige Bildraten in Bewegung gewährleisten soll,vor allem auf schwächeren Systemen.Die Latenz ist da natürlich ein willkommener Nebeneffekt. Dieses Prinzip funktioniert mit Boost bei mir in Cyberpunk z.B. überraschend gut,kappt mir aber in Borderlands die maximale Framerate.Warum auch immer.

@summit Doch Boost muss integriert werden,egal ob auf DX11 oder DX12 Basis!

Antwort 2 Likes

Klicke zum Ausklappem
FritzHunter01

Moderator

1,120 Kommentare 1,510 Likes

Sorry, aber stimmt so nicht!

NULL und Anti-Lag funktioniert über den Treiber… bringt aber nicht wirklich viel zumindest in DX11… Nvidia NULL sowieso nur in DX11 möglich

Ein IGFL ist da besser!

Antwort Gefällt mir

Klicke zum Ausklappem
s
summit

Veteran

150 Kommentare 73 Likes

Nein, Boost muss nicht in die Engine integriert werden es muss lediglich im Treiber unterstützt werden(Homebrew!).
Glaubt mir doch bitte endlich mal.

Ein iGFL schließt AntiLag nicht aus. ;)

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Doch muss es, da gibt es nichts zu diskutieren, dass ist schlicht so.

View image at the forums

Antwort Gefällt mir

grimm

Urgestein

3,070 Kommentare 2,023 Likes

Geht wieder heiß her. Mir erschließt sich der Nutzen des Ganzen nicht wirklich. Kann gut sein, dass beide Hersteller mit ihren Technologien da irgendwas optimieren, was dann dafür sorgt, dass ich als auf der Lauer liegender Sniper einen vorbeibuschenden Gegner besser treffe, weil mein Lag kleiner ist.
Das scheint mir in der "static" Messung vor allem der Fall und korreliert mit den Ergebnissen des LT-Videos. Trotzdem bin ich irgendwie auch bei denen, die ja noch ne Maus klicken, die am Mainboard hängt, dass die CPU anspricht, die das entsprechende Rendering veranlasst, was die GPU errechnet und via DP und Einmeterfünfzig Kabel an den Monitor ausgibt.
Diese Vergleichbarkeit kann man nicht herstellen, vor allem nicht online, denn da kommt ja noch das Internet dazwischen. Insofern ist es eine Optimierungsmöglichkeit für das eigene System, ob das Ganze positive Auswirkungen in kompetitiven Titeln hat, kann ich anhand dessen nicht beurteilen. Und wie sich dazu G-Sync oder FreeSync verhalten ebenfalls nicht.
Ist ne Menge Aufwand, die Ergebnisse sind auch wirklich aufschlussreich. Relevanz hat das auch für mich nicht.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung