Grundlagenartikel Hardware Messgeräte und Werkzeuge Praxis Testberichte

USB-Ports und Latenzmessungen – Mythen und Realität | Praxis

Nach dem letzten Artikel zum Thema Systemlatenz (NVIDIA Reflex & Boost vs. Radeon Boost und NULL vs. AMD Anti-Lag), sollten wir dringend ein paar Dinge zum Thema Testen besprechen. Deshalb schauen wir uns heute NVIDIA LDAT in Bezug auf die verwendeten USB-Ports an. Hierzu habe ich zwei unterschiedliche Möglichkeiten bzgl. der Verwendung von LDAT getestet. Zum Einsatz kam hier die AMD Radeon RX 6700 XT, wobei bei allen Messungen die AMD Gimmicks (Anti-Lag und Radeon Boost) deaktiviert waren.

Die einzigen Veränderungen, die ich vorgenommen habe, waren die jeweiligen USB-Anschlüsse. Zuerst habe ich NVIDIA LDAT an einem zweiten, autark laufenden Gaming-PC angeschlossen, so dass die Messungen der Systemlatenz unabhängig von meiner eigentlichen Testbench liefen. Danach habe ich LDAT direkt mit an die Testbench gekoppelt. Und um das alles abzurunden, habe ich LDAT noch jeweils an einem direkt mit der CPU verbundenen USB-Port und einmal an einem langsameren USB 2.0 Port übers Chipset angeschlossen. Vier Varianten also, sber dazu kommt gleich noch was!

Hier noch einmal meine Testbench im Detail:

CPU Ryzen 7 2700X (4,2 GHz all core)
Mainboard MSI MAG X570 ACE
RAM 2×8 GB G.Skill RipJaws V 3200 MHz CL16-18-18-38 (single ranked)
SSD 1 Toshiba Transcend 110S 256 GB (System)
SSD 2 Crucial P2 1000 GB (Spiele)
SSD 3 Crucial P2 1000 GB (Spiele)
SSD 4 Samsung 512 GB 840 Pro (Backup)
CPU Kühler MSI MAG Coreliquid 360R
Netzteil Seasonic Prime Platinum 1300 Watt
GPU MSI RX 6700 XT Gaming X
Sound SoundblasterX AE-5 Plus
Tastatur Sharkoon PureWriter RBG (Red Taster) @1000 Hz Polling Rate
Maus Sharkoon Light² 100 @1000 Hz Polling Rate
Messtechnik NVIDIA LDAT Hardware mit Logitech G203 Prodigy @1000 Hz Polling Rate
Monitor 1 MSI Oculux NXG252R 240 Hz via DP (NVIDIA G-SYNC)
Monitor 2 AOC G2778VQ 75 Hz via DP (AMD FreeSync)

Besonderes Augenmerk sollte hierbei auf die Messtechnik gelegt werden. Ich verwende NVIDIA LDAT Hardware, hierzu ist die Logitech G203 Prodigy direkt mit der LDAT Messtechnik gekoppelt. Deshalb ist es wichtig, dass man alle meine Artikel in Bezug auf die Systemlatenz auch wirklich liest. Wir sind hier nicht bei der Bildzeitung: Headline gelesen und Meinung gebildet! Also, hier nochmal der Artikel von Igor zum Thema LDAT, klickst du hier. LDAT misst die komplette Systemlatenz – vom Mausklick bis zum Pixel auf dem Monitor! Dabei ist LDAT egal, ob eine NVIDIA oder AMD GPU im Slot steckt. Es könnte auch ein FPS generierender Löffel sein. LDAT misst die Latenz unabhängig vom Namen der Grafikkarte. So einfach ist das!

Ich verwende also bei allen Messungen immer die gleiche LDAT-Logitech-Maus! Die Sharkoon Light² 100 ist für den täglichen Gebrauch. Für die Messungen ist die Sharkoon Light² ungeeignet, weil sie nicht mit LDAT gekoppelt ist. Warum reite ich so auf der Maus rum? Das war unteranderem ein Kritikpunkt. Was ist das Wesentliche? Die beste Maus für die Messungen zu nutzen, oder die im Titel des Artikels erwähnten Gimmicks in Bezug auf die Systemlatenz zu vergleichen? Hilfsziel: Es ging nicht um die Maus! Des Weiteren wurde die Anbindung der Maus bzw. die von LDAT in Frage gestellt. Ok, das ist berechtigt. Dann schauen wir mal, welchen Einfluss der USB-Port auf die Messungen hat. Nächste Seite bitte!

Lade neue Kommentare

Tim Kutzner

Veteran

228 Kommentare 98 Likes

Hätte mich auch gewundert, wenn die elektrischen Signale von einem USB 2.0 Port sich langsamer durch die Leiterbahnen bewegen, als von einem 3.0 Port :D

Antwort 4 Likes

grimm

Urgestein

1,358 Kommentare 550 Likes

@FritzHunter01 Die Messungen sind wirklich hilfreich, auch um Abhängigkeiten zu verstehen.
Mir ging es mit meinen Posts eher darum, die ewige "Nvidia hat die Nase vorn"-Leier zu relativieren. Hab selber ne 2080S drin würde aber wegen < 50 ms nie auf die Idee kommen, keine AMD zu kaufen.

Antwort 1 Like

H
Headyman

Mitglied

37 Kommentare 11 Likes

Danke für diesen Artikel. Finde es immer wieder schön Fakten statt Mythen zu lesen. Ohne Messergebnisse bleiben halt immer Unsichheiten und so ein komplexes PC System ist ja trotzdem manchmal für Überraschungen gut...
Immerhin muss ich mir jetzt nicht mehr den Kopf zerbrechen, ob ich die Maus nicht doch lieber in einer anderen USB Port stecken sollte (die CPU angebunden Ports muss man ja auch erstmal finden).

Noch ne Anmerkung
Ich kann es nachvollziehen, wenn einem Aufgrund von Kommentaren der Kragen platzt. Es etwas weniger "Würze" im Artikel wäre mir lieber. So bekommt der inhaltlich tolle Artikel etwas "Geschmäckle", und erzeugt bei mir als Leser ein Gefühl, das mir der Author es unbedingt mal zeigen wollte... (dabei habe ich doch gar nix gesagt gehabt) ;)

Antwort Gefällt mir

Klicke zum Ausklappem
FritzHunter01

Moderator

257 Kommentare 167 Likes

Mit meinen Messungen soll auch nicht das Kaufverhalten in Gänze beeinflusst werden. Ziel ist es, die Marketing-Folien der Hersteller zu hinterfragen und wenn beide damit werben, Ultimate Latency reduction, dann schauen wir mal genau hin...

Antwort 1 Like

FritzHunter01

Moderator

257 Kommentare 167 Likes

Ja, das ist richtig!

Es musste aber sein, da es einfach zu viele Mythen gab, die dann zur Wahrheit mannifestiert wurden. Da muss man auch mal tacheles Reden!

Antwort 1 Like

D
Deridex

Urgestein

1,661 Kommentare 483 Likes

Als wenn die Leiterbahnlänge auf dem Mainboard da einen nennenswerten Einfluss hat...

Antwort Gefällt mir

G
Guest

Mit den 360Hz Monitoren wird es ein Analysetool geben und die USB Ports an diesen Monitoren bevorzugen einen einfachen aber vorrangigen Passthrough, an den man die Maus auch stepseln soll (Bluetoothgeräte sind dafür ungeeignet). Mit Razer, Asus und Logitech wird man dann die Peripherielatenz und die "volle" Ende zu Ende Latenz vermessen können. Ich vermute das LDAT inklusive Update dann Teil der Hardware dieser Monitore ist (Kosten mal außen vor).

Und nochmal, man misst mit LDAT nicht allein die Latenz der Grafikkarte. Reflex hat den Vorteil wenn Spiele CPU lastig ausfallen, den Boosttakt der GPU zu beeinflussen und so Energie zu sparen, andersherum auch mehr Energie zu verbrauchen (indem man die Energiesparfunktionen abschaltet, oder einen kurzzeitigen aber hohen Boost zulässt) um die Framerate immer kurz unter GPU Limit zu halten.

AMD geht mit Antilag einen ähnlichen Weg, wobei der Treiber versucht zu analysieren wann Eingabelatenz für die Render Queue und deren Abarbeitung wichtig wird, unter Reflex SDK kann der Entwickler gleich darauf eingehen. Overwatch unterstützt keinen AMD Boost Modus, man vergleicht also Nvidia Reflex SDK mit einem Antilag Modus des Treibers (an dem Reflex Mode hat Nvidia kaum Anteile, sie stellen nur den SDK inkluisve Support für Devs bereit, der Rest bleibt dann denen vorbehalten), wer da bei vollen Reflex-Support gewinnt ist vollkommen klar. Nvidias internem Low Latency Mode über den Treibersupport geht es nicht anders. Vor allem wenn über die Szenarien die Auslastung dynamisch wechselt und der PC oder dessen Systemlatenz abhängig von Eingabe, CPU (Limit) oder GPU (Limit) ist.

Zu unterstellen die Artikel werden hier nicht gelesen oder nicht richtig verstanden, naja hat einen eigenartigen Beigeschmack. Muss die Redaktion schlussendlich selbst wissen. Es gibt ein vollständiges Tutorial, welches man über Nvidia Reflex abrufen kann, dort wird auch inhaltlich erklärt worum es geht und welche interne Funktion wie unterstützt wird.

Antwort Gefällt mir

Klicke zum Ausklappem
grimm

Urgestein

1,358 Kommentare 550 Likes

Das ist dann wohl eine von den Antworten, auf die sich der Autor bezieht. Ich kann und will das nicht nachvollziehen (dauert Millionen von Milisekunden ;)) - klar ist aber, dass der "Vorteil" im Toleranzbereich der eigenen Leistungsfähigkeit liegt. Treiber hin, SDK her.

Antwort 1 Like

G
Guest

Dein Beitrag passt leider auch nicht, es liegt nicht an der eignen Leistungsfähigkeit, mal genauer lesen! Wenn irgendwann nur noch die "Autorenmeinung" und dabei eigene Vorlieben zählen, braucht man kein Diskussionsforum mehr. Außer zur eigenen Beweihräucherung.

Antwort Gefällt mir

g
goch

Veteran

309 Kommentare 82 Likes

Schöner Artikel, auch wenn ich einen etwas weniger 'anschreienden' Schreibstil bevorzugt hätte.

Das Fazit kann ich nicht ganz nachvollziehen. Korrigier mich gerne, aber der Test zeigt doch an zwei komplett unterschiedlichen PCs das gleiche Ergebnis: Die Varianz bei USB2.0 liegt immer höher (einmal knapp 10%, einmal knapp 20%).

Also selbst bei identischen Aufbauten hat der USB-Port schon eine Auswirkung.

Obwohl ich immer noch der Meinung bin, wie anscheinend auch die Mehrheit hier, dass diese paar Millisekunden für mich persönlich wirklich irrelevant sind.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung