Grundlagenartikel USB-Ports und Latenzmessungen – Mythen und Realität | Praxis

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Nach dem letzten Artikel zum Thema Systemlatenz (NVIDIA Reflex & Boost vs. Radeon Boost und NULL vs. AMD Anti-Lag), sollten wir dringend ein paar Dinge zum Thema Testen besprechen. Deshalb schauen wir uns heute NVIDIA LDAT in Bezug auf die verwendeten USB-Ports an. Hierzu habe ich zwei unterschiedliche Möglichkeiten bzgl. der Verwendung von LDAT getestet. […]

Hier den ganzen Artikel lesen
 
@FritzHunter01 Die Messungen sind wirklich hilfreich, auch um Abhängigkeiten zu verstehen.
Mir ging es mit meinen Posts eher darum, die ewige "Nvidia hat die Nase vorn"-Leier zu relativieren. Hab selber ne 2080S drin würde aber wegen < 50 ms nie auf die Idee kommen, keine AMD zu kaufen.
 
Danke für diesen Artikel. Finde es immer wieder schön Fakten statt Mythen zu lesen. Ohne Messergebnisse bleiben halt immer Unsichheiten und so ein komplexes PC System ist ja trotzdem manchmal für Überraschungen gut...
Immerhin muss ich mir jetzt nicht mehr den Kopf zerbrechen, ob ich die Maus nicht doch lieber in einer anderen USB Port stecken sollte (die CPU angebunden Ports muss man ja auch erstmal finden).

Noch ne Anmerkung
Ich kann es nachvollziehen, wenn einem Aufgrund von Kommentaren der Kragen platzt. Es etwas weniger "Würze" im Artikel wäre mir lieber. So bekommt der inhaltlich tolle Artikel etwas "Geschmäckle", und erzeugt bei mir als Leser ein Gefühl, das mir der Author es unbedingt mal zeigen wollte... (dabei habe ich doch gar nix gesagt gehabt) ;)
 
@FritzHunter01 Die Messungen sind wirklich hilfreich, auch um Abhängigkeiten zu verstehen.
Mir ging es mit meinen Posts eher darum, die ewige "Nvidia hat die Nase vorn"-Leier zu relativieren. Hab selber ne 2080S drin würde aber wegen < 50 ms nie auf die Idee kommen, keine AMD zu kaufen.
Mit meinen Messungen soll auch nicht das Kaufverhalten in Gänze beeinflusst werden. Ziel ist es, die Marketing-Folien der Hersteller zu hinterfragen und wenn beide damit werben, Ultimate Latency reduction, dann schauen wir mal genau hin...
 
Zuletzt bearbeitet :
Danke für diesen Artikel. Finde es immer wieder schön Fakten statt Mythen zu lesen. Ohne Messergebnisse bleiben halt immer Unsichheiten und so ein komplexes PC System ist ja trotzdem manchmal für Überraschungen gut...
Immerhin muss ich mir jetzt nicht mehr den Kopf zerbrechen, ob ich die Maus nicht doch lieber in einer anderen USB Port stecken sollte (die CPU angebunden Ports muss man ja auch erstmal finden).

Noch ne Anmerkung
Ich kann es nachvollziehen, wenn einem Aufgrund von Kommentaren der Kragen platzt. Es etwas weniger "Würze" im Artikel wäre mir lieber. So bekommt der inhaltlich tolle Artikel etwas "Geschmäckle", und erzeugt bei mir als Leser ein Gefühl, das mir der Author es unbedingt mal zeigen wollte... (dabei habe ich doch gar nix gesagt gehabt) ;)
Ja, das ist richtig!

Es musste aber sein, da es einfach zu viele Mythen gab, die dann zur Wahrheit mannifestiert wurden. Da muss man auch mal tacheles Reden!
 
Zuletzt bearbeitet :
Hätte mich auch gewundert, wenn die elektrischen Signale von einem USB 2.0 Port sich langsamer durch die Leiterbahnen bewegen, als von einem 3.0 Port :D
Als wenn die Leiterbahnlänge auf dem Mainboard da einen nennenswerten Einfluss hat...
 
Mit den 360Hz Monitoren wird es ein Analysetool geben und die USB Ports an diesen Monitoren bevorzugen einen einfachen aber vorrangigen Passthrough, an den man die Maus auch stepseln soll (Bluetoothgeräte sind dafür ungeeignet). Mit Razer, Asus und Logitech wird man dann die Peripherielatenz und die "volle" Ende zu Ende Latenz vermessen können. Ich vermute das LDAT inklusive Update dann Teil der Hardware dieser Monitore ist (Kosten mal außen vor).

Und nochmal, man misst mit LDAT nicht allein die Latenz der Grafikkarte. Reflex hat den Vorteil wenn Spiele CPU lastig ausfallen, den Boosttakt der GPU zu beeinflussen und so Energie zu sparen, andersherum auch mehr Energie zu verbrauchen (indem man die Energiesparfunktionen abschaltet, oder einen kurzzeitigen aber hohen Boost zulässt) um die Framerate immer kurz unter GPU Limit zu halten.

AMD geht mit Antilag einen ähnlichen Weg, wobei der Treiber versucht zu analysieren wann Eingabelatenz für die Render Queue und deren Abarbeitung wichtig wird, unter Reflex SDK kann der Entwickler gleich darauf eingehen. Overwatch unterstützt keinen AMD Boost Modus, man vergleicht also Nvidia Reflex SDK mit einem Antilag Modus des Treibers (an dem Reflex Mode hat Nvidia kaum Anteile, sie stellen nur den SDK inkluisve Support für Devs bereit, der Rest bleibt dann denen vorbehalten), wer da bei vollen Reflex-Support gewinnt ist vollkommen klar. Nvidias internem Low Latency Mode über den Treibersupport geht es nicht anders. Vor allem wenn über die Szenarien die Auslastung dynamisch wechselt und der PC oder dessen Systemlatenz abhängig von Eingabe, CPU (Limit) oder GPU (Limit) ist.

Zu unterstellen die Artikel werden hier nicht gelesen oder nicht richtig verstanden, naja hat einen eigenartigen Beigeschmack. Muss die Redaktion schlussendlich selbst wissen. Es gibt ein vollständiges Tutorial, welches man über Nvidia Reflex abrufen kann, dort wird auch inhaltlich erklärt worum es geht und welche interne Funktion wie unterstützt wird.
 
Zuletzt bearbeitet von einem Moderator :
Mit den 360Hz Monitoren wird es ein Analysetool geben und die USB Ports an diesen Monitoren bevorzugen einen einfachen aber vorrangigen Passthrough, an den man die Maus auch stepseln soll (Bluetoothgeräte sind dafür ungeeignet). Mit Razer, Asus und Logitech wird man dann die Peripherielatenz und die "volle" Ende zu Ende Latenz vermessen können. Ich vermute das LDAT inklusive Update dann Teil der Hardware dieser Monitore ist (Kosten mal außen vor).

Und nochmal, man misst mit LDAT nicht allein die Latenz der Grafikkarte. Reflex hat den Vorteil wenn Spiele CPU lastig ausfallen, den Boosttakt der GPU zu beeinflussen und so Energie zu sparen, andersherum auch mehr Energie zu verbrauchen (indem man die Energiesparfunktionen abschaltet, oder einen kurzzeitigen aber hohen Boost zulässt) um die Framerate immer kurz unter GPU Limit zu halten.

AMD geht mit Antilag einen ähnlichen Weg, wobei der Treiber versucht zu analysieren wann Eingabelatenz für die Render Queue und deren Abarbeitung wichtig wird, unter Reflex SDK kann der Entwickler gleich darauf eingehen. Overwatch unterstützt keinen AMD Boost Modus, man vergleicht also Nvidia Reflex SDK mit einem Antilag Modus des Treibers (an dem Reflex Mode hat Nvidia kaum Anteile, sie stellen nur den SDK inkluisve Support für Devs bereit, der Rest bleibt dann denen vorbehalten), wer da bei vollen Reflex-Support gewinnt ist vollkommen klar. Nvidias internem Low Latency Mode über den Treibersupport geht es nicht anders. Vor allem wenn über die Szenarien die Auslastung dynamisch wechselt und der PC oder dessen Systemlatenz abhängig von Eingabe, CPU (Limit) oder GPU (Limit) ist.

Zu unterstellen die Artikel werden hier nicht gelesen oder nicht richtig verstanden, naja hat einen eigenartigen Beigeschmack. Muss die Redaktion schlussendlich selbst wissen. Es gibt ein vollständiges Tutorial, welches man über Nvidia Reflex abrufen kann, dort wird auch inhaltlich erklärt worum es geht und welche interne Funktion wie unterstützt wird.
Das ist dann wohl eine von den Antworten, auf die sich der Autor bezieht. Ich kann und will das nicht nachvollziehen (dauert Millionen von Milisekunden ;)) - klar ist aber, dass der "Vorteil" im Toleranzbereich der eigenen Leistungsfähigkeit liegt. Treiber hin, SDK her.
 
Dein Beitrag passt leider auch nicht, es liegt nicht an der eignen Leistungsfähigkeit, mal genauer lesen! Wenn irgendwann nur noch die "Autorenmeinung" und dabei eigene Vorlieben zählen, braucht man kein Diskussionsforum mehr. Außer zur eigenen Beweihräucherung.
 
Schöner Artikel, auch wenn ich einen etwas weniger 'anschreienden' Schreibstil bevorzugt hätte.

Das Fazit kann ich nicht ganz nachvollziehen. Korrigier mich gerne, aber der Test zeigt doch an zwei komplett unterschiedlichen PCs das gleiche Ergebnis: Die Varianz bei USB2.0 liegt immer höher (einmal knapp 10%, einmal knapp 20%).

Also selbst bei identischen Aufbauten hat der USB-Port schon eine Auswirkung.

Obwohl ich immer noch der Meinung bin, wie anscheinend auch die Mehrheit hier, dass diese paar Millisekunden für mich persönlich wirklich irrelevant sind.
 
Schöner Artikel, auch wenn ich einen etwas weniger 'anschreienden' Schreibstil bevorzugt hätte.

Das Fazit kann ich nicht ganz nachvollziehen. Korrigier mich gerne, aber der Test zeigt doch an zwei komplett unterschiedlichen PCs das gleiche Ergebnis: Die Varianz bei USB2.0 liegt immer höher (einmal knapp 10%, einmal knapp 20%).

Also selbst bei identischen Aufbauten hat der USB-Port schon eine Auswirkung.

Obwohl ich immer noch der Meinung bin, wie anscheinend auch die Mehrheit hier, dass diese paar Millisekunden für mich persönlich wirklich irrelevant sind.
Du triffst den Nagel am Kopf!!!

Was ist das Wesentliche? Latenzen zwischen GPUs zu vergleichen? Dann lassen wir den Messaufbau, egal ob USB 2.0 whatever, einfach wie er ist. Dann sind die Ergebnisse vergleichbar (zumindest vom Aufbau her)!

Das Reflex und Radeon Boost der klassische Vergleich Birne und Apfel ist, das weiß ich auch! DLSS und FSR wird die gleiche Diskussion geben, so war ich schreibe.

Wie es AMD oder Nvidia letztlich angehen, um etwas zu verbessern, das liegt nicht in meiner Hand. Ich vergleiche diese Techniken nur auf eine messbare Art und Weise! Ziel: Schauen, ob die PR auf den Folien stimmt. Das mache ich nüchtern und auf Zahlen/Daten/Fakten basiert. An der ein oder anderen Stelle kommt mal ein Witz oder gar Sakasmus rüber. Ja, das nenne ich mal künstlicher Freiheit.

Ich kann es nicht allen recht machen, das mir klar! Es geht mir auch nicht darum, eine Diskussion im Keim zu ersticken! @gastello
Mit den 360Hz Monitoren wird es ein Analysetool geben und die USB Ports an diesen Monitoren bevorzugen einen einfachen aber vorrangigen Passthrough, an den man die Maus auch stepseln soll (Bluetoothgeräte sind dafür ungeeignet). Mit Razer, Asus und Logitech wird man dann die Peripherielatenz und die "volle" Ende zu Ende Latenz vermessen können. Ich vermute das LDAT inklusive Update dann Teil der Hardware dieser Monitore ist (Kosten mal außen vor).

Und nochmal, man misst mit LDAT nicht allein die Latenz der Grafikkarte. Reflex hat den Vorteil wenn Spiele CPU lastig ausfallen, den Boosttakt der GPU zu beeinflussen und so Energie zu sparen, andersherum auch mehr Energie zu verbrauchen (indem man die Energiesparfunktionen abschaltet, oder einen kurzzeitigen aber hohen Boost zulässt) um die Framerate immer kurz unter GPU Limit zu halten.

AMD geht mit Antilag einen ähnlichen Weg, wobei der Treiber versucht zu analysieren wann Eingabelatenz für die Render Queue und deren Abarbeitung wichtig wird, unter Reflex SDK kann der Entwickler gleich darauf eingehen. Overwatch unterstützt keinen AMD Boost Modus, man vergleicht also Nvidia Reflex SDK mit einem Antilag Modus des Treibers (an dem Reflex Mode hat Nvidia kaum Anteile, sie stellen nur den SDK inkluisve Support für Devs bereit, der Rest bleibt dann denen vorbehalten), wer da bei vollen Reflex-Support gewinnt ist vollkommen klar. Nvidias internem Low Latency Mode über den Treibersupport geht es nicht anders. Vor allem wenn über die Szenarien die Auslastung dynamisch wechselt und der PC oder dessen Systemlatenz abhängig von Eingabe, CPU (Limit) oder GPU (Limit) ist.

Zu unterstellen die Artikel werden hier nicht gelesen oder nicht richtig verstanden, naja hat einen eigenartigen Beigeschmack. Muss die Redaktion schlussendlich selbst wissen. Es gibt ein vollständiges Tutorial, welches man über Nvidia Reflex abrufen kann, dort wird auch inhaltlich erklärt worum es geht und welche interne Funktion wie unterstützt wird.
LDAT misst die gesammte Latenz, somit die GPU dabei. Egal welches Tool hier seitens Treiber, Spiel etc noch mit auf dem Zettel steht. Der Fokus liegt einzig auf den Latenzergebnissen (Das Boost den Max-Takt auch im CPU Limit anlegen lässt, das is bekannt) Mir geht es nicht um die Effizienz, den Takt oder was man sonst so alles messen kann. Latenzen ist mein Thema! Dazu hab ich bisher weder von AMD noch von Nvidia eine Belehrung bekommen, dass meine Methode falsch wäre. Oder der gleichen! Im gegenteil, die sind völlig überrascht, wenn ich mit Ergebnissen um die Ecke komme, die AMD und Nvidia helfen, etwas noch besser zu machen oder Probleme zu beheben. Nicht alles was ich in meiner Freizeit mache, kommt hier online! Auch sollte nie der Eindruck entstehen, dass ich dafür bezahlt werden. Weder von Igor, noch von Nvidia oder AMD kommt hier eine finanzielle Beteiligung!
Dein Beitrag passt leider auch nicht, es liegt nicht an der eignen Leistungsfähigkeit, mal genauer lesen! Wenn irgendwann nur noch die "Autorenmeinung" und dabei eigene Vorlieben zählen, braucht man kein Diskussionsforum mehr. Außer zur eigenen Beweihräucherung.
Gerne können wir das Thema (mit wlecher Hardware kann ich besten Latenzen fahren) mal durchsprechen und schauen wie wir das messen. Reflex Monitor, beste Maus, Tastatur usw. dann lautet aber auch der Titel anders!

Ich biete dir das ganz offen an: Über Skype anrufen und ich höre mir deine Ideenm, Verbesserungen etc an! Das gesproche Wort ist mehr wert als tausend und ein Missverständnis hier ins Forum geschrieben!
 
Da bist Du etwas spät dran. Gastello hat vorhin hier den Stecker gezogen.
 
Schöner Artikel, auch wenn ich einen etwas weniger 'anschreienden' Schreibstil bevorzugt hätte.

Das Fazit kann ich nicht ganz nachvollziehen. Korrigier mich gerne, aber der Test zeigt doch an zwei komplett unterschiedlichen PCs das gleiche Ergebnis: Die Varianz bei USB2.0 liegt immer höher (einmal knapp 10%, einmal knapp 20%).

Also selbst bei identischen Aufbauten hat der USB-Port schon eine Auswirkung.

Obwohl ich immer noch der Meinung bin, wie anscheinend auch die Mehrheit hier, dass diese paar Millisekunden für mich persönlich wirklich irrelevant sind.
Ja, da hast du Recht, aber wir reden hier von ca. 1 ms. Das liegt auch im Bereich der Messtoleranz. Mal ist Varianz beim USB 2.0 etwas höher und mal etwas niedriger. Rechnet man das in Prozent aus, dann entsteht hier ein extremer Eindruck, den man völlig falsch aufschnappen kann. Daher hab ich hier auch keinen %-Vergleich gewählt sondern die ms mal offen dargestellt.

Wie ich bereits betont habe, ist es für den der Mesungen macht wichtig, dass der Messaufbau immer gleich bleibt. In meinem Fall hängt LDAT jetzt am zweiten PC am USB 3.1 Gen 2. Das bleibt auch so... Die Logitech hängt wie angesprochen am USB 3.2 Gen 2...
 
Danke dir @FritzHunter01 !

Wenn ich es richtig verstehe, heißt es doch das die Streuung deutlich größer ist. Auch wenn man sich den Graph anschaut, sieht das für mich so als, als hätte ich zB deutlich mehr Fälle bei denen es 50ms statt 30ms sind bei USB2.0 gegenüber USB3.0

Noch einmal, mir sind diese Latenzen relativ egal bei meiner Motivation, aber gerade in Anbetracht dieser Aussage (die ich ja teile) finde ich die Erkenntnis doch überraschend:
Hätte mich auch gewundert, wenn die elektrischen Signale von einem USB 2.0 Port sich langsamer durch die Leiterbahnen bewegen, als von einem 3.0 Port
 
Danke dir @FritzHunter01 !

Wenn ich es richtig verstehe, heißt es doch das die Streuung deutlich größer ist. Auch wenn man sich den Graph anschaut, sieht das für mich so als, als hätte ich zB deutlich mehr Fälle bei denen es 50ms statt 30ms sind bei USB2.0 gegenüber USB3.0

Noch einmal, mir sind diese Latenzen relativ egal bei meiner Motivation, aber gerade in Anbetracht dieser Aussage (die ich ja teile) finde ich die Erkenntnis doch überraschend:
Ich verstehe nicht, was genau du mir sagen willst...

Mir ist gearde noch eine Idee gekommen, ich kann die gemessen Werte mal mit Minitab in Bezug auf die Prozessfähigkeit auswerten.

Hier nochmal die Folien:

Bild2.png

Bild3.png

Was genau meinst du?
 
Ich verstehe nicht, was genau du mir sagen willst...

Mir ist gearde noch eine Idee gekommen, ich kann die gemessen Werte mal mit Minitab in Bezug auf die Prozessfähigkeit auswerten.

Hier nochmal die Folien:

Anhang anzeigen 13355

Anhang anzeigen 13356

Was genau meinst du?

Genau! "stdev" sollte ja für die Standardabweichung stehen, eine Durschschnitt ohne diesen Wert ist ja (gerade für solche Messungen) nicht wirklich interssant, wenn die Latenzen sehr schwanken.

Wenn man sich jetzt den Graph dazu obendrüber ansieht, sieht man ja Balken. Die Reaktionszeit auf der x-Achse. Die y-Achse ist leider nicht beschriftet oder ich finde es nicht - daher vermute ich, dass es sich um die Anzahl der Messergebnisse handelt. Und dort sieht z.B., dass bei USB2 deutlich mehr Messungen bei 50ms sind als bei USB3.

Aber a) vielleicht sehe ich das auch einfach falsch und b) so richtig wichtig ist es ja auch nicht ;)
 
@FritzHunter01 Die Messungen sind wirklich hilfreich, auch um Abhängigkeiten zu verstehen.
Mir ging es mit meinen Posts eher darum, die ewige "Nvidia hat die Nase vorn"-Leier zu relativieren. Hab selber ne 2080S drin würde aber wegen < 50 ms nie auf die Idee kommen, keine AMD zu kaufen.
50ms?
Du stellst es ja so dar als würde AMD grundsätzlich einen höheren InputLag haben. :rolleyes: Das was in dem anderem Beitrag getestet wurde ist overwatch mit 200Scale, was niemand, der auf Latenz achtet, einstellen würde. Es wurde hier ja nur gewählt um reflex und RadeonFX Boost zu "testen". Mach bei der AMD Karte einen Framelimiter rein und die Latenzen sind besser als mit nvidias reflex und das ohne dass die halbe InputLoop im Spiel umgeschrieben wurde.
 
50ms?
Du stellst es ja so dar als würde AMD grundsätzlich einen höheren InputLag haben. :rolleyes: Das was in dem anderem Beitrag getestet wurde ist overwatch mit 200Scale, was niemand, der auf Latenz achtet, einstellen würde. Es wurde hier ja nur gewählt um reflex und RadeonFX Boost zu "testen". Mach bei der AMD Karte einen Framelimiter rein und die Latenzen sind besser als mit nvidias reflex und das ohne dass die halbe InputLoop im Spiel umgeschrieben wurde.
Nein, tu ich nicht. Das Messergebnis (Latenz Gesamtsystem) lag bei AMD ca. 40ms "hinter" dem von Nvidia. Darauf beziehe ich mich.
Und glaub mir: Es gibt genug Jungspunde die aus dem doch recht differenzierten Artikel nur wieder "Nvidia ist schneller als AMD" mitnehmen - ohne Bezüge zu den Anwendungen oder einen Blick für das große Ganze.
 
Oben Unten