Wenn es um das Thema Latenzen geht, dann hört/liest man oft, dass sich die adaptiven Sync-Technologien negativ auf die Latenzen auswirken sollen. Hmm? Versucht man es sich selbst zu erklären, dann könnte das durchaus sein. Nehmen wir an, ihr habt einen 144 Hz Monitor mit FreeSync oder G-SYNC und bestrahlt den mit 300 FPS. Was ja bedeutet, dass die Sync-Technologien jetzt eingreifen, um die 300 FPS den 144 Hz anzupassen. Hier könnte es jetzt sein, dass die Software bzw. die Hardware die Systemlatenz zum Nachteil beeinflussen. Ob das so wirklich stimmt, wie man es durchaus in einigen Foren oder YouTube-Videos dieser Welt hört und liest?

Das schauen wir uns in diesem Artikel einfach einmal genauer an! Vorab noch zur Klarstellung, die Systemlatenz ist das was ich hier bzw. im letzten Artikel gemessen habe. Die Serverlatenz ist hier als Teilprodukt mit integriert. Leider kann ich auf die Serverlatenz wenig bis gar keinen Einfluss nehmen. Wer also eine gute DSL, Kabel oder Glasfaserverbindung hat und den RegEdit Eintrag – Dword: TCPAckFrequency = 1 setzt, der sollte hier eine recht niedrige Serverlatenz haben. Wer allerdings über das Handynetz zockt, der kann ggf. eine deutlich schlechtere Serverlatenz erfahren. Leider ist Deutschland in Bezug auf das Thema Breitband-Internet ein Entwicklungsland. Aber dafür zahlen wir im Vergleich zu anderen europäischen Ländern wenigstens das meiste Geld, für die schlechteste Netzabdeckung. Das hat doch auch was!
Dazu vorab der Hinweis auf die bereits veröffentlichten Artikel von Igor bzgl. Nvidia LDAT (klick hier) sowie meinem letzten Artikel zum Thema Nvidia Reflex (klick hier). Beide bilden in gewisser Weise die Basis für einen weiteren Teil meiner Artikelreihe zum Thema Latenzen.
Testsystem
Bevor wir anfangen, hier das Testsystem:
CPU | Ryzen 7 2700X (4,2 GHz all core) |
Mainboard | MSI MAG X570 ACE |
RAM | 2×8 GB G.Skill RipJaws V 3200 MHz CL16-18-18-38 (single ranked) |
SSD 1 | Toshiba Transcend 110S 256 GB (System) |
SSD 2 | Crucial P2 1000 GB (Spiele) |
SSD 3 | Crucial P2 1000 GB (Spiele) |
SSD 4 | Samsung 512 GB 840 Pro (Backup) |
CPU Kühler | MSI MAG Coreliquid 360R |
Netzteil | Seasonic Prime Platinum 1300 Watt |
GPU | MSI RTX 3080 Suprim X |
Sound | SoundblasterX AE-5 Plus |
Tastatur | Sharkoon PureWriter RBG (Red Taster) @1000 Hz Polling Rate |
Maus | Sharkoon Light² 100 @1000 Hz Polling Rate |
Messtechnik | NVIDIA LDAT Hardware mit Logitech G203 Prodigy @1.000 Hz Polling Rate |
Monitor 1 | MSI Oculux NXG252R 240 Hz via DP (Nvidia G-SYNC) |
Monitor 2 | AOC G2778VQ 75 Hz via DP (AMD FreeSync) |
Nvidia-Treiberkonfiguration und die Windowseinstellungen
Die Treibereinstellungen entsprechen im Wesentlichen denen des Artikels über Nvidia Reflex und Boost. Einziger Unterschied, ich habe die Einstellung G-SYNC an- und ausgeschaltet, um mögliche Unterschiede festzustellen! V-Sync habe ich im Spiel aktiviert bzw. deaktiviert. Mit dem MSI Afterburner habe ich das Power-Limit der RTX 3080 auf das maximum angehoben. (siehe Bild) Hier seht ihr auch den verwendeten Nvidia-Treiber-Stand 465.89.
Windows war zum Zeitpunkt der Messungen auf dem aktuellen Stand und die Einstellungen bzgl. Spiele und Grafik sind gleich zum letzten Artikel (Nvidia Reflex).
134 Antworten
Kommentar
Lade neue Kommentare
Urgestein
Urgestein
Moderator
Moderator
Urgestein
Urgestein
Urgestein
Moderator
Urgestein
Moderator
Urgestein
Moderator
Urgestein
Neuling
Mitglied
Neuling
Moderator
Alle Kommentare lesen unter igor´sLAB Community →