Dem heutigen Beitrag muss ich zunächst einmal einen kleinen Absatz als Vorwort voranstellen, denn ich will dem Ganzen den Hauch der Sensation nehmen. Trotzdem muss man darüber schreiben und man muss es auch zuvor emotionslos austesten. Das Video von Hardware Unboxed hat mich da noch nicht einmal sonderlich überrascht, denn wir haben in einem aktuellen Testprojekt (Danke an Fritz Hunter!) zu Lags und Latenzen sehr ähnliche Beobachtungen machen können und sind anfangs an der Inkonsistenz mancher Messdaten geradezu verzweifelt.
Der Artikel zu den Latenzmessungen kommt natürlich noch, aber heute habe ich, auch aus aktuellem Anlass, mal eine Messreihe erstellt und diese auch sehr ausführlich dokumentiert.
Wichtige Vorbemerkung
Den Kollegen von Hardware Unboxed kann man sicher zutrauen, dass sie genau wissen, was und wie sie das alles getestet haben. Deshalb habe ich eine Wiederholung und Reproduktion für mich ausgeschlossen. Das ist einfach nicht zielführend, weil es redundanter Inhalt wäre. Deshalb habe ich die Herangehensweise komplett geändert. Das habe ich in voller Absicht getan, auch wenn es vielleicht die eine oder andere Frage offen lässt. Aber ich bin nicht der einzige Tester auf der Welt und überlasse den Rest aus Zeitgründen gern anderen.
Um alle möglichen Einflüsse durch unterschiedliche Motherboards, CPUs, Speichermodule und Betriebssysteminstallationen ausschließen zu können, habe ich alle Benchmarks mit einem exemplarisch im Vorfeld speziell herausgesuchten DirectX12-Spiel auf ein und derselben Plattform erstellt, welches von 2 bis hin zu 8 Kernen (jeweils SMT on) noch sauber über 4 bis 16 Threads skaliert. Zum Einsatz kommen zwei in diesem Spiel bei WQHD-Auflösung in etwa gleich schnelle Grafikkarten von NVIDIA und AMD sowie ein Ryzen 7 5800X, den ich zur Erzeugung des CPU-Flaschenhalses stufenweise auf bis zu 2 Kerne / 4 Threads reduziert habe. Es sind aktuelle Treiber installiert und das Spiel wurde komplett gepatcht. Die Bildschirmauflösung reicht von 720p, 1080p und 1440p bis hin zu 2160p.
Als Spiel nutze ich absichtlich Horizon Zero Dawn, denn meine Vermutung, warum es vielleicht zu diesen dokumentierten Leistungseinbrüchen kommt, geht in eine leicht andere Richtung als ein bloßer Treiber-Overhead. Das Spiel nutzt ziemlich extensiv Asynchronous Compute, also eine Art Multithreading, mit dessen Hilfe es möglich sein soll, Workloads besser auf die GPU verteilen zu können. Außerdem kommt in der Engine ein sogenannter Single Pass Downsampler zum Einsatz, welcher die asynchrone Berechnung zur Beschleunigung des Textur-Mappings ermöglichen soll. Wenn es Nachteile beim Asynchronous Compute geben sollte, dann wird genau dieses Spiel es auch sehr gut repräsentieren können.
Kommen wir nun zum Testaufbau. Zum Einsatz kommt ein wassergekühlter Ryzen 7 5800X ohne manuelle Übertaktung, PBO ist jedoch aktiv. Dazu gesellen sich auf dem MSI MEG X570 Godlike noch 2x 16 GB Corsair Vengeance RGB Pro DDR4 4000, die jedoch aus Stabilitätsgründen seit einigen AGESA-Versionen mit 3800 MHz laufen (FCLK 1900 MHz). Als Grafikkarten verwende ich zwei werksübertaktete Custom-Modelle in Form der MSI Radeon RX 6900XT Gaming X Trio und der MSI GeForce RTX 3090 SUPRIM. Ausgewertet wird danach in der vollen Bandbreite meiner verfügbaren Metriken, einschließlich Varianzen (sehr aufschlussreich!), Leistungsaufnahme und logischerweise auch Effizienz. Ihr werdet noch staunen!
Analyse der Mindestkonfiguration und Limits
Zunächst habe ich getestet, ab wann die CPU-Limitierung über alle vier Auflösungen durchschlägt. Das passierte erst beim Einsatz von 2 Kernen / 4 Threads und es spielt fast keine Rolle, ob man nun 4 Kerne ohne SMT oder 2 Kerne mit SMT nutzt, das Ergebnis ist in etwa immer gleich (schlecht). Die in 720p schnellste Karte erreicht mit 8 Kernen knapp 200 FPS, bei dieser Minimalkonfiguration ist es dann jedoch nur noch die Hälfte. Aber nur bei der Reduzierung auf diese zwei Kerne konnte ich in 2160p (Ultra-HD) überhaupt einen signifikanten Unterschied messen.
Somit ergibt sich für mich, dass ich alle vier Auflösungen mit 2, 4, 6 und 8 Kernen absolvieren muss, also insgesamt 16 Benchmarks pro Karte. Diese insgesamt 32 Runs habe ich allerdings zu meiner Sicherheit jeweils fünf Mal laufen lassen, wobei die ersten beiden Runs im Aufwärmvorgang gestrichen wurden. Aus den verbleibenden drei Ergebnissen habe ich dann immer den Datensatz mit der Performance genommen, die dem Durchschnitt der drei gewerteten Runs am ehesten entsprach.
Also insgesamt ergibt dies stolze 5 x 32 x 177 Sekunden (also knapp 8 Stunden) reine Benchmark-Zeit, dazu kommen Umbau und BIOS-Konfiguration, das Speichern und Auswerten der ganzen Daten sowie die ganzen Chartsgrafiken. Das dauert schon ein wenig und gilt für die, die immer meinen, es wäre schon besser, gleich 10 Spiele zu komplett benchmarken. Eines, wenn es das richtige ist, reicht nämlich völlig aus und spart zudem bis zu drei günstige Volontäre, die ich leider nicht einmal habe.
Wir sehen sehr schön die konstante Limitierung beider Grafikkarten im kompletten CPU-Limit und einheitlicher Testumgebung. Daraus kann man bereits zwei erste Schlüsse ziehen:
Das signifikante Limit der Radeon RX 6900XT in Ultra-HD bei der noch in WQHD sogar um 7 Prozentpunkte schnelleren Karte tritt auch dann auf, wenn bereits ein CPU-Flaschenhals messbar ist. Der Nachteil der Radeon in 2160p gegenüber der GeForce ist prozentual in etwa gleich groß wie der ohne Limit bei 8 Kernen! Es wurde ja oft kolportiert, das wäre kein Nachteil, sondern die GeForce würde in WQHD und darunter nur überdurchschnittlich besser performen. Das wiederum stimmt so nämlich nicht.
Das wiederum ist reproduzierbar, denn auflösungsunabhängig tritt bei der 2-Kern-Messung ab WQHD ein konstantes Limit auf. Die GeForce ist dann bei gleichen Bedingungen konstant (!) sieben Prozentpunkte langsamer.
Test System and Equipment |
|
---|---|
Hardware: |
AMD Ryzen 7 5800X MSI MEG X570 Godlike 2x 16 GB Corsair Vengeance RGB Pro DDR4 4000 (@3800) 1x 2 TB Aorus (NVMe System SSD, PCIe Gen. 4) 1x 2 TB Corsair MP400 (Data) 1x Seagate FastSSD Portable USB-C Be Quiet! Straight Power 11 1000 Watt Platinum MSI GeForce RTX 3090 SUPRIM 24 GB MSI Radeon RTX 6900XT Gaming X Trio 16 GB |
Cooling: |
Alphacool Eisblock XPX Pro Alphacool Eiszeit 2000 Chiller, 20l Reservoir |
Case: |
Banchetto 101 |
Monitor: | BenQ PD3220U |
Thermal Imager: |
1x Optris PI640 + 2x Xi400 Thermal Imagers Pix Connect Software Type K Class 1 thermal sensors (up to 4 channels) |
OS: | Windows 10 Pro (all updates, current certified or press drivers) |
143 Antworten
Kommentar
Lade neue Kommentare
Urgestein
1
Urgestein
1
Veteran
1
Veteran
Urgestein
Urgestein
1
Veteran
Urgestein
Veteran
Urgestein
Veteran
Moderator
1
Veteran
Alle Kommentare lesen unter igor´sLAB Community →