Gaming Grafikkarten Grundlagenartikel Praxis Testberichte VGA

Flaschenhals bei NVIDIA und DirectX 12? MSI GeForce RTX 3090 SUPRIM gegen MSI Radeon RX 6900XT Gaming X und die eigenen Treiber

Verschiebung der Performance im Limit?

Nein, es liegt nicht an Horizon Zero Dawn, welches ich aus vielen anderen angetesteten Spielen ausgewählt habe, es liegt wirklich an einem anderen Problem, das ich später noch verorten möchte. Denn die Mutmaßung, ob man dies jetzt alles pauschal auf einen durch was auch immer erzeugten Treiber-Overhead oder etwas anderes zurückführen kann, hilft an dieser Stelle erst einmal nicht weiter. Wir müssen testen, testen, testen!

Man kann dieses Verhalten in vielen anderen Titeln ähnlich reproduzieren, jedoch fand ich meine Wahl wegen der guten CPU-Skalierung für meinen Test am zweckmäßigsten. Ähnlich gut geeignet ist für den Effekt z.B. Watch Dogs Legion, wobei mir hier die Ergebnisse etwas zu sehr streuten. Wichtig für mich war aber die wirklich nahezu perfekte Reproduzierbarkeit und Konsistenz der Ergebnisse, zusammen mit dem erwähnten Feature „Asynchronous Compute“. Wegen der Reproduzierbarkeit verwende ich ausschließlich den integrierten Benchmark.

 

Betrachten wir nun zunächst einmal die Performance mit 4 Kernen (8 Threads). Während die Radeon in 2160p noch ca. 13 Prozentpunkte zurückliegt, sind es in 1440p bereits 2 Prozentpunkte Vorsprung, der dann bei 1080p auf 6 Prozente ansteigt, um in 720p sogar noch auf 11 Prozentpunkte anzusteigen. Die 11 merken wir uns bitte mal. Interessant ist aber auch, dass die Werte beider Karten in 2160p bereits einigermaßen identisch zu denen mit 6 oder 8 Kernen sind, hier also kaum noch die CPU limitiert. Ab WQHD greift jedoch der CPU-Flaschenhals immer stärker. Die Auswirkungen treffen die GeForce-Karte jedoch deutlich stärker als die Radeon-Karte, wenn auch nur relativ bei den FPS!

Mit 6 Kernen bzw. 12 Threads wird es jetzt  erst unterhalb von 1440p interessant, denn in WQHD performen beide Karten gleich schnell. Der Abstand in 2160p ist der gleiche wie mit 4 Kernen. Kunststück, denn auch die FPS sind gleich, da hier nur die Grafikkarte limitiert. Der Vorsprung der Radeon zeigt sich erst in 1080p, wo er knapp 4 Prozentpunkte beträgt. Die Radeon ist mit nur 4 Kernen übrigens genauso schnell wie jetzt die GeForce mit 6 Kernen. interessante Erkenntnis am Rande. Und in 720p? Da sind es genau 10 Prozentpunkte mehr!

Und was passiert, wenn man beide Karten mit 8 Kernen und 16 Threads laufen lässt? In 2160p liegt die Radeon genauso hinten wie immer, in 1440p herrscht mal wieder Gleichstand und in 1080p führt die Radeon mit immer noch mit 4 Prozentpunkten und in 720p sind es jetzt wieder knapp 11 Prozentpunkte. Es steigen unterhalb 1440p die FPS immer noch leicht an (aber nur noch leicht) und bleiben beim Performancezuwachs aber im nahezu gleichen Verhältnis.

Ein Gegentest mit einem Ryzen 9 5950X samt manueller Übertaktung schafft im Gesamtsystem mit der Radeon RX 6900XT in 720p ganze 4 FPS mehr, mit der GeForce knapp 3 FPS. Auch hier bleibt das Verhältnis in etwa gleich, aber trotz fast 300 MHz mehr Takt gewinnen beide Karten nur noch marginal hinzu.

Zwischenfazit

Diese Erkenntnisse hätte ich so nicht erwartet (oder vielleicht doch?) und sie stehen sogar ein klein wenig im Widerspruch zu den Benchmarks der Kollegen von Hardware Unboxed, die zwar das gleiche Phänomen beobachten konnten, aber auch mit verschiedenen Plattformen und älteren Generationen testeten. Eine zum Vergleich getestet, viele schwächere Karte in Form der MSI Radeon RX 5700XT Gaming X Trio war nämlich nicht in der Lage, selbst bei nur 2 oder 4 Kernen die GeForce RTX 3090 zu überholen. So extrem ist es also nicht.

Aber man kommt sich deutlich näher als erwartet. Bei 4 Kernen sind es in 720p nur noch 154 FPS für die GeForce RTX 3090 und immerhin 136 FPS für die Radeon RX 5700XT, die nominell ja Lichtjahre hinter NVIDIAs aktuellem Spitzenmodell liegen müsste. Das sind nur noch 13 Prozentpunkte Rückstand! Mit älteren DirectX11-Titeln lässt sich das Verhalten in dieser Form sowie nicht wirklich nachvollziehen. Und weil es vielleicht interessant sein könnte, habe ich die Radeon RX 5700XT noch einmal mit einer nominell ebenfalls schnelleren MSI RTX 3060 Ti gegengetestet. Der besseren Spielbarkeit halber mit der 4-Kern-Variante:

Wir sehen unterhalb von 1080p, wenn beide Karten wieder in das CPU-Limit laufen, den gleichen Effekt, wo die nominell deutlich langsamere Radeon RX 5700XT plötzlich an der GeForce RTX 3060 Ti vorbeiziehen kann.

Das hier erkennbare Verhalten würde ich nach diesen Tests nicht so einfach an einem nicht gut optimierten Treiber und einem pauschalen Overhead verorten, sondern eher zu Nachteilen der NVIDIA-Karten beim Asynchronous Compute tendieren. Je nach Optimierung einer Engine erklärt dies dann vielleicht ja auch den Unterschied zwischen den einzelnen DirectX-12-Spielen.
 
Ich will mich hier nicht festtackern lassen, denn am Ende fehlt wie immer die liebe Zeit. Aber ich sehe das Ganze als Gedankenanstoß, in welche Richtung man einmal genauer testen sollte und vor allem auch als kleiner Stupser in Richtung NVIDIA, das alles noch einmal genauer zu untersuchen. Auf den jetzt folgenden Seiten habe ich zudem für jede der Kern-Konstellationen die komplette Metrik aufgefahren, von den FPS und Perzentilen, über Frame Time und Varianzen bis hin zu Leistungsaufnahme und Effizienz.
 
Ich bitte, den Fokus vor allem auf die Varianzen zu legen, die ja den runderen Bildlauf sehr gut erkennen lassen und auch auf die Leistungsaufnahme der  GPU samt Effizienz.  Viel Spaß, dann kommt mein Fazit.

 

143 Antworten

Kommentar

Lade neue Kommentare

Case39

Urgestein

2,497 Kommentare 928 Likes

Guten Morgen und Danke für den aufklärenden Artikel. Ich behaupte mal, dieser wird mit sehr viel Aufmerksamkeit durch das Netz gehen!
Der fulminante Wochenstart ist schon mal gesichert👍

Antwort 3 Likes

Igor Wallossek

1

10,166 Kommentare 18,742 Likes

Kannst ihn ja mal teilen ;)

Antwort 1 Like

Case39

Urgestein

2,497 Kommentare 928 Likes

Erledigt....3DC, PCGH, CB.

Antwort 5 Likes

Igor Wallossek

1

10,166 Kommentare 18,742 Likes

PCGH und CB sehe ich nichts, haben die das schon wieder weggelöscht? Das 3DC besuche ich nicht mehr. Zu klein und unbedeutend, deren Reichweite ist komplett abgeschmiert. Was mich aber auch nicht wundert. Elitärer Sebstbeweihräucherungsverein. Die echten Urgesteine und interessanten User haben sie mittlerweile alle vergrault oder weggebissen. Es ist wirklich erschreckend, wie 4-5 Leute ein gesamtes Forum ruinieren können und die Mods noch seelenruhig dabei zuschauen. ;)

View image at the forums

Antwort 5 Likes

G
Guest

Vielen Dank für den überaus arbeitsintensiven und aufschlussreichen Artikel!

Im Prinzip bestätigt er, was eigentlich von Anfang in den Benchmarks zu RDNA2 und Ampere offensichtlich geworden ist: Ampere ist deutlich CPU abhängiger und kann seine theoretischen Vorteile an Rechenleistung erst ab 4k so richtig ausspielen.

Deine Theorie mit dem Async Computing ist interessant. Aber das würde ja bedeuten, dass entweder das Setup von diesem Feature bei Ampere mehr CPU Zeit braucht - oder dessen Ausführung. Bei letzterem kann ich mir das kaum vorstellen, denn die Ausführung muss ja die GPU erledigen. Also kann es doch nur das Setup sein. Eventuell muss da was umorganisiert oder sortiert werden, damit die GPU optimale Ergebnisse liefert?

Nicht desto trotz...

Häme incoming in 3... 2... 1...

Antwort 1 Like

konkretor

Veteran

296 Kommentare 300 Likes

War nicht mal das Spiel Ashes of Singularity der Test für async compute. Um alle Graks zu knechten? Mit dem Spiel hatte AMD damals gezeigt besser von DX12 zu profitieren zu können als Nvidida.

Sollte das Spiel nochmals durch den Benchmark gejagt werden?

Antwort Gefällt mir

Igor Wallossek

1

10,166 Kommentare 18,742 Likes

Da haben die Teams die Treiber mittlerweile sicher totoptimiert. :D
Horizon Zero Dawn ist da viel subtiler und hinterhältiger.

Antwort 1 Like

s
summit

Veteran

150 Kommentare 73 Likes

Du skalierst also wirklich nur die Kerne?
Bei HU sieht man ja ( ryzen 1600,2600,3600) dass es vorallem auch an der IPC liegt.

Antwort 1 Like

Case39

Urgestein

2,497 Kommentare 928 Likes
Case39

Urgestein

2,497 Kommentare 928 Likes

Ich hab es einfach in nen passenden Thread gepostet. Ja, 3DC ist richtig in die Bedeutungslosigkeit gerutscht....

Antwort Gefällt mir

Igor Wallossek

1

10,166 Kommentare 18,742 Likes

Hast Du bitte einen CB-/PCGH-Link? Oder ich bin zu blöd zum Suchen? :D

Antwort Gefällt mir

O
Oberst

Veteran

335 Kommentare 130 Likes

Sollte das in der Erkenntnis 1 auf Seite 1 nicht Radeon heißen? Denn die ist ja in WQHD und darunter überdurchschnittlich besser. Die Charts erinnern mich irgendwie immer an Vega, nur dieses mal mit umgedrehten Herstellern. NVidia kann die deutliche Mehrleistung von grob 36TFlop (gegenüber 23TFlop der 6900XT) erst ab 4k wirklich nutzen.

Antwort 1 Like

Case39

Urgestein

2,497 Kommentare 928 Likes

raff von PCGH scheint ebenfalls nen Artikel vorzubereiten....

Wie schon geschrieben. Hab es einfach nur in einem passenden Thread gepostet...

Antwort 2 Likes

Klicke zum Ausklappem
BlackFireHawk

Veteran

101 Kommentare 106 Likes

Also Sehr interessanter und guter Artikel. Daumen Hoch.

ich habe jedoch eine kleine anmerkung,
du gehst hier über die Kernskalierung des Spieles.. benutzt aber bei jeden Bench Run die gleiche CPU.. einen Zen3 Prozessor der eine Hohe IPC / Leistung pro Kern hat... ich glaub momentan sogar die höchste verfügbare IPC

was mich jetzt interressieren würde ist. wie Skaliert das ganze mit weniger leistung pro Kern.. eine RTX3090/3080 oder eine RX 6900xt/6800XT wird ja oft auch mit Älteren CPUs kombiniert die nicht soviel "Leistung pro Kern" haben..
Oft sieht man diese Karten zb mit nem Ryzen 3700x/3600x oder einem Intel 10600k/9700K/8700K kombiniert.. auch ohne entsprechendes K suffix

der allgemeine konsens ist ja "spare an der CPU und kaufe dafür eine stärkere GPU, denn ab 1440p bist du ja angeblich sowieso im GPU limit"

ein 5800x hat ja in etwa 20% mehr singlecore leistung als zb ein 9900k wenn ich mir die CB20 Singlecore ergebenisse ansehe
und knapp 30% mehr als ein 3700x..

Ich würde mir jetzt zumindestens einen zusätzlichen Bench wünschen mit weniger pro Kern leistung.
1440p/8kerne skalierung und das ganze dann mit 30% weniger takt/ sprich den 5800x einfach mal fix auf 3.6ghz festgetaktet

Antwort 3 Likes

Klicke zum Ausklappem
D
Denniss

Urgestein

1,512 Kommentare 547 Likes

Bitte gebt dem Igor mal ein wenig Zeit zum Durchschnaufen, er muß ja noch Rocket Lake und die kleinen Navis quälen.
Andere CPUs kann er ja irgendwann nachtesten z.B. den 3800x/xt

Antwort 7 Likes

BlackFireHawk

Veteran

101 Kommentare 106 Likes

keine frage das IST alles arbeit.
nur seh ich hier einen sehr wichtigen aspekt in der sache, denn hardware unboxed vergleicht unterschiedlich starke "pro kern leistung" und bekommt hier extreme unterschiede zwischen AMD und Nvidia

Antwort 1 Like

FritzHunter01

Moderator

1,142 Kommentare 1,548 Likes

Hallo,

alleine die Tatsache, dass es mit der aktuellen Ryzen Generation beim Abschalten von Kernen bereits zu einem solchen Phänomen kommt, zeigt, dass Nvidia hier ein Thema hat.
Der Steve von Hardware Unboxed ist zufällig beim CPU Vergleich darauf gestoßen und mit dem Test von Igor im Vergleich, wird deutlich, dass ältere CPUs das Thema noch deutlicher hervorheben. Es liegt also sehr wahrscheinlich nicht nur an der reinen IPC.

Meine Latenzmessungen haben ein extremes Verhalten offenbart... dazu kommen noch mindestens zwei Artikel von mir!

kleiner Spoiler:

3800X 4.45 GHz all core OC

3080 vs 5700 XT

CoD MW Multplayer 1080p Low Details

Beide GPUs in etwa gleich schnell mit 247 FPS im Durchschnitt

Antwort 2 Likes

Igor Wallossek

1

10,166 Kommentare 18,742 Likes

Schenke mir bitte die Zeit ;)

Am Ende wollen wir ja auch nicht alle Arikel durcheinander vermischen :D

Antwort 2 Likes

s
summit

Veteran

150 Kommentare 73 Likes

Ist mir auch schon auf Twitch aufgefallen, die spielen meist auf 1080p low details und haben mit ihrer 3080 probleme.
Kann man mal einen älteren Treiber nutzen? Imho war dies doch nicht schon "immer" so.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung