Grafikkarten News Prozessor System Testberichte VGA

Radeon RX 6900XT oder GeForce RTX 3090 für den Test mit Intels neuen CPUs? Eine Analyse und Vorschau

Morgen Nachmittag ist es dann endlich soweit, da werde auch ich einen Test zu Intels neuester CPU-Generation veröffentlichen. Allerdings hat sich mir im Vorfeld durchaus die Frage gestellt, mit welcher High-End-GPU ich diesmal die Tests für den Launchartikel machen soll. Da ich alle vier Auflösungen testen wollte, also von Ultra-HD bis hinunter zu 720p, war natürlich abzuwägen, ob und wo gegebenenfalls ein möglicher Treiber-Overhead bei der NVIDIA-Karte auftreten könnte. Außerdem unterstützt ja auch die 11. Generation auf dem Z590-Board Resizeable BAR und ich war schon neugierig, wie gut die Performance ausfällt.

Nun hatte ich die Qual der Wahl. Da ich davon ausgehe, dass die meisten Kollegen mit einer GeForce RTX 3090 testen werden, habe ich mit genau diese Karte in Form einer MSI RTX 3090 SUPRIM geschnappt und dazu gleich noch eine werksübertaktete MSI RX 6900XT Gaming X Trio hinterher. Viel Zeit, um jetzt zig Spiele durchzupeitschen, blieb am Ende ja auch nicht, aber dazu schreibe ich morgen noch etwas. Auch zu den Umständen, die das Ergebnis nicht besser erscheinen lassen. Doch alles zu seiner Zeit und wenn es erlaubt ist.

Welche Karte skaliert besser bis 720p?

Da es bei CPU-Tests eher nicht primär auf Grafikfeatures wie DLSS und RTX ankommt, wohl aber die CPU-Limits bei sehr niedrigen Auflösungen immer eine Rolle spielen, muss man hier wirklich sorgfältig abwägen, welches Spiel und welche Hardware möglichst objektive Resultate ermöglichen. Um mir einen ersten Überblick zu verschaffen, habe ich zunächst auf einem Ryzen 9 5900X beide Karten in 4 Spielen getestet und die Skalierung zwischen 1440p (jeweils als 100%-Ausgangswert) über 1080p bis hinab zu 720p gegenübergestellt. Dabei tritt jede Karte erst einmal für und gegen sich sich selbst an. Zunächst also die Radeon RX 6900XT und ich messe der Fairness halber erst einmal ohne Resizeable BAR:

Das Gleiche habe ich nun mit der GeForce RTX 3090 gemacht.  Auch wenn die Steigerung in Borderlands 3 etwas höher ausfällt, sind die eigentlichen FPS-Werte im direkten Vergleich deutlich niedriger. In den anderen 3 Spielen fällt die FPS-Leistung der Radeon ebenfalls bei den niedrigeren Auflösungen etwas höher aus, so dass ich hier bereits zur Radeon tendiert habe.

„Treiber-Overhead“
Es gab auch einige Spiele wie z.B. CoD MW, Horizon Zero Dawn oder Apex Legends, die mit zunehmendem CPU-Limit bei der GeForce RTX 3090 einige Anomalien aufwiesen und mit sinkender Auflösung auf dieser einen Karte deutlich schlechter skalierten. Das führte in eingen Fällen sogar dazu, dass die zu testenden 6-Kerner plötzlich deutlich schlechtere Ergebnisse produzierten als in anderen Spielen oder mit der Radeon RX 6900XT im selben Spiel gegenüber den 8-Kernen plötzlich stark abfielen. Dazu kommt, dass sich in einigen Situationen solcher Limitierungen die Ergebnisse unerwartet in Richtung Intel verschoben, da die Testplattform offensichtlich besser mit der GeForce und ihren bremsenden Treibern zurechtkam.
 

Vergleich in 720p mit und ohne Resizeable BAR

Jetzt vergleiche ich den Ryzen 7 5800X mit dem neuen Intel Core i7-11700K, beides 8-Kerner mit einer ähnlichen Zielgruppe. Und diesmal setze ich die Performance der GeForce RTX 3090 in 720p als 100%-Basis und vergleiche damit die Performance the RX 6900XT mit und ohne Resizeable BAR. Zunächst starte ich den Test mit dem Ryzen 7 5800X. Bis auf den alten DX11-Titel Far Cry New Dawn, bei dem die Karten schon in Ultra-HD von der CPU limitiert werden, sehen wir in zwei Spielen einen schönen Zuwachs mit aktiviertem großen Adressraum.

Dort, wo es auf dem Ryzen gut läuft, schafft es auch die vergleichbare Intel-CPU in vergleichbarem Maße, was uns beweist, dass Intel seine Hausaufgaben durchaus gemacht und die Implementierung gut umgesetzt hat. Und auch hier sehen wir schön, dass z.B. in Shadow of the Tomb Raider Resizeable BAR geeignet ist, aus dem Rückstand der Radeon sogar einen kleinen Vorsprung zu machen, wenn das Feature aktiviert wurde. 

Radeon statt GeForce
Solange NVIDIA hier keine wirkliche Alternative für alle RTX 3xxx-Karten in Form eines neuen BIOS anbietet, solange werde ich wohl erst einmal die Radeon RX 6900XT einsetzen, denn die Karte kommt den Anforderungen doch ein Stückweit näher als die GeForce.

 

Wer sich übrigens wundert, warum ich Prozente und keine FPS in den vier Charts verwendet habe, der sei neben der besseren Vergleichbarkeit auch auf den Launchartikel verwiesen, der dann auch die CPUs enthält, die noch nicht im Laden käuflich erwerbbar waren.

Das genaue Testsystem und die Methodik gibt es natürlich dann im Launchartikel und es wird auch beim Speicher fair zugehen, im Rahmen meiner Absichten natürlich. Und nein, ich werde definitiv nicht nach Specs testen, denn so verwendet der Kunde seine neu erworbene Technik ja auch nur in den seltensten Fällen. Da ich weiß, dass es Kollegen gibt, die sich exakt an die Beipackzettel halten, mache ich guten Gewissens dann etwas anderes. Und ja, es geht auch irgendwie um eine imaginäre Krone, die am Ende aber gar keiner braucht. Lasst Euch mal überraschen.

Lade neue Kommentare

S
Silram

Mitglied

21 Kommentare 2 Likes

Sehe ich es hier richtig das in deinem Falle oft die rx 6900xt schneller als die 3090 ist?
Oder würde es in dem Falle bei 4K wieder ganz anders aussehen da dies nur ein 720p test ist?

Hatte mich gerade nur gewundert.

Anyways werde ich denke nie auf die dunkle Seite der Macht zurückkommen und bleib bei meiner Ryzen ;)

Antwort Gefällt mir

F
Falcon

Mitglied

23 Kommentare 26 Likes

Die 6900XT ist fast immer schneller als die 3090 solange die Auflösung kleiner als 4K ist.
In 4k ist die 3090 durch ihre höhere Speicherbandbreite fast immer schneller.

Antwort 1 Like

G
Guest

Naja, "oft" würde ich eher statt "fast immer" schreiben. Und auch nicht "kleiner als 4k" sondern bei "FHD". Bei WQHD sieht es meist schon wieder anders aus.

Ob es nun ein Treiberoverhead von NVidia ist oder der InfinityCache bei kleineren Auflösungen einfach effizienter ist (also bei höheren es öfter zu Cache-Misses kommt) wäre wirklich mal ein interessanter Untersuchungsgegenstand.

Antwort Gefällt mir

S
Silram

Mitglied

21 Kommentare 2 Likes

Ahso okay danke, gut das ich auf 4K gamen werde und mich für die 6900xt entschieden habe...wäre mir so oder so den Aufpreis nicht wert gewesen

Antwort Gefällt mir

Case39

Urgestein

2,026 Kommentare 618 Likes

Endlich mal ein eindeutiges Statement zur 3090. Langsam dreht mein Gesamteindruck zu Ampere, eher ins Negative....

Antwort Gefällt mir

O
Oberst

Veteran

206 Kommentare 64 Likes

Dahingehend gab es schon entsprechende Tests, und es ist gar nichts von beiden. Der Treiber Overhead bei NVidia ist eigentlich auf DX12 beschränkt. Der Abfall kommt aber auch in DX11 vor. Und am Infinity Cache liegt es auch nicht, weil Big Navi von FullHD über QHD bis UHD im Vergleich zu Turing praktisch gleich skaliert, während Ampere bei Auflösungen unter UHD deutlich weniger Abstand zu seinem Vorgänger hat. Das Problem ist wohl eher, dass NVidia die bei Ampere verdoppelten Shader in Auflösungen unter UHD nicht ausgelastet bekommt und dort andere Einheiten einen gewissen Flaschenhals darstellen.

Antwort 2 Likes

BlackFireHawk

Mitglied

26 Kommentare 19 Likes

Nun das ist doch echt Mal ne interessante Frage welche GPU nun besser ist um eine CPU zu testen aufgrund des vorhandenen Nvidia dx12 limits

Antwort Gefällt mir

Freiheraus

Mitglied

25 Kommentare 30 Likes

Hammer Entscheidung die RX 6900 XT zu nehmen, Daumen hoch. Die Vorabergebnisse scheinen zu bestätigen was ich vermutet hatte: https://www.igorslab.de/community/t...d-die-eigenen-treiber.4658/page-2#post-124356

MMn ein "kleiner" Paukenschlag, die Abkehr von Nvidia als Standard-GPU-Wahl für CPU-Spiele-Benchmarks, aber konsequent und ehrlich (sich und seinen Lesern gegenüber), danke Igor.

Edit:
Und zum Thema SAM/rBAR kann ich nur eins sagen, Wreckfest ist der absolute Geheimtipp diesbezüglich. Ich habe Zuwächse von 50-100% mit SAM on bei einer stark gedrosselten RX 6900 XT gemessen!

View image at the forums

Wer das Spiel unter ähnlichen Bedingungen benchen will, sollte hier nachlesen: https://extreme.pcgameshardware.de/threads/amd-radeon-vii-laberthread.530829/page-18#post-9733018

Antwort 6 Likes

Klicke zum Ausklappem
Gurdi

Urgestein

1,223 Kommentare 738 Likes

Hut ab, endlich jemand der sich die Sache neutral anschaut und auf Basis der Ergebnisse seine Entscheidung trifft.
Die Radeon ist für CPU Tests einfach deutlich besser geeigent derzeit. Trotzdem scheuen viele diesen Schritt, das Testsystemumzustellen.

Richtige Entscheidung. Die Problematik mit den 6Kerner Inteln ist auch sehr interessant die sich ergibt wennman die NV Karte verwendet.

Antwort 4 Likes

b
bad_sign

Neuling

4 Kommentare 6 Likes

Nicht Bandbreite, Rohleistung
6900XT ~23TF
3090 ~35,5TF
Zahlen: Techpowerup

Die Rohleistung ist auch in RT wichtig, da eine 3070 mit ~22TF ziemlich auf 6900XT Niveau liegt (ohne DLSS)

Antwort Gefällt mir

8j0ern

Veteran

370 Kommentare 53 Likes

JA das sind die FP32 Werte, allerdings können Spiele auch mit FP16 Programmiert werden (Rapid Math).
Dann steht es 46TFlops zu 35,5TFlops.

Warum nvidia hier nicht mehr Leistung herausholen kann verwundert mich doch ein wenig.
Demnach laufen dort schon 2x FP16 für FP32 Berechnungen. ;)

Antwort Gefällt mir

G
Guest

Du vergisst die extra Recheneinheit fuer RT. Ein Vergleich ist da uninteressant, da RDNA2 ohne diese alles berechnen muss. Erst wenn diese Recheneinheit abschaltbar ist, kann man die Rohleistung vergleichen.

Antwort 1 Like

8j0ern

Veteran

370 Kommentare 53 Likes

FYI:

View image at the forums

AMD hat das auch in Hardware, und bei den TeraFlops zählen die RT Cores nicht dazu.

Man kann sie zwar auch nutzen, allerdings sind sie auf ihr Gebiet (Raytracing) beschränkt.

Antwort Gefällt mir

Klicke zum Ausklappem
b
bad_sign

Neuling

4 Kommentare 6 Likes

Diese Extraeinheiten, die auch AMD hat, berechnen den BVH Tree, der Rest läuft alles auf den normalen Shadern -> Rohleistung wird interessant.
Auch die Tensorcores machen für RT garnichts, die werden nur für das Denosing bei DLSS benutzt.
@8j0ern
Welche Bedeutung hat FP16 bei RT?

Antwort Gefällt mir

G
Guest

Die FLOPS sind nicht in jedem Fall Indikator für eine abrufbare Rechenleistung unter Spielen (denn die profitieren nicht immer vom Floating Point). Aber du hast Recht, unter RT können sie wichtig sein und letztlich ist es die Rechenpower, den die GPU (und allein die) theoretisch zur Verfügung stellen könnte (abhängig von Hersteller internen Testszenarien und Hochrechnungen was die Architektur angeht). FLOPS sind unter Spielen eine gerne von Herstellern genutzte Marketinglüge, wenn man es hart betrachtet.

Es liegt derzeit eher am BVH Algorithmus und der ist auch mit dafür verantwortlich, dass die Hw-Shader dann warten müssen. Das war auch bei Nvidias erster Gen der Fall, bis man es Hersteller intern mit den Devs optimierte. Das ist für AMD ein genauso langer Prozess. Auch wenn DXU unterstützt wird, heißt das nicht das eine Lösung der anderen Hardware intern gleichen muss.

Übrigens, die Hitratio des Speicher bei AMD inklusive der IF ist unter 4K höher als bei Nvidia. Also daran kann es kaum liegen. Das wurde von den meisten Testern eher angenommen oder vermutet. Ich denke es ist ein Treiberoverhead und o.G.. Denn wenn es um BVH speicherintensive Zugriffe geht, müsste AMD eigentlich Vorteile haben, nur muss man sie auch ausnutzen. Das ist schwierig, wenn ein Spiel dann auf einer anderen Plattform entwickelt wird und diese dann Devs vornehmlich als Benchmark gilt. Devrel wird da eine wesentliche Rolle für AMD spielen.

Komplexität kann in der Entwicklung auch dazu führen, dass die Leistung die man erwartet in der Praxis geschmälert werden kann, wenn Komplexität nicht erwünscht ist oder zu schwierig zu integrieren ist. Unter Turing war es vor allem das Energiemanagment, dass heißt die Verteilung der möglichen Ressourcen auf der GPU unter Berücksichtigung der verfügbaren Energie, dass Einheiten auch parallel rechnen können.

Da es hier nur um CPU Test geht und man unter 720p das tatsächliche Leistungsvermögen abbilden und soviel wie möglich Bootlenecks seitens der GPU ausschließen will, scheint AMD bei CPUs Test erste Wahl zu sein. Das sieht Igor vollkommen richtig. Unter 4K ist dann bisher Nvidia vorne.

Wenn wir von Prozentangaben ausgehen ist 56% unter 4K ein recht ordentlicher Wert, wenn es allein um die Hitratio geht.

Es wäre im Fall der CPU Test auch verwunderlich, wenn AMD nicht zuerst auf die eigene Plattform optimiert, dass machen alle anderen auch. Ob immer positiv für die Spieler sei mal dahingestellt. Ich denke, man hat sich das genau angesehen und dort auch in niedrigeren Auflösungen Potential gesehen. Es ist ja zuletzt auch der größte Markt/Marktanteil, in dem man seine Hardware und das dazugehörige Technologiepaket absetzen könnte (bis 1440p) - wenn man expandieren oder Markanteile zurück gewinnen will. Ob man dabei Nvidia immer vom Thron stoßen will, glaube ich nicht. Das kostet ja auch mehr Aufwand, so wie das letzte bißchen in jedem Fall.

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung