Reviews Radeon RX 6900XT oder RTX 3090 für den Test mit Intels neuen CPUs? Eine Analyse und Vorschau

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Morgen Nachmittag ist es dann endlich soweit, da werde auch ich einen Test zu Intels neuester CPU-Generation veröffentlichen. Allerdings hat sich mir im Vorfeld durchaus die Frage gestellt, mit welcher High-End-GPU ich diesmal die Tests für den Launchartikel machen soll. Da ich alle vier Auflösungen testen wollte, also von Ultra-HD bis hinunter zu 720p, war […]

Hier den ganzen Artikel lesen
 
Sehe ich es hier richtig das in deinem Falle oft die rx 6900xt schneller als die 3090 ist?
Oder würde es in dem Falle bei 4K wieder ganz anders aussehen da dies nur ein 720p test ist?

Hatte mich gerade nur gewundert.

Anyways werde ich denke nie auf die dunkle Seite der Macht zurückkommen und bleib bei meiner Ryzen ;)
 
Die 6900XT ist fast immer schneller als die 3090 solange die Auflösung kleiner als 4K ist.
In 4k ist die 3090 durch ihre höhere Speicherbandbreite fast immer schneller.
 
Die 6900XT ist fast immer schneller als die 3090 solange die Auflösung kleiner als 4K ist.
In 4k ist die 3090 durch ihre höhere Speicherbandbreite fast immer schneller.
Naja, "oft" würde ich eher statt "fast immer" schreiben. Und auch nicht "kleiner als 4k" sondern bei "FHD". Bei WQHD sieht es meist schon wieder anders aus.

Ob es nun ein Treiberoverhead von NVidia ist oder der InfinityCache bei kleineren Auflösungen einfach effizienter ist (also bei höheren es öfter zu Cache-Misses kommt) wäre wirklich mal ein interessanter Untersuchungsgegenstand.
 
Ahso okay danke, gut das ich auf 4K gamen werde und mich für die 6900xt entschieden habe...wäre mir so oder so den Aufpreis nicht wert gewesen
 
Endlich mal ein eindeutiges Statement zur 3090. Langsam dreht mein Gesamteindruck zu Ampere, eher ins Negative....
 
Ob es nun ein Treiberoverhead von NVidia ist oder der InfinityCache bei kleineren Auflösungen einfach effizienter ist (also bei höheren es öfter zu Cache-Misses kommt) wäre wirklich mal ein interessanter Untersuchungsgegenstand.
Dahingehend gab es schon entsprechende Tests, und es ist gar nichts von beiden. Der Treiber Overhead bei NVidia ist eigentlich auf DX12 beschränkt. Der Abfall kommt aber auch in DX11 vor. Und am Infinity Cache liegt es auch nicht, weil Big Navi von FullHD über QHD bis UHD im Vergleich zu Turing praktisch gleich skaliert, während Ampere bei Auflösungen unter UHD deutlich weniger Abstand zu seinem Vorgänger hat. Das Problem ist wohl eher, dass NVidia die bei Ampere verdoppelten Shader in Auflösungen unter UHD nicht ausgelastet bekommt und dort andere Einheiten einen gewissen Flaschenhals darstellen.
 
Nun das ist doch echt Mal ne interessante Frage welche GPU nun besser ist um eine CPU zu testen aufgrund des vorhandenen Nvidia dx12 limits
 
Hammer Entscheidung die RX 6900 XT zu nehmen, Daumen hoch. Die Vorabergebnisse scheinen zu bestätigen was ich vermutet hatte: https://www.igorslab.de/community/t...d-die-eigenen-treiber.4658/page-2#post-124356
Der massive 720p/1080p Overhead von Big Ampere kommt momentan auch Intel extrem zugute. Daher würde ich mir einen kompletten CPU-Benchmark-Parcour auf Big Navi-Basis wünschen.

MMn ein "kleiner" Paukenschlag, die Abkehr von Nvidia als Standard-GPU-Wahl für CPU-Spiele-Benchmarks, aber konsequent und ehrlich (sich und seinen Lesern gegenüber), danke Igor.

Edit:
Und zum Thema SAM/rBAR kann ich nur eins sagen, Wreckfest ist der absolute Geheimtipp diesbezüglich. Ich habe Zuwächse von 50-100% mit SAM on bei einer stark gedrosselten RX 6900 XT gemessen!

CX_2021-03-27_02-08-05_Comparison.png

Wer das Spiel unter ähnlichen Bedingungen benchen will, sollte hier nachlesen: https://extreme.pcgameshardware.de/threads/amd-radeon-vii-laberthread.530829/page-18#post-9733018
 
Zuletzt bearbeitet :
Hut ab, endlich jemand der sich die Sache neutral anschaut und auf Basis der Ergebnisse seine Entscheidung trifft.
Die Radeon ist für CPU Tests einfach deutlich besser geeigent derzeit. Trotzdem scheuen viele diesen Schritt, das Testsystemumzustellen.

Richtige Entscheidung. Die Problematik mit den 6Kerner Inteln ist auch sehr interessant die sich ergibt wennman die NV Karte verwendet.
 
Die 6900XT ist fast immer schneller als die 3090 solange die Auflösung kleiner als 4K ist.
In 4k ist die 3090 durch ihre höhere Speicherbandbreite fast immer schneller.
Nicht Bandbreite, Rohleistung
6900XT ~23TF
3090 ~35,5TF
Zahlen: Techpowerup

Die Rohleistung ist auch in RT wichtig, da eine 3070 mit ~22TF ziemlich auf 6900XT Niveau liegt (ohne DLSS)
 
Nicht Bandbreite, Rohleistung
6900XT ~23TF
3090 ~35,5TF
Zahlen: Techpowerup

Die Rohleistung ist auch in RT wichtig, da eine 3070 mit ~22TF ziemlich auf 6900XT Niveau liegt (ohne DLSS)
JA das sind die FP32 Werte, allerdings können Spiele auch mit FP16 Programmiert werden (Rapid Math).
Dann steht es 46TFlops zu 35,5TFlops.

Warum nvidia hier nicht mehr Leistung herausholen kann verwundert mich doch ein wenig.
Demnach laufen dort schon 2x FP16 für FP32 Berechnungen. ;)
 
Nicht Bandbreite, Rohleistung
6900XT ~23TF
3090 ~35,5TF
Zahlen: Techpowerup

Die Rohleistung ist auch in RT wichtig, da eine 3070 mit ~22TF ziemlich auf 6900XT Niveau liegt (ohne DLSS)
Du vergisst die extra Recheneinheit fuer RT. Ein Vergleich ist da uninteressant, da RDNA2 ohne diese alles berechnen muss. Erst wenn diese Recheneinheit abschaltbar ist, kann man die Rohleistung vergleichen.
 
Du vergisst die extra Recheneinheit fuer RT. Ein Vergleich ist da uninteressant, da RDNA2 ohne diese alles berechnen muss. Erst wenn diese Recheneinheit abschaltbar ist, kann man die Rohleistung vergleichen.
FYI:

The Radeon RX 6000 Series takes full advantage of DirectX12 Ultimate, including DirectX Raytracing support. AMD doesn't set aside some CUs for raytracing tasks but instead includes one dedicated Ray Accelerator per CU.
"Measured by AMD engineering labs 8/17/2020 on an AMD RDNA 2 based graphics card, using the Procedural Geometry sample application from Microsoft’s DXR SDK, the AMD RDNA 2 based graphics card gets up to 13.8x speedup (471 FPS) using HW based raytracing vs using the Software DXR fallback layer (34 FPS) at the same clocks. Performance may vary. RX-571"

619823be-4738-4c4e-a6aa-03aa7fdcbb65.jpg




AMD hat das auch in Hardware, und bei den TeraFlops zählen die RT Cores nicht dazu.

Man kann sie zwar auch nutzen, allerdings sind sie auf ihr Gebiet (Raytracing) beschränkt.
 
Du vergisst die extra Recheneinheit fuer RT. Ein Vergleich ist da uninteressant, da RDNA2 ohne diese alles berechnen muss. Erst wenn diese Recheneinheit abschaltbar ist, kann man die Rohleistung vergleichen.
Diese Extraeinheiten, die auch AMD hat, berechnen den BVH Tree, der Rest läuft alles auf den normalen Shadern -> Rohleistung wird interessant.
Auch die Tensorcores machen für RT garnichts, die werden nur für das Denosing bei DLSS benutzt.
@8j0ern
Welche Bedeutung hat FP16 bei RT?
 
Nicht Bandbreite, Rohleistung
6900XT ~23TF
3090 ~35,5TF
Zahlen: Techpowerup

Die Rohleistung ist auch in RT wichtig, da eine 3070 mit ~22TF ziemlich auf 6900XT Niveau liegt (ohne DLSS)
Die FLOPS sind nicht in jedem Fall Indikator für eine abrufbare Rechenleistung unter Spielen (denn die profitieren nicht immer vom Floating Point). Aber du hast Recht, unter RT können sie wichtig sein und letztlich ist es die Rechenpower, den die GPU (und allein die) theoretisch zur Verfügung stellen könnte (abhängig von Hersteller internen Testszenarien und Hochrechnungen was die Architektur angeht). FLOPS sind unter Spielen eine gerne von Herstellern genutzte Marketinglüge, wenn man es hart betrachtet.

Es liegt derzeit eher am BVH Algorithmus und der ist auch mit dafür verantwortlich, dass die Hw-Shader dann warten müssen. Das war auch bei Nvidias erster Gen der Fall, bis man es Hersteller intern mit den Devs optimierte. Das ist für AMD ein genauso langer Prozess. Auch wenn DXU unterstützt wird, heißt das nicht das eine Lösung der anderen Hardware intern gleichen muss.

Übrigens, die Hitratio des Speicher bei AMD inklusive der IF ist unter 4K höher als bei Nvidia. Also daran kann es kaum liegen. Das wurde von den meisten Testern eher angenommen oder vermutet. Ich denke es ist ein Treiberoverhead und o.G.. Denn wenn es um BVH speicherintensive Zugriffe geht, müsste AMD eigentlich Vorteile haben, nur muss man sie auch ausnutzen. Das ist schwierig, wenn ein Spiel dann auf einer anderen Plattform entwickelt wird und diese dann Devs vornehmlich als Benchmark gilt. Devrel wird da eine wesentliche Rolle für AMD spielen.

Komplexität kann in der Entwicklung auch dazu führen, dass die Leistung die man erwartet in der Praxis geschmälert werden kann, wenn Komplexität nicht erwünscht ist oder zu schwierig zu integrieren ist. Unter Turing war es vor allem das Energiemanagment, dass heißt die Verteilung der möglichen Ressourcen auf der GPU unter Berücksichtigung der verfügbaren Energie, dass Einheiten auch parallel rechnen können.

Da es hier nur um CPU Test geht und man unter 720p das tatsächliche Leistungsvermögen abbilden und soviel wie möglich Bootlenecks seitens der GPU ausschließen will, scheint AMD bei CPUs Test erste Wahl zu sein. Das sieht Igor vollkommen richtig. Unter 4K ist dann bisher Nvidia vorne.

Wenn wir von Prozentangaben ausgehen ist 56% unter 4K ein recht ordentlicher Wert, wenn es allein um die Hitratio geht.

Es wäre im Fall der CPU Test auch verwunderlich, wenn AMD nicht zuerst auf die eigene Plattform optimiert, dass machen alle anderen auch. Ob immer positiv für die Spieler sei mal dahingestellt. Ich denke, man hat sich das genau angesehen und dort auch in niedrigeren Auflösungen Potential gesehen. Es ist ja zuletzt auch der größte Markt/Marktanteil, in dem man seine Hardware und das dazugehörige Technologiepaket absetzen könnte (bis 1440p) - wenn man expandieren oder Markanteile zurück gewinnen will. Ob man dabei Nvidia immer vom Thron stoßen will, glaube ich nicht. Das kostet ja auch mehr Aufwand, so wie das letzte bißchen in jedem Fall.
 
Zuletzt bearbeitet von einem Moderator :
Die Problematik mit den 6Kerner Inteln ist auch sehr interessant die sich ergibt wennman die NV Karte verwendet.
Da erinnere man sich an Vega oder GCN1/2 generell, die immer mehr CPU Kerne brauchten in der Vergangenheit, nicht umsonst der Schritt seitens AMD zu mehr CPU Kernen.

Falls das nicht zu sehr triggert, RDNA2 glänzt vor allem mit Optimierungen in der Feedbacklogic im Allgemeinen, was zu weniger paradoxen Zuständen führt, die somit leichter umsetzbar und verständlicher sind. Sieht so aus als hätte man sich das von Apple abgeschaut, bzw. ist es auf Basis der Zusammenarbeit brauchbarer für Devs optimiert. So ist eine konstante (-re) Leistung abrufbar.

RDNA2 löst dabei nicht alle Probleme der Vorgängerarchitektur, aber man scheint mit wesentlichen Änderungen mehr Leistung heraus zu pressen. Auch Zen brilliert (e) nicht in allen Anwendungsszenarien.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten