Gaming GPUs Graphics Reviews

AMD Radeon RX 7900XTX and RX 7900XT Review – One giant step forward and one step sideways

Summary

Yes, AMD has done nothing wrong with both the Radeon RX 7900XTX and the Radeon RX 7900XT. With an MSRP of 1149.00 Euros for the RX 7900XTX and an MSRP of 1049.99 Euros for the RX 7900 XT, the price is also quite good, even though the GeForce RTX 4080, which is given as a comparison, has dropped considerably in price in the meantime. AMD still undercuts the current street price of the cheapest NVIDIA card by 200 and even 300 Euros respectively with the two reference cards. But even that is not cheap.

The raster performance of the new RDNA cards is 8.5 percent higher than that of an NVIDIA GeForce RTX 4080 Founders Edition in WQHD and even 9.3 percent higher in Ultra HD in the sum of all benchmarks. This is really respectable, even though the GeForce RTX 4090 cannot be attacked and this should hardly be possible even with extreme OC and the electric crowbar. Compared to RDNA2, AMD has thus managed a very big, if not huge, leap, if you take Ada as a comparison. In return, the efficiency is not quite as high as hoped. But more on that in a moment.

The ray tracing performance has also taken a big step forward and is now on par with the biggest Ampere cards. This also deserves praise, even if there are still double-digit performance gaps to be observed. But the gap has narrowed. This also applies to things like the excellent video encoder, which I will test separately one day. There was simply no time for that in the sum of all tests, especially since one should still wait for further applications that finally support it.

AMD has completely turned telemetry on its head, which has worked out well in most respects. The fact that you can finally read out a TBP that is reasonably accurate, even if it is only a good estimate, is a big step forward. NVIDIA has long relied on real monitoring of the rails via shunts, while AMD now at least uses the summation of all values from the DCR and some mathematics, which is also possible.

I see a real need for improvement in the drivers. A lot of potential should still lie fallow here. Conscientious inconsistencies could also indicate that hardware problems might have been actively addressed via software fixes, but that’s just pure speculation. What doesn’t fly at all, however, is the shockingly high idle power consumption, especially in multi-monitor mode. Which brings us to the power consumption and efficiency.

The fact that the power consumption values are so far above those of a GeForce RTX 4080 FE in the summation over several games is actually almost depressing in view of the PR appearances in the run-up. The GeForce RTX 4080 FE is up to 114 watts (!) below an RX 7900XTX in the worst case for the AMD card, which almost shocked me a bit personally. No matter if WQHD or Ultra-HD, with or without ray tracing, the two RDNA3 cards actually used the power limit almost always and very consistently, while the GeForce RTX 4080 FE was more or less clearly below the specified TBP depending on the load. For those who don’t believe it, I recommend the pages with summaries of all the games in the first third of the article.

It is quite likely that AMD subsequently clocked both cards a bit higher and provided them with a more generous power limit (TBP) when they noticed what was really coming with Ada. This looks a bit like Polaris, when they gave the RX 480 significantly more power in the very last moment, but not only got stuck in the corset of the single 6-pin connector, but also broke and clearly exceeded the standards for the PEG. I had uncovered this at the time and also made it a topic of discussion.

AMD did not repeat the mistake in the Radeon RX 7900XTX, but placed itself just below the maximum allowed. Since only two 8-pin sockets were wanted (marketing promise efficiency?), the reference was also indirectly slowed down for OC. Many board partner cards don’t have this bottleneck and rely on honest three 8-pin sockets. In addition, the motherboard slot is also used very extensively for the 12 volt power supply, which is rather suboptimal because you then also release many transients via the motherboard (e.g. audible intermodulations in the audio branch). NVIDIA is now much better at this.

Why I put the smaller Radeon RX 7900XT on top in the picture? It is certainly the better alternative to the GeForce RTX 4080 in terms of price, even though it cannot keep up in terms of performance. The Radeon RTX 7900XTX is more for enthusiasts, but the same applies here as with the GeForce RTX 4090. You have to want and be able to afford a bit of unreasonableness, but it’s just a bit more fun in the final meters. In terms of price, the Radeon RX 7900XTX is even a real alternative to the RTX 4090. AMD’s top model is not that much slower, but much cheaper.

Despite all the advantages and positive trends, I do not want to give either reference card a purchase tip for the time being. The unnecessarily high idle power consumption, which is 100% higher than the competitor’s values and virtually explodes in multi-monitor mode, as well as many imponderables and problems in the driver, which actually exclude professional use without deeper tests of the respective application, speak against it. That may sound harsh, but certification processes must also be gone through here before a recommendation can be made.

The performance in all games without ray tracing, on the other hand, is commendable, it’s just that not really extremely many games have been sufficiently considered in the driver. There is still a huge mountain of work ahead of the driver team in Toronto. Fine Wine and such. Finally, there is an extra praise for the telemetry, even if it can’t conceal all problems.  But at least now the misinterpretation of TBP and TGP stops, thanks for that. For the selected node, however, the efficiency is unfortunately still expandable. Maybe we’ll see another RDNA3 refresh in 2023? That would be desirable.

And as a conclusion, it can be left that potential buyers of a Radeon card, if they prefer the red stock (for whatever reason), will definitely not go wrong. The price is right, and so is the performance. You first have to get that right. 🙂

The graphics cards were provided by AMD for this test. The only condition was compliance with the blocking period; there was no influence or remuneration.

 

892 Antworten

Kommentar

Lade neue Kommentare

Najuno

Mitglied

16 Kommentare 12 Likes

Hallo Igor, vielen Dank für den Test :).

Ist wiedermal alles Drin und Dran, damit man sich endlich eine Übersicht machen kann, was die neuen AMD Karten nun wirklich können.

Jetzt auf jeden Fall erstmal schmökern :).

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Viel Spaß und Zeit :D

Antwort 8 Likes

Roland83

Urgestein

683 Kommentare 527 Likes

Die Runde geht wohl eindeutig an Nvidia, die Effizienz passt mir so gar nicht, vor allem der Idle Verbrauch ist unter aller S... Werd wohl wenn die Preise fallen eher zur 4080 oder 4090 schielen oder noch bis zu den nächsten Karten die 6900XT werkeln lassen :)

Antwort 3 Likes

K
Kobichief

Urgestein

671 Kommentare 202 Likes

mal schauen wann man 7800er bringt, das sieht schonmal ok aus, aber der Stromverbrauch dieser Top-Modelle ist mir zu viel.

Antwort Gefällt mir

M
Maklas

Mitglied

15 Kommentare 0 Likes

Moin,

danke schonmal für den Test, auch wenn ich gerade erst angefangen habe zu lesen.

Im zweiten Absatz auf Seite 2 hat sich Zen 3 eingeschlichen: "...nutze aber eine aktuelle AMD-CPU in Form des Ryzen 9 5950X..."

Antwort Gefällt mir

TheFanatic

Mitglied

10 Kommentare 5 Likes

Also das erklärt wieso es keinen direkten vergleiche bei der presentation gab....

Antwort 2 Likes

Z-AB

Neuling

7 Kommentare 3 Likes

Vielen Dank für die tolle Analyse, es wirkt wirklich so, als hat AMD ganz am Ende nochmal mit Gewalt ein paar Prozent mehr Leistung herausholen wollen.
Daher meine Frage @Igor Wallossek:
Gibt es schon Erkenntnisse zum Undervolting? Ist sicherlich interessant zu wissen, wie viel Leistung man bei 70-80% des Powertargets verliert.

Antwort 1 Like

FfFCMAD

Urgestein

670 Kommentare 174 Likes

Habe mir nur die Leistungsbalken vs. Energiebedarf in den Spielen angeschaut. Das war leider nichts um die 4080 im Preis zu druecken. Eher im Gegenteil. Ich lese mir das heute Abend noch mal ganz durch, aber das ist schon mal sehr enttaeuschend. Ich habe zwar die 4090 gekauft und haette das so oder so getan, bei der Mittelklasse haette ich den Leuten aber gewuenscht, das die Preis/ Leistung seitens Nvidia verbessert werden muss. Das wars wohl...

Antwort Gefällt mir

D
Daedalus

Veteran

157 Kommentare 137 Likes

Ich muss gestehen, ich bin auch etwas enttäuscht, vor allem wenn RT ins Spiel kommt. Da hätte ich gedacht, dass AMD doch mal deutlicher aufholen kann. P/L natürlich immer noch besser als nVidia, aber wenn die 4080 tatsächlich noch etwas günstiger wird, wird die 7900XTX an Attraktivität einbüßen.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

@Igor Wallossek Hier in dem Absatz stimmt irgendwas nicht (unter WQHD Benchmarks):

"Das Bild sieht jetzt erst einmal so aus, dass in WQHD die Radeon RX 7900XT und die GeForce RTX 4080 quasi gleichauf liegen, während die RX 7900XT einen Rückstand von 10,6 Prozentpunkten aufweist. Das ist alles enger als erwartet, zeigt aber auch, dass man für WQHD eigentlich auch mit einer Radeon RX 7900XT reichen würde."

Antwort Gefällt mir

Sebarbar

Neuling

8 Kommentare 7 Likes

Danke für den tollen Test Igor.
Summa Summarum ist das irgendwie "Meh", was AMD da zum Launch liefert und nach dem großen Wurf sieht das wirklich nicht aus.
Aber als alt eingesessener AMD User weiss man ja, dass es gerne am Anfang an den Treibern hakt. Time will tell und so 🤣

Antwort 1 Like

M
Moeppel

Urgestein

863 Kommentare 312 Likes

Hm, doch recht enttäuschend.

Ob es nun an der Hardware, den Treibern oder einer Mischung liegt, hat AMD die Messlatte wohl selbst ein wenig zu hoch gesetzt. Von den 70% wären 50% immerhin schön gewesen, aber selbst die Marke verfehlt man meist und nicht knapp. Ob es hier ein Zen 1 Moment ist, steht dann wohl noch aus.

Als 6900XT Besitzer für 4K setzte ich diese Generation wohl aus, außer preislich wird es noch mal richtig attraktiv.

~30% für nen Taui sind nicht gerade attraktiv. Nun, generell ist ein Taui für eine Graka per se unattraktiv :D

Ein Glück (?), dass ich derzeit ohnehin mehr am Deck hänge.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Ja, kleine Flüchtigkeitsfehler, ist gefixt. Danke. Overload halt :D

Antwort Gefällt mir

c
cunhell

Urgestein

549 Kommentare 503 Likes

Nö. es gab schlicht keine Benchmarks zur 4080 16GB. Und die 4090 wollten sie nach eigenen Angeben nicht als Konkurenzprodukt angreifen.

Meiner Meinung nach profitiert die 4080 genau wie die 4090 von dem besseren Prozess, der eine gringere Leistungsaufnahme als ursprünglich angenommen, benötigt.
Damit war AMD gezwungen, die Leistungsaufnahme nach oben zu schrauben, um ihr Ziel, der 4080 Paroli bieten zu können, zu erreichen.
Außerhalb des Sweetspots saufen halt fast alle Grafikkarten.

Ich sehe es so. Die Leistung passt soweit, der Stromverbrauch ist sowohl im Idle als auch unter Last ziemlich hoch.
Was ich allerdings als no-go sehe, sind die Spulengräusche. Das sollte heutzutage besser gehen. Die Frage ist allerdings, ob die Spulen nicht für eine gringere Leistungsaufnahme ausgelegt wurden und durch die vermutlich später höher angelegte Leistungsaufnahme eher an ihr Limit kommen.

Cunhell

edit: Vermutlich sind deshalb auch die Kühler lauter als nach der RX6000er Generation zu erwarten war. Sie müssen einfach mehr Wärme abführen als ursprünglich vorgesehen

Antwort 2 Likes

O
Oberst

Veteran

337 Kommentare 131 Likes

Jo, sehe ich auch so. RT hätte man durchaus näher an der 4080 sein dürfen und müssen. Gerade in dem Segment wäre das wichtig gewesen. Bei den kleineren Karten ist es dann vermutlich nicht mehr so wichtig und da reicht das. Aber wer über 1000€ für eine Grafikkarte zahlt, der will in RT nicht so Abstriche machen müssen. Da wird AMD wohl zügig an den Preisen drehen müssen. Vor allem, wenn die 4080 preislich fällt.

@Igor Wallossek : Den Multimonitor Verbrauch könnte man auch in's Diagramm aufnehmen. Der ist ja richtig schlecht, da kommt hoffentlich noch ein Treiber, der das behebt. Hast du dazu mal bei AMD nachgehakt?

Ansonsten war der Mehrverbrauch gegenüber Ada fast vorprogrammiert. NVidia hat mit der Gen hervorragend vorgelegt, nachdem Ampere ja nicht so toll war. Da wird AMD auch im Notebook Probleme bekommen.

Antwort Gefällt mir

b
butch111

Mitglied

54 Kommentare 17 Likes

Die AMD-Speerspitze wird in RTX 4k und trotz tolles FSR regelrecht von der 3080 verdroschen in Cyberpunk.......von Next Gen ganz zu schweigen

Antwort 2 Likes

A
Aasimar

Mitglied

37 Kommentare 12 Likes

Vielen vielen dank für diesen Test.
vor allem für die Netzteil empfehlung.
Ich hatte zwar noch ein klein wenig die Hoffung, das mein 550W reicht.. aber was solls.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

Mit Blick auf die Leistung ein Schritt nach vorne, mit Blick auf Preis und Stromverbrauch fast schon einer zurück. Aber zumindest das Gejammer über den Preis trifft beide Hersteller. Wer sich die Benchmarks - vor allem die in WQHD - anschaut, kann bei sachlicher Betrachtung auch einfach folgern, dass die alte Generation hinreichend viele FPS liefert und sich entspannt zurück lehnen.

Was mich aber beeindruckt, ist die Tatsache, dass und in welchem Maße AMD in puncto Raytracing aufgeholt hat.

Antwort Gefällt mir

Kleine-Eule73

Mitglied

58 Kommentare 52 Likes

Vielen Dank für deinen ersten Test der neuen roten :)
Bin aber etwas enttäuscht was die Leistungsaufnahme betrifft besonders im Idle.
Ich hoffe das Amd das noch mit den Treibern in den Griff bekommt und schaue bzw warte mal auf die Referenzmodelle der anderen Hersteller wie das so handhaben werden. Grundsätzlich finde ich den Leistungssprung gegenüber der vorherigen Gen schon mal ganz gut

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung