Gaming GPUs Graphics Reviews

AMD Radeon RX 7900XTX and RX 7900XT Review – One giant step forward and one step sideways

Real achievable clock rates and overclocking

The clock rates and readout is kinda fancy. I have coupled my own PDM with HWInfo64 for this purpose, because most tools do not render the frequencies correctly. AMD once speaks of the significantly lower GPU clock and once of the so-called GPU front-end clock, which should be something like an effective clock. While the GPU clock of the Radeon RX 7900XTX is usually above 2.8 GHz, the values of the RX 7900XT are around 500 MHz lower. The front end is then at 3.05 GHz on average or at 2.96 GHz, which is about 100 MHz lower. We also see the clock rate drop when the temperature has risen before the fans lower the hotspot (as a reference point for the control) again.

GPU temperatures in the case

The differences are not as big as feared if you use a decent case. Because in the end, the card does not convert much more waste heat than the predecessor models. If you close the panel, the GPU temperature (Edge) increases by 2 Kelvin, the GDC hotspot increases by up to 4 Kelvin. You can see, especially with the RX 7900XTX, that the cooler has probably almost reached its limit, because every watt more would audibly drive the fans.

VRM temperatures in the case

Since AMD has to monitor all voltage converters in order to fulfill the goal of a TBP estimation as well as possible, values for the temperatures drop here as well. These in turn can now also be read out via Sensor Loop.

Infrared measurements (heat flow analysis)

Let’s start with the gaming loop and we see that the 45 watts more that an RX 7900XTX requires cannot be completely absorbed by the larger cooler either. However, the fan control of the RX 7900XT also acts a bit differently, so we should also pay attention to the next chapter.

Radeon RX 7900 XTX
Radeon RX 7900 XT

The temperatures of both cards increase a bit in the stress test, but the same applies here. Balancing act between cooling performance and fan noise.

Radeon RX 7900 XTX
Radeon RX 7900 XT

During the cooling process, you can also see very clearly where the waste heat is dissipated most intensively. The voltage transformers are at the very end here.

Radeon RX 7900 XTX

 

892 Antworten

Kommentar

Lade neue Kommentare

Najuno

Mitglied

16 Kommentare 12 Likes

Hallo Igor, vielen Dank für den Test :).

Ist wiedermal alles Drin und Dran, damit man sich endlich eine Übersicht machen kann, was die neuen AMD Karten nun wirklich können.

Jetzt auf jeden Fall erstmal schmökern :).

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Viel Spaß und Zeit :D

Antwort 8 Likes

Roland83

Urgestein

683 Kommentare 527 Likes

Die Runde geht wohl eindeutig an Nvidia, die Effizienz passt mir so gar nicht, vor allem der Idle Verbrauch ist unter aller S... Werd wohl wenn die Preise fallen eher zur 4080 oder 4090 schielen oder noch bis zu den nächsten Karten die 6900XT werkeln lassen :)

Antwort 3 Likes

K
Kobichief

Urgestein

671 Kommentare 202 Likes

mal schauen wann man 7800er bringt, das sieht schonmal ok aus, aber der Stromverbrauch dieser Top-Modelle ist mir zu viel.

Antwort Gefällt mir

M
Maklas

Mitglied

15 Kommentare 0 Likes

Moin,

danke schonmal für den Test, auch wenn ich gerade erst angefangen habe zu lesen.

Im zweiten Absatz auf Seite 2 hat sich Zen 3 eingeschlichen: "...nutze aber eine aktuelle AMD-CPU in Form des Ryzen 9 5950X..."

Antwort Gefällt mir

TheFanatic

Mitglied

10 Kommentare 5 Likes

Also das erklärt wieso es keinen direkten vergleiche bei der presentation gab....

Antwort 2 Likes

Z-AB

Neuling

7 Kommentare 3 Likes

Vielen Dank für die tolle Analyse, es wirkt wirklich so, als hat AMD ganz am Ende nochmal mit Gewalt ein paar Prozent mehr Leistung herausholen wollen.
Daher meine Frage @Igor Wallossek:
Gibt es schon Erkenntnisse zum Undervolting? Ist sicherlich interessant zu wissen, wie viel Leistung man bei 70-80% des Powertargets verliert.

Antwort 1 Like

FfFCMAD

Urgestein

670 Kommentare 174 Likes

Habe mir nur die Leistungsbalken vs. Energiebedarf in den Spielen angeschaut. Das war leider nichts um die 4080 im Preis zu druecken. Eher im Gegenteil. Ich lese mir das heute Abend noch mal ganz durch, aber das ist schon mal sehr enttaeuschend. Ich habe zwar die 4090 gekauft und haette das so oder so getan, bei der Mittelklasse haette ich den Leuten aber gewuenscht, das die Preis/ Leistung seitens Nvidia verbessert werden muss. Das wars wohl...

Antwort Gefällt mir

D
Daedalus

Veteran

157 Kommentare 137 Likes

Ich muss gestehen, ich bin auch etwas enttäuscht, vor allem wenn RT ins Spiel kommt. Da hätte ich gedacht, dass AMD doch mal deutlicher aufholen kann. P/L natürlich immer noch besser als nVidia, aber wenn die 4080 tatsächlich noch etwas günstiger wird, wird die 7900XTX an Attraktivität einbüßen.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

@Igor Wallossek Hier in dem Absatz stimmt irgendwas nicht (unter WQHD Benchmarks):

"Das Bild sieht jetzt erst einmal so aus, dass in WQHD die Radeon RX 7900XT und die GeForce RTX 4080 quasi gleichauf liegen, während die RX 7900XT einen Rückstand von 10,6 Prozentpunkten aufweist. Das ist alles enger als erwartet, zeigt aber auch, dass man für WQHD eigentlich auch mit einer Radeon RX 7900XT reichen würde."

Antwort Gefällt mir

Sebarbar

Neuling

8 Kommentare 7 Likes

Danke für den tollen Test Igor.
Summa Summarum ist das irgendwie "Meh", was AMD da zum Launch liefert und nach dem großen Wurf sieht das wirklich nicht aus.
Aber als alt eingesessener AMD User weiss man ja, dass es gerne am Anfang an den Treibern hakt. Time will tell und so 🤣

Antwort 1 Like

M
Moeppel

Urgestein

863 Kommentare 312 Likes

Hm, doch recht enttäuschend.

Ob es nun an der Hardware, den Treibern oder einer Mischung liegt, hat AMD die Messlatte wohl selbst ein wenig zu hoch gesetzt. Von den 70% wären 50% immerhin schön gewesen, aber selbst die Marke verfehlt man meist und nicht knapp. Ob es hier ein Zen 1 Moment ist, steht dann wohl noch aus.

Als 6900XT Besitzer für 4K setzte ich diese Generation wohl aus, außer preislich wird es noch mal richtig attraktiv.

~30% für nen Taui sind nicht gerade attraktiv. Nun, generell ist ein Taui für eine Graka per se unattraktiv :D

Ein Glück (?), dass ich derzeit ohnehin mehr am Deck hänge.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Ja, kleine Flüchtigkeitsfehler, ist gefixt. Danke. Overload halt :D

Antwort Gefällt mir

c
cunhell

Urgestein

549 Kommentare 503 Likes

Nö. es gab schlicht keine Benchmarks zur 4080 16GB. Und die 4090 wollten sie nach eigenen Angeben nicht als Konkurenzprodukt angreifen.

Meiner Meinung nach profitiert die 4080 genau wie die 4090 von dem besseren Prozess, der eine gringere Leistungsaufnahme als ursprünglich angenommen, benötigt.
Damit war AMD gezwungen, die Leistungsaufnahme nach oben zu schrauben, um ihr Ziel, der 4080 Paroli bieten zu können, zu erreichen.
Außerhalb des Sweetspots saufen halt fast alle Grafikkarten.

Ich sehe es so. Die Leistung passt soweit, der Stromverbrauch ist sowohl im Idle als auch unter Last ziemlich hoch.
Was ich allerdings als no-go sehe, sind die Spulengräusche. Das sollte heutzutage besser gehen. Die Frage ist allerdings, ob die Spulen nicht für eine gringere Leistungsaufnahme ausgelegt wurden und durch die vermutlich später höher angelegte Leistungsaufnahme eher an ihr Limit kommen.

Cunhell

edit: Vermutlich sind deshalb auch die Kühler lauter als nach der RX6000er Generation zu erwarten war. Sie müssen einfach mehr Wärme abführen als ursprünglich vorgesehen

Antwort 2 Likes

O
Oberst

Veteran

337 Kommentare 131 Likes

Jo, sehe ich auch so. RT hätte man durchaus näher an der 4080 sein dürfen und müssen. Gerade in dem Segment wäre das wichtig gewesen. Bei den kleineren Karten ist es dann vermutlich nicht mehr so wichtig und da reicht das. Aber wer über 1000€ für eine Grafikkarte zahlt, der will in RT nicht so Abstriche machen müssen. Da wird AMD wohl zügig an den Preisen drehen müssen. Vor allem, wenn die 4080 preislich fällt.

@Igor Wallossek : Den Multimonitor Verbrauch könnte man auch in's Diagramm aufnehmen. Der ist ja richtig schlecht, da kommt hoffentlich noch ein Treiber, der das behebt. Hast du dazu mal bei AMD nachgehakt?

Ansonsten war der Mehrverbrauch gegenüber Ada fast vorprogrammiert. NVidia hat mit der Gen hervorragend vorgelegt, nachdem Ampere ja nicht so toll war. Da wird AMD auch im Notebook Probleme bekommen.

Antwort Gefällt mir

b
butch111

Mitglied

54 Kommentare 17 Likes

Die AMD-Speerspitze wird in RTX 4k und trotz tolles FSR regelrecht von der 3080 verdroschen in Cyberpunk.......von Next Gen ganz zu schweigen

Antwort 2 Likes

A
Aasimar

Mitglied

37 Kommentare 12 Likes

Vielen vielen dank für diesen Test.
vor allem für die Netzteil empfehlung.
Ich hatte zwar noch ein klein wenig die Hoffung, das mein 550W reicht.. aber was solls.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

Mit Blick auf die Leistung ein Schritt nach vorne, mit Blick auf Preis und Stromverbrauch fast schon einer zurück. Aber zumindest das Gejammer über den Preis trifft beide Hersteller. Wer sich die Benchmarks - vor allem die in WQHD - anschaut, kann bei sachlicher Betrachtung auch einfach folgern, dass die alte Generation hinreichend viele FPS liefert und sich entspannt zurück lehnen.

Was mich aber beeindruckt, ist die Tatsache, dass und in welchem Maße AMD in puncto Raytracing aufgeholt hat.

Antwort Gefällt mir

Kleine-Eule73

Mitglied

58 Kommentare 52 Likes

Vielen Dank für deinen ersten Test der neuen roten :)
Bin aber etwas enttäuscht was die Leistungsaufnahme betrifft besonders im Idle.
Ich hoffe das Amd das noch mit den Treibern in den Griff bekommt und schaue bzw warte mal auf die Referenzmodelle der anderen Hersteller wie das so handhaben werden. Grundsätzlich finde ich den Leistungssprung gegenüber der vorherigen Gen schon mal ganz gut

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung