Grafikkarten Testberichte VGA

Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X 24 GB im Test – Viel hilft viel, auch bei der Kühlung

Für die Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X 24 GB öffnet Sapphire den ganz großen Besteckkasten. Im Vergleich zur MBA-Karte (made by AMD) funktioniert die Vapor-Chamber übrigens bestens und macht genau das, was man von ihr erwartet. Auch in den absonderlichsten Lebens- und Einbaulagen. Zusammen mit einem deutlich höheren Power Limit geht auch beim Takt zusätzlich die Post ab. Unter voller Last an der 3-GHz-Marke zu knabbern ist schon irgendwie nice. Gut, ich will mal noch nicht allzu viel spoilern, aber diese Interpretation einer dicken Karte lässt einem dann sogar ab und an die Effizienz vergessen. Denn etwas Brechstange ist natürlich stets mit dabei. Aber sei es drum…

Natürlich gibt es, wie gewohnt und üblich, den umfassenden Teardown, eine aufwändige Platinen- und Kühler-Analyse mit einigem Reverse-Engineering, sowie die Analyse der Leistungsaufnahme und der Lastspitzen samt passender Netzteilempfehlung. Für die weiterführenden Details empfehle ich meinen Launchartikel zur Radeon RX 7900 XTX und RX 7900XT.

Die Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X 24 GB

AMDs Navi 31-GPU besitzt 58 Milliarden Transistoren und bietet ohne OC bis zu 61 TFLOPs an Single-Precision-Rechenleistung. Diese GPU verfügt zudem über einen Chiplet Interconnect mit 5,3 TB/s. Mit dem 5-nm-Node von TSMC besitzt Navi 31 GPU eine auf 165% gestiegene Transistordichte im Vergleich zu Navi 2X. Die Radeon RX 7900 XTX bietet 96 CUs mit 2,27 GHz Takt (Boost bis 2,5 GHz) und besitzt eine Board-Power von reichlich 400 Watt (Torture bis rund 450 Watt). Was den Speicher betrifft, so verfügt auch dieses XTX-Modell über 24 GB GDDR6-Speicher, der mit 20 Gbit/s getaktet ist. Diese SKU hat einen 384-Bit-Speicherbus und bietet eine Speicherbandbreite von 959,2 GB/s.

Die neue Nitro-Formsprache ist gut gelungen und Sapphire setzt nun auf einen wirklich dicken, zweischaligen Rahmen der wiederum den eigentliche Lamellenkühlkörper samt Vapor-Chamber trägt. Dazu gleich mehr im Teardown, denn das ist für Sapphire neu. Man verzichtet auf die sonst üblichen Einbaurahmen für die RAM- und VRM-Kühlung (Sandwich) und bringt jetzt alles wie aus einem Guss. Und es sieht eben nicht nur aus wie Metall, sondern es ist welches und fühlt sich deshalb auch richtig wertig an. Die Karte ist 31.5 cm lang und 13.5 cm hoch. Die Dicke ist nicht von schlechten Eltern und es ist am Ende dann ein fast 2 Kilo schweres 3,5-Slot-Design.

Auf der Oberseite sehen wir primär die drei 8-Pin Buchsen für die externe Stromversorgung. Über die Biegeradien bei den Stromversorgungsanschlüssen müssen wir AMD natürlich nicht diskutieren, das ist alles noch so richtig schön oldschool, auch wenn drei massive Kabel schon ordentlich fett auftragen. Der Radeon-Schriftzug steckt in einer großflächigen LED-Leuchtfläche, die das ARGB-Feuerwerk oben und unten so richtig anheizt. Es hat fast schon den Charme einer richtigen Leselampe und bekam von Sapphire den klangvollen Namen “Pantheon+”. Nun kann man natürlich streiten, warum gerade Pantheon, aber es könnte sich auf den in Rom befindlichen Tempel für alle römischen Götter beziehen, der über eine architektonisch wegweisende Kuppel verfügt oder aber die Mythologie und die Gesamtheit der Götter und Göttinnen, die in einem bestimmten religiösen oder kulturellen Glaubenssystem verehrt werden. Sucht euch einfach was aus oder lasst die Lampen aus. Je nach Gusto.

Dreht man die 1940 Gramm schwere Karte jetzt ebenfalls mal nach hinten, dann sieht man eine massive Backplate mit dem obligatorischen Leuchtschnickschnack. Das Sapphire Logo ist genauso am Start wie ein ARGB-Header zur externen Einbindung. Außerdem integriert Sapphire wieder Software-BIOS-Umschaltfunktion (rechts oben). Der BIOS-Schalter hat drei Positionen (von der Slotblende zum Kartenende gesehen): Standard-BIOS,  zweites BIOS (Mitte) und Software-gesteuert. Mit Sapphires TRIXX-Software kann man dann die BIOS-Auswahl umschalten, ohne das Gehäuse öffnen oder unter den Schreibtisch kriechen zu müssen.

Sapphire gibt diesem zweiten BIOS keine eigene Bezeichnung, aber eigentlich braucht man es auch gar nicht. Es lässt die Karte mit etwas niedrigeren Taktraten laufen und die geringeren Taktraten führen dann zu einer kleinen Abnahme von Temperaturen, Lüftergeschwindigkeit und Geräuschpegel. Aber das ist eher marginal und zumindest kein “echtes” Silent-BIOS. Just another option, oder so.

Mit den beiden bekannten DisplayPort 2.1 Anschlüssen, sowie zwei HDMI 2.1 Buchsen beenden wir die Nabelschau. Der USB Typ C Anschluss entfällt allerdings und auch auf der Platine fehlt die passende Spannungsversorgung.

Übersicht der RDNA3-Karten – Technische Daten

Die RDNA3-Karten unterscheiden sich durchaus und das nicht nur äußerlich. Die Karte von Sapphire übertrumpft jedoch die Referenz auch bei Takt und Power und ist von daher eine richtige Spaßkarte. Aufgeblasene OC-Kandidaten sind in der Summe natürlich stets etwas schneller, aber eben auch deutlich durstiger. Wir werden später noch sehen, dass dies auch hier der Fall sein wird, denn die gute alte Physik kann auch Sapphire nicht neu erfinden. Aber damit muss man eben leben. Ich komme noch darauf zurück.

Noch einmal der tabellarische Vergleich:

  RX 7900 XTX RX 7900 XT
Compute units 96 84
AI accelerators 192 168
Ray tracing accelerators 96 84
Memory 24 GB GDDR6 20 GB GDDR6
Memory speed 20 Gbps 20 Gbps
Memory bus size 384-bit 320-bit
Game clock speed 2.3 GHz 2 GHz
Output DisplayPort 2.1 DisplayPort 2.1
TBP 355 W 315 W
MSRP 1000 USD 900 USD

 

Test-Setup

Auf vielfachen Wunsch hin setze ich wiederum auf ein geschlossenes System, das in Form eines für igor’sLAB speziell von MIFCOM zusammengestellten PCs (exemplarischer Produktlink, kein Affiliate) eine wirklich praxisbezogene Basis bietet. Das verwendete Gehäuse ist richtig gut, besitzt genügend Innenvolumen und dazu auch noch einen vorzüglichen Airflow. Die verwendete AiO-Kompaktwasserkühlung in Form der Silen Loop II von Be Quiet passt optisch zum Gesamtkonzept und die RGB-Akzente von RAM und Motherboard lassen sich im Zweifelsfall entweder auf schlichtes Weiß setzen oder gleich ganz ausschalten. Wenn es einem mal wieder zu bunt werden sollte.

Der PC wurde von MIFCOM schön ordentlich zusammengebaut (ich habe es ja immer so mit den Kabeln) und kann in dieser Konfiguration (siehe weiter unten) genauso oder auch modifiziert beim Händler erworben werden. Mir war es hier einfach wichtig, eine marktübliche Lösung zu nutzen und nicht meine extrem gechillte Labor-Hardware in der Klima-Oase. Zwischen Seitenwand (Glas) und Grafikkarte bleibt genügend Platz und der Stauraum des XL-Gehäuses wurde nicht einmal annähernd genutzt. Somit haben sogar auch alle anderen RTX 4080 (und RTX 4090) mit dem unsäglichen Adapter noch genügend Platz zum Atmen. Das sollte also passen, denn die Radeon-Karten haben kein Problem mit ausufernden Biege-Radien. In der Front brauche ich zudem nur zwei Lüfter.

Die Messung der detaillierten Leistungsaufnahme und anderer, tiefergehender Dinge erfolgt jedoch im Labor zweigleisig mittels hochauflösender Oszillographen-Technik (es kommen ja auch noch diverse Follow-Ups!) und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards und Grafikkarten (Bilder unten) bzw. NVIDIAs PCAT. Dafür nutze ich natürlich ein redundantes System, mit den gleichen Komponenten, weil solche Messungen im Gehäuse eher schwierig sind.

Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum).

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

 

Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X, 24GB GDDR6, 2x HDMI, 2x DP, full retail (11322-01-40G)

Cyberport.deSofort verfügbar, Lieferzeit max. 1-3 Werktage972,00 €*Stand: 10.10.24 05:40
nullprozentshop.desiehe Shop999,00 €*Stand: 10.10.24 05:39
MindfactoryLagernd, Lieferung 1-2 WerktageStand: 10.10.24 05:41999,00 €*Stand: 10.10.24 05:42
*Alle Preise inkl. gesetzl. MwSt zzgl. Versandkosten und ggf. Nachnahmegebühren, wenn nicht anders beschriebenmit freundlicher Unterstützung von geizhals.de

 

 

200 Antworten

Kommentar

Lade neue Kommentare

Inxession

Mitglied

57 Kommentare 46 Likes

Schönes Kärtchen.

Leider viel zu teuer für meinen Use-Case.

Fürs Rastern würde ich jederzeit eine AMD Karte vorziehen.
Die Speicherausstattung ist einfach die Bessere.

Verbrauch ist RDNA3 typisch .... leider schlecht.

Aber ich finde du hast es im Fazit gut getroffen @Igor Wallossek ...

Ansich spricht ansonsten nichts gegen diese Karte, wenn man bereit ist so viel Geld für eine GPU zu bezahlen.

Antwort 2 Likes

Smartengine

Veteran

154 Kommentare 141 Likes

Ich bleib derzeit bei meiner 6800XT. Reicht noch völlig aus.
Ich liebäugle eher mit einem OLED Monitor :)

Sapphire hatte ich früher oft. So zu R9 280X Zeiten. Da waren sie aber meist nicht die Leisesten und selbst in gedämmten Gehäuse gut zu hören.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,885 Kommentare 1,186 Likes

Können kann die ja schon was!
Wobei ich doch die Frage habe, warum Du (Igor) auch bei dieser großen AMD Karte keine Produktivanwendungen mit getestet hast? Sieht es da denn tatsächlich so Mau aus mit der Unterstützung von AMD mit Treibern usw? Ich frage, weil ich, wenn denn mal wieder eine teure dGPU ins Haus kommen soll, die Karte dann auch alles oder zumindest vieles abdecken soll bzw muss. Ist da NVIDIA immer noch alleine auf weiter Flur? Wär schade!

Antwort Gefällt mir

IXI_HADES_IXI

Mitglied

49 Kommentare 40 Likes

Wie immer wird die Karte bis ins kleinste Detail durchleuchtet. Das mag ich am Igor. Von der PCB Analyse (Bauteile) bis hin zur Infrarot Messung! Dafür einen dicken (y) .

Was ich aber ein bisschen vermisse sind OC Test´s und vielleicht wenigstens einen synthetischen Benchmarkscore. Wie zum Beispiel den Timespy Extreme (Grafikscore). Meine XT schafft da 15302 Grafikpunkte. Wäre interessant wenn man sowas auch mit einbeziehen würde zwecks ungefährer Vergleichbarkeit.

Timespy Extreme XT

Hab also leider nur die kleine Vapor XT. Die XTX kostete da noch fast 1600 als ich aufgerüstet hatte. War mir dann doch ein klein wenig zu teuer und da wurde es nur die XT. Hat man halt davon wenn man nicht warten kann 😅 .

Zumindest ist das knapp ~Referenz XTX Niveau (Ohne OC) was man mit etwas Glück in der Chipgüte auch mit einer normalen XT erreichen kann. Dafür schluckt sie halt auch 400 Watt, zumindest wenn man sie lässt. Kurzzeitig um die 3GHz kann auch die normale XT wenn´s pressiert, sobald aber mehr Last (UHD zum Beispiel) oder RT dazu kommt sind es deutlich weniger je nach Spiel (Doom Eternal RT OFF vs RT ON als Beispiel im Anhang).

Antwort Gefällt mir

Klicke zum Ausklappem
Arnonymious

Veteran

198 Kommentare 79 Likes

Schöner Test, sehr informativ.
@Igor Wallossek Im Kapitel Leistungsaufnahme und Lastverteilung hat sich ein netter Typo eingeschlichen: "... zumal auch der PCIe nicht immer richtig und vollstündig runtertaktet."
Ist das das neue Feature der aktuellen GPU Generationen, dass die Karten einen stündlich mit einer Vollbremsung daran erinnern eine Bildschirmpause einzulegen? 😁

Antwort Gefällt mir

ApolloX

Urgestein

1,688 Kommentare 958 Likes

Die Karte scheint sehr gut zu sein, schön find ich die aber nicht.

An Benchmarks hab ich auch gedacht, aber ich würde sagen, da machen aus Sicht bestmöglicher Vergleichbarkeit Time Spy und Port Royal am meisten Sinn.

Btw: gestern Abend wurden mit einer stark getunten 79XTX die 40k im Time Spy geknackt, du das es in Rasterleistung zur 4090 jetzt dann nur noch 4k oder 10% sind.

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Wie üblich ohne Sinn und Verstand,das die Hersteller bei der 6000er schon nix gelernt hatten ok,aber langsam sollten sie doch mal und wenn es nur 5-25mV je nach Stelle weniger sind hätte min die gleiche Leistung gebracht bei TBP von 350Watt.Wäre mit dem Kühler ne verdammt gute Karte geworden. :rolleyes:

Antwort Gefällt mir

Igor Wallossek

1

10,942 Kommentare 20,744 Likes

Und genau deshalb verwende ich die hinoptimierten Synthetics absichtlich nicht. Das ist eine ausschließliche Vergleichbarkeit zwischen 1% bis zur Kotzgrenze gepimpter Karten und den speziell von AMD optimierten Treibern. Die Gefahr, dass unbedarfte User das dann pauschal auf ihre Hardware ummünzen ist riesig, wie man an den einschlägigen Foren sieht. Die ganzen UL Benchmarks sind Wettbewerbsverzerrung, solange nicht @stock gebencht wird.

Zum Binning und der Streuung schreibe ich grade einen längeren Aufsatz. genau aus diesen Gründen ist das Zufall und Lotto und kein Können. :D
In Produktivanwendungen hängt die XTX stellenweise über 50% zurück. Nichts, was man wirklich braucht. Auf die W7900 warte ich seit Tagen, AMD verschiebt das Teil immer wieder.

Nicht jeder Chip macht das mit. Deshalb nimmt man immer Worst Case. NVIDIA hat dafür das "Continue Virtual Binning" und AMD hat nichts dergleichen. Ich habe hier eine 6950XT, deren Chip so mistig ist, dass der unterhalb von 380 Watt abkackt. Da müsste ich mit dem Takt soweit runter, dass sogar eine gute 6900XT drüber lacht.

Antwort 7 Likes

E
Eribaeri

Veteran

130 Kommentare 49 Likes

Hab die XTX VaporX, zieht in Overwatch mit Competitive-Settings, einem kleinen Undervolt und dem daraus resultierenden Takt-Boost + Takt Override 280-320W. Bei 550fps nur absolut minimales Spulenfiepen. Die 3080 Strix hat bei 450W 440fps geschafft und ein Theater veranstaltet... Meine Güte.

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Ist ja nicht nur der Chip allein wo man die Spannung etwas senken könnte,nur wenn ich die Karte noch leicht übertakte,dann sollte der Chip auch nicht so schlecht sein.
In den meisten Fällen begrenzt doch eh erst das PL und der Takt bleibt weiter drunter,da würde 100% was an der Spannungskurve gehen.

Antwort Gefällt mir

Igor Wallossek

1

10,942 Kommentare 20,744 Likes

Ich will jetzt nicht dozieren, aber diese "Spannungskurve" ist ein riesiger Schwindel rund um Speedo & Co. Das sind simple Offsets zu etwas, was man als User nicht ändern kann und das fest in der CPU hinterlegt ist. Bei NV ist das cleverer gelöst und bei AMD immer der maximal möglichen Streuung geschuldet, weil man intern viel granulärer austestet, was wirklich geht. NV legt das vorher fest und betreibt Binning, AMD leider nicht :D

Antwort 3 Likes

Gregor Kacknoob

Urgestein

548 Kommentare 456 Likes

Die Maus unter den Grakas?

Antwort 1 Like

E
Eribaeri

Veteran

130 Kommentare 49 Likes

falsch. Hier nicht. Kein PL im Normalgebrauch. 450W reichen.
Quelle: Ich. Ich hab die Karte, ich hab die Karte getestet.

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Natürlich ist die Spannungskurve nicht Linear weil eben zuviel davon abhängt wie das PL,der Takt,die Auslastung......Du hast bei nem Takt von z.b. 2,6GHz und einem PL von 150Watt ne Spannung von 1,145V und bei dem gleichen Takt und PL drossel von 300Watt dann 1,125V ,aber der Chip würde auch mit 1,115V ohne Probleme laufen und es wären auch dann keine 1,145V mehr.
Beim SoC,VRam.....das gleiche und als Hersteller kann ich den Chiptakt,TDC..... ja auch begrenzen da die Karten eh extrem selten in den Takt und Strombegrenzer kommt.

Aber selbst wenn es Offset sind,kann wenigstens Sapphire diese dennoch weiter anpassen.

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Du hast doch gar kein vollen Zugriff, es geht um Sapphire z.b. die ab Werk eingreifen können.;)
Was sind 450Watt? Netzteil? Oder das PL um 100Watt angehoben?

Antwort Gefällt mir

Megaone

Urgestein

1,877 Kommentare 1,794 Likes

Für mich wird RT und DLSS/ respektive FSR immer wichtiger. Schade das ich dazu wenig gefunden habe.

Bei der aktuellen Preisgestaltung ist der Sprung zur 4090 ja nicht mehr so groß. Zumal man einerseits ein Teil des Geldes ja beim Wiederverkauf zurück bekommt und es andererseits abzuwarten bleibt, ob die nächste AMD Generation diese Karte schlagen kann. Bei RT ist man ja immer noch bei der 3000er Serie.

Ist halt ein anderer Blickwinkel.

Ausserdem hört man immer wieder von der schlechten bis katastrophalen VR Leistung der 7000er Serie. Wie schaut es denn da aus. Ist das mittlerweile behoben oder immer noch aktuell.

Antwort Gefällt mir

IXI_HADES_IXI

Mitglied

49 Kommentare 40 Likes

Dieses Argument deinerseits würde ich bei RDNA2 ja noch verstehen, da man hier kurzerhand per MPT auch ~600 Watt freigeben konnte, sprich das im Bios hinterlegte PL softwareseitig umgehen konnte und somit der Aufbau des PCB entscheidet was den maximalen Verbrauch angeht. Zudem muss ja nicht alles bis zur Kotzgrenze ausgelotet werden. Ein erhöhtes Powerlimit bewirkt ja auch schon was und leichtes UV nochmals ein bisschen was. RDNA 3 ist ja so gut wie immer PL limitiert. Genau hier unterscheiden sich die Karten ja.

Was ich damit sagen will, ohne Hardwaremod sind sowieso keine extrem hohen Sprünge drin. Das gute MPT wird bei RDNA3 nicht mehr unterstützt. Somit entscheidet eben das Powerlimit und nebenbei die "Chipgüte" bzw was zusätzlich per Undervolting möglich ist/wäre.

Die Extremescores, da gebe ich dir vollkommen recht, wäre für die breite Masse verzerrt. Bei RDNA3 sind die abgehobenen Scores allesamt doch eh nur durch EVC (Hardwaremod) erreicht worden. Softwäremäßig wie gesagt ist doch da eh alles gesperrt.

Vergleiche mit OC wären doch dann genau jetzt für die breite Masse interessant was mit maximalem PL bei unterschiedlichen Customkarten möglich ist/wäre oder sehe ich das falsch? UV könnte man zumindest oberflächlich zeigen, da ich weiß, was das für für einen Haufen Arbeit bedeutet.

Zum Thema Treiber: In Sachen Treiber blieb der sogenannte Wundertreiber, wie es bei RDNA2 der Fall war bei RDNA 3 bis her aus, vor allem was Timespy betrifft.

Antwort 1 Like

Klicke zum Ausklappem
G
Guest

Optischer Leckerbissen:love:.

Antwort Gefällt mir

c
cunhell

Urgestein

576 Kommentare 553 Likes

@Igor Wallossek
Weil Du es im Artikel erwähnt hast. Sind die Probleme bei den MBA-Karten bezüglich Vapor-Chamber eigentlich gelöst oder ist das immer noch eine gewisse Lotterie?

Cunhell

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung