Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X 24 GB im Test – Viel hilft viel, auch bei der Kühlung

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Für die Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X 24 GB öffnet Sapphire den ganz großen Besteckkasten. Im Vergleich zur MBA-Karte (made by AMD) funktioniert die Vapor-Chamber übrigens bestens und macht genau das, was man von ihr erwartet. Auch in den absonderlichsten Lebens- und Einbaulagen. Zusammen mit einem deutlich höheren Power Limit geht auch beim (den ganzen Artikel lesen...)
 
Schönes Kärtchen.

Leider viel zu teuer für meinen Use-Case.

Fürs Rastern würde ich jederzeit eine AMD Karte vorziehen.
Die Speicherausstattung ist einfach die Bessere.

Verbrauch ist RDNA3 typisch .... leider schlecht.

Aber ich finde du hast es im Fazit gut getroffen @Igor Wallossek ...

Ansich spricht ansonsten nichts gegen diese Karte, wenn man bereit ist so viel Geld für eine GPU zu bezahlen.
 
Ich bleib derzeit bei meiner 6800XT. Reicht noch völlig aus.
Ich liebäugle eher mit einem OLED Monitor :)

Sapphire hatte ich früher oft. So zu R9 280X Zeiten. Da waren sie aber meist nicht die Leisesten und selbst in gedämmten Gehäuse gut zu hören.
 
Können kann die ja schon was!
Wobei ich doch die Frage habe, warum Du (Igor) auch bei dieser großen AMD Karte keine Produktivanwendungen mit getestet hast? Sieht es da denn tatsächlich so Mau aus mit der Unterstützung von AMD mit Treibern usw? Ich frage, weil ich, wenn denn mal wieder eine teure dGPU ins Haus kommen soll, die Karte dann auch alles oder zumindest vieles abdecken soll bzw muss. Ist da NVIDIA immer noch alleine auf weiter Flur? Wär schade!
 
Wie immer wird die Karte bis ins kleinste Detail durchleuchtet. Das mag ich am Igor. Von der PCB Analyse (Bauteile) bis hin zur Infrarot Messung! Dafür einen dicken (y) .

Was ich aber ein bisschen vermisse sind OC Test´s und vielleicht wenigstens einen synthetischen Benchmarkscore. Wie zum Beispiel den Timespy Extreme (Grafikscore). Meine XT schafft da 15302 Grafikpunkte. Wäre interessant wenn man sowas auch mit einbeziehen würde zwecks ungefährer Vergleichbarkeit.

Timespy Extreme XT

Hab also leider nur die kleine Vapor XT. Die XTX kostete da noch fast 1600 als ich aufgerüstet hatte. War mir dann doch ein klein wenig zu teuer und da wurde es nur die XT. Hat man halt davon wenn man nicht warten kann 😅 .

Zumindest ist das knapp ~Referenz XTX Niveau (Ohne OC) was man mit etwas Glück in der Chipgüte auch mit einer normalen XT erreichen kann. Dafür schluckt sie halt auch 400 Watt, zumindest wenn man sie lässt. Kurzzeitig um die 3GHz kann auch die normale XT wenn´s pressiert, sobald aber mehr Last (UHD zum Beispiel) oder RT dazu kommt sind es deutlich weniger je nach Spiel (Doom Eternal RT OFF vs RT ON als Beispiel im Anhang).
 

Anhänge

  • 7900 XT Vapor X.jpg
    7900 XT Vapor X.jpg
    1,8 MB · Aufrufe : 19
  • Doom Eternal RT OFF 3 GHz.jpg
    Doom Eternal RT OFF 3 GHz.jpg
    1,5 MB · Aufrufe : 18
  • Doom Eternal Raytracing.jpg
    Doom Eternal Raytracing.jpg
    1,4 MB · Aufrufe : 18
Zuletzt bearbeitet :
Schöner Test, sehr informativ.
@Igor Wallossek Im Kapitel Leistungsaufnahme und Lastverteilung hat sich ein netter Typo eingeschlichen: "... zumal auch der PCIe nicht immer richtig und vollstündig runtertaktet."
Ist das das neue Feature der aktuellen GPU Generationen, dass die Karten einen stündlich mit einer Vollbremsung daran erinnern eine Bildschirmpause einzulegen? 😁
 
Die Karte scheint sehr gut zu sein, schön find ich die aber nicht.

An Benchmarks hab ich auch gedacht, aber ich würde sagen, da machen aus Sicht bestmöglicher Vergleichbarkeit Time Spy und Port Royal am meisten Sinn.

Btw: gestern Abend wurden mit einer stark getunten 79XTX die 40k im Time Spy geknackt, du das es in Rasterleistung zur 4090 jetzt dann nur noch 4k oder 10% sind.
 
Wie üblich ohne Sinn und Verstand,das die Hersteller bei der 6000er schon nix gelernt hatten ok,aber langsam sollten sie doch mal und wenn es nur 5-25mV je nach Stelle weniger sind hätte min die gleiche Leistung gebracht bei TBP von 350Watt.Wäre mit dem Kühler ne verdammt gute Karte geworden. :rolleyes:
 
Btw: gestern Abend wurden mit einer stark getunten 79XTX die 40k im Time Spy geknackt, du das es in Rasterleistung zur 4090 jetzt dann nur noch 4k oder 10% sind.
Und genau deshalb verwende ich die hinoptimierten Synthetics absichtlich nicht. Das ist eine ausschließliche Vergleichbarkeit zwischen 1% bis zur Kotzgrenze gepimpter Karten und den speziell von AMD optimierten Treibern. Die Gefahr, dass unbedarfte User das dann pauschal auf ihre Hardware ummünzen ist riesig, wie man an den einschlägigen Foren sieht. Die ganzen UL Benchmarks sind Wettbewerbsverzerrung, solange nicht @stock gebencht wird.

Zum Binning und der Streuung schreibe ich grade einen längeren Aufsatz. genau aus diesen Gründen ist das Zufall und Lotto und kein Können. :D
In Produktivanwendungen hängt die XTX stellenweise über 50% zurück. Nichts, was man wirklich braucht. Auf die W7900 warte ich seit Tagen, AMD verschiebt das Teil immer wieder.

Wie üblich ohne Sinn und Verstand,das die Hersteller bei der 6000er schon nix gelernt hatten ok,aber langsam sollten sie doch mal und wenn es nur 5-25mV je nach Stelle weniger sind hätte min die gleiche Leistung gebracht bei TBP von 350Watt.Wäre mit dem Kühler ne verdammt gute Karte geworden. :rolleyes:
Nicht jeder Chip macht das mit. Deshalb nimmt man immer Worst Case. NVIDIA hat dafür das "Continue Virtual Binning" und AMD hat nichts dergleichen. Ich habe hier eine 6950XT, deren Chip so mistig ist, dass der unterhalb von 380 Watt abkackt. Da müsste ich mit dem Takt soweit runter, dass sogar eine gute 6900XT drüber lacht.
 
Hab die XTX VaporX, zieht in Overwatch mit Competitive-Settings, einem kleinen Undervolt und dem daraus resultierenden Takt-Boost + Takt Override 280-320W. Bei 550fps nur absolut minimales Spulenfiepen. Die 3080 Strix hat bei 450W 440fps geschafft und ein Theater veranstaltet... Meine Güte.
 
Zum Binning und der Streuung schreibe ich grade einen längeren Aufsatz. genau aus diesen Gründen ist das Zufall und Lotto und kein Können. :D
In Produktivanwendungen hängt die XTX stellenweise über 50% zurück. Nichts, was man wirklich braucht. Auf die W7900 warte ich seit Tagen, AMD verschiebt das Teil immer wieder.


Nicht jeder Chip macht das mit. Deshalb nimmt man immer Worst Case. NVIDIA hat dafür das "Continue Virtual Binning" und AMD hat nichts dergleichen. Ich habe hier eine 6950XT, deren Chip so mistig ist, dass der unterhalb von 380 Watt abkackt. Da müsste ich mit dem Takt soweit runter, dass sogar eine gute 6900XT drüber lalacht.
Ist ja nicht nur der Chip allein wo man die Spannung etwas senken könnte,nur wenn ich die Karte noch leicht übertakte,dann sollte der Chip auch nicht so schlecht sein.
In den meisten Fällen begrenzt doch eh erst das PL und der Takt bleibt weiter drunter,da würde 100% was an der Spannungskurve gehen.
 
Ich will jetzt nicht dozieren, aber diese "Spannungskurve" ist ein riesiger Schwindel rund um Speedo & Co. Das sind simple Offsets zu etwas, was man als User nicht ändern kann und das fest in der CPU hinterlegt ist. Bei NV ist das cleverer gelöst und bei AMD immer der maximal möglichen Streuung geschuldet, weil man intern viel granulärer austestet, was wirklich geht. NV legt das vorher fest und betreibt Binning, AMD leider nicht :D
 
Ist ja nicht nur der Chip allein wo man die Spannung etwas senken könnte,nur wenn ich die Karte noch leicht übertakte,dann sollte der Chip auch nicht so schlecht sein.
In den meisten Fällen begrenzt doch eh erst das PL und der Takt bleibt weiter drunter,da würde 100% was an der Spannungskurve gehen.
falsch. Hier nicht. Kein PL im Normalgebrauch. 450W reichen.
Quelle: Ich. Ich hab die Karte, ich hab die Karte getestet.
 
Ich will jetzt nicht dozieren, aber diese "Spannungskurve" ist ein riesiger Schwindel rund um Speedo & Co. Das sind simple Offsets zu etwas, was man als User nicht ändern kann und das fest in der CPU hinterlegt ist. Bei NV ist das cleverer gelöst und bei AMD immer der maximal möglichen Streuung geschuldet, weil man intern viel granulärer austestet, was wirklich geht. NV legt das vorher fest und betreibt Binning, AMD leider nicht :D
Natürlich ist die Spannungskurve nicht Linear weil eben zuviel davon abhängt wie das PL,der Takt,die Auslastung......Du hast bei nem Takt von z.b. 2,6GHz und einem PL von 150Watt ne Spannung von 1,145V und bei dem gleichen Takt und PL drossel von 300Watt dann 1,125V ,aber der Chip würde auch mit 1,115V ohne Probleme laufen und es wären auch dann keine 1,145V mehr.
Beim SoC,VRam.....das gleiche und als Hersteller kann ich den Chiptakt,TDC..... ja auch begrenzen da die Karten eh extrem selten in den Takt und Strombegrenzer kommt.

Aber selbst wenn es Offset sind,kann wenigstens Sapphire diese dennoch weiter anpassen.
 
Zuletzt bearbeitet :
falsch. Hier nicht. Kein PL im Normalgebrauch. 450W reichen.
Quelle: Ich. Ich hab die Karte, ich hab die Karte getestet.
Du hast doch gar kein vollen Zugriff, es geht um Sapphire z.b. die ab Werk eingreifen können.;)
Was sind 450Watt? Netzteil? Oder das PL um 100Watt angehoben?
 
Für mich wird RT und DLSS/ respektive FSR immer wichtiger. Schade das ich dazu wenig gefunden habe.

Bei der aktuellen Preisgestaltung ist der Sprung zur 4090 ja nicht mehr so groß. Zumal man einerseits ein Teil des Geldes ja beim Wiederverkauf zurück bekommt und es andererseits abzuwarten bleibt, ob die nächste AMD Generation diese Karte schlagen kann. Bei RT ist man ja immer noch bei der 3000er Serie.

Ist halt ein anderer Blickwinkel.

Ausserdem hört man immer wieder von der schlechten bis katastrophalen VR Leistung der 7000er Serie. Wie schaut es denn da aus. Ist das mittlerweile behoben oder immer noch aktuell.
 
Und genau deshalb verwende ich die hinoptimierten Synthetics absichtlich nicht. Das ist eine ausschließliche Vergleichbarkeit zwischen 1% bis zur Kotzgrenze gepimpter Karten und den speziell von AMD optimierten Treibern. Die Gefahr, dass unbedarfte User das dann pauschal auf ihre Hardware ummünzen ist riesig, wie man an den einschlägigen Foren sieht. Die ganzen UL Benchmarks sind Wettbewerbsverzerrung, solange nicht @stock gebencht wird.
Dieses Argument deinerseits würde ich bei RDNA2 ja noch verstehen, da man hier kurzerhand per MPT auch ~600 Watt freigeben konnte, sprich das im Bios hinterlegte PL softwareseitig umgehen konnte und somit der Aufbau des PCB entscheidet was den maximalen Verbrauch angeht. Zudem muss ja nicht alles bis zur Kotzgrenze ausgelotet werden. Ein erhöhtes Powerlimit bewirkt ja auch schon was und leichtes UV nochmals ein bisschen was. RDNA 3 ist ja so gut wie immer PL limitiert. Genau hier unterscheiden sich die Karten ja.

Was ich damit sagen will, ohne Hardwaremod sind sowieso keine extrem hohen Sprünge drin. Das gute MPT wird bei RDNA3 nicht mehr unterstützt. Somit entscheidet eben das Powerlimit und nebenbei die "Chipgüte" bzw was zusätzlich per Undervolting möglich ist/wäre.

Die Extremescores, da gebe ich dir vollkommen recht, wäre für die breite Masse verzerrt. Bei RDNA3 sind die abgehobenen Scores allesamt doch eh nur durch EVC (Hardwaremod) erreicht worden. Softwäremäßig wie gesagt ist doch da eh alles gesperrt.

Vergleiche mit OC wären doch dann genau jetzt für die breite Masse interessant was mit maximalem PL bei unterschiedlichen Customkarten möglich ist/wäre oder sehe ich das falsch? UV könnte man zumindest oberflächlich zeigen, da ich weiß, was das für für einen Haufen Arbeit bedeutet.

Zum Thema Treiber: In Sachen Treiber blieb der sogenannte Wundertreiber, wie es bei RDNA2 der Fall war bei RDNA 3 bis her aus, vor allem was Timespy betrifft.
 
Zuletzt bearbeitet :
@Igor Wallossek
Weil Du es im Artikel erwähnt hast. Sind die Probleme bei den MBA-Karten bezüglich Vapor-Chamber eigentlich gelöst oder ist das immer noch eine gewisse Lotterie?

Cunhell
 
Oben Unten