Grafikkarten Testberichte VGA

Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X 24 GB im Test – Viel hilft viel, auch bei der Kühlung

Leistungsaufnahme im Werkszustand als Zusammenfassung

Die 23.7 Watt im Idle sind besser geworden, aber immer noch recht hoch, wobei es zwischen 12 Watt und bis zu 33 Watt schwankt. Mit einem zweiten Monitor werden das schnell mal 50 Watt und mehr (Spitzen über 68 Watt). Hier muss der Treiber immer noch dringend nachgebessert werden, zumal auch der PCIe nicht immer richtig und vollstündig runtertaktet. Wir sehen übrigens sehr schön, dass nicht einmal in Ultra-HD die volle TBP ausgeschöpft wird und der Torture-Loop noch einmal bis zur Kappung zulegt (dazu komme ich gleich noch). Hier wirkt sich AMDs neue Implementierung der Telemetrie für die gesamte Karte dann doch stark begrenzend aus, auch wenn der Wert natürlich immens hoch ist. Ich hatte das ja bereits in mehreren Artikeln thematisiert und AMD auch so kommuniziert.

Lastverteilung zwischen PCIe-Slot und den PCIe-Buchsen

Die Aufteilung der Stromversorgung zeigt, dass die Karte kaum noch Reserven besitzt, was die TBP und die Leistungsfähigkeit der Rails betrifft. Während die drei 8-Pin-Anschlüsse noch nicht voll ausgelastet werden, liegt der Mainboard-Slot im Stresstest mit bis zu 5.3 Ampere nur knapp unter den zulässigen 5.5 Ampere. Im Gaming ist das alles noch knapp unterhalb von 5 Ampere.

Alles in allem hat AMD hier die Lastverteilung am PEG schon fast voll ausgenutzt, was eigentlich etwas irritiert. Während NVIDIA die Versorgung über den PEG fast komplett eingestellt hat, nutzt AMD diese Schiene recht exzessiv. In diesem Zusammenhang wirft auch die neue Teilspannung VDDCR_USR einige Fragen auf. Allerdings sind auch in den Unterlagen der Boardpartner keine handfesten Informationen dazu greifbar. Die bis zu 20 Watt, die AMD dort nur über die zwei Phasen bereitstellt, sind leicht verwunderlich, denn dafür hätte ein einziger Spannungsregler wohl mehr als ausgereicht.

Total Board Power (TBP) vs. real power consumption and the inadequacy of software tools vs. real measurements

 

200 Antworten

Kommentar

Lade neue Kommentare

Inxession

Mitglied

56 Kommentare 45 Likes

Schönes Kärtchen.

Leider viel zu teuer für meinen Use-Case.

Fürs Rastern würde ich jederzeit eine AMD Karte vorziehen.
Die Speicherausstattung ist einfach die Bessere.

Verbrauch ist RDNA3 typisch .... leider schlecht.

Aber ich finde du hast es im Fazit gut getroffen @Igor Wallossek ...

Ansich spricht ansonsten nichts gegen diese Karte, wenn man bereit ist so viel Geld für eine GPU zu bezahlen.

Antwort 2 Likes

Smartengine

Veteran

147 Kommentare 135 Likes

Ich bleib derzeit bei meiner 6800XT. Reicht noch völlig aus.
Ich liebäugle eher mit einem OLED Monitor :)

Sapphire hatte ich früher oft. So zu R9 280X Zeiten. Da waren sie aber meist nicht die Leisesten und selbst in gedämmten Gehäuse gut zu hören.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,642 Kommentare 971 Likes

Können kann die ja schon was!
Wobei ich doch die Frage habe, warum Du (Igor) auch bei dieser großen AMD Karte keine Produktivanwendungen mit getestet hast? Sieht es da denn tatsächlich so Mau aus mit der Unterstützung von AMD mit Treibern usw? Ich frage, weil ich, wenn denn mal wieder eine teure dGPU ins Haus kommen soll, die Karte dann auch alles oder zumindest vieles abdecken soll bzw muss. Ist da NVIDIA immer noch alleine auf weiter Flur? Wär schade!

Antwort Gefällt mir

IXI_HADES_IXI

Mitglied

36 Kommentare 31 Likes

Wie immer wird die Karte bis ins kleinste Detail durchleuchtet. Das mag ich am Igor. Von der PCB Analyse (Bauteile) bis hin zur Infrarot Messung! Dafür einen dicken (y) .

Was ich aber ein bisschen vermisse sind OC Test´s und vielleicht wenigstens einen synthetischen Benchmarkscore. Wie zum Beispiel den Timespy Extreme (Grafikscore). Meine XT schafft da 15302 Grafikpunkte. Wäre interessant wenn man sowas auch mit einbeziehen würde zwecks ungefährer Vergleichbarkeit.

Timespy Extreme XT

Hab also leider nur die kleine Vapor XT. Die XTX kostete da noch fast 1600 als ich aufgerüstet hatte. War mir dann doch ein klein wenig zu teuer und da wurde es nur die XT. Hat man halt davon wenn man nicht warten kann 😅 .

Zumindest ist das knapp ~Referenz XTX Niveau (Ohne OC) was man mit etwas Glück in der Chipgüte auch mit einer normalen XT erreichen kann. Dafür schluckt sie halt auch 400 Watt, zumindest wenn man sie lässt. Kurzzeitig um die 3GHz kann auch die normale XT wenn´s pressiert, sobald aber mehr Last (UHD zum Beispiel) oder RT dazu kommt sind es deutlich weniger je nach Spiel (Doom Eternal RT OFF vs RT ON als Beispiel im Anhang).

Antwort Gefällt mir

Klicke zum Ausklappem
Arnonymious

Veteran

194 Kommentare 75 Likes

Schöner Test, sehr informativ.
@Igor Wallossek Im Kapitel Leistungsaufnahme und Lastverteilung hat sich ein netter Typo eingeschlichen: "... zumal auch der PCIe nicht immer richtig und vollstündig runtertaktet."
Ist das das neue Feature der aktuellen GPU Generationen, dass die Karten einen stündlich mit einer Vollbremsung daran erinnern eine Bildschirmpause einzulegen? 😁

Antwort Gefällt mir

ApolloX

Urgestein

1,687 Kommentare 955 Likes

Die Karte scheint sehr gut zu sein, schön find ich die aber nicht.

An Benchmarks hab ich auch gedacht, aber ich würde sagen, da machen aus Sicht bestmöglicher Vergleichbarkeit Time Spy und Port Royal am meisten Sinn.

Btw: gestern Abend wurden mit einer stark getunten 79XTX die 40k im Time Spy geknackt, du das es in Rasterleistung zur 4090 jetzt dann nur noch 4k oder 10% sind.

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Wie üblich ohne Sinn und Verstand,das die Hersteller bei der 6000er schon nix gelernt hatten ok,aber langsam sollten sie doch mal und wenn es nur 5-25mV je nach Stelle weniger sind hätte min die gleiche Leistung gebracht bei TBP von 350Watt.Wäre mit dem Kühler ne verdammt gute Karte geworden. :rolleyes:

Antwort Gefällt mir

Igor Wallossek

1

10,408 Kommentare 19,387 Likes

Und genau deshalb verwende ich die hinoptimierten Synthetics absichtlich nicht. Das ist eine ausschließliche Vergleichbarkeit zwischen 1% bis zur Kotzgrenze gepimpter Karten und den speziell von AMD optimierten Treibern. Die Gefahr, dass unbedarfte User das dann pauschal auf ihre Hardware ummünzen ist riesig, wie man an den einschlägigen Foren sieht. Die ganzen UL Benchmarks sind Wettbewerbsverzerrung, solange nicht @stock gebencht wird.

Zum Binning und der Streuung schreibe ich grade einen längeren Aufsatz. genau aus diesen Gründen ist das Zufall und Lotto und kein Können. :D
In Produktivanwendungen hängt die XTX stellenweise über 50% zurück. Nichts, was man wirklich braucht. Auf die W7900 warte ich seit Tagen, AMD verschiebt das Teil immer wieder.

Nicht jeder Chip macht das mit. Deshalb nimmt man immer Worst Case. NVIDIA hat dafür das "Continue Virtual Binning" und AMD hat nichts dergleichen. Ich habe hier eine 6950XT, deren Chip so mistig ist, dass der unterhalb von 380 Watt abkackt. Da müsste ich mit dem Takt soweit runter, dass sogar eine gute 6900XT drüber lacht.

Antwort 7 Likes

E
Eribaeri

Veteran

126 Kommentare 48 Likes

Hab die XTX VaporX, zieht in Overwatch mit Competitive-Settings, einem kleinen Undervolt und dem daraus resultierenden Takt-Boost + Takt Override 280-320W. Bei 550fps nur absolut minimales Spulenfiepen. Die 3080 Strix hat bei 450W 440fps geschafft und ein Theater veranstaltet... Meine Güte.

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Ist ja nicht nur der Chip allein wo man die Spannung etwas senken könnte,nur wenn ich die Karte noch leicht übertakte,dann sollte der Chip auch nicht so schlecht sein.
In den meisten Fällen begrenzt doch eh erst das PL und der Takt bleibt weiter drunter,da würde 100% was an der Spannungskurve gehen.

Antwort Gefällt mir

Igor Wallossek

1

10,408 Kommentare 19,387 Likes

Ich will jetzt nicht dozieren, aber diese "Spannungskurve" ist ein riesiger Schwindel rund um Speedo & Co. Das sind simple Offsets zu etwas, was man als User nicht ändern kann und das fest in der CPU hinterlegt ist. Bei NV ist das cleverer gelöst und bei AMD immer der maximal möglichen Streuung geschuldet, weil man intern viel granulärer austestet, was wirklich geht. NV legt das vorher fest und betreibt Binning, AMD leider nicht :D

Antwort 3 Likes

Gregor Kacknoob

Urgestein

529 Kommentare 443 Likes

Die Maus unter den Grakas?

Antwort 1 Like

E
Eribaeri

Veteran

126 Kommentare 48 Likes

falsch. Hier nicht. Kein PL im Normalgebrauch. 450W reichen.
Quelle: Ich. Ich hab die Karte, ich hab die Karte getestet.

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Natürlich ist die Spannungskurve nicht Linear weil eben zuviel davon abhängt wie das PL,der Takt,die Auslastung......Du hast bei nem Takt von z.b. 2,6GHz und einem PL von 150Watt ne Spannung von 1,145V und bei dem gleichen Takt und PL drossel von 300Watt dann 1,125V ,aber der Chip würde auch mit 1,115V ohne Probleme laufen und es wären auch dann keine 1,145V mehr.
Beim SoC,VRam.....das gleiche und als Hersteller kann ich den Chiptakt,TDC..... ja auch begrenzen da die Karten eh extrem selten in den Takt und Strombegrenzer kommt.

Aber selbst wenn es Offset sind,kann wenigstens Sapphire diese dennoch weiter anpassen.

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Du hast doch gar kein vollen Zugriff, es geht um Sapphire z.b. die ab Werk eingreifen können.;)
Was sind 450Watt? Netzteil? Oder das PL um 100Watt angehoben?

Antwort Gefällt mir

Megaone

Urgestein

1,801 Kommentare 1,705 Likes

Für mich wird RT und DLSS/ respektive FSR immer wichtiger. Schade das ich dazu wenig gefunden habe.

Bei der aktuellen Preisgestaltung ist der Sprung zur 4090 ja nicht mehr so groß. Zumal man einerseits ein Teil des Geldes ja beim Wiederverkauf zurück bekommt und es andererseits abzuwarten bleibt, ob die nächste AMD Generation diese Karte schlagen kann. Bei RT ist man ja immer noch bei der 3000er Serie.

Ist halt ein anderer Blickwinkel.

Ausserdem hört man immer wieder von der schlechten bis katastrophalen VR Leistung der 7000er Serie. Wie schaut es denn da aus. Ist das mittlerweile behoben oder immer noch aktuell.

Antwort Gefällt mir

IXI_HADES_IXI

Mitglied

36 Kommentare 31 Likes

Dieses Argument deinerseits würde ich bei RDNA2 ja noch verstehen, da man hier kurzerhand per MPT auch ~600 Watt freigeben konnte, sprich das im Bios hinterlegte PL softwareseitig umgehen konnte und somit der Aufbau des PCB entscheidet was den maximalen Verbrauch angeht. Zudem muss ja nicht alles bis zur Kotzgrenze ausgelotet werden. Ein erhöhtes Powerlimit bewirkt ja auch schon was und leichtes UV nochmals ein bisschen was. RDNA 3 ist ja so gut wie immer PL limitiert. Genau hier unterscheiden sich die Karten ja.

Was ich damit sagen will, ohne Hardwaremod sind sowieso keine extrem hohen Sprünge drin. Das gute MPT wird bei RDNA3 nicht mehr unterstützt. Somit entscheidet eben das Powerlimit und nebenbei die "Chipgüte" bzw was zusätzlich per Undervolting möglich ist/wäre.

Die Extremescores, da gebe ich dir vollkommen recht, wäre für die breite Masse verzerrt. Bei RDNA3 sind die abgehobenen Scores allesamt doch eh nur durch EVC (Hardwaremod) erreicht worden. Softwäremäßig wie gesagt ist doch da eh alles gesperrt.

Vergleiche mit OC wären doch dann genau jetzt für die breite Masse interessant was mit maximalem PL bei unterschiedlichen Customkarten möglich ist/wäre oder sehe ich das falsch? UV könnte man zumindest oberflächlich zeigen, da ich weiß, was das für für einen Haufen Arbeit bedeutet.

Zum Thema Treiber: In Sachen Treiber blieb der sogenannte Wundertreiber, wie es bei RDNA2 der Fall war bei RDNA 3 bis her aus, vor allem was Timespy betrifft.

Antwort 1 Like

Klicke zum Ausklappem
G
Guest

Optischer Leckerbissen:love:.

Antwort Gefällt mir

c
cunhell

Urgestein

559 Kommentare 527 Likes

@Igor Wallossek
Weil Du es im Artikel erwähnt hast. Sind die Probleme bei den MBA-Karten bezüglich Vapor-Chamber eigentlich gelöst oder ist das immer noch eine gewisse Lotterie?

Cunhell

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung