Grafikkarten News Testberichte VGA

AMD Radeon RX 7900XTX im virtuellen Benchmark – Mögliche Leistung und Limits der Referenzkarte

Um einerseits den Spekulations-Faktor möglichst niedrig zu halten und andererseits nicht gleichzeitig eines der NDAs zu verletzen, musste ich diesmal etwas weiter ausholen. Das eigentliche Problem waren aber die extrem verschiedenen Puzzlestücke beider Hersteller in diversen Verlautbarungen, was eine Vorschau auf Rasterleistung beider Karten nicht gerade vereinfacht. Unterschiedlichste Settings oder Spiele, fehlende Details und vieles mehr sind nicht gerade eine seriöse Einladung, um solche Spekulationen ohne faden Beigeschmack zu veröffentlichen. Zumal ich bei der RTX 4080 ja bereits unter NDA stehe und bei der RX 7900XTX nicht. Und so ist der gesamte Artikel natürlich trotzdem noch hochspekulativ, weil es ja im letzten Moment auch noch völlig anders kommen könnte. Aber so ganz falsch dürfte die heute Rechnung trotzdem nicht sein. Lassen wir uns später dann einfach überraschen.

Source: AMD

Wir schätzen eine Radeon RX 7900XTX im „Best Case“ von AMD

AMD hat beim Ankündigungs-Event am 03.11.2022 in seinen Folien leider nur sehr wenige, handverlesene Spieletitel aufgeführt und das Meiste zudem mit „Up to“ deklariert. Da die Raytracing-Leistung der GeForce RTX 4080 16 GB als von AMD erklärter Gegnerin nur schwer mit dem Taschenrechner hochzurechnen ist, beschränke ich mich heute auf die reine Raster-Leistung der neuen Karte und werde erst am Schluss noch eine Art Prognose zu DXR wagen. Der „Best Case“ in Ultra-HD war übrigens Cyberpunk 2077 mit dem Faktor 1.7 gegenüber der Radeon RX 6950XT, von der ich ausgehe, dass es eine Referenzkarte gewesen sein soll.

Deshalb habe ich mangels Referenzkarte meine werksübertaktete MSI RX 6950XT Gaming X Trio zunächst im Auslieferungszustand mit deutlich höherem Power Limit und Takt gemessen. Danach habe ich die Daten des Referenz-BIOS mittels MorePowerTool in die PowerPlayTables geschrieben und zusammen mit Boardpartner-Karte genutzt, um diese werksübertaktete Karte wieder dem Referenz-Niveau anzugleichen. Danach habe ich die zweiten Benchmarks erstellt, die mir nun als Basis für die Radeon RX 6950XT dienen, wie auch AMD sie genutzt haben dürfte. Mit den FPS-Werten der sehr unterschiedlichen Settings kann man relativ einfach auch die gesteigerte Leistungsaufnahme der CPU (gemessen) ins Verhältnis setzen und für die neue Karte hochrechnen. Ein Plausibilitätstest mit den Messwerten für die GeForce RTX 4090 FE bestätigte das dann recht genau.

AMD nennt für Cyberpunk 2077, Ultra-HD und Ultra-Preset den Faktor 1.7, um den die RX 7900XTX im gewählten Setting schneller sein soll. Diesen Multiplikator habe ich nun genutzt, um alle aufgezeichneten, einzelnen Frames der RX 6950XT entsprechend zu modifizieren und die Frame Time passend herunterzurechnen. Das ist bei den Perzentilen allerdings sehr spekulativ, denn dazu fehlt von AMD leider jegliche Angabe. Aber ich gehe mal davon aus, dass sich hier gar nicht nicht so viel geändert haben dürfte. Es könnte maximal etwas besser ausfallen. Immer vorausgesetzt, der von AMD angegebene Wert mit dem 1.7 stimmt auch.

Übertaktung der Referenzkarte? Das wird knapp!

AMD setzt die Radeon RX 7900XTX auf eine TBP von 355 Watt. Da beide externen 8-pin Buchsen in der Summe 300 Watt zulassen, entfallen auf den PCIe-Slot maximal 66 Watt, von denen 55 Watt bereits veranschlagt wurden. Damit bliebe ein Spielraum von nur 11 Watt für eine mögliche und normgerechte Übertaktung mit Anhebung des Power Limits, was aber eher symbolisch ist, weil es sehr mager ausfällt. Alles, was darüber hinaus geht, würde bereits gegen die geltenden Normen der PCI SIG verstoßen. Man kann natürlich vermuten, dass die TBP ursprünglich deutlich niedriger lag und man bei AMD erst später die TBP noch aufgebohrt und den möglichen Übertaktungsspielraum des Kunden bereits in den Werkstakt übernommen hat.

Die 11 Watt bis zur Normgrenze dienen dann eher als Puffer für die Messungen, weil die aufgeheizten Spannungswandler in der Regel ineffizienter arbeiten. Zumindest hat AMD diesmal aufgepasst und den Fehler der Radeon RX 480 nicht wiederholt. Die Symbolgrafik einer Boardpartner-Karte mit drei 8-Pin-Buchsen hatte ich ja bereits schon so ähnlich gezeigt (sowie heute um eine echtes AIB-Overlay ergänzt, das beweist, wie richtig meine Schätzung war). Die bereits veröffentlichten Rendergrafiken der Boardpartnerkarten (z.B. Asus) bestätigen meine Grafik in vollem Umfang, auch was die Ausstattung der Karte und das (theoretisch) maximal mögliche Power Limit von nunmehr 516 Watt betrifft. Das wird in der Praxis wohl eher ein lüsternes Gedankenspiel bleiben, denn es wird sich kaum realistisch und noch vertretbar in Performance umsetzen lassen.

Eine kleine Randnotiz kann ich ja noch mit einbinden: die AIB-Karten werden für die Radeon RX 7900XTX und RX 7900XT die gleichen Platinen verwenden. Je nach AIB muss die kleinere Karte vielleicht auf den einen oder anderen Spannungswandler verzichten, bei manchen AIB aber auch nicht. Das macht die Verfügbarkeit passender Wasserblöcke für die Hersteller der Zubehörkühler deutlich einfacher. Und wie setzen sich die 355 Watt nun genau zusammen? Auch das kann man in etwa hochrechnen, wenn man die üblichen (und damit bekannten Komponenten) zugrunde legt und auch die Spannungswandler analog zur Verlustleistung der Karte mit einpreist. Auch diese Werte sind rein hypothetisch und nicht in Stein gemeißelt, bieten aber schon einmal einen gewissen Überblick:

GPU (einschl. Speichercontroller) 240 Watt
24 GB GDDR6 (12 Module á 2 GB) 30 Watt
Spannungswandlerverluste GPU (DRMOS, Spulen) 30 Watt
Spannungswandlerverluste Speicher (DRMOS, Spulen) 10 Watt
Platinenverluste 17 Watt
Sonstiges (Kleinspannungen, Lüfter, MCU, LED usw.) 28 Watt
Total Board Power (TBP) 355 Watt

 

Die GeForce RTX 4080 FE 16 GB bräuchte eine andere Betrachtung…

Hier liegt die Sache leider komplett anders. Ich schrieb ja schon: NDA. Aus den bereits von NVIDIA selbst veröffentlichten Benchmarks kann man aber ableiten, dass die Rasterleistung in Cyberpunk 2077 ca. 15% bis 20% über der NVIDIA GeForce RTX 3090 Ti FE und noch ca. 10% über der hier getesteten und sehr hoch übertakteten Boardpartnerkarte in Form der MSI GeForce RTX 3090 Ti SUPRIM X liegen dürfte. Das ist der einzige Anhaltspunkt, der bereits aus den im Netz befindlichen Daten abgeleitet werden kann. Deshalb steht die somit mutmaßlich ca. 10% langsamere RTX 3090 Ti in meinen Charts stellvertretend für die GeForce RTX 4080, die ja am 16.11.2022 gelauncht wird. Den Rest müsst Ihr Euch einfach selbst dazu denken. Oder warten, auch wenn es schwer fällt. Dummerweise war meine Schätzung der RTX 4080 einfach zu genau, um nicht als mutmaßliche NDA-Verletzung durchzugehen.

Test-Setup

Auf vielfachen Wunsch hin setze ich auf ein geschlossenes System, das in Form eines für igor’sLAB speziell von MIFCOM zusammengestellten PCs (exemplarischer Produktlink, kein Affiliate) diesmal eine praxisbezogene Basis bietet. Das verwendete Gehäuse ist richtig gut, besitzt genügend Innenvolumen und dazu auch noch einen vorzüglichen Airflow. Die verwendete AiO-Kompaktwasserkühlung in Form der Silen Loop II von Be Quiet passt optisch zur GeForce RTX 4090 FE und die RGB-Akzente von RAM und Motherboard lassen sich im Zweifelsfall entweder auf schlichtes Weiß setzen oder gleich ganz ausschalten. Wenn es einem mal wieder zu bunt werden sollte.

Ich habe bei meiner Zusammenstellung bewusst auf das ganze Bling-Bling verzichtet, nutze aber eine aktuelle AMD-CPU und ein solides Motherboard für den potenten Unterbau. Hier habe ich für Euch noch ein paar Bilder meines Testsystems aus dem Labor samt der mitgetesteten NVIDIA RTX 4090 Founders Edition 24GB. Der PC wurde von MIFCOM schön ordentlich zusammengebaut (ich habe es ja immer so mit den Kabeln) und kann in dieser Konfiguration (siehe weiter unten) genau so oder auch modifiziert beim Händler erworben werden. Mir war es hier einfach wichtig, eine marktübliche Lösung zu nutzen und nicht meine extrem gechillte Labor-Hardware in der Klima-Oase.

Zwischen Seitenwand (Glas) und Grafikkarte bleibt genügend Platz und der Stauraum des XL-Gehäuses wurde nicht einmal annähernd genutzt. Somit haben sogar auch alle anderen getesteten Karten noch genügend Platz zum Atmen. Das sollte also passen. In der Front brauche ich zudem nur zwei Lüfter.

Klappe zu, Affe und Adapter (noch) nicht tot

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

 

101 Antworten

Kommentar

Lade neue Kommentare

My-konos

Veteran

270 Kommentare 91 Likes

Passend zur kommenden Weihnachtszeit Spekulatius. Sehr schön.

Wäre auch meine Vermutung gewesen, dass AMD um die 4080 kämpfen wird. Die 4090 ist eben ein Brett, dass so nicht gebohrt werden kann.

Preis wird spannend und wahrscheinlich dann auch interessant für die Kunden.

Antwort 3 Likes

F
Falcon

Mitglied

86 Kommentare 85 Likes

Wenn du so weiter machst stellen die Hersteller bald alles unter NDA! :ROFLMAO:

Bin schwer gespannt wie genau du dieses mal ins Schwarze triffst Igor!

Antwort Gefällt mir

Roland83

Urgestein

659 Kommentare 500 Likes

Der Preis wird sicher der springende Punkt bei der 4080 vs XT XTX... Aktuell stehen die "Platzhalter" unsere Großhändler bei der Nvidia in AT bei etwa 1700-1900 Euro, je nach Variante, als Strassenpreis.
Das ist natürlich deutlich zu viel wenn die XTX dann sagen wir mit um die 1200 aufschlägt.... Es sei denn AMD kriegt keine Karten in die Läden, wie das öfter schon mal war beim Launch - ein bisschen eine Chaoten Hütte sind sie halt doch gelegentlich, dann sieht die Sache natürlich wieder etwas anders aus.

Antwort 2 Likes

Igor Wallossek

1

10,104 Kommentare 18,588 Likes

Das Dumme ist ja, dass ich den Artikel noch einmal komplett umschreiben musste. Ursprünglich war eine am Taschenrechner ausbaldowerte RTX 4080 statt der 3090 Ti drin. Das hätte ich bis letzte Woche auch so bringen können und wäre dann wohl Mister 99,9% gewesen. Dumm nur, dass ich mittlerweile mehrere 4080 habe und in meiner Kalkulation mit der FE nur 1 FPS neben dem realen Messwert lag. Das wäre sicher dumm gelaufen, man muss das gar nicht erst provozieren, NVIDIA überwacht mich ja auch :D

BTW: Facebook ist extrem auf dem absteigenden Ast. Aktuell rekrutiere ich den meisten SM-Traffic bereits in der Tube, die Reddit erstmalig abgelöst hat.

View image at the forums

Antwort 10 Likes

Roland83

Urgestein

659 Kommentare 500 Likes

Überrascht mich nicht, bei den jüngeren zieht FB keine Wurst vom Teller und das neue layout ist ein Drama, ganz rund rennt es seit einiger Zeit oft auch nicht ... Wirkt schon mehr wie ein Bananenprodukt phasenweise....

Antwort 1 Like

hrcn

Mitglied

20 Kommentare 21 Likes

Sollte es wirklich so kommen, ist die Leistung der XTX doch durchaus sehr ordentlich. Wenn sie dann auch auf dem hiesigen Markt preislich gegenüber der 4080 punktet, könnte die Karte durchaus ein kleiner Hit werden.

Für mich ist das ganze preislich sowieso unerreichbar, ich hoffe darauf dass nächstes Jahr die RX 7700/7600 XT halbwegs bezahlbar werden und ordentlich Mehrleistung zur aktuellen Generation liefern.

Antwort Gefällt mir

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Na jetzt ist die Katze aus dem Sack, Mister Leakbär 😅

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,597 Likes

Am Ende ist es wie seit Jahren. Die Karte mit dem besten P/L Verhältnis ist die größte NV Karte, wenn man sie denn nahe UVP bekommt.

Alles wird davon abhängen, wieviele Karten AMD zu welchen Preis auf die Straße bekommt. Und ob die 4080 über oder unter UVP kommt.

Wobei letzteres ziemlich ausgeschlossen scheint.

Eine 7900 zwischen 900-1200 Euro wäre zumindest eine Überlegung Wert, wenn NV für die 4080 zwischen 1600-1800 Euro aufruft.

Antwort Gefällt mir

R
RX Vega_1975

Urgestein

570 Kommentare 73 Likes

@Igor Wallossek

Was ist bitte an dem Gerücht eines Bugs (Takt,- Effizienz Bug) beim Navi 31 zu halten
oder wollte AMD Max. die 2x 8 Pin bei der Referenz halten und ist dann knapp bis 25% unter einer RTX 4090

Antwort 2 Likes

LencoX2

Neuling

8 Kommentare 6 Likes

Die 7900XTX ist ein Win für AMD. Selbst wenn es längere Balken gibt.

Als erstes:
Schneller als RTX 4080. Damit es später nicht groß publik wird, hat NVidia noch rechtzeitg den "Unlaunch Button" betätigt.

- Leistung High-End
- Preiswerter
- Moderner (MCP)

Auf der Verlustliste steht nicht so viel
- Es gibt die noch schnellere 4090

Antwort 2 Likes

Igor Wallossek

1

10,104 Kommentare 18,588 Likes

Gerüchte sollte man besser nicht kommentieren :D

Die Antwort steht doch im Artikel. Man wird wohl nach dem 4090 Launch krampfhaft versuicht haben, alles rauszupowern was geht. Für 3 Stecker wars dann ja eh zu spät. Dafür hat man ja jetzt die Boardprtner

Antwort Gefällt mir

RedF

Urgestein

4,600 Kommentare 2,521 Likes

Bin ja echt gespannt was dann mit OC noch möglich ist.
Sieht ja erstmal nicht nacht viel aus wenns Effizient bleiben soll.

Antwort 1 Like

ApolloX

Urgestein

1,625 Kommentare 905 Likes

3 Stecker werden überbewertet.
Normkonform hin oder her, aber auch mit 2 Stecker kann man 700W in eine Radeon pumpen - und mehr, so dass ich zumindest letztens in MPT Mal mit 800W gebencht hab.
Soviel Leistung nimmt die Karte dann aber garnicht mehr auf und auch Kühlung kommt da - bei Raumtemperatur - ans Limit.

Aus all dem Gebenche würd ich sagen, mit 2 Stecker lassen sich 500-600W Profile noch sehr gut nutzen, ohne dass man Blut und Wasser schwitzen muss.

Antwort 2 Likes

Igor Wallossek

1

10,104 Kommentare 18,588 Likes

Naja, hier liegt ganz offensichtlich leider eine Phase am PEG. Ich möchte dort statt der 55 Watt keine 80++

Antwort Gefällt mir

Roland83

Urgestein

659 Kommentare 500 Likes

Ja schon nur ist das halt mit der PEG Phase wieder abseits jeder Spezi und wir sehen ja jetzt was bei Nvidia mit den geschmolzenen Steckern-Buchsen abgeht ... Da ist der Horror dann quasi schon wieder vorprogrammiert, selbst wenns am Ende nur eine Handvoll Karten, Stecker, Boards zerlegt ...

Bin halt momentan total unschlüssig... Es wird auf jeden Fall auf Wasserkühlung umgebaut, da ist die 7900 Referenz dann so eine Sache mit dem "kastrierten" Phasen Design, eventuell ist mir der Sprung von einer 6900xt zur 4080 oder 7900 XTX aber ohnehin zu gering für den ganzen Aufwand. Die 4090 die sie aktuell bei uns um 2400 Euro handeln ist mir einfach noch zu teuer und bevor Nvidia nichts zu dem Dilemma mit dem ATX 3.0 Stecker sagt greif ich da auch erst mal sicher nicht zu.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,597 Likes

Es wird nur dann ein Win, wenn es preislich passt. Igor ist hier vom Best case ausgegangen und hat RT komplett aussen vor gelassen.

Falls sich die AMD in der Nähe der 4070 positioniert und lieferbar ist, dürfte kein Weg an ihr vorbeiführen. Selbst bei einer RT Leistung auf 3090/TI Niveau. Falls sie in die Preisregionen der 4080 vorstößt, ist es seine Abwägungssache. Cuda+wahrscheinlich deutlich besserer RT Leistung + DLSS3.0.

Dann muss man, sehen wie der Markt entscheidet.

Antwort Gefällt mir

Roland83

Urgestein

659 Kommentare 500 Likes

Was mich am meisten nervt ist das AMD FSR 3 jetzt wieder ewig rausschiebt weil man Wunder bei der Kompatibilität wirken möchte... Wäre viel schlauer gewesen FSR3, auch in Hinsicht auf die RT Titel, mit der 7900XTX zu liefern und für den Rest halt FSR 2 erst mal so stehen lassen.
Bis die damit wieder um die Ecke kommen ist Nvidia vermutlich bei DLSS 4.5 ...
Man kanns auch übertreiben mit dem Open Standard Gedanken und sich selber ins Knie ....

Wenn das jetzt erst irgendwann nächstes Jahr kommt und bis sich das dann in Titeln verbreitet ? Bis dahin liegen die neuen Recheneinheiten dafür in der 7000 komplett brach... Also macht das dann vielleicht mit einer RX8000 Sinn ! Das ist für mich einfach in gewisser Hinsicht keine nachvollziehbare Produkt Politik wenn ich Hardware Features bringe und die dann mangels fehlender Software aushungern lasse.

Antwort 1 Like

c
cunhell

Urgestein

545 Kommentare 499 Likes

Naja, lieber releasen sie die Karte eingermaßen effizient als das sie für 5% mehr Grafikleistung 30% mehr Saft durchjagen.
So seh ich es zumindest.
Der Dollarpreis der Karten ist ja bekannt. 999$ + Tax. Bei Dollar gleich Euro wären es dann ca. 1200€. Da der Doller stärker als der Euro ist, werden es eher 1300€. Die 4080 soll ja um die 1450€ kosten.

Cunhell

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Es den Boardpartnern zu überlassen den Kotzbalken rauszuholen hat zumindest chuzpe. So sind es die und isses nicht AMD, die hier nachmachen, was Intel bei den CPUs treibt bzw getrieben hat.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung