AMD Radeon RX 7900XTX im virtuellen Benchmark - Mögliche Leistung und Limits der Referenzkarte

Schöne Rechnungen, die alle gut nachvollziehbar klingen. Wäre ja letztlich ein gut abgestuftes Marktportfolio, bei dem jeder was Passendes finden kann. Zumindest was RZ angeht.

Den Kasten Bier zum Sandwich, dass nun doch keines ist oder eher ein Big Mac, hätte ich dann aber doch gewonnen. 👍
Trotzdem meine Anerkennung, dass das jetzt inhaltlich letztlich wieder geradegerückt wurde.
 
Zuletzt bearbeitet :
Es den Boardpartnern zu überlassen den Kotzbalken rauszuholen hat zumindest chuzpe. So sind es die und isses nicht AMD, die hier nachmachen, was Intel bei den CPUs treibt bzw getrieben hat.
Es muss ja niemand zu Kotzbalken-Customs greifen, wenn es Ref-Karten (hoffentlich ausreichend) gibt. Und vielleicht gibt es ja auch wieder welche mit DualBios, die die einfache Wahl lassen...
 
Sollte es wirklich so kommen, ist die Leistung der XTX doch durchaus sehr ordentlich. Wenn sie dann auch auf dem hiesigen Markt preislich gegenüber der 4080 punktet, könnte die Karte durchaus ein kleiner Hit werden.
Und FSR 3 ist da noch gar nicht mit drin... Aber auch da - nur weil man in der neuen UE5 die Frames verdoppeln konnte von FSR2 zu 3 heisst das nicht das es generell so sein wird..
by the Way @Igor Wallossek wie kritisch siehst du die Sache mit den zwei Taktdomänen. Es wird ja nicht reichen 3x8 Pin zu verbauen dann das Powerlimit hoch zu setzen und nur eine Domäne hoch zu takten...

Noch eine Sache, die 1.7 sind der BestCase und auf der Folie war das nur bei einem Spiel... Während zwei bei 1.5 bzw. eins mit 1.6 da stand...
Das kann also je nach Parcours bedeuten das wir "nur" 1.55 bis 1.6 Steigerung im Schnitt sehen werden...
 
Vielen Dank Igor für deine Analyse bezüglich der Leistung der beiden Karten gegen die 4080.
Ich denke mal das Team rot das wesentlich attraktivere Produkt im Köcher hat. Solange das bei Nvidia mit dem Wunderkerzenanschluß nicht geklärt ist, gehen da doch viele auf Nummer sicher als sich eine vermeintliche Rauchbombe in die Wohnung zu holen.
Auf der anderen Seite finde ich es auch gut das AMD sich nicht von Nvidia hat leiten lassen und auf Teufel komm raus die neue Generation an seine Leistungsgrenzen geprügelt hat nur um das Krönchen zu bekommen. Aber wer weiß, vielleicht kommt ja noch nächstes Jahr eine 7950XTX oder sowas die es dann mit der 4090 aufnehmen will/kann

 
Beim AMD Shop kosten die Karten Dollar zu Euro täglich aktualisiert.
Wenn man da eine Karte ergattern kann,- ist man SAFE
Aber mit Glück auch nur wenn Sie die mitterweile von den Scalpern ausgehebelte "Warteschlange" wieder abdrehen ... Sonst hängen wir wieder alle sinnfrei in der entry liste xD
 
Kleiner Typo auf Seite 2 oben:
Mit Raytracing sollten sich die Radeon RX 4080 16GB und die Radeon RX 7900XTX dann nichts geben und je nach Spiel dürfte mal Team Rot oder mal Team Grün vorn sein.
Sollte wohl nicht eine Radeon RX 4080 16GB sein, sondern eine GeForce RTX 4080 16GB.

Spannende Prognose. Ich bin gespannt, wie genau das zutreffen wird. Ich hätte die 7900XTX ähnlich verortet. Allerdings ist bei RT das Thema BVH noch offen. Da wird es interessant werden, wie flexibel die neuen Dual-Issue Shader sind, vielleicht hat man die dafür auch (mit) angedacht.
 
Die 4080 wird zerstört werden! Dazu deutlich weniger Verbrauch und halber Preis als die 4090! An der 7900 führt kein Weg vorbei. Die 7950 wird dann das I Tüpfelchen. :love:
 
Du hast aber schon den GESAMT-Stromverbrauch gesehen und nicht nur GPU only... ;)
 
M-hmh, nettnett, diese fortwährende Erinnerung an meinen Geschichsunterricht von Gamer dem Älteren, ceterum censeo und so.
 
Vom Preis her würde ich einfach die 4090er im Verhältnis Dollarpreis-Europreis ansetzen. Es gibt kein Argument dafür, dass die Marge oder der Scalper Bonus bei AMD ein anderer sein soll als bei Nvidia.
Nehmen wir also eine 4090er Custom Karte, die in USA um 1900 Dollar und bei uns 2400 Euro kostet, dann haben wir einen nominellen Aufschlag von rund 21 % währungsabstrahiert. Damit wäre eine 999 Dollar AMD Referenz Karte, die ggf. als Custom Karte dann reell eher 1200 Dollar kostet bei (+21%) 1450 Euro, ca.
Ihr dürft mich gerne steinigen. Aber erst, wenn die Karten bei uns draussen sind - bis dahin habe ich Gnadenfrist.
 
Nehmen wir also eine 4090er Custom Karte, die in USA um 1900 Dollar und bei uns 2400 Euro kostet, dann haben wir einen nominellen Aufschlag von rund 21 % währungsabstrahiert. Damit wäre eine 999 Dollar AMD Referenz Karte, die ggf. als Custom Karte dann reell eher 1200 Dollar kostet bei (+21%) 1450 Euro, ca.
Ihr dürft mich gerne steinigen. Aber erst, wenn die Karten bei uns draussen sind - bis dahin habe ich Gnadenfrist.
Klingt doch plausibel, warum also steinigen? Da die 4090 wohl merklich schneller als die 7900XTX ist, kostet sie als absolute Spitze halt auch deutlich mehr. Das Problem was ich eher sehe: Die 4080 kostet wohl Liste mehr als die 7900XTX. Und wenn die AMD dann in RT grob mit der teureren 4080 gleich zieht (grob = 10% langsamer bis gleich schnell) und in Raster vorne liegt, dann macht das die AMD durchaus interessant. Vorteil NV: Wohl etwas sparsamer. Aber generell kann man wohl damit rechnen, dass die 7900XTX um die 1500€ kosten wird (1200€ für die billigsten bis 1800€ für die Speerspitzen, im Schnitt 1500€). Die 7900XT dürfte dann von 1000€ bis 1500€ gehen.
 
Die 4080 ist im Vergleich zur 3090 Ti schon für einge Sparten eine hochinteressante Alternative. Ich denke mal, dass sie im Produktiveinsatz ein vermutliches Plus einfahren könnte, denn es gibt ja nicht nur Gamer.

Die 7900XTX ist durchaus interessant für Daddler, aber das mit dem DP 2.1 ist eher Marketing, denn es gibt weder bezahlbare Monitore noch echte Use Cases für den Normalotto.

So gesehen werden Straßenpreis und Verfügbarkeit sowie die Zielgruppe entscheiden und nicht so sehr die finalen Benchmarks.
 
Die 4080 ist im Vergleich zur 3090 Ti schon für einge Sparten eine hochinteressante Alternative. Ich denke mal, dass sie im Produktiveinsatz ein vermutliches Plus einfahren könnte, denn es gibt ja nicht nur Gamer.

Die 7900XTX ist durchaus interessant für Daddler, aber das mit dem DP 2.1 ist eher Marketing, denn es gibt weder bezahlbare Monitore noch echte Use Cases für den Normalotto.

So gesehen werden Straßenpreis und Verfügbarkeit sowie die Zielgruppe entscheiden und nicht so sehr die finalen Benchmarks.
Mein Reden. Was die UVP wirklich Wert ist sehen wir bei Release. Sollten wir einen Preisunterschied von mehreren Hundert Euro zwischen AMD und der 4080er sehen, dürfte die AMD Karte für viele zurecht erste Wahl sein. Liegen sie nah beieinander wird man sehen. Unterm Strich ist und bleibt aber aus meiner Sicht die 4090 erste Wahl, wenn man sie nahe bei UVP ergattern.
 
Das beste Feature an all den tollen neuen Karten aus meiner Sicht ist, dass ich sie mir nicht zu kaufen brauche :)
Dafür sind nämlich weder die Nvidia- noch die AMD-Klopper "schneller genug", um meine vorhandene 6800 XT bzw. 3090 FE ersetzen zu müssen.

Ich würde anfangen, ernsthaft darüber nachzudenken, wenn die reale Mehrleistung jeweils mehr als Faktor 2 betragen würde. Wobei eine 4090 angesichts des Preises ohnehin ausscheidet, das sind m. E. einfach vollkommen obszöne Zahlen für ein Stück Unterhaltungselektronik mit einer Lebensdauer von wenigen Jahren.

Wenn die Spekulationen hier stimmen, dann ist AMD aber doch auf einem ganz guten Weg. Ich wiederhole mich: das Chiplet-Design eröffnet vollkommen andere Perspektiven zur Skalierung, wenn man den Stromverbrauch und die Kühlung im Griff hat.
 
Naja, lieber releasen sie die Karte eingermaßen effizient als das sie für 5% mehr Grafikleistung 30% mehr Saft durchjagen.
So seh ich es zumindest.

Der Dollarpreis der Karten ist ja bekannt. 999$ + Tax. Bei Dollar gleich Euro wären es dann ca. 1200€. Da der Doller stärker als der Euro ist, werden es eher 1300€. Die 4080 soll ja um die 1450€ kosten.

Cunhell
Ich glaube das müssen wir einfach echt abwarten. Man hat es ja wieder an den Preisen der 4090 gesehen, das nix fix ist und das ganze immer wieder durch die Decke gehen kann. Gerade in der Weihnachtszeit.
 
Das beste Feature an all den tollen neuen Karten aus meiner Sicht ist, dass ich sie mir nicht zu kaufen brauche :)
Dafür sind nämlich weder die Nvidia- noch die AMD-Klopper "schneller genug", um meine vorhandene 6800 XT bzw. 3090 FE ersetzen zu müssen.
Naja, das sehe ich als 4 K Gamer völlig anders.

Ich würde anfangen, ernsthaft darüber nachzudenken, wenn die reale Mehrleistung jeweils mehr als Faktor 2 betragen würde.
Hat es nie gegeben und wird es wahrscheinlich auch nie von der einen auf die andere Generation geben

Wobei eine 4090 angesichts des Preises ohnehin ausscheidet, das sind m. E. einfach vollkommen obszöne Zahlen für ein Stück Unterhaltungselektronik mit einer Lebensdauer von wenigen Jahren.
Eine 3090 hat im wirklichen Leben ja auch soviel gekostet, aber das die Preise absolut abenteuerlich sind, keine Frage.

Wenn die Spekulationen hier stimmen, dann ist AMD aber doch auf einem ganz guten Weg. Ich wiederhole mich: das Chiplet-Design eröffnet vollkommen andere Perspektiven zur Skalierung, wenn man den Stromverbrauch und die Kühlung im Griff hat.
Ich bin 1 zu 1 bei dir. Meine große Hoffnung ist ehrlicherweise die Nachfolgeneration. Hier könnte AMD wirklich einen Schritt voraus sein. Bin gespannt was NV macht.
 
Zuletzt bearbeitet :
So AMD geht bis ans Limit, da schauen wir mal was die Stecker so machen, einige werden die Stecker bestimmt auch zum Schmelzen kriegen. Bin mal gespannt.
 
Oben Unten