AMD Radeon RX 7900XTX und RX 7900XT im Test - Ein riesiger Schritt nach vorn und einer zur Seite

Ich muss gestehen, ich bin auch etwas enttäuscht, vor allem wenn RT ins Spiel kommt. Da hätte ich gedacht, dass AMD doch mal deutlicher aufholen kann. P/L natürlich immer noch besser als nVidia, aber wenn die 4080 tatsächlich noch etwas günstiger wird, wird die 7900XTX an Attraktivität einbüßen.
Gerade wenn man die RT Leistung (die ja doch zum Gesamtpaket Preis/Leistung dazugehört) hinzu zieht, hat AMD die Preis/Leistung übelst verkackt.

So gewinnt man jedenfalls keine Marktanteile.
Erklärt zumindest die äußerst schwammige Präsentation mit den "Up to" Werten und dem ausgebliebenen Vergleich der damals bereits verfügbaren 4090.
Jetzt nachdem ich alle Tests gesehen habe die ich sehen wollte gleich mal ran ans bestellen einer 4080.
Nicht mal ein schlechtes Gewissen muss ich jetzt haben.
 
Das sich einige immer wieder an RT aufhängen. Wo gibts den wirklich was fürs Auge auser in Techdemos? Vielwichtiger ist halt mal die Effizienz und die ist bei weitem nicht an den Besagten 50% zu einer 6900xt davon sind wir weit weg.
Effizienz finde ich schwer zu beurteilen, da AMD da ja offensichtlich vor allem im Idle noch irgendein Problem hat. Wenns der Treiber richten kann, sieht das schon viel besser aus, wenn nicht - oha.

Stand jetzt ist RTX 4000 stromverbrauchstechnisch doch erheblich(!) besser aufgestellt. Aber bis man den höheren Kaufpreis durch weniger Stromverbrauch rausgeholt hat, ist man schon 2-3 Grafikkartengenerationen weiter, das gehört auch zur Wahrheit ;-)
 
Schöner Test, der mich in meiner Haltung bestärkt, erstmal noch abzuwarten, wie sich Preis/Treiber in den nächsten Monaten entwickeln werden.
 
Effizienz finde ich schwer zu beurteilen, da AMD da ja offensichtlich vor allem im Idle noch irgendein Problem hat. Wenns der Treiber richten kann, sieht das schon viel besser aus, wenn nicht - oha.

Stand jetzt ist RTX 4000 stromverbrauchstechnisch doch erheblich(!) besser aufgestellt. Aber bis man den höheren Kaufpreis durch weniger Stromverbrauch rausgeholt hat, ist man schon 2-3 Grafikkartengenerationen weiter, das gehört auch zur Wahrheit ;-)
Naja, jetzt sollten wir erstmal abwarten, wo die Reise preislich wirklich hingeht. Die 4080 befindet sich ja im freien Fall, der hoffentlich erstmal so weitergeht.
 
Ja hoffen wir auf die Treiber :D Wobei ich schon gerne eine AMD Referenzkarte hätte. :)
 
Vielen Dank für die tolle Analyse, es wirkt wirklich so, als hat AMD ganz am Ende nochmal mit Gewalt ein paar Prozent mehr Leistung herausholen wollen.
Daher meine Frage @Igor Wallossek:
Gibt es schon Erkenntnisse zum Undervolting? Ist sicherlich interessant zu wissen, wie viel Leistung man bei 70-80% des Powertargets verliert.
Das PowerLimit geht nur auf 10% runter,somit wird die Karte rund 10% Schneller sein wie es auch schon bei der 6000er war.
 
Ich vermisse das Jahr 2009, als ich die GTX 295, also die damals (mit) stärkste verfügbare Grafikkarte mit gleich 2 GPUs für 440 € gekauft habe. Mittlerweile ist laut CB die 7900XTX für weit über 1000 € der Preis-Leistungssieger.

Und die "Effizienz"? 38,5 W im Idle nur für die GPU, an der ein Bildschirm angeschlossen ist? Bei 40 Stunden Homeoffice pro Woche lehne ich dankend ab. Meinetwegen darf die EU nach den Staubsaugern auch mal einen Blick auf den Stromverbrauch von PCs werfen, das gilt aber insbesondere auch für Intel. Mein alter PC mit i7-860 und GTX 295 zog im Idle rund 150 W, der Nachfolger mit Haswell i5 und GTX 770 brauchte im Idle rund 50 W. Gemeint war jeweils das Gesamtsystem. Die Entwicklung hätte gerne weitergehen dürfen. Gleiches gilt für die Entwicklung von einer Leistung, die stärker als der Preis steigt.
 
@Igor: Danke für den Test, besonders den Workstation Teil! Wenn ich mir eine neue Karte kaufe (und das System dazu baue, Zeit wärs), will ich eben auch eine Alleskönnerin, denn eine zweite um damit etwas Videobearbeitung usw zu machen werde ich mir dann nicht auch noch zulegen. Eine für alles muß da reichen! Also AMD, bessere Treiber bitte!
Und ja, es ist schade, daß AMD sich auch hier von Intel und NVIDIA (Ampere!) hat anstecken lassen, und die letzten paar Prozent in fps und Benchmarks mit der Brechstange (Stromverbrauch) erzwungen hat. Zumal NVIDIA die Brechstange für Ada schon wieder beiseite gelegt hat. So geht das besondere hier - die erste eigentlich gut funktionierende Chiplet GPU- leider im unnötigen Stromsuff unter.
 
Glaube das der verbrauch im Idle per Treiber noch ordentlich sinken wird, aber der unter last halt nicht.
 
Also auf den anderen Platformen kommen beide Karten durchaus positiv(er) weg. Da spricht man z. B. bei der XTX auch von 350 Watt Leistungsaufnahme und thematisiert es nicht weiter.

Interessant vor allem mit Blick auf 8K Anschluss und Multi-Monitor Setups: Steigt die Leistungsaufnahme im Idle dann nochmal an? Mögt ihr das mal testen @Igor Wallossek ?
 
Naja, jetzt sollten wir erstmal abwarten, wo die Reise preislich wirklich hingeht. Die 4080 befindet sich ja im freien Fall, der hoffentlich erstmal so weitergeht.
Klar, wenn die 4080 noch günstiger wird und auf einem Niveau mit Customkarten der 7900XTX liegt - dann hat nVidia die Nase vorn, das muss man einfach auch zugeben können. Zumindest, wenn man RT nutzen will.

Und die Custom-Designs dürften schon 100-200 € über dem Referenzdesign liegen und dann ist man schon bei mindestens 1250 €, da ist eine 4080 im Custom-Design mit (aktuell) 1350 € dann nicht mehr so weit weg, wenn sie noch billiger wird ohnehin nicht.
 
Interessant vor allem mit Blick auf 8K Anschluss und Multi-Monitor Setups: Steigt die Leistungsaufnahme im Idle dann nochmal an? Mögt ihr das mal testen @Igor Wallossek ?

Div. Outlets attestieren der Karte ~100W im Idle in Multimonitor Setups.

Da läuft noch etwas gehörig schief.

Wird vermutlich Treiberseitig gelöst werden, spricht dennoch Bände auf seine eigene Art und Weise.
 
Preis/Leistung passt fuer mich.
+11% minfps zur 4080 bei 2-300€ weniger sind eine Ansage!
Jetzt erstmal ein paar Wochen warten fuer bugfreie Treiber, und Optimierungen durch Nerds (Undervolting). 4080 Niveau bei aehnlicher Leistungsaufnahme sollten wohl drin sein!
 
Es wäre schön wenn es später noch Vergleiche im FPS Limit gibt wenn die Probleme beim Stromverbrauch treiberseitig behoben sind.
Da gibt es wohl auch noch Probleme mit dem Verbrauch.
 
Also auf den anderen Platformen kommen beide Karten durchaus positiv(er) weg. Da spricht man z. B. bei der XTX auch von 350 Watt Leistungsaufnahme und thematisiert es nicht weiter.

Interessant vor allem mit Blick auf 8K Anschluss und Multi-Monitor Setups: Steigt die Leistungsaufnahme im Idle dann nochmal an? Mögt ihr das mal testen @Igor Wallossek ?
ich habe keinen 8K-Monitor und leider auch keine zwei. Aber allein 4K von 60 Hz zu 120 Hz legen die Spitzen deutlich zu. CB hat übrigens 19 Watt Minimum gemessen, ich auch. Die Spitzen gingen bei CB bis 55, bei mir auch. Nur lasse ich das System halt auch mal länger laufen und nicht nur, bis PCAT irgendwas gemittelt hat. Das geht schief.

Multi-Monitor steht im Artikel. Da taktet nichts mehr runter. Und dann mal YouTube. 100 Watt++ mit einem Monitor. Die spinnen doch.
 
Oben Unten