AMD Radeon RX 7900XTX und RX 7900XT im Test - Ein riesiger Schritt nach vorn und einer zur Seite

Klar, wenn die 4080 noch günstiger wird und auf einem Niveau mit Customkarten der 7900XTX liegt - dann hat nVidia die Nase vorn, das muss man einfach auch zugeben können. Zumindest, wenn man RT nutzen will.

Und die Custom-Designs dürften schon 100-200 € über dem Referenzdesign liegen und dann ist man schon bei mindestens 1250 €, da ist eine 4080 im Custom-Design mit (aktuell) 1350 € dann nicht mehr so weit weg, wenn sie noch billiger wird ohnehin nicht.
Nur sind die Custom wieder Übertaktet und schneller womit die 4080 dann auch wieder langsamer wird.Da muss man dann wieder Rechnen welche Karte mehr FPS pro EU hat.
 
Div. Outlets attestieren der Karte ~100W im Idle in Multimonitor Setups.

Da läuft noch etwas gehörig schief.

Wird vermutlich Treiberseitig gelöst werden, spricht dennoch Bände auf seine eigene Art und Weise.
Ja, da hat jemand nochmal hochgetaktet, um dran zu bleiben. Klingt nach ner guten UV-Karte. Aber wie oben schon gesagt: Uninteressant, weil bereits 6900XT in WQHD-Setup.
 
Wie erwartet:

Rasterization etwa auf 4080 Niveau, bei AMD-freundlichen Titeln kratzt man an der 4090
RT Leistung in aktuellen Games ca. auf 3090 Level, in syntethischen benchmarks sehen wir ~170% mehr Performance bei der 4090 (= zukünftige Games, die mehr RT ermöglichen/fordern).

Insgesamt ein erfreulicher Sprung (bei selbem Preis), allerdings liegt AMD jetzt ca. 1 1/2 Generationen zurück in RT Leistung, ob/wie man hier wohl nachbessern kann?

Erbärmlich ist leider (wieder) der schlechte idle+multi monitor+video playback Wattverbrauch, das ist kein Problem der neuen Karten, das ist ein Problem der gesamten Navi Reihe. Ich bezweifle ernsthaft, dass AMD hier treiberseitig kurzfristig nachbessern kann, wenn man bedenkt, dass dieses ernsthafte Problem seit Jahren ignoriert/ nicht gelöst wurde. Auch die Zen4 Reihe hat große Probleme mit Idle/Playback Verbrauch (insb. interne GPU), scheinbar könnte hier also ein tiefergehendes Problem in der Architektur/Chiplet-Design stecken?

Andere Reviewer haben hier ähnliche Werte wie Igor aufgezeigt, zB:

4aea5b8a670e83e55fc190b651f1c7eca549364ce950cac6e63d1ff213237d44.png
3544e1ab3f8157846036c1a98d873e1eaba73e508fd28f9d9264412087e3a683.png
Screenshot 2022-12-12 172508.jpg
 
Zuletzt bearbeitet :
Deine Tests sind einfach super, nicht so langweilig wie andere ;) An und für sich hat AMD gute Grafikkarten, nur am Treiber hakt es manchmal. Darum bin ich wieder zu Nvidia, da sitzen die besseren Programmierer.
 
Schade...würde mir wirklich gerne Mal wieder eine Ati Karte kaufen....Allein wegen dem ganzen Preisgehabe seitens Nvidia..Aber nach den doch recht guten 4000er Karten bin ich da jetzt nicht wirklich überzeugt von Ati auch wenn es eine deutliche Steigerung zu alten Generation ist.
Hoffentlich kommt da ein brauchbarer Reboot und oder bessere Treiber sowie mögliches effizientes Undervolting.. und der Idle Stromverbrauch ist aktuell echt NoGo.Mal abwarten
 
Zuletzt bearbeitet :
Vielen Dank für den Test!
Erfreulich Ehrlich, im Gegensatz zu den ganzen weichgespühlten Test bei PCGH und HLUXX.
 
Ich betreibe immer mindestens 3 Monitore an meine Karte. Da muss ich mir Morgens den Scheitel mit dem Hammer ziehen um eine aktuelle AMD Karte zu erwerben. Ehrlicherweise erwarte ich seit Jahren von AMD nicht mehr viel im Bereich Grafikkarten, aber das ist doch ein völliges Desaster und ein ökölogischer Offenbarungseid.

Zumal die Meisten von uns mittlerweile mindenstens 2 Monitore betrieben und selbst Vielspieler sich oft im Non-Gamingmodus bewegen.

Wieviel macht sowas eigentlich in Cash bei einer täglichen Nutzungsdauer von 5 Stunden im Non-Gaming Betrieb?

Und wo sind eigentlich jetzt die ganzen NV-Kritiker die vom Leder gezogen haben bis der Arzt kam, als man bei der 4090er noch 600 Watt Leistungsaufnahme kolportiert hat? Da hätte man im schlimmstenfalls zumindest noch Frames als Gegenwert erhalten.
 
Zuletzt bearbeitet :
Puuuh.... da hatte ich schon mit der RX7900XTX geliebäugelt.... Aber es scheint mir doch ein paar Problemchen zuviel zu geben... zumindest will ich erstmal abwarten, was mit Treibern am idle noch zu retten ist... und/oder ob da tatsächlich irgendwelche Hardware Fehler/Probleme noch drin stecken, wie es in der Gerüchteküche zuletzt zu lesen war...
...ich hoffe @Igor hält uns da auf dem Laufenden!! ;-)
Aber da ich ja ohnehin noch einen Waterblock dazu brauche... warte ich halt mal ab....
 
Auch von mir vielen Dank für den Test. Ich werde diese Generation nun wirklich überspringen. Zu klein ist der Fortschritt und zu groß die Fragezeichen bei möglichen Treiber- und/oder Hardwareproblemen. Wäre doch nur die Effizienz größer ausgefallen, dann hätte ich es mir überlegt. Schade.

Na mal schauen, ob es ein Refresh geben wird :)
 
Interessant wäre noch eine Effizienzkurve, d.h. bei welchem reduzierten Powerlimit die Karte noch wie gut arbeitet. Einer 4090 z.B. kann ich 35% Power wegnehmen, bekomme aber immernoch 95% Leistung in Games. Wie schaut es da aus, @Igor?
 
Schöner Test, Danke dafür.
Ist halt nicht meine Preisklasse.
Der Idle Verbrauch ist mein grösster Kritikpunk. Ist ja wie bei meiner GTX970. Bischen weniger als 1/3 vom Gesamtverbrauch bei zwei 144Hz Monitoren (48 von 169 Watt laut GPU-Z).
Die Kühler sind aber mit Abstand, die aus meiner Sicht schönsten am Mark. Hoffe das die bei den Navi33/32 auch so aus sehen, gerne so Bullig wie bei der XTX :cool:

mfg
Schmo
 
Ist das Fazit nicht doch etwas zu positiv ausgefallen? Alles richtig gemacht? Effizienz schlechter, 1% low fps viel schlechter, RT-Leistung deutlich schlechter. Leider werden die Händler die RTX 4080 jetzt nicht mehr sehr im Preis reduzieren, es gibt keinen Grund mehr dafür.
 
Ist das Fazit nicht doch etwas zu positiv ausgefallen? Effizienz schlechter, 1% low fps viel schlechter, RT-Leistung deutlich schlechter. Leider werden die Händler die RTX 4080 jetzt nicht mehr sehr im Preis reduzieren, es gibt keinen Grund mehr dafür.
Doch den gibts, die Karten sind Ladenhüter.

Ich finde auch das das Fazit auf den ersten Blick vielleicht ein klein wenig zu positiv wirkt , aber er hat ja keine Kaufempfehlung ausgesprochen was eh Bände spricht...
aber AMD kann ja noch nachbessern und wenn der Idle Verbrauch im Single und Multi Monitor gefixt wird ist das schon ok. Bei RT hat man eh ordentlich zugelegt. Da muss man einfach einsehen das man neben dem Wechsel auf das Chiplet Design bei Verwendung der "schlechteren" Fertigungstechnologie nicht auch noch Wunder bei der Leistung in allen Bereichen wirken kann oder die Konkurrenz vom Hof fegt...
Ganz abgesehen davon das der (sehr teure und NVIDIA exklusive) 5nm+ bei TSMC wohl besser funktioniert als jeder Beteiligte erwartet hat..
Also ein bisschen realistisch muss (sollte) man dann schon bleiben.
 
Hey,

danke für den Test!

Hat sich in diesem Chart die 6950 XT hundert Watt zu viel gegönnt? ;)

Screenshot 2022-12-12 175249.png

Grüße
 
Uff, bin von der Effizienz nun aber doch enttäuscht. Hätte mich gefreut wenn AMD es geschafft hätte an die 6800/6900 anzuknüpfen. Sicherlich ist diese hier vom RDNA 2 auf 3 besser geworden, aber dass die 4080 dann doch so deutlich vorne ist, hätte ich nicht erwartet. Werde ich erstmal sacken lassen. Hatte ja eigentlich vor nächstes Jahr eine AMD Karte zu kaufen. Da es sich ja um eine "neue" GPU Architekturen handelt, wird diese vermutlich erst mit der 2 oder 3 Revision wirklich ausgereift sein. Vermutlich wird es zur Überbrückung dann doch eine 4060 bzw. 4070 oder eine 6800 in einem Sale (falls nochmal einer kommt)

Edit: @Igor Wallossek Ups, bei den ganzen Zahlen und Informationen fast vergessen. Vielen herzlichen Dank für dieses sehr ausführliche Review der neuen AMD RDNA 3 Grafikkarten (y)
 
Zuletzt bearbeitet :
Ist das Fazit nicht doch etwas zu positiv ausgefallen? Alles richtig gemacht? Effizienz schlechter, 1% low fps viel schlechter, RT-Leistung deutlich schlechter. Leider werden die Händler die RTX 4080 jetzt nicht mehr sehr im Preis reduzieren, es gibt keinen Grund mehr dafür.
Warum? Gibt keine Kaufempfehlung, das empfinde ich schon als hart (aber gerecht). Trotzdem: wenn du aufrüsten willst und nicht mehr als 1.200 Euro Budget ausgeben willst, dann sollte man beide Karten in Betracht ziehen. Aber klar ist auch: Wer (zu) früh kauft, hat immer auch die A-Karte in Bezug auf Treiber und Co.
 
Die AMD-Speerspitze wird in RTX 4k und trotz tolles FSR regelrecht von der 3080 verdroschen in Cyberpunk.......von Next Gen ganz zu schweigen
Was natürlich Blödsinn ist! Schau dir den Test auf CB an, da wurden separat neue Spiele getestet und da landet N31 genau dort wo er in etwa erwartet wurde.
 
Ja, so lange bis die 7900XT(X) getestet wurden heute.
Ich glaub da überschätzt du die Kaufkraft der Menschen zur Zeit.
Sicher wirds ein paar Einfaltspinsel geben die vorher keine 800 Euro zahlen wollten und jetzt halt mit 1500 bewaffnet ausrücken.
Aber wenn das die große Mehrheit ist haben es die Leute eh nicht anders verdient als wie eine Zitrone ausgepresst zu werden.
Und da ich noch ein wenig guten Glauben an die Menschen besitze gehe ich eher nicht davon aus das sich großartig etwas am Absatz ändern wird.
Zumal Nvidia sowieso unangefochten Marktführer ist und es den Großteil der Kunden nicht so wirklich interessiert was AMD im GPU Sektor überhaupt treibt.
 
Oben Unten