AMD Radeon RX 7900XTX und RX 7900XT im Test - Ein riesiger Schritt nach vorn und einer zur Seite

Erbärmlich ist leider (wieder) der schlechte idle+multi monitor+video playback Wattverbrauch, das ist kein Problem der neuen Karten, das ist ein Problem der gesamten Navi Reihe.
Ich ärgere mich schon, dass meine GTX 1650 Super mit 2 Bildschirmen im Idle 30 Watt statt 7 Watt versäuft. Wenn ich da die Werte dieser neuen Karten höre, kann ich ja froh sein. Dank Intel-Prozessor konnte ich den zweiten Bildschirm an die interne Grafikeinheit hängen, die dafür nichts verbraucht.

Ich hatte da etwas im Netz gesucht und festgestellt, dass das Problem da schon seit einigen Generationen bekannt war und Karten von AMD und Nvidia betroffen hat. Eine Lösung dafür scheint es aber nie richtig gegeben zu haben, ausser Basteln mit eigenen Bildschirmauflösungen und so. Es würde mich freuen, wenn die Hersteller sich mal richtig darum kümmern würden. Mehrere Bildschirme sind ja keine Seltenheit und die meiste Zeit laufen die meisten PCs im Idle. Also ist der Idle-verbrauch durchaus entscheidend.
 
Phenomenale Karten. Ach, komm, was soll der Geiz: phenom2enal.
Ich kann mich nicht mehr daran erinnern, wann genau ich erstmals von dem der Firma, bei der es angestellt ist, in die Suppe spuckende Rumtreiberteam aus Toronto las, aber: Hut ab! Endlich mal wieder 🍌🍌karten.
 
Beim Test des Multimonitorsetups bitte mal ein Eyefinity Setup einrichten und dann die Leistungsaufnahme messen.

Laut Monitoring Tool macht das bei meiner 6900 XT rund 10 Watt aus, weil dann das RAM mit weniger Takt betrieben wird. Obwohl gleich viele Pixel dargestellt werden.
Mit einem Leistungsmeter habe ich das noch nicht nachgemessen.
 
Gut dann wird es ne RTX 4080..... hoffentlich gehen die Preise noch ein bissl nach unten.

Obwohl ich fast die Palit eben nach dem Test gekauft hätte.

Bin Enttäuscht vom Strom Verbrauch und wenn der Preis unterschied eh bei nur "100€" am Ende liegt dann ist die RTX 4080 immer noch zu teuer aber das bessere Gesamtpaket.
 
Erstmal vorab danke für den wieder sehr ausführlichen Test!

Und zu den Karten..

Hmm der Preisunterschied ist ja dann doch relativ deutlich. Auch wenn man erstmal abwarten sollte, wie das mit der Verfügbarkeit sein wird. Denn wenn wirklich so wenige Karten produziert wurden, wie schon mehrfach gelesen, dann dürfte der tatsächliche Marktpreis erstmal deutlich höher liegen als die UVP.

Aber wenn man jetzt nicht unbedingt vor Weihnachten eine neue Graka braucht, ist abwarten nicht nur in preislicher Hinsicht wohl das Beste.
Die Treiber scheinen noch nicht allzu optimal zu sein und den Idleverbrauch kann man wohl einfach nur als astronomisch bezeichnen.
Denke da wird AMD in nächster Zeit noch nachlegen (müssen).

Aber was mir definitiv an den Karten gefällt ist die Speicherausstattung.
Denn die würde ich bei NVIDIA als viel zu klein bezeichnen. Zumindestens für derart teure Grakas.
Und auch die kompakteren Ausmasse der Grakas gefallen mir. Das hat sehr praktische Vorteile.
 
Ich ärgere mich schon, dass meine GTX 1650 Super mit 2 Bildschirmen im Idle 30 Watt statt 7 Watt versäuft. Wenn ich da die Werte dieser neuen Karten höre, kann ich ja froh sein. Dank Intel-Prozessor konnte ich den zweiten Bildschirm an die interne Grafikeinheit hängen, die dafür nichts verbraucht.

Ich hatte da etwas im Netz gesucht und festgestellt, dass das Problem da schon seit einigen Generationen bekannt war und Karten von AMD und Nvidia betroffen hat. Eine Lösung dafür scheint es aber nie richtig gegeben zu haben, ausser Basteln mit eigenen Bildschirmauflösungen und so. Es würde mich freuen, wenn die Hersteller sich mal richtig darum kümmern würden. Mehrere Bildschirme sind ja keine Seltenheit und die meiste Zeit laufen die meisten PCs im Idle. Also ist der Idle-verbrauch durchaus entscheidend.
Dann kaufst halt nen Ryzen 7000 und hast die iGPU für den zweiten Monitor.;)
 
Was natürlich Blödsinn ist! Schau dir den Test auf CB an, da wurden separat neue Spiele getestet und da landet N31 genau dort wo er in etwa erwartet wurde.
Viele der RT Tests müssen ignoriert werden, weil die meisten getesteten Games nur über mikriges Raytracing verfügen (kaum optischer Nutzen) und der Großteil der Grafikqualität über Rasterization läuft.

Wenn wir uns Games anschauen, wo wir tatsächlich ordentlich Raytracing Effekte haben - z.B. Cyberpunk - stürzt die Leistung der 7900 XT(X) ins bodenlose - leider. Wie ich oben bereits verlinkt habe, hat ADA knapp 170 % Mehrleistung in RT (synthetisch; plakativ: 100 FPS vs 270). Das ist ein gewaltiger Sprung.
 
Und zu den Karten..

Hmm der Preisunterschied ist ja dann doch relativ deutlich. Auch wenn man erstmal abwarten sollte, wie das mit der Verfügbarkeit sein wird. Denn wenn wirklich so wenige Karten produziert wurden, wie schon mehrfach gelesen, dann dürfte der tatsächliche Marktpreis erstmal deutlich höher liegen als die UVP.

Aber wenn man jetzt nicht unbedingt vor Weihnachten eine neue Graka braucht, ist abwarten nicht nur in preislicher Hinsicht wohl das Beste.
Die Treiber scheinen noch nicht allzu optimal zu sein und den Idleverbrauch kann man wohl einfach nur als astronomisch bezeichnen.
Denke da wird AMD in nächster Zeit noch nachlegen (müssen).

Aber was mir definitiv an den Karten gefällt ist die Speicherausstattung.
Denn die würde ich bei NVIDIA als viel zu klein bezeichnen. Zumindestens für derart teure Grakas.
Und auch die kompakteren Ausmasse der Grakas gefallen mir. Das hat sehr praktische Vorteile.
aber auch Nachteile, wie etwa die Lautstärke

und wegen der Speicherausstattung, naja die 10 GB der 3080 waren ein Witz aber mit 16 GB wüsste ich jetzt nicht wo man aktuell und auch in den nächsten 2-3 Jahre akut in Bedrängniss geraten sollte selbst in 4K

vom Preis her, ja die Amd Ref ist günstiger, aber wohl wie schon die 6900ref kaum erhältlich (ausser mit Bot) und die Customs der XTX werden nicht viel günstiger werden als es aktuell die Customs der 4080 sind.

ich war fest überzeugt das ich morgen versuchen werden eine 7900xtx nitro oder xfx merc zu ergattern, aber nun sitz ich hier und bin ernsthaft am überlegen ob ich nicht einfach ne 4080 Tuf kaufen soll oder alle meine Limits über Board werfen soll und gleich ne 4090 hole.

Schade das es vom Morpheus 8069 nirgends auch nur eine Spur einer Kaufmöglichkeit gibt, sonst würde ich den auf meine 6900xt Ref schnallen und hätte endlich Ruhe und würde ne Menge Geld sparen und damit diese Gen sowohl von Amd als auch Nvidia einfach überspringen.
 
aber auch Nachteile, wie etwa die Lautstärke

und wegen der Speicherausstattung, naja die 10 GB der 3080 waren ein Witz aber mit 16 GB wüsste ich jetzt nicht wo man aktuell und auch in den nächsten 2-3 Jahre akut in Bedrängniss geraten sollte selbst in 4K
Aktuelle Games in DLSS 3.0 wollen - z.B. Spider-Man, bei mir - in 4k HDR 120 FPS bei einer 4090 in Allocation bis zu knapp 20 GB VRAM.

Bedenken muss man hier natürlich allocation vs usage, doch am Ende des Tages läuft ein Game nur dann optimal, wenn es genau so viel bekommt, wie es gerne hätte. Das beugt Mikrorucklern, Textur-Nachladen usw vor. Insbesondere, da Windows bei Multi-Monitor Betrieb sich selbst gerne mal ~2 GB genehmigt und für das Game dann nur 14 GB übrig bleiben.

Schade, dass NVIDIA auch bei der 4080 gegeizt hat - 20 GB VRAM wären bei einer echten 4K Karte zukunftssicherer gewesen.
 
Das sich einige immer wieder an RT aufhängen. Wo gibts den wirklich was fürs Auge auser in Techdemos? Vielwichtiger ist halt mal die Effizienz und die ist bei weitem nicht an den Besagten 50% zu einer 6900xt davon sind wir weit weg.

also bei spider man sehen die spiegelungen schon sehr nett aus
aber auch spiele mit licht/schatten spielerein sehen besser aus

also wenn ich es hätte, dann würde ich es schon nutzen, aber so wichtig wäre es mir auch nicht

generell finde ich es eigentlich ganz gut, dass die AMD karten noch schwächen haben. dann werden sie vlt bald auch 5% billiger wie bei nvidia
selbst würde ich vermutlich eine 7700 kaufen und wenn bis zum release noch die preise fallen, dann ist das nur gut

kann natürlich acuh sein, dass alle nur auf AMDs reaktion gewartet haben und jetzt die lager leerkaufen und der rpeis dadurch wieder steigt
 
ich war fest überzeugt das ich morgen versuchen werden eine 7900xtx nitro oder xfx merc zu ergattern, aber nun sitz ich hier und bin ernsthaft am überlegen ob ich nicht einfach ne 4080 Tuf kaufen soll oder alle meine Limits über Board werfen soll und gleich ne 4090 hole.
Genau das überlege ich auch.
Die Palit gibt es für 1340€ aktuell bei MF und das klingt "sexy" wenn ich zu AMD gucke denke ich mir jpa aber für 100 bis 130€ mehr ne 4080 und man hat halt RT dabei..... plus sie verbraucht weniger......

Hatte genauso vor wie du morgen zu release die AMD zu holen aber bei dem IDL mehrverbrauch bzw insgesamt was sie nehr braucht.... ne...

Meine 1080Ti hab ich nun 5 Jahre oder so und wenn die 4080 das selbe schafft hab ich den Mehrpreis iwann wieder über den Strompreis wieder drin.

Ne 4090 würde mich ab 1700 jucken...... am ende heißt es will man nun endlich seinen Monitor nutzen oder wie in letzter Zeit so oft, warten.
 
Laut Linus soll es wohl unterschiedliche Performance bei unterschiedlichen Monitoren (gleiche Auflösung) geben.

Sowohl im Stromverbrauch, als auch in den FPS.

Merkwürdig. @Igor, kannst Du hierzu etwas mehr testen und berichten?

Screenshot 2022-12-12 192147.jpg
1670868958863.png
(System Idle Verbrauch)

->
 
Viele der RT Tests müssen ignoriert werden, weil die meisten getesteten Games nur über mikriges Raytracing verfügen (kaum optischer Nutzen) und der Großteil der Grafikqualität über Rasterization läuft.

Wenn wir uns Games anschauen, wo wir tatsächlich ordentlich Raytracing Effekte haben - z.B. Cyberpunk - stürzt die Leistung der 7900 XT(X) ins bodenlose - leider. Wie ich oben bereits verlinkt habe, hat ADA knapp 170 % Mehrleistung in RT (synthetisch; plakativ: 100 FPS vs 270). Das ist ein gewaltiger Sprung.
Verstehe auch nicht, wieso CB nicht CP2077 in die RT-Tests mit aufnimmt. Stattdessen sind da irgendwelche Nischentitel drin. Danke @Igor Wallossek , dass du das drin hast, auch mit DLSS und FSR! Der Aufwand dieses einen Diagramms ist echt enorm, das kann man garnicht hoch genug anrechnen.
 
Aktuelle Games in DLSS 3.0 wollen - z.B. Spider-Man, bei mir - in 4k HDR 120 FPS bei einer 4090 in Allocation bis zu knapp 20 GB VRAM.

Bedenken muss man hier natürlich allocation vs usage, doch am Ende des Tages läuft ein Game nur dann optimal, wenn es genau so viel bekommt, wie es gerne hätte. Das beugt Mikrorucklern, Textur-Nachladen usw vor. Insbesondere, da Windows bei Multi-Monitor Betrieb sich selbst gerne mal ~2 GB genehmigt und für das Game dann nur 14 GB übrig bleiben.

Schade, dass NVIDIA auch bei der 4080 gegeizt hat - 20 GB VRAM wären bei einer echten 4K Karte zukunftssicherer gewesen.
Grundsätzlich gebe ich dir Recht. Aber wenn man ehrlich ist, sollten 16 GB ausreichen, bis man die 4080 ohnehin ablöst. Ich habe mich mit meiner 6800XT auch immer ganz toll gefühlt mit 16 GB, aber wenn ich ehrlich bin, hat kein Spiel das jemals annähernd voll ausgelastet auf WQHD.
 
Da gibt es noch einige Diskrepanzen bei den Tests auf verschiedenen Seiten. Techpowerup ist einer der wenigen, die auch auf einem 13900K testen, zusätzlich zum 5800X des alten Testsystems. Und da schneidet der 5800x bis WQHD, wenn die Karten nicht im GPU-Limit liegen, teils merkwürdig gut ab.
 
Verstehe auch nicht, wieso CB nicht CP2077 in die RT-Tests mit aufnimmt. Stattdessen sind da irgendwelche Nischentitel drin. Danke @Igor Wallossek , dass du das drin hast, auch mit DLSS und FSR! Der Aufwand dieses einen Diagramms ist echt enorm, das kann man garnicht hoch genug anrechnen.
Zudem testen viele Reviewer Cyberpunk nur mit "einfachem" Raytracing, ich habe die 7900 XTX bisher noch nicht im Psycho Modus gesehen (vermutlich gewollt, da hier eine 4090 sonst mit der dreifachen Mehrleistung wegrennen würde). Leider schreiben viele Reviewer zudem nicht dazu, welche konkreten Einstellungen getestet werden. Anhand der FPS Unterschiede zwischen AMD u. NVIDIA kann recht schnell die Einstellungen "erahnen".
 
Da gibt es noch einige Diskrepanzen bei den Tests auf verschiedenen Seiten. Techpowerup ist einer der wenigen, die auch auf einem 13900K testen, zusätzlich zum 5800X des alten Testsystems. Und da schneidet der 5800x bis WQHD, wenn die Karten nicht im GPU-Limit liegen, teils merkwürdig gut ab.
wird halt ein Mehrphasenlaunch :LOL:

Laut Linus soll es wohl unterschiedliche Performance bei unterschiedlichen Monitoren (gleiche Auflösung) geben.

Sowohl im Stromverbrauch, als auch in den FPS.

Merkwürdig. @Igor, kannst Du hierzu etwas mehr testen und berichten?

Anhang anzeigen 22051
(System Idle Verbrauch)

->
Wtf 50W ohne Monitor und bis 171W im Idle, AMD wieso released man so etwas. Da kommen unschöne alte Tugenden wieder zum Vorschein .....
 
alle meine Limits über Board werfen soll und gleich ne 4090 hole.
Mit Sicherheite eine deiner besten Ideen seit langem und langfristig die mit Abstand günstigste Karte.

Du kannst Sie mindestens 4 Jahre nutzen und bekommst danach immer noch einen Haufen Geld dafür.

Ich wage ernsthaft zu bezweiflen das die 8000er AMD Serie die 4090 in RT schlägt.
 
Habe grade erst gesehen, dass AMD bei dem DP 2.1 Anschluss nur auf einen Teil der vorgesehenen Bandbreite setzt?


1670870576475.png

Das ist doch albern... also würde man als Kunde beim "Ausreizen" von DP 2.1 direkt in der DisplayCompression landen...

1670870592662.png
Also haben wir am Ende

ADA: 8.10 GBit/s
vs
7900 XT(X): 13.5 GBit/s, anstatt 20 GBit/s
 
Oben Unten