Reviews Zurück an der Spitze?! AMD Radeon RX 6800 und RX 6800 XT im Test - Gefühlter Gleichstand, aber mit großen Unterschieden im Detail

Ich sehe die 3090 Kunden nicht im reinen Gamerbereich, sondern eher als "Titan-Nachfolger". Mit dem m.E. sehr (!!!) großen Pferdefuß, dass den Treiber im Gegensatz zur Titan auf der Productivity Seite die notwendige Zertifizierung fehlt, was die 3090 dann im Gegensatz zur Aussage von Nvidia selbst wieder als "Geforce" Gamer-Karte abstempelt. Hier hoffe ich aber auf AMD, denn wenn die 6900 hier punkten kann, könnte dies Nvidia motivieren, auf der Treiberseite nachzubessern, denn hier sehe ich weniger das Können als das "Wollen" auf Seiten des Herstellers und der gap zu den Preisen der A100 ist schon nochmals sehr saftig. Vielleicht kann @Igor Wallossek da mal eine unverbindliche Prognose abgeben.
 
so neben bei, mir ist es egal ob nvidia oder amd oder intel... mir ist nur die 4K Performance und Preis/Leistung wichtig. Dementsprechend kommt dann das passende Stück Hardware rein...
Die letzte AMD CPU war bei mir der Athlon XP... und momentan hab ich einen geköpften i7 8700K uV, jedoch wird mein nächstes System ein Zen3 oder wenn ich warten kann Zen 4. Bin von AMD im CPU Segment zur Zeit sehr "begeistert". Bei den Grakas muss man noch etwas abwarten... Will erst die Vergleiche zwischen 6900XT und 3080 Ti sehen... und natürlich darf AMD noch etwas Zeit haben die anfänglichen Treiber/Performance-Schwächen zu korrigieren
 
Zuletzt bearbeitet :
treiberprobleme hatte ich bei amd und nvidia keine in den letzten 20 jahren. amd karten hatte ich aber nie bei´m launch gekauft (ohne absicht)

wenn es treiberprobleme im pc gab dann lag es am jeweiligen windows,

aktuell hat das win 10 ja immer regelmäßig probleme mit tv-karten, realtec sound und scannerprtokollen

nach jedem größeren patch stellt sich die frage ob der kram noch funzt oder ich frickeln muss.

hat schon mal jemand den 5900 ohne hyperthreading im gaming getestet???

mein 3700x ivm gtx 1080er fluppt ohne in 7DtD deutlich besser
 
momentan gibt es unzählige "Treiberprobleme" sowohl bei AMD als auch Nvidia zum Thema HDMI 2.1, VRR, Flickering etc.
Gerade Besitzer der neueren LG OLED CX Modelle leiden darunter aber auch andere Besitzer von HDMI 2.1 Geräten, die kein DisplayPort nutzen können... ist halt alles neu mit dem neuen Standard von HDMI 2.1 und muss erst noch "behoben" bzw. verbessert werden... DisplayPort hat da weniger Probleme mit den Treibern...
 
Wobei die LG Fernseher ein Firmware Update brauchen, das liegt eher nicht an den Treibern der GraKa Herstellern.
 
ist ein Wechselspiel... mal sind es die Treiber, mal ist es die Firmware des TV's
 
Ich fand den Test von @Igor Wallossek derart gut, dass ich das Ganze nochmals durchgelesen habe, nicht zuletzt um Hinweise darauf zu finden, wie sich die Radeon Karten in einer "Arbeits"umgebung schlagen "könnten". Wir haben jetzt natürlich sicherlich noch das Problem nicht ausgereifter Treiber und ggf. müssen einige Softwarehersteller noch ein "Tuning" oder eine dezidierte Unterstützung für AMD bereitstellen. Cyberpunk 2077 wird zu Beginn ja auch nur nVIDIA Raytracing unterstützen.
Was mir hier besonders ins Auge gefallen ist, ist folgender Sachverhalt:

Zitat Igor´s Artikel:

"[...] Das lässt sich auch in Einzelspielen gut beobachten, denn selbst der große Cache der Radeon kann hier nicht mehr vollumfänglich das sehr schmal ausgefallene Speicherinterface kaschieren. Es ist beruhigend, 16 GB Speicher auf der Karte zu wissen, nützt aber nichts, wenn man sie nicht auch gleichzeitig schnell genug vollbekommt. [...]"

Die Frage, die sich mir aufzwängt ist die, inwieweit die Speicherbusbreite beim Verschieben großer Datenmengen - wie beim Rendern - hier und insb. auch auf einem "Nicht PCIe 4.0 System" sowie auch innerhalb der Graphikkarte einen Flaschenhals darstellen könnte, der per Software "Tricks" nicht zu beheben sein wird ? Ich hoffe, dass @Igor Wallossek ´s Benchmark in dieser Richtung Klarheit bringen werden.
 
Ich weiß immer nicht warum eine Gaming Karte gut für Rendern und andere Anwendungen außerhalb des Gamings sein muss. Ist zwar sicher ganz nett, wenn man diese dafür auch verwenden kann. Aber es ist doch kein MUSS. Ich kann mich noch an GCN Zeiten erinnern wo immer gegen AMD gewettert wurde, dass ja die GPUs unnütze Features hatte für Anwendungen und so ja zu wenig Gamingleistung hatte. Im Gegensatz zu den GTX Karten von nVidia. Und jetzt ist es auf einmal wieder wichtig, dass Gamingkarten ja unbedingt gut in Anwendungen sein müssen. Komische Welt. 🤪
 
Eine Gaming Karte muss nicht gut rendern. Da gebe ich Dir völlig recht.
Ich stelle hier im Wesentlichen auf meinen Post von ein paar Zeilen weiter oben ab.
Ich sehe die 3090 Kunden nicht im reinen Gamerbereich, sondern eher als "Titan-Nachfolger". Mit dem m.E. sehr (!!!) großen Pferdefuß, dass den Treiber im Gegensatz zur Titan auf der Productivity Seite die notwendige Zertifizierung fehlt, was die 3090 dann im Gegensatz zur Aussage von Nvidia selbst wieder als "Geforce" Gamer-Karte abstempelt. Hier hoffe ich aber auf AMD, denn wenn die 6900 hier punkten kann, könnte dies Nvidia motivieren, auf der Treiberseite nachzubessern, denn hier sehe ich weniger das Können als das "Wollen" auf Seiten des Herstellers und der gap zu den Preisen der A100 ist schon nochmals sehr saftig. Vielleicht kann @Igor Wallossek da mal eine unverbindliche Prognose abgeben.

Und damit letztlich auf die Frage, ob hier ein Ausblick auf die "große" 6900xt schon mal erlaubt sein darf, die ja vom Preis und der Leistung her durchaus eine Karte sein kann, die jenseits des Zockens vielleicht noch für andere Anwendungsszenarien denkbar sein "könnte".
Bei analoger Architektur bieten sich solche Gedankenspiele nach meinem Ermessen an - das kann aber jeder sehen wie er will.
Und wenn man den Faden weiterspinnen möchte, ist hier die zugrundeliegende Architektur natürlich als "Untersatz" nicht uninteressant.
Für die Gamer ist das sicherlich völlig Wuppe.
 
Leider habe ich keinen Beleg für Igors Aussage bezüglich der Auswirkungen der Speicherbandbreite gesehen. Ich betrachte es als Vermutung.

Heißt für mich: Die 6800XT kann unter Umständen in bestimmten Spielen in 4K etwas schlechter performen. Warum das so ist, ist unklar da nicht belegt ist. Es kann das Speicherinterface sein oder aber eine andere Eigenheit der neuen Architektur sein.
 
@Alkbert: läßt es nicht schon tief blicken, dass in dem Test hier die Produktivseite gänzlich fehlt? Kein Hinweis auf den - um eine steinalte TV-Sendung mal zu erinnern - prominenten Gast im Sack kann ja auch ein Fingerzeig sein.
 
@Derfnam Ja das ist halt die Frage. Nochmal eine 3090 (dann für meine Rüsselkiste) ist mir einfach zu teuer, auch die Langmut meiner Frau und Finanzministerin hat Grenzen. Daher wäre irgendwas um 600 Euro +/- recht schick, für mich daher anders als vielleicht bei @Dark_Knight (vermute ich mal) keine typische "Gamersituation - und genau da fehlt mir momentan der Gast mit dem Sack ein wenig.
 
So gesehen ist es halt blöd, dass AMD mit den beiden Karten Nvidia nicht ernsthaft unter Druck gesetzt hat, die Ti-Karten mit jeweils doppeltem Speicher (vor)eilig zu bringen.
 
Nicht Unter Druck gesetzt bei RT und bei DLSS. Und offenbar nicht beim Produktivbereich. Aber beim Gamingbereich schon. Die 6800 durchgehend schneller als die 3070 (außer die üblichen sponsored oder schlecht programmierten Titel). Die 6800XT ist mit der 3080 gleich auf und je nach Game mal die eine mal die andere Karte schneller. Was ja CB mit dem Test von 4 aktuellen Spielen gezeigt hat.

Das hier und in anderen Foren genügend User rumrennen und deren Erwartungen in die Richtung gingen, dass die neuen AMD Karten die nVidia Karten vernichtend schlagen oder das AMD eine größere RT Leistung aus dem Hut zaubert (ohne extra Hardware dafür), zeigt halt wie naiv viele sind.

AMD hat mit RDNA 1 und 2 eine Leistungssteigerung sondergleichen hingelegt und ist wieder in absoluter Schlagdistanz zu nVidia. Halt nur noch nicht bei der RT Leistung und ein Gegenpart zu DLSS fehlt. Dazu noch kleinere Zusätzliche Features an denen sie aber ebenso arbeiten, die nVidia schon hat. Aber was reine Leistung angeht, absolut Top. Jetzt müssen nur noch die Preise und die Verfügbarkeit besser werden bei beiden GPU Herstellern und dann kann jeder die Karte sich raussuchen die für das eigene spielen/arbeiten am besten ist.

Als reiner Gamer der eben nichts produktives macht, sind eben Features wie schnelles rendern oder andere Produktivdinge nicht wichtig bei einer Gamingkarte. So wie für genügend User eben RT und/oder DLSS nicht wichtig sind, da die Spiele eben auch ohne diese "Killerfeatures" laufen und gut aussehen. Gerade im kompetitiven Bereich sind solche Features sogar eher störend, da sie Leistung kosten. Und für 1080p brauch es auch kein DLSS und wer 4k haben will, der kauft sich keine 1080p Karte oder eine 1440p Karte um mit DLSS dann auf 4k hochskalieren zu lassen. Nein so jemand kauft sich gleich eine vernünftige 4k Karte um die Regler nach rechts schieben zu können.
 
@darky1986
Betreffend HDMI 2.1 hatte ich mit meinem LG OLED55E9 erst auch heftige Probleme mit meiner neuen Asus ROG Strix 3080 bei Spielen in 4k, erst durch ein LG Firmware Update auf 05.00.03 (erschienen am 09.11.2020) funktioniert alles tadellos.
 
@DHAmoKK Vielen herzlichen Dank für den hervorragenden Link! Den hätte ich so schnell sicherlich nicht gefunden und/oder vielleicht sogar übersehen! Danke!

Edit: Sehr spannend! In VR scheint die 3080 tatsächlich das insgesamt rundere Ergebnis zu liefern. Schade, dass nicht mit SAM getestet wurde und ausgereifteren Treibern, vielleicht würde sich da noch leicht etwas verschieben, aber man kann ja nicht alles haben. Sehr hilfreicher Link!
 
Zuletzt bearbeitet :
Das hier und in anderen Foren genügend User rumrennen und deren Erwartungen in die Richtung gingen, dass die neuen AMD Karten die nVidia Karten vernichtend schlagen oder das AMD eine größere RT Leistung aus dem Hut zaubert (ohne extra Hardware dafür), zeigt halt wie naiv viele sind.

"Naiv" ist hier natürlich wieder etwas provokant. Ich würde eher sagen, die Erwartung bzw der Wunsch rührt bei vielen Usern daher, dass man gerne genau wüsste, woran man ist. Ein klarer Siger wäre da sicherlich hilfreich. Bei mir ist es jedenfalls so, dass ich momentan mehr Fragezeichen sehe, als mir lieb ist. Gerade in dem oG Bereich Speicherbandbreite etc. Für meinen Bereich VR Spiele, PLUS ab und an Blender, ZBrush, CAD, Photoshop und co., weiss ich momentan echt nicht, "was Sache ist".
Beim Thema Raytracing war den meisten regelmäßigen Lesern hier sicherlich klar, was in etwa kommen würde... aber dass die 6800 teilweise sogar schlechter als die 2080ti performen würde, hatte ich persönlich zB nicht erwartet.
EIGENTLICH müsste man noch ein paar Monate abwarten und Tests lesen, anstatt sich den Stress zu machen. Ganz klar. Über den Sinn und Unsinn warum einige entspannter sind, die anderen (wie ich) aber schnellstmöglich kaufen wollen, hatten wir ja bereits mehrfach diskutiert.
 
RDNA2 scheint bei den GPUs das zu sein, was Zen1 bei den CPUs war: schon ziemlich gut, aber um Nvidia vom Thron zu stoßen, reicht es noch nicht ganz. Auf der Basis kann AMD jetzt jedenfalls aufbauen und sich Stück für Stück verbessern, mal sehen, wann sie anfangen, zwei GPU-"Kerne" zusammenzukleben:)
 
Sobald der Kleber fertig ist?
 
Oben Unten