Reviews Zurück an der Spitze?! AMD Radeon RX 6800 und RX 6800 XT im Test - Gefühlter Gleichstand, aber mit großen Unterschieden im Detail

Weil irgendwie niemand drüber spricht: Gibt es einen Grund für das maue Speicher-Interface? Kann man das aufbohren? Das Speicher-Interface war ja bei AMD mal deutlich höher, die VII war mit 4.096 Bit gesegnet und einer gigantischen Bandbreite ... Jetzt kommt die 6000er Serie mit mauen 256? Kommt dann die 6900XT mit 384 oder mehr? Ist doch bekloppt, den Speicher zu erhöhen, aber die Bandbreite so hart zu limitieren. Oder wollen die noch SUPERn?!
Bin mir fast sicher das es mehr oder weniger auch ab gewägt wurde und ein breiteren Cache+Bandbreite für die nächsten Gen aufgeschoben wurden um dann mit GDDR6x nochmal das ein oder andere Prozent raus zu holen. AMD muss wie jeder andere auch in Zukunft verkaufen.
 
Weil irgendwie niemand drüber spricht: Gibt es einen Grund für das maue Speicher-Interface? Kann man das aufbohren? Das Speicher-Interface war ja bei AMD mal deutlich höher, die VII war mit 4.096 Bit gesegnet und einer gigantischen Bandbreite ... Jetzt kommt die 6000er Serie mit mauen 256? Kommt dann die 6900XT mit 384 oder mehr? Ist doch bekloppt, den Speicher zu erhöhen, aber die Bandbreite so hart zu limitieren. Oder wollen die noch SUPERn?!
Klar kannste das aber son Controller ist teuer und zieht gut Strom, Spieicherbandbreite hat dafür nicht so viel (Spieleleistung) gebracht. Die Radeon7 hat ja HBM, "High Bandwith Memory" das steckt schon im Namen. So ein Produkt ist immer Ergebniss vieler Kompromisse, mehr und Vollausbau geht immer, ob sowas dann Wirtschaftlich ist, überstimmt meist die Anderen Faktoren.
 
Weil irgendwie niemand drüber spricht: Gibt es einen Grund für das maue Speicher-Interface? Kann man das aufbohren? Das Speicher-Interface war ja bei AMD mal deutlich höher, die VII war mit 4.096 Bit gesegnet und einer gigantischen Bandbreite ... Jetzt kommt die 6000er Serie mit mauen 256? Kommt dann die 6900XT mit 384 oder mehr? Ist doch bekloppt, den Speicher zu erhöhen, aber die Bandbreite so hart zu limitieren. Oder wollen die noch SUPERn?!
Das wurde doch schon alles durchgekaut nach der offiziellen Vorstellung der AMD GPUs Ende Oktober. Die Kombination aus Cache und kleinerem Buss ist deutlich effizienter und "kaum" langsamer (laut AMD). Die Tests sprechen ja für AMD. Um das direkt zu testen, müsste AMD ein solches engineering sample zuschicke (die haben sicherlich auch Karten mit 384bit Buss gebaut und gegen getestet).
 
Ich kann mir da auch nur vorstellen, dass in einem halben Jahr vielleicht eine RX6x50(XT) mit GDDR6X kommt, aber an der Busbreite ändert AMD wohl eher nichts. Vielleicht mit RX7000.
 
würde von Nvidia auf AMD wechseln, aber Treiberprobleme sind für mich ein NoGo. Deswegen wirds wohl leider eine Karte mit viel zu wenig Ram. Man kommt sich schon was vera***** von den Herstellern vor.
 
Weil irgendwie niemand drüber spricht: Gibt es einen Grund für das maue Speicher-Interface? Kann man das aufbohren? Das Speicher-Interface war ja bei AMD mal deutlich höher, die VII war mit 4.096 Bit gesegnet und einer gigantischen Bandbreite ... Jetzt kommt die 6000er Serie mit mauen 256? Kommt dann die 6900XT mit 384 oder mehr? Ist doch bekloppt, den Speicher zu erhöhen, aber die Bandbreite so hart zu limitieren. Oder wollen die noch SUPERn?!

Die Speicherbandbreite zu erhöhen ist richtig teuer.

384bit und GDDR6x, mit dem aufwändigen Layout und Spezialbohrungen bei dem Ampere Boards gibt es nicht einfach so. Das macht die Karte teuer. AMD hat mit dem Cache gegengehalten und das erstaunlich gut. Aber eben logischer Weise, wie jede Kompromisslösung, auch mit Nachteilen erkauft.
 
würde von Nvidia auf AMD wechseln, aber Treiberprobleme sind für mich ein NoGo. Deswegen wirds wohl leider eine Karte mit viel zu wenig Ram. Man kommt sich schon was vera***** von den Herstellern vor.

Es gibt zwei Anbieter auf dem Markt. Du schließt einen davon wegen Grund X permanent aus. Und beschwerst dich, dass der letzte verbliebene Anbieter dir die Hose auszieht?
 
Nun, laut einem Insider der es wissen sollte, ist es eine DX10/11 auch DX9 Schwäche
Denn Spiele mit DX12/ Vulkan profitieren von SAM kaum bis so gut wie nix, auch unter 4K.
und der Rückstand bei 4K tritt vor Allem bei Spielen auf die weder DX12 / oder Vulkan sind.

Dennoch gibt es Ausreiser, teilweise hohem Ausmaße sagt er.
Dies sollte noch fixbar sein.
 
Zuletzt bearbeitet :
Es gibt zwei Anbieter auf dem Markt. Du schließt einen davon wegen Grund X permanent aus. Und beschwerst dich, dass der letzte verbliebene Anbieter dir die Hose auszieht?
Ich finds einfach unglaublich, dass man hier bei AMD volle Preise verlangt, aber nicht mal Grundlegendstes wie die Treiber sauber hin bekommt. Schon bei der letzten Generation von AMD gabs jede Menge Probleme. Jetzt hat AMD aber den "Günstiger" Sektor verlassen und will auf einer Augenhöhe mit NV sein. Wenn es aber schon bei den Grundlagen scheitert, bekommt dieses Unternehmen nicht mein Geld. Sehr schade, ich würde mit einem AMD Kauf eigentlich gerne die Konkurrenzsituation verschärfen, habe aber keine Lust auf Softwareprobleme bei einer Grafikarte. Für 500€+ muss die einfach perfekt funktionieren.
 
Die Speicherbandbreite wäre einfach regelrecht zu verdoppeln, 4x4GB HBM* und ich wette da wird noch was kommen und wenn es nur im Profisegment angesiedelt wird, über 1TB Bandbreite sind dann easy drin, siehe Radeon VII...

Und das BIG Navi damit umgehen kann, hat AMD ja bestätigt.
 
Welchen groben Fehler gibt es denn beim neuen Treiber`? Stürzt er andauernd ab, laufen die Spiele mit diesem gar nicht? Kann irgendwie jetzt nichts finden was sagt, dass der neue Treiber nicht funktioniert. Hat er bei nVidia auch nicht, sogar zu Reboots geführt. Da hat es auch keinen interessiert.
Aber ist ja AMD, da ist ein Treiber der nicht gleich vom Start weg zu 100% optimiert ist, ein Weltuntergang und ein absolutes NoGo.
 
AMD bietet im moment die schnellste CPU. Das hier ist ein GPU Test. Da will man so gut es geht das CPU Limit verschieben. Was bringt es z.B. ein i7 4790k zu nehmen, das die GPU nicht auslasten kann. Dann ist die GPU zu ca. 60% ausgelastet. Was würde so ein Test bringen?
Man merkt einfach, dass ihr mir nur etwas unterstellen wollt, um hier zu schleimen. Anders sind die Unwahrheiten über das was ich angeblich gesagt habe nicht zu erklären.

Aha. 6800 schlägt eindeutig die 3070. 6800XT nur kanpp geschlagen von der 3080. Und Energieeffizienter als RTX 3000. Und schaut man sich bei Computerbase den modernen Game Pacour an, wird sogar teilweise die RTX 3090 geschlagen.
Bei der Effizienz ist fast Gleichstand. Nvidia hatte für den Verbrauch einen Shitstorm bekommen, während AMD wesentlich besser sein sollte. Merkt man wenig von.

Dann solltest du auch den Test bei Computerbase aufmerksam durchlesen. CB hat aus Zeitmangelnur in UHD getestet. Igor aber auch in FHD.
SAM bringt so wie es ausschaut im CPU Limit aber mehr. Daher brinht es bei Igor was, bei CB nicht. Wobei weitere Test sicher noch kommen werden.
Preisfrage: kauft man eine 600€+ Karte eher für FullHD oder eher für UHD?

Tja die große RX 6900 kommt ja noch...
Ähm, die soll Kreise um die 3090 drehen, so wie es die 6800XT mit der 3080 eigentlich tun sollte... Da muss sie eine ordentliche Schippe drauflegen.

RT ist implementiert mehr auch nicht. Leistung ist viel zu gering. Wenn man ehrlich ist, bei Nvidia aber auch. Braucht noch mindestens 2 Generationen bis das in einen annemhbaren Leistungsbereich kommt. DLSS ist großer Pluspunkt bei NVidia. Wobei das halt nur eine sehr geringe Anzahl an Spielen unterstüzt. Hoher Preis aber 16 GB Ram könnte man sagen.
DLSS ist in fast jedem Spiel, das RT hat. Und RT ist bereits heute gut spielbar, gerade mit DLSS, da muss man keine 2 Generationen warten, sollte aber auch keine RTX2060 haben. Wäre auch sinnlos wenn es nicht brauchbar wäre, denn dann könnten sich die Entwickler das sparen. Die Effekte sind noch nicht voll aufgedreht, aber who cares? Nach dieser Logik dürfte man kein Spiel spielen, sondern müsste immer auf die ultimative Grafik der Zukunft warten.
 
@ChristianB
Nur mal so, ein Kumpel von mir hat sich die 3090 gegönnt, er hatte auch Bluescreens und Abstürze, Nvidia ist auch nicht perfekt. AMD hinkt allerdings mit der Software regelmäßig hinterher, das muss man schon zugeben.
 
@ChristianB
Nur mal so, ein Kumpel von mir hat sich die 3090 gegönnt, er hatte auch Bluescreens und Abstürze, Nvidia ist auch nicht perfekt. AMD hinkt allerdings mit der Software regelmäßig hinterher, das muss man schon zugeben.
also ich lese jetzt schon über einen langen Zeitraum Berichte über Softwareprobleme bei Grafikkarten. Am Anfang hat jeder Hersteller Probleme. Das ist auch ganz normal. Von Nvidia liest man aber häufig nur von "anfänglichen" Problemen, während die Treiber der letzten AMD Generation über Jahre eigentlich nie richtig ausgereift waren. AMD scheint in dem Bereich einfach zu wenig zu investieren. Und ich erwarte jetzt von (hochpreisig gewordenen) AMD, dass diese deren Softwareprobleme endlich endgültig in den Griff bekommen. Ich verzeihe da tatsächlich weniger als Nvidia, weil man da weiß, dass die Probleme auch letztlich in einem zeitlich überschaubaren Rahmen lösen werdenm
 
@Grestorn
Nunja, 1:1 kann er die Werte nicht übernehmen, weil mit einer anderen CPU getestet wurde und selbst umrechnen wäre schätzen, er will ja Fakten liefern.
Aber nehmen wir mal an, Spiel A in 4k läuft auf System A mit 100 FPS und mit DLSS 122 FPS. Auf System B schon mit 112 FPS ohne, aber der DLSS Wert fehlt. Dann geht man halt zum ersten test, rechnet sich kurz die Prozent aus, wendet das auf den Wert auf System B an und erhält 136,64 FPS mit DLSS.
Und wenn Igor nächste Woche doch noch ein paar Tests nachlegt, due to popular demand, und es kommen für DLSS dann 135 FPS raus oder vielleicht sogar 140,dann ist das halt so, aber als Anhaltspunkt kann man sich das selbst schon ausrechnen.
Hier wäre eine Ankündigung schön gewesen, wenn weitere Tests kommen. Da auch nicht jedes Spiel DLSS hat, muss auch nicht jedes Spiel nochmal getestet werden. Außerdem hätte mehr auf Thema eingegangen werden müssen. Die Begründung warum nicht getestet wurde ist zudem sehr schwammig ohne wirklich konkret zu werden.
 
.
 
Zuletzt bearbeitet von einem Moderator :
Hört doch bitte mal auf, diesen Troll zu füttern.
 
@ChristianB
Dann sei auch so fair und lass auch AMD ein bisschen Zeit ;) Das einzige Problem, von dem ich derzeit berichten kann mit meiner Vega, ist ein Absturz mit Reboot, wenn ich den HDMI Sound auf Werte über 16bit/48khz einstelle. Allerdings ist die Vega auch schon sehr lange draußen.

@Gamer
Nur, damit wir uns hier nicht falsch verstehen: Mein "wenn" ist gemeint im Sinn von "sollte". Ich weiß nicht was Igor so vor hat, daher ist meine Aussage definitiv KEINE Zusage, dass er noch Tests nachliefert!
 
@ChristianB
[...] Allerdings ist die Vega auch schon sehr lange draußen.
ja aber genau das meine ich. Bugs werden langsam, oder manchmal nie gefixt. Bei Nvidia hab ich nie von sowas gehört. Klar, es gab mal fehlerhafte Hardwarechargen und so, aber die Software war noch nie ein dauerhaftes Problem. Ich komme mir nicht ernst genommen vor, wenn so ein Problem nie oder erst nach Jahren gefixt wird.
 
Kurze Frage wegen der Bandbreite. Die 6xxxer Karten haben allesamt die 256mbit + 128 Infinity. In 4k laufen die damit ja irgenwann ins Limit, wie im Test zu sehen. Wäre es aus technischer Sicht möglich auch ein 384mbit Interface mit dem InfinityCache zu kombinieren?
 
Oben Unten