Reviews Zurück an der Spitze?! AMD Radeon RX 6800 und RX 6800 XT im Test - Gefühlter Gleichstand, aber mit großen Unterschieden im Detail

AMD hat bei der Präsentation explizit das Zusammenspiel mit den 5000er CPUs hervorgehoben. Genau deswegen muss man auch das Zusammenspiel mit anderen CPUs testen.

Vielleicht bist du hier tatsächlich jemanden auf die Schliche gekommen...

Eine Firma, welche gleichzeitig GPUs und CPUs herstellt, bewirbt, dass am Besten direkt beides zusammen gekauft wird :oops: Das ist klingt schon sehr nach Kommerz :unsure:

Und @Igor Wallossek ist das nicht aufgefallen...
 
Löst Euch mal von dem Gedanken, dass man Leistungen um die 300 Watt geräuschlos runterregeln könnte. Spulen sind allerdings Diven und die Lotterie, eine Mist-Charge zu erwischen, ist nervig. Die 6800 fiept mehr als die 6800 XT. Mus man nicht verstehen.
Man kann aber entgegen der landläufigen Meinung SMD Spulen auch nicht-fiepend bauen. Wär halt nur nicht ganz so billig
 
Uff, was ein Marathon heute. Testvideos gucken, Tests lesen (---> Danke für die abartig heftige Arbeit, die Du hier immer wieder machst @Igor Wallossek !), Karte kaufen, Netzteil suchen - nur gut dass ich damit noch gewartet habe und mir nicht auf Verdacht ein überdimensioniertes gekauft habe.
Meine bisherigen Eindrücke bisher so: AMD hat hier erneut absolut überzeugend geliefert - wenn ich das bisher richtig überblickt habe, hat AMD hier in so ziemlich jeder Hinsicht aufgeschlossen und macht einiges teilweise sogar richtiger als Nvidia. Die 6800XT schleicht gut um die 3080 rum, verbraucht dabei sogar weniger, hat mehr Speicher und ist (wenn sich die Liefersituation irgendwann mal stabilisiert hat) günstiger. Die fehlende raytracing-Leistung stört mich persönlich nicht... Also: Chapaeu, AMD!
Ein kleines Problem habe ich jetzt allerdings doch noch: ich schätze meine 6800XT kommt morgen oder spätestens am Freitag an und ich muss mich noch für ein Netzteil entscheiden.
Im Rechner stecken derzeit eine 4TB HDD, eine 2TB NVMe, ein Ryzen 1800X mit AIO und 2x 16GB Ram. Der Unterbau soll später/zeitnah noch auf X570/R7 5800x umgestellt werden, evtl. auch mit dann 4xRam.
Was meint ihr, genügt ein Straight Power 11 650W aus? Overclocking würde ich höchstens mal zum Testen und schauen was so ginge betreiben.
 
@Gamer
DLSS:
AMD hat noch keinen Gegenpart zu DLSS, warum also, wenn momentan und für den Großteil die Rohleistung interessant ist, extra mit DLSS testen? Wenn beide Hersteller mit rohem Raytracing getestet werden ist das doch nur fair. Mit DLSS nur um dort einen längeren Balken zu sehen?
Kann man nachholen wenn AMD Super Resolution gebracht hat.

Intel + SAM + unerfüllbare Erwartungen:
ALLE Testsysteme waren zudem die letzten Jahre bestückt mit Intel Prozessoren, jetzt wird gemeckert man würde einen AMD nehmen? Entschuldige, aber das finde ich schon lächerlich. Wozu nimmt man den momentan besten Spieleprozessor denn sonst? Möchtest du evtl. auch noch Core i5 aus verschiedenen Generationen dazu getestet haben? Es wurde ja, wie unschwer zu lesen, auch ohne SAM getestet.

Konsolen und Entwicklung:
Leider vergisst du aber hier etwas. Die Basis der Konsolen und der PC Hardware ist nun gleich, nämlich RDNA 2. Das war vorher nicht der Fall. Das macht es Entwicklern wesentlich leichter zu portieren, oder gar erst für die Konsole zu entwickeln. Hier wird sich mehr bewegen als alle Jahre zuvor.

Neutralität:
Würdest du einiges gelesen haben hier, würdest du sehen wie neutral Igor ist. Was aber die PR von Intel und dieser Techniktest miteinander zu tun haben sollen, dass du meinst er wäre nicht neutral, müsstest du mir erläutern. Du scheinst da ja mehr zu wissen als er selbst, um so etwas unterstellen zu können. Erzähl doch mal...
Wenn neue Intel Prozessoren kommen, werden auch sicher die einmal getestet werden. Auch wenn er sie sich selbst kaufen müsste (was wohl mehr als nur Neutralität zeigt).

Ergebnisse CB und Igor:
Widersprüchlich? Ich denke du meintest eher "unterschiedlich", oder? Schon mal die Testsetups durchgesehen? Eigentlich ein Kinderspiel. Mehr braucht man dazu nicht sagen.

Mein persönliches Fazit:
Du bist ziemlich grün/blau angehaucht, oder? Die meisten hier sind sehr neutral, einer DER Gründe hier zu sein. Keiner stänkert.
 
@jahtari Die offizielle Empfehlung lautet glaube 750W und Igor hat im Test ja auch 400W inkl. Stromspitzenzuschlag vorgerechnet, 650W könnten da ein klein wenig knapp werden. Das muss aber nicht heißen, dass es nicht funktioniert.
 
Es wird wirklich schwierig zu entscheiden.
3090/6900 XT mir zu teuer, 3080 zu wenig Speicher, 6800 XT ok, aber wird kaum verfügbar sein wie die anderen auch.
3080 Ti wird wohl auch die Tage vorgestellt, aber dann ebenso wenig verfügbar sein.

Werde also warten und auf der 1080 Ti bleiben bis die Apothekenpreise wieder ein normales Niveau erreicht haben.
 
na mir war so, als sagte er was von 650W. Geleseh hab ich das mit den 400W für die Spitzen ja auch - nur weiss ich nicht recht, was der Rest so frisst, vom Prozessor mal abgesehen. Mein bisheriges Straight Power 10 mit 500W hat den Rechner auch schon problemlos mit ner Nitro+ Vega64 betrieben.
Aber okay, schau ich mich nach einem 750'er um. Hat jemand einen Tipp für ein gutes? Die beQuiets sind nicht wirklich schnell zu haben. xD

edit:
okay, doch noch eins gefunden. zwar für meine Verhältnisse auch ein bissl "drüber", aber da ich ja auch unbedingt und heute ne 6800XT wollte... sei es drum.
 
Zuletzt bearbeitet :
Um SAM geht es doch gar nicht. Warum warum verzerrt der DLSS-Balken total, der SAM-Balken hingegen nicht???
Und bei SAM sind die Ergebnisse von CB und Igor total wiedersprüchlich.

Ich verstehe Dich nicht, in den Diagrammen ist sowohl jeweils ein Balken mit und ohne SAM, sowie mit und ohne DLSS. Transparenter geht doch nicht mehr? Warum soll das eine ok sein, das andere aber nicht?

@Gamer man sieht bei DLSS sehr wohl einen Unterschied - bei der Bildqualität zum Negativen.

Das würde ich so nicht stehen lassen. Wie ich schon öfter schrieb: Höhere Auflösung ist nur EIN Weg, sich dem "100% korrekt" gerenderten Bild weiter anzunähern. (100% korrekt steht für mit unendlicher Auflösung, also ohne Rasterisierungs-Effekte dargestellt)

Eine geringere Auflösung mit den temporalen und neuronalen Techniken von DLSS kann tatsächlich objektiv näher am perfekten Bild sein. Und dafür gibt es auch gute Beispiele.
 
Also ich finde die Tests von Igro gut zeigt auch alles , was die Dinger saufen , wenn man sie voll tretet und was man so an Perfornc hat mit allen Optionen an und auch nicht immer weiter so @Igor Wallossek 👍 😁
 
Leute, bitte die Tests ordentlich lesen und nicht nur schauen wer den größten Balken hat! und sofort im Forum los trellern. Auch wenn in einem oder anderem Test nicht immer auf alle Punkte eingegangen wird, so kann man sich die Infos auch selbst zusammenstellen durch die Artikel. Ihr lest ja nicht nur einen einzigen Test.

1. nVidia DLSS Pendant von AMD = Super Resolution ist in Arbeit und noch nicht fertig entwickelt. Wird kommen.
2. „Schlagabtausch“ zur 3090 wird die 6900XT sein und nicht die 6800XT. Die kommt im Dezember. Ist doch selbsterklärend.
3. Ryzen 5xxx ist nunmal aktuell die modernste und eben auch schnellste Platform für diese Tests und bis vor kurzem wars es immer jahrelang Intel, da hat niemand gemeckert. Jetzt schon? Was ist los mit euch? Hier wird niemand bevorzugt oder benachteiligt. Man nimmt eben das modernste und schnellste System, Punkt!
4. Bei CB steht im Artikel deutlich, dass je nach Spielezusammenstellung sich die Ergebnisse zu anderen Tests deutlich unterscheiden können. Gerade für SAM (CB bei UHD, Igor bei FHD > CPU Limit!!!) und dass neuere Spiele, mit den Navi21 extrem gut skalieren (Konsolen = Navi). Man gibt sogar 4 Beispiele dazu wo man mit der 6800XT tatsächlich eine 3090 einholt. Somit ist vieles nicht einfach vergleichbar. Bissle mitdenken, und nochmal, ordentlich lesen Leute. Dann kann man sich seine Fragen oft selbst beantworten.
5. RT bei AMD erste Gen und auf Niveau von Turing. Bei AMD unnütz aber bei Turing wars geil? Oder sind Turing Karten alle jetzt Müll? Gut, für mich persönlich min. 5Gen zu Jung. Wünschte eine Karte der Leistungsklasse 3080 “GTX“ oder eine 6800XT (lieber wegen 16GB) ohne RT Cores für weniger Geld und mit weniger Verbrauch als Alternative.

@Igor Wallossek : Top Test, danke. Bin auf UV und vor allem WaKü Tests von dir sehr gespannt.
 
Zuletzt bearbeitet :
Ich hatte vorher mit Wolfgang gechattet und z.B. Watch Dog auf drei verschiedenen Sytemem gegengestestet. Ich kann das nicht nachvollziehen, was dort gemessen wurde. Bei mir war alles so, wie erwartet :(
 
Na, bei AC: Valhalla klemmt ja offenbar auch was bei NVidia. Normal und erklärbar ist dieser massive Unterschied ja nicht.
 
DLSS ist im Prinzip ja auch ‚nur‘ eine verlustbehaftete Texturkompression die durch alle möglichen Schärfungs- und Antialiasing Filter gejagt wurde. Mit dem Unterschied halt das die Kompression ein neuronales Netz erledigt hat. (das DL in DLSS)

Die Vorteile sind, dass wenn man weiß was man tut und das System richtig trainiert hat der Informationsverlust so gestaltet wurde, dass wir Menschen ihn möglichst wenig wahrnehmen.

Die Nachteile sind, dass ich das pro Spiel separat jeweils wieder neu trainieren und als Profil rausgeben muss. Heißt die Spiele müssen das nicht nur explizit supporten sondern sich das Profil auch bei NVidia designen lassen. (Jedenfalls bisher). Die Frage ist auch wie gut der Deep Learning Algorithmus ist und ob es nicht Situationen geben kann wo er derbe abstürzt, weil das NN das even nicht mehr ausgleichen kann.

DLSS klingt aber auch einfach geiler als ‚unsere KI lässt 90% der Informationen weg die das menschliche Auge nicht sieht und wir tun so als wär das immer noch 4K“.

versteht mich nicht falsch, DLSS ist extrem clever. Hut ab vor NVIDIA. Allerdings kann ich mich auch noch gut an die Zeit erinnern, wo jeder zum audiophiles Musikexperten wurde und plötzlich die großen Doppelblind-Studien ausgerufen wurden nur weil jemand MP3 auf den Markt gebracht hat.

bei Texturkompression ruft aber irgendwie keiner mehr nach dem warmen Klang des Textur-Vinyls ;)
 
Valhalla ist ein AMD Spiel und biased totoptimiert. Ich hatte 5 Karten durch, dann habe ich es aussortiert, da nicht repräsentativ. Ich habe Control auch erst aufgenommen, nachdem AMD dort aufgeholt hatte. Hersteller-gesponserte Spiele mag ich nicht. Erst wenn etwas Zeit verstrichen ist :)
 
Hallo Igor,
danke für Deine schnelle Antwort. Ganz geräuschlos ist sicher kaum machbar, dass ist klar.
Aber die Lüfter abschalten damit man dann die Spulengeräusche besser hört bringt auch nichts ;)

Grüße
Cunhell
also bei meiner 5700xt, und die hat auf sicher diverse spulen drauf, höre ich im offenen aufbau(benchtable!)
keinerlei spulenfiepen.
wenn man spulen vernünftig vergiesst (vakuumverguss zb), fiepen die auch wesentlich weniger, wenn überhaupt noch.

jahtari:
na mir war so, als sagte er was von 650W. Geleseh hab ich das mit den 400W für die Spitzen ja auch - nur weiss ich nicht recht, was der Rest so frisst, vom Prozessor mal abgesehen. Mein bisheriges Straight Power 10 mit 500W hat den Rechner auch schon problemlos mit ner Nitro+ Vega64 betrieben.
Aber okay, schau ich mich nach einem 750'er um. Hat jemand einen Tipp für ein gutes? Die beQuiets sind nicht wirklich schnell zu haben. xD

edit:
okay, doch noch eins gefunden. zwar für meine Verhältnisse auch ein bissl "drüber", aber da ich ja auch unbedingt und heute ne 6800XT wollte... sei es drum.
ich rechne immer ca CPU-maxleistung +100w + grafikkartenleisungsmax(350-400w hier)

achte beim netzteil darauf das des 2x 8pin ATX12v hat für's mainboard, für die zukunft sonst kaufst du beim nächsten board nachher schonwieder ein netzteil.......
wobei, ein 150€ netzteil sollte das haben, konnte es aber im link nicht auf die schnelle finden....
 
Zuletzt bearbeitet :
wer des Englischen mächtig ist: Buildzoid von actually hardcore overclocking hat zu Thema Spulenfiepen ein interessantes Video wo auch die unterschiedlichen Aufbauten von THD und SMD induktivitäten erklärt werden.

ich glaube Igor hatte sowas auch mal.

man kriegt das pfeifen weg, dann werden aber die Induktoren teurer
 
Danke @Igor hat den guten Test
Was hier und in anderen Foren losgepoltert wird is manchmal echt grauenvoll.
Leute lest doch ertsmal die Testberichte von den ganzen Magzinen aufmerksam durch und schaut nicht nur Balken an.
Aber dazu müsste man sich halt mehr Zeit nehmen.
@Computerbase dort wurde SAM aus Zeitmangel nur in UHD getestet. Und in UHD ist man im Grafilklimit. SAM bringt aber mehr im CPU Limit. Igor hat aber auch in FHD getestet. Dort kommt man aber auch ins CPU Limit. Also bringt es dort mehr.

@Gamer Ist ja unerhört bei einem Grafiktest das CPU Limit soweit es geht zu verschieben. Außerdem hat dir Igor zweimal geschriebn das er Plausbibilätstest mit Intel gemacht hat. Unterschied marginal.
Und wenn du DLSS test willst schau dir doch die Test von der RTX 3090, 3080 oder 3070 an. Wurden alle gemacht.

Das Igor Neutral ist beweist alleine schon das er Anwendungen nicht mal getestet hat. Grund steht im Text.
 
Kindergarten....


Trotzdem: Gibt's ne Idee zur Implementierung von RIS? Dass es DLSS 2 nicht erreicht, ist verständlich, aber eventuell reicht das ja schon. Gibt's irgendwo Messungen inkl DXR?
 
Ich bin auf die 6900 gespannt und dann auch Custom Karten... und wie immer bei AMD, die Treiber müssen reifen und die Kinderkrankheiten beseitigen.

Hier und da sind sicher noch min. 10% mehr Leistung rauszuholen.
 
Oben Unten