Reviews Zurück an der Spitze?! AMD Radeon RX 6800 und RX 6800 XT im Test - Gefühlter Gleichstand, aber mit großen Unterschieden im Detail

Wenn Igor die selben Szenarien mit DLSS früher getestet hat, braucht er doch nur die damaligen Ergebnisse übernehmen.

Auch bei anderen Redaktionen werden die GPU Tests i.d.R. von einer Person gemacht.

Aber natürlich soll das nicht heißen, dass ich Igors Arbeit nicht absolut wertschätze.
 
Das unterstellt auch niemand. Ist halt Arbeit. Und auch fraglich, ob die DLSS Ergebnisse auf demselben Testsystem gelaufen sind. Sonst wird wieder gemeckert, es nicht vergleichbar ist...
 
Sehr schöner test Igor.
Freut mich das hier ein Ryzen 5000 genommen wurde. Verstehe nicht das sowas in Frage gestellt wird. Wir wollen doch ein GPU test und wissen was die kann. Man kann es nicht allen recht machen 👍
 
Insgesamt haben Igor´s Tests meine anfängliche Skepsis bestätigt.
Als ganz normaler Spieler, der noch eine GTX 1070 nutzt und eine zukunftssichere und vorallem preiswerte Karte für den Bereich UHD mit annähernd hohen bis sehr hohen Einstellungen bei mindestens 75FPS sucht und dabei ist es egal ob Nvidia oder AMD, ist die RX 6800 mit ihren 16GB leider wohl nichts.
Entscheidend war für mich war die Aussage von Igor, dass der Vorteil dieser Karte mit ihren 16GB im Vergleich zu der RTX 3070 mit der fehlenden Bandbreite verpufft. 11% Unterschied (ohne Raytracing) sind mir einfach zu gering. Und da dieser Flaschenhals ein Hardwareproblem ist, glaube ich nicht an eine Lösung über den Treiber.
Aber auch die anderen Karten, egal ob Grün oder Rot, sind für mich keine Option. Weil erstens, nicht preiswert und zweitens brauchen diese für die gebotene Leistung einfach zu viel Strom; neues Netzteil, Luftkühlung wird in einem Gehäuse immer schwieriger und Lauttstärke nimmt zwangssläufig zu.
 
Zuletzt bearbeitet :
Da habe ich auch noch eine ernsthafte Frage an die Experten, nachdem jetzt alle Fakten offenliegen:

Bei meinem Hobby VR habe ich eine hohe Auflösung, Berechnung zweier Bilder mit Oversampling und Ausgleich der Linsenverzerrungen, hohe Bildwiederholraten (90-144Hz), aber zumeist relativ kleine Texturen. Also UHD-4k aber dann auch wieder nicht so richtig...
Frage: Was eignet sich da aus rein technischer Sicht besser? RDNA2 oder Ampere? Frequenz oder Bandbreite? Infinity-Cache und SAM, oder schnellerer Speicher?

Die Treiberproblematik macht mir ebenfalls Sorgen... das ist ja genau das, wovor sich potentielle NVIDIA-AMD-Umsteiger fürchten.
 
Zuletzt bearbeitet :
@Grestorn
Nunja, 1:1 kann er die Werte nicht übernehmen, weil mit einer anderen CPU getestet wurde und selbst umrechnen wäre schätzen, er will ja Fakten liefern.
Aber nehmen wir mal an, Spiel A in 4k läuft auf System A mit 100 FPS und mit DLSS 122 FPS. Auf System B schon mit 112 FPS ohne, aber der DLSS Wert fehlt. Dann geht man halt zum ersten test, rechnet sich kurz die Prozent aus, wendet das auf den Wert auf System B an und erhält 136,64 FPS mit DLSS.
Und wenn Igor nächste Woche doch noch ein paar Tests nachlegt, due to popular demand, und es kommen für DLSS dann 135 FPS raus oder vielleicht sogar 140,dann ist das halt so, aber als Anhaltspunkt kann man sich das selbst schon ausrechnen.
 
@Stadtreiter
Auch wenn ich nicht all deine VR-Programme kenne und nicht jede aktuelle Technik genau kenne, versuche ich das mit meinen 30 Jahren Erfahrung als Hobbyprogrammierer etwas einzuschätzen.

Bei VR werden doppelt so viele Bilder erzeugt wie üblich, aber eher etwas tiefere Auflösungen verwendet. Das belastet die CPU stark, da sie all die Bilder vorbereiten und die Grafikkarte mit Programmcode und Daten versorgen muss. Als erstes braucht es also einen Prozessor mit hoher Leistung. Oft kommt es hier auch auf die Singlecoreleistung an, da doch so manche Software im Kern recht veraltet ist. Dann müssen die ganzen Daten und der Programmcode zur Grafikkarte übertragen werden. Hier könnte die Bandbreite wichtiger sein als bei sonstigen Games.

Auf der anderen Seite wird aber die Bandbreite und der Speicher der Grafikkarte durch die kleineren Texturen weniger stark belastet. Wie gut sich welche Technik schlägt, hängt extrem davon ab, wie die Games programmiert wurden. Je nach dem welche Funktionen der Treiber sie verwenden kann es recht unterschiedlich aussehen. Am ehesten müsste man sich auf Tests deiner VR-Games verlassen. Da VR aber eher ein Nischenprodukt ist, wird man da vermutlich wenig darüber finden.
 
Bei VR werden doppelt so viele Bilder erzeugt wie üblich, aber eher etwas tiefere Auflösungen verwendet. Das belastet die CPU stark, da sie all die Bilder vorbereiten und die Grafikkarte mit Programmcode und Daten versorgen muss.
Das ist nachvollziehbar. Aber da die beiden Frames ja unabhängig voneinander produziert werden können, sollte das doch auch in zwei getrennten Threads vollzogen werden können. Sprich, das müsste sich fast perfekt parallelisieren lassen und damit belastet das die Single-Thread Performance der CPU nicht stärker als ein "Pancake" Spiel.

Zumindest ist das meine Vorstellung. So lange man genügend Kerne hat, sollte die CPU bei VR kein zusätzliches Bottleneck sein.
 
Zuletzt bearbeitet von einem Moderator :
Da habe ich auch noch eine ernsthafte Frage an die Experten, nachdem jetzt alle Fakten offenliegen:

Bei meinem Hobby VR habe ich eine hohe Auflösung, Berechnung zweier Bilder mit Oversampling und Ausgleich der Linsenverzerrungen, hohe Bildwiederholraten (90-144Hz), aber zumeist relativ kleine Texturen. Also UHD-4k aber dann auch wieder nicht so richtig...
Frage: Was eignet sich da aus rein technischer Sicht besser? RDNA2 oder Ampere? Frequenz oder Bandbreite? Infinity-Cache und SAM, oder schnellerer Speicher?

Die Treiberproblematik macht mir ebenfalls Sorgen... das ist ja genau das, wovor sich potentielle NVIDIA-AMD-Umsteiger fürchten.
Naja, die NVidia Treiber sind jetzt auch nicht fehlerfrei, vor allem die letzten 3 Iterationen. Diverse Fehler mit G-Sync, Multimonitor Setups oder VRR Monis.
Keine Ahnung ob es am Nvidia Treiber liegt oder an Ubi, WD Legion=Abstürzen, AC Valhalla =Auslastungsproblem. Aktuell würde ich gerne Wd mit RT und DLSS zocken, da es aber immer wieder abstürzt, muss ich warten bis mal ein Patch/Treiber kommt auf dem es Stabil läuft.
 
Zuletzt bearbeitet :
Irgendwie scheinen diese Bugs immer nur andere zu treffen. Und das obwohl ich einen GSync (Ultimate) HDR Monitor habe.

Das mit AC:V stimmt aber wohl. Das Spiel habe ich nicht, aber was man so liest deutet schon schwer auf ein Problem hin. Ob das am Treiber oder Spiel liegt, muss man aber erst noch feststellen.

Mit WD:L hab ich kaum Probleme. Es crashed so alle 2-3 Tage einmal, aber das scheint klar am Spiel selbst zu liegen.
 
WD:L ist bei mir bisher zum Glück nie abgestürzt. Und gespielt quasi seit kurz nach Release.
 
Wieso ist es eine Tatsachenverfälschung wenn man noch DLSS testet? Weil die Bildqualität eventuell minimalst anders ist (sowohl positiv als auch u.U. negativ)? Weil AMD nichts gleichwertiges hat? Das hat Nvidia zu SAM derzeit auch nicht. Logischerweise, denn ohne passende Plattform aus Board und CPU geht das auch nicht.
DLSS ≠ SAM, deshalb nicht vergleichbar.
Wenn AMD Super Resolution gebracht hat, kann man das mit DLSS vergleichen.
Wenn NVIDIA etwas SAM-artiges bringt, kann man das mit SAM vergleichen.
Eigentlich recht einfach.

Wenn du meinst, dass RDNA2 in 3 oder gar 7 Jahren noch brandaktuell ist und es bis dahin keinerlei Neuerungen gibt, dann würde ich dir - bitte nimm es nicht persönlich - Realitätsverlust attestieren. Aber ich denke das "merkste selbst". ;)
Wahrscheinlich muss man Fanbois gegenüber explizit erwähnen, dass das andere Technologien ebenso betrifft. Die meinen sonst, es wäre wieder Bashing gegen ihre Lieblingsfirma. Mein Fehler.
Aus "absehbarer Zeit" werden jetzt 3 oder 7 Jahre? Danke für deine Definition von "absehbarer Zeit". Was ist dann deine Definition von "mache ich gleich"?
Was Fanboi angeht: Ich nen 3900x und eine 1080 Ti, und nu? In meinem MacPro 5,1 habe ich 2 Intel Xeons und eine R9 390, und nu?
Ich kaufe das, was meinen Bedürfnissen entspricht.
Kritische und negative Meinungen darf man also nicht mehr äußern. Na dann herzlichen Glückwunsch in der neuen Welt.
Die Wortwahl ist deshalb so ausgefallen, weil die Enttäuschung über den Test entsprechend groß ist und die Erwartung eine ganz andere war. Aber das habe ich schon mehrfach erklärt. Offensichtlich gegen eine Wand. Aber so ist das halt mit Kritik, da macht man sich fast nur Feinde. Zumindest bei bestimmten Themen.
Das es für dich persönlich enttäuschend und gegen deine Erwartung ist, da kann ja der Test nichts dafür. Was waren denn DEINE Erwartungen?
Was WOLLTEST DU denn lesen? Sollte es sehr viel schlechter ausfallen? Oder sehr viel besser? Keine Seite kann es jedem Recht machen, ist leider nun mal so.

Edith:
Evtl. sagt dir der Test von Heise mehr zu. Hier wurde grundsätzlich SAM weggelassen, allerdings auch hier kein Wort zu DLSS.

Wenn man das 1:1 übertragen kann, warum werden die Ergebnisse dann nicht eingebaut? Warum kein Wort darüber verloren?
Wie Igor schon schrieb. Faktor Zeit.

Warum werde ich das Gefühl nicht los, dass AMD auf biegen und brechen so gut wie möglich dastehen muss, auch wenn es vielleicht gar nicht der Realität entspricht?
Ich weiß auch nicht wo du niedrige Preise siehst. Die 3080Ti wird noch kommen und wohl 4-stellig werden. Eine x70er GPU für 500€ aufwärts. Und vergleiche mal die UVP der 3080 mit der der 2080 (non-Ti!). So viel Unterschied ist da nicht. Und AMD macht diese Hochpreispolitik seit der letzten Generation mit. Besser ist dadurch auch nichts geworden.
Dass du heute für 500€ 2080Ti-Leistung bekommst, liegt v.a. an den Konsolen. Hier musste ein ordentlicher Sprung bei P/L her, damit der PC nicht unattraktiv wird. Das weiß man auch bei Nvidia.
Sie müssen nicht auf Biegen und Brechen gut dastehen, tun es aber zum großen Teil. Und das tut der Gesamtsituation auf dem Markt eher gut. Auswahl!
NVIDIA selbst sieht die 3080 als Nachfolger der 2080S, siehe hier. UVP der 2080S war 739,- Euro, 3080 ist 699,- Euro.
Und selbstverständlich macht AMD mit den trotzdem noch relativ hohen Preisen mit. Gefällt ja auch nicht jedem.

Ich denke die Wahl beim Neukauf hängt davon ab was verfügbar ist und was es kostet. Zufriedenheit oder Enttäuschung mit dem alten PC spielen auch eine Rolle. Aber ist das verwerflich auf bewährtes zu setzen?
Grundsätzlich hast du etwas wichtiges erwähnt, nämlich dass die Nische hier nicht repräsentativ für die Allgemeinheit ist. Allerdings würde ich schon sagen, dass Grafikregler auch von Herbert Müller bedient werden. Wenn ein Spiel in 720p läuft, wird auch der das merken und was dagegen tun. Und damit auch andere Regler anschauen, sofern sie ihm verständlich sind.
d'accord
 
Zuletzt bearbeitet :
@Stadtreiter
Hängt natürlich ein bischen vom VR System ab. Meine alte Oculus Rift braucht wenig "Power", die Rift S schon etwas mehr, aber da reicht im Prinzip schon eine 1070 aus. Wenn ich Deine Refresh Angaben lese, gehe ich allerdings eher von einer Index aus. Die braucht schon etwas mehr, insb. beim "experimentellen" 144 Hz Modus. Meine (Index) hängt an einer 2080 (in der Rüsselkiste), habe allerdings nur 90 Hz eingestellt, weil ich da kein motion sickness Problem habe und auch keine "Rennspiele" oder Shooter damit zocke, außer Alyx, aber das ist ja schon fast Pflicht.
 
Du hast recht, ich war sicher in einem Diagramm sowohl SAM als auch DLSS getrennt ausgewiesen gesehen zu haben und dachte, das war hier bei Igor. Irgendwie muss ich da was verwechselt haben.

Ich verstehe hier beide Seiten: DLSS ist nicht 100% pixelidentisch. Ob es besser oder schlechter als native ist, darüber lässt sich streiten (ich hab ne Meinung), aber es ist nun mal nicht pixelidentisch.

Andererseits ist es ein Feature, das de Fakto nur Vor- und keine tatsächlichen Nachteile bringt (m.E.), also wäre es schon sinnvoll in einem solchen Vergleich. So lange es konkret als solches ausgewiesen ist, gehört es m.E. deswegen rein in ein solches Diagramm (-> @Igor Wallossek).

Aber dann werden natürlich wieder die Freunde roter Hardware aufjaulen und Zeter und Mordio schreien, weil ihre Hardware ungerecht behandelt wird ... :)


Und Du nennst andere Fanboi? Wow.
Zur Zeit jaulen aber gerade die Freunde grüner Hardware auf, wobei fidelityFX ja eine Superresolutionsvariante enthalten soll, was absoult keine Erfindung von AMD oder Nvidia ist, sondern DirectML ist eine eigenständige API, an der alle mitgearbeitet haben, inklusive AMD und Nvidia, und dabei auch berücksichtigt werden. Bis es soweit ist, muss man sich daher gedulden, AMD wird bis dahin keine proprietäre Variante liefern wollen, könnten sie aber - um dann auch fair vergleichen zu können.

Genau deshalb ist zu vermuten, hat Igor sicherlich auf Vergleiche gleich bei Marktstart verzichtet. Was ja nicht bedeutet Nvidia wird benachteiligt, die Ergebnisse sind doch bekannt, einfach mal einen früheren Test dafür bemühen und selbst vergleichen, nur womit bloß? Das wäre ja für Nvidia ein unfaires Heimspiel und damit hat Nvidia auch immer noch einen entscheidenden Vorteil. SAM wird ja in einer Varinate kommen die auf Nvidiahardware genauso gut sein soll, wo man dann wieder vergleichen muss wenn es soweit ist. Letztlich ist es derzeit eines der Feature die AMD liefern kann, so wie DLSS in den Nvidia internen Test bei Vorstellung der Hardware auch eine Rolle spielte und in Bewertungen eingefloßen ist. Das kann man ja schwarz auf weiß nachlesen.

Lasst AMD aber die Zeit es anpassen zu können, das hat ja bei Nvidia auch 1 1/5 Jahre gedauert und ob DLSS dabei das Maß aller Dinge ist, muss sich nicht bewahrheiten.

Die Kritik an Igors Test ist damit unbegründet, er ist ein Hardwarefreak was man auch an seiner Euphorie oft bemerkt (egal wenn es betrifft). Das AMD erstmalig in der Branche die 2,5GHz bei einer GPU erreicht, gabs auch noch nicht. Und das ist händische Arbeit die bei der Bereinigung des Designs (RDNA -> RDNA2) eine Rolle spielte, was bemerkenswert ist und wieviel Aufwand AMD da betrieben hat. Wenn man wegen der Leistung im einstelligen Prozentbereich lieber Nvidia kaufen will, weil RTX eben zukunftsträchtiger zu sein scheint -> inklusive DLSS (weil es derzeit verfügbar ist), kann man das doch machen - niemand zwingt einen den einen Hersteller zu bevorzugen.

Zu dem ganzen Thema kann ich nur sagen, das RDNA2 sein gesamtes Leistungspotential erst abrufen kann, wenn die Konsolen und deren Spieleentwicklung weiter fortgeschritten ist, da RDNA2 plattformübergreifend Potentiale freisetzen wird, dass hießt dann mit den ersten Konsolenports (da wird AMD auch weniger Aufwand zugemutet). Da wird Nvidia sicher weniger eine Rolle spielen. Die Frage ist wohin sich der Markt in Zukunft bewegt und diese vage Frage kann man nur schwer beantworten. Deshalb unterscheiden sich Konzenpte auch. RTG macht es sich dabei zu Nutze, beide Bereiche Konsole und PC zu beliefern. Nvidia konzentriert sich eher auf die PC Gamer was aber nicht weniger komplex zu sein scheint.
 
Zuletzt bearbeitet von einem Moderator :
Zur Zeuit jaulen aber gerade die Freunde grüner Hardware auf,
Das stelle ich in diesem Fred auch zunehmend fest, wobei ich persönlich hier nur zwei Firmen sehe (das nennt man dann unter Wirtschaftsexperten wohl Duopol), die darin wetteifern, wie man dem Konsumenten und Endverbraucher den Brotkorb Richtung Oberkante Unterlippe hängen kann, ohne zu überziehen. Freunde habe ich daher weder bei Rot, noch Blau oder Grün finden können. Vielleicht liege ich beim "Freundschaftsbegriff" irgendwo zwischen altmodisch, erzkonservativ und reaktionär, denn selbst das "Du" biete ich im echten Leben eher später an als früher an.
 
Igor vielen Dank Klasse Test.
Meine Standard Anlaufstellen für Tests
Hier, GN, HU
Haben die neuen AMD Karten wirklich ein Bandbreitenproblem in 4K? Oder ist Nvidia einfach besser, aufgrund der "compute Ausrichtung von Ampere", durch die bessere shaderauslastung.
 
Igor vielen Dank Klasse Test.
Meine Standard Anlaufstellen für Tests
Hier, GN, HU
Haben die neuen AMD Karten wirklich ein Bandbreitenproblem in 4K? Oder ist Nvidia einfach besser, aufgrund der "compute Ausrichtung von Ampere", durch die bessere shaderauslastung.
Glaube ich nicht, ich habs es heute Nacht kurz versucht zu umreißen, der InfinityCahce hat einen eigenen Taktgeber der bis 1,94GHz bei einer Bandbreite bis 2tb/s reicht, das ist A100 Level!

Der Taktgeber passt sich dynamsich den zu erwartenden Lastszenarien an, was wir bei AMD schon kennen (Arbitrator). Denke AMD muss hier Loads wie hohe Bandbreite und RTRT Szenarien anpassen, dazu müssen sie Daten sammeln, ähnlich wie beim Shadercache.

Ich würde also abwarten ob das Potential des IFC bereits voll ausgeschöpft wird. Zu aller erst ging es ihnen wohl ums Energie sparen, die Spreizung ist anpasspar und lässt sich mit Treibern optimieren.

Da sie das BVH nicht direkt mit dedizierten Cores beschleunigen, sondern bestimmte Ebenen über Compute, der IFC aber als schneller Zwischenspeicher bei der Instanzierung dient, muss man auch abwarten ob dann in höheren Auflösungen nicht die realtime Raytracingleistung noch steigerbar ist, Thema ist sehr komplex ich umreisse es nur. Jede CU hat dafür eine Acclerator- und eine Primitivepipeline zur Verfügung. Ich würde also abwarten, wie die Entwickler das annehmen. Derzeit wird es eher Nvidia Turing optimiert sein, was ja auch Sinn macht. Selbst Ampere konnte bisher seine aufgebohrte FP32 Pipeline nicht in Szene setzen.
 
Kleine Frage da ich ja bei der 3080 Fe, 3090 Fe und gestern bei der 6800 XT lehr ausgegangen bin habe ich heute gelesen das die 6800 XT Referenzdesign nicht mehr geben wird. Ist das so Korrekt? Die Partner Design Finde ich alle Hässlich. Die desings Außer bei der 3080 (Die ja denn 3090 Kühler haben) sind nicht wirklich besser Dafür aber deutlich Teurer.
 
Oben Unten