Reviews Powercolor Radeon RX 6700XT Hellhound 12 GB im Test – Traum in Weiß und sparsamer als die Referenz

@Megaone Grundsätzlich hast du recht. Nur bei der "AMD optimierten Umgebung" würde ich bedenken, dass das im Moment die Plattform ist, die bei den meisten Leuten läuft. Schau einfach auf die Verkaufszahlen. Als noch komplett auf Intel getestet wurde hat die AMD Fraktion gemeckert...
Klar sollte aber auch sein, dass RT auf AMD Karten nicht performant läuft und DLSS garnicht verfügbar ist. Den Punkt mit "immer mehr Spiele" halte ich für relevant. Ich selber habe aber gerade erst drei (Doom Eternal - RT ist komplett irrelevant, SoTR und Metro Exodus (nur non-Enhanced) - RT frisst zuviel Leistung, DLSS produziert Fehler) davon gespielt.
Nun ja, ob das die Plattform ist, die bei den meisten läuft, lassen wir mal dahingestellt. Steam erzählt da was ganz anderes. Unabhängig davon hab ich mit der Plattform überhaupt kein Problem. Ich hab selber eine 570er und eine 399er AMD Plattform. Die AMD Karte soll gerne in dem für Sie optimalen Rahmen getestet werden, damit Sie zeigen kann, was in Ihr steckt. Genau dieses aber bei NVIDIA nicht zu tun, respektive aus meiner Sicht möglicherweise kaufentscheidende Feature auszublenden, obwohl der Spieleanteil steigt und gerade auch die alte 2000er Serie im Idealfall wirklich gut performt, finde ich etwas schade. Man darf nie vergessen, das Igorslab in der Szene zurecht einen Ruf wie Donnerhall hat. Das bedeutet aber auch, das sich deutlich weniger versierte als die hier im Forum schreibenden sich ein Bild von so einem Test machen. Was deine Fehlererfahrung angeht, kann ich Sie weder bei meiner 3090 als auch bei meiner 2080 super nachvollziehen. Wenn es sie gibt, was ich nicht bezweifeln will, so hat der Nutzen für mich immer die Nachteile mehr als aufgehoben,
 
Zuletzt bearbeitet :
Schöne Karte. Würde mir auch mal ein PC komplett in Weiß zusammenbauen, mit schwarzen Akzenten. Bestimmt nice.

Krass, wenn ich das hier lese und mir nochmal bewusst wird, was mit undervolting alles herauszuholen ist. Meine RX 6700 XT Red Devil läuft aktuell mit ca. 2480 MHz und einer GPU-Spannung von ca. 1125 mV auf insgesamt 175 Watt. HotSpot-Temp liegen, bei längerer Last, bei ca. 70 Grad.

Bei meiner vorherigen RX 5700 XT Nitro+ konnte ich durch UV auch ca. 40 - 50 Watt einsparen, bei gleicher Leistung.
 
Zuletzt bearbeitet :
AMD bewirbt die Karte mit WQHD und Full-HD. Genauso teste ich sie auch. Nur fair, finde ich.

Völlig korrekt und gleichzeitig ein Armutszeugnis für Hersteller, Handel und sonstige Kasper, die hier mitmischen, dass Mitte des Jahres 2021 KEINE vernünftige Graphikkarte für 4 K Gaming unter 800 Euro zu bekommen ist.
Vor einem Jahr hätte man uns für eine solche Prognose den Vogel gezeigt.
 
@Megaone
Verstehe irgendwie dein Problem nicht. Nvidia hat meines Wissens keine solche Plattform wie AMD sie hat. Stellt also dementsprechend keine CPU´s her. Somit auch keine Plattform, wo es ein "besser" oder "schlechter" gibt. Und da Intel und Nvidia in manchen Sparten (z.B. GPU) direkte Konkurrenten sind, werden die wohl auch nicht besonders gut zusammenarbeiten. Also wo ist dann da dein Problem? Welcher Rahmen würde denn da deiner Meinung nach besser passen?
AMD würde sich doch ins Bein schießen, wenn sie Nvidia auf deren Plattform (also CPU und Mainboard) irgendwie ausbremsen oder "schlechter aussehen lassen". Und ob eine AMD-Graka auf einer Intel- oder AMD-Plattform getestet wird, sollte da eigentlich nebensächlich sein, wenn es um die reinen (vom Hersteller in Aussicht gestellten) Leistungsdaten der Karte geht.
Edit: Kannst mich aber gerne korrigieren, wenn ich an deiner Argumentation etwas falsch verstanden habe.
 
Zuletzt bearbeitet von einem Moderator :
Eine sehr schöne Grafikkarte! Hoffe, dass GPUs bald wieder zu normalen Preisen unter die Kunden kommen. So, wie es aktuell ist, kann man sich dieses Hobby ja kaum noch leisten und es verliert zunehmend an Attraktivität.

Grüße!
 
@Megaone
Verstehe irgendwie dein Problem nicht. Nvidia hat meines Wissens keine solche Plattform wie AMD sie hat. Stellt also dementsprechend keine CPU´s her. Somit auch keine Plattform, wo es ein "besser" oder "schlechter" gibt. Und da Intel und Nvidia in manchen Sparten (z.B. GPU) direkte Konkurrenten sind, werden die wohl auch nicht besonders gut zusammenarbeiten. Also wo ist dann da dein Problem? Welcher Rahmen würde denn da deiner Meinung nach besser passen?
AMD würde sich doch ins Bein schießen, wenn sie Nvidia auf deren Plattform (also CPU und Mainboard) irgendwie ausbremsen oder "schlechter aussehen lassen". Und ob eine AMD-Graka auf einer Intel- oder AMD-Plattform getestet wird, sollte da eigentlich nebensächlich sein, wenn es um die reinen (vom Hersteller in Aussicht gestellten) Leistungsdaten der Karte geht.
Edit: Kannst mich aber gerne korrigieren, wenn ich an deiner Argumentation etwas falsch verstanden habe.
Ich hab nichts von einem Problem geschrieben. Im Gegenteil, das hab ich ja in meinem zweiten Post an Grimm dargelegt. Ich bin auch kein NVIDIA Fan. Sobald es was kauffähiges von AMD gibt, kaufe ich es. Ich bin sofort bei erscheinen des Threadrippers auf einen 1920er gewechselt und danach auf einen 3900er. Ich finde es einfach schade zu sagen, AMD kann kein RT und kein DLSS, also testen wir es nicht. Das wird meiner Meinung nach dem Leistungsumfang einfach nicht gerecht. Bei erscheinen der 2000er Serie war das zugegebenermaßen alles ein ziemlicher Firlefanz, aber das hat sich Imho geändert. Am Ende eines langen Tages wird man sehen, was AMD`s sogenanntes Super Resolution leistet . Aktuell jedenfalls wird die 6700XT in 2560x1440 mit RT und DLSS von einer 2060 super knapp geschlagen, von einer 2070 super abgehängt und von einer 2080 super geradezu deklassiert. In Full HD ein ähnliches Bild. In 4 K schafft die 6700 immerhin noch im Schnitt 67 Frames, was sie für mich durchaus 4k tauglich macht. Allerdings erfolgt der völlige Zusammenbruch bei DLSS und RT. Hier wird im übrigen eine 6900er von einer 2070 super geschlagen. All das kann ich dem Test aber nicht entnehmen. Immerhin schreibt AMD selbst die Karte ja auch als RT fähig aus. Bei einer 5700er ist das anderes. Da weiss ich das die Karte es definitiv nicht kann.
 
Zuletzt bearbeitet :
Klar sollte aber auch sein, dass RT auf AMD Karten nicht performant läuft ...
Bezüglich der Bestandstitel kann man die Aussage so wohl stehen lassen, da es nur sehr wenige Gegenbeispiele gibt, in denen RDNA2 mithalten kann. Aktuell ist das Problem vermutlich weiterhin eine objektive Vergleichsmöglichkeit, d. h. jeweils bestmöglich optimiert in einem Titel auf RDNA2 und auf Ampere, ohne das die jeweils andere Hardware einen Nachteil dadurch erfährt. Letzteres ist aktuell schlicht nicht sicherzustellen; hier müsste man mal bei einem zukünftigen Titel tatsächlich den direkten Kontakt zu einem Grafik-Ingenieur suchen und dem auf den Zahn fühlen, ob dort tatsächlich optimal für beide Plattformen entwickelt wurde ... sofern das überhaupt möglich ist, denn selbst das ist nicht einmal gesichert, denn beide Implementationen arbeiten grundsätzlich etwas anders und das könnte durchaus die jeweils andere Hardware beeinträchtigen bzw. schlussendlich stehen einer vollumfänglich optimalen Implementation oftmals auch rein wirtschaftliche Aspekte entgegen ... und in einigen Monaten kommt dann noch Intel's Xe-HPG hinzu. ;)

AMD bewirbt die Karte mit WQHD und Full-HD. Genauso teste ich sie auch. Nur fair, finde ich.
In dem Falle ja auch vollkommen nachvollziehbar, da die GPU explizit nicht für 4K ausgelegt ist. Bereits bei den RDNA2-Topmodellen merkt man einen leichten Perf-Drop in 4K, da die L3-Hit-Rate signifikant abfällt und das wird bei der RX 6700 XT, deren L3 auf 96 MiB verkleinert wurde, eher noch stärker zu Buche schlagen.
 
Zuletzt bearbeitet :
Schicke Karte, mal etwas anderes als das Dunkelbunte. Aber leider wie im ersten Post geschrieben, ein Traum in weiß...

Jetzt noch Verfügbarkeit hoch und Preise wieder auf normal runter....
 
Ich hab nichts von einem Problem geschrieben. Im Gegenteil, das hab ich ja in meinem zweiten Post an Grimm dargelegt. Ich bin auch kein NVIDIA Fan. Sobald es was kauffähiges von AMD gibt, kaufe ich es. Ich bin sofort bei erscheinen des Threadrippers auf einen 1920er gewechselt und danach auf einen 3900er. Ich finde es einfach schade zu sagen, AMD kann kein RT und kein DLSS, also testen wir es nicht. Das wird meiner Meinung nach dem Leistungsumfang einfach nicht gerecht. Bei erscheinen der 2000er Serie war das zugegebenermaßen alles ein ziemlicher Firlefanz, aber das hat sich Imho geändert. Am Ende eines langen Tages wird man sehen, was AMD`s sogenanntes Super Resolution leistet . Aktuell jedenfalls wird die 6700XT in 2560x1440 mit RT und DLSS von einer 2060 super knapp geschlagen, von einer 2070 super abgehängt und von einer 2080 super geradezu deklassiert. In Full HD ein ähnliches Bild. In 4 K schafft die 6700 immerhin noch im Schnitt 67 Frames, was sie für mich durchaus 4k tauglich macht. Allerdings erfolgt der völlige Zusammenbruch bei DLSS und RT. Hier wird im übrigen eine 6900er von einer 2070 super geschlagen. All das kann ich dem Test aber nicht entnehmen. Immerhin schreibt AMD selbst die Karte ja auch als RT fähig aus. Bei einer 5700er ist das anderes. Da weiss ich das die Karte es definitiv nicht kann.
Ich verstehe jetzt etwas besser, um was es dir da geht. Allerdings sind es eben Features, die letztlich nicht von AMD kommen, somit wird da auch ein Testen dahingehend immer schwierig, da dies zumeist nur eine eigene Implementierung von AMD ist, die dem Original nicht im Detail entspricht. Daher verstehe ich auch, wenn nicht jede Graka von AMD damit getestet wird. Und dass eigentlich alle AMD´s schlecht bei Nvidias Features abschneiden, ist ja kein Geheimnis. Und geht aus den umfangreichen Graka-Tests der letzten Zeit ja auch deutlich hervor und wird auch oft genug angesprochen. Und "RT-fähig" ist halt noch lange kein richtiges RT. Und somit auch nur fair, es nicht zu testen. Für alle Beteiligten.
Ist aber nur meine Meinung.
Für die genaueren Hintergründe, weshalb er diese Features bei dem Test nicht eingeplant hat, wirst du dann um eine direkte Anfrage an Igor wohl nicht herumkommen.
 
Wer sich ne 6700 kauft, macht Dies sicher net wg. RT.

Das FSR/TSR eigentlich gut funzt hat DF bei der GhostrunnerDemo gezeigt.(im Zusammenhang mit UE5)
Ob man genau Das selbst testen kann, weiss ich Jetzt net genau, aber Es gibt dort bereits ein FX-Upsampling.(bei mir mal @50%)


btw.
Wer sich ne 3070Ti oder 2070/2080 Super 8GB für 4k gekauft hat, konnte/wollte wohl nix Vernünftiges.(siehe WDL@RT+DLSS)
(braucht am Ende mehr W als ne 2080Ti und der Vram reicht auch net in jeder Lenbenslage)
 

Anhänge

  • Ghostrunner@TSR.jpg
    [email protected]
    260,1 KB · Aufrufe : 8
  • GR@4k50%up.jpg
    GR@4k50%up.jpg
    808,8 KB · Aufrufe : 8
  • WDL@4k RT DLSS.JPG
    WDL@4k RT DLSS.JPG
    30,3 KB · Aufrufe : 9
Zuletzt bearbeitet :
Wer sich ne 6700 kauft, macht Dies sicher net wg. RT. ...
Warum nicht? So manch einer mag sich selbst eine einfache RTX 2060 oder 3060 auch durchaus mit Blick auf Raytracing zu kaufen. Welches Leistungsniveau erreicht wird, ist ja erst mal eine ganz andere Frage und ebenso welche Ambitionen dieser Käufer diesbezüglich hat. Nicht jeder hat das Geld für die Topmodelle und so mancher möchte einfach nur technisch am Ball bleiben und DLSS zeigt bereits, dass auch hier Raytracing durchaus sinnvoll betrieben werden kann und FSR steht ja bereits quasi vor der Tür (auch wenn dessen Leistrungsfähigkeit noch unbekannt ist).
Zudem ist die Hardware explizit Raytracing-fähig, übrigens ebenso wie die PS5, die damit gar ausdrücklich wirbt und dieses Stück Hardware hier verfügt über mehr CUs, einen höheren Takt und mehr Speicher, ist also gar bereits leistungsfähiger und jetzt soll hier Ratracing kategorisch kein Thema sein (und trotz FSR am Horizont)?
Die Überlegung greift, sieht man sich das 2HJ19 an, anscheinend auch grundlegend zu kurz, denn das Duell Navi10 vs. die Turing-Refreshes konnte nVidia eindeutig für sich entscheiden, und das lag zweifellos nicht daran, dass nVidia's direkte Gegenstücke doppelt so schnell oder nur halb so teuer waren und auch DLSS 2.0 kam erst über ein halbes Jahr später.
Ich würde eher sagen, dem ein oder anderen geneigten Käufer hier auch ein gewisses Interesse an Raytracing bei diesem kleineren RDNA2-Modell zu unterstellen, ist durchaus legitim, entsprechend finde ich es auch etwas merkwürdig, dass hier im weiteren Testverlauf kein weiteres Wort darüber verloren wird. Und wenn Zeitmangel oder vielleicht eine ähnliche Abschätzung bzgl. mangelnder Relevanz der Grund war, dann würde ich zumindest einen Einzeiler erwarten, der diesen Beweggrund für das Fehlen eines jedweden Raytracing-Tests zumindest kurz begründet, denn ohne scheint einfach ein wesentlicher Punkt zu fehlen, denn dass RDNA2 explizit Raytacing-fähig und AMDs erster Wurf mit dieser neuen Technologie ist, ist ja gerade ein wesentlicher Punkt dieser Hardware-Generation.

*) Beispielsweise, wenn Igor, sobald FSR verfügbar sein wird, einen großen Raytracing-Test vorhaben sollte (quasi RT + FSR zusammen testen), hätte er das ja teasern können. Jedoch so stellt sich mir als Leser die Frage, warum diese explizit neue Hardware-Funktionalität keinerlei Bedrücksichtigung in dem Test findet.
Vielleicht ist das Szenario ein valider Erklärungsansatz, hilft aber dennoch nicht bzgl. der Begründung jeglicher fehlender Erwähnung, denn grundsätzlich ist die Raytracing-Funktionalität erst mal komplett unabhängig von einer Upscaling-Technik. Wenn hier so manchen das Gefühl beschleichen mag, dass der Test unvollständig wirkt, so kann ich dies daher durchaus nachvollziehen.
 
Zuletzt bearbeitet :
Ich verstehe jetzt etwas besser, um was es dir da geht. Allerdings sind es eben Features, die letztlich nicht von AMD kommen, somit wird da auch ein Testen dahingehend immer schwierig, da dies zumeist nur eine eigene Implementierung von AMD ist, die dem Original nicht im Detail entspricht. Daher verstehe ich auch, wenn nicht jede Graka von AMD damit getestet wird. Und dass eigentlich alle AMD´s schlecht bei Nvidias Features abschneiden, ist ja kein Geheimnis. Und geht aus den umfangreichen Graka-Tests der letzten Zeit ja auch deutlich hervor und wird auch oft genug angesprochen. Und "RT-fähig" ist halt noch lange kein richtiges RT. Und somit auch nur fair, es nicht zu testen. Für alle Beteiligten.
Ist aber nur meine Meinung.
Für die genaueren Hintergründe, weshalb er diese Features bei dem Test nicht eingeplant hat, wirst du dann um eine direkte Anfrage an Igor wohl nicht herumkommen.
Nun ja, Igor kann testen wie immer er mag. Und ich bin der letzte der irgendjemand anderem vorzuschreiben hat, wie er seinen Testaufbau gestalten soll. Zu sagen:" "RT-fähig" ist halt noch lange kein richtiges RT. Und somit auch nur fair, es nicht zu testen. Für alle Beteiligten." würde ich so nicht teilen wollen. Ich halte es im Gegenteil für den falschen Ansatz. Erstens geht es völlig an der Ingenieursleistung vor NVDIA vorbei und zweitens sollte der Konsument wissen was er für sein Geld bekommt. Aktuell erscheint DLSS 2.2. 47 Games unterstützen DLSS und/oder RT und über 30 weitere sind kurzfristig geplant. Ich habe lange im PC Bereich gearbeitet und die Kenntnisfreiheit der Kundschaft ist erschreckend. Wer so einen Test liest, weiss hinterher nicht das seine 6700/6800/6900er in einem Triple A Titel möglicherweise von einer von einer alten 2070/2080 super abgehängt wird, sobald das Game die entsprechenden Optionen offeriert.

Und wie Argumentieren wir als nächstes? Fidelity FX Super Resolution und DLSS können wir nicht vergleichen weil AMD keine Tensorkerne und NVIDIA eine Programmiervorsprung von mehreren Jahren hat? In US Foren wird stellenweise vom Kauf der AMD Karten abgeraten, weil Ihnen genau diese Features fehlen. Soweit würde ich sicher nicht gehen, aber wie Udo Lindenberg singt: "Das kann man ja auch mal so sehen."

Merkwürdigerweise wird DLSS und RT in vielen Foren häufig von Leuten kleingeredet, die Karten haben, die die entsprechenden Optionen nicht offerieren. Das hatte sicher zum Release der 2000 Serie durchaus seine Berechtigung. Ich selbst habe ebenfalls so argumentiert. Aber in der Zwischenzeit ist viel passiert. Ich hoffe sehr, das Fidelity FX Super Resolution wirklich was taugt und gut mit RT skaliert und von der Spieleindustrie angenommen wird. Nichts ist schlimmer als ein marktbeherrschender Player der mehr oder weniger die Preis diktiert.
 
Zuletzt bearbeitet :
Wer sich ne 3070Ti oder 2070/2080 Super 8GB für 4k gekauft hat, konnte/wollte wohl nix Vernünftiges.(siehe WDL@RT+DLSS)
(braucht am Ende mehr W als ne 2080Ti und der Vram reicht auch net in jeder Lenbenslage)
Da ist sogar was wahres dran. Nachdem mit meinem 1080 GTX SLI setup kein Staat mehr zu machen war, hab ich bewußt als Zwischenkarte zu einer 2080 super gegriffen. Mittlerweile ist die Karte aber bei 4 K bei allen DLSS Titeln wirklich brauchbar. Viele ältere Non DLSS Titel laufen sowieso, selbst RT ist im Gegensatz zu nahezu allen aktuellen AMD Karten zumindest mit DLSS mehr als akteptabel. Und nahezu wöchentlich werden es mehr Games.
 
Zuletzt bearbeitet :
Hätten alle spiele DLSS ( welches auch gut ausschaut ) wäre ich ganz eurer meinung. Aber so ist das Unfug.
Hier hat der eine optimiert da der andere, und je nach auswahl der Spiele giebts die Reise nach Jerusalem unter den Karten.

Da muss ich als Käufer schauen, wenn mir ein Spiel MEGA wichtig ist welcher Hersteller da seine Finger im Spiel hat.

Oder bei einem Overall Rating halt darauf vertrauen das es meine vorlieben wiedergiebt.

Und wenn ich nicht gewillt bin mich ein bisschen einzulesen, brauche und werde ich mich auch nicht wundern das es nicht so passt wie erhofft.
 
Hätten alle spiele DLSS ( welches auch gut ausschaut ) wäre ich ganz eurer meinung. Aber so ist das Unfug.
Hier hat der eine optimiert da der andere, und je nach auswahl der Spiele giebts die Reise nach Jerusalem unter den Karten.

Da muss ich als Käufer schauen, wenn mir ein Spiel MEGA wichtig ist welcher Hersteller da seine Finger im Spiel hat.

Oder bei einem Overall Rating halt darauf vertrauen das es meine vorlieben wiedergiebt.

Und wenn ich nicht gewillt bin mich ein bisschen einzulesen, brauche und werde ich mich auch nicht wundern das es nicht so passt wie erhofft.
Hier erschaffst du gerade IMHO verbal die Quadratur des Kreises. Erstens kann ich mit einer NVIDIA zumindest mit einer gewissen erfolgsaussicht an der Reise nach Jerusalem teilnehmen und zweitens genießt, wie schon geschrieben, Igor zurecht in der Szene einen Ruf wie Donnerhall. Gerade hier die Tests zu lesen zeugt doch genau von dem WIllen sich einzulesen, jenseits der Magazine die für ein paar Clickbaits dem Teufel Ihre Großmutter verkaufen würden. Ganz zu schweigen von den Fachkräften die sich dort befähigt sehen, solche Tests durchzuführen und die Details zu erläutern.
 
Sag ich doch ; )

Edit: Irgendwann ende letzten jahres hat Igor mit begründung entschlossen so zu Benchen.
Und wenn der interessierte Leser schon hier gelandet ist, wird er sich auch im klaren sein wie Igor Bencht und was das bedeutet.
 
Zuletzt bearbeitet :
Hätten alle spiele DLSS ( welches auch gut ausschaut ) wäre ich ganz eurer meinung. Aber so ist das Unfug. ...
Du schreibst kryptisch Zeugs. ;-) Welcher Meinung konkret wärst du dann?
Der Meinung, dass eine irgendwie geartete Behandlung von Raytracing in dem Test fehlt? Wenn ja, dann stellt sich nur die Frage, was DLSS damit zu tun haben sollte, denn die Techniken sind komplett unabhängig voneinander, d. h. die Nichtverfügbarkeit von DLSS auf RDNA2 oder aber das Fehlen von FSR kann hier nicht als Erklärungsansatz dienen, warum Raytracing nicht berücksichtigt wird.
 
Das wird net berücksichtigt um grüne NOOBs zu ärgern, speziell Dich mit der ollen SUPER-Graka.
Oder soll Igor ne 6800XT@4k in Godfall+WDL+Coldwar mit testen? .. Da limitiert Dich 8GB.
(Godfall mit RT+HDR)

Hör doch bitte auf die 6700-Interessenten zu langweilen mit unwichtigem Kram.
Ob+Wie FSR wird kann man dann am 22.? erfahren.
und
Auch erst Dann diskutieren.

btw.
Hat die 2080 Super net auch Probleme mit 4k@HDR10@fullRGB 4:4:4 ?
So einen ollen Kram würde ich net mit der Kneifzange anfassen.
 
Zuletzt bearbeitet :
Oben Unten