GPUs Graphics Reviews

Powercolor Radeon RX 6700XT Hellhound 12 GB Review – A Dream in White and more efficient than AMD’s Reference

Power consumption and efficiency in full HD (1920 x 1080 pixels)

Now we can see why the Powercolor RX 6700XT Hellhound 12 GB is a tad slower than AMD’s reference. The power consumption is significantly lower!

Since the card often enough runs into the CPU limit in Full HD, the efficiency of both cards is about the same. However, we’ll see what happens when the GPU is pushed much harder in a moment.

Power consumption and efficiency in WQHD (2560 x 1440 pixels)

While the Powercolor RX 6700XT Hellhound 12 GB remains restrictively throttled and still makes do with well under 200 watts, the reference card’s higher clock rate is enough to absorb almost 20 watts more in performance. For 5 percentage points more performance, almost 20 percentage points more power consumption is just pointless. As such, Powercolor has elegantly curbed the card to keep it reasonably within the bounds of tolerability.

Now looking at the efficiency, we see the card well BEFORE AMD’s reference and on par with the RX 6800XT. However, the RX 6800, which is a bit faster than the RX 6700XT, can’t be approached either. That’s a world away.

But gaming alone is not everything and we also want to go into the other load scenarios, the voltages, the load peaks and the power supply recommendation in the following chapters.

Kommentar

Lade neue Kommentare

Tim Kutzner

Moderator

799 Kommentare 641 Likes

Traum in Weiß​

... weil Sie weg ist, sobald macht aufwacht :D

Antwort 2 Likes

konkretor

Veteran

293 Kommentare 300 Likes

Schöne Karte hoffentlich bald zu vernünftigen Preisen

Antwort 1 Like

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Ich versteh immer nicht, wieso nicht in 4K und mit RT sowie DLSS getestet wird? Die Karte läuft in einer AMD optimierten Umgebung, gleichzeitig werden die NVIDIA Trümpfe komplett ausgeblendet, während parallel DLSS in immer mehr spielen implentiert wird. Hier hätte mich dann auch die RT Leistung im Vergleich zu der alten 2000er Serie interessiert. Sobald DLSS mit oder ohne RT im Spiel sind, konkurrieren doch ein großteil der AMD Karten eher mit der 2000er als mit der 3000er Serie. Ich bin wahrlich kein NVDIA Fan, aber dieser Aspekt findet kaum berücksichtigung. Ein kenntnisfreier Dritter hält die Hellhound einer 3060ti für ebenbürtig. Was sie aber nur solange ist, wie die innovativen Features nicht Teil des Testzykluses sind. Das ist, als gäbe es in einem Fahrzeugvergleich beim Sprint in dem einen Auto einen Turboknopf, der aber nicht gedrückt werden darf, weil das andere Fahrzeug das nicht hat?

Antwort 2 Likes

grimm

Urgestein

3,070 Kommentare 2,023 Likes

@Megaone Grundsätzlich hast du recht. Nur bei der "AMD optimierten Umgebung" würde ich bedenken, dass das im Moment die Plattform ist, die bei den meisten Leuten läuft. Schau einfach auf die Verkaufszahlen. Als noch komplett auf Intel getestet wurde hat die AMD Fraktion gemeckert...
Klar sollte aber auch sein, dass RT auf AMD Karten nicht performant läuft und DLSS garnicht verfügbar ist. Den Punkt mit "immer mehr Spiele" halte ich für relevant. Ich selber habe aber gerade erst drei (Doom Eternal - RT ist komplett irrelevant, SoTR und Metro Exodus (nur non-Enhanced) - RT frisst zuviel Leistung, DLSS produziert Fehler) davon gespielt.

Antwort Gefällt mir

ApolloX

Urgestein

1,627 Kommentare 905 Likes

Echt schöne Karte mit der Farbe und dem Hellblau der LEDs. Interessant, dass die sparsamer läuft als die Ref, aber ok und per MPT ist ja eh alles relativ. Aus früheren Tests anderer Seiten hatte ich leichte Mehrleistung in Erinnerung.
Wie man da aber draufkommt, sie Hellhound zu nennen - da hat wohl jemand gekokst.

Antwort Gefällt mir

G
Guest

Sehe ich nicht so, unter Dirt 5 dort wo AMD von Anfang mit dabei war und die Dev's auch den Support buchten, liegt die RT Leistung auf gleichem Niveau, in Spielen die von Grund auf, auf RTX optimiert wurden nicht.

Die 4 Tage bis Igor hier vermutl. DLSS versus Super Resolution vorstellt (was ja auch auf den Nvidias älterer Gen lauffähig ist) und präsentiert wird man noch warten können. Dann sehen wir die Vor- und Nachteile und grundsätzlich kann man diese dann mit testen.

Die weiße Hellhound ist zwar sparsam aber auch langsamer als die Referenz, man erkauft sich die Effizienz also mit weniger Leistung, für einen höheren Preis? und optimiert sie ggf. auf Lautstärke. Ist also auch andersherum möglich, trotzdem spiegelt sich der Verbrauch in einem Verhältnis zur abrufbaren Leistung wieder. Ob das ein gutes Angebot ist muss jeder selbst wissen, wer sie in weiß haben möchte für den schon.

Ich persönlich lege keinen Wert auf Farbgebung oder RGB Blinkie, was auch noch Powerbuget kostet.

Antwort 2 Likes

grimm

Urgestein

3,070 Kommentare 2,023 Likes

Wusste ich garnicht - umso besser!
Und wegen des Extra-Preises: Ich würde bei einer Neuanschaffung schon drauf achten, aber bei den aktuellen Preisen (und Verfügbarkeiten)...
Edit: Allerdings liegt die ja Performance-mäßig über ner 2080S, die damals mit gut 750,- € über die Theke ging. Die 6700XTs gibts ja "schon" ab 840,- €. Sooo verkehrt ist das nicht, wenn einem jetzt z.B. die 2060/70/80S abraucht.

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,596 Likes

AMD bewirbt die Karte mit WQHD und Full-HD. Genauso teste ich sie auch. Nur fair, finde ich.

Antwort 7 Likes

P
Phelan

Veteran

189 Kommentare 171 Likes

finde ich positiv Mutig eine Karte anzubieten die langsamer ist und sich dafür nicht Out of the Box selber garkocht.
Viele aktuelle Karten muss man ja faktisch sofort per Hand zähmen, damit sie nicht ganz so an der kotzgrenze laufen.
Und wenn so noch der ein oder andere dadurch kein neues Netzteil kaufen muss , weils das alte noch tut, iss ja auch schön.

Ja sieht nice aus. Aber warum Grakas beleuchtet sein und schön aussehen müssen erschließt sich mir nicht, da sie ja lebenslang in einem PC Gehäuse verschwinden. Naja anscheinend kauft bei vielen doch das Auge mit :-)

Antwort 2 Likes

c
cunhell

Urgestein

545 Kommentare 499 Likes

Ich Frage mich, für was die Hersteller immer leisere Kühler verbauen wenn allein die Spulengeräusch die Karte 3dB lauter machen.
Vielleicht sollte man einfach, auch wenn es technisch nicht einfach ist, mehr Hirnschmalz oder Technik aufwenden, um das Problem deutlich abzumildern. Ich verstehe ja, dass bei x hundert fps wie sie in Menüs auftreten, Geräusche auftreten können, aber doch nicht bei normalen fps-Zahlen wie man sie in Spielen findet oder gar mit Framelimiter.
Es gibt ja quasi keine Karte mehr, die was die Spulengeräusche angeht, leise bleibt. Und ja, ich habe Igors Artikel zu den Spulengeräuschen gelesen, aber ich kann mir beim besten Willen nicht vorstellen, dass das nicht besser gehen soll.
Selbst wenn der Aufwand die Karte 30€ oder gar 50€ teuerer macht, wenn ich 600€, 800€ oder gar 1.000€ hinblättere, dann sind mir die 50€ auch wurscht. Im Gegenteil, wenn ich so viel Geld hinlege würde mich jeder Tag nerven, an dem mir die Karte lautstark ins Ohr pfeift und rasselt.

Ich habe bisher immer sehr leise und trotzdem leistungsstarke Rechner gehabt. Ich habe so meine Zweifel, dass das mit den aktuellen Grafikkarten irgendwie machbar ist.

Cunhell

PS: @Igor: Natürlich ist Dein Artikel wie immer, gut gemacht.

Antwort 3 Likes

Klicke zum Ausklappem
Graf_Wessi

Mitglied

22 Kommentare 10 Likes

Hab meine mal vor und nach dem umrüsten von X470 + 3600 + 3400er Ram auf B550 + 5600x + 3600er Ram getestet.
Auf dem Bild ist das Ergebnis des Durchlaufs mit Undervolting via Treiber.
Im DX12 Test war der Zuwachs geringer, von 9844 auf 10554 Punkte.

Einzig negativer Punkt für mich an der Karte war anfangs das Rattern des mittleren Lüfters bei niedrigen Drehzahlen. Nach einem säubern des Kühlers mit einem Pinsel war das Rattern auf einmal weg.

Antwort Gefällt mir

G
Guest

Weil man einfach nur verbaut was reicht, nicht was man könnte um etwas "leiser" zu gestalten. Die gekapselten Spulen haben für mich das Thema Spulengewine noch verschärft. Ab Maxwell war's allgewärtigt und hat niemanden so richtig gestört, dann wird's halt zum Standard.

Die Dinger sind vor allem flach und lassen sich einfach bestücken und verlöten. Das sie zuweilen komplett unterdimensioniert sind und die Serienstreuung gewaltig ausfällt, interessiert niemanden so wirklich. Viel zu oft wird einem erzählt es liege am Netzteil, das Spulengewine der Spulen auf Grakas liegt aber überhaupt nicht daran. Es ist ein Schaltungsproblem ohne auf die Kräfte zu achten, die auf Spulen wirken können und eben ungünstige Schwingungen erzeugen, die sind immer vorhanden aber nicht immer im wahrnehmbaren Bereich. Wird halt gespart wo man kann.

Lieber bunt und leuchten, das polarisiert in der heutigen Zeit viel mehr, wie Carbonabdeckungen oder Amplikationen die nicht mal einen Kühleffekt haben.

Antwort 2 Likes

Graf_Wessi

Mitglied

22 Kommentare 10 Likes

Ich muss da unweigerlich an das Wort "Amerikanisierung" denken.

Beispiel Auto Messe:
Amerika nur Show und Shine - Fahrzeuge können meist nicht fahren, so wie sie gezeigt werden.
In Deutschland hingegen kann nahezu jedes Fahrzeug auf der Essen Motor Show aus eigener Kraft fahren.

#Moderne

Rome - The West Knows

Antwort Gefällt mir

C
Cat Left

Mitglied

77 Kommentare 26 Likes

Hallo @Igor Wallossek,
kann es sein das sich im ersten Abschnitt mit der Überschrift Technik ein kleiner Fehler eingeschlichen hat ?
Zitat "Die Karte setzt auf 12 GB GDDR6 mit 16 Gbps, die sich aus jeweils 8 Modulen mit 2 GB Größe ergeben"
müssten es nicht 6 Module a 2GB sein oder verwechsle ich hier Kapazität mit Geschwindigkeit.

Antwort 1 Like

c
cunhell

Urgestein

545 Kommentare 499 Likes

Meine Asus R9-280 DCII Top zieht auch gut Strom. Da muss ich schon mit dem Ohr direkt an die Karte gehen, um was von den Spulen zu hören.
Die Vega, die ich mal kurz hatte, hat zumindest nur bei extrem hohen FPS "gewhinet", die beim Spielen nie auftraten. Ich habe sie, jetzt muss ich sagen leider, wegen was anderem, wegen nichtgefallen zurückgegeben.

Ich findes es persönlich wirklich lächerlich, wenn die Hersteller die Karten wegen ihrer Kühlerkonstrukte als besonders leise vermarkten aber die Spulen mit abstand das Lauteste im ganzen Rechner sind. Gegen laute Kühler kann man notfalls was machen und wenn es ne Waküh ist. Hatte ich z.B. bei meinem X1800XT Xfire-System gemacht. Gegen die Spulenseuche ist man machtlos. Und dann löhnt man für die Dinger 600€ bis über 1.000€.

Cunhell

Antwort 1 Like

ApolloX

Urgestein

1,627 Kommentare 905 Likes

Als leidenschftlicher MPT-Nutzer, kann ich out-of-the-box / @stock Betrieb bei AMD Karten ja gleich überhaupt garnicht mehr nachvollziehen :)
Und diese Standardmodes, brauchen zuviel Strom, wird alles recht heiß und/oder laut und bringt keine PS auf die Straße, gehört alles verboten ... 😂

Antwort 1 Like

P
Phoenixxl

Veteran

156 Kommentare 118 Likes

Wird bei der Leistungsaufnahme das gesamte System betrachtet oder nur die Grafikkarte?
In letzterem Fall sind 197 vs 217 Watt ziemlich genau 10%, keine 20%.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Klar, kann man so machen. Der Test als solcher ist ja top. Allerdings bewirbt/respektive muss die Karte so beworben werden, weil es zu DLSS noch kein äquivalent gibt. Ich selber fahre auf meinem Zweitrechner mit einer 2080 Super. Der steht im Wohnzimmer und hängt an einem 4K TV. Eigentlich wollte ich die Karte schon längst tauschen, aber dank DLSS wird sie von Woche zu besser. Alle DLSS Games laufen völlig problemlos in 4 K. Und die Karte ist prinzipiell in allen anderen belangen hinter einer 6700er einzuordnen.

Antwort Gefällt mir

My-konos

Veteran

270 Kommentare 91 Likes

Ja, mal eine andere Herangehensweise, wobei ich dieses Einbremsen nicht so ganz verstehen kann. Wie der Kollege über mir schon sagte: 5% mehr Leistung bei 10% mehr Verbrauch... Da hatten wir schon ganze andere Karten, die deutlich mehr die Effizienz verkackt haben.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung