Also interessanter wäre schon ein Test der Sapphire Karte gewesen.
Interessant ist aber immer, das wirklich immer nur davon gesprochen wird (bei jeder Testseite) das ja maximal X Watt anliegen. Ja wie lange denn? Weil ein Spiel ist kein Benchmark. Somit kann nie und nimmer bei einem Spiel (außer man legt es gnadenlos drauf an) dauerhaft der maximale Stromverbrauch anliegen. Sprich es gibt während des spielens eines Spiels immer wieder Zeiten wo eben nicht viel Stromverbrauch vorhanden ist, da die Karte während dieser Zeit gar nicht voll aufdrehen muss.
Aber das wird halt immer, aber auch wirklich immer, gar nicht erst erwähnt. Also berufen sich grundsätzlich immer alle dann auf eine Dauerauslastung von in dem Fall wie bei der XFX Karte von 237 Watt. Dann gibt es noch so schöne Rechnung wie wenn der Rechner dann X Stunden jeden Tag unter Dauerlast läuft (Auch hier wieder Null Differenzierung zwischen Ruhephasen und Lastphasen) und das 365 Tage im Jahr. Garniert dann noch mit Strompreisen die bei vielen gar nicht vorhanden sind. Und Fertig sind plötzlich 90 ach was 9000€ mehr Stromkosten im Jahr.
So schön diese Tests auch immer sind und wie hier auf der Seite auch vernünftig aufbereitet. Aber sie sind halt nicht wirklich Praxisnah. Denn hier geht es darum die Karten zu testen, zu quälen, den Maximal verbrauch heraus zu finden und zu gucken was kann die Karte leisten. Hier geht es halt nicht darum einen normalen Alltag zu simulieren wo eben nicht 5-6 Stunden Dauerlast anliegt.
Bei den AMD Karten im Polaris und Vega Bereich wird immer gerne gebracht, dass der Stromverbrauch viel zu hoch ist für die Leistung. Das ist eine rein subjektive Ansicht. Die halt bei jedem anders ist. Andere schwören auf nVidia Karten, weil diese ja nur X Watt verbrauchen und Y FPS auf den Monitor zaubern.
Auch hier ist dies aber nur eine Momentaufnahme und gerade wenn man eben diese Stromsparwunder übertaktet, weil man halt noch mehr Leistung fürs Geld haben will, dann ist es halt auch vorbei mit geringen Stromverbrauch.
Es ist immer komisch, dass vor X Jahren es absolut egal war, wie viel eine Karte an Saft gezogen hatte. Nein es sogar wichtig war, dass so viel Watt wie möglich gezogen wurden um ja auch ordentlich Leistung zu haben. Jetzt ist es halt oft das Argument, dass genommen wird um von Karte XY ab zu raten.
Ja Polaris verbraucht mehr Strom als nVidias GTX 1000er. Gründe wurden schon oft genug genannt. Angefangen vom Aufbau des Chips, über Hard und Software Features, auf welcher API der Kernfokus liegt, wie viel Speicher die Karte haben sollte etc.
Grundsätzlich ist für jeden etwas dabei und alle Karten sowohl von AMD als auch nVidia funktionieren so wie sollen für ihren Leistungsbereich. Und nur weil man eben es nicht so gnadenlos schwarz und weiß sieht wie viele andere, betreibt man weder Cherrypicking, noch muss man sich in eine bestimmte Schublade schieben lassen.