Grafikkarten Testberichte VGA

Wird Ada massentauglich? GeForce RTX 4070 Founders Edition 12 GB Test mit 200 und 220 Watt Leistungsgrenze plus OC

Stromverbrauch im Werkszustand als Zusammenfassung

Die rund 14 Watt im Leerlauf sind in Ordnung. Mit einem zweiten Monitor und einer anderen Auflösung werden daraus aber schnell 35 Watt und mehr. Übrigens können wir sehr schön sehen, dass das volle TBP von 200 Watt selten ausgeschöpft wird und nur die Torture Loop oder ein Spiel hier überhaupt den Rahmen erreicht. Im Normalfall ist es immer weniger. Beim Betrieb an der 220 Watt Leistungsgrenze sehen wir, dass diese auch im Extremfall beim Spielen nicht erreicht wird.

 

 

Lastverteilung zwischen PCIe-Slot und den PCIe-Sockeln

NVIDIA nutzt den PCIe-Steckplatz ein wenig, vor allem für Spiele. Mit maximal 5,5 Ampere bei den fließenden Strömen liegt man aber immer noch unter der Hälfte dessen, was erlaubt ist, selbst bei der erhöhten Leistungsgrenze.

 

Während NVIDIA die Versorgung über die PEG deutlich reduziert hat, nutzt AMD diese Schiene weiterhin recht exzessiv.

 

Grobe 20 ms-Intervalle

Schauen wir uns zunächst die fließenden Ströme an. Gemessen wurde in gröberen 20-ms-Intervallen, also etwa 50 mal pro Sekunde, um die Belastung des Supervisor-Chips der Netzteile (Shutdown) zu simulieren. Wir sehen, dass selbst kurze Lastspitzen spätestens bei 20 oder 22 A gedeckelt werden. eine echte Begrenzung sieht aber anders aus. Das ist nicht wenig. Wir sehen aber auch einen großen visuellen Unterschied zwischen den beiden Varianten, der die Regelwut von Boost sehr schön demonstriert.

Trotzdem müssen wir noch einen Blick auf die Spannungen bzw. das Produkt aus Spannung und Stromfluss werfen. Ich habe ja schon geschrieben, dass ich hier an verschiedenen Netzteilanschlüssen gemessen habe, auch wenn sich am Ende auf dem Board der Grafikkarte alle Anschlüsse irgendwie wieder treffen. Was wir hier nun als deutlichere Schwankungen und Spitzen sehen, ist auf das teilweise leicht übersteuernde Netzteil und damit die Spannung und nicht die Ströme zurückzuführen. Das ist technisch bedingt, aber keine große Sache. Wir sehen aber auch, dass die wenigen Spitzen bei über 300 Watt nicht auf den fließenden Strom (Grafikkarte) zurückzuführen sind, sondern tatsächlich aus dem Netzteil resultieren! Das liegt auch an der Topologie und vor allem an dem recht mickrigen Eingangsfilter mit nur einer Spule auf der einen Schiene.

Der Torture Test ist kaum anders. Die OC-Variante regelt ein bisschen hektischer.

Wenn man nun die Spannung wieder addiert, sieht man eine stärkere Restwelligkeit, die wiederum aus der etwas zittrigen Betriebsspannung resultiert. Zur Ehrenrettung des Netzteils muss aber gesagt werden, dass dies alle aktuellen Produkte aller Hersteller betrifft und sicherlich kaum vermeidbar ist.

 

 

258 Antworten

Kommentar

Lade neue Kommentare

Tim Kutzner

Moderator

816 Kommentare 660 Likes

Nvidia kann eine effiziente RTX 3080 bauen, juhu! :D

Antwort 4 Likes

Igor Wallossek

1

10,195 Kommentare 18,807 Likes

Mit 200 bis 215 Watt, ja!!!

Antwort Gefällt mir

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Hm, also wenn ich das mal mit meiner 6900XT vergleiche. Die 4070:
- Bringt bei UHD ungefähr die selben FPS (ohne FSR, DLSS)
- Verbraucht gut 100W weniger, das Gehäuse braucht weniger Frischluft und könnte die Lautstärke verringern
- Kostet gut 100€ weniger als die aktuell günstigste 6900XT
- Bietet dafür DLSS3, was mir bzgl. Cyperpunk sehr gelegen käme
- 4GB weniger Speicher (hab kein Hinweis gefunden, dass das jetzt für mich relevant wäre).
(Alle Punkte nur auf mich, meinem PC, meine Spiele, blabla gemünzt)

Es bringt mir natürlich nichts, jetzt die 6900XT zu verkaufen und durch eine 4070 zu ersetzen. Aber wenn ich keine 6900XT hätte und kurz davor stand eine 6900XT zu kaufen, dann wäre die 4070 jetzt offenbar die bessere Wahl.

Für mich ist und bleibt das aber jenseits von einem echten Einstiegspreis. Hoffentlich normalisiert sich das irgendwann mal wieder :S

Antwort 5 Likes

T
TwoFaceXX

Neuling

7 Kommentare 1 Likes

Würde ich dann von der Leistung eher mit einer 6800XT vergleichen.
100€ sparen und AMD mit mehr Speicher nehmen
oder
100€ mehr in Nvidia Investieren, dafür wesentlich weniger Strom verbrauchen, welche nicht in Wärme umgesetzt wird und zukünftig mit Frame Generation etc. gerüstet zu sein.

Antwort 1 Like

c
cunhell

Urgestein

549 Kommentare 503 Likes

Coilwhine, das explizit erwähnt wird, also deutlich warnehmbar ist, wäre für mich ein Grund, der gegen die Karte spricht.
Was hilft der leiseste Kühler, wenn die Dinger den Marsch aus "The Bridge on the River Kwai" pfeifen.

Als ob die Dinger nicht teuer genug wären, um das Problem so weit wie möglich einzudämmen. Die paar Euro Aufpreis mache da auch den Kohl nicht mehr fett. Kostet das Ding halt nicht 599$ sondern 609$.
Das nervt sowohl bei AMD als auch Nvidia.

Cunhell

Antwort 2 Likes

c
curiosity

Neuling

9 Kommentare 0 Likes

Mit 2-Slot Design und 200 Watt TDP eine echt brauchbare Mittelklasse! :D
Der Preis ist mir wie erwartet trotzdem etwas zu hoch...

Mein innerer Monk muss trotzdem noch loswerden, dass auf Seite 3 des Artikels die Spulen für NVVDD natürlich 220 nH und nicht 220 mH haben. 😅

Edit: Wäre auch interessant welches Potential die Karte bei Undervolting hat. Meine RTX 3070 schafft immerhin volle Performance bei ca. 165 Watt.

Antwort Gefällt mir

Igor Wallossek

1

10,195 Kommentare 18,807 Likes

Ja, also einen Trafo brauchts da nicht. Mal wieder in der Eile daneben getippt. Besser als BH :D

Antwort 1 Like

e
exi78

Veteran

161 Kommentare 89 Likes

Und so warten wir auf die nächste Generation, diese kann man getrost links liegen lassen.

Auf AMD wird man noch ne Weile warten müssen und wird vermutlich auch nicht rosiger erscheinen.

Antwort Gefällt mir

c
curiosity

Neuling

9 Kommentare 0 Likes

220 BH muss man auch mal in so einer kleinen Spule unterbringen. 😆

Antwort Gefällt mir

c
cunhell

Urgestein

549 Kommentare 503 Likes

Um Charles Bronson aus "Spiel mir das Lied vom Tod" zu zitieren: Einer wartet immer ;-)

Cunhell

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Rein aus Neugier: was schafft ne 4090 mit dieser Leistungsaufnahme? Oder ne 4080?

Antwort 3 Likes

T
TheSmart

Veteran

418 Kommentare 209 Likes

Hmm eine interessante Grafikkarte fürs nächste Jahr eventuell.
Wenn die neue Generation an Grakas rauskommt und die Lager geleert werden müssen.

Die Leistung stimmt ja soweit und der Verbrauch ist auch vollkommen okay.
Aber der Preis.. für eine "Einsteiger"-Graka... naja aktuell sind sie ja eh alle völlig bekloppt in dieser Hinsicht.
Und wie gesagt.. nächstes Jahr ist auch noch ein Jahr und dann kriegt man die auch noch ein paar Euro preiswerter.

Antwort Gefällt mir

SchmoWu

Mitglied

92 Kommentare 23 Likes

Danke für den ausfürlichen Test.
Wie erwartet 3080 Leitung, das einizg positive ist der doch geringe Verbraucht.
Der Preis ist aber mehr als traurig, bei 25-30% Raster-Leistung(RT ist mir Wurst) als die RX6700XT, schlappe 100€ zu teuer.

Antwort 1 Like

Ginmarr

Mitglied

68 Kommentare 25 Likes

Brutal das ne x70 non ti Karte über 600 Euro Kostet 😒 Da ist nix Massentauglich, kann es verstehen wenn die Leute da lieber zu einer PS5 greifen um mit dem restlichen Geld kannst 1 oder gar 2 mal gut bis sehr gut Essen gehen.

Antwort Gefällt mir

T
TheSmart

Veteran

418 Kommentare 209 Likes

Ja wie ich es oben schon gesagt habe.. diese..aber eigtl alle aktuellen Grakas sind nicht dazu da jetzt gekauft zu werden, sondern frühestens nächstes Jahr.
In der Hoffnung das der Preis einigermaßen signfikant sinkt. Man hatte ja die Hoffnung das die Preise sich normalisieren würden nach dem zusammenbrechen der Kryptobranche.. aber stattdessen werden die Grakas direkt mit so einer völlig überzogenen UVP verkauft.

Antwort 1 Like

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Hier ist ein Test mit 300W. Bei 200W sollte die 4090 sicherlich mehr FPS liefern als eine 4070. Würde mich aber auch interessieren ^^

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Den kenn ich, @Gregor Kacknoob. Mir geht es mehr um diese vor vielen Jahren mal getätigte Aussage:
'Ein paar Worte an die Hersteller möchten wir gern mit anbringen: weniger ist mehr! Warum kann man sich nicht auch auf eine Leistungsobergrenze beschränken, so wie sich einige Automobilhersteller bereits freiwillig auf eine Höchstgeschwindigkeit der Autos eingelassen haben? 200 bis 250 Watt reichen, mehr braucht kein Mensch – eher weniger. Intensivieren statt extensivieren, das wäre sicher ein richtiger Schritt in die Zukunft. Wir wollen hier nicht den heilbringenden Öko-Engel geben, dazu sind wir zu sehr Spieler und Leistungsfanatiker. Aber wir möchten zumindest einen Punkt, den man als Grenze zwischen Brauchbarkeit und Leistungswahn setzen kann. Das ist nicht viel, wäre aber sicher schon mal ein Anfang.'
Quelle: https://www.igorslab.de/grafikkarten-alternative-lustige-benchmarks-remastered/7/

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Mehr bis deutlich mehr da mehr Recheneinheiten deutlich Effizienter laufen und der Chip nicht hoch geprügelt werden muss.

Antwort Gefällt mir

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Danke für den Test.

Auch die ehrlichen Worte zum Preis und zu den Erwartungen der Preise von der Konkurrenz, waren sehr erfrischend. Natürlich möchte man schlechte Nachrichten nicht gerne hören und Schuld ist immer der Überbringer.

Aber wie sagte schon die Oma? Irgend was ist immer.

Gut empfinde ich die aktuellen Taktraten. Wer will, kann mehr bekommen und wer es richtig nötig hat, wird die Teile auch locker jenseits der 3 Ghz prügeln können. Aktuell gehe ich von 3.2+ Ghz aus, was man mit Software schaffen kann @ 250 Watt.

Dann ergibt es auch Sinn, mehr Spulen und Gedöns zu verbauen, um die Hardware nicht noch innerhalb der Garantiezeit zu zerstören. Die Boardpartner sind dann auch zu frieden.

So eine K1ngp1n oder DHS Edition, gerne auch eine GS, klingt doch nett. Man braucht Luft nach oben, um nachlegen zu können.

mfg

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung