Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4060 8 GB mit echtem 115 Watt Limit getestet – Ende der Pracht?

Dass die GeForce RTX 4060 8GB samt einer nicht funktionierenden Telemetrie in der Realität deutlich mehr an Leistung aufnimmt, haben wir ja in den Tests zum Launch und mit Overclocking gesehen. Statt der versprochenen maximalen 115 Watt Leistungsaufnahme im Datenblatt und einem typischen Gaming-Wert von 110 Watt, waren es in manchen Spielen satte 132 Watt und auch der Durchschnitt lag immer noch weit über dem, was sowohl Spezifikation als auch die Telemetrie-Werte ausgegeben haben.

Das hat mich durchaus sehr stark getriggert, denn die Frage nach der tatsächlichen Performance bei einer echten Leistungsgrenze von 115 Watt stand nicht nur im Raum, sie war allgegenwärtig. Und genau deshalb, um meine und Eure Neugier zu befriedigen, habe ich zumindest die ganzen Benchmarks in Full-HD noch einmal gemacht. Allerdings habe ich jetzt die Leistungsaufnahme der 3.3 Volt-Schiene erst einmal herausgerechnet, da NVIDIA ja generell nur die 12V-Schiene inkludiert.

Die nötigen Prozente im Afterburner gehen ja wegen der kaputten Telemetrie nicht wirklich auszurechnen, also habe ich es an mir bekannten Spielen per Trial & Error selbst ausgetestet. Dem fordernsten Spiel (Horizon Zero Dawn) habe ich dabei 3 Watt mehr zugestanden, um die sparsameren Spiele nicht zu sehr einzubremsen. Hätte ich einfach das Spiel mit dem Maximum genommen, und nur anhand dessen Wert gecuttet, dann hätte die 115-Watt-Karte noch schlechter ausgesehen. Man kann mit ca. 92% das 115-Watt Limit ganz gut treffen. Ich teste insgesamt 10 Spiele in Full-HD: Gewichtet in mit und ohne DXR sowie extreme und moderate Leistungsaufnahme.

Die Tücken der missratenen Telemetrie

Ich möchte vor den Benchmarks noch einmal kurz zusammenfassen, warum das Platinenlayout und die Telemetrie so ein technischer Reinfall sind. Auf der MSRP-Karte (und nicht nur dort) finden wir ein Spannungswandler-Design mit insgesamt vier Phasen. Das könnte man durchaus so lassen, allerdings ist auch die Effizienz der Spannungswandler aller Karten durch den Verzicht auf richtige DrMOS nicht die beste. Da gehen der GPU bereits einige Watt an Leistung verloren. Denn gemessen wird ja stets das, was man der gesamten Karte zuführt.

NVIDIA ist ja eigentlich dafür bekannt, dass jede 12V-Rail permanent mittels Shunts und dem dort entstehenden Spannungsabfall überwacht werden. So kann man mittels eines passenden Monitoring-Chips auf die fließenden Ströme schließen und die Firmware kann dann die Leistungszufuhr so drosseln, dass das in der Firmware hinterlegte maximale Power Target auch nie überschritten wird. Diese Shunts existieren interessanterweise auf keiner der RTX 4060 Platinen und auch ein geeigneter Monitoring-Chip fehlt komplett.

Simple Null-Ohm-Brücke

NVIDIA deklariert die normalen RTX 4060 als 115-Watt-Karten und spricht selbst von typischen 110 Watt beim Gaming. Doch genau das ist unwahr. Ja, die über die NVAPI auslesbaren Werte liegen brav bei 115 Watt und darunter, nur stimmen sie leider nicht mal im Ansatz. Während die Schnittstelle in der Software bei 115 bis 116 Watt verharrt, messe ich an den Rails und 4 Spielen in Wirklichkeit sogar über 130 Watt! Das sind 15 Watt mehr als maximal erlaubt und immerhin 20 Watt über den für die Spiele kommunizierten Wert! Die Karte ist also bei weiten nicht so effizient, wie es die Schnittstelle vorgaukelt und die PR-Folien gern hätten. Das wären beim Gaming nämlich schon über 18 Prozent mehr!

Um die einzelnen Regelkreise überhaupt kontrollieren zu können, benötigt man ein spezielles Verfahren. Das Schlagwort heißt DCR (Direct Current Resistance). Am Ende weist jedes Bauelement diesbezüglich ja ganz bestimmte Charakteristika auf. Um es aber einmal abzukürzen: DCR ist die Basis, um Temperaturen und vor allem Ströme zu kalkulieren oder zu messen. Doch wie erfährt der Controller nun genau, welche Ströme in welchem Regelkreis fließen? Das Monitoring kann unterschiedlich sein, denn es gibt – wen wundert es – verschiedene Methoden dafür.

Wir haben ja bereits analysiert, dass die Spannungswandler auf dem technischen Stand von vor 10 Jahren realisiert wurden. Intelligente Smart Power Stages (SPS), die die Drain-Ströme der MOSFETS für die MOSFET DCR in Echtzeit messen, sind hier reine Utopie. Man ersetzt das Ganze durch die deutlich günstigere Inductor DCR in einer diskreten Schaltung, also eine Strommessung über den induktiven Widerstand der jeweiligen Filterspulen im Ausgangsbereich. Die Genauigkeit dieser Lösung ist allerdings deutlich geringer und wird zusätzlich noch durch Schwankungen der Bauelemente-Güte sehr stark beeinflusst.

Angeblich kann bzw. möchte man es ja fixen, nur frage ich mich gerade, wie. Passt man die TBP an die Spezifikation an und begrentr die Karte auf echte 115 Watt, muss man die NVAPI austricksen und dort dann wieder was draufaddieren. Außerden würde die Karte dann als Downgrade so schnell bzw. langsa,m wie das heutige Testmuster und das kann man den Kunden kaum erklären. Oder aber man spezifiziert die Kate wirklich auf die 130 Watt und lässt dann die API anpepasste Werte liefern. Auch peinlich. Oder aber, man sitzt das Problem einfach aus. Bei der aktuellen Zahl verkaufter Karten wohl die wahrscheinlichste Variante.

 

Kommentar

Lade neue Kommentare

Case39

Urgestein

2,589 Kommentare 993 Likes

Dann muss das eben der Preis regeln.

Antwort 1 Like

Igor Wallossek

1

11,316 Kommentare 21,484 Likes

Aktuell regelt sich aber nichts. Die Karten liegen aktuell in den Regalen wie Blei. Aber AMD ist auch nicht attraktiver, leider.

Antwort 5 Likes

Y
YoWoo

Mitglied

43 Kommentare 21 Likes

Interressant wäre, wieviel Gewinn bei Händlern und Nvidia bzw. AMD bei diesen beiden Karten abfällt, weil entweder sehr wenig, würde für mich bedeuten, die Einsteiger Karten sind einfach heute so teuer oder sie haben hohe Margen drin, geben sie aktuell nicht an den Kunden weiter.

Nachtrag, wenn ich kein RX 6600 XT hätte, würde mir die RX 7600 sehr gut gefallen und steinigt mich, 275 Euro würde ich durchaus zahlen.

Antwort Gefällt mir

Roland83

Urgestein

819 Kommentare 609 Likes

Danke fürs benchen, ehrlich gesagt bin ich überrascht wie groß die Differenz teilweise ist ... Ein FIX in Richtung echte 115W dürfte wohl gegenüber dem Kunden nicht argumentierbar sein. Das ist ja schon fast eine Klasse darunter 🙈

Antwort Gefällt mir

Igor Wallossek

1

11,316 Kommentare 21,484 Likes

Man sieht es ja auch an der gleichbleibenden Effizienz, das ich den Punkt ganz gut getroffen habe. Vor allem das P1 Low bricht extrem ein und das ist ja genau das, was man auch sieht

Antwort Gefällt mir

RX480

Urgestein

1,922 Kommentare 904 Likes

Was sagen denn die AIB´s dazu?
man kann ja schlecht OCing-Modelle verkaufen wenn die MRSP-Modelle bereits "frei" takten können(>115W)

Antwort 1 Like

Case39

Urgestein

2,589 Kommentare 993 Likes

Dann wird hoffentlich niemand weiterhin kaufen💁‍♂️

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,042 Kommentare 1,294 Likes

Zusätzlich zum Preis und der (hoffentlich anhaltender) niedrigen Nachfrage kommt mir auch noch die Frage: Wie rechtfertigt Nvidia denn die "CE" Kennzeichnung dieser Karten? Eine einigermaßen ehrliche Angabe des Stromverbrauchs gehört doch mit zu den Anforderungen, die hierfür erfüllt sein müssen, oder liege ich da falsch?

Antwort Gefällt mir

Roland83

Urgestein

819 Kommentare 609 Likes

mh nur bedingt, sofern der Stromverbrauch nicht so viel über der Angabe liegt das die Betriebssicherheit des in den Verkehr gebrachten Poduktes dadurch gefährdet ist sollte das mM nach keinen Einfluss auf das CE Label haben.
Einigermaßen ehrlich ist halt auch ein dehnbarer Begriff xD

Antwort Gefällt mir

Pfannenwender

Veteran

302 Kommentare 196 Likes

Danke für den Test Igor ... das Ergebnis war erwartbar.
Auf Seite 4 müsste oben im Text in der 2. Zeile das Ti weg.
Auf Seite 6 das Selbe in der 1. Zeile

Antwort Gefällt mir

h
hellfire7912

Neuling

5 Kommentare 0 Likes

Eigentlich kann NVidia hier nur noch einen E.T. pullen, und das Gelumpe in der Wüste verbuddeln.

Antwort Gefällt mir

S
Serku

Neuling

1 Kommentare 1 Likes

Wen stören denn ernsthaft 20W mehr? Das wurde so unnötig oft hervorgehoben imo. 20 W sind gerademal kleine Schwankungen bei meiner 4090, keine Game hat exakt gleiche Auslastung und somit Leistungsaufnahme über jede einzelne Szene hinweg besonders bei deutlich unter Auslastungsgrenze begrenzten FPS

Antwort 1 Like

FfFCMAD

Urgestein

794 Kommentare 252 Likes

Die Karte hat maximal den Namen 4050 verdient. Ist ja albern...

Nvidia versucht hier Krampfhaft, in der Namensgebung die Latte hoeher zu legen, als sie sein durfte. Damit man den heftigen Einkaufspreis rechtfertigen kann. Die Karte ist maximal zwischen 100 - 200€ anzusiedeln

Antwort Gefällt mir

v
vonXanten

Urgestein

837 Kommentare 373 Likes

Danke für den Test, sehr interessant wo die Karte mit 115W landet... Hat schon ein leichtes geschmäckle ;)
Dann würde auffallen das die Karte nicht ganz zum 60er Part passt, weil kaum eine Leistungssteigerung zur vorherigen Gen. (und die 7600 gleichauf ist :eek::ROFLMAO:)

Ja die stören in diesem Fall weil nvidia darauf in den Folien extra viel Wert auf die Sparsamkeit von max. 115W und typisch 110W in Spielen gelegt hat. Und eine 4090 ist ne etwas andere Hausnummer, bei der 4060 sind 20W fast 1/5 des Gesamtverbrauches! Bei einer 4090 würde das dann mal ~80W sein.

Antwort 4 Likes

LurkingInShadows

Urgestein

1,411 Kommentare 605 Likes

War die Frage ernst gemeint, oder ein Trollversuch?
Falls ernst gemeint siehe einen Post weiter oben.

Ist ja eigentlich eine Karte mit eingebauter Defeat Device; was da los war weißt wahrscheinlich noch.

Antwort Gefällt mir

D
Deridex

Urgestein

2,230 Kommentare 867 Likes

20W sind ja "nur" ~17,4% wenn man von 115W aus geht ;)

Antwort 2 Likes

Cerebral_Amoebe

Veteran

136 Kommentare 67 Likes

Mich stört das, daher bin ich auch froh über eine seriöse Berichterstattung anstatt die gekauften Aussagen des Zwei-Pfenning-Typen und seiner Kumpane.

Das 20W mehr Verbrauch den 4090-Käufer nicht jucken, mag sein, den Full-HD-Spieler wird es aber interessieren.
Der kann getrost seine RTX 3060 12GB, 3060 Ti oder RX6600XT behalten.

Antwort 3 Likes

Pfannenwender

Veteran

302 Kommentare 196 Likes

Naja ... die braucht über 10% mehr Saft als angegeben, bzw. hat auf ihren "Nennverbrauch" reduziert deutlich weniger als die versprochene Leistung. Das ist das Eine ...
Aber Nvidia hat die Karte so gestrickt, dass der normale User (und wohl auch die Edeltuber) mit den üblichen Bordmitteln eben exakt diese max. 115 Watt angezeigt bekommt. Und da ist bei mir "Gschmäckle" schon lange vorbei ...
Die Karte wird ja so gebaut, dass nur bis 115 Watt angezeigt werden. Da eine Absicht unterstellen kann ich nicht, aber ich unterstelle Nvidia, dass sie das gewusst haben. Arglistige Täuschung?

Tippe mal, dass sich die Rechtsabteilung bei AMD schon warmläuft. Sie wären dumm wenn nicht.

Wär ich Nvidia, dann könnte eine Stellungnahme so ausfallen:
"Sehr geehrter Kunde,
wir sind nur ein kleines, mittelständiges Unternehmen und verfügen bei Weitem nicht über die Ressourcen, wie sie z.B. Igorslab zur Verfügung stehen. Wir verwenden bei der Entwicklung unsere Produkte daher Tools wie z.B HWInfo. Diese Tools wiesen bei der 4060 nie mehr als 115 Watt aus, weshalb wir die Karte auch mit diesem Wert vermarkten.
Dass durch das Layout der Platine die vollständige Leistungsaufnahme durch z.B. HWInfo überhaupt nicht angezeigt werden kann, war uns nicht bewusst und bitten wir zu entschuldigen."
😄

Antwort 1 Like

Klicke zum Ausklappem
Martin Gut

Urgestein

8,274 Kommentare 3,940 Likes

Ja, die verbrauchte Leistung nicht richtig zu messen und anzugeben war doch bis jetzt AMD vorbehalten. Das geht gar nicht, wenn Nvidia das plötzlich nachmacht. :p

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung