GPUs Graphics Reviews

NVIDIA GeForce RTX 4060 8 GB with a real 115 watt limit tested – end of the “splendor”?

We saw that the GeForce RTX 4060 8GB, including a non-functioning telemetry, consumes much more power in reality in the launch tests and with overclocking. Instead of the promised maximum power consumption of 115 watts in the spec sheet and a typical gaming value of 110 watts, it was a whopping 132 watts in some games and the average was still far above what both the spec and the telemetry values stated.

That definitely triggered me a lot, because the question about the actual performance with a real power limit of 115 watts was not only in the room, it was omnipresent. And that’s exactly why, to satisfy my and your curiosity, I at least did all the benchmarks again in Full HD. However, I have now excluded the power consumption of the 3.3 volt rail for now, since NVIDIA generally only includes the 12V rail.

The necessary percentages in the Afterburner can’t really be calculated because of the broken telemetry, so I tested it myself on games I know via trial & error. I allowed the most demanding game (Horizon Zero Dawn) 3 watts more to not slow down the more frugal games too much. If I had simply taken the game with the maximum and only cut it based on its value, the 115 watt card would have looked even worse. You can hit about 92 as 115-watt limit quite well. I tested a total of 10 games in Full HD: Weighted in with and without DXR as well as extreme and moderate power consumption.

The pitfalls of failed telemetry

Before the benchmarks, I’d like to briefly summarize why the board layout and telemetry are such a technical bust. On the MSRP board (and not only there) we find a voltage converter design with a total of four phases. This could definitely be left as it is, but the efficiency of the voltage converters of all cards is also not the best due to the lack of proper DrMOS. The GPU already loses a few watts of power. The power that is fed to the entire card is always measured.

NVIDIA is actually known for permanently monitoring every 12V rail via shunts and the voltage drop that occurs there. Thus, a suitable monitoring chip can be used to determine the flowing currents and the firmware can then throttle the power supply so that the maximum power target stored in the firmware is never exceeded. Interestingly, these shunts do not exist on any of the RTX 4060 boards and a suitable monitoring chip is also completely missing.

Simple zero-ohm bridge

NVIDIA declares the normal RTX 4060 as 115 watt cards and even talks about typical 110 watts when gaming. However, this is exactly untrue. Yes, the values that can be read via NVAPI are dutifully at 115 watts and below, but unfortunately they are not even close to correct. While the interface remains at 115 to 116 watts in the software, I actually measure over 130 watts on the rails and 4 games! That’s 15 watts more than the maximum allowed and still 20 watts above the communicated value for the games! Thus, the card is by far not as efficient as the interface suggests and the PR slides would like it to be. That would be over 18 percent more for gaming!

In order to be able to control the individual control circuits at all, a special procedure is needed. The keyword is DCR (Direct Current Resistance). In the end, every component has very specific characteristics in this regard. To make it short: DCR is the basis for calculating or measuring temperatures and especially currents. But how does the controller find out exactly which currents flow in which control loop? The monitoring can be different, because there are – who is surprised – different methods for it.

We have already analyzed that the voltage transformers have been implemented at the technical level of 10 years ago. Intelligent Smart Power Stages (SPS), which measure the drain currents of the MOSFETS for the MOSFET DCR in real time, are pure utopia here. One replaces the whole thing with the much cheaper Inductor DCR in a discrete circuit, i.e. a current measurement via the inductive resistance of the respective filter coils in the output area. However, the accuracy of this solution is significantly lower and is also strongly influenced by fluctuations in the quality of the components.

Supposedly, it can be fixed or would like to be fixed, but I am just wondering how. If you adjust the TBP to the specification and limit the card to real 115 watts, you have to trick the NVAPI and then add something on there again. Besides, the card would then be as fast or as slow as today’s test sample as a downgrade and that can hardly be explained to the customers. Or you really specify the card for 130 watts and then let the API deliver adjusted values. Also embarrassing. Or else, you simply sit out the problem. With the current number of cards sold, this is probably the most likely variant.

 

Kommentar

Lade neue Kommentare

Case39

Urgestein

2,504 Kommentare 930 Likes

Dann muss das eben der Preis regeln.

Antwort 1 Like

Igor Wallossek

1

10,205 Kommentare 18,843 Likes

Aktuell regelt sich aber nichts. Die Karten liegen aktuell in den Regalen wie Blei. Aber AMD ist auch nicht attraktiver, leider.

Antwort 5 Likes

Y
YoWoo

Mitglied

41 Kommentare 21 Likes

Interressant wäre, wieviel Gewinn bei Händlern und Nvidia bzw. AMD bei diesen beiden Karten abfällt, weil entweder sehr wenig, würde für mich bedeuten, die Einsteiger Karten sind einfach heute so teuer oder sie haben hohe Margen drin, geben sie aktuell nicht an den Kunden weiter.

Nachtrag, wenn ich kein RX 6600 XT hätte, würde mir die RX 7600 sehr gut gefallen und steinigt mich, 275 Euro würde ich durchaus zahlen.

Antwort Gefällt mir

Roland83

Urgestein

683 Kommentare 528 Likes

Danke fürs benchen, ehrlich gesagt bin ich überrascht wie groß die Differenz teilweise ist ... Ein FIX in Richtung echte 115W dürfte wohl gegenüber dem Kunden nicht argumentierbar sein. Das ist ja schon fast eine Klasse darunter 🙈

Antwort Gefällt mir

Igor Wallossek

1

10,205 Kommentare 18,843 Likes

Man sieht es ja auch an der gleichbleibenden Effizienz, das ich den Punkt ganz gut getroffen habe. Vor allem das P1 Low bricht extrem ein und das ist ja genau das, was man auch sieht

Antwort Gefällt mir

RX480

Urgestein

1,877 Kommentare 871 Likes

Was sagen denn die AIB´s dazu?
man kann ja schlecht OCing-Modelle verkaufen wenn die MRSP-Modelle bereits "frei" takten können(>115W)

Antwort 1 Like

Case39

Urgestein

2,504 Kommentare 930 Likes

Dann wird hoffentlich niemand weiterhin kaufen💁‍♂️

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,485 Kommentare 839 Likes

Zusätzlich zum Preis und der (hoffentlich anhaltender) niedrigen Nachfrage kommt mir auch noch die Frage: Wie rechtfertigt Nvidia denn die "CE" Kennzeichnung dieser Karten? Eine einigermaßen ehrliche Angabe des Stromverbrauchs gehört doch mit zu den Anforderungen, die hierfür erfüllt sein müssen, oder liege ich da falsch?

Antwort Gefällt mir

Roland83

Urgestein

683 Kommentare 528 Likes

mh nur bedingt, sofern der Stromverbrauch nicht so viel über der Angabe liegt das die Betriebssicherheit des in den Verkehr gebrachten Poduktes dadurch gefährdet ist sollte das mM nach keinen Einfluss auf das CE Label haben.
Einigermaßen ehrlich ist halt auch ein dehnbarer Begriff xD

Antwort Gefällt mir

Pfannenwender

Veteran

302 Kommentare 195 Likes

Danke für den Test Igor ... das Ergebnis war erwartbar.
Auf Seite 4 müsste oben im Text in der 2. Zeile das Ti weg.
Auf Seite 6 das Selbe in der 1. Zeile

Antwort Gefällt mir

h
hellfire7912

Neuling

5 Kommentare 0 Likes

Eigentlich kann NVidia hier nur noch einen E.T. pullen, und das Gelumpe in der Wüste verbuddeln.

Antwort Gefällt mir

S
Serku

Neuling

1 Kommentare 1 Likes

Wen stören denn ernsthaft 20W mehr? Das wurde so unnötig oft hervorgehoben imo. 20 W sind gerademal kleine Schwankungen bei meiner 4090, keine Game hat exakt gleiche Auslastung und somit Leistungsaufnahme über jede einzelne Szene hinweg besonders bei deutlich unter Auslastungsgrenze begrenzten FPS

Antwort 1 Like

FfFCMAD

Urgestein

672 Kommentare 174 Likes

Die Karte hat maximal den Namen 4050 verdient. Ist ja albern...

Nvidia versucht hier Krampfhaft, in der Namensgebung die Latte hoeher zu legen, als sie sein durfte. Damit man den heftigen Einkaufspreis rechtfertigen kann. Die Karte ist maximal zwischen 100 - 200€ anzusiedeln

Antwort Gefällt mir

v
vonXanten

Urgestein

803 Kommentare 335 Likes

Danke für den Test, sehr interessant wo die Karte mit 115W landet... Hat schon ein leichtes geschmäckle ;)
Dann würde auffallen das die Karte nicht ganz zum 60er Part passt, weil kaum eine Leistungssteigerung zur vorherigen Gen. (und die 7600 gleichauf ist :eek::ROFLMAO:)

Ja die stören in diesem Fall weil nvidia darauf in den Folien extra viel Wert auf die Sparsamkeit von max. 115W und typisch 110W in Spielen gelegt hat. Und eine 4090 ist ne etwas andere Hausnummer, bei der 4060 sind 20W fast 1/5 des Gesamtverbrauches! Bei einer 4090 würde das dann mal ~80W sein.

Antwort 4 Likes

LurkingInShadows

Urgestein

1,351 Kommentare 552 Likes

War die Frage ernst gemeint, oder ein Trollversuch?
Falls ernst gemeint siehe einen Post weiter oben.

Ist ja eigentlich eine Karte mit eingebauter Defeat Device; was da los war weißt wahrscheinlich noch.

Antwort Gefällt mir

D
Deridex

Urgestein

2,213 Kommentare 846 Likes

20W sind ja "nur" ~17,4% wenn man von 115W aus geht ;)

Antwort 1 Like

Cerebral_Amoebe

Veteran

118 Kommentare 57 Likes

Mich stört das, daher bin ich auch froh über eine seriöse Berichterstattung anstatt die gekauften Aussagen des Zwei-Pfenning-Typen und seiner Kumpane.

Das 20W mehr Verbrauch den 4090-Käufer nicht jucken, mag sein, den Full-HD-Spieler wird es aber interessieren.
Der kann getrost seine RTX 3060 12GB, 3060 Ti oder RX6600XT behalten.

Antwort 2 Likes

Pfannenwender

Veteran

302 Kommentare 195 Likes

Naja ... die braucht über 10% mehr Saft als angegeben, bzw. hat auf ihren "Nennverbrauch" reduziert deutlich weniger als die versprochene Leistung. Das ist das Eine ...
Aber Nvidia hat die Karte so gestrickt, dass der normale User (und wohl auch die Edeltuber) mit den üblichen Bordmitteln eben exakt diese max. 115 Watt angezeigt bekommt. Und da ist bei mir "Gschmäckle" schon lange vorbei ...
Die Karte wird ja so gebaut, dass nur bis 115 Watt angezeigt werden. Da eine Absicht unterstellen kann ich nicht, aber ich unterstelle Nvidia, dass sie das gewusst haben. Arglistige Täuschung?

Tippe mal, dass sich die Rechtsabteilung bei AMD schon warmläuft. Sie wären dumm wenn nicht.

Wär ich Nvidia, dann könnte eine Stellungnahme so ausfallen:
"Sehr geehrter Kunde,
wir sind nur ein kleines, mittelständiges Unternehmen und verfügen bei Weitem nicht über die Ressourcen, wie sie z.B. Igorslab zur Verfügung stehen. Wir verwenden bei der Entwicklung unsere Produkte daher Tools wie z.B HWInfo. Diese Tools wiesen bei der 4060 nie mehr als 115 Watt aus, weshalb wir die Karte auch mit diesem Wert vermarkten.
Dass durch das Layout der Platine die vollständige Leistungsaufnahme durch z.B. HWInfo überhaupt nicht angezeigt werden kann, war uns nicht bewusst und bitten wir zu entschuldigen."
😄

Antwort 1 Like

Klicke zum Ausklappem
Martin Gut

Urgestein

7,786 Kommentare 3,577 Likes

Ja, die verbrauchte Leistung nicht richtig zu messen und anzugeben war doch bis jetzt AMD vorbehalten. Das geht gar nicht, wenn Nvidia das plötzlich nachmacht. :p

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung