NVIDIA GeForce RTX 4060 8 GB mit echtem 115 Watt Limit getestet - Ende der Pracht?

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.845
Bewertungspunkte
8.929
Punkte
1
Standort
Redaktion
Dass die GeForce RTX 4060 8GB samt einer nicht funktionierenden Telemetrie in der Realität deutlich mehr an Leistung aufnimmt, haben wir ja in den Tests zum Launch und mit Overclocking gesehen. Statt der versprochenen maximalen 115 Watt Leistungsaufnahme im Datenblatt und einem typischen Gaming-Wert von 110 Watt, waren es in manchen Spielen satte 132 Watt (read full article...)
 
Dann muss das eben der Preis regeln.
 
Aktuell regelt sich aber nichts. Die Karten liegen aktuell in den Regalen wie Blei. Aber AMD ist auch nicht attraktiver, leider.
Interressant wäre, wieviel Gewinn bei Händlern und Nvidia bzw. AMD bei diesen beiden Karten abfällt, weil entweder sehr wenig, würde für mich bedeuten, die Einsteiger Karten sind einfach heute so teuer oder sie haben hohe Margen drin, geben sie aktuell nicht an den Kunden weiter.

Nachtrag, wenn ich kein RX 6600 XT hätte, würde mir die RX 7600 sehr gut gefallen und steinigt mich, 275 Euro würde ich durchaus zahlen.
 
Danke fürs benchen, ehrlich gesagt bin ich überrascht wie groß die Differenz teilweise ist ... Ein FIX in Richtung echte 115W dürfte wohl gegenüber dem Kunden nicht argumentierbar sein. Das ist ja schon fast eine Klasse darunter 🙈
 
Man sieht es ja auch an der gleichbleibenden Effizienz, das ich den Punkt ganz gut getroffen habe. Vor allem das P1 Low bricht extrem ein und das ist ja genau das, was man auch sieht
 
Was sagen denn die AIB´s dazu?
man kann ja schlecht OCing-Modelle verkaufen wenn die MRSP-Modelle bereits "frei" takten können(>115W)
 
Zusätzlich zum Preis und der (hoffentlich anhaltender) niedrigen Nachfrage kommt mir auch noch die Frage: Wie rechtfertigt Nvidia denn die "CE" Kennzeichnung dieser Karten? Eine einigermaßen ehrliche Angabe des Stromverbrauchs gehört doch mit zu den Anforderungen, die hierfür erfüllt sein müssen, oder liege ich da falsch?
 
Zusätzlich zum Preis und der (hoffentlich anhaltender) niedrigen Nachfrage kommt mir auch noch die Frage: Wie rechtfertigt Nvidia denn die "CE" Kennzeichnung dieser Karten? Eine einigermaßen ehrliche Angabe des Stromverbrauchs gehört doch mit zu den Anforderungen, die hierfür erfüllt sein müssen, oder liege ich da falsch?
mh nur bedingt, sofern der Stromverbrauch nicht so viel über der Angabe liegt das die Betriebssicherheit des in den Verkehr gebrachten Poduktes dadurch gefährdet ist sollte das mM nach keinen Einfluss auf das CE Label haben.
Einigermaßen ehrlich ist halt auch ein dehnbarer Begriff xD
 
Danke für den Test Igor ... das Ergebnis war erwartbar.
Auf Seite 4 müsste oben im Text in der 2. Zeile das Ti weg.
Auf Seite 6 das Selbe in der 1. Zeile
 
Eigentlich kann NVidia hier nur noch einen E.T. pullen, und das Gelumpe in der Wüste verbuddeln.
 
Dass die GeForce RTX 4060 8GB samt einer nicht funktionierenden Telemetrie in der Realität deutlich mehr an Leistung aufnimmt, haben wir ja in den Tests zum Launch und mit Overclocking gesehen. Statt der versprochenen maximalen 115 Watt Leistungsaufnahme im Datenblatt und einem typischen Gaming-Wert von 110 Watt, waren es in manchen Spielen satte 132 Watt (read full article...)
Wen stören denn ernsthaft 20W mehr? Das wurde so unnötig oft hervorgehoben imo. 20 W sind gerademal kleine Schwankungen bei meiner 4090, keine Game hat exakt gleiche Auslastung und somit Leistungsaufnahme über jede einzelne Szene hinweg besonders bei deutlich unter Auslastungsgrenze begrenzten FPS
 
Die Karte hat maximal den Namen 4050 verdient. Ist ja albern...

Nvidia versucht hier Krampfhaft, in der Namensgebung die Latte hoeher zu legen, als sie sein durfte. Damit man den heftigen Einkaufspreis rechtfertigen kann. Die Karte ist maximal zwischen 100 - 200€ anzusiedeln
 
Danke für den Test, sehr interessant wo die Karte mit 115W landet... Hat schon ein leichtes geschmäckle ;)
Dann würde auffallen das die Karte nicht ganz zum 60er Part passt, weil kaum eine Leistungssteigerung zur vorherigen Gen. (und die 7600 gleichauf ist :eek::ROFLMAO:)

Wen stören denn ernsthaft 20W mehr? Das wurde so unnötig oft hervorgehoben imo. 20 W sind gerademal kleine Schwankungen bei meiner 4090, keine Game hat exakt gleiche Auslastung und somit Leistungsaufnahme über jede einzelne Szene hinweg besonders bei deutlich unter Auslastungsgrenze begrenzten FPS
Ja die stören in diesem Fall weil nvidia darauf in den Folien extra viel Wert auf die Sparsamkeit von max. 115W und typisch 110W in Spielen gelegt hat. Und eine 4090 ist ne etwas andere Hausnummer, bei der 4060 sind 20W fast 1/5 des Gesamtverbrauches! Bei einer 4090 würde das dann mal ~80W sein.
 
Wen stören denn ernsthaft 20W mehr? Das wurde so unnötig oft hervorgehoben imo. 20 W sind gerademal kleine Schwankungen bei meiner 4090, keine Game hat exakt gleiche Auslastung und somit Leistungsaufnahme über jede einzelne Szene hinweg besonders bei deutlich unter Auslastungsgrenze begrenzten FPS

War die Frage ernst gemeint, oder ein Trollversuch?
Falls ernst gemeint siehe einen Post weiter oben.

Ist ja eigentlich eine Karte mit eingebauter Defeat Device; was da los war weißt wahrscheinlich noch.
 
20W sind ja "nur" ~17,4% wenn man von 115W aus geht ;)
 
Wen stören denn ernsthaft 20W mehr? Das wurde so unnötig oft hervorgehoben imo. 20 W sind gerademal kleine Schwankungen bei meiner 4090, keine Game hat exakt gleiche Auslastung und somit Leistungsaufnahme über jede einzelne Szene hinweg besonders bei deutlich unter Auslastungsgrenze begrenzten FPS
Mich stört das, daher bin ich auch froh über eine seriöse Berichterstattung anstatt die gekauften Aussagen des Zwei-Pfenning-Typen und seiner Kumpane.

Das 20W mehr Verbrauch den 4090-Käufer nicht jucken, mag sein, den Full-HD-Spieler wird es aber interessieren.
Der kann getrost seine RTX 3060 12GB, 3060 Ti oder RX6600XT behalten.
 
Wen stören denn ernsthaft 20W mehr? Das wurde so unnötig oft hervorgehoben imo. 20 W sind gerademal kleine Schwankungen bei meiner 4090, keine Game hat exakt gleiche Auslastung und somit Leistungsaufnahme über jede einzelne Szene hinweg besonders bei deutlich unter Auslastungsgrenze begrenzten FPS
Naja ... die braucht über 10% mehr Saft als angegeben, bzw. hat auf ihren "Nennverbrauch" reduziert deutlich weniger als die versprochene Leistung. Das ist das Eine ...
Aber Nvidia hat die Karte so gestrickt, dass der normale User (und wohl auch die Edeltuber) mit den üblichen Bordmitteln eben exakt diese max. 115 Watt angezeigt bekommt. Und da ist bei mir "Gschmäckle" schon lange vorbei ...
Die Karte wird ja so gebaut, dass nur bis 115 Watt angezeigt werden. Da eine Absicht unterstellen kann ich nicht, aber ich unterstelle Nvidia, dass sie das gewusst haben. Arglistige Täuschung?

Tippe mal, dass sich die Rechtsabteilung bei AMD schon warmläuft. Sie wären dumm wenn nicht.

Wär ich Nvidia, dann könnte eine Stellungnahme so ausfallen:
"Sehr geehrter Kunde,
wir sind nur ein kleines, mittelständiges Unternehmen und verfügen bei Weitem nicht über die Ressourcen, wie sie z.B. Igorslab zur Verfügung stehen. Wir verwenden bei der Entwicklung unsere Produkte daher Tools wie z.B HWInfo. Diese Tools wiesen bei der 4060 nie mehr als 115 Watt aus, weshalb wir die Karte auch mit diesem Wert vermarkten.
Dass durch das Layout der Platine die vollständige Leistungsaufnahme durch z.B. HWInfo überhaupt nicht angezeigt werden kann, war uns nicht bewusst und bitten wir zu entschuldigen."
😄
 
Oben Unten