NVIDIA GeForce RTX 4060 8 GB mit echtem 115 Watt Limit getestet - Ende der Pracht?

Also die RTX 4060 verbraucht 37 Watt weniger als die RX 7600 und ist gleichzeitig schneller (Effizienz 1,3 vs. 1,9 Watt/Frame). Deshalb ist Leistung/Verbrauch der nVidia-Karte natürlich eine Frechheit.
Dass AMD in der 6000er-Generation teils deutlich über dem angegebenen Verbrauch lag und bei der Messung irgendwas von "Total Graphics Power" zusammenrechnet wodurch die ausgelesenen und gemessenen Zahlen nicht dem tatsächlichen gesamten Stromverbrauch der Karte (inklusive PCIe-Slot) entsprechen – geschenkt.
Ehrlich gesagt finde ich die 4060 kein schlechtes Produkt. Dank neuer Features lassen sich auch aktuelle Spiele mit höheren Frameraten spielen (ohne durch den begrenzten RAM bei höheren Auflösungen Probleme zu bekommen) und die Effizienz ist nur im Vergleich zu den größeren Schwesterkarten nicht die wortwörtlich allerbeste. Wo will man da noch meckern? Weil beim kleinsten Modell nicht die Mess- und Steuertechnik eines Ferrari eingebaut wurde da Abweichungen nicht gleich das Versorgungskabel zum Schmelzen bringen?

Der Preis ist der Knackpunkt. So wie nVidia es gerne hätte ist der Preis auf dem aktuellen Markt zu hoch für das Produkt. Dann kauft es wohl niemand und der Preis muss angepasst werden...
Ein bisschen wirkt es, als wollten sie eigentlich gar nichts für's Low-end verkaufen und sparen deshalb ein wo sie können und hoffen, dass ein paar Leute trotzdem die hohen Preise zahlen.
 
Danke für die genaue, und vor allem *kritische* Analyse mit Fakten!

Wer sich wie Nvidia selbst hoch oben auf einen Sockel aus Marmor ins Licht stellt, soll und muss damit rechnen, sehr genau bemustert zu werden.

Für mich ist der Fall klar: bewusster Beschiss.
Nvidia wirbt explizit und aufdringlich für den Leistungsverbrauch mit konkreten (!) Zahlen, und genau dort wird getäuscht, weils einfach nicht übereinstimmt.
Mir soll keiner auch nur ansatzweise sagen, Nvidia hätte die angeblich fehlerhafte Telemetrie nicht bemerkt! Das ist nichts als reinstes Kalkül.

Dieser Hersteller muss einfach abgestraft werden, Nvidia erlaubt sich viel zu viel, der Bogen ist unlängst überspannt!

Ach ja, das wird wohl bei Gelegenheit wieder mal einen bösen Blick vom Lederjackenmännchen zur Folge haben.
 
Die Spezifikation der TDP bei AMD war bis zu den 6000er nur die Erfassung Des Grafikkerns und des Speichers, das was PCB/Lüfter benötigten war nicht erfasst. Bei den 7000ern könnte das geändert worden sein.
Nvidia hat bisher alles erfasst aber bei der 4060 wohl auch nur noch Kern + VRAM
 
Dass AMD in der 6000er-Generation teils deutlich über dem angegebenen Verbrauch lag und bei der Messung irgendwas von "Total Graphics Power" zusammenrechnet wodurch die ausgelesenen und gemessenen Zahlen nicht dem tatsächlichen gesamten Stromverbrauch der Karte (inklusive PCIe-Slot) entsprechen – geschenkt.
Geschenkt ist relativ, Igor hat lediglich die OC Angaben bei den Bordpartnern nicht mit angegeben, die Referenzkarten haben abgesehen von der Drossel Geschwindigkeit immer die angegebene TDP eingehalten.Das ist ein kleiner aber feiner Unterschied.
 
Naja, ich denke hier geht es nicht um frühere Zusammenhänge.

Ungeschickt war, dass NV mit dem geringen Verbrauch in Form der TDP geworben hat und recht breitbeinig die Ersparnis (mit seltsamen Strompreisen, die nicht der Realität entsprechen) beworben hat. Somit müssen sie sich auch daran messen lassen.

Beide Grafikkartenhersteller haben da in der jüngeren Vergangenheit nicht unbedingt den besten Eindruck hinterlassen, wenn es um das Marketing ging. Und beiden muss im jeweiligen Einzelfall auf die Finger gehauen werden.

Seltsam ist, dass NV hier so massiv am Monitoring gespart hat. Dies war bisher ihre Stärke. Aber irgendein Controller scheint den Rotstift zu heftig geschwungen zu haben. Den realen Verbrauch kennen sie trotzdem. Igor misst gewissenhaft und ich würde denken, dass NV die Ressourcen ebenfalls hat.

Nun sieht es aber so aus, als hätte man die 7600 im Rasterizing auf den letzten Metern abhängen wollen. Und das war nicht klug. DLSS3 hat man doch ohnehin und den Vorsprung bei RTRT.
 
Mit anderen Worten.. eine echte Mofelpackung aus dem Hause Nvidia..
Und ist damit auf dem selben Niveau (leider) wie die AMD.
Die haben jetzt natürlich nciht gemogelt, aber deren Nachfolgekarte zur alten Generation hat ja die selben Probleme, wie jetzt die Nvidiakarte.
Das Leistungsniveau ist irgendwie das selbe^^
 
Hm, also die erwartete/gemutmaßte Mogelpackung. Aber AMD ist ja auch keinen Deut besser. Unter dem Strich und im Vergleich mit der Vorgängergeneration für beide sehr ... blamabel.
Sie wären dumm wenn nicht.
Die Winkeladvokaten werden keinen Mucks machen. Beim Marketing bin ich mir da nicht sicher.
 
Naja, ich denke hier geht es nicht um frühere Zusammenhänge.

Ungeschickt war, dass NV mit dem geringen Verbrauch in Form der TDP geworben hat und recht breitbeinig die Ersparnis (mit seltsamen Strompreisen, die nicht der Realität entsprechen) beworben hat. Somit müssen sie sich auch daran messen lassen.

[...]
Oh, die Folie mit der Strompreis-Ersparnis zur 4060 kam wirklich von nVidia? Dachte das wär irgendein Influencer gewesen.

Dann ergänze ich: Der Preis ist unpassend und das Marketing auch schlecht.

Wahrscheinlich musste man die ganzen Zahlen so hindrehen, dass die mögliche Ersparnis beim Strom den Aufpreis zum Wettbewerbsprodukt mindestens ausgleicht. Und da schon an der Hardware-Messung gespart wurde, konnten sie sehr bequem Leistung und scheinbare Leistungsaufnahme so hinrechnen, dass es gerade eben besser und nicht nur gleichwertig bzw. eigentlich zu teuer ist. Natürlich wusste nVidia was die Karte "echt" verbraucht – und im Grunde kann es jeder Reviewer nachmessen. Hach, Marketing für Consumer-Produkte ist manchmal sehr kreativ.
 
War die Frage ernst gemeint, oder ein Trollversuch?
Falls ernst gemeint siehe einen Post weiter oben.

Ist ja eigentlich eine Karte mit eingebauter Defeat Device; was da los war weißt wahrscheinlich noch.
Nee, prinzipiell hat er ja nicht unrecht. Ich finde es gut, das Igor das aufgedeckt und darüber berichtet hat. Und ich glaube auch, das es für den Ein oder Anderen von Relevanz ist. Aber wieviele werden das überhaupt mit bekommen?

Und selbst wenn sie es wissen, interessieren sich die meisten erstmal für den Preis und dann für die Leistung. Der Verbrauch ist bei solchen Karten doch für die meisten eher sekundär.

Der seinerzeit kolportierte Verbrauch der 4090 von 600 Watt war da ein ganz anderes Kaliber. Aber wären ernsthaft weniger verkauft worden, wenn es tatsächlich so gewesen wäre? Ich bin mir da nicht so sicher.

Das das ganze natürlich irgendwie sehr Fragwürdig ist, steht natürlich ausser Frage.
 
Wenn irgendwas DAUERHAFT 130/115=1,13 => 13% mehr verbraucht als angegeben, ist es was komplett anderes als wenns um 15/450= 3,3% ginge. Also bitte die 4090 außen vor lassen.
 
Unter dem Strich für mich eine enttäuschende Vorstellung.
In den vergangenen Jahren hatte ich subjektiv stets den Eindruck, dass Nvidia versucht, die Leistungsfähigkeit der Karten pro Generation auf die Leistungsfähigkeit der nächsthöheren Karte der Vorgängergeneration zu trimmen. Das ist diesmal reichlich misslungen. Nicht nur, dass die Rohleistung nicht passt (4060 vs. 3070 oder auch 4060Ti vs. 3070Ti), sondern auch mit Tricks und Biegen schafft es die 4060Ti (!!) gerade mal, mit der 3070 (non TI !!) gleichzuziehen. Liebe Freunde, Danke, nein Danke !
 
115w sind die neuen 4GB VRAM - NV lernt es einfach nicht. Was aber natürlich auch daran liegt, dass ihnen so etwas von den Jüngern immer und immer wieder durchgehen gelassen wird...
 
Wenn irgendwas DAUERHAFT 130/115=1,13 => 13% mehr verbraucht als angegeben, ist es was komplett anderes als wenns um 15/450= 3,3% ginge. Also bitte die 4090 außen vor lassen.
Da hat auch mit der 4090 nichts zu tun, aber ich glaube das dieser Verbrauchsunterschied zwischen ausgewiesener und tatsächlicher Leistung die wenigsten vom Kauf abhält. Von 17 Watt mehr geht ja jetzt die Welt nicht unter. Die Karte kann wenig, hat zuwenig Ram und ist zu teuer. Die paar Watt mehr sind ihr geringstes Problem und dürften auch die wenigsten wirklich interessieren, wenn sie es denn überhaupt mit bekommen.

Das ganze ist für mich ein Sturm im Wasserglas.

Ich finde es gut, das Igor das gemessen und veröffentlicht hat und das ganz ist auch ärgerlich. Aber mehr nicht.

Das die ganze Vorstellung insgesamt eine einzige Enttäuschung ist,wie Alkbert schreibt, steht doch völlig ausser Frage.

Und das NVIDIA es nötig hat so zu tricksen ist halt bedauerlich.
 
Zuletzt bearbeitet :
@Megaone : Post auf den ich mich ursprünglich bezogen habe hat die 4090 ins Spiel gebracht.

Mich stört vorallem, dass NV weiß wie "genau messen" geht, damit auch eine gewisse Erwartungshaltung aufbaut, diese mit PR(opaganda) anheizt; aber beim Nachschauen kommt man drauf das NV unverhohlen bescheißt.

@Alkbert : Ich glaube mit dem einen Zehner runterrutschen beim Generationswechsel hätten wenige ein Problem; nur muss es wie du sagst 1) passieren, und 2) sollte es sich halt auch im Preis niederschlagen.
 
@Megaone : Post auf den ich mich ursprünglich bezogen habe hat die 4090 ins Spiel gebracht.

Mich stört vorallem, dass NV weiß wie "genau messen" geht, damit auch eine gewisse Erwartungshaltung aufbaut, diese mit PR(opaganda) anheizt; aber beim Nachschauen kommt man drauf das NV unverhohlen bescheißt.

Das erleben wir doch im Grunde überall. Ob die Produktmengen geringer werden in Verpackungen, beim Benzinverbrauch, der Reichweite bei Elektroautos, etc etc..

Am Ende kannst du nur versuchen dich zu informieren und deine Konsequenzen daraus zu ziehen.

Die große Masse rafft es doch eh nicht.
 
Da hat auch mit der 4090 nichts zu tun, aber ich glaube das dieser Verbrauchsunterschied zwischen ausgewiesener und tatsächlicher Leistung die wenigsten vom Kauf abhält. Von 17 Watt mehr geht ja jetzt die Welt nicht unter. Die Karte kann wenig, hat zuwenig Ram und ist zu teuer. Die paar Watt mehr sind ihr geringstes Problem und dürften auch die wenigsten wirklich interessieren, wenn sie es denn überhaupt mit bekommen.
Bei all dem, was man üblicherweise an Stromverbrauchendem daheim hat, glaube ich auch nicht, dass es irgend jemanden juckt, ob etwas 20 Watt mehr oder weniger verbraucht, auch FHD-Spieler nicht. Klar sollten solche Angaben stimmen, darüber müssen wir nicht reden, aber in der Praxis ist das am Ende völlig irrelevant; da schaut beim Kauf kein Mensch drauf.
 
Oben Unten