Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4060 8 GB im kompletten Test – Was man auf YouTube bisher nicht erfahren konnte

Leistungsaufnahme im Werkszustand als Zusammenfassung

Die rund 52 Watt im Idle sind eine Zumutung. Ich habe die gesamte Problematik der Leistungsaufnahme, also sowohl das mit den deutlich höheren Werten im Gaming (bis zu 133 Watt z.B. in Cyberpunk 2077 oder Horizon Zero Dawn) mit der Nicht-OC-Karte als auch die irrsinnig hohen Werte im Idle, bereits letzte (!) Woche an NVIDIA kommuniziert, jedoch bis heute keine befriedigende Antwort erhalten. Es scheint sich jedoch um hausgemachtes ein Treiber-Problem zu handeln, den auf einem meiner ältesten Systeme und Windows zeigte sich die Karte mit 14 Watt zufrieden.

Wobei es sicher auch 10 oder 11 Watt hätten sein können, wenn die Spannungswandler der Palit-Karte etwas effizienter gewesen wären und der PWM-Controller auch Phasen abschalten könnte. Ich habe mit vielen Kollegen kommuniziert und alle hatten das gleiche Problem im Idle. Ich bin also keine Ausnahme, sondern leider die Regel. Denn es gab auch Situationen auf den aktuellen Systemen, wo plötzlich wieder 14 watt gemessen wurden, aber immer noch 52 Watt in der NVAPI angezeigt wurden. Muss man das verstehen? Wohl eher nein!

Wir sehen übrigens sehr schön, dass die volle TBP von 115 fast immer überschritten wird, sogar beim eher anspruchslosen AutoCAD.  Selbst die Messwerte von NVIDIAs PCAT und Powenetics V2 bestätigen meine Ergebnisse und widerlegen eindeutig NVIDIAs eigene Werte über die NVAPI Schnittstelle. Wer sich das ausgedacht hat, hätte doch wissen müssen, das so etwas auffällt. Aber es passt gut zur PR-Folie mit dem lustigen Stromsparplan.

Lastverteilung zwischen PCIe-Slot und den PCIe-Buchsen

NVIDIA nutzt vor allem beim Gaming den PCIe-Slot ein wenig mit. Aber man liegt bei den fließenden Strömen noch weit unter dem, was mit 5.5 Ampere maximal erlaubt ist, auch beim erhöhten Power Limit.

Während NVIDIA die Versorgung über den PEG deutlich zurückgefahren hat, nutzt AMD diese Schiene weiterhin recht exzessiv.

 

Grobe 20-ms-Intervalle

Schauen wir uns zunächst einmal die fließenden Ströme an. Gemessen wurde in gröberen 20-ms-Intervallen, also rund 50 Mal pro Sekunde, um die Last am Supervisor-Chip der Netzteile zu simulieren (Abschaltung). Wir sehen, dass auch kurze Lastspitzen bei spätestens 13 A abgekappt werden. aber eine wirkliche Begrenzung sieht anders aus.

Trotzdem müssen wir noch einen Blick auf die Spannungen werfen, bzw. das Produkt aus Spannung und Stromfluss. Ich schrieb ja bereits, dass ich hier an verschiedenen Netzteilanschlüssen gemessen habe, auch wenn sich am Ende auf der Platine der Grafikkarte alle Anschlüsse wieder irgendwie treffen. Das, was wir hier jetzt als viel deutlichere Schwankungen und Spitzen erkennen können, liegt am partiell ein klein wenig übervoltenden Netzteil und somit an der Spannung und nicht den Strömen. Das ist technisch bedingt, jedoch kein Beinbruch. Wir sehen jedoch auch, dass die wenigen Spitzen bei etwas über 200 Watt nicht durch den fließenden Strom bedingt ist (Grafikkarte), sondern eigentlich vom Netzteil her resultieren! Das liegt auch an der Topologie und vor allem dem eher mickrigen Eingangsfilter mit nur einer Spule auf der einzelnen Rail.

Beim Torture-Test sieht es kaum anders aus.

Nimmt man jetzt wieder die Spannung mit hinzu, dann sieht man eine stärkere Welligkeit (Ripple), die sich wiederum aus der etwas hibbeligen Betriebsspannung ergibt. Allerdings muss man zur Ehrenrettung des Netzteils auch sagen, dass dies alle aktuellen Produkte aller Hersteller betrifft und sicher auch kaum zu vermeiden ist.

 

Kommentar

Lade neue Kommentare

R
Racoon

Neuling

8 Kommentare 2 Likes

Abschnitt sechs , erstes Diagramm: 4060 it und non-it scheinen vertauscht zu sein.

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,928 Likes
R
Racoon

Neuling

8 Kommentare 2 Likes

Siehe Screenshot. MfG.

Antwort Gefällt mir

R
Racoon

Neuling

8 Kommentare 2 Likes

Sorry, mein Fehler. Nicht genau genug hingesehen.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia überspannt mMn den Bogen an Selbstverherrlichung. Dieses gekaufte Schaulaufen auf YT im Vorfeld ist sowas von peinlich.
Die Karte selbst, ein Billigheimer per Referenz, Speicherkrüppel, verkorkster Treiber zum Start, zu teuer.
Irgendwie muss man ja seine eigenen Taschen, und die der Bling YTer ja füllen, leider wird sie unerfahrene, unwissende Käufer erreichen. Wieder mal.
Wird mal Zeit, dass der grüne Narzisst ordentlich den Kopf stösst, wenn er vom Pferd fällt.

Antwort 5 Likes

h
hellm

Moderator

625 Kommentare 846 Likes

Keine Angst. KI ist auch etwas, worauf Nvidia sich nicht langfristig verlassen kann. Es ist ein Markt, der exorbitante Margen erlaubt, Blase hin oder her, da stehen noch ganz andere Größen in den Startlöchern. Und wenn nun auch andere Verwendungsmöglichkeiten für so spezielle, sehr parallelisierte Prozessoren gefunden sind, kann uns das langfristig auch nur helfen. Mining war nur ein ärgeliches Phänomen, das können wir wieder vergessen. Jetzt kommt KI.

Zuviel Erfolg ist für kein Unternehmen gut. Wie man sich dann auf den kommenden Wetterwechsel einstellen wird, wir werden es sehen. Die Preise wird man aber nicht durchhalten können, selbst wenn Nvidia weiterhin erfolgreich bleibt. Da können wir uns auf unseren Kapitalismus verlassen.

Antwort 5 Likes

e
eastcoast_pete

Urgestein

1,507 Kommentare 852 Likes

Leider sind im Moment sowohl Nvidia als auch AMD sehr auf den KI/Beschleuniger Zug abgefahren, und Intel wär auch gerne mit dabei, wenn sie nur Produkte dafür hätten. Und bis der Zug langsamer wird (oder ganz entgleist) werden die GPUs eben mehr so nebenher gemacht.
@Igor: Wieviel extra Silizium hätte denn ein Controller für einen 192 oder 256 Bit Bus so gekostet? Und ich weiß, hätte, hätte, Fahrradkette. Interessant wäre es trotzdem was hätte sein können für die kleine Ada.
Denn die 16 GB Versionen, die angeblich doch kommen sollen, werden ja trotzdem in den 128 Bit Flaschenhals rennen. Und der Cache hier ist zwar größer als bei der kleinen Ampere, aber so groß (bzw groß genug) ist der Cache wohl nicht, daß es bei Auflösungen über 1080p nicht schon eng wird. Oder ist die Rechenleistung schon ausgereizt, und der Bus ist zweitrangig?

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,928 Likes

Spekulatius... Das muss man wirklich seriös testen. :(

Antwort Gefällt mir

RX480

Urgestein

1,881 Kommentare 873 Likes

als seriöser Tester könnte man mal die 115W im Datasheet auf HOLD setzen
vor Allem wenn NV jahrelang auf Einhaltung der TDP rumgehackt hat

... im Prinzip ja, aber welche Watt gelten denn nun für die 4060 sinds 115 oder 131W?
(würde man ne 7600 ebenfalls mit PL+14% laufen lassen, wirds net mehr so locker)

locker ist wie immer Parcourabhängig:

View image at the forums

Da könnte also Jemand der net RT braucht, auch mit ner preiswerten Graka auskommen.
(die 7600 gabs öfters für 259€ im MS)

Antwort Gefällt mir

echolot

Urgestein

943 Kommentare 727 Likes

Das Elend geht weiter. Na hoffentlich wars das jetzt erst einmal bei Nvidia...ach ja. Da kommt ja noch die 4060 Ti 16GB und dann wieder zu einem unschlagbaren Preis.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Ich glaub nicht dass die sooOo schlecht abschneidet. Die könnte für viele relevant werden.

Antwort Gefällt mir

D
Don Omerta

Mitglied

49 Kommentare 34 Likes

Danke Igor für diesen hervorragenden Test. :)
Gerade noch einen Artikel bei so einer "Blaskapelle" (Gol..) gelesen und auch das heißt es 118 Watt Aufnahme. Die schreiben wohl alle von einander ab, es gibt wirklich kaum noch seriöse Seiten wo man so aussagekräftige Test wie hier bekommt.

Antwort 1 Like

Igor Wallossek

1

10,227 Kommentare 18,928 Likes

Ich äußere mich nie zu Kollegen aus seriösen Medien. Manche sind auch vom Equiment (oder Nicht-Equipment) limitiert. Wobei Golem finanzkräftig genug sein sollte, ordentliche Technik anzuschaffen.

Wobei der Zweiseiter schon arg dünn geraten ist. Seit Marc zu Intel gewechselt ist, hat es dort etwas nachgelassen. Aber der neue Kollege muss lernen. Kommt sicher noch.

Antwort 3 Likes

Kohlkopf

Mitglied

42 Kommentare 10 Likes

Hatte mich heute sehr gefreut das du, lieber Igor wieder etwas auf YT geladen hast. Das Video zur 4060 8G fand ich für den (Wieder) Einstieg sehr gelungen (informativ) und unterhaltsam.

Was mich noch bzgl. Bauteile interessiert ist, ob es sich für die Hersteller nicht doch lohnen würde, auf längere Sicht, die besseren Bauteile zu verwenden. Die paar Euro für ein stabileres und fehlerfreies Produkt zu investieren, womit auch der Kunde mehr Freude hat. Gleichzeitig würde damit ja auch die Umwelt entlastet, da weniger RMA's und Retouren und dies im besten Fall auch weniger Elektroschrott bedeutet.

Bzgl. VRAM: Damals gab es ja sogar schon Grafikkarten wo der (V)RAM physisch, wie bei einem Mainboard erweitert werden konnte. Hat es rein technische Gründe, warum dies heute nicht im Consumer Bereich angeboten wird oder doch einfach nur um Verkäufe zu generieren.

Antwort Gefällt mir

RX480

Urgestein

1,881 Kommentare 873 Likes

Am Ende ist Jeder, der die Werbetexte veröffentlicht "Teil des Plans".
Der Plan ist = bei den Schafen bleiben solche Stichworte hängen und helfen beim Kauf.

Ich bin mir auch net sicher, ob z.Bsp. die regelmäßigen Leaks zum 3dMark net auch "bestellt" sind, .... und in dem Fall mit falschen Watt.

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Was hilft die teuerste Technik, wenn sie falsch bedient wird...

Antwort Gefällt mir

8j0ern

Urgestein

2,551 Kommentare 805 Likes

Nein, weil die besseren Bauteile zu 90% Rausfliegen.
Also 10% bleiben übrig für die Super Tolle TItan usw. usf.

Der Verschleiß nagt.

Antwort Gefällt mir

D
Don Omerta

Mitglied

49 Kommentare 34 Likes

@Igor Wallossek
Du sollst die auch nicht über andere Kollegen auslassen...;)
Ich kenne Golem seit 2001 und die Qualität der Berichte hat in den letzten Jahren, meiner Meinung nach, sehr nachgelassen. Die wurden in den letzten 15 Jahren ja auch durchgereicht wie ein Stück ranzige Butter, da geht ein wenig Qualität schon mal verloren.

249 Euro wären ein guter Preis für die Karte, wenn ich daran denke was mittlerweile die 3060ti kostet (bei NB für 329,00€)....

Antwort 1 Like

Igor Wallossek

1

10,227 Kommentare 18,928 Likes

249 Euro sind für die AIC leider Verlustzone.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung