Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4060 8 GB im kompletten Test – Was man auf YouTube bisher nicht erfahren konnte

Teardown

Die Karte ist schnell zerlegt, denn wo nicht viel dran ist, muss auch nicht viel ab- und auseinander gebaut werden.

PCB-Layout und Komponenten

Beginnen wir zunächst mit der Platine. Und hier habe ich den ersten echten Schock bekommen. Ja, wir sind fast schon im im Entry-Level angekommen, aber was man zu sehen bekommt, ist pures Cost Down. NVVDD ist die wichtigste Spannung und so ergibt sich ein Spannungswandler-Design mit insgesamt vier Phasen und den daraus resultierenden Regelkreisen allein für NVVDD. Man spart also im Vergleich zur RTX 4060 Ti FE noch einmal eine Phase ein, was jedoch in Anbetracht der deutlich niedrigeren TDP irgendwie noch zu akzeptieren ist. In Anbetracht möglicher Hotspots und einer höheren Effizienz wären mehr Phasen sicher auch sinnvoller gewesen. Aber es soll ja auch um den Preis gehen und so muss wieder ein Kompromiss her.

Das sieht alles auf den ersten Blick etwas arg mager aus, aber es reicht. Man nutzt einen sehr günstigen PWM-Controller für NVVDD (GPU Core), die FBVDDQ (Speicher) löst man über einen trivialen Buck-Converter. Für NVVDD nutzt Palit den billigen RT8845A von Realtek, der sich mit den maximal vier Phasen zwar nicht verhebt, aber vor allem im Niedriglastbereich die Effizienz verschenkt. DrMOS gibt es keine, die Spannungswandler sind allesamt diskret mit N-Channel MOSFETS und getrennter Low- und High-Side aufgebaut.

Alle verwendeten MOSFETs für NVVDD sind günstige Produkte von Sinopower. Der in allen Regelkreisen für die Low Side genutzte SM4503NHKP ist ein N-Channel Enhancement Mode MOSFET für maximal 80 Ampere. Der RDS(ON) liegt typisch bei 2.5 mΩ und kann bei voller Erwärmung bis zu 3.75 mΩ ansteigen. Hätte man hier eine bereits vorgesehene Parallelschaltung genutzt, hätte man die Verluste fast halbieren können. Der in allen Regelkreisen für die High Side genutzte SM4507NHKP ist ebenfalls ein N-Channel Enhancement Mode MOSFET, aber für die zu erbringende Leistung eher nicht entscheidend. Angesteuert wird er durch einen separaten Gate-Treiber.

Die eine Phase für FBVDDQ (Speicher) wird ebenfalls diskret realisiert und besteht aus den gleichen MOSFETs wie die vier NVVDD-Phasen. Die 12V-Rails am 6+2 Connector werden direkt nach der Buchse zu einer einzigen Rail zusammengefasst, eine weitere liegt am PEG an, und wird für NVVDD nur gering genutzt.

Wo ist die Kontrolle der fließenden Ströme? Kaputt gespart!

NVIDIA ist ja eigentlich bekannt dafür, dass jede 12V-Rail permanent mittels Shunts und dem dort entstehenden Spannungsabfall überwacht werden. So kann man mittels eines passenden Monitoring-Chips auf die fließenden Ströme schließen und die Firmware kann dann die Leistungszufuhr so drosseln, dass das in der Firmware hinterlegte maximale Power Target auch nie überschritten wird. Diese Shunts existieren interessanterweise auf keiner der RTX 4060 Platinen und auch ein geeigneter Monitoring-Chip fehlt komplett.

Simple Null-Ohm-Brücke

NVIDIA deklariert die normalen RTX 4060 als 115-Watt-Karten und spricht selbst von typischen 110 Watt beim Gaming. Doch genau das ist unwahr. Ja, die über die NVAPI auslesbaren Werte liegen brav bei 115 Watt und darunter, nur stimmen sie leider nicht mal im Ansatz. Während die Schnittstelle in der Software bei 115 bis 116 Watt verharrt, messe ich an den Rails und 4 Spielen in Wirklichkeit sogar über 130 Watt! Das sind 15 Watt mehr als maximal erlaubt und immerhin 20 Watt über den für die Spiele kommunizierten Wert! Die Karte ist also bei weiten nicht so effizient, wie es die Schnittstelle vorgaukelt und die PR-Folien gern hätten. Das wären beim Gaming nämlich schon über 18 Prozent mehr! Doch zu den genauen Werten kommen wir später und wir sehen, nicht nur die Idle-Leistungsaufnahme ist eine größere Baustelle.

Um die einzelnen Regelkreise überhaupt kontrollieren zu können, benötigt man ein spezielles Verfahren. Das Schlagwort heißt DCR (Direct Current Resistance). Am Ende weist jedes Bauelement diesbezüglich ja ganz bestimmte Charakteristika auf. Um es aber einmal abzukürzen: DCR ist die Basis, um Temperaturen und vor allem Ströme zu kalkulieren oder zu messen. Doch wie erfährt der Controller nun genau, welche Ströme in welchem Regelkreis fließen? Das Monitoring kann unterschiedlich sein, denn es gibt – wen wundert es – verschiedene Methoden dafür.

Wir haben ja bereits analysiert, dass die Spannungswandler auf dem technischen Stand von vor 10 Jahren realisiert wurden. Intelligente Smart Power Stages (SPS), die die Drain-Ströme der MOSFETS für die MOSFET DCR in Echtzeit messen, sind hier reine Utopie. Man ersetzt das Ganze durch die deutlich günstigere Inductor DCR in einer diskreten Schaltung, also eine Strommessung über den induktiven Widerstand der jeweiligen Filterspulen im Ausgangsbereich. Die Genauigkeit dieser Lösung ist allerdings deutlich geringer und wird zusätzlich noch durch Schwankungen der Bauelemente-Güte sehr stark beeinflusst. AMD hat jahrelang auf diese Inductor DCR gesetzt, die aber nicht mehr als eine grobe Schätzung ist und vor allem bei höheren Temperaturen zunehmend ungenauer wird.

Das BIOS liegt am gewohnten Ort und auch die Generierung der restlichen Kleinspannungen ist wie gehabt. Mehr Besonderheiten gibt es also nicht.

 

 

Der Kühler

Die beiden 9,8 cm Lüfter (Öffnung 10 cm) besitzen jeweils 9 Rotorblätter und werden gemeinsam geregelt. Die sonst übliche zweite Regelkurve entfällt bei der GeForce RTX 4060 leider. Palit verwendet einen einfachen Lamellenkühlkörper im Horizontaldesign und zwei in den Aluminium-Heatsink eingepresste und angeschliffene 6 mm DHT-Heatpipes aus Kupferkompositmaterial.  Die Pads sind leider nicht so hochwertig, aber ausreichend. Ob und wann dort ggf. etwas Silikon austreten wird, bleibt abzuwarten.

Die Backplate ist aus ABS und dient lediglich der Stabilisierung. Mehr muss man hier nicht berichten, denn es gibt nichts.

 

Kommentar

Lade neue Kommentare

R
Racoon

Neuling

8 Kommentare 2 Likes

Abschnitt sechs , erstes Diagramm: 4060 it und non-it scheinen vertauscht zu sein.

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,929 Likes
R
Racoon

Neuling

8 Kommentare 2 Likes

Siehe Screenshot. MfG.

Antwort Gefällt mir

R
Racoon

Neuling

8 Kommentare 2 Likes

Sorry, mein Fehler. Nicht genau genug hingesehen.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia überspannt mMn den Bogen an Selbstverherrlichung. Dieses gekaufte Schaulaufen auf YT im Vorfeld ist sowas von peinlich.
Die Karte selbst, ein Billigheimer per Referenz, Speicherkrüppel, verkorkster Treiber zum Start, zu teuer.
Irgendwie muss man ja seine eigenen Taschen, und die der Bling YTer ja füllen, leider wird sie unerfahrene, unwissende Käufer erreichen. Wieder mal.
Wird mal Zeit, dass der grüne Narzisst ordentlich den Kopf stösst, wenn er vom Pferd fällt.

Antwort 5 Likes

h
hellm

Moderator

625 Kommentare 846 Likes

Keine Angst. KI ist auch etwas, worauf Nvidia sich nicht langfristig verlassen kann. Es ist ein Markt, der exorbitante Margen erlaubt, Blase hin oder her, da stehen noch ganz andere Größen in den Startlöchern. Und wenn nun auch andere Verwendungsmöglichkeiten für so spezielle, sehr parallelisierte Prozessoren gefunden sind, kann uns das langfristig auch nur helfen. Mining war nur ein ärgeliches Phänomen, das können wir wieder vergessen. Jetzt kommt KI.

Zuviel Erfolg ist für kein Unternehmen gut. Wie man sich dann auf den kommenden Wetterwechsel einstellen wird, wir werden es sehen. Die Preise wird man aber nicht durchhalten können, selbst wenn Nvidia weiterhin erfolgreich bleibt. Da können wir uns auf unseren Kapitalismus verlassen.

Antwort 5 Likes

e
eastcoast_pete

Urgestein

1,508 Kommentare 852 Likes

Leider sind im Moment sowohl Nvidia als auch AMD sehr auf den KI/Beschleuniger Zug abgefahren, und Intel wär auch gerne mit dabei, wenn sie nur Produkte dafür hätten. Und bis der Zug langsamer wird (oder ganz entgleist) werden die GPUs eben mehr so nebenher gemacht.
@Igor: Wieviel extra Silizium hätte denn ein Controller für einen 192 oder 256 Bit Bus so gekostet? Und ich weiß, hätte, hätte, Fahrradkette. Interessant wäre es trotzdem was hätte sein können für die kleine Ada.
Denn die 16 GB Versionen, die angeblich doch kommen sollen, werden ja trotzdem in den 128 Bit Flaschenhals rennen. Und der Cache hier ist zwar größer als bei der kleinen Ampere, aber so groß (bzw groß genug) ist der Cache wohl nicht, daß es bei Auflösungen über 1080p nicht schon eng wird. Oder ist die Rechenleistung schon ausgereizt, und der Bus ist zweitrangig?

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,929 Likes

Spekulatius... Das muss man wirklich seriös testen. :(

Antwort Gefällt mir

RX480

Urgestein

1,881 Kommentare 873 Likes

als seriöser Tester könnte man mal die 115W im Datasheet auf HOLD setzen
vor Allem wenn NV jahrelang auf Einhaltung der TDP rumgehackt hat

... im Prinzip ja, aber welche Watt gelten denn nun für die 4060 sinds 115 oder 131W?
(würde man ne 7600 ebenfalls mit PL+14% laufen lassen, wirds net mehr so locker)

locker ist wie immer Parcourabhängig:

View image at the forums

Da könnte also Jemand der net RT braucht, auch mit ner preiswerten Graka auskommen.
(die 7600 gabs öfters für 259€ im MS)

Antwort Gefällt mir

echolot

Urgestein

943 Kommentare 727 Likes

Das Elend geht weiter. Na hoffentlich wars das jetzt erst einmal bei Nvidia...ach ja. Da kommt ja noch die 4060 Ti 16GB und dann wieder zu einem unschlagbaren Preis.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Ich glaub nicht dass die sooOo schlecht abschneidet. Die könnte für viele relevant werden.

Antwort Gefällt mir

D
Don Omerta

Mitglied

49 Kommentare 34 Likes

Danke Igor für diesen hervorragenden Test. :)
Gerade noch einen Artikel bei so einer "Blaskapelle" (Gol..) gelesen und auch das heißt es 118 Watt Aufnahme. Die schreiben wohl alle von einander ab, es gibt wirklich kaum noch seriöse Seiten wo man so aussagekräftige Test wie hier bekommt.

Antwort 1 Like

Igor Wallossek

1

10,227 Kommentare 18,929 Likes

Ich äußere mich nie zu Kollegen aus seriösen Medien. Manche sind auch vom Equiment (oder Nicht-Equipment) limitiert. Wobei Golem finanzkräftig genug sein sollte, ordentliche Technik anzuschaffen.

Wobei der Zweiseiter schon arg dünn geraten ist. Seit Marc zu Intel gewechselt ist, hat es dort etwas nachgelassen. Aber der neue Kollege muss lernen. Kommt sicher noch.

Antwort 3 Likes

Kohlkopf

Mitglied

42 Kommentare 10 Likes

Hatte mich heute sehr gefreut das du, lieber Igor wieder etwas auf YT geladen hast. Das Video zur 4060 8G fand ich für den (Wieder) Einstieg sehr gelungen (informativ) und unterhaltsam.

Was mich noch bzgl. Bauteile interessiert ist, ob es sich für die Hersteller nicht doch lohnen würde, auf längere Sicht, die besseren Bauteile zu verwenden. Die paar Euro für ein stabileres und fehlerfreies Produkt zu investieren, womit auch der Kunde mehr Freude hat. Gleichzeitig würde damit ja auch die Umwelt entlastet, da weniger RMA's und Retouren und dies im besten Fall auch weniger Elektroschrott bedeutet.

Bzgl. VRAM: Damals gab es ja sogar schon Grafikkarten wo der (V)RAM physisch, wie bei einem Mainboard erweitert werden konnte. Hat es rein technische Gründe, warum dies heute nicht im Consumer Bereich angeboten wird oder doch einfach nur um Verkäufe zu generieren.

Antwort Gefällt mir

RX480

Urgestein

1,881 Kommentare 873 Likes

Am Ende ist Jeder, der die Werbetexte veröffentlicht "Teil des Plans".
Der Plan ist = bei den Schafen bleiben solche Stichworte hängen und helfen beim Kauf.

Ich bin mir auch net sicher, ob z.Bsp. die regelmäßigen Leaks zum 3dMark net auch "bestellt" sind, .... und in dem Fall mit falschen Watt.

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Was hilft die teuerste Technik, wenn sie falsch bedient wird...

Antwort Gefällt mir

8j0ern

Urgestein

2,551 Kommentare 805 Likes

Nein, weil die besseren Bauteile zu 90% Rausfliegen.
Also 10% bleiben übrig für die Super Tolle TItan usw. usf.

Der Verschleiß nagt.

Antwort Gefällt mir

D
Don Omerta

Mitglied

49 Kommentare 34 Likes

@Igor Wallossek
Du sollst die auch nicht über andere Kollegen auslassen...;)
Ich kenne Golem seit 2001 und die Qualität der Berichte hat in den letzten Jahren, meiner Meinung nach, sehr nachgelassen. Die wurden in den letzten 15 Jahren ja auch durchgereicht wie ein Stück ranzige Butter, da geht ein wenig Qualität schon mal verloren.

249 Euro wären ein guter Preis für die Karte, wenn ich daran denke was mittlerweile die 3060ti kostet (bei NB für 329,00€)....

Antwort 1 Like

Igor Wallossek

1

10,227 Kommentare 18,929 Likes

249 Euro sind für die AIC leider Verlustzone.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung