Grafikkarten Testberichte VGA

MSI GeForce RTX 4060 Gaming X 8G im Overclocking-Test – Da geht doch noch was! Aber…

Teardown

Auch die Karte ist schnell zerlegt, denn wo nicht viel dran ist, muss auch nicht viel ab- und auseinander gebaut werden. Aber das kennen wir ja schon.

PCB-Layout und Komponenten

Beginnen wir zunächst mit der Platine. Ein bisschen wertiger und vollständiger als das Minimal-Produkt von gestern ist sie ja, aber immer noch horrendes Cost-Down. Und da ab und zu auch Leser nachfragen, wie ich und wo ich die Platinen analysiere, stelle ich mal ein Bild online. Das Multimeter von Rohde & Schwarz brauchte ich diesmal nicht, es war zu einfach:

NVVDD ist wie immer die wichtigste Spannung und so ergibt sich ein Spannungswandler-Design mit insgesamt vier Phasen und den daraus resultierenden Regelkreisen allein für NVVDD. Man spart also im Vergleich zur RTX 4060 Ti FE noch einmal eine Phase ein, was jedoch in Anbetracht der deutlich niedrigeren TDP irgendwie noch zu akzeptieren ist. In Anbetracht möglicher Hotspots und einer höheren Effizienz wären mehr Phasen sicher auch sinnvoller gewesen. Aber es soll ja auch um den Preis gehen und so muss erneut ein Kompromiss her.

Das sieht alles auf den ersten Blick etwas arg mager aus, aber es reicht. Man nutzt einen sehr günstigen PWM-Controller für NVVDD (GPU Core), die FBVDDQ (Speicher) löst man über einen trivialen Buck-Converter. Für NVVDD nutzt MSI den uP9512U von UPI, der sich mit den maximal vier Phasen diesmal leichter tut. DrMOS gibt es keine, die Spannungswandler sind allesamt diskret mit N-Channel MOSFETS und getrennter Low- und High-Side aufgebaut.

Alle verwendeten MOSFETs für NVVDD sind normalpreisige Produkte von NIKO-SEM (NIKOS). Der in allen Regelkreisen für die Low Side genutzte PKE66BB ist ein N-Channel Enhancement Mode MOSFET für maximal 30 Ampere. Der RDS(ON) liegt typisch bei 2 mΩ und kann bei voller Erwärmung bis zu 2.6 mΩ ansteigen. Da man hier jedoch eine echte Parallelschaltung genutzt, kann man die Verluste fast halbieren, Der in allen Regelkreisen für die High Side genutzte PK616BA ist ebenfalls ein N-Channel Enhancement Mode MOSFET, aber für die zu erbringende Leistung eher nicht entscheidend. Angesteuert wird er durch einen separaten Gate-Treiber.

Die eine Phase für FBVDDQ (Speicher) wird ebenfalls diskret realisiert und besteht aus den gleichen MOSFETs wie die vier NVVDD-Phasen, jedoch ohne doppelte Low-Side. Die Ströme sind auch deutlich niedriger.

Die 12V-Rails am 6+2 Connector werden direkt nach der Buchse zu einer einzigen Rail zusammengefasst, eine weitere liegt am PEG an. Dazu komme ich auch noch.

Wo ist die Kontrolle der fließenden Ströme? Kaputt gespart!

NVIDIA ist ja eigentlich bekannt dafür, dass jede 12V-Rail permanent mittels Shunts und dem dort entstehenden Spannungsabfall überwacht werden. So kann man mittels eines passenden Monitoring-Chips auf die fließenden Ströme schließen und die Firmware kann dann die Leistungszufuhr so drosseln, dass das in der Firmware hinterlegte maximale Power Target auch nie überschritten wird. Diese Shunts existieren interessanterweise auf keiner der RTX 4060 Platinen und auch ein geeigneter Monitoring-Chip fehlt komplett. Zumindest spendiert MSI der Platine eine Sicherung pro Rail, wie nobel.

Und ich wiederhole es von gestern: NVIDIA deklariert die normalen RTX 4060 als 115-Watt-Karten und spricht selbst von typischen 110 Watt beim Gaming. Doch genau das ist unwahr. Ja, die über die NVAPI auslesbaren Werte liegen brav bei 115 Watt und darunter, nur stimmen sie leider nicht mal im Ansatz. Während die Schnittstelle in der Software bei 115 bis 116 Watt verharrt, messe ich an den Rails und 4 Spielen in Wirklichkeit sogar über 130 Watt! Das sind 15 Watt mehr als maximal erlaubt und immerhin 20 Watt über den für die Spiele kommunizierten Wert! Die Karte ist also bei weiten nicht so effizient, wie es die Schnittstelle vorgaukelt und die PR-Folien gern hätten. Das wären beim Gaming nämlich schon über 18 Prozent mehr! Doch zu den genauen Werten kommen wir später und wir sehen, nicht nur die Idle-Leistungsaufnahme ist eine größere Baustelle.

Um die einzelnen Regelkreise überhaupt kontrollieren zu können, benötigt man ein spezielles Verfahren. Das Schlagwort heißt DCR (Direct Current Resistance). Am Ende weist jedes Bauelement diesbezüglich ja ganz bestimmte Charakteristika auf. Um es aber einmal abzukürzen: DCR ist die Basis, um Temperaturen und vor allem Ströme zu kalkulieren oder zu messen. Doch wie erfährt der Controller nun genau, welche Ströme in welchem Regelkreis fließen? Das Monitoring kann unterschiedlich sein, denn es gibt – wen wundert es – verschiedene Methoden dafür.

Wir haben ja bereits analysiert, dass die Spannungswandler auf dem technischen Stand von vor 10 Jahren realisiert wurden. Intelligente Smart Power Stages (SPS), die die Drain-Ströme der MOSFETS für die MOSFET DCR in Echtzeit messen, sind hier reine Utopie. Man ersetzt das Ganze durch die deutlich günstigere Inductor DCR in einer diskreten Schaltung, also eine Strommessung über den induktiven Widerstand der jeweiligen Filterspulen im Ausgangsbereich. Die Genauigkeit dieser Lösung ist allerdings deutlich geringer und wird zusätzlich noch durch Schwankungen der Bauelemente-Güte sehr stark beeinflusst. AMD hat jahrelang auf diese Inductor DCR gesetzt, die aber nicht mehr als eine grobe Schätzung ist und vor allem bei höheren Temperaturen zunehmend ungenauer wird.

Das BIOS liegt am gewohnten Ort auf der Rückseite der Platine und auch die Generierung der restlichen Kleinspannungen ist wie gehabt. Mehr Besonderheiten gibt es also nicht. Im Übrigen wird auch der PEG abgesichert und muss dafür auf den Shunt verzichten.

Und für den Leucht-Klecks und diverse Steuerungsaufgaben spendiert MSI der Karte eine kleinere MCU, immerhin.

 

 

Der Kühler

Die beiden 9,8 cm Lüfter (Öffnung 10 cm) besitzen jeweils 9 Rotorblätter und werden gemeinsam geregelt. Die sonst übliche zweite Regelkurve entfällt bei der GeForce RTX 4060 leider. Auch MSI verwendet einen einfachen Lamellenkühlkörper im Horizontaldesign und gleich drei an den Heatsink gelötete und vernickelte 6-mm-Heatpipes aus Kupferkompositmaterial. Die Spannungswandler kühlt man nicht via Heatsink, sondern vertraut auf den Luftzug. Dass das reicht, sehen wir später noch. Die Pads sind diesmal etwas besser als noch bei Palit.

Die Backplate ist aus Leichtmetall und dient lediglich der Stabilisierung. Mehr muss man hier nicht berichten, denn es gibt nichts.

 

Kommentar

Lade neue Kommentare

F
Furda

Urgestein

663 Kommentare 371 Likes

Danke für den Test.
Die Gaming X scheint in Vergleich zur günstigeren Schwester Ventus vom gleichen Hersteller die bessere/leisere Kühlung zu haben (Test bei CB von gestern) mitsamt resp. trotz OC. Wie hoch dieser Aufpreis ausfallen wird, weiss man nicht, weils noch keinen Preis zu geben scheint, wieso auch immer. Der Preis scheint bei dieser 4050 (ich meine 4050, kein Tippfehler) ein Thema sein zu müssen.

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,929 Likes

Die Preise werden runtergehen müssen. Wer wll schon ständig Staub wischen müssen? :D

Antwort 4 Likes

e
eastcoast_pete

Urgestein

1,509 Kommentare 852 Likes

Alleine schon für den hohen Stromverbrauch im Idle verdient Nvidia hier eine silberne Zitrone! Dabei hat Nvidia (wie auch von Dir @Igor Wallossek ) beschrieben das eigentlich sehr gut im Griff, solange sie die entsprechende Hardware, die sie ja haben, auch verbauen.
Und, wenn man's ein wenig auf die Spitze treiben will, ist der deutliche Unterschied zwischen dem angegebenen (Software ausgelesen) und tatsächlichem (höheren) Verbrauch v.a.im Idle nicht schon ein Minderungsgrund?

Antwort 1 Like

T
TheSmart

Veteran

420 Kommentare 209 Likes

Der Idle-Bug ist ja schon fast ein wenig peinlich für Nvidia..
Denn den hat eigtl AMD für sich reserviert und dann hauen die so ein Ding raus^^

Und ja dieses Leistungsplus hätte ich mir definitiv für die Bro&Butter-Modelle gewünscht.
Denn die sind ja..wie ich es auch schon geschrieben habe, eher unmerklich schneller als die Vorgängergeneration..wobei diese immerhin sogar ein bisschen mehr VRam bestzt^^

Und bei den 329€ würde ich eher die OC-Modelle verorten..aber nicht den..pardon.. optischen Ramsch.. der MSRP-Modelle.
Aber es scheint ja immer mehr in Mode zu kommen bei Nvidia Grakas verkaufen zu wollen, die aussehen als würde nur noch Paketband sie zusammen halten.. aber der Preis ist absolutes Premiumsegment.

Antwort Gefällt mir

Kohlkopf

Mitglied

42 Kommentare 10 Likes

Toller Test!
Hätte die Karte wenigstens 4GB mehr VRAM und würde bei MSRP bei 299€ und nicht $ starten, wäre das echt eine Überlegung gewesen. Schön das MSI hier ein wenig auf die Bauteile geachtet hat. Nicht das dies eine generelle Erwartung an Board-Partnern wäre, da die Karte generell einen Auspreis erfährt.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,360 Kommentare 562 Likes

bin mir grad nicht sicher ob ich den zurückversetzten stecker (eigentlich steckdose) mag, da die Sicherung PCB-seitig zu sein scheint.
Aussparung hin oder her das wird ein Gefummel den Stecker wieder rauszukriegen, oder?

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

@Igor Wallossek
Das PCB der RTX 4060 ähnelt einer Nvidia GT 640 und diese Grafikkarten werden von Nvidia so hoch bepreist :LOL:

Gute Besserung :coffee:

Antwort 2 Likes

Pfannenwender

Veteran

302 Kommentare 195 Likes

Hallo ihr Lieben,
ich les schon ... "gefühlt ewig" mit, aber grad hab ich ein Verständnisproblem, weswegen ich mich jetzt auch angemeldet habe.

4060 MSRP sollte im Game bei 110 Watt liegen, zieht sich tatsächlich aber 130 Watt.
Ich weiß grad nicht, wer das getestet hat (PCGH ?), aber die 4060 verliert sofort linear Leistung, wenn du mim Powerlimit runter gehst.
Drossel ich die 4060 soweit ein, dass sie innerhalb der von Nvidia kolportierten Leistung (Watt) läuft, dann ist sie (Dlss3 mal außen vor) wohl nicht schneller als ne 3060, die rd. 50 € günstiger ist und zudem mit 4 GB mehr aufweisen kann.
Um die 4060 (ohne Dlss3) also schneller als ne 3060 zu machen, musste man wohl bereits die MSRP-Karten ... übertakten?

Stromverbrauch / Effizienz
Ja, die 4060 produziert für die gleiche Anzahl an FPS weniger Abwärme als die 3060.
Das fällt aber doch nur in den warmen Jahreszeiten ins Gewicht, in denen zudem eh weniger gezockt wird.
Werden die Tage kürzer und auch kälter, dann wird mehr gezockt. Die Abwärme der Grafikkarte kann dann man durchaus mit den Heizkosten verrrechnen.
Watt die Grünen sich da schöngerechnet haben ist doch hanebüchen, unabhängig von den herangezogenen Strompreisen. Da würde ich bestenfalls ein Drittel der schöngerechneten Ersparnis gelten lassen wollen, und damit lohnt die Effizienzbetrachtung nicht mehr.

Versteh ich das richtig?

Btw: Die ersten 4060 OC sind auch schon für 329€ zu haben.

Antwort Gefällt mir

Klicke zum Ausklappem
Cerebral_Amoebe

Veteran

118 Kommentare 57 Likes

Hier wir deine Frage beantwortet, zwar durch die Blume, aber verständlich:
https://www.igorslab.de/katerstimmu...heibletten-tierisch-auf-den-hund-kommen-kann/

Was bitter ist, dass selbst die Full HD-Klasse jetzt schon Spulengeräusche macht.
Meine Sapphire Nitro RX 6700XT ist wegen Spulenfiepen rausgeflogen und wurde durch eine MSI RTX 3060 Gaming Z ersetzt.

Schade, dass kein Custom-Hersteller mal eine Grafikkarte mit vernünftigen Bauteilen rausbringt.
Die 50-70€ mehr dafür würde ich sofort bezahlen wollen, sofern die Lüfter dann auch entsprechend leise sind.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Würde die Biegeradien nach hinten verlegen zum Kabel, weg von den Steckern/Kontakten. Dürfte wohl eher bei den ganz dicken Karten mit 12VHPWR Stecker was bringen. Ist wohl eh gedacht dass das Ding genau 1x eingebaut/verkabelt und dann nicht mehr angerührt wird.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia hat mit Multi-Monitor und GSync bereits lange ein Problem im Idle. In meinem Fall (Ampere) zieht die Karte im Idle bis über 70W, wo es eigentlich um die 20W sein müssten und sollten. 100% reproduzierbar, mit Logs belegt.
Der Support bei denen war überfordert, wie es immer ist, wenn ein Niemand wie ich anklopft. Als dann endlich eine Antwort vom Driver Team kam, hiess es plump "das muss so sein" und der Kontakt wurde abgebrochen.
Wie würde "grün" wohl reagieren, wenn ein langhaariger YouTuber, oder ein Jay Sii zwei Cents darüber berichten würde? Toller Support für so ne teure Karte, die Lüge als Ausrede ist noch toller, etwa so toll wie heutzutage über 70W im Idle zu verschwenden. Ironie off/

Antwort Gefällt mir

A
Arcbound

Veteran

138 Kommentare 105 Likes

Klingt für mich fast so, als war es mehr als nur der Einspareffekt, der zum Weglassen der Shunts geführt hat. Denn wer prüft schon so gewissenhaft, was die Karte wirklich verbraucht, und verlässt sich nicht einfach auf die Telemetrie, die ja bisher immer so genau war. Ein Schelm, wer böses dabei denkt.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo miteinander,
mag sein, dass meine Frage den Wissenden hier unsinng vorkommt - dann bitte ich vorab um Milde.
Ich hab nun schon einige Generationen von GPU's und CPU's kommen und gehen sehen.
Die CPU wird austauschbar im Sockel platziert, der dazugh. Speicher ebenso, weshalb eigentlich macht man das mit GPU und Speicher nicht ebenso?
Kann mir das hier jemand beantworten?

Gruss Ahaba

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,929 Likes

Die GPU-Pin-Outs sind sogar innerhalb einer Generation in den einzelnen Leistungsklassen unterschiedlich. Stecksockel wären auch auf Grund der höheren Taktraten beim Speicher und der nötigen Signalintegrität technisch komplett unmöglich. Und es sind Fehlerquellen, die so keiner haben möchte.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo Igor,

vielen Dank für die ausserodentlich schnelle und eindeutige Antwort. Ich bin lediglich interessierter Laie und will das Thema also nicht weiter auswalzen. Wenn ich also laienhaft zusammenfasse, ist der Anteil der ggf. weiterverwendbaren Hauptbestandteile - (Platine und Kühler) so gering, dass es sich nicht lohnt Entwicklung in diese Richtung zu betreiben (ich gehe davon aus, dass man die von dir ausserdem angeführten tech. Schwierigkeiten ggf. lösen könnte)?

Antwort Gefällt mir

h
hellm

Moderator

625 Kommentare 846 Likes

Sollte tatsächlich auf einer Platine bleiben, weil die Ansprüche so unterschiedlich sind. Das mit dem Speicher könnte man allerdings über HBM lösen. Würde man aber einen Sockel einführen, wäre der auf Hersteller bzw. bestimmte GPUs zugeschnitten, ein Stzandard sehr schwer zu realisieren, gibts ja bei den CPUs auch nicht. Sehr unschön, will man seine GPU wechseln.

Nur 90° aufs Mainboard gesteckt, das sollte man dann doch überdenken. Nicht nur, das heutige Kühllösungen die benachbarten Ports sowieso überdecken, es ist einfach kompletter Unsinn was die Physik angeht. Temperatur und Kräfte, die Karte wird weiterhin am Slotblech verschraubt, das meist gar nicht gestützt wird, und der Rest hängt dann am Slot. Axiallüfter in dem Aufbau werden auch immer zumindest einen Teil ihrer eigenen Abluft fressen.

Irgendwann gibts hoffentlich ne Platine zum auf/danebenstecken und Kühllösungen welche man dann ordentlich verschrauben kann. Aber bis sich da mal was ändert.. heute gibts sauteure Backsteine, die auch mal druchbrechen können. Das Design um die Slots stammt noch aus einer Zeit, da hatten die GPUs noch nichmal einen Kühlkörper, nur so ein hübsches, schwarzes Package wie man es von den heutigen Speicherchips noch kennt. Und so wenig Pins, da brauchte man noch nicht mal ein BGA-Package, sah aus wie ein großer Microcontroller.

Antwort Gefällt mir

Klicke zum Ausklappem
G
GreenGenesis

Neuling

2 Kommentare 0 Likes

@Igor Wallossek
Lieber Igor Wallossek
Vielen Dank für die ausführlichen Berichte, kenne keine andere Seite die so schön ins Detail geht. So geht Journalismus!
Zur RTX 4060 im Detail. Tritt der Powerbug nur bei Win11 auf oder auch bei Win10 wenn man da den aktuellen Treiber installiert?
Sowas ist für mich ein Deal killer.
Für den Angegebenen OC im Detail würde ich mich auch sehr interessieren.
Freundliche Grüsse

Antwort Gefällt mir

G
GreenGenesis

Neuling

2 Kommentare 0 Likes

Hoppala, OC steht ja da, habs grad gesehen...

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,360 Kommentare 562 Likes

Sags mal so: Wenn ich 1x jährlich mim 10bar Kompressor durchblase blockiere ich alle Lüfter und stecke sie sicherheitshalber auch noch ab; habe keine Lust da wie bei einem Windrad Strom ins System zu pressen.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung