GPUs Graphics Reviews

MSI GeForce RTX 4060 Gaming X 8G Review with 3 GHz Overcklocking – There’s still something to do! But…

Teardown

The card is also quickly disassembled, because where there is not much on it, there is not much to disassemble. But we know that already.

PCB layout and components

Let’s start with the PCB. It is a bit more valuable and complete than yesterday’s minimal product, but still a horrendous cost-down. And since from time to time readers ask how and where I analyze the boards, I put a picture online. I didn’t need the multimeter from Rohde und Schwarz this time, it was too easy:

NVVDD is the most important voltage, as always, and so it results in a voltage converter design with a total of four phases and the resulting control circuits for NVVDD alone. So, you save another phase compared to the RTX 4060 Ti FE, but this is somehow still acceptable considering the significantly lower TDP. Considering possible hotspots and a higher efficiency, more phases would certainly have made more sense. But it should also be about the price and so a compromise has to be made again.

This all looks a bit meager at first glance, but it’s enough. A very cheap PWM controller is used for NVVDD (GPU core), FBVDDQ (memory) is solved via a trivial buck converter. For NVVDD, MSI uses UPI’s uP9512U, which is easier with the maximum four phases this time. There are no DrMOS, the voltage converters are all discrete with N-channel MOSFETS and separate low and high sides.

All used MOSFETs for NVVDD are normal priced products from NIKO-SEM (NIKOS). The PKE66BB used in all control circuits for the low side is an N-channel enhancement mode MOSFET for a maximum of 30 amps. The RDS(ON) is typically 2 mΩ and can rise to 2.6 mΩ when fully heated. The PK616BA used in all control circuits for the high side is also an N-channel enhancement mode MOSFET, but it is not decisive for the power to be produced. It is driven by a separate gate driver.

The one phase for FBVDDQ (memory) is also implemented discretely and consists of the same MOSFETs as the four NVVDD phases, but without double low-side. The currents are also significantly lower.

The 12V rails at the 6 2 connector are combined to a single rail directly after the socket, another one is connected to the PEG. I’ll get to that as well.

Where is the control of the flowing currents? Kaputt gespart!

NVIDIA is actually known for permanently monitoring every 12V rail by means of shunts and the voltage drop that occurs there. Thus, a suitable monitoring chip can be used to determine the flowing currents and the firmware can then throttle the power supply so that the maximum power target stored in the firmware is never exceeded. Interestingly, these shunts do not exist on any of the RTX 4060 boards and a suitable monitoring chip is also completely missing. At least MSI provides the board with one fuse per rail, how noble.

And I’ll repeat it from yesterday: NVIDIA declares the normal RTX 4060 as 115 watt cards and even talks about typical 110 watts during gaming. But that is exactly untrue. Yes, the values that can be read out via NVAPI are dutifully at 115 watts and below, but unfortunately they are not even close to correct. While the interface remains at 115 to 116 watts in the software, I actually measure over 130 watts on the rails and 4 games! That’s 15 watts more than the maximum allowed and still 20 watts above the communicated value for the games! Thus, the card is by far not as efficient as the interface suggests and the PR slides would like it to be. That would be over 18 percent more for gaming! But we’ll get to the exact values later and we see that not only the idle power consumption is a bigger construction site.

You need a special procedure to be able to control the single control circuits at all. The keyword is DCR (Direct Current Resistance). In the end, every component has very specific characteristics in this respect. To make it short: DCR is the basis for calculating or measuring temperatures and especially currents. But how does the controller find out exactly which currents flow in which control loop? The monitoring can be different, because there are – who is surprised – different methods for it.

We have already analyzed that the voltage transformers have been implemented at the technical level of 10 years ago. Intelligent Smart Power Stages (SPS), which measure the drain currents of the MOSFETS for the MOSFET DCR in real time, are pure utopia here. One replaces the whole thing with the much cheaper Inductor DCR in a discrete circuit, i.e. a current measurement via the inductive resistance of the respective filter coils in the output area. However, the accuracy of this solution is significantly lower and is also strongly influenced by fluctuations in the component quality. AMD has relied on this Inductor DCR for years, but it is no more than a rough estimate and becomes increasingly inaccurate especially at higher temperatures.

The BIOS is in the usual place on the back of the board and the generation of the remaining extra-low voltages is also as usual. So, there are no more special features. By the way, the PEG is also fused and has to do without the shunt for this.

And for the light blob and various control tasks, MSI gives the card a smaller MCU, after all.

 

 

The cooler

The two 9.8 cm fans (opening 10 cm) each have 9 rotor blades and are controlled together. The usual second control curve is unfortunately omitted on the GeForce RTX 4060. MSI also uses a simple fin heatsink in horizontal design and three 6 mm heatpipes made of copper composite material that are soldered and nickel-plated to the heatsink. The voltage converters are not cooled via the heatsink, but rely on the airflow. We’ll see later that this is enough. The pads are a bit better than Palit’s this time.

The backplate is made of light metal and only serves as stabilization. There is no need to report more here, because there is nothing.

 

Kommentar

Lade neue Kommentare

F
Furda

Urgestein

663 Kommentare 371 Likes

Danke für den Test.
Die Gaming X scheint in Vergleich zur günstigeren Schwester Ventus vom gleichen Hersteller die bessere/leisere Kühlung zu haben (Test bei CB von gestern) mitsamt resp. trotz OC. Wie hoch dieser Aufpreis ausfallen wird, weiss man nicht, weils noch keinen Preis zu geben scheint, wieso auch immer. Der Preis scheint bei dieser 4050 (ich meine 4050, kein Tippfehler) ein Thema sein zu müssen.

Antwort Gefällt mir

Igor Wallossek

1

10,273 Kommentare 19,014 Likes

Die Preise werden runtergehen müssen. Wer wll schon ständig Staub wischen müssen? :D

Antwort 4 Likes

e
eastcoast_pete

Urgestein

1,534 Kommentare 864 Likes

Alleine schon für den hohen Stromverbrauch im Idle verdient Nvidia hier eine silberne Zitrone! Dabei hat Nvidia (wie auch von Dir @Igor Wallossek ) beschrieben das eigentlich sehr gut im Griff, solange sie die entsprechende Hardware, die sie ja haben, auch verbauen.
Und, wenn man's ein wenig auf die Spitze treiben will, ist der deutliche Unterschied zwischen dem angegebenen (Software ausgelesen) und tatsächlichem (höheren) Verbrauch v.a.im Idle nicht schon ein Minderungsgrund?

Antwort 1 Like

T
TheSmart

Veteran

422 Kommentare 213 Likes

Der Idle-Bug ist ja schon fast ein wenig peinlich für Nvidia..
Denn den hat eigtl AMD für sich reserviert und dann hauen die so ein Ding raus^^

Und ja dieses Leistungsplus hätte ich mir definitiv für die Bro&Butter-Modelle gewünscht.
Denn die sind ja..wie ich es auch schon geschrieben habe, eher unmerklich schneller als die Vorgängergeneration..wobei diese immerhin sogar ein bisschen mehr VRam bestzt^^

Und bei den 329€ würde ich eher die OC-Modelle verorten..aber nicht den..pardon.. optischen Ramsch.. der MSRP-Modelle.
Aber es scheint ja immer mehr in Mode zu kommen bei Nvidia Grakas verkaufen zu wollen, die aussehen als würde nur noch Paketband sie zusammen halten.. aber der Preis ist absolutes Premiumsegment.

Antwort Gefällt mir

Kohlkopf

Mitglied

43 Kommentare 10 Likes

Toller Test!
Hätte die Karte wenigstens 4GB mehr VRAM und würde bei MSRP bei 299€ und nicht $ starten, wäre das echt eine Überlegung gewesen. Schön das MSI hier ein wenig auf die Bauteile geachtet hat. Nicht das dies eine generelle Erwartung an Board-Partnern wäre, da die Karte generell einen Auspreis erfährt.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,371 Kommentare 572 Likes

bin mir grad nicht sicher ob ich den zurückversetzten stecker (eigentlich steckdose) mag, da die Sicherung PCB-seitig zu sein scheint.
Aussparung hin oder her das wird ein Gefummel den Stecker wieder rauszukriegen, oder?

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

@Igor Wallossek
Das PCB der RTX 4060 ähnelt einer Nvidia GT 640 und diese Grafikkarten werden von Nvidia so hoch bepreist :LOL:

Gute Besserung :coffee:

Antwort 2 Likes

Pfannenwender

Veteran

302 Kommentare 195 Likes

Hallo ihr Lieben,
ich les schon ... "gefühlt ewig" mit, aber grad hab ich ein Verständnisproblem, weswegen ich mich jetzt auch angemeldet habe.

4060 MSRP sollte im Game bei 110 Watt liegen, zieht sich tatsächlich aber 130 Watt.
Ich weiß grad nicht, wer das getestet hat (PCGH ?), aber die 4060 verliert sofort linear Leistung, wenn du mim Powerlimit runter gehst.
Drossel ich die 4060 soweit ein, dass sie innerhalb der von Nvidia kolportierten Leistung (Watt) läuft, dann ist sie (Dlss3 mal außen vor) wohl nicht schneller als ne 3060, die rd. 50 € günstiger ist und zudem mit 4 GB mehr aufweisen kann.
Um die 4060 (ohne Dlss3) also schneller als ne 3060 zu machen, musste man wohl bereits die MSRP-Karten ... übertakten?

Stromverbrauch / Effizienz
Ja, die 4060 produziert für die gleiche Anzahl an FPS weniger Abwärme als die 3060.
Das fällt aber doch nur in den warmen Jahreszeiten ins Gewicht, in denen zudem eh weniger gezockt wird.
Werden die Tage kürzer und auch kälter, dann wird mehr gezockt. Die Abwärme der Grafikkarte kann dann man durchaus mit den Heizkosten verrrechnen.
Watt die Grünen sich da schöngerechnet haben ist doch hanebüchen, unabhängig von den herangezogenen Strompreisen. Da würde ich bestenfalls ein Drittel der schöngerechneten Ersparnis gelten lassen wollen, und damit lohnt die Effizienzbetrachtung nicht mehr.

Versteh ich das richtig?

Btw: Die ersten 4060 OC sind auch schon für 329€ zu haben.

Antwort Gefällt mir

Klicke zum Ausklappem
Cerebral_Amoebe

Veteran

118 Kommentare 57 Likes

Hier wir deine Frage beantwortet, zwar durch die Blume, aber verständlich:
https://www.igorslab.de/katerstimmu...heibletten-tierisch-auf-den-hund-kommen-kann/

Was bitter ist, dass selbst die Full HD-Klasse jetzt schon Spulengeräusche macht.
Meine Sapphire Nitro RX 6700XT ist wegen Spulenfiepen rausgeflogen und wurde durch eine MSI RTX 3060 Gaming Z ersetzt.

Schade, dass kein Custom-Hersteller mal eine Grafikkarte mit vernünftigen Bauteilen rausbringt.
Die 50-70€ mehr dafür würde ich sofort bezahlen wollen, sofern die Lüfter dann auch entsprechend leise sind.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Würde die Biegeradien nach hinten verlegen zum Kabel, weg von den Steckern/Kontakten. Dürfte wohl eher bei den ganz dicken Karten mit 12VHPWR Stecker was bringen. Ist wohl eh gedacht dass das Ding genau 1x eingebaut/verkabelt und dann nicht mehr angerührt wird.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia hat mit Multi-Monitor und GSync bereits lange ein Problem im Idle. In meinem Fall (Ampere) zieht die Karte im Idle bis über 70W, wo es eigentlich um die 20W sein müssten und sollten. 100% reproduzierbar, mit Logs belegt.
Der Support bei denen war überfordert, wie es immer ist, wenn ein Niemand wie ich anklopft. Als dann endlich eine Antwort vom Driver Team kam, hiess es plump "das muss so sein" und der Kontakt wurde abgebrochen.
Wie würde "grün" wohl reagieren, wenn ein langhaariger YouTuber, oder ein Jay Sii zwei Cents darüber berichten würde? Toller Support für so ne teure Karte, die Lüge als Ausrede ist noch toller, etwa so toll wie heutzutage über 70W im Idle zu verschwenden. Ironie off/

Antwort Gefällt mir

A
Arcbound

Veteran

138 Kommentare 105 Likes

Klingt für mich fast so, als war es mehr als nur der Einspareffekt, der zum Weglassen der Shunts geführt hat. Denn wer prüft schon so gewissenhaft, was die Karte wirklich verbraucht, und verlässt sich nicht einfach auf die Telemetrie, die ja bisher immer so genau war. Ein Schelm, wer böses dabei denkt.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo miteinander,
mag sein, dass meine Frage den Wissenden hier unsinng vorkommt - dann bitte ich vorab um Milde.
Ich hab nun schon einige Generationen von GPU's und CPU's kommen und gehen sehen.
Die CPU wird austauschbar im Sockel platziert, der dazugh. Speicher ebenso, weshalb eigentlich macht man das mit GPU und Speicher nicht ebenso?
Kann mir das hier jemand beantworten?

Gruss Ahaba

Antwort Gefällt mir

Igor Wallossek

1

10,273 Kommentare 19,014 Likes

Die GPU-Pin-Outs sind sogar innerhalb einer Generation in den einzelnen Leistungsklassen unterschiedlich. Stecksockel wären auch auf Grund der höheren Taktraten beim Speicher und der nötigen Signalintegrität technisch komplett unmöglich. Und es sind Fehlerquellen, die so keiner haben möchte.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo Igor,

vielen Dank für die ausserodentlich schnelle und eindeutige Antwort. Ich bin lediglich interessierter Laie und will das Thema also nicht weiter auswalzen. Wenn ich also laienhaft zusammenfasse, ist der Anteil der ggf. weiterverwendbaren Hauptbestandteile - (Platine und Kühler) so gering, dass es sich nicht lohnt Entwicklung in diese Richtung zu betreiben (ich gehe davon aus, dass man die von dir ausserdem angeführten tech. Schwierigkeiten ggf. lösen könnte)?

Antwort Gefällt mir

h
hellm

Moderator

631 Kommentare 849 Likes

Sollte tatsächlich auf einer Platine bleiben, weil die Ansprüche so unterschiedlich sind. Das mit dem Speicher könnte man allerdings über HBM lösen. Würde man aber einen Sockel einführen, wäre der auf Hersteller bzw. bestimmte GPUs zugeschnitten, ein Stzandard sehr schwer zu realisieren, gibts ja bei den CPUs auch nicht. Sehr unschön, will man seine GPU wechseln.

Nur 90° aufs Mainboard gesteckt, das sollte man dann doch überdenken. Nicht nur, das heutige Kühllösungen die benachbarten Ports sowieso überdecken, es ist einfach kompletter Unsinn was die Physik angeht. Temperatur und Kräfte, die Karte wird weiterhin am Slotblech verschraubt, das meist gar nicht gestützt wird, und der Rest hängt dann am Slot. Axiallüfter in dem Aufbau werden auch immer zumindest einen Teil ihrer eigenen Abluft fressen.

Irgendwann gibts hoffentlich ne Platine zum auf/danebenstecken und Kühllösungen welche man dann ordentlich verschrauben kann. Aber bis sich da mal was ändert.. heute gibts sauteure Backsteine, die auch mal druchbrechen können. Das Design um die Slots stammt noch aus einer Zeit, da hatten die GPUs noch nichmal einen Kühlkörper, nur so ein hübsches, schwarzes Package wie man es von den heutigen Speicherchips noch kennt. Und so wenig Pins, da brauchte man noch nicht mal ein BGA-Package, sah aus wie ein großer Microcontroller.

Antwort Gefällt mir

Klicke zum Ausklappem
G
GreenGenesis

Neuling

2 Kommentare 0 Likes

@Igor Wallossek
Lieber Igor Wallossek
Vielen Dank für die ausführlichen Berichte, kenne keine andere Seite die so schön ins Detail geht. So geht Journalismus!
Zur RTX 4060 im Detail. Tritt der Powerbug nur bei Win11 auf oder auch bei Win10 wenn man da den aktuellen Treiber installiert?
Sowas ist für mich ein Deal killer.
Für den Angegebenen OC im Detail würde ich mich auch sehr interessieren.
Freundliche Grüsse

Antwort Gefällt mir

G
GreenGenesis

Neuling

2 Kommentare 0 Likes

Hoppala, OC steht ja da, habs grad gesehen...

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,371 Kommentare 572 Likes

Sags mal so: Wenn ich 1x jährlich mim 10bar Kompressor durchblase blockiere ich alle Lüfter und stecke sie sicherheitshalber auch noch ab; habe keine Lust da wie bei einem Windrad Strom ins System zu pressen.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung