Grafikkarten Testberichte VGA

MSI GeForce RTX 4060 Gaming X 8G im Overclocking-Test – Da geht doch noch was! Aber…

Real erreichbare Taktraten und Übertaktung

Das mit den Taktraten und dem Auslesen kann ich kurz fassen. Der GPU-Takt der übertakteten Karte geht im kalten Zustand kurz auf stolze 3075 MHz liegt, pegelt sich nach vollständiger Erwärmung dann einige Boost Steps niedriger bei rund 3030 bis 3045 MHz mehr oder weniger alternierend ein, was immer noch eine Menge ist. Das kann man durchaus lassen. Mit manuellem OC des Speichers bekommt man auch die min FPS etwas schöner hin, aber das war ja nicht Zweck unseres OC-Experimentes.

GPU-Temperaturen im Gehäuse

Die Unterschiede sind gar nicht so groß wie befürchtet, wenn man ein ordentliches Gehäuse einsetzt. Schließt man das Panel, dann steigt die GPU-Temperatur (Edge) um 3 Kelvin, der GDC-Hotspot steigt um bis zu 4 Kelvin. Trotzdem sind die Werte von maximal 62 °C (Edge) bzw. 74 °C (Hotspot) nichts, was einem Angst machen müsste. Das kleinere Delta gegenüber der Palit-Karte resultiert aus dem echten Heatsink und den drei Heatpipes im Vergleich zum günstigen DHT-Kühler (Direct Heat Touch) von Palit, wo ein Teil der GPU nur am Aluminium-Heatsink aufliegt.

Infrarot-Messungen – Thermal Imaging

Wir erinnern uns noch an die ungekühlten Spannungswandler auf Seite 3 beim Teardown, wo es der Luftzug richten muss. Und ja, das klappt sogar recht gut. Im Gaming sehen wir jedoch, dass hier ein zweiter MOSFET beim Speicher die Temperatur hätte etwas senken können, aber auch der kostet ja wieder…

Beim Stresstest ist dann der obere Spannungswandler für die GPU am heißesten. Und wir sehen auch sehr schön die einzelnen Layer der Platine, was man sonst nicht so deutlich erkennen kann. In der Summe passt das schon und wer will, klatscht sich eben zwei ultrasofte 3 mm Wärmeleitpads auf die beiden neuralgischen Stellen.

Lüfterkurve und Betriebsgeräusch („Lautstärke“)

Kommen wir nun zu dem, was beim Abtransport der Abwärme automatisch mit entsteht: die guten alten Lüftergeräusche. Allerdings schiebt die Karte den Lüfter erste einmal kräftig an, um sich dann doch wieder etwas weiter unten einzupegeln. Das ist erst einmal ganz gut so. Im Last-Szenario sind das dann rund als 1200 U/min, was kaum hörbar ist. Wir sehen aber einen zeitlichen Versatz zwischen Temperatur und Lüfterkurve, was auf ein etwas zu hoch gesetzten Einschaltpunkt hindeutet.

Doch was ergibt dann die Messung für die MSI GeForce RTX 4060 Gaming X 8G? Mit 31.2 dB(A) im Gaming Loop und reichlich 135 Watt ist das alles kein Thema, auch wenn wir die minimalen Oberwellen des Spulen- und Kondensatorschnarrens hören (und auch als leichte Peaks sehen) können. Aber es ist diesmal nicht wirklich viel.

Spulengeräusche: „Coil Whining“

Über einen Punkt müssen wir deshalb noch sprechen und das ist wieder mal das leidige Spulenfiepen, auch wenn es hier erfreulich niedrig ausfällt und nur bei FPS-Raten oberhalb von 400 FPS hörbar auffällt. Ich schrieb es ja bereits bei der Messung zu den Lastspitzen, dass die Karte etwas spikt. Zumal die fünf Phasen ordentlich schuften müssen. Mehr zur Thematik findet Ihr natürlich wie immer hier:

Spannungswandler in Grafikkarten erklärt – Schaltregler, PWM-Steuerung, echte Phasen und das nervige „Spulenfiepen“

 

Kommentar

Lade neue Kommentare

F
Furda

Urgestein

663 Kommentare 371 Likes

Danke für den Test.
Die Gaming X scheint in Vergleich zur günstigeren Schwester Ventus vom gleichen Hersteller die bessere/leisere Kühlung zu haben (Test bei CB von gestern) mitsamt resp. trotz OC. Wie hoch dieser Aufpreis ausfallen wird, weiss man nicht, weils noch keinen Preis zu geben scheint, wieso auch immer. Der Preis scheint bei dieser 4050 (ich meine 4050, kein Tippfehler) ein Thema sein zu müssen.

Antwort Gefällt mir

Igor Wallossek

1

10,225 Kommentare 18,928 Likes

Die Preise werden runtergehen müssen. Wer wll schon ständig Staub wischen müssen? :D

Antwort 4 Likes

e
eastcoast_pete

Urgestein

1,507 Kommentare 852 Likes

Alleine schon für den hohen Stromverbrauch im Idle verdient Nvidia hier eine silberne Zitrone! Dabei hat Nvidia (wie auch von Dir @Igor Wallossek ) beschrieben das eigentlich sehr gut im Griff, solange sie die entsprechende Hardware, die sie ja haben, auch verbauen.
Und, wenn man's ein wenig auf die Spitze treiben will, ist der deutliche Unterschied zwischen dem angegebenen (Software ausgelesen) und tatsächlichem (höheren) Verbrauch v.a.im Idle nicht schon ein Minderungsgrund?

Antwort 1 Like

T
TheSmart

Veteran

420 Kommentare 209 Likes

Der Idle-Bug ist ja schon fast ein wenig peinlich für Nvidia..
Denn den hat eigtl AMD für sich reserviert und dann hauen die so ein Ding raus^^

Und ja dieses Leistungsplus hätte ich mir definitiv für die Bro&Butter-Modelle gewünscht.
Denn die sind ja..wie ich es auch schon geschrieben habe, eher unmerklich schneller als die Vorgängergeneration..wobei diese immerhin sogar ein bisschen mehr VRam bestzt^^

Und bei den 329€ würde ich eher die OC-Modelle verorten..aber nicht den..pardon.. optischen Ramsch.. der MSRP-Modelle.
Aber es scheint ja immer mehr in Mode zu kommen bei Nvidia Grakas verkaufen zu wollen, die aussehen als würde nur noch Paketband sie zusammen halten.. aber der Preis ist absolutes Premiumsegment.

Antwort Gefällt mir

Kohlkopf

Mitglied

42 Kommentare 10 Likes

Toller Test!
Hätte die Karte wenigstens 4GB mehr VRAM und würde bei MSRP bei 299€ und nicht $ starten, wäre das echt eine Überlegung gewesen. Schön das MSI hier ein wenig auf die Bauteile geachtet hat. Nicht das dies eine generelle Erwartung an Board-Partnern wäre, da die Karte generell einen Auspreis erfährt.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,360 Kommentare 562 Likes

bin mir grad nicht sicher ob ich den zurückversetzten stecker (eigentlich steckdose) mag, da die Sicherung PCB-seitig zu sein scheint.
Aussparung hin oder her das wird ein Gefummel den Stecker wieder rauszukriegen, oder?

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

@Igor Wallossek
Das PCB der RTX 4060 ähnelt einer Nvidia GT 640 und diese Grafikkarten werden von Nvidia so hoch bepreist :LOL:

Gute Besserung :coffee:

Antwort 2 Likes

Pfannenwender

Veteran

302 Kommentare 195 Likes

Hallo ihr Lieben,
ich les schon ... "gefühlt ewig" mit, aber grad hab ich ein Verständnisproblem, weswegen ich mich jetzt auch angemeldet habe.

4060 MSRP sollte im Game bei 110 Watt liegen, zieht sich tatsächlich aber 130 Watt.
Ich weiß grad nicht, wer das getestet hat (PCGH ?), aber die 4060 verliert sofort linear Leistung, wenn du mim Powerlimit runter gehst.
Drossel ich die 4060 soweit ein, dass sie innerhalb der von Nvidia kolportierten Leistung (Watt) läuft, dann ist sie (Dlss3 mal außen vor) wohl nicht schneller als ne 3060, die rd. 50 € günstiger ist und zudem mit 4 GB mehr aufweisen kann.
Um die 4060 (ohne Dlss3) also schneller als ne 3060 zu machen, musste man wohl bereits die MSRP-Karten ... übertakten?

Stromverbrauch / Effizienz
Ja, die 4060 produziert für die gleiche Anzahl an FPS weniger Abwärme als die 3060.
Das fällt aber doch nur in den warmen Jahreszeiten ins Gewicht, in denen zudem eh weniger gezockt wird.
Werden die Tage kürzer und auch kälter, dann wird mehr gezockt. Die Abwärme der Grafikkarte kann dann man durchaus mit den Heizkosten verrrechnen.
Watt die Grünen sich da schöngerechnet haben ist doch hanebüchen, unabhängig von den herangezogenen Strompreisen. Da würde ich bestenfalls ein Drittel der schöngerechneten Ersparnis gelten lassen wollen, und damit lohnt die Effizienzbetrachtung nicht mehr.

Versteh ich das richtig?

Btw: Die ersten 4060 OC sind auch schon für 329€ zu haben.

Antwort Gefällt mir

Klicke zum Ausklappem
Cerebral_Amoebe

Veteran

118 Kommentare 57 Likes

Hier wir deine Frage beantwortet, zwar durch die Blume, aber verständlich:
https://www.igorslab.de/katerstimmu...heibletten-tierisch-auf-den-hund-kommen-kann/

Was bitter ist, dass selbst die Full HD-Klasse jetzt schon Spulengeräusche macht.
Meine Sapphire Nitro RX 6700XT ist wegen Spulenfiepen rausgeflogen und wurde durch eine MSI RTX 3060 Gaming Z ersetzt.

Schade, dass kein Custom-Hersteller mal eine Grafikkarte mit vernünftigen Bauteilen rausbringt.
Die 50-70€ mehr dafür würde ich sofort bezahlen wollen, sofern die Lüfter dann auch entsprechend leise sind.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Würde die Biegeradien nach hinten verlegen zum Kabel, weg von den Steckern/Kontakten. Dürfte wohl eher bei den ganz dicken Karten mit 12VHPWR Stecker was bringen. Ist wohl eh gedacht dass das Ding genau 1x eingebaut/verkabelt und dann nicht mehr angerührt wird.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia hat mit Multi-Monitor und GSync bereits lange ein Problem im Idle. In meinem Fall (Ampere) zieht die Karte im Idle bis über 70W, wo es eigentlich um die 20W sein müssten und sollten. 100% reproduzierbar, mit Logs belegt.
Der Support bei denen war überfordert, wie es immer ist, wenn ein Niemand wie ich anklopft. Als dann endlich eine Antwort vom Driver Team kam, hiess es plump "das muss so sein" und der Kontakt wurde abgebrochen.
Wie würde "grün" wohl reagieren, wenn ein langhaariger YouTuber, oder ein Jay Sii zwei Cents darüber berichten würde? Toller Support für so ne teure Karte, die Lüge als Ausrede ist noch toller, etwa so toll wie heutzutage über 70W im Idle zu verschwenden. Ironie off/

Antwort Gefällt mir

A
Arcbound

Veteran

138 Kommentare 105 Likes

Klingt für mich fast so, als war es mehr als nur der Einspareffekt, der zum Weglassen der Shunts geführt hat. Denn wer prüft schon so gewissenhaft, was die Karte wirklich verbraucht, und verlässt sich nicht einfach auf die Telemetrie, die ja bisher immer so genau war. Ein Schelm, wer böses dabei denkt.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo miteinander,
mag sein, dass meine Frage den Wissenden hier unsinng vorkommt - dann bitte ich vorab um Milde.
Ich hab nun schon einige Generationen von GPU's und CPU's kommen und gehen sehen.
Die CPU wird austauschbar im Sockel platziert, der dazugh. Speicher ebenso, weshalb eigentlich macht man das mit GPU und Speicher nicht ebenso?
Kann mir das hier jemand beantworten?

Gruss Ahaba

Antwort Gefällt mir

Igor Wallossek

1

10,225 Kommentare 18,928 Likes

Die GPU-Pin-Outs sind sogar innerhalb einer Generation in den einzelnen Leistungsklassen unterschiedlich. Stecksockel wären auch auf Grund der höheren Taktraten beim Speicher und der nötigen Signalintegrität technisch komplett unmöglich. Und es sind Fehlerquellen, die so keiner haben möchte.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo Igor,

vielen Dank für die ausserodentlich schnelle und eindeutige Antwort. Ich bin lediglich interessierter Laie und will das Thema also nicht weiter auswalzen. Wenn ich also laienhaft zusammenfasse, ist der Anteil der ggf. weiterverwendbaren Hauptbestandteile - (Platine und Kühler) so gering, dass es sich nicht lohnt Entwicklung in diese Richtung zu betreiben (ich gehe davon aus, dass man die von dir ausserdem angeführten tech. Schwierigkeiten ggf. lösen könnte)?

Antwort Gefällt mir

h
hellm

Moderator

625 Kommentare 846 Likes

Sollte tatsächlich auf einer Platine bleiben, weil die Ansprüche so unterschiedlich sind. Das mit dem Speicher könnte man allerdings über HBM lösen. Würde man aber einen Sockel einführen, wäre der auf Hersteller bzw. bestimmte GPUs zugeschnitten, ein Stzandard sehr schwer zu realisieren, gibts ja bei den CPUs auch nicht. Sehr unschön, will man seine GPU wechseln.

Nur 90° aufs Mainboard gesteckt, das sollte man dann doch überdenken. Nicht nur, das heutige Kühllösungen die benachbarten Ports sowieso überdecken, es ist einfach kompletter Unsinn was die Physik angeht. Temperatur und Kräfte, die Karte wird weiterhin am Slotblech verschraubt, das meist gar nicht gestützt wird, und der Rest hängt dann am Slot. Axiallüfter in dem Aufbau werden auch immer zumindest einen Teil ihrer eigenen Abluft fressen.

Irgendwann gibts hoffentlich ne Platine zum auf/danebenstecken und Kühllösungen welche man dann ordentlich verschrauben kann. Aber bis sich da mal was ändert.. heute gibts sauteure Backsteine, die auch mal druchbrechen können. Das Design um die Slots stammt noch aus einer Zeit, da hatten die GPUs noch nichmal einen Kühlkörper, nur so ein hübsches, schwarzes Package wie man es von den heutigen Speicherchips noch kennt. Und so wenig Pins, da brauchte man noch nicht mal ein BGA-Package, sah aus wie ein großer Microcontroller.

Antwort Gefällt mir

Klicke zum Ausklappem
G
GreenGenesis

Neuling

2 Kommentare 0 Likes

@Igor Wallossek
Lieber Igor Wallossek
Vielen Dank für die ausführlichen Berichte, kenne keine andere Seite die so schön ins Detail geht. So geht Journalismus!
Zur RTX 4060 im Detail. Tritt der Powerbug nur bei Win11 auf oder auch bei Win10 wenn man da den aktuellen Treiber installiert?
Sowas ist für mich ein Deal killer.
Für den Angegebenen OC im Detail würde ich mich auch sehr interessieren.
Freundliche Grüsse

Antwort Gefällt mir

G
GreenGenesis

Neuling

2 Kommentare 0 Likes

Hoppala, OC steht ja da, habs grad gesehen...

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,360 Kommentare 562 Likes

Sags mal so: Wenn ich 1x jährlich mim 10bar Kompressor durchblase blockiere ich alle Lüfter und stecke sie sicherheitshalber auch noch ab; habe keine Lust da wie bei einem Windrad Strom ins System zu pressen.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung