Grafikkarten Testberichte VGA

MSI GeForce RTX 4060 Gaming X 8G im Overclocking-Test – Da geht doch noch was! Aber…

Gestern hab es das Review der MSRP-Karten und heute dürfen wir Normalsterblichen dann endlich auch die etwas besseren Karten testen. Dass da noch viel Luft nach oben war, ohne dass sich das Testobjekt zum Krüppel saufen musste, zeigt einmal mehr, dass die knapp auf Kante genähten „Einsteigermodelle“ einmal mehr mit Argwohn zu betrachten sind. Nicht, dass es dafür keine Zielgruppe gäbe, aber mit diesen Modellen den Ersteindruck zu erzeugen, ist psychologisch kompletter Nonsens. Wobei sich das mit dem Ersteindruck ja durch willige Video-Handlanger etwas relativiert.

Die heute getestete MSI Gaming X 8G ist eigentlich genau dort, wo ich eine Launchkarte gern gesehen hätte. Und weil sich die kleine Ada so willig und hingebungsvoll treten lassen wollte, habe ich alle Benchmarks gleich komplett im 3-GHz-Setup gemacht. Die Mehrleistung an der Steckdose hielt sich dabei arg in Grenzen und der Chip lief trotzdem satte 250 MHz schneller als der gestern getestete. Offensichtlich gabs auch hier wieder ein gnadenloses Binning in Reinkultur. Die MSI RTX 4060 Ventus 8G ist hier das komplette Kontrastprogramm und in Bezug auf Geräuschentwicklung und Hitzewallungen sogar etwas schlechter als die Palit von gestern. Ich schrieb es ja heute früh schon in meinem Editorial:

Heutzutage wird ja gefühlt jede Schraube mit einem NDA auf den Markt geworfen. Und als wäre das noch nicht genug, teilt man dann so einen hochinteressanten Schrauben-Launch auch noch in zwei Teile: Das Linksgewinde kommt am Mittwoch, das Rechtsgewinde mit Überwurfmutter dann am Donnerstag. Und damit die Influenzer nicht verhungern müssen, gibts dann ein paar Tage vorher noch unter notarieller Aufsicht das betreute Einschrauben der neuen Befestigungshilfen in eine vorher gut geölte Mutter, damit auch ja nichts schiefgeht. Am besten in den YouTube Shorts oder gleich TikTok. Wegen der gehandicapten Aufmerksamkeitsspanne der Zielgruppe.

 

Heute gibt es also die überdrehte Schraube mit dem Rechtsgewinde und ich habe, auch wegen der bewussten Aufmerksamkeitsspanne, die Inhalte etwas gestrafft. Das wird dem Ganzen sicher gut tun. Natürlich gibt es wie gewohnt auch die Benchmarks, den umfassenden Teardown (sehr wichtig!), eine sehr aufwändige Platinen- und Kühler-Analyse mit einigem Reverse-Engineering, sowie die Analyse der Leistungsaufnahme und der Lastspitzen samt passender Netzteilempfehlung (genauso interessant). Den Rest hatten wir ja gestern schon.

Wichtiges Vorwort zur Leistungsaufnahme

Dass NVIDIA die Telemetrie zum Teil komplett verhunzt hat, das haben wir bereits gestern gelesen und ich werde das heute aus gutem Grund auch noch einmal thematisieren. Vorab möchte ich aber noch einen Teil richtig stellen, den ich gestern Nachmittag noch einmal nachgetestet habe. Hier geht es im die Leistungsaufnahme im Idle. Nach weiteren Treiber-Deinstallationen und Neuinstallationen ist die getestete Karte dann irgendwann doch noch heruntergetaktet. Das wiederum senkte die Leistungsaufnahme auf rund 14 Watt, mit Spitzen bis über 30 Watt. Auch das ist in Anbetracht so einer winzigen Karte noch zuviel, aber schon deutlich besser. Allerdings verharrte die Telemetrie dann immer noch bei über 52 Watt, was einmal mehr beweist, dass sich NVIDIA hier durch das Weglassen der bisherigen Stromüberwachung ein gediegenes Eigentor geschossen hat. Ohne externe Messung kann man alle Ausgabewerte, egal welcher Software, einfach nicht ernst nehmen. Das sind energetische Lyrics, nicht mehr.

Ein Test mit Übertaktung: OC-Karte wörtlich genommen

Kommen wir nun zur Übertaktung beim heutigen Test. ich habe, wie man im Bild oben sehen kann, das Power Limit auf das Maximum von 121 Watt gestellt. Parallel dazu habe ich den Offset um 150 MHz angehoben. Den Speicher habe ich bewusst nicht übertaktet, da ich den Unterschied rein für den GPU-Takt testen wollte. Es macht am Ende auch keine großen Unterschiede mehr. Das zum besseren Verständnis des heutigen Artikels vorab. Und für diejenigen, die gestern noch nichts gelesen haben oder vergleichend mitlesen wollen, hier noch einmal zwei Links zum Thema RTX 4060 8G:

 

Die MSI GeForce RTX 4060 Gaming X 8G im Detail

Die Karte wiegt nur noch 584 Gramm und ist damit sogar leichter als die gestern getestete Palit-Karte mit 649 Gramm, ein richtiges Eintags-Fliegengewicht. Die Länge von 24,5 cm ist moderat und die Höhe von 12 cm liegt etwas über dem Normalmaß. Positiv ist, dass die Karte mit einem einzigen, weiter nach unten versetzten 6+2-Pin auskommt. Die Einbautiefe beträgt 3,8 cm zuzüglich der 5 mm für den Backplate-Ansatz auf der Rückseite.

Damit ist sie eine echte Dual-Slot-Karte. Die dunkle Kunststoffabdeckung folgt MSIs Gaming-X-Formensprache auch die Lüfter und Slotblende sind nicht neu. Nur dass alles nicht ganz so billig aussieht wie bei der günstigeren Ventus. Auch MSI nutzt ein Single-BIOS und wer übertakten möchte, muss ein passendes Tool verwenden. Die Haptik ist zumindest ok, denn die Backplate ist aus Leichtmetall und RGB gibt es auch.

Man kann ja aber nicht nur Strom in die Karte stecken, sondern auch Videoanschlüsse. Es sind derer vier, um ganz genau zu sein, als da wären: dreimal DisplayPort 1.4a und einmal HDMI 2.1a. Das ist vor allem beim DisplayPort schade, wenn es um die neuen Spezifikationen geht. Chance vertan, leider. Und beim HDMI muss man ab 4K schon mit der Kompression tricksen, wenn es über 120 Hz gehen soll.

Der Screenshot aus GPU-Z zeigt uns Standardvorgaben der RTX 4060, die bei allen OC-Karten ähnlich ausfallen, denn es gibt etwas Boost-Takt mehr. Und wer ganz genau hinschaut, der sieht auch meine 150 MHz Offset, die ich der übertakteten Karte gegönnt habe und die Folgen für den Boost. Der liegt übrigens in der Realität noch viel höher…

  RTX 4060 Ti RTX 4060 RTX 3060 Ti RTX 3060
Architecture Ada Lovelace Ada Lovelace Ampere Ampere
Process node TSMC N4 TSMC N4 Samsung 8 nm Samsung 8 nm
CUDA cores 4352 3072 4864 3584
Ray tracing cores 32 cores (3rd-gen) 24 (3rd-gen) 38 cores (2nd-gen)  28 cores (2nd-gen)
Tensor cores 128 cores (4th-gen)  96 (4th-gen) 152 cores (3rd-gen) 112 cores (3rd-gen)
Base clock speed 2.31 GHz 1.83 GHz 1.41 GHz 1.32 GHz
Boost clock speed 2.54 GHz 2.46 GHz 1.76 GHz 1.78 GHz
VRAM  8 / 16 GB GDDR6 8 GB GDDR6 8 GB GDDR6/6X 8 / 12 GB GDDR6
L2 cache 32 MB 28 MB 4 MB 3 MB
Bus width 128-bit 128-bit 256-bit 192-bit
Total Graphics Power (TGP) 160 W/165 W 115 W 200 W 170 W

Damit wäre diese erste Seite geschafft und wir bereiten uns schon einmal langsam aufs Testgeschehen vor.

 

Kommentar

Lade neue Kommentare

F
Furda

Urgestein

663 Kommentare 370 Likes

Danke für den Test.
Die Gaming X scheint in Vergleich zur günstigeren Schwester Ventus vom gleichen Hersteller die bessere/leisere Kühlung zu haben (Test bei CB von gestern) mitsamt resp. trotz OC. Wie hoch dieser Aufpreis ausfallen wird, weiss man nicht, weils noch keinen Preis zu geben scheint, wieso auch immer. Der Preis scheint bei dieser 4050 (ich meine 4050, kein Tippfehler) ein Thema sein zu müssen.

Antwort Gefällt mir

Igor Wallossek

1

10,199 Kommentare 18,815 Likes

Die Preise werden runtergehen müssen. Wer wll schon ständig Staub wischen müssen? :D

Antwort 4 Likes

e
eastcoast_pete

Urgestein

1,476 Kommentare 834 Likes

Alleine schon für den hohen Stromverbrauch im Idle verdient Nvidia hier eine silberne Zitrone! Dabei hat Nvidia (wie auch von Dir @Igor Wallossek ) beschrieben das eigentlich sehr gut im Griff, solange sie die entsprechende Hardware, die sie ja haben, auch verbauen.
Und, wenn man's ein wenig auf die Spitze treiben will, ist der deutliche Unterschied zwischen dem angegebenen (Software ausgelesen) und tatsächlichem (höheren) Verbrauch v.a.im Idle nicht schon ein Minderungsgrund?

Antwort 1 Like

T
TheSmart

Veteran

418 Kommentare 209 Likes

Der Idle-Bug ist ja schon fast ein wenig peinlich für Nvidia..
Denn den hat eigtl AMD für sich reserviert und dann hauen die so ein Ding raus^^

Und ja dieses Leistungsplus hätte ich mir definitiv für die Bro&Butter-Modelle gewünscht.
Denn die sind ja..wie ich es auch schon geschrieben habe, eher unmerklich schneller als die Vorgängergeneration..wobei diese immerhin sogar ein bisschen mehr VRam bestzt^^

Und bei den 329€ würde ich eher die OC-Modelle verorten..aber nicht den..pardon.. optischen Ramsch.. der MSRP-Modelle.
Aber es scheint ja immer mehr in Mode zu kommen bei Nvidia Grakas verkaufen zu wollen, die aussehen als würde nur noch Paketband sie zusammen halten.. aber der Preis ist absolutes Premiumsegment.

Antwort Gefällt mir

Kohlkopf

Mitglied

42 Kommentare 10 Likes

Toller Test!
Hätte die Karte wenigstens 4GB mehr VRAM und würde bei MSRP bei 299€ und nicht $ starten, wäre das echt eine Überlegung gewesen. Schön das MSI hier ein wenig auf die Bauteile geachtet hat. Nicht das dies eine generelle Erwartung an Board-Partnern wäre, da die Karte generell einen Auspreis erfährt.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,348 Kommentare 551 Likes

bin mir grad nicht sicher ob ich den zurückversetzten stecker (eigentlich steckdose) mag, da die Sicherung PCB-seitig zu sein scheint.
Aussparung hin oder her das wird ein Gefummel den Stecker wieder rauszukriegen, oder?

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

@Igor Wallossek
Das PCB der RTX 4060 ähnelt einer Nvidia GT 640 und diese Grafikkarten werden von Nvidia so hoch bepreist :LOL:

Gute Besserung :coffee:

Antwort 2 Likes

Pfannenwender

Veteran

302 Kommentare 195 Likes

Hallo ihr Lieben,
ich les schon ... "gefühlt ewig" mit, aber grad hab ich ein Verständnisproblem, weswegen ich mich jetzt auch angemeldet habe.

4060 MSRP sollte im Game bei 110 Watt liegen, zieht sich tatsächlich aber 130 Watt.
Ich weiß grad nicht, wer das getestet hat (PCGH ?), aber die 4060 verliert sofort linear Leistung, wenn du mim Powerlimit runter gehst.
Drossel ich die 4060 soweit ein, dass sie innerhalb der von Nvidia kolportierten Leistung (Watt) läuft, dann ist sie (Dlss3 mal außen vor) wohl nicht schneller als ne 3060, die rd. 50 € günstiger ist und zudem mit 4 GB mehr aufweisen kann.
Um die 4060 (ohne Dlss3) also schneller als ne 3060 zu machen, musste man wohl bereits die MSRP-Karten ... übertakten?

Stromverbrauch / Effizienz
Ja, die 4060 produziert für die gleiche Anzahl an FPS weniger Abwärme als die 3060.
Das fällt aber doch nur in den warmen Jahreszeiten ins Gewicht, in denen zudem eh weniger gezockt wird.
Werden die Tage kürzer und auch kälter, dann wird mehr gezockt. Die Abwärme der Grafikkarte kann dann man durchaus mit den Heizkosten verrrechnen.
Watt die Grünen sich da schöngerechnet haben ist doch hanebüchen, unabhängig von den herangezogenen Strompreisen. Da würde ich bestenfalls ein Drittel der schöngerechneten Ersparnis gelten lassen wollen, und damit lohnt die Effizienzbetrachtung nicht mehr.

Versteh ich das richtig?

Btw: Die ersten 4060 OC sind auch schon für 329€ zu haben.

Antwort Gefällt mir

Klicke zum Ausklappem
Cerebral_Amoebe

Veteran

118 Kommentare 57 Likes

Hier wir deine Frage beantwortet, zwar durch die Blume, aber verständlich:
https://www.igorslab.de/katerstimmu...heibletten-tierisch-auf-den-hund-kommen-kann/

Was bitter ist, dass selbst die Full HD-Klasse jetzt schon Spulengeräusche macht.
Meine Sapphire Nitro RX 6700XT ist wegen Spulenfiepen rausgeflogen und wurde durch eine MSI RTX 3060 Gaming Z ersetzt.

Schade, dass kein Custom-Hersteller mal eine Grafikkarte mit vernünftigen Bauteilen rausbringt.
Die 50-70€ mehr dafür würde ich sofort bezahlen wollen, sofern die Lüfter dann auch entsprechend leise sind.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

Würde die Biegeradien nach hinten verlegen zum Kabel, weg von den Steckern/Kontakten. Dürfte wohl eher bei den ganz dicken Karten mit 12VHPWR Stecker was bringen. Ist wohl eh gedacht dass das Ding genau 1x eingebaut/verkabelt und dann nicht mehr angerührt wird.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

Nvidia hat mit Multi-Monitor und GSync bereits lange ein Problem im Idle. In meinem Fall (Ampere) zieht die Karte im Idle bis über 70W, wo es eigentlich um die 20W sein müssten und sollten. 100% reproduzierbar, mit Logs belegt.
Der Support bei denen war überfordert, wie es immer ist, wenn ein Niemand wie ich anklopft. Als dann endlich eine Antwort vom Driver Team kam, hiess es plump "das muss so sein" und der Kontakt wurde abgebrochen.
Wie würde "grün" wohl reagieren, wenn ein langhaariger YouTuber, oder ein Jay Sii zwei Cents darüber berichten würde? Toller Support für so ne teure Karte, die Lüge als Ausrede ist noch toller, etwa so toll wie heutzutage über 70W im Idle zu verschwenden. Ironie off/

Antwort Gefällt mir

A
Arcbound

Veteran

138 Kommentare 105 Likes

Klingt für mich fast so, als war es mehr als nur der Einspareffekt, der zum Weglassen der Shunts geführt hat. Denn wer prüft schon so gewissenhaft, was die Karte wirklich verbraucht, und verlässt sich nicht einfach auf die Telemetrie, die ja bisher immer so genau war. Ein Schelm, wer böses dabei denkt.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo miteinander,
mag sein, dass meine Frage den Wissenden hier unsinng vorkommt - dann bitte ich vorab um Milde.
Ich hab nun schon einige Generationen von GPU's und CPU's kommen und gehen sehen.
Die CPU wird austauschbar im Sockel platziert, der dazugh. Speicher ebenso, weshalb eigentlich macht man das mit GPU und Speicher nicht ebenso?
Kann mir das hier jemand beantworten?

Gruss Ahaba

Antwort Gefällt mir

Igor Wallossek

1

10,199 Kommentare 18,815 Likes

Die GPU-Pin-Outs sind sogar innerhalb einer Generation in den einzelnen Leistungsklassen unterschiedlich. Stecksockel wären auch auf Grund der höheren Taktraten beim Speicher und der nötigen Signalintegrität technisch komplett unmöglich. Und es sind Fehlerquellen, die so keiner haben möchte.

Antwort Gefällt mir

A
Ahaba

Mitglied

10 Kommentare 2 Likes

Hallo Igor,

vielen Dank für die ausserodentlich schnelle und eindeutige Antwort. Ich bin lediglich interessierter Laie und will das Thema also nicht weiter auswalzen. Wenn ich also laienhaft zusammenfasse, ist der Anteil der ggf. weiterverwendbaren Hauptbestandteile - (Platine und Kühler) so gering, dass es sich nicht lohnt Entwicklung in diese Richtung zu betreiben (ich gehe davon aus, dass man die von dir ausserdem angeführten tech. Schwierigkeiten ggf. lösen könnte)?

Antwort Gefällt mir

h
hellm

Moderator

617 Kommentare 841 Likes

Sollte tatsächlich auf einer Platine bleiben, weil die Ansprüche so unterschiedlich sind. Das mit dem Speicher könnte man allerdings über HBM lösen. Würde man aber einen Sockel einführen, wäre der auf Hersteller bzw. bestimmte GPUs zugeschnitten, ein Stzandard sehr schwer zu realisieren, gibts ja bei den CPUs auch nicht. Sehr unschön, will man seine GPU wechseln.

Nur 90° aufs Mainboard gesteckt, das sollte man dann doch überdenken. Nicht nur, das heutige Kühllösungen die benachbarten Ports sowieso überdecken, es ist einfach kompletter Unsinn was die Physik angeht. Temperatur und Kräfte, die Karte wird weiterhin am Slotblech verschraubt, das meist gar nicht gestützt wird, und der Rest hängt dann am Slot. Axiallüfter in dem Aufbau werden auch immer zumindest einen Teil ihrer eigenen Abluft fressen.

Irgendwann gibts hoffentlich ne Platine zum auf/danebenstecken und Kühllösungen welche man dann ordentlich verschrauben kann. Aber bis sich da mal was ändert.. heute gibts sauteure Backsteine, die auch mal druchbrechen können. Das Design um die Slots stammt noch aus einer Zeit, da hatten die GPUs noch nichmal einen Kühlkörper, nur so ein hübsches, schwarzes Package wie man es von den heutigen Speicherchips noch kennt. Und so wenig Pins, da brauchte man noch nicht mal ein BGA-Package, sah aus wie ein großer Microcontroller.

Antwort Gefällt mir

Klicke zum Ausklappem
G
GreenGenesis

Neuling

2 Kommentare 0 Likes

@Igor Wallossek
Lieber Igor Wallossek
Vielen Dank für die ausführlichen Berichte, kenne keine andere Seite die so schön ins Detail geht. So geht Journalismus!
Zur RTX 4060 im Detail. Tritt der Powerbug nur bei Win11 auf oder auch bei Win10 wenn man da den aktuellen Treiber installiert?
Sowas ist für mich ein Deal killer.
Für den Angegebenen OC im Detail würde ich mich auch sehr interessieren.
Freundliche Grüsse

Antwort Gefällt mir

G
GreenGenesis

Neuling

2 Kommentare 0 Likes

Hoppala, OC steht ja da, habs grad gesehen...

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,348 Kommentare 551 Likes

Sags mal so: Wenn ich 1x jährlich mim 10bar Kompressor durchblase blockiere ich alle Lüfter und stecke sie sicherheitshalber auch noch ab; habe keine Lust da wie bei einem Windrad Strom ins System zu pressen.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung