Grafikkarten Testberichte VGA

MSI GeForce RTX 3050 Gaming X 8GB im Test: Leise, kühl und einen Tick schneller

Platinenanalyse und Spannungsversorgung

Die Karte besitzt die gleiche Multi-Layer-Platine ohne das aufwändigere Backdrill-Verfahren wie schon die GeForce RTX 3060 Gaming X. Die Art der Spannungsversorgung ist altbekannt und wurde für die RTX 3050 lediglich noch etwas weiter eingekürzt (was man an den leer gebliebenen Stellen gut erkennen kann). Hier sind es insgesamt noch fünf einzelne Phasen (eine mehr als bei Palit, maximal wären 8 möglich), die von einem uP9512R von UPI auf der Rückseite bereitgestellt werden. Hier handelt es sich um einen recht ordentlichen digitalen PWM-Controller mit VID-Interface, kompatibel zu NVIDIAs Open VReg Spezifikation.

Diese fünf Phasen werden jeweils mit den günstigen DRMOS AOZ5332QI von Alpha & Omega Semiconductor (50 Ampere max.) realisiert, die zwar keine MOSFET DCR ermöglichen, jedoch wenigstens noch eine Temperatur-Schutzschaltung bieten. Die hier verwendeten fünf Phasen gehen wesentlich effizienter vor als die vier Phasen auf der Dual OC von Palit, so dass es auch zu deutlich weniger Verlusten kommt. Die so eingesparte Verlustleistung steht dafür wiederum der GPU zur Verfügung, denn das TDP-Korsett der Karten ist ja gleich und wird an den Anschlüssen gemessen. Jeder Verlust auf der karte geht also zu Lasten der GPU. Deshalb schafft es die Gaming X von MSI auch, mit der gleichen oder stellenweise sogar niedrigeren Leistungsaufnahme einen höheren Boost-Takt zu erreichen (bis zu 110 MHz mehr!).

Für den genügsameren GDDR6-Speicher von Micron in Form von vier 2GB-Modulen (D9ZBM) nutzt MSI ebenfalls keinen mehrphasigen Wandler, sondern einen simplen Step-Down-Converter mit diskreter Bestückung, wobei auch hier eine eher günstige Lösung mit jeweils einem PK698SA (90 Ampere) und PK6116BA (50 Ampere) N-Channel MOSFET von Niko Semiconductur anstelle eines PowerStages hinter dem uP1666Q (Frontseite) zum Einsatz kommt. Die zweite mögliche Phase hat man bei der Karte einfach eingespart (leerer Platz rechts oberhalb der einen Phase unter der 8-Pin-Buchse).

Diese simple Bestückung verwendet man auch für weitere Teilspannungen auf der Platine, was übrigens völlig ausreicht. Frontseitig gibt es noch einen einfachen Single-UEFI EEPROM zu entdecken, während die Rückseite außer dem PWM-Controller und einigen kleinen MOSFETs keinerlei interessante Bestückungen-Varianten zeigt.

Zur Eingangsglättung nutzt man jeweils eine Spule mit 1 µH (Vorderseite) hinter denen ein Shunt (Rückseite) liegt für den 8-Pin-Anschluss, als auch für den PEG Motherboard-Slot zusammen mit einer 20A-Schmelzsicherung. Über den Spannungsabfall des Shunts misst man die fließenden Ströme. Dafür kommt ein simpler ON Semi Chip zum Einsatz.  Die kleine MCU von LTE erledigt die RGB-Beleuchtung und die Lüftersteuerung. Mehr Aufreger gibt es nicht. Die nachfolgenden Bilder zeigen die erwähnten Komponenten noch einmal im Detail:

 

Kühler und Demontage

Die Front wird geprägt von zwei 9,5-cm-Lüftern mit jeweils 5 Doppel-Rotorblättern, die sehr leise agieren und denen auf den anderen Gaming-X-Modellen entsprechen. Mehr Besonderheiten gibt es von oben erst einmal nicht zu beobachten. Die Kühlerabdeckung sitzt auf dem Kühler und dieser wird quasi nur über die Verschraubung der GPU getragen.

Das Auseinandernehmen ist simpel. Nach dem Abschrauben der Hälfte der Schrauben der Backplate und des Stabilisierungs-Frames an der Slotblende, lässt sich auch der Kühler recht einfach komplett entfernen. Man muss nur noch die Lüfterkabel und die RGB-Lebensader abziehen. Die extrem dicken, sehr soften Pads auf den Speichermodulen und den VRM  tragen dafür Sorge, sogar etwaige Fertigungstoleranzen des Packages von bis zu 0.5 mm in der Höhe noch locker ausgleichen zu können.

Wir sehen insgesamt drei vernickelte 6-mm-Heatpipes aus Kupfer-Komposit-Material, die oberhalb der GPU mit dem Heatsink rückseitig verlötet wurden wurden und von denen zwei noch einmal umlaufend den Block über GPU und VRM kühlen. Der Speicher wird über die dicken Pads vom Heatsink mitgekühlt, der Spannungswandler-Heatsink sitzt separat. Die Spulen werden hier ebenfalls mit gekühlt. Die zwei MOSFETs der einen Spannungswandler-Phase sind leider ungekühlt und man hätte sie wenigstens rückseitig thermisch an die Backplate anbinden können. Dafür habe ich später ja noch die Infrarot-Messbilder im zerlegte Zustand ohne Backplate. Die Pads sind diesmal aus einer anderen Fabrikation, so dass ich auch keine Ölspuren feststellen konnte.

Rückseitig findet man noch eine Backplate aus Leichtmetall, die diesmal kühltechnisch eine helfende Funktion erfüllt und damit nicht nur nur der Optik und Stabilisierung des Kühleraufbaus zusammen mit der Platine dient.

 

Kommentar

Lade neue Kommentare

Lucky Luke

Veteran

405 Kommentare 181 Likes

Danke für den Test. Wirklich tolle Karte 👍
Nun müssen wir hoffen, dass die Preise dazu auch wieder toll werden 🥱💤

Antwort 2 Likes

k
krelog

Veteran

173 Kommentare 53 Likes

bei den ersten 3 Infrarot Bildern ist die Hot Spot Temperatur doch der SSD Kühler und nicht auf der Karte oder?

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Genau das. Die Karte ist kühler als der Rest (und sogar das Chipset ist heißer) :)

Antwort Gefällt mir

Morphire

Mitglied

15 Kommentare 2 Likes

Und wieder mal ein Test über eine fiktive Karte die wie ein Legendary in World of Warcraft kaum auf dem Markt ( zu normalen Preisen ) zu finden sein wird. 27.01. pünktlich 14:55 Uhr vor dem Rechner…

30 Minuten später erscheinen endlich 3 Karten auf der Nvidia Shop Site und sieht da, man wird auf METRO Gruppe Saturn oder MediaMarkt verlinkt die keine Bestände haben.

Notebooksbilliger war in 5 Minuten ausverkauft was auf wahnsinnig geringe Margen hindeutet.

Es ist mittlerweile einfach nur noch Wahnsinn!

PS. Trotzdem danke für den Test, wir brauchen Leute wie dich um Kaufentscheidungen treffen zu können,

vielleicht wird es ja im Jahr 2030 mal was mit dem Release der RTX Terra 9050 ;-)

Mit freundlichen Grüßen 🙋‍♂️

Antwort Gefällt mir

s
shaboo

Mitglied

76 Kommentare 75 Likes

Gaming X als Spitzenmodell? Wenn da mal nicht noch eine Suprim kommt ...

Ansonsten muss ich sagen, dass mir persönlich 500 Euro aufwärts für ein x50 eher noch absurder erscheinen als 1000 Euro für eine x70 oder 1500 Euro für ein x80, weil es hier im absoluten Einstiegssegment deutlich mehr um jeden einzelnen Euro geht als in den höheren Klassen. Wenn's zum selben Preis schon eine 6600 gibt, gilt das natürlich erst recht. Und die 12-GB-2060 gibt's ja auch noch.

Bei CB und PCGH liegt die 3060 auch eher 35 bis 40 Prozent vor der 3050 als nur 25 und ich persönlich würde dann eher zu einer 12GB-3060 für 700 als zu einer 8GB-3050 für 500 Euro greifen.

Insgesamt eine schöne Karte, die aber gefühlt - zumindest derzeit - noch absurder überteuert ist als alles andere von AMD und Nvidia.

Antwort Gefällt mir

P
Pokerclock

Veteran

429 Kommentare 367 Likes

Bei der aktuellen Preisgestaltung erscheint mir die 3050 eher unlukrativ. Dafür hat Nvidia selbst gesorgt, denn für den gleichen Straßenpreis gibt es eine 2060 12 GB mit offensichtlichen Vorteilen bei der Speicherausstattung. Das werden speziell die Modder bevorzugen. Evtl relativiert sich das noch, wenn die 3050 erst einmal ein paar Wochen auf dem Markt ist. Und wer DLSS und Raytracing nicht braucht, greift zu einer 6600 (XT). Effizienter mit mehr Rohleistung. Bis dahin werden wir aber auch sicherlich purzelnde Preise bei den alten GTX 1660er sehen.

Antwort 2 Likes

HerrRossi

Urgestein

6,778 Kommentare 2,243 Likes

Danke für den Test, das ist eine sehr brauchbare FullHD-Karte. Der Marktpreis ist jedoch auch hier völlig daneben.

Antwort 2 Likes

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

35 Prozentpunkte wären es bei mir per Taschenrechner ohne den Taktvorteil mit einzubeziehen. Man findet sicher immer Benchmarks, die kleinere Karten eher schlecht aussehen lassen. Oder andersherum. Wenn ich mir den Launch mit der Palit ansehe und Shadernachteil gegen den Takt hochrechne, dann sind es in der Theorie bis zu 28 Prozentpunkte Nachteil. Die Karte hier taktet aber sogar noch höher. Auf 30% Nachteil und mehr kommt man mit der Palit nur, wenn die 3060 ein sehr hoch getaktetes OC-Modell ist.

Antwort 1 Like

v
vonXanten

Urgestein

803 Kommentare 335 Likes

Ansich eine schöne Karte, aber wie HerrRossi schon sagte, der Preis ist sowas von daneben.
Und die Abweichungen zwischen den Ergebnissen sind wie Igor schon sagte auch zu erklären... Die Frage ist was wurde da bei PCGH genau verglichen und wie ausgelegt.

Antwort 1 Like

P
Pokerclock

Veteran

429 Kommentare 367 Likes

Das PCGH-Testszenario ist nicht auf Budget-Grafikkarten ausgelegt. Es wird dort zwar immer versucht möglichst Grafikkarten mit Herstellervorgaben beim Takt zu testen aber oftmals sind da halt auch Grafikkarten dabei, die mehr können, weil eben nicht alles im Testlabor direkt verfügbar ist. Viele sind Leihgaben und müssen recht schnell wieder zurück zum Leihgeber. Und manchmal gibt es auch mal gar nichts, so geschehen bei der 2060 12GB. Da bin ich dann eingesprungen mit einer von Inno3D und die muss irgendwann auch mal zurück, wenn ich sie denn für die Vermietung brauche. Inno3D ist die für mich ungeliebteste Marke von PCPartner. Ich mag die Manli lieber. :)

Finde ich jedenfalls lobenswert, dass Igor hier selbst den Geldbeutel aufgemacht hat.(y)

Antwort 1 Like

D
Deridex

Urgestein

2,213 Kommentare 846 Likes

Ich bin der Meinung, dass die RTX3050 beim aktuellen Marktpreis ein massives Problem hat. Dieses nennt sich RX 6600.

Antwort 1 Like

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Die Preise sind einfach zu bescheuert und der GA107 nicht fertig :(

Antwort 3 Likes

Oryzen

Veteran

306 Kommentare 181 Likes

Habe ich nur den Eindruck, dass die Consumer mit Resten abgespeist werden, während Miner voll bedient werden?
Das wäre eine Karte, die ich mir nie und nimmer kaufen würde, wenn ich nicht unbedingt müsste, sei es Budget oder Verfügbarkeit.
Jeder, der aufrüsten, neu ausrüsten möchte, ist doch zu Zeit echt arm dran.
Schön wäre es, wenn Intel den beiden Platzhirschen ein wenig Feuer unter dem Hintern machen würde. Nicht mal dazu reicht es...
Wenn es so weiter geht, schaffen es eher die Chinesen, eine Grafikkarte für Konsumer in nennenswerten Stückzahlen bereitzustellen.
Das Metaverse rückt so für die breite Masse in weitere Ferne, dass ist mal klar.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung