Grafikkarten Testberichte VGA

MSI GeForce RTX 3050 Gaming X 8GB im Test: Leise, kühl und einen Tick schneller

Auch MSI hat mit der Gaming X (nicht nur) eine GeForce RTX 3050 im Portfolio, platziert diese spezielle Karte jedoch als Spitzenmodell in dieser Klasse. Dass sich der Mehraufwand lohnt, steht außer Frage, denn es ist im Rahmen der Möglichkeiten eine wirklich überzeugende Karte geworden. Nur fordert dies auch gegenüber den Budget-Modellen einen nicht zu vernachlässigenden Mehrpreis. Und das ist dann leider weniger schön. Allerdings habe ich mir mittlerweile die Preisfrage abgewöhnt, weil die Diskussionen darüber eh nichts bringen. Ändern kann ich es nun mal leider nicht, nur testen, ob es sich lohnt.

Doch kommen wir zunächst zu den allgemeinen Dingen. Die 8 GB Speicher sind für diese Karte ausreichend und so ermöglicht es der Speicherausbau auch, dass die Karte in WQHD mit einer ausgewogenen und wohlüberlegten Mixtur aus mittleren Einstellungen bei Bild- und DLSS-Qualität durchaus noch passabel performt. Das setzt natürlich eine gewisse optische Kompromissbereitschaft voraus, so ehrlich muss man natürlich auch bleiben. Eine Founders Edition gab es diesmal erneut nicht  und deshalb habe ich ja den Launch-Artikel mit einer Retail-Karte von Palit geschrieben. Nun also können wir immer mal wieder vergleichen, was die Gaming X von MSI gegenüber einer bewusst einfach gehaltenen „Butter-und-Brot“-Karte von Palit besser macht.

Der beschnittene GA106-150 auf der GeForce RTX 3050

Der Chip der NVIDIA GeForce RTX 3050 basiert ebenfalls auf dem GA106 und wurde noch ein wenig mehr eingekürzt. Für die GeForce RTX 3050 nutzt  NVIDIA insgesamt 20 SM (28 bei der RTX 3060)  der maximal 30 Einheiten des GA106 (siehe Schema unten), was zu insgesamt 2560 (3584 bei der RTX 3060) CUDA-Kernen führt,  wenn alle Einheiten mit FP32 werkeln dürfen. Zusätzlich zu den CUDA-Kernen ist NVIDIAs GeForce RTX 3060 auch mit 20 RT-Kernen der nächsten Generation (Ray-Tracing), 80 Tensor-Kernen, 32 ROPs und 80 TMUs ausgestattet.

Was den Speicher betrifft, so verfügt die GeForce RTX 3050 noch über 8 GB GDDR6-Speicher mit einer Geschwindigkeit von 14 Gbps, der am 128 Bit Interface der 4 Speicher-Controller eine kumulative Bandbreite von 224 Gbps besitzt. Dafür reichen die insgesamt 8 Lanes am PCIe 4.0 mehr als aus. Im Übrigen sind diese selbst bei PCIe 3.0 noch ausreichend, um der Karte keine Nachteile zu verschaffen. Aber für die Chipausbeute scheint diese Beschneidung wirklich was gebracht zu heben.

Der Rückstand zur GeForce RTX 3060 ist so natürlich vorauszusehen und weniger als 2/3  des Vollausbaus mit 30 SM ergäben letztendlich wohl auch keinen Sinn mehr. So kann man am Ende des Tages seitens NVIDIA die Ausbeute des GA106 erhöhen, was in Anbetracht des extrem hungrigen Marktes gar keine so schlechte Entscheidung ist. Merken wird man die fehlenden 10 SM (8 weniger als die RTX 3060) natürlich schon, aber man taktet dann einfach etwas höher und fertig.

Resizeable BAR ist zwar hardwareseitig bereits implementiert, allerdings funktioniert diese Implementierung aktuell eher so lala. Es ist also wirklich spannend zu sehen, was NVIDIA jetzt als neues RTX-Einstiegspaket anbietet, denn Karten sind momentan generell knapp und die Zielgruppe der weniger gut betuchten Full-HD-Spieler existiert ja wirklich. Genau diese Eignung werde ich heute genauer untersuchen und dieser Test umfasst natürlich auch noch die elektrische Umsetzung, die Platine, die Leistungsaufnahme und die Kühlung. Das Gehäuse der Karte folgt der bekannten Formensprache der Gaming-X-Reihe und setzt damit auch auf eine ordentliche Zerklüftung der Oberfläche. Anthrazit als Farbe der Wahl (wie aufregend!) und ABS als Hauptkomponente – mehr gibt es nicht für die Kühlerabdeckung. Luxuriös ist es nicht, haptisch eher Durchschnitt und optisch passt es zumindest gut zur bekannten Designsprache. Echte Highlights sehen sicher anders aus, aber wir bewegen uns ja (wenn auch nicht preislich) immer noch im Einsteigersegment.

Der Gesamtaufbau mit den 4.5 cm Einbautiefe zuzüglich der 5 mm für die Backplate aus Leichtmetall (etwas Luxus muss dann doch sein) macht diese Karte zu einem 2,5-Slot-Design mit allen bekannten Vor- und und Nachteilen. Der etwas kleinere Kühlerüberhang wird in der Backplate mit Öffnungen zumindest etwas auf Durchlass getrimmt.

Mit den 936 Gramm ist die Karte fast doppelt so schwer wie das getestete Gegenstück von Palit, was etwas erstaunt. Die Länge von 27,9 cm ist länger und damit eher Durchschnitt. Auch die Einbauhöhe ist mit 12 cm ab der Oberkante des PCIe-Slots bei eingebauter Karte bis zur Oberseite der Abdeckung etwas üppiger, wenn auch noch nicht allzu hoch.

Der einzelne 8-Pin-Anschluss an der Oberseite reicht völlig aus und er markiert optisch auch des Ende der versteckten, mit 21 cm auch etwas längeren Platine. Zum Kühler- und Lüfterdesign gibt es gleich auch noch weitere Details. Den NVLINK-Anschluss hat man logischerweise weggelassen, denn SLI ist eh tot und hier auch nicht erwünscht. RGB findet sich an der Oberseite als Hintergrundbeleuchtung für den MSI-Schriftzug samt Logo.

Der obligatorische HDMI-2.1-Anschluss darf nicht fehlen, die drei aktuellen DisplayPorts natürlich auch nicht. Die Rundloch-Öffnungen entlassen noch etwas Abwärme aus dem Gehäuseinneren, haben aber mit der direkten Kühlung nichts zu tun, da die Lamellen senkrecht sehen.  Damit wären wir mit den Äußerlichkeiten auch schon wieder einmal komplett fertig und mehr gibt es dann später beim Teardown.

Das gegenüberliegende Ende der Karte zeigt uns nur noch eine geschlossene Veranstaltung.

Die Daten der MSI-Grafikkarte zeigt uns noch einmal der aktuelle GPU-Z Screenshot, den Rest hatte ich ja schon weiter oben aufgeführt. Die 1552 MHz Basistakt entsprechen der Referenzvorgabe von NVIDIA und die 1777 MHz Boost-Takt der Referenz hebt MSI auf 1845 MHz ab Werk an. Die 1750 MHz Speichertakt waren zu erwarten und der Speicherausbau mit 8 GB am 128-Bit Interface logischerweise auch, wenn man an die 4 Speicher-Controller aus dem oben gezeigten Schema denkt.

Auch hier habe ich noch einmal eine Tabelle für alle Statistiker unter Euch, bevor es dann ab der nächsten Seite wirklich voll losgeht.

Testsystem und Auswertungssoftware

Das Benchmarksystem ist neu und steht jetzt nicht mehr im Labor, sondern wieder im Redaktionsraum. Ich setze nunmehr auch auf PCIe 4.0, das passende X570 Motherboard in Form eines MSI MEG X570 Godlike und einen selektierten Ryzen 9 5950 X, der wassergekühlt stark übertaktet wurde. Dazu kommt schneller RAM sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich NVIDIAs PCAD, was den Komfort ungemein erhöht.

Die Messung der Leistungsaufnahme und anderer Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber.

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

MSI GeForce RTX 3050 Gaming X 8G, 8GB GDDR6, HDMI, 3x DP (V397-421R)

Proshop.deVerfügbar - 5-7 Werktage Lieferzeit398,55 €*Stand: 29.03.24 09:43
snogardlagernd415,18 €*Stand: 29.03.24 10:50
galaxus5-8 Werktage436,90 €*Stand: 29.03.24 10:42
*Alle Preise inkl. gesetzl. MwSt zzgl. Versandkosten und ggf. Nachnahmegebühren, wenn nicht anders beschriebenmit freundlicher Unterstützung von www.geizhals.de

 

Kommentar

Lade neue Kommentare

Lucky Luke

Veteran

405 Kommentare 181 Likes

Danke für den Test. Wirklich tolle Karte 👍
Nun müssen wir hoffen, dass die Preise dazu auch wieder toll werden 🥱💤

Antwort 2 Likes

k
krelog

Veteran

170 Kommentare 44 Likes

bei den ersten 3 Infrarot Bildern ist die Hot Spot Temperatur doch der SSD Kühler und nicht auf der Karte oder?

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Genau das. Die Karte ist kühler als der Rest (und sogar das Chipset ist heißer) :)

Antwort Gefällt mir

Morphire

Mitglied

15 Kommentare 2 Likes

Und wieder mal ein Test über eine fiktive Karte die wie ein Legendary in World of Warcraft kaum auf dem Markt ( zu normalen Preisen ) zu finden sein wird. 27.01. pünktlich 14:55 Uhr vor dem Rechner…

30 Minuten später erscheinen endlich 3 Karten auf der Nvidia Shop Site und sieht da, man wird auf METRO Gruppe Saturn oder MediaMarkt verlinkt die keine Bestände haben.

Notebooksbilliger war in 5 Minuten ausverkauft was auf wahnsinnig geringe Margen hindeutet.

Es ist mittlerweile einfach nur noch Wahnsinn!

PS. Trotzdem danke für den Test, wir brauchen Leute wie dich um Kaufentscheidungen treffen zu können,

vielleicht wird es ja im Jahr 2030 mal was mit dem Release der RTX Terra 9050 ;-)

Mit freundlichen Grüßen 🙋‍♂️

Antwort Gefällt mir

s
shaboo

Mitglied

76 Kommentare 75 Likes

Gaming X als Spitzenmodell? Wenn da mal nicht noch eine Suprim kommt ...

Ansonsten muss ich sagen, dass mir persönlich 500 Euro aufwärts für ein x50 eher noch absurder erscheinen als 1000 Euro für eine x70 oder 1500 Euro für ein x80, weil es hier im absoluten Einstiegssegment deutlich mehr um jeden einzelnen Euro geht als in den höheren Klassen. Wenn's zum selben Preis schon eine 6600 gibt, gilt das natürlich erst recht. Und die 12-GB-2060 gibt's ja auch noch.

Bei CB und PCGH liegt die 3060 auch eher 35 bis 40 Prozent vor der 3050 als nur 25 und ich persönlich würde dann eher zu einer 12GB-3060 für 700 als zu einer 8GB-3050 für 500 Euro greifen.

Insgesamt eine schöne Karte, die aber gefühlt - zumindest derzeit - noch absurder überteuert ist als alles andere von AMD und Nvidia.

Antwort Gefällt mir

P
Pokerclock

Veteran

411 Kommentare 347 Likes

Bei der aktuellen Preisgestaltung erscheint mir die 3050 eher unlukrativ. Dafür hat Nvidia selbst gesorgt, denn für den gleichen Straßenpreis gibt es eine 2060 12 GB mit offensichtlichen Vorteilen bei der Speicherausstattung. Das werden speziell die Modder bevorzugen. Evtl relativiert sich das noch, wenn die 3050 erst einmal ein paar Wochen auf dem Markt ist. Und wer DLSS und Raytracing nicht braucht, greift zu einer 6600 (XT). Effizienter mit mehr Rohleistung. Bis dahin werden wir aber auch sicherlich purzelnde Preise bei den alten GTX 1660er sehen.

Antwort 2 Likes

HerrRossi

Urgestein

6,770 Kommentare 2,235 Likes

Danke für den Test, das ist eine sehr brauchbare FullHD-Karte. Der Marktpreis ist jedoch auch hier völlig daneben.

Antwort 2 Likes

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

35 Prozentpunkte wären es bei mir per Taschenrechner ohne den Taktvorteil mit einzubeziehen. Man findet sicher immer Benchmarks, die kleinere Karten eher schlecht aussehen lassen. Oder andersherum. Wenn ich mir den Launch mit der Palit ansehe und Shadernachteil gegen den Takt hochrechne, dann sind es in der Theorie bis zu 28 Prozentpunkte Nachteil. Die Karte hier taktet aber sogar noch höher. Auf 30% Nachteil und mehr kommt man mit der Palit nur, wenn die 3060 ein sehr hoch getaktetes OC-Modell ist.

Antwort 1 Like

v
vonXanten

Urgestein

801 Kommentare 335 Likes

Ansich eine schöne Karte, aber wie HerrRossi schon sagte, der Preis ist sowas von daneben.
Und die Abweichungen zwischen den Ergebnissen sind wie Igor schon sagte auch zu erklären... Die Frage ist was wurde da bei PCGH genau verglichen und wie ausgelegt.

Antwort 1 Like

P
Pokerclock

Veteran

411 Kommentare 347 Likes

Das PCGH-Testszenario ist nicht auf Budget-Grafikkarten ausgelegt. Es wird dort zwar immer versucht möglichst Grafikkarten mit Herstellervorgaben beim Takt zu testen aber oftmals sind da halt auch Grafikkarten dabei, die mehr können, weil eben nicht alles im Testlabor direkt verfügbar ist. Viele sind Leihgaben und müssen recht schnell wieder zurück zum Leihgeber. Und manchmal gibt es auch mal gar nichts, so geschehen bei der 2060 12GB. Da bin ich dann eingesprungen mit einer von Inno3D und die muss irgendwann auch mal zurück, wenn ich sie denn für die Vermietung brauche. Inno3D ist die für mich ungeliebteste Marke von PCPartner. Ich mag die Manli lieber. :)

Finde ich jedenfalls lobenswert, dass Igor hier selbst den Geldbeutel aufgemacht hat.(y)

Antwort 1 Like

D
Deridex

Urgestein

2,204 Kommentare 843 Likes

Ich bin der Meinung, dass die RTX3050 beim aktuellen Marktpreis ein massives Problem hat. Dieses nennt sich RX 6600.

Antwort 1 Like

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Die Preise sind einfach zu bescheuert und der GA107 nicht fertig :(

Antwort 3 Likes

Oryzen

Veteran

297 Kommentare 173 Likes

Habe ich nur den Eindruck, dass die Consumer mit Resten abgespeist werden, während Miner voll bedient werden?
Das wäre eine Karte, die ich mir nie und nimmer kaufen würde, wenn ich nicht unbedingt müsste, sei es Budget oder Verfügbarkeit.
Jeder, der aufrüsten, neu ausrüsten möchte, ist doch zu Zeit echt arm dran.
Schön wäre es, wenn Intel den beiden Platzhirschen ein wenig Feuer unter dem Hintern machen würde. Nicht mal dazu reicht es...
Wenn es so weiter geht, schaffen es eher die Chinesen, eine Grafikkarte für Konsumer in nennenswerten Stückzahlen bereitzustellen.
Das Metaverse rückt so für die breite Masse in weitere Ferne, dass ist mal klar.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung