Auch MSI hat mit der Gaming X (nicht nur) eine GeForce RTX 3050 im Portfolio, platziert diese spezielle Karte jedoch als Spitzenmodell in dieser Klasse. Dass sich der Mehraufwand lohnt, steht außer Frage, denn es ist im Rahmen der Möglichkeiten eine wirklich überzeugende Karte geworden. Nur fordert dies auch gegenüber den Budget-Modellen einen nicht zu vernachlässigenden Mehrpreis. Und das ist dann leider weniger schön. Allerdings habe ich mir mittlerweile die Preisfrage abgewöhnt, weil die Diskussionen darüber eh nichts bringen. Ändern kann ich es nun mal leider nicht, nur testen, ob es sich lohnt.
Doch kommen wir zunächst zu den allgemeinen Dingen. Die 8 GB Speicher sind für diese Karte ausreichend und so ermöglicht es der Speicherausbau auch, dass die Karte in WQHD mit einer ausgewogenen und wohlüberlegten Mixtur aus mittleren Einstellungen bei Bild- und DLSS-Qualität durchaus noch passabel performt. Das setzt natürlich eine gewisse optische Kompromissbereitschaft voraus, so ehrlich muss man natürlich auch bleiben. Eine Founders Edition gab es diesmal erneut nicht und deshalb habe ich ja den Launch-Artikel mit einer Retail-Karte von Palit geschrieben. Nun also können wir immer mal wieder vergleichen, was die Gaming X von MSI gegenüber einer bewusst einfach gehaltenen “Butter-und-Brot”-Karte von Palit besser macht.
Der beschnittene GA106-150 auf der GeForce RTX 3050
Der Chip der NVIDIA GeForce RTX 3050 basiert ebenfalls auf dem GA106 und wurde noch ein wenig mehr eingekürzt. Für die GeForce RTX 3050 nutzt NVIDIA insgesamt 20 SM (28 bei der RTX 3060) der maximal 30 Einheiten des GA106 (siehe Schema unten), was zu insgesamt 2560 (3584 bei der RTX 3060) CUDA-Kernen führt, wenn alle Einheiten mit FP32 werkeln dürfen. Zusätzlich zu den CUDA-Kernen ist NVIDIAs GeForce RTX 3060 auch mit 20 RT-Kernen der nächsten Generation (Ray-Tracing), 80 Tensor-Kernen, 32 ROPs und 80 TMUs ausgestattet.
Was den Speicher betrifft, so verfügt die GeForce RTX 3050 noch über 8 GB GDDR6-Speicher mit einer Geschwindigkeit von 14 Gbps, der am 128 Bit Interface der 4 Speicher-Controller eine kumulative Bandbreite von 224 Gbps besitzt. Dafür reichen die insgesamt 8 Lanes am PCIe 4.0 mehr als aus. Im Übrigen sind diese selbst bei PCIe 3.0 noch ausreichend, um der Karte keine Nachteile zu verschaffen. Aber für die Chipausbeute scheint diese Beschneidung wirklich was gebracht zu heben.
Der Rückstand zur GeForce RTX 3060 ist so natürlich vorauszusehen und weniger als 2/3 des Vollausbaus mit 30 SM ergäben letztendlich wohl auch keinen Sinn mehr. So kann man am Ende des Tages seitens NVIDIA die Ausbeute des GA106 erhöhen, was in Anbetracht des extrem hungrigen Marktes gar keine so schlechte Entscheidung ist. Merken wird man die fehlenden 10 SM (8 weniger als die RTX 3060) natürlich schon, aber man taktet dann einfach etwas höher und fertig.
Resizeable BAR ist zwar hardwareseitig bereits implementiert, allerdings funktioniert diese Implementierung aktuell eher so lala. Es ist also wirklich spannend zu sehen, was NVIDIA jetzt als neues RTX-Einstiegspaket anbietet, denn Karten sind momentan generell knapp und die Zielgruppe der weniger gut betuchten Full-HD-Spieler existiert ja wirklich. Genau diese Eignung werde ich heute genauer untersuchen und dieser Test umfasst natürlich auch noch die elektrische Umsetzung, die Platine, die Leistungsaufnahme und die Kühlung. Das Gehäuse der Karte folgt der bekannten Formensprache der Gaming-X-Reihe und setzt damit auch auf eine ordentliche Zerklüftung der Oberfläche. Anthrazit als Farbe der Wahl (wie aufregend!) und ABS als Hauptkomponente – mehr gibt es nicht für die Kühlerabdeckung. Luxuriös ist es nicht, haptisch eher Durchschnitt und optisch passt es zumindest gut zur bekannten Designsprache. Echte Highlights sehen sicher anders aus, aber wir bewegen uns ja (wenn auch nicht preislich) immer noch im Einsteigersegment.
Der Gesamtaufbau mit den 4.5 cm Einbautiefe zuzüglich der 5 mm für die Backplate aus Leichtmetall (etwas Luxus muss dann doch sein) macht diese Karte zu einem 2,5-Slot-Design mit allen bekannten Vor- und und Nachteilen. Der etwas kleinere Kühlerüberhang wird in der Backplate mit Öffnungen zumindest etwas auf Durchlass getrimmt.
Mit den 936 Gramm ist die Karte fast doppelt so schwer wie das getestete Gegenstück von Palit, was etwas erstaunt. Die Länge von 27,9 cm ist länger und damit eher Durchschnitt. Auch die Einbauhöhe ist mit 12 cm ab der Oberkante des PCIe-Slots bei eingebauter Karte bis zur Oberseite der Abdeckung etwas üppiger, wenn auch noch nicht allzu hoch.
Der einzelne 8-Pin-Anschluss an der Oberseite reicht völlig aus und er markiert optisch auch des Ende der versteckten, mit 21 cm auch etwas längeren Platine. Zum Kühler- und Lüfterdesign gibt es gleich auch noch weitere Details. Den NVLINK-Anschluss hat man logischerweise weggelassen, denn SLI ist eh tot und hier auch nicht erwünscht. RGB findet sich an der Oberseite als Hintergrundbeleuchtung für den MSI-Schriftzug samt Logo.
Der obligatorische HDMI-2.1-Anschluss darf nicht fehlen, die drei aktuellen DisplayPorts natürlich auch nicht. Die Rundloch-Öffnungen entlassen noch etwas Abwärme aus dem Gehäuseinneren, haben aber mit der direkten Kühlung nichts zu tun, da die Lamellen senkrecht sehen. Damit wären wir mit den Äußerlichkeiten auch schon wieder einmal komplett fertig und mehr gibt es dann später beim Teardown.
Das gegenüberliegende Ende der Karte zeigt uns nur noch eine geschlossene Veranstaltung.
Die Daten der MSI-Grafikkarte zeigt uns noch einmal der aktuelle GPU-Z Screenshot, den Rest hatte ich ja schon weiter oben aufgeführt. Die 1552 MHz Basistakt entsprechen der Referenzvorgabe von NVIDIA und die 1777 MHz Boost-Takt der Referenz hebt MSI auf 1845 MHz ab Werk an. Die 1750 MHz Speichertakt waren zu erwarten und der Speicherausbau mit 8 GB am 128-Bit Interface logischerweise auch, wenn man an die 4 Speicher-Controller aus dem oben gezeigten Schema denkt.
Auch hier habe ich noch einmal eine Tabelle für alle Statistiker unter Euch, bevor es dann ab der nächsten Seite wirklich voll losgeht.
Testsystem und Auswertungssoftware
Das Benchmarksystem ist neu und steht jetzt nicht mehr im Labor, sondern wieder im Redaktionsraum. Ich setze nunmehr auch auf PCIe 4.0, das passende X570 Motherboard in Form eines MSI MEG X570 Godlike und einen selektierten Ryzen 9 5950 X, der wassergekühlt stark übertaktet wurde. Dazu kommt schneller RAM sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich NVIDIAs PCAD, was den Komfort ungemein erhöht.
Die Messung der Leistungsaufnahme und anderer Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…
…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber.
Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:
MSI GeForce RTX 3050 Gaming X 8G, 8GB GDDR6, HDMI, 3x DP (V397-421R)
2-3 Wochen | 513,88 €*Stand: 16.09.24 11:15 |
- 1 - Einführung und Testsystem
- 2 - Teardown, Platinenanalyse und Kühler
- 3 - Gaming Performance Full-HD
- 4 - Leistungsaufnahme und Norm-Einhaltung
- 5 - Lastspitzen (Transienten) und Netzteilempfehlung
- 6 - Temperaturen und Infrarot-Tests
- 7 - Geräuschemission / Noise
- 8 - Zusammenfassung. Features und Fazit
13 Antworten
Kommentar
Lade neue Kommentare
Veteran
Veteran
1
Mitglied
Mitglied
Urgestein
Urgestein
1
Urgestein
Urgestein
Urgestein
1
Veteran
Alle Kommentare lesen unter igor´sLAB Community →