GPUs Graphics Reviews

MSI GeForce RTX 3050 Gaming X 8GB Review: Totally quiet, really cool and a tick faster

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

MSI also has not only one GeForce RTX 3050 in its portfolio but with the Gaming X MSI places this particular card as the top model in this class. There is no question that the extra effort is worth it, because it has become a really convincing card within the scope of the possibilities. However, this also demands a non-negligible additional price compared to the so-called budget models. And that is then unfortunately less beautiful. However, in the meantime I have gotten out of the habit of asking about the price, because the discussions about it are useless anyway. Unfortunately, I cannot change it, only test whether it is worthwhile.

But let’s get to the general things first. The 8 GB memory is sufficient for this card, and the memory expansion also allows the card to perform quite passably in WQHD with a balanced and well-considered mixture of medium settings in picture and DLSS quality. Of course, this presupposes a certain willingness to compromise visually, so you have to be honest about that. Once again, there was no Founders Edition, which is why I wrote the launch article with a retail card from Palit. So now we can compare every now and then what the Gaming X from MSI does better compared to a deliberately simple “butter-and-bread” card from Palit.

The trimmed GA106-150 on the GeForce RTX 3050

The chip of the NVIDIA GeForce RTX 3050 is also based on the GA106 and has been shortened a bit more. For the GeForce RTX 3050, NVIDIA uses a total of 20 SM (28 for the RTX 3060) of the maximum 30 units of the GA106 (see schematic below), resulting in a total of 2560 (3584 for the RTX 3060) CUDA cores when all units are allowed to work with FP32. In addition to the CUDA cores, NVIDIA’s GeForce RTX 3060 is also equipped with 20 next-generation RT (ray tracing) cores, 80 Tensor cores, 32 ROPs, and 80 TMUs.

As for memory, the GeForce RTX 3050 still has 8 GB of GDDR6 memory with a speed of 14 Gbps, which has a cumulative bandwidth of 224 Gbps on the 128-bit interface of the 4 memory controllers. The total of 8 lanes on the PCIe 4.0 are more than sufficient for this. Incidentally, even with PCIe 3.0, these are still sufficient to not put the card at a disadvantage. But for the chip yield, this pruning seems to have really brought something.

The gap to the GeForce RTX 3060 is of course predictable and less than 2/3 of the full configuration with 30 SM would probably not make sense in the end. At the end of the day, this allows NVIDIA to increase the yield of the GA106, which is not such a bad decision considering the extremely hungry market. Of course, the missing 10 SM (8 less than the RTX 3060) will be noticed, but you simply clock a bit higher and that’s it.

Resizeable BAR is already implemented on the hardware side, but this implementation currently works rather so-so. So it is really exciting to see what NVIDIA now offers as a new entry-level RTX package, because cards are generally scarce at the moment and the target group of less well-heeled Full HD gamers really exists. It is exactly this suitability that I will examine in more detail today and this test of course still includes the electrical implementation, the PCB, the power consumption and the cooling. The case of the card follows the familiar design language of the Gaming X series and thus also relies on a decent fissuring of the surface. Anthracite as the color of choice (how exciting!) and ABS as the main component – that’s all there is to the radiator cover. It is not luxurious, haptically it is rather average and visually it at least fits well with the familiar design language. Real highlights certainly look different, but we are still in the entry-level segment (even if not in terms of price).

The overall construction with the 4.5 cm installation depth plus the 5 mm for the backplate made of light metal (a little luxury is necessary) makes this card a 2.5 slot design with all the known advantages and disadvantages. The somewhat smaller radiator overhang is at least somewhat trimmed for clearance in the backplate with openings.

At 936 grams, the card is almost twice as heavy as the tested counterpart from Palit, which is somewhat surprising. The length of 27.9 cm is longer and thus rather average. The installation height of 12 cm from the upper edge of the PCIe slot with the card installed to the top of the cover is also a bit more lush, although still not too high.

The single 8-pin connector on the top is completely sufficient and it also visually marks the end of the hidden, with 21 cm also somewhat longer PCB. There are more details about the cooler and fan design in a moment. The NVLINK port has logically been left out, because SLI is dead anyway and not desired here. RGB is found on the upper side as backlight for the MSI lettering including logo.

The obligatory HDMI 2.1 port should not be missing, and of course the three current DisplayPorts. The round holes still release some waste heat from inside the case, but have nothing to do with direct cooling since the fins look vertical.  With that, we are once again completely done with the outward appearances and more can be found later in the teardown.

The opposite end of the card shows us only one more closed event.

The current GPU-Z screenshot shows us the MSI graphics card’s data once again, the rest I already listed above. The 1552 MHz base clock corresponds to NVIDIA’s reference specification and MSI raises the reference’s 1777 MHz boost clock to 1845 MHz ex-factory. The 1750 MHz memory clock was to be expected and the memory expansion with 8 GB on the 128 bit interface logically as well, when you think of the 4 memory controllers from the schematic shown above.

Again, I have a table for all statisticians among you, before it really gets going from the next page on.

Test system and evaluation software

The benchmark system is new and is no longer in the lab, but in the editorial room again. I now also rely on PCIe 4.0, the matching X570 motherboard in the form of an MSI MEG X570 Godlike, and a select Ryzen 9 5950 X that has been heavily overclocked water-cooled. In addition, there is fast RAM as well as several fast NVMe SSDs. For direct logging during all games and applications, I use NVIDIA’s PCAD, which increases the comfort immensely.

The measurement of power consumption and other things is carried out here in the special laboratory on a redundant test system that is identical down to the last detail, then on two tracks using high-resolution oscillograph technology…

…and the self-created MCU-based measurement setup for motherboards graphics cards (pictures below), where at the end in the air-conditioned room also the thermographic infrared images are created with a high-resolution industrial camera. The audio measurements are done outside in my Chamber.

I have also summarized the individual components of the test system in a table:

MSI GeForce RTX 3050 Gaming X 8G, 8GB GDDR6, HDMI, 3x DP (V397-421R)

snogardlagernd415,18 €*Stand: 19.05.24 23:00
galaxus1-2 Wochen505,99 €*Stand: 20.05.24 00:39
*Alle Preise inkl. gesetzl. MwSt zzgl. Versandkosten und ggf. Nachnahmegebühren, wenn nicht anders beschriebenmit freundlicher Unterstützung von geizhals.de

 

Kommentar

Lade neue Kommentare

Lucky Luke

Veteran

406 Kommentare 181 Likes

Danke für den Test. Wirklich tolle Karte 👍
Nun müssen wir hoffen, dass die Preise dazu auch wieder toll werden 🥱💤

Antwort 2 Likes

k
krelog

Veteran

173 Kommentare 53 Likes

bei den ersten 3 Infrarot Bildern ist die Hot Spot Temperatur doch der SSD Kühler und nicht auf der Karte oder?

Antwort Gefällt mir

Igor Wallossek

1

10,276 Kommentare 19,019 Likes

Genau das. Die Karte ist kühler als der Rest (und sogar das Chipset ist heißer) :)

Antwort Gefällt mir

Morphire

Mitglied

15 Kommentare 2 Likes

Und wieder mal ein Test über eine fiktive Karte die wie ein Legendary in World of Warcraft kaum auf dem Markt ( zu normalen Preisen ) zu finden sein wird. 27.01. pünktlich 14:55 Uhr vor dem Rechner…

30 Minuten später erscheinen endlich 3 Karten auf der Nvidia Shop Site und sieht da, man wird auf METRO Gruppe Saturn oder MediaMarkt verlinkt die keine Bestände haben.

Notebooksbilliger war in 5 Minuten ausverkauft was auf wahnsinnig geringe Margen hindeutet.

Es ist mittlerweile einfach nur noch Wahnsinn!

PS. Trotzdem danke für den Test, wir brauchen Leute wie dich um Kaufentscheidungen treffen zu können,

vielleicht wird es ja im Jahr 2030 mal was mit dem Release der RTX Terra 9050 ;-)

Mit freundlichen Grüßen 🙋‍♂️

Antwort Gefällt mir

s
shaboo

Mitglied

76 Kommentare 75 Likes

Gaming X als Spitzenmodell? Wenn da mal nicht noch eine Suprim kommt ...

Ansonsten muss ich sagen, dass mir persönlich 500 Euro aufwärts für ein x50 eher noch absurder erscheinen als 1000 Euro für eine x70 oder 1500 Euro für ein x80, weil es hier im absoluten Einstiegssegment deutlich mehr um jeden einzelnen Euro geht als in den höheren Klassen. Wenn's zum selben Preis schon eine 6600 gibt, gilt das natürlich erst recht. Und die 12-GB-2060 gibt's ja auch noch.

Bei CB und PCGH liegt die 3060 auch eher 35 bis 40 Prozent vor der 3050 als nur 25 und ich persönlich würde dann eher zu einer 12GB-3060 für 700 als zu einer 8GB-3050 für 500 Euro greifen.

Insgesamt eine schöne Karte, die aber gefühlt - zumindest derzeit - noch absurder überteuert ist als alles andere von AMD und Nvidia.

Antwort Gefällt mir

P
Pokerclock

Veteran

457 Kommentare 379 Likes

Bei der aktuellen Preisgestaltung erscheint mir die 3050 eher unlukrativ. Dafür hat Nvidia selbst gesorgt, denn für den gleichen Straßenpreis gibt es eine 2060 12 GB mit offensichtlichen Vorteilen bei der Speicherausstattung. Das werden speziell die Modder bevorzugen. Evtl relativiert sich das noch, wenn die 3050 erst einmal ein paar Wochen auf dem Markt ist. Und wer DLSS und Raytracing nicht braucht, greift zu einer 6600 (XT). Effizienter mit mehr Rohleistung. Bis dahin werden wir aber auch sicherlich purzelnde Preise bei den alten GTX 1660er sehen.

Antwort 2 Likes

HerrRossi

Urgestein

6,789 Kommentare 2,246 Likes

Danke für den Test, das ist eine sehr brauchbare FullHD-Karte. Der Marktpreis ist jedoch auch hier völlig daneben.

Antwort 2 Likes

Igor Wallossek

1

10,276 Kommentare 19,019 Likes

35 Prozentpunkte wären es bei mir per Taschenrechner ohne den Taktvorteil mit einzubeziehen. Man findet sicher immer Benchmarks, die kleinere Karten eher schlecht aussehen lassen. Oder andersherum. Wenn ich mir den Launch mit der Palit ansehe und Shadernachteil gegen den Takt hochrechne, dann sind es in der Theorie bis zu 28 Prozentpunkte Nachteil. Die Karte hier taktet aber sogar noch höher. Auf 30% Nachteil und mehr kommt man mit der Palit nur, wenn die 3060 ein sehr hoch getaktetes OC-Modell ist.

Antwort 1 Like

v
vonXanten

Urgestein

803 Kommentare 335 Likes

Ansich eine schöne Karte, aber wie HerrRossi schon sagte, der Preis ist sowas von daneben.
Und die Abweichungen zwischen den Ergebnissen sind wie Igor schon sagte auch zu erklären... Die Frage ist was wurde da bei PCGH genau verglichen und wie ausgelegt.

Antwort 1 Like

P
Pokerclock

Veteran

457 Kommentare 379 Likes

Das PCGH-Testszenario ist nicht auf Budget-Grafikkarten ausgelegt. Es wird dort zwar immer versucht möglichst Grafikkarten mit Herstellervorgaben beim Takt zu testen aber oftmals sind da halt auch Grafikkarten dabei, die mehr können, weil eben nicht alles im Testlabor direkt verfügbar ist. Viele sind Leihgaben und müssen recht schnell wieder zurück zum Leihgeber. Und manchmal gibt es auch mal gar nichts, so geschehen bei der 2060 12GB. Da bin ich dann eingesprungen mit einer von Inno3D und die muss irgendwann auch mal zurück, wenn ich sie denn für die Vermietung brauche. Inno3D ist die für mich ungeliebteste Marke von PCPartner. Ich mag die Manli lieber. :)

Finde ich jedenfalls lobenswert, dass Igor hier selbst den Geldbeutel aufgemacht hat.(y)

Antwort 1 Like

D
Deridex

Urgestein

2,217 Kommentare 851 Likes

Ich bin der Meinung, dass die RTX3050 beim aktuellen Marktpreis ein massives Problem hat. Dieses nennt sich RX 6600.

Antwort 1 Like

Igor Wallossek

1

10,276 Kommentare 19,019 Likes

Die Preise sind einfach zu bescheuert und der GA107 nicht fertig :(

Antwort 3 Likes

Oryzen

Veteran

307 Kommentare 181 Likes

Habe ich nur den Eindruck, dass die Consumer mit Resten abgespeist werden, während Miner voll bedient werden?
Das wäre eine Karte, die ich mir nie und nimmer kaufen würde, wenn ich nicht unbedingt müsste, sei es Budget oder Verfügbarkeit.
Jeder, der aufrüsten, neu ausrüsten möchte, ist doch zu Zeit echt arm dran.
Schön wäre es, wenn Intel den beiden Platzhirschen ein wenig Feuer unter dem Hintern machen würde. Nicht mal dazu reicht es...
Wenn es so weiter geht, schaffen es eher die Chinesen, eine Grafikkarte für Konsumer in nennenswerten Stückzahlen bereitzustellen.
Das Metaverse rückt so für die breite Masse in weitere Ferne, dass ist mal klar.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung