GPUs Graphics Reviews

NVIDIA GeForce RTX 3050 8 GB Review: Palit RTX 3050 Dual OC in Full-HD and WQHD with DLSS doping

With the GeForce RTX 3050, NVIDIA not only counters AMD’s very unfortunate Radeon RX 6500XT, but also rounds off its own portfolio even further downwards. The performance data has been cleverly chosen so that it is quite sufficient for Full HD in contrast to the AMD card, even though FPS junkies will certainly have to bake somewhat smaller rolls here. At least you don’t have to push all quality controls to the minimum like in AMD’s RX 6500XT to still get playable frame rates. That’s a small spolier in advance, the rest can be found in the review, of course.

The larger memory capacity also allows the card to perform well in WQHD with a balanced and well-considered mixture of medium settings in picture and DLSS quality. Of course, this presupposes a certain willingness to compromise visually, so you have to be honest about that. And since I meanwhile managed to borrow an AMD Radeon RX 6500XT in the form of Gigabyte’s Eagle 4GB, I’m making up for the failed launch test by also including this card in the charts. However, I decided against an extra review due to the rather measly results of the AMD card, since this would have ended in an explicit purchase warning and a flogging with an announcement wouldn’t help anyone. But more on that later, too.

Once again, there is no Founders Edition, but NVIDIA actually wanted to send a card from Gigabyte. This in turn stuck for what felt like eternities in the over-motivated customs and has not yet arrived here in the lab until today (Monday morning). Again, some creativity was needed over the weekend, so I’m testing with a retail card from Palit. As an OC card, it will already exceed the 279 Euro RRP, but the prices are just like vanilla ice cream at noon in Dubai. The almost identical Palit RTX 3060 Dual OC is currently already far above 700 Euros street price, pointless.

Unfortunately, the half-life of such prices is shorter than the melt-in-the-mouth of sweet delicacies and probably ends up being extremely sour once again. But be that as it may, today we are simply fulfilling our information and education mandate without emotion. The time window, which was once again extremely tight, also meant that a few little things had to fall by the wayside. But anyway, there is enough to read and the day has only 24 hours. The other maps will be reviewed a little later.

The trimmed GA106-150 on the GeForce RTX 3050

The chip of the NVIDIA GeForce RTX 3050 is also based on the GA106 and has been shortened a bit more. The positioning with an MSRP of 279 Euros for the non-overclocked cards is 50 Euros below the 329 Euros of the GeForce RTX 3060 and 120 Euros below that of the RTX 3060 Ti here. In relation, this is almost right and the lack of plausibility is covered by the general lack of chips anyway. For the GeForce RTX 3050, NVIDIA uses a total of 20 SM (28 for the RTX 3060) of the maximum 30 units of the GA106 (see schematic below), resulting in a total of 2560 (3584 for the RTX 3060) CUDA cores. It is therefore a true 2/3 card. Hooray!

In addition to the CUDA cores, NVIDIA’s GeForce RTX 3060 is also equipped with 20 next-generation RT (ray tracing) cores, 80 Tensor cores, 32 ROPs, and 80 TMUs. As for memory, the GeForce RTX 3050 still has 8 GB of GDDR6 memory with a speed of 14 Gbps, which has a cumulative bandwidth of 224 Gbps on the 128-bit interface of the 4 memory controllers.

If you now extrapolate the remaining 20 SM, the already mentioned 2560 CUDA cores result. Ideally, and only if all units are allowed to work with FP32. The gap to the GeForce RTX 3060 is predictable and less than 2/3 of the full configuration with 30 SM would probably not make sense in the end. At the end of the day, this allows NVIDIA to increase the yield of the GA106, which is not such a bad decision considering the extremely hungry market. Of course, the missing 10 SM (8 less than the RTX 3060) will be noticed, but you simply clock a bit higher and that’s it. Whereby this should depress the efficiency a bit, as we will see later.

Resizeable BAR is already implemented on the hardware side, but this implementation currently works rather so-so. So it is really exciting to see what NVIDIA now offers as a new entry-level RTX package, because cards are generally scarce at the moment and the target group of less well-heeled Full HD gamers really exists. It is exactly this suitability that I will examine in more detail today and this test of course still includes the electrical implementation, the PCB, the power consumption and the cooling. Thus, there is already enough reading material available.

 

The Palit RTX 3050 Dual OC 8GB

The case of the card follows the familiar Dual design language and is, of course, rather not a real eye-catcher or even an excitement as an entry-level model. The usual mix of black ABS, some light metal and hardware under the hood is thus also nothing that polarizes in any way. There is something positive about this, because the card will probably still look as timeless in a few years as it does now. Radios in the early 1970s with the round sucked corners (Soft Line) didn’t look much different.

The design with the 3.8 cm installation depth plus the 4 mm for the brushed ABS backplate makes this card a true dual-slot design with all the known advantages and (in this case hardly any) disadvantages. The radiator overhang is trimmed for clearance in the backplate with large honeycomb openings.

With 555 grams, the card is also a real flyweight. The length of 24.4 cm is short (and still much longer than the much shorter PCB) and the installation height of 11.5 cm from the top edge of the PCIe slot with the card installed to the top of the cover is not really lush either. 

The single 8-pin connector on the top is completely sufficient and it also visually marks the end of the hidden board. You will see on the next page that the overlong cooler is almost like shooting at a sparrow with a cannon. Of course, there are more details about the cooler design. The NVLINK port has logically been left out, because SLI is dead anyway and not desired here. RGB is found on the upper side as backlight for the GeForce RTX lettering, after all.

The new HDMI 2.1 port should not be missing, nor the three current DisplayPorts, of course. The very large cooling vents show where the wind is (not) blowing from, and that would be the end of the exterior, because the fins are vertical and the honeycomb design has no real function in terms of cooling.

The current GPU-Z screenshot shows us the data of the Palit graphics card once again, the rest I already listed above. The 1552 MHz base clock corresponds to NVIDIA’s reference specification and Palit raises the reference’s 1777 MHz boost clock to 1822 MHz ex-factory. The 1750 MHz memory clock was to be expected and the memory expansion with 8 GB on the 128 bit interface logically as well, when you think of the 4 memory controls with 64 bits each from the schematic shown above.

Again, I have a table for all statisticians among you, before it really gets going from the next page on.

Test system and evaluation software

The benchmark system is new and is no longer in the lab, but in the editorial room again. I now also rely on PCIe 4.0, the matching X570 motherboard in the form of an MSI MEG X570 Godlike, and a select Ryzen 9 5950 X that has been heavily overclocked water-cooled. In addition, there is fast RAM as well as several fast NVMe SSDs. For direct logging during all games and applications, I use NVIDIA’s PCAD, which increases the comfort immensely.

The measurement of power consumption and other things is carried out here in the special laboratory on a redundant test system that is identical down to the last detail, then on two tracks using high-resolution oscillograph technology…

…and the self-created MCU-based measurement setup for motherboards graphics cards (pictures below), where at the end in the air-conditioned room also the thermographic infrared images are created with a high-resolution industrial camera. The audio measurements are done outside in my Chamber.

I have also summarized the individual components of the test system in a table:

 

Kommentar

Lade neue Kommentare

D
Denniss

Urgestein

1,525 Kommentare 551 Likes

Könnte eine brauchbare Karte werden wenn der Preis stimmt. Da hat Nvidia bestimmt lange die teildefekten Chips der 3060 gesammelt für die Resteverwertung als 3050. Da kommt bestimmt irgendwann noch eine Art 3040 als glatt halbierte 3060 mit den von nvidia so geliebten 6GB VRAM.

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

Also wenn jetzt noch andere Boardpartner die RTX 3050 mit mehr als 4 VRM Phasen und einer Backplate aus Aluminium + Wärmeleitpad veröffentlichen dann wird es interessanter.
Von der PCB größe wäre sogar ein Modell in Mini-ITX-Format möglich.
RGB und 3 Lüfter finde ich an dieser Stelle unnötig, aber hoffentlich gibt es genug Auswahl zum Kauf. :coffee:

Antwort Gefällt mir

C
Ccnorth

Mitglied

19 Kommentare 4 Likes

Ergebnis wie erwartet.

wäre es noch möglich die 3050 gegen die 6500xt mit mittleren Details zustellen und ein oder 2 ältere Karten noch dabei?

Antwort Gefällt mir

c
catpig

Mitglied

26 Kommentare 10 Likes

Also diese Karte als Wettbewerber der 6500XT zu behandeln find ich schon gewagt. Die 6500XT kostete als ich vor 5 Stunden schaute real 299€ (geizhals, kurzfristig lieferbar, exkl. Versand). Nvidia will für diese sehr viel Mining-geeignetere eine UVP von 279, die dürfte also real bestenfalls bei 400€ anfangen. Soviel will ich nicht für ne Graka ausgeben, da hol ich mir eher ne weitere gebrauchte RX470 (falls die aktuelle, vor ca 2 Jahren gebraucht gekaufte, RX470 kaputtgeht) und steck das gesparte Geld in den Garten oder spende es einfach...

Edit: Der Haken ist halt wie rum man an die Sache rangeht: Manche wollen bei bestimmten Spielen eine bestimmte Mindestleistung und zahlen dann das, was das eben kostet. Andere haben ein bestimmtes Budget und stellen dann entweder die Details runter oder spielen anspruchsvolle Spiele eben einfach ein paar Jahre später, wenn die Crypto-Pyramide eingestürzt ist oder die Produktionskapazitäten größer sind. Klar, für viele ist diese Vorstellung indiskutabel, und das ist völlig ok. Aber für viele eben auch nicht.

Und ja, AMD hat kein direktes Gegenstück zur 3050. Und Nvidia kein Gegenstück zur 6500XT. Manchmal decken eben nicht beide Hersteller den kompletten Markt ab, Nvidia hat eben offenbar aktuell kein Interesse Einsteiger-Karten anzubieten. Selbst die billigste 1660 kostet 399€ (geizhals.... wie oben).

Edit2: Ansonsten ist der Artikel natürlich wie immer super.

Antwort 1 Like

Klicke zum Ausklappem
ApolloX

Urgestein

1,674 Kommentare 951 Likes

"eher kein echter Hingucker" - Ist das hier die hässlichste Karte der Neuzeit?

Wurde mein Lieblingsspiel Time Spy garnicht bemüht? Komisch, auf der 3DMark Seite stehen auch noch keine Scores. Der erste holt also gleich den Weltrekord :)

Antwort Gefällt mir

LëMurrrmel

Veteran

168 Kommentare 137 Likes

Meine Meinung: AMD hat mit der 6500XT komplett ins Klo gegriffen. Eigener Chip mit fehlenden - eigentlich zeitgemäßen - Videodecoding-Features, lächerlich wenig RAM und nur 4 PCIe-Lanes.

Beim Namen 6500XT hätte ich eher mit einer 2/3-Variante vom Navi23-Chip gerechnet (so wie es Nvidia mit der RTX3050 auf Basis eines nur zu 2/3 beschalteten GA106 gemacht hat). Dazu 6GB DDR6 (96bit), 48 ROPs, 20-24 CUs und ~1500 ALUs. Und eben minimum 8 PCIe-Lanes.
Damit hätte es in "Einsteigerklasse" sogar ein richtiges Kopf-an-Kopf-Rennen AMD vs. Nvidia geben können.

Aber so wie es sich jetzt darstellt, wird Nvidia mit der RTX3050 richtig gut Kasse machen können. Eigentlich wundert es mich, dass die Karte ganze 8GB VRAM hat. Mit 6GB und 96bit Speicheranbindung würde sich die Karte genausogut verkaufen, und man hätte später noch eine Ti-Variante mit 8GB/128bit nachschieben können.

Antwort 1 Like

c
catpig

Mitglied

26 Kommentare 10 Likes

Jupp, stattdessen ist AMD konkurrenzlos, und kann sich Scherze wie das Entfernen der Videosachen leisten. Vielleicht bringt Intels Einstieg wenigstens simulierten Wettbewerb anstatt der aktuellen Farce, die Hoffnung stirbt zuletzt ;)

Antwort Gefällt mir

Megaone

Urgestein

1,747 Kommentare 1,646 Likes

Ich bin eigentlich kein NVDIA Fan. Aber ich kaufe seit Jahren ausschließlich NVDIA Karten weil sie einfach mehr drauf haben. Ich denke, das man die 3050 länger sinnvoll nutzen kann durch DLSS und den ganzen Kram.

Wenn ich sehe, wie NVIDIA meine alte 2080 Super im Zweitrechner durch Ihren Softwarezirkus am Leben hält, bin ich wirklich zufrieden. Sowas sollte man nicht unterschätzen. Eigentlich hat man mit dieser Karte auch mit RT im Bereich bis WQHD Leistung satt. Sie ist mit Einschränkungen 4 K tauglich. Selbst eine 6800XT kommt dagegen doch mit RT, spätestens falls DLSS zuschaltbar schwer ins rödeln.

Ich denke mit der 3050 wird man im Bereich FHD und WQHD ähnliche Erfahrungen machen. Sie wird deutlich länger sinnvoll nutzbar sein als eine 6500er und last but not least im Wiederverkauf auch deutlich höhere Ergebnisse erzielen.

Da ich nicht an einen Zusammenbruch der Grafikkartenpreise glaube, ist das ein Aspekt, den man imho etwas mehr in den Focus rücken sollte.

Antwort 1 Like

Ghoster52

Urgestein

1,421 Kommentare 1,082 Likes

Wenn man Hardware-Broker und vorallem die Scalper endlich mal ausschließen könnte,
wären so einige Karten durchaus interessant, aber die Realität sieht leider anders aus...

Schaut man sich die Umsatzzahlen beider Hersteller an, machen Sie fast nichts falsch.
Sie können (bedingt) nichts dafür, wenn nichts beim Kunden ankommt und alles wie warme Semmeln weggeht.
Der "Chip-Mangel" ist allgegenwärtig und wird noch Jahre anhalten....

Antwort 2 Likes

Megaone

Urgestein

1,747 Kommentare 1,646 Likes

Keine Frage. In der Zwischenzeit wird die UVP "angepasst" und die Inflation tut ihr übriges. Neben den reinen Hardwarekosten wird zunehmend der Verbrauch der Produkte in den Focus rücken. Da Leistung aber leider Strom kostet und eine 500 Watt Graka mit entsprechenden NT nicht jedermanns sache ist, wird dies wird wohl zu einer weiteren Spaltung der Spielerschaft führen. Während die einen wie bisher schreien. "Holla, was Lacostet die Welt, spielt doch alles keine Rolex", wird ein Großteil der Spielerschaft nicht umhin kommen, sich auf auf die Suche nach energieeffizienten Systemen machen. Nicht umsonst wurde ja schon über Systeme mit integrierter Grafik diskutiert.

In diesem Sinne, für viele die es bis jetzt noch nicht verstanden haben.

Wunderland ist abgebrannt und wir werden uns noch umgucken.

Antwort 1 Like

P
Phelan

Veteran

195 Kommentare 172 Likes

im prinzip schöne Karte, könnte ein 1060 Nachfolger werden. zur 1660S sieht sie aber schon nicht mehr so richtig gut aus.

Der Vergleich mit der 6500 hingt aber gewaltig ... da die 3050 die über 2fache Chipgröße hat.
Technisch ist die 6600 der Gegenspieler.

Die 6500 ist ne 99€ Grafikarte die nicht wirklich zum Spielen geeigenet ist, schon wegen der 4 Gbyte Ram.

Antwort 1 Like

c
catpig

Mitglied

26 Kommentare 10 Likes

AMD kann kein DLSS und das eine 400-500€-Karte schneller ist und gebraucht mehr bringt als eine 300€-Karte ist ja wohl mehr als selbstverständlich ;)

Antwort Gefällt mir

ssj3rd

Veteran

219 Kommentare 155 Likes

Früher hat man sich so eine Karte für den zweit/dritt Rechner geholt, oder auf Halde wenn etwas ausfällt.

Heutzutage legst du 500€ hin und holst dir das Teil für dein Hauptrechner. Sind schon arg seltsame Zeiten 😃

Antwort 1 Like

Megaone

Urgestein

1,747 Kommentare 1,646 Likes

Eben drum. Und wenn eine 400-500 Karte beim Wiederverkauf wegen DLSS etc. im Verhältnis oder prozentual betrachtet mehr Geld bringt, kann sie auf die Zeit bezogen, der günstigere Kauf sein + dem deutlich besseren Funfaktor während der Nutzungsdauer. :cool:

Eigentlich ganz einfach.

EK - Restwert nach Zeit X = Tatsächliche Kosten.

Irgendwie ist die 6500er ziemlich obsolet oder andersrum, wem willst du diese Trümmerlotte mit 4 GB in 3 Jahren noch verkaufen?

Antwort Gefällt mir

D
Denniss

Urgestein

1,525 Kommentare 551 Likes

Komisch, meine RX 460 hat nur 2GiB VRAM und ich konnte damit sogar SotTR durchspielen.

Antwort 1 Like

M
Mr.Danger

Mitglied

77 Kommentare 43 Likes

Du solltest dich bei der Nvidia Corporation als Marketing Spezialist bewerben, du hast da eine strategisches Schwäche ausgemacht. So ein Geschäft hätten sie sich bis vor kurzem nicht entgehen lassen 😄

Antwort 2 Likes

Megaone

Urgestein

1,747 Kommentare 1,646 Likes

Lass ihn blos wo er ist, sonst wird es noch teurer.🤣🤣🤣

Antwort 1 Like

D
Denniss

Urgestein

1,525 Kommentare 551 Likes

Mit 6GB/96Bit kann nvidia immer noch ne 3040 rausbringen

Antwort 1 Like

c
catpig

Mitglied

26 Kommentare 10 Likes

Die Hoffnung stirbt zuletzt. Genug Platz nach unten ist ja, die 3050 hat ne UVP von 249$ (wiki), bei der 16/20 Serie ging es noch bis 149$ runter.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung