GPUs Graphics Reviews

Gigabyte GeForce RTX 3050 Gaming OC 8GB Review: Performance fully in line with the trend, but unfortunately a bit cheeky

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

The third entry-level card with the new GA106-150 in my test series today is Gigabyte’s GeForce RTX 3050 Gaming OC 8GB, because you can’t always only test the big ones and the target group of those who prefer to keep their kidneys also wants to be served. And what was the first thing I noticed about the Gaming OC? Well, you know that the youthful moped rider of the world often thinks that the louder the part is banging, the faster it goes. And unfortunately, many Asians still imply a leading performance with three fans including operating noise. Today’s article will show whether this is the case, or whether Igor prefers to play police and then brake the part again in accordance with the standards for European pixel traffic. Spoiler instead of exhaust? Yes.

But let’s get to the general things first. The 8 GB memory is also sufficient for this card, and the memory expansion also allows the card to perform quite passably in WQHD with a balanced and well-considered mixture of medium settings in picture and DLSS quality. Of course, this presupposes a certain willingness to compromise visually, so you have to be honest about that. By the way, the price of 479 Euros is currently on par with MSI’s RTX 3050 Gaming X, which was really convincing in terms of technical implementation. The bar is therefore really high!

The trimmed GA106-150 on the GeForce RTX 3050

The chip of the NVIDIA GeForce RTX 3050 is also based on the GA106 and has been shortened a bit more. For the GeForce RTX 3050, NVIDIA uses a total of 20 SM (28 for the RTX 3060) of the maximum 30 units of the GA106 (see schematic below), resulting in a total of 2560 (3584 for the RTX 3060) CUDA cores when all units are allowed to work with FP32. In addition to the CUDA cores, NVIDIA’s GeForce RTX 3060 is also equipped with 20 next-generation RT (ray tracing) cores, 80 Tensor cores, 32 ROPs, and 80 TMUs.

As for memory, the GeForce RTX 3050 still has 8 GB of GDDR6 memory with a speed of 14 Gbps, which has a cumulative bandwidth of 224 Gbps on the 128-bit interface of the 4 memory controllers. The total of 8 lanes on the PCIe 4.0 are more than sufficient for this. Incidentally, even with PCIe 3.0, these are still sufficient to not put the card at a disadvantage. But for the chip yield, this pruning seems to have really brought something.

The gap to the GeForce RTX 3060 is of course predictable and less than 2/3 of the full configuration with 30 SM would probably not make sense in the end. At the end of the day, this allows NVIDIA to increase the yield of the GA106, which is not such a bad decision considering the extremely hungry market. Of course, the missing 10 SM (8 less than the RTX 3060) will be noticed, but you simply clock a bit higher and that’s it.

Resizeable BAR is already implemented on the hardware side, but this implementation currently works rather so-so. So it is really exciting to see what NVIDIA now offers as a new entry-level RTX package, because cards are generally scarce at the moment and the target group of less well-heeled Full HD gamers really exists. It is exactly this suitability that I will examine in more detail today and this test of course still includes the electrical implementation, the PCB, the power consumption and the cooling.

The card’s casing follows the familiar design language of Gigabyte’s gaming range and they deliberately place this card below the Aorus brand. However, a fissuring of the surface is still part of it. Anthracite as the color of choice (very refreshing!) and ABS as the main component – that’s all there is to the radiator cover. It is not luxurious, haptically it is rather average, but visually it again fits the familiar design language. In contrast to MSI, however, three fans are used, which looks fast, but might lead to problems in the end with a meager 8 cm (7.6 cm rotor diameter).

The overall construction with the 3.8 cm installation depth plus the 4 mm for the backplate made of light metal (a bit of haptic luxury was needed) makes this card a real dual-slot design with all the known advantages and disadvantages. The large radiator overhang is trimmed in the backplate with a large openings for maximum passage.

Weighing in at 700 grams, this card is almost halfway between Palit’s lightweight card and MSI’s kilo stone, which looks good at first. However, the length of 28.5 cm is clearly superior to the other two cards already tested. The installation height is tolerable at 11 cm from the top edge of the PCIe slot with the card installed to the top of the cover, which guarantees more space to the side panel.

The single 8-pin connector on the top is completely sufficient and it also visually marks the end of the hidden, with 21 cm also somewhat longer PCB. There are more details about the cooler and fan design in a moment. The NVLINK port has logically been left out, because SLI is dead anyway and not desired here. RGB is found on the upper side as backlight for the Gigabyte lettering without logo.

The obligatory HDMI 2.1 port should not be missing, and of course the three current DisplayPorts. The round holes still release some waste heat from inside the case, but have nothing to do with direct cooling since the fins look vertical.  With that, we are once again completely done with the outward appearances and more can be found later in the teardown.

The opposite end of the map shows us only one more closed event.

The current GPU-Z screenshot shows us the MSI graphics card’s data once again, the rest I already listed above. The 1552 MHz base clock corresponds to NVIDIA’s reference specification and MSI raises the reference’s 1777 MHz boost clock to 1822 MHz ex-factory. The 1750 MHz memory clock was to be expected and the memory expansion with 8 GB on the 128 bit interface logically as well, when you think of the 4 memory controllers from the schematic shown above.

Again, I have a table for all statisticians among you, before it really gets going from the next page on.

Test system and evaluation software

The benchmark system is new and is no longer in the lab, but in the editorial room again. I now also rely on PCIe 4.0, the matching X570 motherboard in the form of an MSI MEG X570 Godlike and a select Ryzen 9 5950 X that has been heavily overclocked water-cooled. In addition, there is fast RAM as well as several fast NVMe SSDs. For direct logging during all games and applications, I use NVIDIA’s PCAD, which increases the comfort immensely.

The measurement of power consumption and other things is carried out here in the special laboratory on a redundant test system that is identical down to the last detail, then on two tracks using high-resolution oscillograph technology…

…and the self-created MCU-based measurement setup for motherboards graphics cards (pictures below), where at the end in the air-conditioned room also the thermographic infrared images are created with a high-resolution industrial camera. The audio measurements are done outside in my Chamber.

I have also summarized the individual components of the test system in a table:

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

297 Kommentare 300 Likes

Gigabyte dachte sich wohl

Laut= schnell

Antwort 4 Likes

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Ein Ferrari muss Laut sein :LOL:

Antwort 3 Likes

G
Guest

Witzigerweise habe ich tatsächlich jemanden mit dieser Einstellung im Kreis 😁

Da laufen alle Lüfter auf max RPM und gezockt wird mit Headset... Sowas muss es auch geben. 🤷🏻

Antwort 2 Likes

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Ein Freund hatte seinerzeit 3 Blätrige YS Tech Lüfter auf dem Radiator. Kleine Finger konnten die bestimmt zerkleinern.

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,805 Likes

Ich will das nicht wieder thematisieren, aber Eddie Lin ist immer noch Chef der Grafikkartensparte und scheinbar nicht vom Krach loszubekommen. Der verteidigte damals auch schon das laute Windforce x3 Design mit Händen und Füßen, da Asiaten nun mal um Längen lärmresistenter sind als wir Mitteleuropäer. Von den fiependen Pumpen der Waterforce mal abgesehen. Da musste dann jemand Junges aus dem Marketing die von mir geschickten Audio-Files anhören, damit der Betrug von CM/AVC mit den Vorserien-Resten der FuryX aufgeflogen ist. :D

Memories:

Antwort 6 Likes

Klicke zum Ausklappem
H
Headyman

Veteran

116 Kommentare 53 Likes

Ich glaube da ist ein Zahlendreher im Text:
Mit ca. 34,3 dB im Gaming Loop
Müsste das nicht eher 43 sein?

Antwort Gefällt mir

ApolloX

Urgestein

1,664 Kommentare 931 Likes

Ich bin da immer wieder erstaunt, das man so "kleinen" Karten auch drei Lüfter gibt und frag mich, was kühlt der hintere Lüfter eigentlich?
Da gibt es alte Karten, die mehr Leistung tanken aber nur einen Lüfter haben, egal ob axial oder radial.

Antwort Gefällt mir

arcDaniel

Urgestein

1,593 Kommentare 855 Likes

Wirkungsprinzip --> Sex sells

Wird von Unwissenden eher gekauft.

Antwort 2 Likes

Martin Gut

Urgestein

7,774 Kommentare 3,572 Likes

Durch die Heatpipes wird die Wärme sehr gut auf den ganzen Lamellenblock verteilt. Im Bereich des 3. Lüfters liegt keine Platine mehr darunter, so dass man dort mehr Lamellen anbringen und gerade durch die Karte durchpusten kann. Somit ist das der wirksamste Bereich des Kühlers.

Bei vielen Karten in dieser Grösse und Leistungsklasse sind aber 2, dafür etwas grössere Lüfter verbaut. Damit kann man gleich viel Luft mit tieferer Drehzahl fördern, was schon deutlich angenehmere Geräusche erzeugt.

Ich habe meine Gigabyte GTX 1650 Super Windforce (120 Watt) auf nur einen 14 cm NB B14-1 Lüfter umgebaut. Der schafft es auch, die Wärme abzuführen bei einer Drehzahl von 250 RPM im Leerlauf und ca. 600 RPM bei voller Last. Es geht also definitiv auch besser.

Antwort 2 Likes

G
Guest

Das is eigentlich unglaublich. Ich hatte zwar für mich auch selbst abgespeichert: Gigabyte = laute Graka, aber die Erkenntnis beruht auf einer alten GeForce GTX460.
Unglaublich, dass man bis heute nicht dazugelernt hat. Wenigstens für den nicht-asiatischen Markt hätte man ja die Lüfterdrehzahl anpassen können, denn ganz offentlich wäre ja Raum dafür gewesen.
Andererseits gibt es natürlich immer und ständig viele Foren- und Jammereinträge, dass die schöne Graka oder generell Hardware ja "Fieber" hätte. Das war schon vor 25 Jahren so - damals noch knapp über Fiebertemperaturen - und mittlerweile eben jenseits der 65-70,0°.

Nur ... eine so abgespeckte Karte dann so furchtbar laut mit so einem doch recht großem Klopper von Kühler/Lüfterkonstruktion? Nun. Maße laut Kurzrecherche: 282 x 117 x 41 mm (L x B x H). Also 28 cm lang ist schon nicht so wenig.
Nun, jeder wie er will. Ich werde mir jedenfalls auf lange Sicht keine Gigabyte-Grakas mehr kaufen. Und nach den Erlebnissen vor einigen Jahren mit günstigeren Gigabyte-Boards auch keine Boards.
Aber in diesem Fall ist es ja schon klar: 134 W oder was es nun waren, müssen nicht an uralte Grakas mit Radaulüfter erinnern.

Antwort 1 Like

Klicke zum Ausklappem
P
Pokerclock

Veteran

429 Kommentare 367 Likes

Ich kenne kaum eine Gigabyte-Grafikkarte aus dem letzten Jahrzehnt, die man wirlich leiser als die Konkurrenz bezeichnen konnte. Leider ist dieses 3x-Fan-Design ein dummer Kundenfang. Merke ich immer wieder, wenn es heißt, "ich will eine Karte mit drei Lüftern". Dass die Sachlage etwas komplizierter ist, muss man da erst einmal erklären, teilweise vergeblich.

Doch nicht einmal die Qualität stimmte bei den Gigabyte-Lüftern. Ich hatte von keinem anderen Boardpartner so viele defekte Lüfter, meistens Lagerschäden. Und meistens kurz vor oder nach Ende einer Gewährleistung/Garantie. Günstig sind sie ja in der Anschaffung, aber was nutzt mir das, wenn ich am Ende nur Ärger damit habe? Bei Gigabyte gibt es noch so einige anderen Baustellen. Mangelhafte Kühlung (trotz Lautstärke!) und merkwürdige Boardlayouts (Strombuchsen mit Kabeln ans PCB gelötet, really?) sind nur ein paar Beispiele.

Antwort 2 Likes

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Meine letzte Gigabyte, eine 1060 ITX war schön leise : )

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ganz ehrlich, ich habe einige Gigabyte Karten die letzte Zeit in den Hände gehabt und alle waren von der Kühlung/Lautstärke = Müll.
Egal ob Windforce oder Aorus.

Antwort 1 Like

Martin Gut

Urgestein

7,774 Kommentare 3,572 Likes

Immer wieder aufheulende Lüfter im Zerofanmodus. Veraltete, fehlerhafte Software.

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

Wenn man die Werte aus dem Balkendiagramm "Average Performance relative to the RTX 3060" umrechnet in "Average Cost relative to the RX 6600" dann würden die Preise für die Grafikkarten ungefähr so ausfallen ;)

RX 6800 715 ,- €
RTX 3070 673 ,- €
RX 6700 XT 646 ,- €
RTX 3060 Ti 597 ,- €
RX 6600 XT 538 ,- €
RTX 3060 490 ,- €
RX 6600 469 ,- € ( 100 % , Stand 07.02.2022 )
RTX 3050 360 ,- €
RX 6500 XT 275 ,- €

Antwort 2 Likes

s
shaboo

Mitglied

76 Kommentare 75 Likes

Wie schafft man es denn bitte, eine poplige 3050 laut zu machen? Die Deppen ...

Naja, ich weiß schon, warum ich bei GraKas bevorzugt MSI und ASUS kaufe ...

Antwort Gefällt mir

k
kleinstblauwal

Mitglied

54 Kommentare 23 Likes

Ich hatte damals auch eine HD7870 GHz in der Windforce Variante. Werkseinstellung war min 40% der maximalen Drehzahl, selbst mit 25% war es nicht wirklich leise und weniger konnte man im afterburner nicht einstellen. Zumindest die Temperaturen für GPU waren auch mit Mindestgeschwindigkeit völlig in Ordnung.

Antwort Gefällt mir

Denn1s

Veteran

118 Kommentare 35 Likes

Ich frage mich auch wie man die 130Watt nicht nur laut sondern auch heiß machen kann... Das ist ne Karte mit TripleFan! Das muss schon in die Richtung Vorsatz gehen.

Antwort 1 Like

BigReval

Urgestein

527 Kommentare 175 Likes

Die sind doch mit dem Klammerbeutel gpudert--- Ne Einsteigerkarte für DAS Geld??? Da wären 300€ mehr als genug¶ II

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung