Grafikkarten Testberichte VGA

Gigabyte GeForce RTX 3050 Gaming OC 8GB im Test: Performance voll im Trend, aber leider etwas vorlaut

Die dritte Einstiegskarte mit dem neuen GA106-150 in meiner Testreihe ist heute Gigabytes GeForce RTX 3050 Gaming OC 8GB, denn man kann ja nicht immer nur die dicken Brummer testen und die Zielgruppe derer, die Ihre Nieren lieber behalten wollen, möchte ja auch bedient werden. Und was ist mir an der Gaming OC als Erstes aufgefallen? Naja, Ihr kennt das ja, dass der jugendliche Mopedfahrer von Welt oft meint, je lauter das Teil töppert, umso schneller fährt es dann auch. Und leider implizieren immer noch viele Asiaten mit drei Lüftern samt Betriebsgeräusch eine führende Performance. Ob dem so ist, oder ob Igor doch lieber Polizei spielt und das Teil dann wieder normgerecht für den europäischen Pixelverkehr einbremst, das wird der heutige Artikel zeigen. Spoiler statt Auspuff? Ja.

Doch kommen wir zunächst zu den allgemeinen Dingen. Die 8 GB Speicher sind auch für diese Karte ausreichend und so ermöglicht es der Speicherausbau auch, dass die Karte in WQHD mit einer ausgewogenen und wohlüberlegten Mixtur aus mittleren Einstellungen bei Bild- und DLSS-Qualität durchaus noch passabel performt. Das setzt natürlich eine gewisse optische Kompromissbereitschaft voraus, so ehrlich muss man natürlich auch bleiben. Preislich liegt sie aktuell mit 479 Euro übrigens auf auf dem Level der RTX 3050 Gaming X von MSI, die in der technischen Umsetzung wirklich zu überzeugen wusste. Die Messlatte liegt somit wirklich hoch!

Der beschnittene GA106-150 auf der GeForce RTX 3050

Der Chip der NVIDIA GeForce RTX 3050 basiert ebenfalls auf dem GA106 und wurde noch ein wenig mehr eingekürzt. Für die GeForce RTX 3050 nutzt  NVIDIA insgesamt 20 SM (28 bei der RTX 3060)  der maximal 30 Einheiten des GA106 (siehe Schema unten), was zu insgesamt 2560 (3584 bei der RTX 3060) CUDA-Kernen führt,  wenn alle Einheiten mit FP32 werkeln dürfen. Zusätzlich zu den CUDA-Kernen ist NVIDIAs GeForce RTX 3060 auch mit 20 RT-Kernen der nächsten Generation (Ray-Tracing), 80 Tensor-Kernen, 32 ROPs und 80 TMUs ausgestattet.

Was den Speicher betrifft, so verfügt die GeForce RTX 3050 noch über 8 GB GDDR6-Speicher mit einer Geschwindigkeit von 14 Gbps, der am 128 Bit Interface der 4 Speicher-Controller eine kumulative Bandbreite von 224 Gbps besitzt. Dafür reichen die insgesamt 8 Lanes am PCIe 4.0 mehr als aus. Im Übrigen sind diese selbst bei PCIe 3.0 noch ausreichend, um der Karte keine Nachteile zu verschaffen. Aber für die Chipausbeute scheint diese Beschneidung wirklich was gebracht zu heben.

Der Rückstand zur GeForce RTX 3060 ist so natürlich vorauszusehen und weniger als 2/3  des Vollausbaus mit 30 SM ergäben letztendlich wohl auch keinen Sinn mehr. So kann man am Ende des Tages seitens NVIDIA die Ausbeute des GA106 erhöhen, was in Anbetracht des extrem hungrigen Marktes gar keine so schlechte Entscheidung ist. Merken wird man die fehlenden 10 SM (8 weniger als die RTX 3060) natürlich schon, aber man taktet dann einfach etwas höher und fertig.

Resizeable BAR ist zwar hardwareseitig bereits implementiert, allerdings funktioniert diese Implementierung aktuell eher so lala. Es ist also wirklich spannend zu sehen, was NVIDIA jetzt als neues RTX-Einstiegspaket anbietet, denn Karten sind momentan generell knapp und die Zielgruppe der weniger gut betuchten Full-HD-Spieler existiert ja wirklich. Genau diese Eignung werde ich heute genauer untersuchen und dieser Test umfasst natürlich auch noch die elektrische Umsetzung, die Platine, die Leistungsaufnahme und die Kühlung.

Das Gehäuse der Karte folgt der bekannten Formensprache der Gaming Reihe von Gigabyte und man ordnet diese Karte bewusst unterhalb des Aorus-Brands an. Eine Zerklüftung der Oberfläche gehört damit aber trotzdem dazu. Anthrazit als Farbe der Wahl (sehr erfrischend!) und ABS als Hauptkomponente – mehr gibt es nicht für die Kühlerabdeckung. Luxuriös ist es nicht, haptisch eher Durchschnitt aber optisch passt es wiederum zur bekannten Designsprache. Man setzt, im Gegensatz zu MSI, aber auf drei Lüfter, was zwar schnell aussieht, aber im Ende bei mageren 8 cm (7,6 cm Rotordurchmesser) auch zu Problemen führen dürfte.

Der Gesamtaufbau mit den 3.8 cm Einbautiefe zuzüglich der 4 mm für die Backplate aus Leichtmetall (etwas haptischer Luxus musste es dann schon sein) macht diese Karte zu einem echten Dual-Slot-Design mit allen bekannten Vor- und und Nachteilen. Der große Kühlerüberhang wird in der Backplate mit einer großen Öffnungen auf maximalen Durchlass getrimmt.

Mit den abgewogenen 700 Gramm liegt diese Karte fast in der Mitte zwischen der leichte Karte von Palit und dem Kilo-Stein von MSI, was erst einmal gut ausschaut. Die Länge von 28,5 cm ist übertrifft jedoch die beiden anderen, bereits getesteten Karten deutlich. Die Einbauhöhe ist mit 11 cm ab der Oberkante des PCIe-Slots bei eingebauter Karte bis zur Oberseite der Abdeckung erträglich, was mehr Platz zur Seitenwand garantiert.

Der einzelne 8-Pin-Anschluss an der Oberseite reicht völlig aus und er markiert optisch auch des Ende der versteckten, mit 21 cm auch etwas längeren Platine. Zum Kühler- und Lüfterdesign gibt es gleich auch noch weitere Details. Den NVLINK-Anschluss hat man logischerweise weggelassen, denn SLI ist eh tot und hier auch nicht erwünscht. RGB findet sich an der Oberseite als Hintergrundbeleuchtung für den Gigabyte-Schriftzug ohne Logo.

Der obligatorische HDMI-2.1-Anschluss darf nicht fehlen, die drei aktuellen DisplayPorts natürlich auch nicht. Die Rundloch-Öffnungen entlassen noch etwas Abwärme aus dem Gehäuseinneren, haben aber mit der direkten Kühlung nichts zu tun, da die Lamellen senkrecht sehen.  Damit wären wir mit den Äußerlichkeiten auch schon wieder einmal komplett fertig und mehr gibt es dann später beim Teardown.

Das gegenüberliegende Ende der Karte zeigt uns nur noch eine geschlossene Veranstaltung.

Die Daten der MSI-Grafikkarte zeigt uns noch einmal der aktuelle GPU-Z Screenshot, den Rest hatte ich ja schon weiter oben aufgeführt. Die 1552 MHz Basistakt entsprechen der Referenzvorgabe von NVIDIA und die 1777 MHz Boost-Takt der Referenz hebt MSI auf 1822 MHz ab Werk an. Die 1750 MHz Speichertakt waren zu erwarten und der Speicherausbau mit 8 GB am 128-Bit Interface logischerweise auch, wenn man an die 4 Speicher-Controller aus dem oben gezeigten Schema denkt.

Auch hier habe ich noch einmal eine Tabelle für alle Statistiker unter Euch, bevor es dann ab der nächsten Seite wirklich voll losgeht.

Testsystem und Auswertungssoftware

Das Benchmarksystem ist neu und steht jetzt nicht mehr im Labor, sondern wieder im Redaktionsraum. Ich setze nunmehr auch auf PCIe 4.0, das passende X570 Motherboard in Form eines MSI MEG X570 Godlike und einen selektierten Ryzen 9 5950 X, der wassergekühlt stark übertaktet wurde. Dazu kommt schneller RAM sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich NVIDIAs PCAD, was den Komfort ungemein erhöht.

Die Messung der Leistungsaufnahme und anderer Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber.

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

MSI GeForce RTX 3050 Gaming X 8G, 8GB GDDR6, HDMI, 3x DP (V397-421R)

MindfactoryZentrallager: 5 Stück lagernd, Lieferung 1-3 WerktageFiliale Wilhelmshaven: 5 Stück lagerndStand: 27.05.22 23:24378,00 €*Stand: 27.05.22 23:21
equipprAuf Lager, 1-3 Werktage Lieferzeit389,00 €*Stand: 27.05.22 23:22
BA-ComputerAbhol-/Versandbereit in 1-3 WerktagenStand: 27.05.22 23:24389,00 €*Stand: 27.05.22 23:23
*Alle Preise inkl. gesetzl. MwSt zzgl. Versandkosten und ggf. Nachnahmegebühren, wenn nicht anders beschriebenmit freundlicher Unterstützung von www.geizhals.de

 

Lade neue Kommentare

konkretor

Veteran

190 Kommentare 155 Likes

Gigabyte dachte sich wohl

Laut= schnell

Antwort 4 Likes

RedF

Urgestein

2,519 Kommentare 1,097 Likes

Ein Ferrari muss Laut sein :LOL:

Antwort 3 Likes

Pirate85

Veteran

157 Kommentare 83 Likes

Witzigerweise habe ich tatsächlich jemanden mit dieser Einstellung im Kreis 😁

Da laufen alle Lüfter auf max RPM und gezockt wird mit Headset... Sowas muss es auch geben. 🤷🏻

Antwort 2 Likes

RedF

Urgestein

2,519 Kommentare 1,097 Likes

Ein Freund hatte seinerzeit 3 Blätrige YS Tech Lüfter auf dem Radiator. Kleine Finger konnten die bestimmt zerkleinern.

Antwort Gefällt mir

Igor Wallossek

Format©

6,671 Kommentare 10,872 Likes

Ich will das nicht wieder thematisieren, aber Eddie Lin ist immer noch Chef der Grafikkartensparte und scheinbar nicht vom Krach loszubekommen. Der verteidigte damals auch schon das laute Windforce x3 Design mit Händen und Füßen, da Asiaten nun mal um Längen lärmresistenter sind als wir Mitteleuropäer. Von den fiependen Pumpen der Waterforce mal abgesehen. Da musste dann jemand Junges aus dem Marketing die von mir geschickten Audio-Files anhören, damit der Betrug von CM/AVC mit den Vorserien-Resten der FuryX aufgeflogen ist. :D

Memories:

Antwort 6 Likes

Klicke zum Ausklappem
H
Headyman

Mitglied

52 Kommentare 12 Likes

Ich glaube da ist ein Zahlendreher im Text:
Mit ca. 34,3 dB im Gaming Loop
Müsste das nicht eher 43 sein?

Antwort Gefällt mir

ApolloX

Urgestein

706 Kommentare 339 Likes

Ich bin da immer wieder erstaunt, das man so "kleinen" Karten auch drei Lüfter gibt und frag mich, was kühlt der hintere Lüfter eigentlich?
Da gibt es alte Karten, die mehr Leistung tanken aber nur einen Lüfter haben, egal ob axial oder radial.

Antwort Gefällt mir

arcDaniel

Urgestein

925 Kommentare 403 Likes

Wirkungsprinzip --> Sex sells

Wird von Unwissenden eher gekauft.

Antwort 2 Likes

M
Martin Gut

Urgestein

5,322 Kommentare 2,053 Likes

Durch die Heatpipes wird die Wärme sehr gut auf den ganzen Lamellenblock verteilt. Im Bereich des 3. Lüfters liegt keine Platine mehr darunter, so dass man dort mehr Lamellen anbringen und gerade durch die Karte durchpusten kann. Somit ist das der wirksamste Bereich des Kühlers.

Bei vielen Karten in dieser Grösse und Leistungsklasse sind aber 2, dafür etwas grössere Lüfter verbaut. Damit kann man gleich viel Luft mit tieferer Drehzahl fördern, was schon deutlich angenehmere Geräusche erzeugt.

Ich habe meine Gigabyte GTX 1650 Super Windforce (120 Watt) auf nur einen 14 cm NB B14-1 Lüfter umgebaut. Der schafft es auch, die Wärme abzuführen bei einer Drehzahl von 250 RPM im Leerlauf und ca. 600 RPM bei voller Last. Es geht also definitiv auch besser.

Antwort 2 Likes

Klicke zum Ausklappem
felixb

Mitglied

19 Kommentare 11 Likes

Das is eigentlich unglaublich. Ich hatte zwar für mich auch selbst abgespeichert: Gigabyte = laute Graka, aber die Erkenntnis beruht auf einer alten GeForce GTX460.
Unglaublich, dass man bis heute nicht dazugelernt hat. Wenigstens für den nicht-asiatischen Markt hätte man ja die Lüfterdrehzahl anpassen können, denn ganz offentlich wäre ja Raum dafür gewesen.
Andererseits gibt es natürlich immer und ständig viele Foren- und Jammereinträge, dass die schöne Graka oder generell Hardware ja "Fieber" hätte. Das war schon vor 25 Jahren so - damals noch knapp über Fiebertemperaturen - und mittlerweile eben jenseits der 65-70,0°.

Nur ... eine so abgespeckte Karte dann so furchtbar laut mit so einem doch recht großem Klopper von Kühler/Lüfterkonstruktion? Nun. Maße laut Kurzrecherche: 282 x 117 x 41 mm (L x B x H). Also 28 cm lang ist schon nicht so wenig.
Nun, jeder wie er will. Ich werde mir jedenfalls auf lange Sicht keine Gigabyte-Grakas mehr kaufen. Und nach den Erlebnissen vor einigen Jahren mit günstigeren Gigabyte-Boards auch keine Boards.
Aber in diesem Fall ist es ja schon klar: 134 W oder was es nun waren, müssen nicht an uralte Grakas mit Radaulüfter erinnern.

Antwort 1 Like

Klicke zum Ausklappem
P
Pokerclock

Mitglied

56 Kommentare 39 Likes

Ich kenne kaum eine Gigabyte-Grafikkarte aus dem letzten Jahrzehnt, die man wirlich leiser als die Konkurrenz bezeichnen konnte. Leider ist dieses 3x-Fan-Design ein dummer Kundenfang. Merke ich immer wieder, wenn es heißt, "ich will eine Karte mit drei Lüftern". Dass die Sachlage etwas komplizierter ist, muss man da erst einmal erklären, teilweise vergeblich.

Doch nicht einmal die Qualität stimmte bei den Gigabyte-Lüftern. Ich hatte von keinem anderen Boardpartner so viele defekte Lüfter, meistens Lagerschäden. Und meistens kurz vor oder nach Ende einer Gewährleistung/Garantie. Günstig sind sie ja in der Anschaffung, aber was nutzt mir das, wenn ich am Ende nur Ärger damit habe? Bei Gigabyte gibt es noch so einige anderen Baustellen. Mangelhafte Kühlung (trotz Lautstärke!) und merkwürdige Boardlayouts (Strombuchsen mit Kabeln ans PCB gelötet, really?) sind nur ein paar Beispiele.

Antwort 2 Likes

Klicke zum Ausklappem
RedF

Urgestein

2,519 Kommentare 1,097 Likes

Meine letzte Gigabyte, eine 1060 ITX war schön leise : )

Antwort Gefällt mir

Gurdi

Urgestein

1,216 Kommentare 720 Likes

Ganz ehrlich, ich habe einige Gigabyte Karten die letzte Zeit in den Hände gehabt und alle waren von der Kühlung/Lautstärke = Müll.
Egal ob Windforce oder Aorus.

Antwort 1 Like

M
Martin Gut

Urgestein

5,322 Kommentare 2,053 Likes

Immer wieder aufheulende Lüfter im Zerofanmodus. Veraltete, fehlerhafte Software.

Antwort Gefällt mir

M
McFly_76

Veteran

356 Kommentare 107 Likes

Wenn man die Werte aus dem Balkendiagramm "Average Performance relative to the RTX 3060" umrechnet in "Average Cost relative to the RX 6600" dann würden die Preise für die Grafikkarten ungefähr so ausfallen ;)

RX 6800 715 ,- €
RTX 3070 673 ,- €
RX 6700 XT 646 ,- €
RTX 3060 Ti 597 ,- €
RX 6600 XT 538 ,- €
RTX 3060 490 ,- €
RX 6600 469 ,- € ( 100 % , Stand 07.02.2022 )
RTX 3050 360 ,- €
RX 6500 XT 275 ,- €

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung