Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 3050 8 GB im Test: Palit RTX 3050 Dual OC in Full-HD und WQHD mit DLSS-Doping

Mit der  GeForce RTX 3050 kontert NVIDIA nicht nur die arg unglücklich geratene AMD Radeon RX 6500XT, sondern rundet das eigene Portfolio noch weiter nach unten hin ab. Die Leistungsdaten sind dabei so clever gewählt, dass es im Gegensatz zur AMD-Karte für Full-HD durchaus reicht, auch wenn die FPS-Junkies hier sicher schon etwas kleinere Brötchen backen müssen. Zumindest muss man nicht wie bei AMDs RX 6500XT alle Qualitätsregler aufs Minimum schieben, um noch spielbare Frameraten zu erhalten. Das mal als kleiner Spoiler vorab, den Rest gibt es natürlich im Review.

Und außerdem ermöglicht es der größere Speicherausbau auch, dass die Karte in WQHD mit einer ausgewogenen und wohlüberlegten Mixtur aus mittleren Einstellungen bei Bild- und DLSS-Qualität durchaus noch passabel performt. Das setzt natürlich eine gewisse optische Kompromissbereitschaft voraus, so ehrlich muss man natürlich auch bleiben. Und da es mir mittlerweile gelungen ist, leihweise auch mal eine AMD Radeon RX 6500XT in Form der Eagle 4GB von Gigabyte zu organisieren, hole ich den ausgefallenen Launchtest quasi nach, indem ich diese Karte ebenfalls mit gebenchmarkt und in die Charts eingefügt habe. Ich habe mich aufgrund der eher mickrigen Resultate der AMD-Karte allerdings gegen ein Extra-Review entschieden, da dieses in einer expliziten Kaufwarnung geendet wäre und ein Auspeitschen mit Ansage keinem weiterhelfen würde. Aber auch dazu später noch mehr.

Eine Founders Edition gibt es diesmal erneut nicht, dafür wollte NVIDIA eigentlich eine Karte von Gigabyte schicken. Diese wiederum klebte gefühlte Ewigkeiten im übermotivierten Zoll und ist bis heute (Montag vormittag) noch nicht hier im Labor angekommen. Da war wiederum übers Wochenende etwas Kreativität gefragt und deshalb teste ich eben mit einer Retail-Karte von Palit. Die wird als OC-Karte zwar schon ab Werk die 279 Euro UVP deutlich sprengen, aber das mit den Preisen ist eh nur wie Vanilleeis um 12 Uhr Mittags in Dubai. Die fast baugleiche Palit RTX 3060 Dual OC liegt aktuell bereits weit über 700 Euro Straßenpreis, sinnlos.

Die Halbwertszeit solcher Preise ist leider kürzer als das Dahinschmelzen süßer Köstlichkeiten und stößt am Ende wohl  auch mal wieder extrem sauer auf. Aber sei es drum, wir erfüllen heute einfach erst einmal emotionslos unseren Informations- und Bildungsauftrag. Das mit dem Zeitfenster, das wieder einmal extrem klemmte, sorgte auch dafür, dass ein paar Kleinigkeiten auf der Strecke bleiben mussten. Aber egal, es gibt genug zu lesen und der Tag hat nun einmal nur 24 Stunden. Die anderen Karten kommen dann als Review eben etwas später.

Der beschnittene GA106-150 auf der GeForce RTX 3050

Der Chip der NVIDIA GeForce RTX 3050 basiert ebenfalls auf dem GA106 und wurde noch ein wenig mehr eingekürzt. Die Positionierung mit einer UVP von 279 Euro für die nicht übertakteten Karten liegt hier 50 Euro unter den 329 Euro der GeForce RTX 3060 und 120 Euro unter dem der RTX 3060 Ti. In der Relation kommt das schon fast hin und den fehlenden Rest der Plausibilität verdeckt der allgemeine Chipmangel ja sowieso. Für die GeForce RTX 3050 nutzt  NVIDIA insgesamt 20 SM (28 bei der RTX 3060)  der maximal 30 Einheiten des GA106 (siehe Schema unten), was zu insgesamt 2560 (3584 bei der RTX 3060) CUDA-Kernen führt. Es ist damit also eine echte 2/3-Karte. Hurra!

Zusätzlich zu den CUDA-Kernen ist NVIDIAs GeForce RTX 3060 auch mit 20 RT-Kernen der nächsten Generation (Ray-Tracing), 80 Tensor-Kernen, 32 ROPs und 80 TMUs ausgestattet. Was den Speicher betrifft, so verfügt die GeForce RTX 3050 noch über 8 GB GDDR6-Speicher mit einer Geschwindigkeit von 14 Gbps, der am 128 Bit Interface der 4 Speicher-Controller eine kumulative Bandbreite von 224 Gbps besitzt.

Rechnet man nun die verbliebenen 20 SM hoch, ergeben sich die bereits erwähnten 2560 CUDA-Cores. Im Idealfall wohlgemerkt und auch nur, wenn alle Einheiten mit FP32 werkeln dürfen. Der Rückstand zur GeForce RTX 3060 ist vorauszusehen und weniger als 2/3  des Vollausbaus mit 30 SM ergäben letztendlich wohl auch keinen Sinn mehr. So kann man am Ende des Tages seitens NVIDIA die Ausbeute des GA106 erhöhen, was in Anbetracht des extrem hungrigen Marktes gar keine so schlechte Entscheidung ist. Merken wird man die fehlenden 10 SM (8 weniger als die RTX 3060) natürlich schon, aber man taktet dann einfach etwas höher und fertig. Wobei das die Effizienz etwas drücken sollte, wie wir später noch sehen werden.

Resizeable BAR ist zwar hardwareseitig bereits implementiert, allerdings funktioniert diese Implementierung aktuell eher so lala. Es ist also wirklich spannend zu sehen, was NVIDIA jetzt als neues RTX-Einstiegspaket anbietet, denn Karten sind momentan generell knapp und die Zielgruppe der weniger gut betuchten Full-HD-Spieler existiert ja wirklich. Genau diese Eignung werde ich heute genauer untersuchen und dieser Test umfasst natürlich auch noch die elektrische Umsetzung, die Platine, die Leistungsaufnahme und die Kühlung. Für Lesestoff ist somit also schon einmal ausreichend gesorgt.

 

Die Palit RTX 3050 Dual OC 8GB

Das Gehäuse der Karte folgt der bekannten Dual-Formensprache und ist natürlich als Einsteigermodell eher kein echter Hingucker oder gar Aufreger. Der übliche Mix aus schwarzem ABS, etwas Leichtmetall und Eisenwaren unter der Haube ist somit auch nichts, das irgendwie polarisiert. Dem kann man durchaus auch etwas Positives abgewinnen, denn die Karte wird wohl auch in einigen Jahren noch genauso zeitlos wirken, wie jetzt. Radios in den frühen 1970ern mit den rund gelutschten Ecken (Soft Line) sahen da auch nicht viel anders aus.

Das Design mit den 3.8 cm Einbautiefe zuzüglich der 4 mm für die Backplate aus gebürstetem ABS macht diese Karte zu einem echten Dual-Slot-Design mit allen bekannten Vor- und (in diesem Fall kaum) Nachteilen. Der Kühlerüberhang wird in der Backplate mit großen Wabenöffnungen auf Durchlass getrimmt.

Mit den 555 Gramm ist die Karte zudem ein richtiges Fliegengewicht. Die Länge von 24,4 cm ist kurz (und trotzdem noch viel länger als die viel kürzere Platine) und auch die Einbauhöhe ist mit 11,5 cm ab der Oberkante des PCIe-Slots bei eingebauter Karte bis zur Oberseite der Abdeckung nicht wirklich üppig. 

Der einzelne 8-Pin-Anschluss an der Oberseite reicht völlig aus und er markiert optisch auch des Ende der versteckten Platine. Ihr werdet auf der nächsten Seite noch anhand der Platine sehen, dass man hier mit dem überlangen Kühler fast schon mit Kanonen auf Spatzen schießt. Zum Kühlerdesign gibt es dort dann natürlich auch noch weitere Details. Den NVLINK-Anschluss hat man logischerweise weggelassen, denn SLI ist eh tot und hier auch nicht erwünscht. RGB findet sich an der Oberseite als Hintergrundbeleuchtung für den GeForce RTX Schriftzug, immerhin.

Der neue HDMI-2.1-Anschluss darf nicht fehlen, die drei aktuellen DisplayPorts natürlich auch nicht. Die sehr großen Kühlöffnungen zeigen, woher der Wind (nicht) weht und damit wären wir mit den Äußerlichkeiten auch schon wieder einmal komplett fertig, denn die Lamellen sind vertikal und das Wabendesign besitzt kühltechnisch eher keine echte Funktion.

Die Daten der Palit-Grafikkarte zeigt uns noch einmal der aktuelle GPU-Z Screenshot, den Rest hatte ich ja schon weiter oben aufgeführt. Die 1552 MHz Basistakt entsprechen der Referenzvorgabe von NVIDIA und die 1777 MHz Boost-Takt der Referenz hebt Palit auf 1822 MHz ab Werk an. Die 1750 MHz Speichertakt waren zu erwarten und der Speicherausbau mit 8 GB am 128-Bit Interface logischerweise auch, wenn man an die 4 Speicher-Controller mit je 64 Bit aus dem oben gezeigten Schema denkt.

Auch hier habe ich noch einmal eine Tabelle für alle Statistiker unter Euch, bevor es dann ab der nächsten Seite wirklich voll losgeht.

Testsystem und Auswertungssoftware

Das Benchmarksystem ist neu und steht jetzt nicht mehr im Labor, sondern wieder im Redaktionsraum. Ich setze nunmehr auch auf PCIe 4.0, das passende X570 Motherboard in Form eines MSI MEG X570 Godlike und einen selektierten Ryzen 9 5950 X, der wassergekühlt stark übertaktet wurde. Dazu kommt schneller RAM sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich NVIDIAs PCAD, was den Komfort ungemein erhöht.

Die Messung der Leistungsaufnahme und anderer Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber.

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

 

Lade neue Kommentare

D
Denniss

Urgestein

1,036 Kommentare 291 Likes

Könnte eine brauchbare Karte werden wenn der Preis stimmt. Da hat Nvidia bestimmt lange die teildefekten Chips der 3060 gesammelt für die Resteverwertung als 3050. Da kommt bestimmt irgendwann noch eine Art 3040 als glatt halbierte 3060 mit den von nvidia so geliebten 6GB VRAM.

Antwort Gefällt mir

M
McFly_76

Veteran

356 Kommentare 107 Likes

Also wenn jetzt noch andere Boardpartner die RTX 3050 mit mehr als 4 VRM Phasen und einer Backplate aus Aluminium + Wärmeleitpad veröffentlichen dann wird es interessanter.
Von der PCB größe wäre sogar ein Modell in Mini-ITX-Format möglich.
RGB und 3 Lüfter finde ich an dieser Stelle unnötig, aber hoffentlich gibt es genug Auswahl zum Kauf. :coffee:

Antwort Gefällt mir

C
Ccnorth

Mitglied

19 Kommentare 4 Likes

Ergebnis wie erwartet.

wäre es noch möglich die 3050 gegen die 6500xt mit mittleren Details zustellen und ein oder 2 ältere Karten noch dabei?

Antwort Gefällt mir

c
catpig

Mitglied

12 Kommentare 3 Likes

Also diese Karte als Wettbewerber der 6500XT zu behandeln find ich schon gewagt. Die 6500XT kostete als ich vor 5 Stunden schaute real 299€ (geizhals, kurzfristig lieferbar, exkl. Versand). Nvidia will für diese sehr viel Mining-geeignetere eine UVP von 279, die dürfte also real bestenfalls bei 400€ anfangen. Soviel will ich nicht für ne Graka ausgeben, da hol ich mir eher ne weitere gebrauchte RX470 (falls die aktuelle, vor ca 2 Jahren gebraucht gekaufte, RX470 kaputtgeht) und steck das gesparte Geld in den Garten oder spende es einfach...

Edit: Der Haken ist halt wie rum man an die Sache rangeht: Manche wollen bei bestimmten Spielen eine bestimmte Mindestleistung und zahlen dann das, was das eben kostet. Andere haben ein bestimmtes Budget und stellen dann entweder die Details runter oder spielen anspruchsvolle Spiele eben einfach ein paar Jahre später, wenn die Crypto-Pyramide eingestürzt ist oder die Produktionskapazitäten größer sind. Klar, für viele ist diese Vorstellung indiskutabel, und das ist völlig ok. Aber für viele eben auch nicht.

Und ja, AMD hat kein direktes Gegenstück zur 3050. Und Nvidia kein Gegenstück zur 6500XT. Manchmal decken eben nicht beide Hersteller den kompletten Markt ab, Nvidia hat eben offenbar aktuell kein Interesse Einsteiger-Karten anzubieten. Selbst die billigste 1660 kostet 399€ (geizhals.... wie oben).

Edit2: Ansonsten ist der Artikel natürlich wie immer super.

Antwort 1 Like

Klicke zum Ausklappem
ApolloX

Urgestein

706 Kommentare 339 Likes

"eher kein echter Hingucker" - Ist das hier die hässlichste Karte der Neuzeit?

Wurde mein Lieblingsspiel Time Spy garnicht bemüht? Komisch, auf der 3DMark Seite stehen auch noch keine Scores. Der erste holt also gleich den Weltrekord :)

Antwort Gefällt mir

LëMurrrmel

Mitglied

36 Kommentare 18 Likes

Meine Meinung: AMD hat mit der 6500XT komplett ins Klo gegriffen. Eigener Chip mit fehlenden - eigentlich zeitgemäßen - Videodecoding-Features, lächerlich wenig RAM und nur 4 PCIe-Lanes.

Beim Namen 6500XT hätte ich eher mit einer 2/3-Variante vom Navi23-Chip gerechnet (so wie es Nvidia mit der RTX3050 auf Basis eines nur zu 2/3 beschalteten GA106 gemacht hat). Dazu 6GB DDR6 (96bit), 48 ROPs, 20-24 CUs und ~1500 ALUs. Und eben minimum 8 PCIe-Lanes.
Damit hätte es in "Einsteigerklasse" sogar ein richtiges Kopf-an-Kopf-Rennen AMD vs. Nvidia geben können.

Aber so wie es sich jetzt darstellt, wird Nvidia mit der RTX3050 richtig gut Kasse machen können. Eigentlich wundert es mich, dass die Karte ganze 8GB VRAM hat. Mit 6GB und 96bit Speicheranbindung würde sich die Karte genausogut verkaufen, und man hätte später noch eine Ti-Variante mit 8GB/128bit nachschieben können.

Antwort 1 Like

Klicke zum Ausklappem
c
catpig

Mitglied

12 Kommentare 3 Likes

Jupp, stattdessen ist AMD konkurrenzlos, und kann sich Scherze wie das Entfernen der Videosachen leisten. Vielleicht bringt Intels Einstieg wenigstens simulierten Wettbewerb anstatt der aktuellen Farce, die Hoffnung stirbt zuletzt ;)

Antwort Gefällt mir

Megaone

Veteran

495 Kommentare 394 Likes

Ich bin eigentlich kein NVDIA Fan. Aber ich kaufe seit Jahren ausschließlich NVDIA Karten weil sie einfach mehr drauf haben. Ich denke, das man die 3050 länger sinnvoll nutzen kann durch DLSS und den ganzen Kram.

Wenn ich sehe, wie NVIDIA meine alte 2080 Super im Zweitrechner durch Ihren Softwarezirkus am Leben hält, bin ich wirklich zufrieden. Sowas sollte man nicht unterschätzen. Eigentlich hat man mit dieser Karte auch mit RT im Bereich bis WQHD Leistung satt. Sie ist mit Einschränkungen 4 K tauglich. Selbst eine 6800XT kommt dagegen doch mit RT, spätestens falls DLSS zuschaltbar schwer ins rödeln.

Ich denke mit der 3050 wird man im Bereich FHD und WQHD ähnliche Erfahrungen machen. Sie wird deutlich länger sinnvoll nutzbar sein als eine 6500er und last but not least im Wiederverkauf auch deutlich höhere Ergebnisse erzielen.

Da ich nicht an einen Zusammenbruch der Grafikkartenpreise glaube, ist das ein Aspekt, den man imho etwas mehr in den Focus rücken sollte.

Antwort 1 Like

Klicke zum Ausklappem
Ghoster52

Veteran

397 Kommentare 227 Likes

Wenn man Hardware-Broker und vorallem die Scalper endlich mal ausschließen könnte,
wären so einige Karten durchaus interessant, aber die Realität sieht leider anders aus...

Schaut man sich die Umsatzzahlen beider Hersteller an, machen Sie fast nichts falsch.
Sie können (bedingt) nichts dafür, wenn nichts beim Kunden ankommt und alles wie warme Semmeln weggeht.
Der "Chip-Mangel" ist allgegenwärtig und wird noch Jahre anhalten....

Antwort 2 Likes

Megaone

Veteran

495 Kommentare 394 Likes

Keine Frage. In der Zwischenzeit wird die UVP "angepasst" und die Inflation tut ihr übriges. Neben den reinen Hardwarekosten wird zunehmend der Verbrauch der Produkte in den Focus rücken. Da Leistung aber leider Strom kostet und eine 500 Watt Graka mit entsprechenden NT nicht jedermanns sache ist, wird dies wird wohl zu einer weiteren Spaltung der Spielerschaft führen. Während die einen wie bisher schreien. "Holla, was Lacostet die Welt, spielt doch alles keine Rolex", wird ein Großteil der Spielerschaft nicht umhin kommen, sich auf auf die Suche nach energieeffizienten Systemen machen. Nicht umsonst wurde ja schon über Systeme mit integrierter Grafik diskutiert.

In diesem Sinne, für viele die es bis jetzt noch nicht verstanden haben.

Wunderland ist abgebrannt und wir werden uns noch umgucken.

Antwort 1 Like

Klicke zum Ausklappem
P
Phelan

Mitglied

88 Kommentare 63 Likes

im prinzip schöne Karte, könnte ein 1060 Nachfolger werden. zur 1660S sieht sie aber schon nicht mehr so richtig gut aus.

Der Vergleich mit der 6500 hingt aber gewaltig ... da die 3050 die über 2fache Chipgröße hat.
Technisch ist die 6600 der Gegenspieler.

Die 6500 ist ne 99€ Grafikarte die nicht wirklich zum Spielen geeigenet ist, schon wegen der 4 Gbyte Ram.

Antwort 1 Like

c
catpig

Mitglied

12 Kommentare 3 Likes

AMD kann kein DLSS und das eine 400-500€-Karte schneller ist und gebraucht mehr bringt als eine 300€-Karte ist ja wohl mehr als selbstverständlich ;)

Antwort Gefällt mir

ssj3rd

Mitglied

66 Kommentare 24 Likes

Früher hat man sich so eine Karte für den zweit/dritt Rechner geholt, oder auf Halde wenn etwas ausfällt.

Heutzutage legst du 500€ hin und holst dir das Teil für dein Hauptrechner. Sind schon arg seltsame Zeiten 😃

Antwort 1 Like

Megaone

Veteran

495 Kommentare 394 Likes

Eben drum. Und wenn eine 400-500 Karte beim Wiederverkauf wegen DLSS etc. im Verhältnis oder prozentual betrachtet mehr Geld bringt, kann sie auf die Zeit bezogen, der günstigere Kauf sein + dem deutlich besseren Funfaktor während der Nutzungsdauer. :cool:

Eigentlich ganz einfach.

EK - Restwert nach Zeit X = Tatsächliche Kosten.

Irgendwie ist die 6500er ziemlich obsolet oder andersrum, wem willst du diese Trümmerlotte mit 4 GB in 3 Jahren noch verkaufen?

Antwort Gefällt mir

D
Denniss

Urgestein

1,036 Kommentare 291 Likes

Komisch, meine RX 460 hat nur 2GiB VRAM und ich konnte damit sogar SotTR durchspielen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung