Grafikkarten News VGA

Warum die GeForce RTX 2050 nicht RTX 3040 heißt und wozu man sie (nicht) braucht

NVIDIA möchte je stets eher große Brötchen backen, am liebsten nur die ganz großen. Doch ohne Krümel im Massenmarkt geht es nun einmal nicht, denn auch bei AMD (und bald auch Intel) hat man schon lange erkannt, dass Kuchenteig allein nicht so richtig dick macht, sondern vor allem die Streusel darauf. Mit der RTX 2050 schließt NVIDIA nun ein klein wenig die offene Bodenluke, denn unterhalb einer RTX 3050 und 3060 war da bisher nichts mehr im Portfolio.

Fragt man die Kollegen bei den Boardpartnern und den Kollegen von Moore’s Law Is Dead, mit dem ich öfters auch mal chatte, dann ist die RTX 2050 der kleinste Ampere-Spross und eben nicht Turing, wie der Name es vielleicht implizieren könnte. Nun kommt also eine GeForce RTX 2050 als RTX-Krümelmonster mit DLSS-Sahnehäubchen und einer verleugneten Ampere-Füllung. Auch das hat irgendwie so seinen Charme, denn darin stecken nicht nur eine vermeintliche Selbstverleugnung einer Einstiegs-Chips, sondern auch cleveres Kalkül und wohl sogar auch eine Spur von versuchter Demütigung.

Analysiert man die Situation und die Möglichkeiten der neuen Karte, denn stellt man die GeForce RTX 2050 sehr bewusst gegen Navi24 und vor allem auch Intels ARC 128. Man braucht sie also durchaus, auch wenn man sie am liebsten so nicht gebacken hätte. Und während die MX550 einen vollen TU117 nutzt (und damit noch auf Turing basiert), setzt die RTX 2050 wohl auf ein 1650 Max-Q Replacement aus Ampere-Resten. Einen speziellen GA108 wird NVIDIA mit Sicherheit nicht mehr produzieren lassen, denn man hat ganz offensichtlich mit der Herstellung kleinerer Chips innerlich schon abgeschlossen.

Also muss es eine noch weiter abgespeckte Variante der RTX 3xxx richten. Und nun kommen wir zum oben erwähnten Kalkül. DLSS 2.x für den Einstiegs-Gamer? Das ergibt durchaus einen sinn, wenn AAA-Titel durch den Grafik-Booster plötzlich auch auf so einer kleinen Fußhupe spielbar wären. Zumindest in Full-HD und nicht ganz so prächtig. Aber sie könnten durchaus laufen, was man bei Navi24 und auch Intels ARC 128 so erst einmal eher nicht vermutet. DLSS fürs Fußvolk und das gezielte Anfixen für den Schuss danach. DLSS kann ja durchaus süchtig machen, wenn die FPS plötzlich nur so sprudeln.

Und was war das mit der Demütigung? Dass man hier versucht, seine aufwändig gepushte 3000er-Serie nicht mit so einer Krümelkarte zu verwässern, ist sicher irgendwie verständlich. Aber es ist eigentlich auch eine fiese Demütigung der Mitberwerber, wenn man dem nicht ganz so gut informierten Kunden kolportiert, dass selbst die letzte Generation völlig ausreicht, um den aktuellen Mitbewerbern in dieser Leistungsklasse locker Paroli bieten zu können. Irgendwie hat man wirklich das Gefühl, dass NVIDIA diese Karte nicht wirklich mag. Aber mein subjektives Empfinden ist das eine, Jensens Klingelbeutel das andere. Denn der wird sich auch mit so einem Konstrukt sicher weiter prall füllen.

Update vom 23.12.22 – 10:30 Uhr

Weitere Nachfragen bei den AIC haben ergeben, dass NVIDIA diese Karte aktuell (noch) nicht als echte Desktop-Karte plant.  Ob und wann dieses Gedankenspiel dann Realität wird, hängt auch von den Mitbewerbern und deren Zeitplan ab. Eine wirkliche Priorätit besitzt diese Karte also erst einmal nicht.

Kommentar

Lade neue Kommentare

Alkbert

Urgestein

729 Kommentare 452 Likes

Nvidia erinnert mich gerade so ein bischen an Gesundheitspolitik dieser Tage und an genau das, was passiert, wenn sich praktisch täglich neue Erkenntnisse ergeben. Denn nachdem man die 2060 zunächst neu aufgelegt und dann mit 12 GB nochmals erneut aufgelegt hat, kommt jetzt die 2050 als Ampere Verschnitt. Und wo klemme ich die jetzt leistungstechnisch ein ?
Nachdem ich noch 2 Rechner mit 1050ti befeuere ist das für mich natürlich schon ein Frage, denn High-End GPU´s kommen da sicherlich nicht rein.

Antwort Gefällt mir

Igor Wallossek

Format©

7,602 Kommentare 12,666 Likes

Ich schrieb ja 1650 MaxQ Replacement :)

Antwort 1 Like

Martin Gut

Urgestein

5,836 Kommentare 2,346 Likes

MaxQ sind doch die Laptopmodelle mit ca. 80 % der Leistung bei halbem Stromverbrauch.

Antwort Gefällt mir

Igor Wallossek

Format©

7,602 Kommentare 12,666 Likes

Uns genau so ein Chip soll hier verwurstet werden :)
Gegen intels 30-Watt-Klasse mit dem ARC128

Antwort 1 Like

Ghoster52

Urgestein

775 Kommentare 476 Likes

In der aktuellen Situation kann man wahrscheinlich alles verwursten.... :ROFLMAO:

Antwort Gefällt mir

Martin Gut

Urgestein

5,836 Kommentare 2,346 Likes

und dann in Gold aufwiegen :rolleyes:

Antwort Gefällt mir

Alkbert

Urgestein

729 Kommentare 452 Likes

Also ich bin dann leider mal direkt für INTEL (obwohl ich Nvidia eigentlich bevorzuge). Zumindest wenn INTEL nicht die goldene Schleife drum herum macht.

Antwort Gefällt mir

B
Besterino

Urgestein

6,054 Kommentare 2,791 Likes

Die Schleife dürfen sie gern drum machen, solange sie dafür keine zusätzliche Kohle sehen wollen… ;)

Antwort 1 Like

LeovonBastler

Mitglied

42 Kommentare 13 Likes

Freut mich, dass endlich mal etwas für die Leute mit kleinerem Geldbeutel zumindest an Neues kommt... Auch wenn ich das Gefühl habe, dass die 2050 Nvidias Produkt des "Wir haben es zwas aber BITTE kauf es nicht!"-Versuches wird. Hat irgendwie was von der 750/750 Ti, welche ja auch nicht auf Kepler sondern auf Maxwell basiert. (Auch wenn es eine frühere Version war, falls der Datenbank von TechPowerUp getraut werden darf), nur war zu der Zeit die 900er Serie noch nicht draussen. Hier haben wir eine andere Situation.

Allerdings frage ich mich, ob Nvidia den gleichen Move bringen will, wie damals. Nur hätten die nicht den "Platz", wäre es eine 3050. Und eine 3040 ohne eine 3050 wäre auch etwas seltsam... Lovelace wird ja in der Gerüchteküche ja schon länger als Architektur bezeichnet, welche erst kleine Brötchen backt, bevor der grosse Wurf kommt, wie es auch schon bei Maxwell der Fall war.

Wer weiss, vielleicht wollen die ja endlich eine 75W-Karte, welche schneller ist als die 1650 machen. Ampere würde es jedenfalls kaum werden, sieht man im Vergleich zwischen der Labtop-3050 vs. Labtop-1660 Max-Q. (fast)Gleiche Leistung bei (fast)gleichem Stromverbrauch. Die 3060 ist ja bei 170W TDP auch richtig durstig.
Auch wird gerne gemunkelt, dass mit Lovelace auch die Nintendo Switch einen Handheld-Nachfolger bekommen könnte.
Ich weiss natürlich von Nix was gerade bei irgendeiner Technikfirma los ist, allerdings würde beides schon Sinn ergeben wenn ich mich fragt...

Edit: Natürlich wäre die Leistung etwas besser, da man eine 50er Karte dieser Generation mit einer 60er Karte letzter Generation vergleicht, trotzdem könnte der Fortschritt wirklich klein sein. Die 3070 verbraucht ja auch 220W bei einer Leistung vergleichbar mit einer 2080 Ti, welche nicht viel mehr verbraucht.

Antwort Gefällt mir

Klicke zum Ausklappem
B
BlubdieBlub

Neuling

3 Kommentare 0 Likes

leute die ne 1050ti für 300€ kaufen, kaufen auch sowas.
lieber 3 mal billig kaufen als 1 mal vernünftig, weniger performance haben und am ende noch mehr ausgeben.
den low-budget bereich kannste doch komplett vergessen mit den ganzen überteuerten gtx 1660/50/S/ti.
am besten finde ich immernoch die gt 1030 für 100€. da ist ne moderne APU schneller.

Antwort Gefällt mir

P
Phelan

Veteran

115 Kommentare 94 Likes

Hat NVidia bei der 20xx doch auch schon gemacht die "2050(i)" hieß 1660(ti).

Naja solage es gekauft wird hat Nvidia alles richtig gemacht.
Don't blame the seller , blame the buyer.

PS: wobei die Namen letzlich egal sind ... gerade in Fertig PCs entscheiden die Leute ja sowieso nicht welche GRaka verbaut wird und das sind viel mehr also die der Selbstbauer.

Antwort Gefällt mir

Martin Gut

Urgestein

5,836 Kommentare 2,346 Likes

Die erscheint einem schon richtig preiswert, weil sie das beste ist, was man noch unter 200.- bekommt. Dabei hat sie vor 3 bis 4 Jahren 80.- gekostet und war dann schon nur als Bildschirmanschluss geeignet, weil sie 4 mal weniger Leistung als eine 1060 hatte. Unter 200.- bekam man früher auch die GTX 1050, 1050ti oder eine RX 580 oder 590 die schon die Flaggschiffe von AMD waren.

Diesen ganzen Bereich zwischen einer internen Grafikeinheit und Karten die über 500.- kosten gibt es heute praktisch nicht mehr. Ich wollte meinem Junior vor 2 Jahren eine RTX 3060 die für gut 300.- auf den Markt kam kaufen. Nun wird die GTX 1060 noch länger ihren Dienst tun müssen.

Antwort Gefällt mir

LeovonBastler

Mitglied

42 Kommentare 13 Likes

Dabei hatten doch die GTX 1660S/1650S das beste Preis/Leistungsverhältnis gegenüber anderen Grafikkarten.

Ganz Ehrlich: Wenn man nicht gerade in einer hohen Auflösung oder mit einer hohen Bildrate zocken will (und die Mehrheit sitzt noch auf 1080p), braucht man auch nicht wirklich viel mehr als das, um zufrieden zu sein.

Trotzdem würde ich aber auch lieber eine gebrauchte High-End Grafikkarte letzter Generation zum gleichen Preis kaufen als eine aktuelle Mittelklasse-Grafikkarte (welche normalerweise ähnlich viel kostet). Ich bin aber auch ein Enthusiast und kein normaler Käufer. Dazu habe ich dieses Jahr Gebrauchtwaren bei Technik allgemein mögen gelernt.

Die Preise der Grafikkarten ist aber schon seit Turing wirklich salzig. Nicht erst seit dem Mangel (auch wenn es jetzt um einiges schlimmer ist).
Bei dieser Generation, wo die Preise sich mal nicht erhöht haben (in der UVP) hatte ich Hoffnung, dass es wieder eine Zeit wird, wo man sich als Käufer mal nicht verarscht fühlt. Aber Corona, der Handelskrieg und die damit verbundene Lieferkriese sowie der Rohstoffmangel und dadurch auch der Komponentenmangel sowie der Miningboom machten diese Generation zu einer schrecklichen Generation für den Endkunden. Und die Nächste sieht nicht besser für uns aus.
Und ich kann mich glücklich schätzen, eine 1080Ti kurz davor für 325 Franken (damals c.a 300 Euro)erkaufen zu können und dadurch von dem Ärger fein raus bin. Noch.

Antwort Gefällt mir

Klicke zum Ausklappem
Alkbert

Urgestein

729 Kommentare 452 Likes

Ich habe noch zwei 1050ti (Arbeitsplatzrechner) und eine 1070er im Betrieb - die reicht auch für 1080p. An WQHD und 4K oder bei meinen VR Brillen wäre das jetzt schon eher eng bis nicht machbar oder selbst bei VR der "1." Generation gerade so an der visuellen Schmerzgrenze (Rift (CV2) oder Rift S oder Vive (1. Generation). Alles was danach kommt, so ab der Quest 2 oder Reverb G2 oder Vive pro 2 oder Index oder auch die hochauflösenden Schirme oder hoher Refresh lässt sich unterhalb von einer Turing Karte eigentlich nur noch mit einer 1080Ti vernünftig betreiben. Und ab da ist genau die Preismisere angesiedelt. Man kann mit ein bischen gesundem Menschenverstand und Abwägen hier sicherlich viel Geld sparen, nur wenn die Graka unplanmäßig über die Wupper geht, ist guter Rat eher teuer und in so einem Fall rechne ich mich auch nicht zu den "Dummen" die sowieso jeden Preis zahlen.

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung