News Warum die GeForce RTX 2050 nicht RTX 3040 heißt und wozu man sie (nicht) braucht

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
NVIDIA möchte je stets eher große Brötchen backen, am liebsten nur die ganz großen. Doch ohne Krümel im Massenmarkt geht es nun einmal nicht, denn auch bei AMD (und bald auch Intel) hat man schon lange erkannt, dass Kuchenteig allein nicht so richtig dick macht, sondern vor allem die Streusel darauf. Mit der RTX 2050 (read full article...)
 
Nvidia erinnert mich gerade so ein bischen an Gesundheitspolitik dieser Tage und an genau das, was passiert, wenn sich praktisch täglich neue Erkenntnisse ergeben. Denn nachdem man die 2060 zunächst neu aufgelegt und dann mit 12 GB nochmals erneut aufgelegt hat, kommt jetzt die 2050 als Ampere Verschnitt. Und wo klemme ich die jetzt leistungstechnisch ein ?
Nachdem ich noch 2 Rechner mit 1050ti befeuere ist das für mich natürlich schon ein Frage, denn High-End GPU´s kommen da sicherlich nicht rein.
 
Ich schrieb ja 1650 MaxQ Replacement :)
 
MaxQ sind doch die Laptopmodelle mit ca. 80 % der Leistung bei halbem Stromverbrauch.
 
Uns genau so ein Chip soll hier verwurstet werden :)
Gegen intels 30-Watt-Klasse mit dem ARC128
 
In der aktuellen Situation kann man wahrscheinlich alles verwursten.... :ROFLMAO:
 
Also ich bin dann leider mal direkt für INTEL (obwohl ich Nvidia eigentlich bevorzuge). Zumindest wenn INTEL nicht die goldene Schleife drum herum macht.
 
Die Schleife dürfen sie gern drum machen, solange sie dafür keine zusätzliche Kohle sehen wollen… ;)
 
Freut mich, dass endlich mal etwas für die Leute mit kleinerem Geldbeutel zumindest an Neues kommt... Auch wenn ich das Gefühl habe, dass die 2050 Nvidias Produkt des "Wir haben es zwas aber BITTE kauf es nicht!"-Versuches wird. Hat irgendwie was von der 750/750 Ti, welche ja auch nicht auf Kepler sondern auf Maxwell basiert. (Auch wenn es eine frühere Version war, falls der Datenbank von TechPowerUp getraut werden darf), nur war zu der Zeit die 900er Serie noch nicht draussen. Hier haben wir eine andere Situation.

Allerdings frage ich mich, ob Nvidia den gleichen Move bringen will, wie damals. Nur hätten die nicht den "Platz", wäre es eine 3050. Und eine 3040 ohne eine 3050 wäre auch etwas seltsam... Lovelace wird ja in der Gerüchteküche ja schon länger als Architektur bezeichnet, welche erst kleine Brötchen backt, bevor der grosse Wurf kommt, wie es auch schon bei Maxwell der Fall war.

Wer weiss, vielleicht wollen die ja endlich eine 75W-Karte, welche schneller ist als die 1650 machen. Ampere würde es jedenfalls kaum werden, sieht man im Vergleich zwischen der Labtop-3050 vs. Labtop-1660 Max-Q. (fast)Gleiche Leistung bei (fast)gleichem Stromverbrauch. Die 3060 ist ja bei 170W TDP auch richtig durstig.
Auch wird gerne gemunkelt, dass mit Lovelace auch die Nintendo Switch einen Handheld-Nachfolger bekommen könnte.
Ich weiss natürlich von Nix was gerade bei irgendeiner Technikfirma los ist, allerdings würde beides schon Sinn ergeben wenn ich mich fragt...

Edit: Natürlich wäre die Leistung etwas besser, da man eine 50er Karte dieser Generation mit einer 60er Karte letzter Generation vergleicht, trotzdem könnte der Fortschritt wirklich klein sein. Die 3070 verbraucht ja auch 220W bei einer Leistung vergleichbar mit einer 2080 Ti, welche nicht viel mehr verbraucht.
 
leute die ne 1050ti für 300€ kaufen, kaufen auch sowas.
lieber 3 mal billig kaufen als 1 mal vernünftig, weniger performance haben und am ende noch mehr ausgeben.
den low-budget bereich kannste doch komplett vergessen mit den ganzen überteuerten gtx 1660/50/S/ti.
am besten finde ich immernoch die gt 1030 für 100€. da ist ne moderne APU schneller.
 
Hat NVidia bei der 20xx doch auch schon gemacht die "2050(i)" hieß 1660(ti).

Naja solage es gekauft wird hat Nvidia alles richtig gemacht.
Don't blame the seller , blame the buyer.

PS: wobei die Namen letzlich egal sind ... gerade in Fertig PCs entscheiden die Leute ja sowieso nicht welche GRaka verbaut wird und das sind viel mehr also die der Selbstbauer.
 
Zuletzt bearbeitet :
am besten finde ich immernoch die gt 1030 für 100€. da ist ne moderne APU schneller.
Die erscheint einem schon richtig preiswert, weil sie das beste ist, was man noch unter 200.- bekommt. Dabei hat sie vor 3 bis 4 Jahren 80.- gekostet und war dann schon nur als Bildschirmanschluss geeignet, weil sie 4 mal weniger Leistung als eine 1060 hatte. Unter 200.- bekam man früher auch die GTX 1050, 1050ti oder eine RX 580 oder 590 die schon die Flaggschiffe von AMD waren.

Diesen ganzen Bereich zwischen einer internen Grafikeinheit und Karten die über 500.- kosten gibt es heute praktisch nicht mehr. Ich wollte meinem Junior vor 2 Jahren eine RTX 3060 die für gut 300.- auf den Markt kam kaufen. Nun wird die GTX 1060 noch länger ihren Dienst tun müssen.
 
leute die ne 1050ti für 300€ kaufen, kaufen auch sowas.
lieber 3 mal billig kaufen als 1 mal vernünftig, weniger performance haben und am ende noch mehr ausgeben.
den low-budget bereich kannste doch komplett vergessen mit den ganzen überteuerten gtx 1660/50/S/ti.
am besten finde ich immernoch die gt 1030 für 100€. da ist ne moderne APU schneller.
Dabei hatten doch die GTX 1660S/1650S das beste Preis/Leistungsverhältnis gegenüber anderen Grafikkarten.

Ganz Ehrlich: Wenn man nicht gerade in einer hohen Auflösung oder mit einer hohen Bildrate zocken will (und die Mehrheit sitzt noch auf 1080p), braucht man auch nicht wirklich viel mehr als das, um zufrieden zu sein.

Trotzdem würde ich aber auch lieber eine gebrauchte High-End Grafikkarte letzter Generation zum gleichen Preis kaufen als eine aktuelle Mittelklasse-Grafikkarte (welche normalerweise ähnlich viel kostet). Ich bin aber auch ein Enthusiast und kein normaler Käufer. Dazu habe ich dieses Jahr Gebrauchtwaren bei Technik allgemein mögen gelernt.

Die Preise der Grafikkarten ist aber schon seit Turing wirklich salzig. Nicht erst seit dem Mangel (auch wenn es jetzt um einiges schlimmer ist).
Bei dieser Generation, wo die Preise sich mal nicht erhöht haben (in der UVP) hatte ich Hoffnung, dass es wieder eine Zeit wird, wo man sich als Käufer mal nicht verarscht fühlt. Aber Corona, der Handelskrieg und die damit verbundene Lieferkriese sowie der Rohstoffmangel und dadurch auch der Komponentenmangel sowie der Miningboom machten diese Generation zu einer schrecklichen Generation für den Endkunden. Und die Nächste sieht nicht besser für uns aus.
Und ich kann mich glücklich schätzen, eine 1080Ti kurz davor für 325 Franken (damals c.a 300 Euro)erkaufen zu können und dadurch von dem Ärger fein raus bin. Noch.
 
Ich habe noch zwei 1050ti (Arbeitsplatzrechner) und eine 1070er im Betrieb - die reicht auch für 1080p. An WQHD und 4K oder bei meinen VR Brillen wäre das jetzt schon eher eng bis nicht machbar oder selbst bei VR der "1." Generation gerade so an der visuellen Schmerzgrenze (Rift (CV2) oder Rift S oder Vive (1. Generation). Alles was danach kommt, so ab der Quest 2 oder Reverb G2 oder Vive pro 2 oder Index oder auch die hochauflösenden Schirme oder hoher Refresh lässt sich unterhalb von einer Turing Karte eigentlich nur noch mit einer 1080Ti vernünftig betreiben. Und ab da ist genau die Preismisere angesiedelt. Man kann mit ein bischen gesundem Menschenverstand und Abwägen hier sicherlich viel Geld sparen, nur wenn die Graka unplanmäßig über die Wupper geht, ist guter Rat eher teuer und in so einem Fall rechne ich mich auch nicht zu den "Dummen" die sowieso jeden Preis zahlen.
 
Oben Unten