NVidia NVIDIA kündigt die GeForce RTX 4060 Ti mit 8 GB und 12GB, sowie die GeForce RTX 4060 mit 8 GB offiziell an

Eigentlich sollten auch 12 GB für die kleineren Karten der Mindeststandard sein. Bei erscheinen der 4090 hatte ich die Wahl meine 3080TI (fast neu, noch mit 27 Monaten Garantie) oder meine 3090 (wassergekühlt, aber dank Umbau Garantiefrei und schon deutlich älter) zu verkaufen. Bin Heute Froh, die 3090 behalten zu haben.
Nvidia hat nun die 4. Generation in Folge (!), GTX 1000er bis und mit den aktuellen RTX 4000er, tatsächlich Karten inkl. deren Nachfolgemodelle mit gleichen 8GB VRAM ausgestattet. Das ist ungeheurlich egoistisch und gierig, eine klare Verarsche ggü Kunden, denn die allermeisten Kunden haben null Ahnung von "VRAM". Das ist geplante tech. Obsoleszenz!
 
Es gibt IMMER die Alternative der Verweigerung.
 
Wovon reden wir hier? Konsumentenkarten, oder?
 
Die Profikarten spielen ja schon wieder in einer ganz anderen Liga und sind auch kaum zum Gaming geeignet..

Aber wieso sollte die EU dort eingreifen bei Grafikkarten?
Du verwechselst da zwei Sachen miteinander.
Nicht nur Apple wurde dazu verpflichtet..sondern alle Hersteller von Smartphones. Nur das die meisten aktuellen Android-Smartphones eh schon von Haus aus USB-C hatten. Und es ging da um keine Martmacht, sondern um die Vermeidung von Müll.

Wenn dann müsste die USA da was machen. Denn das ist deren Heimatmarkt.
Aber wieso sollten sie was machen? Da ist ja noch immer ein gewisser Wettbewerb zu Gange. Und vlt haben sie auch was gemacht in dem sie Intel ermutigt haben selbst Grafikkarten zu entwickeln.

Immer nach Anderen zu schreien ist viel zu einfach.. und bringt dir auch nichts kurz -und mittelfristig.
Denn diese Verfahren ziehen sich über viele, viele Jahre hin. Und ein Erfolg ist nicht absehbar.

DU und auch alle anderen habt es selbst in der Hand.
Entweder ihr kauft es oder kauft es nicht.

Eine andere Sprache kennen die Unternehmen nicht.
 
Nvidia hat nun die 4. Generation in Folge (!), GTX 1000er bis und mit den aktuellen RTX 4000er, tatsächlich Karten inkl. deren Nachfolgemodelle mit gleichen 8GB VRAM ausgestattet. Das ist ungeheurlich egoistisch und gierig, eine klare Verarsche ggü Kunden, denn die allermeisten Kunden haben null Ahnung von "VRAM". Das ist geplante tech. Obsoleszenz!
Ich bin da völlig bei dir.

Die Mehrheit der Konsumenten weiss sowieso nicht was sie tun. Aber diesen Marketingopfern kann eh keiner helfen.

Ich bin da raus. Ich kaufe einfach immer die größte Karte, weil das Imho unterm Strich am billigsten ist.

Du hast immer genug Ram, den absolut meisten Fun, und den höchsten Wiederverkaufswert.

Andererseits muss man halt auch sehen, hat NV mit DLSS einer Menge Karten ein zweites Leben geschenkt und vielen den Druck eines zwingenden Neukaufs genommen. hat.

Das trifft im übrigen natürlich auch auf AMD zu.
 
Schreibt der perfekte Kunde.
 
Ohh wie ich deinen Sarkasmus liebe^^

Perfekt kommt immer auf die Sichtweise an.
Denn für Nvidia bin ich alles andere als perfekt, weil ich mich weigere die Grafikkarten zu kaufen.
 
Schreibt der perfekte Kunde.
Stimmt, ich jaule nicht rum sondern lege Geld auf den Tisch oder eben nicht.

Oder siehst du mich rumjammern im Mercedes, Porsche, Rolls Royce, BMW oder im Audi Forum.

Noch nichtmal bei Rolex oder Patek Patek Philippe.

Auch Designer werden von mir nicht heimgesucht.

Ich kauf es einfach nicht.

Aber ohne ständig darüber öffentlich rum zu jodeln.

Aber die Opfer der Heulsusenpädogik neigen halt zu gemeinsamen öffentlichen Trauergesängen, wenn Mamas bester sich was nicht kaufen kann oder mag.

So what. :sneaky:
 
Ohh wie ich deinen Sarkasmus liebe^^

Perfekt kommt immer auf die Sichtweise an.
Denn für Nvidia bin ich alles andere als perfekt, weil ich mich weigere die Grafikkarten zu kaufen.
Ich bin mir nicht sicher, ob du da zurücksarkastest, aber ich meinte Megaone, der sich nach dir verewigte.
 
Stimmt, ich jaule nicht rum sondern lege Geld auf den Tisch oder eben nicht.

Oder siehst du mich rumjammern im Mercedes, Porsche, Rolls Royce, BMW oder im Audi Forum.

Noch nichtmal bei Rolex oder Patek Patek Philippe.

Auch Designer werden von mir nicht heimgesucht.

Ich kauf es einfach nicht.

Aber ohne ständig darüber öffentlich rum zu jodeln.

Aber die Opfer der Heulsusenpädogik neigen halt zu gemeinsamen öffentlichen Trauergesängen, wenn Mamas bester sich was nicht kaufen kann oder mag.

So what. :sneaky:
Gut, dass das hier ne komplett geschlossene Blase ist, ne?
 
Achso.. ja das war auch Sarkasmus von mir.. ich kann ihn ja (zum Glück) nicht lesen^^
 
>> Naja, "normale" Grafikkarten finden durchaus auch im professionellen Bereich ihre Anwendung, muss ja nicht Data Center volle Pulle GPGPU sein; wer damit arbeitet, ist professionell unterwegs.

>> Ja nicht nur Apple, darum hab ich Zitat "primär" dazu geschrieben. Ich red hier auch von Vermeidung von Elektroschrott, denn die Schrottkarten von Geiz-vidia mit zu wenig VRAM landen auf dem Müll, weil die Gameentwickler nur noch klotzen statt optimieren.

Ich schrei nicht nach "anderen", ich sag nur meine Meinung, bin über 30 Jahre dabei, aber die Entwicklung im Hard- als auch Software-Bereich passt mir persönlich einfach nicht mehr. Und man ist abhängig, sonst kann man seinen Job, nebst Hobbies, an den Nagel hängen.

Ob wir, diejenigen welche sich mehr oder weniger auskennen, eine GPU kaufen oder nicht, das kratzt niemanden und ist auf keiner Bilanz weder bei grün, noch rot oder blau, jemals zu sehen, weil wir die 0.x Prozent aller Kunden sind. Die 99.x % sind die, welche hier vorhin als "Opfer" klassifiziert wurden. Was die kratzt, ist dann, wenn Profis mit entsprechender Plattform, anfangen mit dem Finger zu zeigen und zu sch(r)eiben, zu Recht, und auch Teile der 99.x % davon was mit bekommen, und plötzlich anfangen zu (hinter)fragen...

>> Vor 20 Jahren musste es Das Beste Vom Besten sein, ohne Rücksicht auf die Kosten. Dem hab ich vor Langem abgeschworen. Aber, aktuell bin ich wieder soweit, bei der nächsten GPU ins alleroberste Regal zu greifen, aus den selben Gründen, die Megaone für sich schon treffend formuliert hat. --> #26


Aber, manchmal tuts einfach gut, wenn Gleichgesinnte zum "rant" blasen, obschon helfen tuts letztlich wohl nicht. ;-)
 
Aus dem aktuellen AMD-Thread von @Derfnam:
Zitat: "Das paraphrasiere ich hier sogar sehr gerne: es herrscht kein Kaufzwang."

Hmm. Im Prinzip hast Du recht. Vollkommen. Aber im 21. Jahrhundert, ist das alles, in der sog. "westlichen" Welt zumindest, Teil des Alltags und Grundbedürfnissen der Bevölkerung. Wenn man da schon Teil des "Ökosystems" ist, ist ein Verzicht schon eine sehr einschneidende Sache. Das Wechseln der "Lager" (rot oder grün) gestaltet sich schwer, zumindest in eine Richtung, und, da wäre ich wieder beim Thema "EU", von wegen Wettbewerb, Kundenbindung/Zwang, zu geringe Wahlfreiheit. Und letztlich dem resultierenden Elektroschrott. Aber im Prinzip hast Du recht.
 
Soweit ich der Nvidia Seite entnehmen kann steht ab 329€, deshalb würde ich schätzen das der Preis der non 4060 hier offiziel 329€ sein wird.
 
PN, @Furda, das hat mit dem Grundthema wenig zu tun.
 
Test
 
Zuletzt bearbeitet :
Schon eine etwas schräge Entscheidung (4060 mit mehr VRAM als 4070, trotzdem mit 128 bit Bus) die wahrscheinlich auch von Überlegungen wie VRAM Chips "oben und unten" (Clamshell) oder nur auf einer Seite, was billiger in den Herstellung kommt. Aber ja, NVIDIA macht eben auch das, womit sie noch durchkommen können.
Und zu diesem Satz "Aufgrund der räumlichen Nähe zum Kern kann der L1-Cache allerdings nicht besonders groß sein." noch ein Kommentar: Hätte schon größer sein können, nur wollte NVIDIA das wohl nicht. Mehr L1 Cache kostet eben deutlich Fläche für jedes kB mehr, und wird daher ungern größer ausgelegt als absolut notwendig. Allerdings kann ein größerer L1 Cache deutlich mehr Leistung/Durchsatz bringen, er kostet halt viel Silizium, also weniger Chips pro Wafer.
Beispiel für Designs (CPU, aber auch GPU wie hier) mit großen Caches auf allen Cache Leveln sind die großen Apple M1/M2 SoCs. Allerdings wird man da auch entsprechend zur Kasse gebeten.
 
Schon eine etwas schräge Entscheidung (4060 mit mehr VRAM als 4070, trotzdem mit 128 bit Bus) die wahrscheinlich auch von Überlegungen wie VRAM Chips "oben und unten" (Clamshell) oder nur auf einer Seite, was billiger in den Herstellung kommt. Aber ja, NVIDIA macht eben auch das, womit sie noch durchkommen können.
Und zu diesem Satz "Aufgrund der räumlichen Nähe zum Kern kann der L1-Cache allerdings nicht besonders groß sein." noch ein Kommentar: Hätte schon größer sein können, nur wollte NVIDIA das wohl nicht. Mehr L1 Cache kostet eben deutlich Fläche für jedes kB mehr, und wird daher ungern größer ausgelegt als absolut notwendig. Allerdings kann ein größerer L1 Cache deutlich mehr Leistung/Durchsatz bringen, er kostet halt viel Silizium, also weniger Chips pro Wafer.
Beispiel für Designs (CPU, aber auch GPU wie hier) mit großen Caches auf allen Cache Leveln sind die großen Apple M1/M2 SoCs. Allerdings wird man da auch entsprechend zur Kasse gebeten.
Ohne jetzt irgendwie schräg rüber kommen zu wollen, aber eigentlich waren doch spätestens seit der 1000er Serie alle Karten von NVIDIA bis auf die jeweilige Top-Karte schrott. Von der Speichernummer mit der 970er mal ganz abgesehen.

Die 1080ti war eine Hammerkarte. Dank 11 GB relativ zukunftsträchtig und ziemlich flott. Die 1080 mit ihren 8 GB dagegen eine ziemlich Schlaftablette.

Das gleiche Spiel bei der 2000er Serie.

Richtig übel wurde es dann bei der 3000er Serie . Die 3080 mit 10 GB war doch ein Witz und selbst die spätere 12 GB sowie die 3080TI waren oder sind doch wenig zukunftsträchtig. Klar sind die 24 GB der 3090 overdosed, aber haben ist immer besser als brauchen.

Und allein der Leistungsunterschied zwichen 4090 und 4080 ist doch absurd. Alles ausser der TOP-Karte ist und wahr bei NV immer irgendwie ein fauler Kompromiss.
 
Oben Unten