NVidia NVIDIA kündigt die GeForce RTX 4060 Ti mit 8 GB und 12GB, sowie die GeForce RTX 4060 mit 8 GB offiziell an

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.190
Bewertungspunkte
18.795
Punkte
114
Alter
59
Standort
Labor
NVIDIA hat heute offiziell seine mittlere Produktpalette an RTX 40 Grafikkarten vorgestellt, die aus drei verschiedenen Modellen besteht, auch wenn es noch kein echter Launch mit Benchmarks und Unboxing ist.

Zum Artikel...
 
Zuletzt bearbeitet :
12 oder 16, @Igor Wallossek? In der Überschrift steht 12.
Zudem ist der Link zur Startseite nicht vorhanden.
 
Also wenn dann ist allerhöchstens die Non-TI Variante für mich interessant, wenn man die 299 US-Dollar dafür als Referenz ansieht.
Mal schauen wie extrem das Leistungsgefälle im Vergleich zur TI Variante sein wird.
 
"die einen enormen Leistungszuwachs durch DLSS3"

Ich denke das das immer mehr für Kunden zum Gamechanger wird. Nahezu alle neuen Titel verfügen über diese Technik. Selbst meine alte 2080 Super schaffte mit DLSS 2 plötzlich in neuen Titeln 60 Frames in 4K und lief nichtmal am Anschlag. Für mich wertet DLSS die Karten jedenfalls enorm auf.
 
Zuletzt bearbeitet :
Hmm, da muss ich mal doof nachfragen. Meine jetzige Vega 56 hat ja eine Speicherbandbreite von über 400GB/s.
Wo ist denn da jetzt der technische Fortschritt nach fast 6 Jahren?

Hört sich für mich an als ob die Speicherbandbreite am Ende der große Hasenfuß an der Karte ist.
Also FP32 Performance Ok, Speicherasbau ok, aber Bandbreite totaler Käse?

Seh ich das richtig oder übersehe ich was?
 
Die Effizienz kann sich zumindest sehen lassen.

Die Speicheranbindung :unsure:, da bin ich gespannt, wie die 4060Ti bei Belastung ohne DLSS abschneidet.
 
Hmm, da muss ich mal doof nachfragen. Meine jetzige Vega 56 hat ja eine Speicherbandbreite von über 400GB/s.
Wo ist denn da jetzt der technische Fortschritt nach fast 6 Jahren?

Hört sich für mich an als ob die Speicherbandbreite am Ende der große Hasenfuß an der Karte ist.
Also FP32 Performance Ok, Speicherasbau ok, aber Bandbreite totaler Käse?

Seh ich das richtig oder übersehe ich was?

Naja angeblich soll der wesentlich größere L2-Cache das mehr als wett machen.. aber warten wir erstmal die ersten Tests ab.
Der unbarmherzige Igor wird alle Stärken und Schwächen der Karte offen legen können^^
 
Aber was mich ein bisschen stört ist.. irgendwie tut sich da nicht viel in Sachen VRam.. also mal abgesehen von der 16GB Variante, die sich eh kaum einer kaufen wird wegen des exorbitanten Aufpreises.

Eine Uralt Radeon 480 hatte schon den selben Speicherausbau^^

Was bringt mir die beste Effizienz, wenn das Leistungsplus durch den geringen Speicherausbau wieder ins Wanken gerät?
 
Hmm, da muss ich mal doof nachfragen. Meine jetzige Vega 56 hat ja eine Speicherbandbreite von über 400GB/s.
Wo ist denn da jetzt der technische Fortschritt nach fast 6 Jahren?

Hört sich für mich an als ob die Speicherbandbreite am Ende der große Hasenfuß an der Karte ist.
Also FP32 Performance Ok, Speicherasbau ok, aber Bandbreite totaler Käse?

Seh ich das richtig oder übersehe ich was?
Hasenfuß *kopfkratz*? Verwiehernd...

Selbst die Karte mit 16 GB darf nicht schneller sein als die 4070, obwohl sie es vermutlich sein könnte. Nenn es Stallorder :)
 
Es geht ja nicht unbedingt um schneller bei mehr Speicher^^ Sondern nicht dauernd ins Speicherlimit zu fliegen^^

Ansaonsten sind sie ja eh alle beschnitten...bzw man nutzt die Ausschusschips, wo nicht alle Transistoren okay sind^^
 
Mir fällt grad ein: Vega ist ja mit HBM2. Das ist dann nochmal spezieller und - um bei Füßen zu bleiben - da hinkt was.
 
Mir fällt grad ein: Vega ist ja mit HBM2. Das ist dann nochmal spezieller und - um bei Füßen zu bleiben - da hinkt was.

Ja HBM2, das galt doch mal als die Zukunft. aber anscheinend ist es billiger ein paar MB Lvl2 Cache einzubauen der dann auch nicht schneller ist als bei HBM der komplette Speicher.

Hier mal die maximale theoretische Performance vergleichbarer Karten (von TechPowerUp) früher und heute.
Wo ist der Fortschritt? Das Einzige was sich verbessert hat ist die reine Rechenleistung (für Poligon Setup, Lighting, AI, Upscaling...?).
Das ist keine rhetorische Frage. ich raff es einfach nicht.

Vega 564060 TI10802070
Pixel Rate94.14 GPixel/s121.7 GPixel/s110.9 GPixel/s103.7 GPixel/s
Texture Rate329.5 GTexel/s324.5 GTexel/s277.3 GTexel/s233.3 GTexel/s
FP32 (float)10.54 TFLOPS22.06 TFLOPS8.873 TFLOPS7.465 TFLOPS
Memory8GB8GB8 GB8GB
Bandwidth409.6 GB/s288.0 GB/s320.3 GB/s448.0 GB/s
TDP200W160W180W175 W
Launch price399 USD (2017)399 USD (2023)599 USD (2016)499 USD (2018)
Current PriceEbay 119€Ebay 180€Ebay 160€

Ich nutze die GPU für Video/Fotobearbeitung (offline) und installiere z.B. den nicht Game-optimierten Pro Treiber. Also interessieren mich Game Performance Indices wenig. mich interessiert nicht mal AV1 Encoding, da ich nicht streame.
 
Zuletzt bearbeitet :
Ja HBM2, das galt doch mal als die Zukunft. aber anscheinend ist es billiger ein paar MB Lvl2 Cache einzubauen der dann auch nicht schneller ist als bei HBM der komplette Speicher. Aber selbst eine 1080 hatte eine Speicherbandbreite von 300 GB/s und die ist noch älter.
Beides sind Karten unter 200 Watt.
HBM ist eine Zukunft und wird immer noch in den Profikarten von Nvidia und AMD verbaut. Dort kann man auch von der enormen Speicherbandbreite (im Vergleich zur genutzten Energie) profitieren.
Nur im Endkunden Bereich wird es wahrscheinlich auf absehbare Zeit keine Karte mehr damit geben. Weil GDDR6(X) gezeigt hat, dass man auch günstiger mehr Speicher und Speicherbandbreite in die GPUs bringen kann. (HBM bzw der ganze Block aus GPU, HBM, usw. ist teurer als das klassische Design)
 
Ich nutze die GPU für Video/Fotobearbeitung (offline) und installiere z.B. den nicht Game-optimierten Pro Treiber. Also interessieren mich Game Performance Indices wenig. mich interessiert nicht mal AV1 Encoding, da ich nicht streame.
Nvidia sieht sich im Vorfeld genötigt seinen Speicherausbau zu erklären.
Sie äußern zwar keine Bedenken bezüglich der 8GB, aber sind sich scheinbar nicht sicher ob die große Masse das genauso sieht.
 
Selbst die Karte mit 16 GB darf nicht schneller sein als die 4070, obwohl sie es vermutlich sein könnte.
"Schneller" iSv Takt wird die nicht sein. Aber in der 16GB-Variante für Produktiv-Leistungen brauchbarer. Den Unterschied zu den ollen Karten mit 8+ GB würde ich mir aber sehr genau anschauen. Für mich fühlt sich die aktuelle "Mittelklasse" (bezogen auf die Leistung) absolut unnötig an. Vor allem mit Blick auf die 4060er Karten erscheint die Vorgänger-Gen (3080/3070 Ti oder für nicht-Produktiv-Einsätze: 6700/6800/6900) immer noch sehr interessant. Auch preislich. Aber ja: Warten wir mal die Tests ab.
 
Also die Leistung vs. Leistungsaufnahme scheint in die richtige Richtung zu gehen.
Ebenso positiv ist die mögl. Wahl zur Variante mit 16GB, zukunftssicherer als 8GB, aber der Aufpreis dafür ist schon sehr saftig.
Dennoch kann ich die VRAM Strategie bei Nvidia einfach nicht verstehen. Geiz Geiz Geiz. Punkt. Spätestens die UE5 wird für sehr viel Elektroschrott sorgen, aber das kümmert bei Nvidia eh keinen, im Gegenteil, kurbelt den Absatz an. Das stellt den Fortschritt der besseren Leistungseffizienz dann wieder in schlechtes Licht.
 
Also die Leistung vs. Leistungsaufnahme scheint in die richtige Richtung zu gehen.
Ebenso positiv ist die mögl. Wahl zur Variante mit 16GB, zukunftssicherer als 8GB, aber der Aufpreis dafür ist schon sehr saftig.
Dennoch kann ich die VRAM Strategie bei Nvidia einfach nicht verstehen. Geiz Geiz Geiz. Punkt. Spätestens die UE5 wird für sehr viel Elektroschrott sorgen, aber das kümmert bei Nvidia eh keinen, im Gegenteil, kurbelt den Absatz an. Das stellt den Fortschritt der besseren Leistungseffizienz dann wieder in schlechtes Licht.
Eigentlich sollten auch 12 GB für die kleineren Karten der Mindeststandard sein. Bei erscheinen der 4090 hatte ich die Wahl meine 3080TI (fast neu, noch mit 27 Monaten Garantie) oder meine 3090 (wassergekühlt, aber dank Umbau Garantiefrei und schon deutlich älter) zu verkaufen. Bin Heute Froh, die 3090 behalten zu haben.
 
Tja Furda.. du und auch die anderen Konsumenten habt das selbst in der Hand. Wenn alle meckern..aber die Karte verkauft sich dennoch gut.. dann wird Nvidia so weitermachen.
Aber wenn s gemeckert UND nicht gekauft wird..dann kñnnte sich Nvidia yu einer anderen Strategie genötigt fühlen.
Nvidia hat ein Quasimonopol bei den Grafikkarten. Die können bestimmen wohin die Reise geht. Bei den Preisen.. beim VRam..
 
Tja Furda.. du und auch die anderen Konsumenten habt das selbst in der Hand. Wenn alle meckern..aber die Karte verkauft sich dennoch gut.. dann wird Nvidia so weitermachen.
Aber wenn s gemeckert UND nicht gekauft wird..dann kñnnte sich Nvidia yu einer anderen Strategie genötigt fühlen.
Nvidia hat ein Quasimonopol bei den Grafikkarten. Die können bestimmen wohin die Reise geht. Bei den Preisen.. beim VRam..
Richtig. Leider gibt es viel zu wenig Alternativen auf dem Markt. Die einzig konkurrierende, AMD, schliesst sich Nvidia's "Strategie" nun an mit RDNA 3 (ebenso mit Zen 4) leider. Was mit Intel kommt, wird die Zukunft zeigen müssen.

Schaut man genau hin, Nvidia ist immer teurer, obwohl weniger VRAM drauf ist. Somit ist Nvidia unter dem Strich noch teurer als auf den ersten Blick.

Das Monopol entsteht aber bei den Features: DLSS Support ja oder nein spaltet die Gaming Community total, weil eben manche Games diejenigen mit AMD (und Intel) GPUs kategorisch ausschliessen.
Dito mit GSync, wer einen oder mehrere Gsync Monitore besitzt, wird sicher nicht von Nvidia weg können/wollen, weil dann auch neue Monitore gekauft werden müssten, das kostet zusätzlich (viel) Geld.

Ich nehm mal wieder die EU als Beispiel, man diktiert Apple (primär) den Zwang zu USB Ladegeräten. Aber bei PCs schauen die nicht hin. Was Nvidias "Strategie" für negative, sehr kostspielige Effekte hat, und einen sehr grossen Markt spaltet, sieht keiner bei der EU.
 
Oben Unten