NVIDIA GeForce RTX 50 „Blackwell“: Leistungsstarke Grafikkarten mit neuem Fertigungsprozess und DisplayPort 2.1

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.854
Bewertungspunkte
8.965
Punkte
1
Standort
Redaktion
Neue Informationen von Kopite7kimi deuten darauf hin, dass NVIDIA seine Blackwell-GPUs vorbereitet, die später in der Gaming-Reihe der GeForce RTX 50 eingesetzt werden sollen. So soll die kommende Generation der GeForce RTX 50 „Blackwell“-GPUs von NVIDIA voraussichtlich den neuesten 3-nm-Fertigungsprozess von TSMC nutzen und den DisplayPort-2.1-Standard übernehmen. Die neueste 3-nm-Prozesstechnologie von TSMC bietet im Vergleich zu der 5-nm-Variante eine weitere Reduzierung des Energieverbrauchs um 25-30%, eine Steigerung der Leistung pro Transistor um 10-15%, eine 42%ige Verringerung der Fläche sowie eine Dichtezunahme um das 1,7-fache. Diese signifikanten Verbesserungen gegenüber dem aktuellen 5-nm-Knoten könnten dazu führen, den Effizienzvorsprung von NVIDIA gegenüber seinen […] (read full article...)
 
25-30% Effizienzsteigerung bei 10-15% Leistungssteigerung hört man doch gerne...wann ist release? 2024 oder 2025?
 
Weihnachten 2024 fürs High-End. Stand heute :D
 
25-30% Effizienzsteigerung bei 10-15% Leistungssteigerung hört man doch gerne...wann ist release? 2024 oder 2025?
Warum hört man das gern?
Weil der Performanesprung 5090 zu 4090 deutlich(!) kleiner ausfällt als der Sprung 4090 zu 3090?
Vielleicht wird der Preisaufschlag ja deshalb auch etwas kleiner, oder auch nicht?

Was gern unter den Teppich gekehrt wird, alle neueren Fertigungsverfahren können absehbar SRAM nicht mehr wirklich skalieren, d.h. es gibt keinen Flächengewinn trotz kleinerer Strukturen. Dadurch werden z.B. die 128MB Cache (statt 96) noch teurer, denn der Platz fehlt z.B. für mehr (und besser flächenskalierende) Recheneinheiten.

Die Effizienzsteigerung dürfte auch kaum reichen, den Zuwachs auszugleichen, d.h. noch mehr Stromfresserei, wenn auch nur moderat mehr.

Die reale Skalierungseffizienz war schon bei 4090 nicht besonders gut, hier stehen die Vorzeichen nicht wirklich besser.
 
Eigentlich völlig egal.
Solang die Karten diesen Stecker haben bin ich wohl raus :/

Könnte man dann natürlich auch als "mein Pech" abstempeln.
Damit kann ich umgehen. Ich hab Zeit.

Nvidia wird definitiv für einen fetten Preis sorgen.
Warum ? Weil AMD nicht mal gegen die 4090 anstinken kann.
Die kommen dann mit Gründen wie: neuer besser VRAM, mehr für DLSS + FG usw.

Ich kenne mittlerweile mehr Leute als ich dachte die schon ihre 4090 im System haben
Also persönliches Umfeld, nicht User ausm Forum gell ;)

Ich wünsche niemanden das der Stecker wegschmort. Traue dem Schmutz nicht über den Weg.
Wenn ich es nicht mehr aushalte, kommen da Bananenstecker an die Karte oder WAGO Klemmen.
 
Zuletzt bearbeitet :
Ich würde mal vermuten wollen, das die Kühlung der 5090 nicht an die der 4090 heranreicht. Sollte es bei DLSS 3 bleiben und in Abhängigkeit zur Preisgestaltung könnte die 4090 durchaus bei Release der 5090 für viele eine interessante Alternative darstellen.

Ich weiss nicht ob ich bei 10% bis 15% Mehrleistung zwingend zu einem Neukauf neigen würde. Zumal meine 4090 Leistungsreduziert fährt und unklar ist, wieviel Effizienzsteigerung am Ende wirklich vorhanden ist.


Es bleibt spannend.
 
Warum hört man das gern?
Weil der Performanesprung 5090 zu 4090 deutlich(!) kleiner ausfällt als der Sprung 4090 zu 3090?
Vielleicht wird der Preisaufschlag ja deshalb auch etwas kleiner, oder auch nicht?

Was gern unter den Teppich gekehrt wird, alle neueren Fertigungsverfahren können absehbar SRAM nicht mehr wirklich skalieren, d.h. es gibt keinen Flächengewinn trotz kleinerer Strukturen. Dadurch werden z.B. die 128MB Cache (statt 96) noch teurer, denn der Platz fehlt z.B. für mehr (und besser flächenskalierende) Recheneinheiten.

Die Effizienzsteigerung dürfte auch kaum reichen, den Zuwachs auszugleichen, d.h. noch mehr Stromfresserei, wenn auch nur moderat mehr.

Die reale Skalierungseffizienz war schon bei 4090 nicht besonders gut, hier stehen die Vorzeichen nicht wirklich besser.
da gehts rein um die native Rohleistung, warten wir ab, was für ein Sprung bei DLSS gemacht wird, es ist ja schon Wahnsinn welcher Sprung von DLSS 1.x auf 2.x und dann auf 3.x gemacht wurde, ich sehe die Zukunft in Games immer mehr in Richtung KI/DLSS verschieben.
Ich glaube mit der Technik stehen die jetzt erst mal an und soviel ich weiß (habs mal in einem Video gesehen), arbeitet nVidia daran
immer mehr mit DLSS die geringen Leistungssprünge größer ausfallen zu lassen.
 
Wär spannend, wenn die 5000er in der Tat so kommen! Allerdings ist mir etwas rätselhaft, daß die GPU laut dem Gerücht - Pardon, dem Leak - als Monolith daherkommen soll, und die HPC/KI Beschleuniger als Chiplets. Da die Anzahl der Transistoren innerhalb derselben Klasse (4090 zu "5090") mit großer Sicherheit wieder ansteigen wird, erhöht sich die Ausschussrate auch entsprechend, selbst wenn 3 nm bis dahin (Dezember 2024) als voll etablierter Knoten bei TSMC laufen wird. Chiplets machen dann einfach so viel mehr Sinn, auch und gerade aus ökonomischer Sicht. Ein Monolithen mit > 50 Milliarden Transistoren würde sehr teuer in der Fertigung werden, ein Chiplet Design entweder wie bei großen Navis oder (Dezember 14!) enger gepackt wie bei Intels Meteor Lake sehr viel billiger und auch flexibler. Aber im Moment sind das ja alles ungelegte Eier. Und wenn Nvidia sich Sorgen um die Packaging Kapazität von TSMC macht und deshalb auch Monolith in Betracht zieht: Jensen Huang hatte ja schon freundliche Worte mit Gelsinger gehabt, vielleicht kann Intel hier Nvidia beim Packaging aushelfen mit Foveros und EMIB, und umgekehrt vielleicht so was (So, hier mal ein Gerücht in die Welt setzen): Arrow Lake mit iGPU Kachel von Nvidia? Wär doch interessant!
 
Wenn diese kommen könnte der Name auch preislich zum Programm werden. Sehr teuer und wieder mal in Stückzahlen der dem Preis alle Ehre macht. Hoffentlich wird diese Karte technisch auch dem Niveau des Preises entsprechen. Ich sitze immer nochj auf einer 3090 er mit Blackscreen Problematik. Die 4090 er läuft bisher gut. Das mit dem Stromanschluss ist halt nicht so erquickend, und dem Preis kann man schon etwas anderes erwarten. Bin trotzdem mal gespannt.
 
was mich interessiert: werden die neuen gpus pcie 5 schnittstellen haben und sie auch ausreizen? wieviel performance verliere ich wenn ich die dann an einem mb mit lediglich pcie 4 betreibe.

beim rest hält sich meine neugier in grenzen und ich warte auf einen ersten test. diese twitter wahrsager haben ja auch nicht immer recht
 
Wenn diese kommen könnte der Name auch preislich zum Programm werden. Sehr teuer und wieder mal in Stückzahlen der dem Preis alle Ehre macht. Hoffentlich wird diese Karte technisch auch dem Niveau des Preises entsprechen. Ich sitze immer nochj auf einer 3090 er mit Blackscreen Problematik. Die 4090 er läuft bisher gut. Das mit dem Stromanschluss ist halt nicht so erquickend, und dem Preis kann man schon etwas anderes erwarten. Bin trotzdem mal gespannt.
Die Blackscreenproblematik war bei meiner 3090 nach Einbau einer Wakü und einer leichten Afterburneranpassung komplett erledigt.
 
Die Blackscreenproblematik war bei meiner 3090 nach Einbau einer Wakü und einer leichten Afterburneranpassung komplett erledigt.
Das komische ist, dass die Grafikkarte bei Benchmarks stabil läuft. In einigen Spielen kommt dieser dann. Eine Karte die 1900,00- über 4000 gelistet war, muß diese stabil laufen ohne einzugreifen. Habe einige User gelesen die da Probleme mit haben.
 
Das komische ist, dass die Grafikkarte bei Benchmarks stabil läuft. In einigen Spielen kommt dieser dann. Eine Karte die 1900,00- über 4000 gelistet war, muß diese stabil laufen ohne einzugreifen. Habe einige User gelesen die da Probleme mit haben.
Viele Erstkäufer hatten Probleme mit Karten die nur 2 Stromanschlüsse hatten. War bei meiner AORUS MASTER auch Fall. Später wurde das dann wohl geändert. Bei mir ist lief sie meistens stabil, ist aber immer bei ALYX abgestürzt. Aber ich habs dann in den Griff bekommen mit den erwähnten Maßnahmen.
 
Kenne jemanden der hat auch eine Wakü draufgebaut und hatte auch weiterhin Probleme. Ist halt unschön sowas.
 
Weihnachten 2024 fürs High-End. Stand heute :D
Ah, das klingt interessant. Da wäre ich echt interessiert. Mal sehen, ob das Release-Datum hält. Die würde dann vermutlich gerade so eine PIMAX 12KX treiben können, die vielleicht auch bis dahin rauskommt. Der Krieg mit China ist ja auf 2025 terminiert, wie die Amerikaner schon mitgeteilt haben.
ISt das nicht eher Consumer "Enthusiast level"? Ist HighEnd nicht der Profi-Bereich? Hier im Forum sehe ich typische Enthusiasten.
 
Warum hört man das gern?
Weil der Performanesprung 5090 zu 4090 deutlich(!) kleiner ausfällt als der Sprung 4090 zu 3090?
Vielleicht wird der Preisaufschlag ja deshalb auch etwas kleiner, oder auch nicht?

Was gern unter den Teppich gekehrt wird, alle neueren Fertigungsverfahren können absehbar SRAM nicht mehr wirklich skalieren, d.h. es gibt keinen Flächengewinn trotz kleinerer Strukturen. Dadurch werden z.B. die 128MB Cache (statt 96) noch teurer, denn der Platz fehlt z.B. für mehr (und besser flächenskalierende) Recheneinheiten.

Die Effizienzsteigerung dürfte auch kaum reichen, den Zuwachs auszugleichen, d.h. noch mehr Stromfresserei, wenn auch nur moderat mehr.

Die reale Skalierungseffizienz war schon bei 4090 nicht besonders gut, hier stehen die Vorzeichen nicht wirklich besser.
Die SRAM Skalierung wär allerdings auch noch ein Grund mehr, die 5000er GPUs auch für Grafikkarten in Chiplets zu fertigen. Zum Beispiel könnte man dann auch einen großen Cache in einem anderen, billigeren Knoten fertigen, zB in 5 (N4). Käme natürlich darauf an, wie gut und eng die Chiplets miteinander verbunden werden. Wenn die so schnell mit minimalen Latenzen und sehr kurzen Wegen wie die Kacheln in Meteor Lake verbunden werden, kann man so den Compute Kernen in 3 nm mehr Fläche geben, und der Cache darf dann auch noch größer als 128 MB ausfallen. Nun ist Nvidia auch wirklich fähig wenn's um Chip Design geht, und werden die Alternativen schon durchsimuliert haben bzw tun das gerade. Aber ja, die großen 5000er werden teuer, das kann man auch ohne Insider Informationen vorhersagen. Bei der Skalierung innerhalb der 4000er Serie kommt (reine Vermutung) auch dazu, daß die 4090 GPU uU auch schon in das Limit des Speicherzugangs läuft, auch weil Nvidia ja keinen 512 Bit oder breiteren Bus wollte bzw Micron hatte keine GDDR6x Chips die sich dafür geeignet hätten. Irgendwie sind derartig breite (und schnelle) nicht-HBM VRAM Anbindungen aus der Mode gekommen. Und viel HBM RAM ist richtig teuer.
 
Bin dafür das man auch die Software/Spiele besser auf solche Hardware optimiert. Was nützt die beste Hardware, wenn die Software schlecht ist.
 
Oben Unten