Grafikkarten News

NVIDIA GeForce RTX 50 „Blackwell“: Leistungsstarke Grafikkarten mit neuem Fertigungsprozess und DisplayPort 2.1

Neue Informationen von Kopite7kimi deuten darauf hin, dass NVIDIA seine Blackwell-GPUs vorbereitet, die später in der Gaming-Reihe der GeForce RTX 50 eingesetzt werden sollen. So soll die kommende Generation der GeForce RTX 50 „Blackwell“-GPUs von NVIDIA voraussichtlich den neuesten 3-nm-Fertigungsprozess von TSMC nutzen und den DisplayPort-2.1-Standard übernehmen.

Quelle: KI

Die neueste 3-nm-Prozesstechnologie von TSMC bietet im Vergleich zu der 5-nm-Variante eine weitere Reduzierung des Energieverbrauchs um 25-30%, eine Steigerung der Leistung pro Transistor um 10-15%, eine 42%ige Verringerung der Fläche sowie eine Dichtezunahme um das 1,7-fache. Diese signifikanten Verbesserungen gegenüber dem aktuellen 5-nm-Knoten könnten dazu führen, den Effizienzvorsprung von NVIDIA gegenüber seinen Konkurrenten weiter zu vergrößern, da die bestehende GeForce RTX 40 „Ada Lovelace“-Reihe bereits eine beeindruckende Leistung pro Watt bietet. 

Es ist jedoch noch zu früh, um zu sagen, welche spezifische 3-nm-Variante von den Blackwell Gaming-GPUs verwendet wird, da die Technologie in mindestens vier verschiedenen Ausführungen verfügbar sein wird – von der standardmäßigen N3 bis hin zu den effizienteren und leistungsorientierten Designs wie N3E, N3P und N3A.

Quelle: TSMC

NVIDIA plant, die „Blackwell“-GPUs, die speziell für HPC/AI ausgelegt sind, zusammen mit den neuesten HBM3e-Speicherlösungen im 3-nm-Fertigungsprozessknoten von TSMC zu nutzen. Gleichzeitig sollen die Gaming-Karten von NVIDIA mit der GDDR7-Speicherlösung ausgestattet werden, wie es kürzlich spekuliert wurde. Dies würde bedeuten, dass sowohl die HPC- als auch die Gaming-Seiten der Produktfamilien eine Architektur unter der gleichen Namenskonvention aufweisen – ein Novum nach einigen Jahren. Außerdem ist zu erwähnen, dass die HPC-Seite voraussichtlich von einem Chiplet-basierten Design profitieren wird, während die Gaming-Seite vermutlich mit monolithischen Dies fortgeführt wird.

Die nächste Generation der GeForce Grafikkarten wird voraussichtlich mit der DisplayPort 2.1-Technologie ausgestattet sein, was sie auf die gleiche Ebene wie die Radeon RX 7000-GPUs von AMD bringt. Die Enttäuschung über die Nicht-Verfügbarkeit von DP 2.1 auf den GeForce RTX 40-GPUs wird somit hoffentlich bald der Vergangenheit angehören. NVIDIA wird damit in seiner kommenden Grafikarchitektur die neuesten Technologien unterstützen. Neben der Prozessknotentechnologie wird also auch die DisplayPort 2.1-Technologie zum Einsatz kommen.

Quelle: Kopite7kimi

Kommentar

Lade neue Kommentare

echolot

Urgestein

932 Kommentare 723 Likes

25-30% Effizienzsteigerung bei 10-15% Leistungssteigerung hört man doch gerne...wann ist release? 2024 oder 2025?

Antwort Gefällt mir

Igor Wallossek

1

10,201 Kommentare 18,828 Likes

Weihnachten 2024 fürs High-End. Stand heute :D

Antwort 1 Like

H
Headyman

Veteran

116 Kommentare 53 Likes

Warum hört man das gern?
Weil der Performanesprung 5090 zu 4090 deutlich(!) kleiner ausfällt als der Sprung 4090 zu 3090?
Vielleicht wird der Preisaufschlag ja deshalb auch etwas kleiner, oder auch nicht?

Was gern unter den Teppich gekehrt wird, alle neueren Fertigungsverfahren können absehbar SRAM nicht mehr wirklich skalieren, d.h. es gibt keinen Flächengewinn trotz kleinerer Strukturen. Dadurch werden z.B. die 128MB Cache (statt 96) noch teurer, denn der Platz fehlt z.B. für mehr (und besser flächenskalierende) Recheneinheiten.

Die Effizienzsteigerung dürfte auch kaum reichen, den Zuwachs auszugleichen, d.h. noch mehr Stromfresserei, wenn auch nur moderat mehr.

Die reale Skalierungseffizienz war schon bei 4090 nicht besonders gut, hier stehen die Vorzeichen nicht wirklich besser.

Antwort 2 Likes

RaptorTP

Veteran

320 Kommentare 153 Likes

Eigentlich völlig egal.
Solang die Karten diesen Stecker haben bin ich wohl raus :/

Könnte man dann natürlich auch als "mein Pech" abstempeln.
Damit kann ich umgehen. Ich hab Zeit.

Nvidia wird definitiv für einen fetten Preis sorgen.
Warum ? Weil AMD nicht mal gegen die 4090 anstinken kann.
Die kommen dann mit Gründen wie: neuer besser VRAM, mehr für DLSS + FG usw.

Ich kenne mittlerweile mehr Leute als ich dachte die schon ihre 4090 im System haben
Also persönliches Umfeld, nicht User ausm Forum gell ;)

Ich wünsche niemanden das der Stecker wegschmort. Traue dem Schmutz nicht über den Weg.
Wenn ich es nicht mehr aushalte, kommen da Bananenstecker an die Karte oder WAGO Klemmen.

Antwort 3 Likes

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Ich würde mal vermuten wollen, das die Kühlung der 5090 nicht an die der 4090 heranreicht. Sollte es bei DLSS 3 bleiben und in Abhängigkeit zur Preisgestaltung könnte die 4090 durchaus bei Release der 5090 für viele eine interessante Alternative darstellen.

Ich weiss nicht ob ich bei 10% bis 15% Mehrleistung zwingend zu einem Neukauf neigen würde. Zumal meine 4090 Leistungsreduziert fährt und unklar ist, wieviel Effizienzsteigerung am Ende wirklich vorhanden ist.

Es bleibt spannend.

Antwort 2 Likes

ipat66

Urgestein

1,359 Kommentare 1,357 Likes

Und das für lange Zeit... ;)
Kannst Dich beruhigt zurücklehnen.

Antwort 2 Likes

AB5TAUB3R

Veteran

213 Kommentare 85 Likes

da gehts rein um die native Rohleistung, warten wir ab, was für ein Sprung bei DLSS gemacht wird, es ist ja schon Wahnsinn welcher Sprung von DLSS 1.x auf 2.x und dann auf 3.x gemacht wurde, ich sehe die Zukunft in Games immer mehr in Richtung KI/DLSS verschieben.
Ich glaube mit der Technik stehen die jetzt erst mal an und soviel ich weiß (habs mal in einem Video gesehen), arbeitet nVidia daran
immer mehr mit DLSS die geringen Leistungssprünge größer ausfallen zu lassen.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

1,479 Kommentare 835 Likes

Wär spannend, wenn die 5000er in der Tat so kommen! Allerdings ist mir etwas rätselhaft, daß die GPU laut dem Gerücht - Pardon, dem Leak - als Monolith daherkommen soll, und die HPC/KI Beschleuniger als Chiplets. Da die Anzahl der Transistoren innerhalb derselben Klasse (4090 zu "5090") mit großer Sicherheit wieder ansteigen wird, erhöht sich die Ausschussrate auch entsprechend, selbst wenn 3 nm bis dahin (Dezember 2024) als voll etablierter Knoten bei TSMC laufen wird. Chiplets machen dann einfach so viel mehr Sinn, auch und gerade aus ökonomischer Sicht. Ein Monolithen mit > 50 Milliarden Transistoren würde sehr teuer in der Fertigung werden, ein Chiplet Design entweder wie bei großen Navis oder (Dezember 14!) enger gepackt wie bei Intels Meteor Lake sehr viel billiger und auch flexibler. Aber im Moment sind das ja alles ungelegte Eier. Und wenn Nvidia sich Sorgen um die Packaging Kapazität von TSMC macht und deshalb auch Monolith in Betracht zieht: Jensen Huang hatte ja schon freundliche Worte mit Gelsinger gehabt, vielleicht kann Intel hier Nvidia beim Packaging aushelfen mit Foveros und EMIB, und umgekehrt vielleicht so was (So, hier mal ein Gerücht in die Welt setzen): Arrow Lake mit iGPU Kachel von Nvidia? Wär doch interessant!

Antwort Gefällt mir

Klicke zum Ausklappem
Brummbär

Veteran

123 Kommentare 36 Likes

Wenn diese kommen könnte der Name auch preislich zum Programm werden. Sehr teuer und wieder mal in Stückzahlen der dem Preis alle Ehre macht. Hoffentlich wird diese Karte technisch auch dem Niveau des Preises entsprechen. Ich sitze immer nochj auf einer 3090 er mit Blackscreen Problematik. Die 4090 er läuft bisher gut. Das mit dem Stromanschluss ist halt nicht so erquickend, und dem Preis kann man schon etwas anderes erwarten. Bin trotzdem mal gespannt.

Antwort Gefällt mir

T
Tralien

Mitglied

89 Kommentare 41 Likes

was mich interessiert: werden die neuen gpus pcie 5 schnittstellen haben und sie auch ausreizen? wieviel performance verliere ich wenn ich die dann an einem mb mit lediglich pcie 4 betreibe.

beim rest hält sich meine neugier in grenzen und ich warte auf einen ersten test. diese twitter wahrsager haben ja auch nicht immer recht

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Die Blackscreenproblematik war bei meiner 3090 nach Einbau einer Wakü und einer leichten Afterburneranpassung komplett erledigt.

Antwort Gefällt mir

Brummbär

Veteran

123 Kommentare 36 Likes

Das komische ist, dass die Grafikkarte bei Benchmarks stabil läuft. In einigen Spielen kommt dieser dann. Eine Karte die 1900,00- über 4000 gelistet war, muß diese stabil laufen ohne einzugreifen. Habe einige User gelesen die da Probleme mit haben.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Viele Erstkäufer hatten Probleme mit Karten die nur 2 Stromanschlüsse hatten. War bei meiner AORUS MASTER auch Fall. Später wurde das dann wohl geändert. Bei mir ist lief sie meistens stabil, ist aber immer bei ALYX abgestürzt. Aber ich habs dann in den Griff bekommen mit den erwähnten Maßnahmen.

Antwort Gefällt mir

Brummbär

Veteran

123 Kommentare 36 Likes

Kenne jemanden der hat auch eine Wakü draufgebaut und hatte auch weiterhin Probleme. Ist halt unschön sowas.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Du must halt auch an die Spannungen gehen. Oft hilft Afterburner schon allein, wenn die Temps stimmen.

Antwort Gefällt mir

Oryzen

Veteran

306 Kommentare 181 Likes

Ah, das klingt interessant. Da wäre ich echt interessiert. Mal sehen, ob das Release-Datum hält. Die würde dann vermutlich gerade so eine PIMAX 12KX treiben können, die vielleicht auch bis dahin rauskommt. Der Krieg mit China ist ja auf 2025 terminiert, wie die Amerikaner schon mitgeteilt haben.
ISt das nicht eher Consumer "Enthusiast level"? Ist HighEnd nicht der Profi-Bereich? Hier im Forum sehe ich typische Enthusiasten.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,479 Kommentare 835 Likes

Die SRAM Skalierung wär allerdings auch noch ein Grund mehr, die 5000er GPUs auch für Grafikkarten in Chiplets zu fertigen. Zum Beispiel könnte man dann auch einen großen Cache in einem anderen, billigeren Knoten fertigen, zB in 5 (N4). Käme natürlich darauf an, wie gut und eng die Chiplets miteinander verbunden werden. Wenn die so schnell mit minimalen Latenzen und sehr kurzen Wegen wie die Kacheln in Meteor Lake verbunden werden, kann man so den Compute Kernen in 3 nm mehr Fläche geben, und der Cache darf dann auch noch größer als 128 MB ausfallen. Nun ist Nvidia auch wirklich fähig wenn's um Chip Design geht, und werden die Alternativen schon durchsimuliert haben bzw tun das gerade. Aber ja, die großen 5000er werden teuer, das kann man auch ohne Insider Informationen vorhersagen. Bei der Skalierung innerhalb der 4000er Serie kommt (reine Vermutung) auch dazu, daß die 4090 GPU uU auch schon in das Limit des Speicherzugangs läuft, auch weil Nvidia ja keinen 512 Bit oder breiteren Bus wollte bzw Micron hatte keine GDDR6x Chips die sich dafür geeignet hätten. Irgendwie sind derartig breite (und schnelle) nicht-HBM VRAM Anbindungen aus der Mode gekommen. Und viel HBM RAM ist richtig teuer.

Antwort Gefällt mir

Klicke zum Ausklappem
8j0ern

Urgestein

2,506 Kommentare 787 Likes

Es kann nur ein 19:11 geben...

Antwort Gefällt mir

Zanza

Mitglied

41 Kommentare 7 Likes

Bin dafür das man auch die Software/Spiele besser auf solche Hardware optimiert. Was nützt die beste Hardware, wenn die Software schlecht ist.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung