GPUs Latest news

NVIDIA GeForce RTX 50 “Blackwell”: Powerful graphics cards with new manufacturing process and DisplayPort 2.1

New information from Kopite7kimi suggests that NVIDIA is preparing its Blackwell GPUs, which will later be used in the GeForce RTX 50 gaming series. The next generation of GeForce RTX 50 “Blackwell” GPUs from NVIDIA is expected to use the latest 3nm manufacturing process from TSMC and adopt the DisplayPort 2.1 standard.

Source: KI

TSMC’s latest 3nm process technology offers a further 25-30% reduction in power consumption, a 10-15% increase in power per transistor, a 42% reduction in area and a 1.7x increase in density compared to the 5nm variant. These significant improvements over the current 5nm node could lead to a further increase in NVIDIA’s efficiency lead over its competitors, as the existing GeForce RTX 40 “Ada Lovelace” series already offers impressive performance per watt.

However, it’s too early to tell which specific 3nm variant will be used by the Blackwell gaming GPUs, as the technology will be available in at least four different flavors – from the standard N3 to the more efficient and performance-oriented designs such as N3E, N3P and N3A.

Source: TSMC

NVIDIA plans to use the “Blackwell” GPUs, which are specifically designed for HPC/AI, together with the latest HBM3e memory solutions in TSMC’s 3nm manufacturing process node. At the same time, NVIDIA’s gaming cards will be equipped with the GDDR7 memory solution, as recently speculated. This would mean that both the HPC and gaming sides of the product families would feature an architecture under the same naming convention – a first after several years. It is also worth noting that the HPC side is expected to benefit from a chiplet-based design, while the gaming side is likely to continue with monolithic dies.

The next generation of GeForce graphics cards are expected to feature DisplayPort 2.1 technology, which puts them on par with AMD’s Radeon RX 7000 GPUs. The disappointment of DP 2.1 not being available on the GeForce RTX 40 GPUs will hopefully soon be a thing of the past. NVIDIA will thus support the latest technologies in its upcoming graphics architecture. In addition to the process node technology, DisplayPort 2.1 technology will also be used.

Source: Kopite7kimi

Kommentar

Lade neue Kommentare

echolot

Urgestein

1,059 Kommentare 810 Likes

25-30% Effizienzsteigerung bei 10-15% Leistungssteigerung hört man doch gerne...wann ist release? 2024 oder 2025?

Antwort Gefällt mir

Igor Wallossek

1

10,390 Kommentare 19,329 Likes

Weihnachten 2024 fürs High-End. Stand heute :D

Antwort 1 Like

H
Headyman

Veteran

117 Kommentare 54 Likes

Warum hört man das gern?
Weil der Performanesprung 5090 zu 4090 deutlich(!) kleiner ausfällt als der Sprung 4090 zu 3090?
Vielleicht wird der Preisaufschlag ja deshalb auch etwas kleiner, oder auch nicht?

Was gern unter den Teppich gekehrt wird, alle neueren Fertigungsverfahren können absehbar SRAM nicht mehr wirklich skalieren, d.h. es gibt keinen Flächengewinn trotz kleinerer Strukturen. Dadurch werden z.B. die 128MB Cache (statt 96) noch teurer, denn der Platz fehlt z.B. für mehr (und besser flächenskalierende) Recheneinheiten.

Die Effizienzsteigerung dürfte auch kaum reichen, den Zuwachs auszugleichen, d.h. noch mehr Stromfresserei, wenn auch nur moderat mehr.

Die reale Skalierungseffizienz war schon bei 4090 nicht besonders gut, hier stehen die Vorzeichen nicht wirklich besser.

Antwort 2 Likes

RaptorTP

Veteran

327 Kommentare 158 Likes

Eigentlich völlig egal.
Solang die Karten diesen Stecker haben bin ich wohl raus :/

Könnte man dann natürlich auch als "mein Pech" abstempeln.
Damit kann ich umgehen. Ich hab Zeit.

Nvidia wird definitiv für einen fetten Preis sorgen.
Warum ? Weil AMD nicht mal gegen die 4090 anstinken kann.
Die kommen dann mit Gründen wie: neuer besser VRAM, mehr für DLSS + FG usw.

Ich kenne mittlerweile mehr Leute als ich dachte die schon ihre 4090 im System haben
Also persönliches Umfeld, nicht User ausm Forum gell ;)

Ich wünsche niemanden das der Stecker wegschmort. Traue dem Schmutz nicht über den Weg.
Wenn ich es nicht mehr aushalte, kommen da Bananenstecker an die Karte oder WAGO Klemmen.

Antwort 3 Likes

Megaone

Urgestein

1,799 Kommentare 1,704 Likes

Ich würde mal vermuten wollen, das die Kühlung der 5090 nicht an die der 4090 heranreicht. Sollte es bei DLSS 3 bleiben und in Abhängigkeit zur Preisgestaltung könnte die 4090 durchaus bei Release der 5090 für viele eine interessante Alternative darstellen.

Ich weiss nicht ob ich bei 10% bis 15% Mehrleistung zwingend zu einem Neukauf neigen würde. Zumal meine 4090 Leistungsreduziert fährt und unklar ist, wieviel Effizienzsteigerung am Ende wirklich vorhanden ist.

Es bleibt spannend.

Antwort 2 Likes

ipat66

Urgestein

1,390 Kommentare 1,397 Likes

Und das für lange Zeit... ;)
Kannst Dich beruhigt zurücklehnen.

Antwort 2 Likes

AB5TAUB3R

Veteran

213 Kommentare 85 Likes

da gehts rein um die native Rohleistung, warten wir ab, was für ein Sprung bei DLSS gemacht wird, es ist ja schon Wahnsinn welcher Sprung von DLSS 1.x auf 2.x und dann auf 3.x gemacht wurde, ich sehe die Zukunft in Games immer mehr in Richtung KI/DLSS verschieben.
Ich glaube mit der Technik stehen die jetzt erst mal an und soviel ich weiß (habs mal in einem Video gesehen), arbeitet nVidia daran
immer mehr mit DLSS die geringen Leistungssprünge größer ausfallen zu lassen.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

1,636 Kommentare 953 Likes

Wär spannend, wenn die 5000er in der Tat so kommen! Allerdings ist mir etwas rätselhaft, daß die GPU laut dem Gerücht - Pardon, dem Leak - als Monolith daherkommen soll, und die HPC/KI Beschleuniger als Chiplets. Da die Anzahl der Transistoren innerhalb derselben Klasse (4090 zu "5090") mit großer Sicherheit wieder ansteigen wird, erhöht sich die Ausschussrate auch entsprechend, selbst wenn 3 nm bis dahin (Dezember 2024) als voll etablierter Knoten bei TSMC laufen wird. Chiplets machen dann einfach so viel mehr Sinn, auch und gerade aus ökonomischer Sicht. Ein Monolithen mit > 50 Milliarden Transistoren würde sehr teuer in der Fertigung werden, ein Chiplet Design entweder wie bei großen Navis oder (Dezember 14!) enger gepackt wie bei Intels Meteor Lake sehr viel billiger und auch flexibler. Aber im Moment sind das ja alles ungelegte Eier. Und wenn Nvidia sich Sorgen um die Packaging Kapazität von TSMC macht und deshalb auch Monolith in Betracht zieht: Jensen Huang hatte ja schon freundliche Worte mit Gelsinger gehabt, vielleicht kann Intel hier Nvidia beim Packaging aushelfen mit Foveros und EMIB, und umgekehrt vielleicht so was (So, hier mal ein Gerücht in die Welt setzen): Arrow Lake mit iGPU Kachel von Nvidia? Wär doch interessant!

Antwort Gefällt mir

Klicke zum Ausklappem
Brummbär

Veteran

123 Kommentare 36 Likes

Wenn diese kommen könnte der Name auch preislich zum Programm werden. Sehr teuer und wieder mal in Stückzahlen der dem Preis alle Ehre macht. Hoffentlich wird diese Karte technisch auch dem Niveau des Preises entsprechen. Ich sitze immer nochj auf einer 3090 er mit Blackscreen Problematik. Die 4090 er läuft bisher gut. Das mit dem Stromanschluss ist halt nicht so erquickend, und dem Preis kann man schon etwas anderes erwarten. Bin trotzdem mal gespannt.

Antwort Gefällt mir

T
Tralien

Mitglied

93 Kommentare 41 Likes

was mich interessiert: werden die neuen gpus pcie 5 schnittstellen haben und sie auch ausreizen? wieviel performance verliere ich wenn ich die dann an einem mb mit lediglich pcie 4 betreibe.

beim rest hält sich meine neugier in grenzen und ich warte auf einen ersten test. diese twitter wahrsager haben ja auch nicht immer recht

Antwort Gefällt mir

Megaone

Urgestein

1,799 Kommentare 1,704 Likes

Die Blackscreenproblematik war bei meiner 3090 nach Einbau einer Wakü und einer leichten Afterburneranpassung komplett erledigt.

Antwort Gefällt mir

Brummbär

Veteran

123 Kommentare 36 Likes

Das komische ist, dass die Grafikkarte bei Benchmarks stabil läuft. In einigen Spielen kommt dieser dann. Eine Karte die 1900,00- über 4000 gelistet war, muß diese stabil laufen ohne einzugreifen. Habe einige User gelesen die da Probleme mit haben.

Antwort Gefällt mir

Megaone

Urgestein

1,799 Kommentare 1,704 Likes

Viele Erstkäufer hatten Probleme mit Karten die nur 2 Stromanschlüsse hatten. War bei meiner AORUS MASTER auch Fall. Später wurde das dann wohl geändert. Bei mir ist lief sie meistens stabil, ist aber immer bei ALYX abgestürzt. Aber ich habs dann in den Griff bekommen mit den erwähnten Maßnahmen.

Antwort Gefällt mir

Brummbär

Veteran

123 Kommentare 36 Likes

Kenne jemanden der hat auch eine Wakü draufgebaut und hatte auch weiterhin Probleme. Ist halt unschön sowas.

Antwort Gefällt mir

Megaone

Urgestein

1,799 Kommentare 1,704 Likes

Du must halt auch an die Spannungen gehen. Oft hilft Afterburner schon allein, wenn die Temps stimmen.

Antwort Gefällt mir

Oryzen

Veteran

313 Kommentare 184 Likes

Ah, das klingt interessant. Da wäre ich echt interessiert. Mal sehen, ob das Release-Datum hält. Die würde dann vermutlich gerade so eine PIMAX 12KX treiben können, die vielleicht auch bis dahin rauskommt. Der Krieg mit China ist ja auf 2025 terminiert, wie die Amerikaner schon mitgeteilt haben.
ISt das nicht eher Consumer "Enthusiast level"? Ist HighEnd nicht der Profi-Bereich? Hier im Forum sehe ich typische Enthusiasten.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,636 Kommentare 953 Likes

Die SRAM Skalierung wär allerdings auch noch ein Grund mehr, die 5000er GPUs auch für Grafikkarten in Chiplets zu fertigen. Zum Beispiel könnte man dann auch einen großen Cache in einem anderen, billigeren Knoten fertigen, zB in 5 (N4). Käme natürlich darauf an, wie gut und eng die Chiplets miteinander verbunden werden. Wenn die so schnell mit minimalen Latenzen und sehr kurzen Wegen wie die Kacheln in Meteor Lake verbunden werden, kann man so den Compute Kernen in 3 nm mehr Fläche geben, und der Cache darf dann auch noch größer als 128 MB ausfallen. Nun ist Nvidia auch wirklich fähig wenn's um Chip Design geht, und werden die Alternativen schon durchsimuliert haben bzw tun das gerade. Aber ja, die großen 5000er werden teuer, das kann man auch ohne Insider Informationen vorhersagen. Bei der Skalierung innerhalb der 4000er Serie kommt (reine Vermutung) auch dazu, daß die 4090 GPU uU auch schon in das Limit des Speicherzugangs läuft, auch weil Nvidia ja keinen 512 Bit oder breiteren Bus wollte bzw Micron hatte keine GDDR6x Chips die sich dafür geeignet hätten. Irgendwie sind derartig breite (und schnelle) nicht-HBM VRAM Anbindungen aus der Mode gekommen. Und viel HBM RAM ist richtig teuer.

Antwort Gefällt mir

Klicke zum Ausklappem
8j0ern

Urgestein

2,668 Kommentare 835 Likes

Es kann nur ein 19:11 geben...

Antwort Gefällt mir

Zanza

Mitglied

44 Kommentare 8 Likes

Bin dafür das man auch die Software/Spiele besser auf solche Hardware optimiert. Was nützt die beste Hardware, wenn die Software schlecht ist.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung