Grafikkarten News

Geforce RTX 5000: Chiplet-GPU und weitreichende Änderungen (Gerüchte)

Nvidias nächste Generation von Grafikkarten könnte eine Chiplet-GPU und eine neue Architektur nutzen. Seit Monaten halten sich Gerüchte über Nvidias Geforce RTX 5000 in den Schlagzeilen. Die neuesten Gerüchte sprechen dem Nachfolger von Ada Lovelace ein Multi-Chiplet-Modul („MCM“) zu, wie es auch bereits auf einigen Grafikkarten aus der aktuellen Serie Radeon RX 7000 („RDNA 3“) zum Einsatz kommt. Auch die Grafikeinheiten sollen demzufolge weitreichende Änderungen erfahren. Der für solche Vorabveröffentlichungen bekannte Twitter-Nutzer @kopite7kimi möchte nun erfahren haben, welche Grafikprozessoren auf den Geforce-Grafikkarten aus der nächsten Generation zum Einsatz kommen und wie diese aufgebaut sein sollen. Neuigkeiten zu Nvidias Geforce RTX 5000 sind immer mit Spannung erwartet. Die Gerüchte deuten darauf hin, dass die neue Generation eine echte Leistungssteigerung bringen könnte.

Quelle: Nvidia

Nvidia könnte für seine nächste Generation von Grafikkarten auf eine Chiplet-Architektur setzen. Laut @kopite7kimi und anderen Quellen soll Nvidia die Grafikeinheiten der kommenden Geforce RTX 5000 („Blackwell“) grundlegend umbauen und auf ein Multi-Chiplet-Modul („MCM“) umsteigen. Dieses Konzept ist bereits bei AMDs GPUs Navi 31 und Navi 32 im Einsatz. Ein solches Design würde es Nvidia ermöglichen, die Leistung und Effizienz der Grafikkarten zu verbessern. Durch die Verwendung mehrerer kleinerer Chips kann Nvidia die Größe und den Stromverbrauch der Grafikkarten reduzieren. Ob Nvidia die Gerüchte bestätigt, bleibt abzuwarten. Die Geforce RTX 5000 soll voraussichtlich im Jahr 2024 auf den Markt kommen.

Die Anzahl der Graphics Processing Clusters („GPCs“) und Texture Processing Clusters („TPCs“) soll dabei unverändert bleiben, der interne Aufbau der Cluster soll jedoch grundlegend überarbeitet werden. Dieser Vorgang wurde bereits bei AMDs Generationswechsel von RDNA 2 auf RDNA 3 beobachtet. AMD hat den internen Aufbau der TPCs bei RDNA 3 deutlich verbessert, was zu einer Leistungssteigerung geführt hat.Nvidias Geforce RTX 5000 soll voraussichtlich im Jahr 2024 auf den Markt kommen. Ob Nvidia tatsächlich den neuen Aufbau der Grafikeinheiten plant, bleibt abzuwarten.

Die Codesnamen der Chips sind GB202, GB203, GB205, GB206 und GB207. Der Leaker „Panzerlied“ aus dem Forum Chiphell hat Informationen veröffentlicht, die diese Gerüchte untermauern. Die Chips sollen in verschiedenen Leistungsklassen angeboten werden, von der High-End-GPU GB202 bis zur Einstiegs-GPU GB207.

Quelle: Nvidia

Nach einer durchgesickerten GPU-Roadmap von Nvidia wird die Geforce RTX 5000-Serie erst im übernächsten Jahr erscheinen. Die Serie, die auch als „Ada Lovelace Next“ bekannt ist, soll auf einer neuen Architektur basieren und neue Grafikprozessoren mitbringen. Nvidia hat sich bisher nicht zu den Gerüchten geäußert. Allerdings ist es durchaus möglich, dass das Unternehmen seinen Vorsprung auf die Konkurrenz ausbauen möchte, bevor es eine neue Generation von Grafikkarten auf den Markt bringt.

Nvidias Geforce RTX 5000: Geforce RTX 5090 und 5080 mit GDDR7 und PCIe 5.0

Nach Angaben von Leakern plant Nvidia, die Geforce RTX 5000-Serie mit zwei neuen Grafikprozessoren zu starten: der Geforce RTX 5090 und der Geforce RTX 5080. Beide Grafikkarten sollen auf der neuen Architektur „David Blackwell“ basieren und mit dem neuen GDDR7-Grafikspeicher ausgestattet sein. Die Geforce RTX 5090 wird voraussichtlich die leistungsstärkste Grafikkarte der Serie sein. Sie soll auf dem Grafikprozessor GB202 basieren, der über 18.432 CUDA-Kerne verfügen soll. Die Geforce RTX 5080 wird auf dem Grafikprozessor GB203 basieren, der über 10.752 CUDA-Kerne verfügen soll. Beide Grafikkarten sollen über eine PCIe-5.0-Anbindung verfügen. Dies ermöglicht eine höhere Bandbreite und damit eine bessere Leistung. Der Einsatz von GDDR7-Grafikspeicher ist ein weiterer wichtiger Schritt. GDDR7 soll eine um bis zu 25 Prozent verbesserte Energieeffizienz bieten.

Nvidia plant, für die Geforce RTX 5090 und Geforce RTX 5080 den neuen GDDR7-Grafikspeicher zu verwenden. Dieser soll eine Bandbreite von bis zu 36 Gigabit pro Sekunde erreichen.GDDR7 ist eine neue Generation von Grafikspeicher, die eine Reihe von Verbesserungen gegenüber GDDR6X bietet. Dazu gehören eine höhere Bandbreite, eine verbesserte Energieeffizienz und eine geringere Latenz. Der Einsatz von GDDR7 in den High-End-Modellen der Geforce RTX 5000-Serie ist ein weiterer wichtiger Schritt zur Verbesserung der Leistung. Die höhere Bandbreite ermöglicht eine schnellere Datenübertragung zwischen dem Grafikprozessor und dem Speicher, was zu einer besseren Grafikleistung führt.

Auch die effektive Speicherbandbreite würde von dem schnellen GDDR7-Speicher mit bis zu 36 GiBit/s deutlich profitieren:

  • 128-Bit @ 36 Gbps: 576 GiByte/s
  • 192-Bit @ 36 Gbps: 846 GiByte/s
  • 256-Bit @ 36 Gbps: 1.152 GiByte/s
  • 320-Bit @ 36 Gbps: 1.440 GiByte/s
  • 384-Bit @ 36 Gbps: 1.728 GiByte/s
  • 512-Bit @ 36 Gbps: 2.304 GiByte/s

Wie aus mehreren Einträgen im Chiphell-Forum hervorgeht, könnte Nvidia aber auch zweigleisig fahren:

  • GB202: GDDR6X („PAM-4“) mit 512-Bit
  • GB203: GDDR6X („PAM-4“) mit 384-Bit
  • GB205: GDDR7 („PAM-3“) mit 256-Bit
  • GB206: GDDR7 („PAM-3“) mit 192-Bit
  • GB207: GDDR7 („PAM-3“) mit 128-Bit

Aber auch hierbei handelt es sich in der Regel noch um reine Spekulationen, welche zwar auf bisher durchgesickerten Informationen basieren, aber noch absolut nicht als verbindlich anzusehen sind. Nvidia selbst hat sich bislang mit keinem Wort zur nächsten Generation seiner Geforce-Grafikkarten geäußert.

Nvidia Geforce RTX 5090: Leistungsprognosen sind schwierig

Laut Gerüchten soll die Geforce RTX 5090 bis zu 2,5-mal schneller als die Geforce RTX 4090 sein. Dies ist eine beeindruckende Leistungssteigerung, aber es ist wichtig, sich daran zu erinnern, dass diese Gerüchte noch nicht bestätigt sind. Es ist unklar, ob die Leistungssteigerung aufgrund von Hardware-Verbesserungen oder durch die Verwendung von DLSS 3 mit Frame Generation erreicht wird. DLSS 3 ist eine neue Version von Nvidias Deep-Learning-Upscaling-Technologie, die eine erhebliche Leistungssteigerung bei gleichzeitiger Verbesserung der Bildqualität bieten soll. Die Spezifikationen der Geforce RTX 5090 sind ebenfalls noch rein spekulativ. Es wird erwartet, dass die Grafikkarte über 18.432 CUDA-Kerne, einen L2-Cache von 96 MiByte und einen GPU-Takt von mehr als 3 GHz verfügen wird.

Quelle: @kopite7kimi, Chiphell

 

Kommentar

Lade neue Kommentare

R
RX_Vega1975

Veteran

165 Kommentare 46 Likes

.... Jahr 2024 auf den Markt kommen

Wohl eher zur Cebit 2025 - Also in gut 1,5 Jahren.

Antwort Gefällt mir

arcDaniel

Urgestein

1,603 Kommentare 866 Likes

In letzter Zeit hat Nvidia alle 2 Jahre eine neue Gen gebracht. Vor September 2024 glaube ich wird nicht kommen. Sollten sie sich etwas mehr Zeit nehmen, wäre Cebit 2025 eine plausible Möglichkeit.

Ich denke aber es hängt nicht primär an Nvidia und ihrer Architektur sondern eher wie die Fertigungskapazitäten zur Verfügung stehen (Ok wenn Nvidia alles für AI benötigt hängt es doch etwas an Nvidia) und wie schnell GDDR7 Entsprechend verfügbar sein wird. Da es an diesen Fronten auch immer langsamer voran geht, müssen wir uns halt in mehr Geduld üben.

Antwort 1 Like

ipat66

Urgestein

1,359 Kommentare 1,357 Likes

Die lange Wartezeit kann auch genützt werden, um zwei,drei Sparschweine langsam zu befüllen.
Ich wage gar nicht an den aufgerufenen Preis einer RTX 5090 zu denken :D

Antwort 2 Likes

arcDaniel

Urgestein

1,603 Kommentare 866 Likes

Da gebe ich dir recht. Muss aber sagen, dass ich mit meiner 4080 im Moment extrem zufrieden bin. Da ich viele Spiele in meiner Backlog habe freue ich mir mich diese in einer Effizienz zu zocken, welche ich vorher nicht kannt. FF7Remake in 4k60 alles max, verbraucht die 4080 im Schnitt nur 75W und die Lüfter gehen nicht mal an.

Wenn die 5000er kommen hoffe ich auf eine ähnliche Effizienz für aktuellere Spiele und größere Fortschritte bei RT. Jetzt mit der 4080 habe ich meine erste praktikable Erfahrung mit RT gemacht und bin echt begeistert, so richtig gut ist die Performance aber dann doch nicht. Und um von FG richtig profitieren zu können passt mein Bildschirm nicht (nächste Baustelle neben der CPU)

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Ist natürlich alles noch reine Spekulation, aber imho wird die nächste Generation Nvidias von der reinen Leistung her eher ein Schritt zur Seite als einer nach vorne. Der Umstieg von einer monolithischen Architektur zu Chiplets ist nicht trivial, und wird einen Hauptteil der Entwicklungsressourcen verschlingen.

Man hat das bei AMD gesehen, da ist der Leistungssprung von der RX 6000er- zur RX 7000-Serie je eher spärlich, exakt wegen des Umstiegs auf Chiplet-Design. Und AMD hatte da bereits die jahrelange Erfahrung von den Ryzen-CPUs, nur ist das bei GPUs noch mal eine andere Nummer. Es gab ja eine Reihe interessanter Hintergrundberichte und Interviews bei der Einführung der RX 7000-Serie, in denen das thematisiert wurde.

Nvidia fängt aber mit eigener Erfahrung dicht bei Zero an, das wird die Sache nicht vereinfachen.
Mein erster Gedanke beim Lesen der Meldung war: da werden/wurden wahrscheinlich lukrative Abwerbegespräche geführt...

Im Gegenzug wird dann hoffentlich Bewegung in den Markt kommen, wenn AMD seine nächste Generation von GPUs präsentiert. Denn die haben den schwierigen Schritt bereits vollzogen, und können dann endlich ernten, was sie gesät haben. Ich erhoffe mir da einen deutlichen Leistungssprung bei AMD bei relevanten Kostenvorteilen, und damit endlich mal wieder echte Konkurrenz.

Mit ein bisserl Glück führt das dazu, dass meine (potthässliche Palit) 4090 noch eine Weile mithalten kann.

Parrot

Antwort 3 Likes

Klicke zum Ausklappem
Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Mein Bauchgefühl sagt, dass Nvidia ein deutlich ausgereifteres Produkt auf den Markt schmeißen wird. Gerade weil TSMC mit im Boot sitzt und TSMC bereits mit AMD und vllt. anderen Kunden einige Erfahrungen sammeln durfte. Auch wird sich nVidia die 7000er Reihe von AMD genauer angesehen haben.

Dann wäre da noch das Preissegment. Einerseits verlangt nVidia schon länger erhöhte Preise, die viele viele Abnehmer findet. Andererseits kosten die großen Monolithen auch nicht wenig in der Produktion; gar erheblich mehr als ein MCM. Bedeutet ja im Umkehrschluss, dass nVidia die gesteigerte Marge auch in ihren ersten Testballon strategisch investieren kann, um den bestmöglichen Erfolg ihres ersten MCM Massenprodukts zu erzielen. Ein gutes Investment für ihr Appleimage.

Das wäre dann aber kein Schritt mehr zur Seite. Für den Schritt zur Seite dürfte tatsächlich der Preis geringer ausfallen, als bei der jetzigen Generation - oder sie kompensieren das auf anderen Wege (DLSS?). Günstiger oder ein geringerer Leistungszuwachs ist bei nVidia eher schwer vorstellbar ... für mich ^^

Aber ich drücke dir die Daumen :)

Antwort 2 Likes

grimm

Urgestein

3,084 Kommentare 2,040 Likes

Ich sehe das wie @Gregor Kacknoob - und ich denke auch, dass die ab September / Oktober 2024 launchen. Da stehen ja diverse Shareholder und warten auf Dividende. Die Erwartung ist einfach, dass alle 2-3 Jahre was neues kommt. Und wenn die Entwicklung mit den mies bzw. un-optimierten Konsolenports so weitergeht, dann kann ich mit meiner 4080 nächstes Jahr anfangen, bei den AAA-Titeln die Details runter zu drehen. In WQHD.
Da wird eine neue Gen zur absoluten Notwendigkeit 😁

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Die Shareholder werden bestimmt zufrieden sein, ganz einfach weil Nvidia sich diversifiziert und das Gaming-Gelumps nur noch eines von mehreren Standbeinen ist.

KI ist der neue heiße Scheiß und der Treiber bei Umsatz und Gewinn: Dank des KI-Booms verkündet der Chiphersteller Nvidia Rekordzahlen

Ich würde mir da keine großen Illusionen machen. Nvidia ist technologisch wirklich gut. Allein: die Kunden sind für diese Firma m. E. ausschließlich Mittel zum Zweck und ansonsten wirklich vollkommen scheiß egal. Wenn das mit dem KI-Boom so weitergeht, wird Nvidia die Gaming-Kunden daher so behandeln wie einen lästigen Pickel am Arsch.

Konkret bedeutet das: solange ein technologischer Vorsprung existiert, gibt es keinen Anlass, ein neues Produkt zu launchen, wenn man die Ressourcen anderswo gewinnbringender nutzen kann.

Antwort Gefällt mir

R
RX_Vega1975

Veteran

165 Kommentare 46 Likes

Denke das man das Jahr 2025 anvisiert hat,
ist auch damit zu erklären, das das MCD nun unausweichlich wurde
und man sich somit mehr Zeit einplant und das alles nach Plan läuft ist ja auch nicht selbstverständlich.

Vor Cebit - Frühsommer 2025 rechne ich nicht mit Gamer Karten
und dies ist eine lange Zeit dahin.

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Ich glaub auch, dass ein Auftragsfertiger einem Kunden natürlich gerne das Know-How eines seiner anderen Kunden zuspielt, der in direkter Konkurrenz steht...

Nun ja, wenn ich nochmal genauer drüber nachdenke, halte ich das doch für ziemlichen Unsinn!

Wenn Deine These stimmen würde, könnte TSMC ja AMD auch ein wenig beim Raytracing unter die Arme greifen...! Aber es geht da halt um konzeptionelle Designfragen, nicht um Fertigungsfragen. Das ist eine vollkommen andere Baustelle, bei der es höchstens ein paar Überschneidungen gibt.

Und selbst wenn: ich gehe davon aus, dass die betroffenen Würstchenbuden (AMD und Nvidia: > 20.000 Mitarbeiter, TSMC: > 60.000 Mitarbeiter) mindestens eine studentische Hilfskraft mit juristischen Grundkenntnissen damit beschäftigt haben, den potentiellen Abfluss von Know-How vertraglich zu regeln. Bei einem Auftragsfertiger, dessen Geschäftsmodell darin besteht, Chips für viele untereinander konkurrierende Unternehmen zu produzieren, würde ich außerdem ganz grundsätzlich vermuten, dass entsprechende Regeln dort in der Unternehmenskultur und den Prozessen verankert sind.

Antwort Gefällt mir

H
Headyman

Veteran

116 Kommentare 53 Likes

Selten so gelacht, was für Fake News.
Rechnen wir mal:
12,5% mehr Kerne
Grob 10% mehr Takt
SRAM skaliert überhaupt nicht mehr mit neuen Nodes, d.h. zwingend Multichipdesign = Performanceverlust >10% Minimum
Speicher bringt evtl. bis zu 15% mehr Gaming-Leistung

Also wie man da auf Faktor 2,5 kommt, ist mir völlig unklar.
Das wäre mindestens Faktor 2 bei IPC, es darf gelacht werden...

Nach aktuellem Stand ist ein Sprung wie bei 3090 zu 4090 schon extremst unwahrscheinlich, dafür müssten die neuen Fertigungsverfahren nochmals zulegen, aber es geht exakt genau in die andere Richtung.
Effizienz ist das Einzige, was noch sinnvoll skaliert, wenn man nicht zu arg die Taktschraube anzieht, damit kann man aber keine hohen Performancesprünge machen.

Wohin die Reise geht, sieht man bei Apple A17, 10% mehr Leistung ( unteres Ende Fertigungsgewinn ), und vermutlich frisst die Takterhöhung den Effizienzgewinn großteils wieder auf.

Und das Ganze dann nochmals teurer, weil die Kosten bei den neuen Fertigungen exponentiell steigen, was vrmtl. nicht durch etwas kleinere Muktichips kompensiert werden kann, vom Mehraufwand beim Packaging ganz zu schweigen.

Hab ich nochmal übersehen?

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Kannst Du ein wenig untermauern, warum die Fertigungskosten "exponentiell steigen"? Interessiert mich wirklich!

Ich dachte, dass das Chiplet-Design gerade dabei hilft, Fertigungskosten im Griff zu behalten, weil man für manche Teile gar nicht den modernsten (und damit teuersten) Prozess braucht, und weil die Ausbeute bei kleineren Chiplets prinzipbedingt höher ist als bei großen Chips.

Antwort 1 Like

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Öhm, das meinte ich nicht. Kein Stück. Ich dachte an Technologien von TSMC bzgl. des Packagings etc. also ja, alles was eben die Fertigung betrifft. Ich meine solche Meldungen letztes Jahr gesehen zu haben, die z.B. das Substrat beim MCM betrifft und (in Teilen) von TSMC kam (welche AMD für die Grakas nutzt). AMD kann beim MCM durchaus einen Testballon mit TSMC gewagt haben. Also neue, noch nicht perfekt ausgereifte Fertigungsschritte - quasi Early Access. Und natürlich kann man auch vom Misserfolg des Konkurrenten lernen. Aber ich meinte Technologien von TSMC oder die man bei TSMC als Kunde für die Fertigung buchen kann und wenn nVidia für ihren MCM auch solche Technologiedienstleistungen bei TSMC oder Samsung in Anspruch nimmt, dann wäre es ja von Vorteil, wenn diese (neuen) Technologien von anderen Betagetestet wurden - denn dann ist von einem besseren Produktstart auszugehen, als eben beim Early Access Konkurrenten.

Technologietransfer.. so aus der Ferne analysiert. Uff, schwierig. Ist halt Teil des Business ^^

Antwort 2 Likes

H
Headyman

Veteran

116 Kommentare 53 Likes

Und der Shrink-Vorteil sinkt seit Jahren pro FullNode, bei SRAM geht man derzeit davon aus, daß das überhaupt nicht mehr skaliert, zumindest bei den derzeit angekündigten/aktuellsten Nodes. D.h. wenn ein Produkt demnächst mehr SRAM bekommt (z.B. 5090), dann ist das übel, weil die Zusatzmenge an SRAM linear mehr kostbaren Platz wegfrisst und kein Shrinkvorteil zum Zuge kommt.

Allein der SRAM Zuwachs wäre für 5090 ein deutlicher Flächenzuwachs.
Splittet man das in 2 Chips, ist man deutlich besser aufgestellt, was die Chipgröße betrifft. Da wäre sicher noch mehr Platz als nur 12,5% angekündigt mehr Kerne.

Interessant wird, welches Speicherinterface es wird. NVidia ist ja sehr geizig.
Kann ja sein, das der SRAM Zuwachs hauptsächlich den Speicherzugriff entlasten soll, also Nvidia am Interface geizen kann.

Bisher sieht das eher nach 25% Mehrperformance aus, also vielleicht ist das Komma da beim Leaker verrutscht (250 vs 25).

Ältere Fertigungsverfahren zu nutzen wegen kleinerer Chipgröße, dürfte wegen des Effizienznachteils ausscheiden.

Bei aktuellsten Spielen deutet sich an, daß NVidia eher zu kleine Registerfiles hat, um genügend Thredas aufziehen zu können, um die Speicherlatenzen effektiv zu verstecken. Wenn das Nvidia angegangen hat, dann ist das der nächste größere Platzfresser auf dem Die.

Antwort 1 Like

Klicke zum Ausklappem
Metallsonic

Veteran

233 Kommentare 13 Likes

Reichen die 16 GB Vram Dir aus, oder wurde der Videospeicher schonmal etwas knapp bei dir?

Antwort Gefällt mir

arcDaniel

Urgestein

1,603 Kommentare 866 Likes

Nein die 16gb wurden noch nie knapp. Bei Diablo 4 geht es in die Richtung allerdings bleibe ich hier dabei, dass es für den hohen VRam Verbrauch keine gerechtfertigte Gegenleistung gibt. Die Texturen sind auf höchster Stufe noch immer Match.

Es gibt genug Spiele, welche grosse Welten mit super Texturen darstellen und trotzdem weit unter 10gb VRam bleiben. Aus diesem Grund, handelt es sich in meinem Augen oft um sehr schlechte Optimierung.

Antwort 1 Like

Ghoster52

Urgestein

1,412 Kommentare 1,068 Likes

Jetzt ist erst mal Zeit für eine 4090 Ti, wäre ja ein Unding noch 1 Jahr zu warten auf was Neues... :ROFLMAO:

Antwort Gefällt mir

Metallsonic

Veteran

233 Kommentare 13 Likes

Die kommt nicht, und wurde abgesagt.
Mit vieleicht 2-3% Mehrleistung, wäre diese Karte auch Quatsch.
Kannst Dir aber gerne als Überbrückung, die asus rog matrix geforce rtx 4090 kaufen.
Siehe Video!
Die aktuell schnellste Gaming Grafikkarte der Welt

Antwort Gefällt mir

K
Ka-Efka

Neuling

6 Kommentare 2 Likes

Der nächste Artikel der munter GB10x und GB20x vermatscht und unglaubliche Steigerungen fantastiert. Schade. Gerade auf dieser Website.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung