GPUs Latest news

Geforce RTX 5000: Chiplet GPU and far-reaching changes (rumors)

Nvidia’s next generation of graphics cards could use a chiplet GPU and a new architecture. Rumors about Nvidia’s Geforce RTX 5000 have been in the headlines for months. The latest rumors attribute a multi-chiplet module (“MCM”) to the successor of Ada Lovelace, as it is already used on some graphics cards from the current Radeon RX 7000 series (“RDNA 3”). Accordingly, the graphics units are also supposed to undergo far-reaching changes. The Twitter user @kopite7kimi, who is known for such pre-releases, now wants to know which GPUs will be used on the Geforce graphics cards from the next generation and how they will be built. News about Nvidia’s Geforce RTX 5000 is always eagerly awaited. The rumors suggest that the new generation could bring a real performance increase.

Source: Nvidia

Nvidia could be looking at a chiplet architecture for its next generation of graphics cards. According to @kopite7kimi and other sources, Nvidia is said to be fundamentally rebuilding the graphics units of the upcoming Geforce RTX 5000 (“Blackwell”) and switching to a multi-chiplet module (“MCM”). This concept is already in use in AMD’s Navi 31 and Navi 32 GPUs. Such a design would allow Nvidia to improve graphics card performance and efficiency. By using multiple smaller chips, Nvidia can reduce the size and power consumption of the graphics cards. Whether Nvidia will confirm the rumors remains to be seen. The Geforce RTX 5000 is expected to be launched in 2024.

The number of Graphics Processing Clusters (“GPCs”) and Texture Processing Clusters (“TPCs”) is to remain unchanged, but the internal structure of the clusters is to be fundamentally revised. This process was already observed with AMD’s generation change from RDNA 2 to RDNA 3. AMD significantly improved the internal structure of the TPCs in RDNA 3, which led to an increase in performance.Nvidia’s Geforce RTX 5000 is expected to be launched in 2024. It remains to be seen whether Nvidia actually plans the new construction of the graphics units.

The code names of the chips are GB202, GB203, GB205, GB206 and GB207. The leaker “Panzerlied” from the Chiphell forum has published information that supports these rumors. The chips are supposed to be offered in different performance classes, from the high-end GPU GB202 to the entry-level GPU GB207.

Source: Nvidia

According to a leaked GPU roadmap from Nvidia, the Geforce RTX 5000 series will not be released until the year after next. The series, also known as “Ada Lovelace Next,” is said to be based on a new architecture and bring new GPUs. Nvidia has not commented on the rumors yet. However, it is quite possible that the company wants to expand its lead over the competition before launching a new generation of graphics cards.

Nvidia’s Geforce RTX 5000: Geforce RTX 5090 and 5080 with GDDR7 and PCIe 5.0

According to leakers, Nvidia plans to launch the Geforce RTX 5000 series with two new GPUs: the Geforce RTX 5090 and the Geforce RTX 5080. Both graphics cards are said to be based on the new “David Blackwell” architecture and feature the new GDDR7 graphics memory. The Geforce RTX 5090 is expected to be the most powerful graphics card in the series. It is said to be based on the GB202 GPU, which is said to have 18,432 CUDA cores. The Geforce RTX 5080 will be based on the GB203 GPU, which is said to have 10,752 CUDA cores. Both graphics cards are supposed to have a PCIe 5.0 connection. This enables a higher bandwidth and thus better performance. The use of GDDR7 graphics memory is another important step. GDDR7 is supposed to offer up to 25 percent improved energy efficiency.

Nvidia plans to use the new GDDR7 graphics memory for the Geforce RTX 5090 and Geforce RTX 5080. This is expected to achieve a bandwidth of up to 36 gigabits per second.GDDR7 is a new generation of graphics memory that offers a number of improvements over GDDR6X. These include higher bandwidth, improved power efficiency and lower latency. The use of GDDR7 in the high-end Geforce RTX 5000 series models is another important step in improving performance. The higher bandwidth enables faster data transfer between the GPU and memory, resulting in better graphics performance.

The effective memory bandwidth would also benefit significantly from the fast GDDR7 memory with up to 36 GiBit/s:

  • 128-bit @ 36 Gbps: 576 GiByte/s
  • 192-bit @ 36 Gbps: 846 GiByte/s
  • 256-bit @ 36 Gbps: 1,152 GiByte/s
  • 320-bit @ 36 Gbps: 1,440 GiByte/s
  • 384-bit @ 36 Gbps: 1,728 GiByte/s
  • 512-bit @ 36 Gbps: 2,304 GiByte/s

However, as can be seen from several entries in the Chiphell forum, Nvidia could also go double-track:

  • GB202: GDDR6X (“PAM-4”) with 512 bit
  • GB203: GDDR6X (“PAM-4”) with 384 bits
  • GB205: GDDR7 ( PAM-3 ) with 256-bit
  • GB206: GDDR7 (“PAM-3”) with 192-bit
  • GB207: GDDR7 (“PAM-3”) with 128-bit

However, these are still pure speculations, which are based on leaked information, but can’t be considered binding yet. Nvidia itself hasn’t said anything about the next generation of its Geforce graphics cards so far.

Nvidia Geforce RTX 5090: Performance predictions are difficult

According to rumors, the Geforce RTX 5090 will be up to 2.5 times faster than the Geforce RTX 4090. This is an impressive performance increase, but it is important to remember that these rumors are not yet confirmed. It is unclear whether the performance increase is due to hardware improvements or the use of DLSS 3 with Frame Generation. DLSS 3 is a new version of Nvidia’s deep learning upscaling technology that is supposed to offer a significant performance boost while improving image quality. The specifications of the Geforce RTX 5090 are also still purely speculative. It is expected that the graphics card will have 18,432 CUDA cores, an L2 cache of 96 MiByte and a GPU clock of more than 3 GHz.

Source: @kopite7kimi, Chiphell

 

Kommentar

Lade neue Kommentare

R
RX_Vega1975

Veteran

165 Kommentare 46 Likes

.... Jahr 2024 auf den Markt kommen

Wohl eher zur Cebit 2025 - Also in gut 1,5 Jahren.

Antwort Gefällt mir

arcDaniel

Urgestein

1,623 Kommentare 884 Likes

In letzter Zeit hat Nvidia alle 2 Jahre eine neue Gen gebracht. Vor September 2024 glaube ich wird nicht kommen. Sollten sie sich etwas mehr Zeit nehmen, wäre Cebit 2025 eine plausible Möglichkeit.

Ich denke aber es hängt nicht primär an Nvidia und ihrer Architektur sondern eher wie die Fertigungskapazitäten zur Verfügung stehen (Ok wenn Nvidia alles für AI benötigt hängt es doch etwas an Nvidia) und wie schnell GDDR7 Entsprechend verfügbar sein wird. Da es an diesen Fronten auch immer langsamer voran geht, müssen wir uns halt in mehr Geduld üben.

Antwort 1 Like

ipat66

Urgestein

1,360 Kommentare 1,358 Likes

Die lange Wartezeit kann auch genützt werden, um zwei,drei Sparschweine langsam zu befüllen.
Ich wage gar nicht an den aufgerufenen Preis einer RTX 5090 zu denken :D

Antwort 2 Likes

arcDaniel

Urgestein

1,623 Kommentare 884 Likes

Da gebe ich dir recht. Muss aber sagen, dass ich mit meiner 4080 im Moment extrem zufrieden bin. Da ich viele Spiele in meiner Backlog habe freue ich mir mich diese in einer Effizienz zu zocken, welche ich vorher nicht kannt. FF7Remake in 4k60 alles max, verbraucht die 4080 im Schnitt nur 75W und die Lüfter gehen nicht mal an.

Wenn die 5000er kommen hoffe ich auf eine ähnliche Effizienz für aktuellere Spiele und größere Fortschritte bei RT. Jetzt mit der 4080 habe ich meine erste praktikable Erfahrung mit RT gemacht und bin echt begeistert, so richtig gut ist die Performance aber dann doch nicht. Und um von FG richtig profitieren zu können passt mein Bildschirm nicht (nächste Baustelle neben der CPU)

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Ist natürlich alles noch reine Spekulation, aber imho wird die nächste Generation Nvidias von der reinen Leistung her eher ein Schritt zur Seite als einer nach vorne. Der Umstieg von einer monolithischen Architektur zu Chiplets ist nicht trivial, und wird einen Hauptteil der Entwicklungsressourcen verschlingen.

Man hat das bei AMD gesehen, da ist der Leistungssprung von der RX 6000er- zur RX 7000-Serie je eher spärlich, exakt wegen des Umstiegs auf Chiplet-Design. Und AMD hatte da bereits die jahrelange Erfahrung von den Ryzen-CPUs, nur ist das bei GPUs noch mal eine andere Nummer. Es gab ja eine Reihe interessanter Hintergrundberichte und Interviews bei der Einführung der RX 7000-Serie, in denen das thematisiert wurde.

Nvidia fängt aber mit eigener Erfahrung dicht bei Zero an, das wird die Sache nicht vereinfachen.
Mein erster Gedanke beim Lesen der Meldung war: da werden/wurden wahrscheinlich lukrative Abwerbegespräche geführt...

Im Gegenzug wird dann hoffentlich Bewegung in den Markt kommen, wenn AMD seine nächste Generation von GPUs präsentiert. Denn die haben den schwierigen Schritt bereits vollzogen, und können dann endlich ernten, was sie gesät haben. Ich erhoffe mir da einen deutlichen Leistungssprung bei AMD bei relevanten Kostenvorteilen, und damit endlich mal wieder echte Konkurrenz.

Mit ein bisserl Glück führt das dazu, dass meine (potthässliche Palit) 4090 noch eine Weile mithalten kann.

Parrot

Antwort 3 Likes

Klicke zum Ausklappem
Gregor Kacknoob

Urgestein

527 Kommentare 442 Likes

Mein Bauchgefühl sagt, dass Nvidia ein deutlich ausgereifteres Produkt auf den Markt schmeißen wird. Gerade weil TSMC mit im Boot sitzt und TSMC bereits mit AMD und vllt. anderen Kunden einige Erfahrungen sammeln durfte. Auch wird sich nVidia die 7000er Reihe von AMD genauer angesehen haben.

Dann wäre da noch das Preissegment. Einerseits verlangt nVidia schon länger erhöhte Preise, die viele viele Abnehmer findet. Andererseits kosten die großen Monolithen auch nicht wenig in der Produktion; gar erheblich mehr als ein MCM. Bedeutet ja im Umkehrschluss, dass nVidia die gesteigerte Marge auch in ihren ersten Testballon strategisch investieren kann, um den bestmöglichen Erfolg ihres ersten MCM Massenprodukts zu erzielen. Ein gutes Investment für ihr Appleimage.

Das wäre dann aber kein Schritt mehr zur Seite. Für den Schritt zur Seite dürfte tatsächlich der Preis geringer ausfallen, als bei der jetzigen Generation - oder sie kompensieren das auf anderen Wege (DLSS?). Günstiger oder ein geringerer Leistungszuwachs ist bei nVidia eher schwer vorstellbar ... für mich ^^

Aber ich drücke dir die Daumen :)

Antwort 2 Likes

grimm

Urgestein

3,085 Kommentare 2,040 Likes

Ich sehe das wie @Gregor Kacknoob - und ich denke auch, dass die ab September / Oktober 2024 launchen. Da stehen ja diverse Shareholder und warten auf Dividende. Die Erwartung ist einfach, dass alle 2-3 Jahre was neues kommt. Und wenn die Entwicklung mit den mies bzw. un-optimierten Konsolenports so weitergeht, dann kann ich mit meiner 4080 nächstes Jahr anfangen, bei den AAA-Titeln die Details runter zu drehen. In WQHD.
Da wird eine neue Gen zur absoluten Notwendigkeit 😁

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Die Shareholder werden bestimmt zufrieden sein, ganz einfach weil Nvidia sich diversifiziert und das Gaming-Gelumps nur noch eines von mehreren Standbeinen ist.

KI ist der neue heiße Scheiß und der Treiber bei Umsatz und Gewinn: Dank des KI-Booms verkündet der Chiphersteller Nvidia Rekordzahlen

Ich würde mir da keine großen Illusionen machen. Nvidia ist technologisch wirklich gut. Allein: die Kunden sind für diese Firma m. E. ausschließlich Mittel zum Zweck und ansonsten wirklich vollkommen scheiß egal. Wenn das mit dem KI-Boom so weitergeht, wird Nvidia die Gaming-Kunden daher so behandeln wie einen lästigen Pickel am Arsch.

Konkret bedeutet das: solange ein technologischer Vorsprung existiert, gibt es keinen Anlass, ein neues Produkt zu launchen, wenn man die Ressourcen anderswo gewinnbringender nutzen kann.

Antwort Gefällt mir

R
RX_Vega1975

Veteran

165 Kommentare 46 Likes

Denke das man das Jahr 2025 anvisiert hat,
ist auch damit zu erklären, das das MCD nun unausweichlich wurde
und man sich somit mehr Zeit einplant und das alles nach Plan läuft ist ja auch nicht selbstverständlich.

Vor Cebit - Frühsommer 2025 rechne ich nicht mit Gamer Karten
und dies ist eine lange Zeit dahin.

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Ich glaub auch, dass ein Auftragsfertiger einem Kunden natürlich gerne das Know-How eines seiner anderen Kunden zuspielt, der in direkter Konkurrenz steht...

Nun ja, wenn ich nochmal genauer drüber nachdenke, halte ich das doch für ziemlichen Unsinn!

Wenn Deine These stimmen würde, könnte TSMC ja AMD auch ein wenig beim Raytracing unter die Arme greifen...! Aber es geht da halt um konzeptionelle Designfragen, nicht um Fertigungsfragen. Das ist eine vollkommen andere Baustelle, bei der es höchstens ein paar Überschneidungen gibt.

Und selbst wenn: ich gehe davon aus, dass die betroffenen Würstchenbuden (AMD und Nvidia: > 20.000 Mitarbeiter, TSMC: > 60.000 Mitarbeiter) mindestens eine studentische Hilfskraft mit juristischen Grundkenntnissen damit beschäftigt haben, den potentiellen Abfluss von Know-How vertraglich zu regeln. Bei einem Auftragsfertiger, dessen Geschäftsmodell darin besteht, Chips für viele untereinander konkurrierende Unternehmen zu produzieren, würde ich außerdem ganz grundsätzlich vermuten, dass entsprechende Regeln dort in der Unternehmenskultur und den Prozessen verankert sind.

Antwort Gefällt mir

H
Headyman

Veteran

116 Kommentare 53 Likes

Selten so gelacht, was für Fake News.
Rechnen wir mal:
12,5% mehr Kerne
Grob 10% mehr Takt
SRAM skaliert überhaupt nicht mehr mit neuen Nodes, d.h. zwingend Multichipdesign = Performanceverlust >10% Minimum
Speicher bringt evtl. bis zu 15% mehr Gaming-Leistung

Also wie man da auf Faktor 2,5 kommt, ist mir völlig unklar.
Das wäre mindestens Faktor 2 bei IPC, es darf gelacht werden...

Nach aktuellem Stand ist ein Sprung wie bei 3090 zu 4090 schon extremst unwahrscheinlich, dafür müssten die neuen Fertigungsverfahren nochmals zulegen, aber es geht exakt genau in die andere Richtung.
Effizienz ist das Einzige, was noch sinnvoll skaliert, wenn man nicht zu arg die Taktschraube anzieht, damit kann man aber keine hohen Performancesprünge machen.

Wohin die Reise geht, sieht man bei Apple A17, 10% mehr Leistung ( unteres Ende Fertigungsgewinn ), und vermutlich frisst die Takterhöhung den Effizienzgewinn großteils wieder auf.

Und das Ganze dann nochmals teurer, weil die Kosten bei den neuen Fertigungen exponentiell steigen, was vrmtl. nicht durch etwas kleinere Muktichips kompensiert werden kann, vom Mehraufwand beim Packaging ganz zu schweigen.

Hab ich nochmal übersehen?

Antwort Gefällt mir

P
ParrotHH

Veteran

178 Kommentare 191 Likes

Kannst Du ein wenig untermauern, warum die Fertigungskosten "exponentiell steigen"? Interessiert mich wirklich!

Ich dachte, dass das Chiplet-Design gerade dabei hilft, Fertigungskosten im Griff zu behalten, weil man für manche Teile gar nicht den modernsten (und damit teuersten) Prozess braucht, und weil die Ausbeute bei kleineren Chiplets prinzipbedingt höher ist als bei großen Chips.

Antwort 1 Like

Gregor Kacknoob

Urgestein

527 Kommentare 442 Likes

Öhm, das meinte ich nicht. Kein Stück. Ich dachte an Technologien von TSMC bzgl. des Packagings etc. also ja, alles was eben die Fertigung betrifft. Ich meine solche Meldungen letztes Jahr gesehen zu haben, die z.B. das Substrat beim MCM betrifft und (in Teilen) von TSMC kam (welche AMD für die Grakas nutzt). AMD kann beim MCM durchaus einen Testballon mit TSMC gewagt haben. Also neue, noch nicht perfekt ausgereifte Fertigungsschritte - quasi Early Access. Und natürlich kann man auch vom Misserfolg des Konkurrenten lernen. Aber ich meinte Technologien von TSMC oder die man bei TSMC als Kunde für die Fertigung buchen kann und wenn nVidia für ihren MCM auch solche Technologiedienstleistungen bei TSMC oder Samsung in Anspruch nimmt, dann wäre es ja von Vorteil, wenn diese (neuen) Technologien von anderen Betagetestet wurden - denn dann ist von einem besseren Produktstart auszugehen, als eben beim Early Access Konkurrenten.

Technologietransfer.. so aus der Ferne analysiert. Uff, schwierig. Ist halt Teil des Business ^^

Antwort 2 Likes

H
Headyman

Veteran

116 Kommentare 53 Likes

Und der Shrink-Vorteil sinkt seit Jahren pro FullNode, bei SRAM geht man derzeit davon aus, daß das überhaupt nicht mehr skaliert, zumindest bei den derzeit angekündigten/aktuellsten Nodes. D.h. wenn ein Produkt demnächst mehr SRAM bekommt (z.B. 5090), dann ist das übel, weil die Zusatzmenge an SRAM linear mehr kostbaren Platz wegfrisst und kein Shrinkvorteil zum Zuge kommt.

Allein der SRAM Zuwachs wäre für 5090 ein deutlicher Flächenzuwachs.
Splittet man das in 2 Chips, ist man deutlich besser aufgestellt, was die Chipgröße betrifft. Da wäre sicher noch mehr Platz als nur 12,5% angekündigt mehr Kerne.

Interessant wird, welches Speicherinterface es wird. NVidia ist ja sehr geizig.
Kann ja sein, das der SRAM Zuwachs hauptsächlich den Speicherzugriff entlasten soll, also Nvidia am Interface geizen kann.

Bisher sieht das eher nach 25% Mehrperformance aus, also vielleicht ist das Komma da beim Leaker verrutscht (250 vs 25).

Ältere Fertigungsverfahren zu nutzen wegen kleinerer Chipgröße, dürfte wegen des Effizienznachteils ausscheiden.

Bei aktuellsten Spielen deutet sich an, daß NVidia eher zu kleine Registerfiles hat, um genügend Thredas aufziehen zu können, um die Speicherlatenzen effektiv zu verstecken. Wenn das Nvidia angegangen hat, dann ist das der nächste größere Platzfresser auf dem Die.

Antwort 1 Like

Klicke zum Ausklappem
Metallsonic

Veteran

249 Kommentare 13 Likes

Reichen die 16 GB Vram Dir aus, oder wurde der Videospeicher schonmal etwas knapp bei dir?

Antwort Gefällt mir

arcDaniel

Urgestein

1,623 Kommentare 884 Likes

Nein die 16gb wurden noch nie knapp. Bei Diablo 4 geht es in die Richtung allerdings bleibe ich hier dabei, dass es für den hohen VRam Verbrauch keine gerechtfertigte Gegenleistung gibt. Die Texturen sind auf höchster Stufe noch immer Match.

Es gibt genug Spiele, welche grosse Welten mit super Texturen darstellen und trotzdem weit unter 10gb VRam bleiben. Aus diesem Grund, handelt es sich in meinem Augen oft um sehr schlechte Optimierung.

Antwort 1 Like

Ghoster52

Urgestein

1,418 Kommentare 1,080 Likes

Jetzt ist erst mal Zeit für eine 4090 Ti, wäre ja ein Unding noch 1 Jahr zu warten auf was Neues... :ROFLMAO:

Antwort Gefällt mir

Metallsonic

Veteran

249 Kommentare 13 Likes

Die kommt nicht, und wurde abgesagt.
Mit vieleicht 2-3% Mehrleistung, wäre diese Karte auch Quatsch.
Kannst Dir aber gerne als Überbrückung, die asus rog matrix geforce rtx 4090 kaufen.
Siehe Video!
Die aktuell schnellste Gaming Grafikkarte der Welt

Antwort Gefällt mir

K
Ka-Efka

Neuling

6 Kommentare 2 Likes

Der nächste Artikel der munter GB10x und GB20x vermatscht und unglaubliche Steigerungen fantastiert. Schade. Gerade auf dieser Website.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung