Geforce RTX 5000: Chiplet-GPU und weitreichende Änderungen (Gerüchte)

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.847
Bewertungspunkte
8.940
Punkte
1
Standort
Redaktion
Nvidias nächste Generation von Grafikkarten könnte eine Chiplet-GPU und eine neue Architektur nutzen. Seit Monaten halten sich Gerüchte über Nvidias Geforce RTX 5000 in den Schlagzeilen. Die neuesten Gerüchte sprechen dem Nachfolger von Ada Lovelace ein Multi-Chiplet-Modul („MCM“) zu, wie es auch bereits auf einigen Grafikkarten aus der aktuellen Serie Radeon RX 7000 („RDNA 3“) zum Einsatz kommt. Auch die Grafikeinheiten sollen demzufolge weitreichende Änderungen erfahren. Der für solche Vorabveröffentlichungen bekannte Twitter-Nutzer @kopite7kimi möchte nun erfahren haben, welche Grafikprozessoren auf den Geforce-Grafikkarten aus der nächsten Generation zum Einsatz kommen und wie diese aufgebaut sein sollen. Neuigkeiten zu Nvidias Geforce RTX 5000 […] (read full article...)
 
.... Jahr 2024 auf den Markt kommen

Wohl eher zur Cebit 2025 - Also in gut 1,5 Jahren.
 
In letzter Zeit hat Nvidia alle 2 Jahre eine neue Gen gebracht. Vor September 2024 glaube ich wird nicht kommen. Sollten sie sich etwas mehr Zeit nehmen, wäre Cebit 2025 eine plausible Möglichkeit.

Ich denke aber es hängt nicht primär an Nvidia und ihrer Architektur sondern eher wie die Fertigungskapazitäten zur Verfügung stehen (Ok wenn Nvidia alles für AI benötigt hängt es doch etwas an Nvidia) und wie schnell GDDR7 Entsprechend verfügbar sein wird. Da es an diesen Fronten auch immer langsamer voran geht, müssen wir uns halt in mehr Geduld üben.
 
Die lange Wartezeit kann auch genützt werden, um zwei,drei Sparschweine langsam zu befüllen.
Ich wage gar nicht an den aufgerufenen Preis einer RTX 5090 zu denken :D
Da gebe ich dir recht. Muss aber sagen, dass ich mit meiner 4080 im Moment extrem zufrieden bin. Da ich viele Spiele in meiner Backlog habe freue ich mir mich diese in einer Effizienz zu zocken, welche ich vorher nicht kannt. FF7Remake in 4k60 alles max, verbraucht die 4080 im Schnitt nur 75W und die Lüfter gehen nicht mal an.

Wenn die 5000er kommen hoffe ich auf eine ähnliche Effizienz für aktuellere Spiele und größere Fortschritte bei RT. Jetzt mit der 4080 habe ich meine erste praktikable Erfahrung mit RT gemacht und bin echt begeistert, so richtig gut ist die Performance aber dann doch nicht. Und um von FG richtig profitieren zu können passt mein Bildschirm nicht (nächste Baustelle neben der CPU)
 
Wenn die 5000er kommen hoffe ich auf eine ähnliche Effizienz für aktuellere Spiele und größere Fortschritte bei RT.

Ist natürlich alles noch reine Spekulation, aber imho wird die nächste Generation Nvidias von der reinen Leistung her eher ein Schritt zur Seite als einer nach vorne. Der Umstieg von einer monolithischen Architektur zu Chiplets ist nicht trivial, und wird einen Hauptteil der Entwicklungsressourcen verschlingen.

Man hat das bei AMD gesehen, da ist der Leistungssprung von der RX 6000er- zur RX 7000-Serie je eher spärlich, exakt wegen des Umstiegs auf Chiplet-Design. Und AMD hatte da bereits die jahrelange Erfahrung von den Ryzen-CPUs, nur ist das bei GPUs noch mal eine andere Nummer. Es gab ja eine Reihe interessanter Hintergrundberichte und Interviews bei der Einführung der RX 7000-Serie, in denen das thematisiert wurde.

Nvidia fängt aber mit eigener Erfahrung dicht bei Zero an, das wird die Sache nicht vereinfachen.
Mein erster Gedanke beim Lesen der Meldung war: da werden/wurden wahrscheinlich lukrative Abwerbegespräche geführt...

Im Gegenzug wird dann hoffentlich Bewegung in den Markt kommen, wenn AMD seine nächste Generation von GPUs präsentiert. Denn die haben den schwierigen Schritt bereits vollzogen, und können dann endlich ernten, was sie gesät haben. Ich erhoffe mir da einen deutlichen Leistungssprung bei AMD bei relevanten Kostenvorteilen, und damit endlich mal wieder echte Konkurrenz.

Mit ein bisserl Glück führt das dazu, dass meine (potthässliche Palit) 4090 noch eine Weile mithalten kann.

Parrot
 
Nvidia fängt aber mit eigener Erfahrung dicht bei Zero an, das wird die Sache nicht vereinfachen.
Mein Bauchgefühl sagt, dass Nvidia ein deutlich ausgereifteres Produkt auf den Markt schmeißen wird. Gerade weil TSMC mit im Boot sitzt und TSMC bereits mit AMD und vllt. anderen Kunden einige Erfahrungen sammeln durfte. Auch wird sich nVidia die 7000er Reihe von AMD genauer angesehen haben.

Dann wäre da noch das Preissegment. Einerseits verlangt nVidia schon länger erhöhte Preise, die viele viele Abnehmer findet. Andererseits kosten die großen Monolithen auch nicht wenig in der Produktion; gar erheblich mehr als ein MCM. Bedeutet ja im Umkehrschluss, dass nVidia die gesteigerte Marge auch in ihren ersten Testballon strategisch investieren kann, um den bestmöglichen Erfolg ihres ersten MCM Massenprodukts zu erzielen. Ein gutes Investment für ihr Appleimage.

Das wäre dann aber kein Schritt mehr zur Seite. Für den Schritt zur Seite dürfte tatsächlich der Preis geringer ausfallen, als bei der jetzigen Generation - oder sie kompensieren das auf anderen Wege (DLSS?). Günstiger oder ein geringerer Leistungszuwachs ist bei nVidia eher schwer vorstellbar ... für mich ^^

Aber ich drücke dir die Daumen :)
 
Ich sehe das wie @Gregor Kacknoob - und ich denke auch, dass die ab September / Oktober 2024 launchen. Da stehen ja diverse Shareholder und warten auf Dividende. Die Erwartung ist einfach, dass alle 2-3 Jahre was neues kommt. Und wenn die Entwicklung mit den mies bzw. un-optimierten Konsolenports so weitergeht, dann kann ich mit meiner 4080 nächstes Jahr anfangen, bei den AAA-Titeln die Details runter zu drehen. In WQHD.
Da wird eine neue Gen zur absoluten Notwendigkeit 😁
 
Ich sehe das wie @Gregor Kacknoob - und ich denke auch, dass die ab September / Oktober 2024 launchen. Da stehen ja diverse Shareholder und warten auf Dividende. Die Erwartung ist einfach, dass alle 2-3 Jahre was neues kommt.

Die Shareholder werden bestimmt zufrieden sein, ganz einfach weil Nvidia sich diversifiziert und das Gaming-Gelumps nur noch eines von mehreren Standbeinen ist.

KI ist der neue heiße Scheiß und der Treiber bei Umsatz und Gewinn: Dank des KI-Booms verkündet der Chiphersteller Nvidia Rekordzahlen

Ich würde mir da keine großen Illusionen machen. Nvidia ist technologisch wirklich gut. Allein: die Kunden sind für diese Firma m. E. ausschließlich Mittel zum Zweck und ansonsten wirklich vollkommen scheiß egal. Wenn das mit dem KI-Boom so weitergeht, wird Nvidia die Gaming-Kunden daher so behandeln wie einen lästigen Pickel am Arsch.

Konkret bedeutet das: solange ein technologischer Vorsprung existiert, gibt es keinen Anlass, ein neues Produkt zu launchen, wenn man die Ressourcen anderswo gewinnbringender nutzen kann.
 
Denke das man das Jahr 2025 anvisiert hat,
ist auch damit zu erklären, das das MCD nun unausweichlich wurde
und man sich somit mehr Zeit einplant und das alles nach Plan läuft ist ja auch nicht selbstverständlich.

Vor Cebit - Frühsommer 2025 rechne ich nicht mit Gamer Karten
und dies ist eine lange Zeit dahin.
 
Mein Bauchgefühl sagt, dass Nvidia ein deutlich ausgereifteres Produkt auf den Markt schmeißen wird. Gerade weil TSMC mit im Boot sitzt und TSMC bereits mit AMD und vllt. anderen Kunden einige Erfahrungen sammeln durfte. Auch wird sich nVidia die 7000er Reihe von AMD genauer angesehen haben.

Ich glaub auch, dass ein Auftragsfertiger einem Kunden natürlich gerne das Know-How eines seiner anderen Kunden zuspielt, der in direkter Konkurrenz steht...

Nun ja, wenn ich nochmal genauer drüber nachdenke, halte ich das doch für ziemlichen Unsinn!

Wenn Deine These stimmen würde, könnte TSMC ja AMD auch ein wenig beim Raytracing unter die Arme greifen...! Aber es geht da halt um konzeptionelle Designfragen, nicht um Fertigungsfragen. Das ist eine vollkommen andere Baustelle, bei der es höchstens ein paar Überschneidungen gibt.

Und selbst wenn: ich gehe davon aus, dass die betroffenen Würstchenbuden (AMD und Nvidia: > 20.000 Mitarbeiter, TSMC: > 60.000 Mitarbeiter) mindestens eine studentische Hilfskraft mit juristischen Grundkenntnissen damit beschäftigt haben, den potentiellen Abfluss von Know-How vertraglich zu regeln. Bei einem Auftragsfertiger, dessen Geschäftsmodell darin besteht, Chips für viele untereinander konkurrierende Unternehmen zu produzieren, würde ich außerdem ganz grundsätzlich vermuten, dass entsprechende Regeln dort in der Unternehmenskultur und den Prozessen verankert sind.
 
Zuletzt bearbeitet :
Selten so gelacht, was für Fake News.
Rechnen wir mal:
12,5% mehr Kerne
Grob 10% mehr Takt
SRAM skaliert überhaupt nicht mehr mit neuen Nodes, d.h. zwingend Multichipdesign = Performanceverlust >10% Minimum
Speicher bringt evtl. bis zu 15% mehr Gaming-Leistung

Also wie man da auf Faktor 2,5 kommt, ist mir völlig unklar.
Das wäre mindestens Faktor 2 bei IPC, es darf gelacht werden...

Nach aktuellem Stand ist ein Sprung wie bei 3090 zu 4090 schon extremst unwahrscheinlich, dafür müssten die neuen Fertigungsverfahren nochmals zulegen, aber es geht exakt genau in die andere Richtung.
Effizienz ist das Einzige, was noch sinnvoll skaliert, wenn man nicht zu arg die Taktschraube anzieht, damit kann man aber keine hohen Performancesprünge machen.

Wohin die Reise geht, sieht man bei Apple A17, 10% mehr Leistung ( unteres Ende Fertigungsgewinn ), und vermutlich frisst die Takterhöhung den Effizienzgewinn großteils wieder auf.

Und das Ganze dann nochmals teurer, weil die Kosten bei den neuen Fertigungen exponentiell steigen, was vrmtl. nicht durch etwas kleinere Muktichips kompensiert werden kann, vom Mehraufwand beim Packaging ganz zu schweigen.

Hab ich nochmal übersehen?
 
Und das Ganze dann nochmals teurer, weil die Kosten bei den neuen Fertigungen exponentiell steigen, was vrmtl. nicht durch etwas kleinere Muktichips kompensiert werden kann, vom Mehraufwand beim Packaging ganz zu schweigen.

Kannst Du ein wenig untermauern, warum die Fertigungskosten "exponentiell steigen"? Interessiert mich wirklich!

Ich dachte, dass das Chiplet-Design gerade dabei hilft, Fertigungskosten im Griff zu behalten, weil man für manche Teile gar nicht den modernsten (und damit teuersten) Prozess braucht, und weil die Ausbeute bei kleineren Chiplets prinzipbedingt höher ist als bei großen Chips.
 
Ich glaub auch, dass ein Auftragsfertiger einem Kunden natürlich gerne das Know-How eines seiner anderen Kunden zuspielt, der in direkter Konkurrenz steht...
Öhm, das meinte ich nicht. Kein Stück. Ich dachte an Technologien von TSMC bzgl. des Packagings etc. also ja, alles was eben die Fertigung betrifft. Ich meine solche Meldungen letztes Jahr gesehen zu haben, die z.B. das Substrat beim MCM betrifft und (in Teilen) von TSMC kam (welche AMD für die Grakas nutzt). AMD kann beim MCM durchaus einen Testballon mit TSMC gewagt haben. Also neue, noch nicht perfekt ausgereifte Fertigungsschritte - quasi Early Access. Und natürlich kann man auch vom Misserfolg des Konkurrenten lernen. Aber ich meinte Technologien von TSMC oder die man bei TSMC als Kunde für die Fertigung buchen kann und wenn nVidia für ihren MCM auch solche Technologiedienstleistungen bei TSMC oder Samsung in Anspruch nimmt, dann wäre es ja von Vorteil, wenn diese (neuen) Technologien von anderen Betagetestet wurden - denn dann ist von einem besseren Produktstart auszugehen, als eben beim Early Access Konkurrenten.

Technologietransfer.. so aus der Ferne analysiert. Uff, schwierig. Ist halt Teil des Business ^^
 
Kannst Du ein wenig untermauern, warum die Fertigungskosten "exponentiell steigen"? Interessiert mich wirklich!

Ich dachte, dass das Chiplet-Design gerade dabei hilft, Fertigungskosten im Griff zu behalten, weil man für manche Teile gar nicht den modernsten (und damit teuersten) Prozess braucht, und weil die Ausbeute bei kleineren Chiplets prinzipbedingt höher ist als bei großen Chips.


Und der Shrink-Vorteil sinkt seit Jahren pro FullNode, bei SRAM geht man derzeit davon aus, daß das überhaupt nicht mehr skaliert, zumindest bei den derzeit angekündigten/aktuellsten Nodes. D.h. wenn ein Produkt demnächst mehr SRAM bekommt (z.B. 5090), dann ist das übel, weil die Zusatzmenge an SRAM linear mehr kostbaren Platz wegfrisst und kein Shrinkvorteil zum Zuge kommt.

Allein der SRAM Zuwachs wäre für 5090 ein deutlicher Flächenzuwachs.
Splittet man das in 2 Chips, ist man deutlich besser aufgestellt, was die Chipgröße betrifft. Da wäre sicher noch mehr Platz als nur 12,5% angekündigt mehr Kerne.

Interessant wird, welches Speicherinterface es wird. NVidia ist ja sehr geizig.
Kann ja sein, das der SRAM Zuwachs hauptsächlich den Speicherzugriff entlasten soll, also Nvidia am Interface geizen kann.

Bisher sieht das eher nach 25% Mehrperformance aus, also vielleicht ist das Komma da beim Leaker verrutscht (250 vs 25).

Ältere Fertigungsverfahren zu nutzen wegen kleinerer Chipgröße, dürfte wegen des Effizienznachteils ausscheiden.

Bei aktuellsten Spielen deutet sich an, daß NVidia eher zu kleine Registerfiles hat, um genügend Thredas aufziehen zu können, um die Speicherlatenzen effektiv zu verstecken. Wenn das Nvidia angegangen hat, dann ist das der nächste größere Platzfresser auf dem Die.
 
Da gebe ich dir recht. Muss aber sagen, dass ich mit meiner 4080 im Moment extrem zufrieden bin. Da ich viele Spiele in meiner Backlog habe freue ich mir mich diese in einer Effizienz zu zocken, welche ich vorher nicht kannt. FF7Remake in 4k60 alles max, verbraucht die 4080 im Schnitt nur 75W und die Lüfter gehen nicht mal an.

Wenn die 5000er kommen hoffe ich auf eine ähnliche Effizienz für aktuellere Spiele und größere Fortschritte bei RT. Jetzt mit der 4080 habe ich meine erste praktikable Erfahrung mit RT gemacht und bin echt begeistert, so richtig gut ist die Performance aber dann doch nicht. Und um von FG richtig profitieren zu können passt mein Bildschirm nicht (nächste Baustelle neben der CPU)
Reichen die 16 GB Vram Dir aus, oder wurde der Videospeicher schonmal etwas knapp bei dir?
 
Reichen die 16 GB Vram Dir aus, oder wurde der Videospeicher schonmal etwas knapp bei dir?

Nein die 16gb wurden noch nie knapp. Bei Diablo 4 geht es in die Richtung allerdings bleibe ich hier dabei, dass es für den hohen VRam Verbrauch keine gerechtfertigte Gegenleistung gibt. Die Texturen sind auf höchster Stufe noch immer Match.

Es gibt genug Spiele, welche grosse Welten mit super Texturen darstellen und trotzdem weit unter 10gb VRam bleiben. Aus diesem Grund, handelt es sich in meinem Augen oft um sehr schlechte Optimierung.
 
Jetzt ist erst mal Zeit für eine 4090 Ti, wäre ja ein Unding noch 1 Jahr zu warten auf was Neues... :ROFLMAO:
 
Zuletzt bearbeitet :
Der nächste Artikel der munter GB10x und GB20x vermatscht und unglaubliche Steigerungen fantastiert. Schade. Gerade auf dieser Website.
 
Oben Unten