Wo die 600 Watt der NVIDIA GeForce „RTX 4090“ eigentlich herkommen – eine Schätzung von GPU und Komponenten | Exklusiv

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.822
Bewertungspunkte
8.836
Punkte
1
Standort
Redaktion
Auch dieses Mal werde ich versuchen, die Leistungsaufnahme einzelnen Komponenten hochzurechnen, um daraus auf die Leistungsaufnahme der GPU schließen zu können. Bei Turing lag ich fast aufs Watt genau richtig und auch diesmal stellt einen die Platine, so sie denn wirklich so kommen wird, vor keine Rätsel. Man kann, basierend auf der GeForce RTX 3090 (read full article...)
 
Mal eine blöde Frage: Wie setzt sich das Power-Budget der 3090TI und der 3080TI zusammen? Haben die auch noch den "alten" GDDR6X, oder schon den sparsameren von Ada?
Mit dem Power Budget auf der GPU sollte das Ding am Ende grob 3x so schnell sein als eine 3090, denn grob doppelter Verbrauch, deutlich bessere Fertigung und dazu dann noch etwas weitere Optimierungen... Das Ding wird etwas monströs.
 
Monströs finde ich vor allem die Leistungsaufnahme des Chips, auch wenn die Peripherie abgezogen wird. Bei einer Stromdichte von >1 A/mm2 denke ich eher an Leistungsbauelemente als an Logikbausteine.
 
Die 3090 Ti hat den neuen GDDR6X. Alles, was da mehr verbraten wird, geht zu Lasten der GPU und deren VRM. Minus Entlastung von Seiten des Speichers (ca. 27 Watt von Speicher und VRM). Die 3080 Ti ist sinnlos. Reines GPU-Heizkissen
 

Es wäre zwar schön eine Verdreifachung zu erreichen, aber es wird wohl nicht einmal die kolportierte Verdoppelung werden.
Die konservativen Schätzungen bewegen sich eher bei um die 80 % bis 100 %.
Von einer auf die nächste Generation folgende GPU kann ich mich an keine Verdreifachung der Rechenleistung erinnern...
Vielleicht kann mich Igor da aber berichtigen?
 
Monströs finde ich vor allem die Leistungsaufnahme des Chips, auch wenn die Peripherie abgezogen wird. Bei einer Stromdichte von >1 A/mm2 denke ich eher an Leistungsbauelemente als an Logikbausteine.

Ein Siedewasserreaktor hat übrigends 1W/mm² (1MW pro m²)
AMD Athlon XP 1000mhz hatte das übrigens auch schon... wenn auch nur 75W auf einen 0,75cm² DIE.
Das waren die , welche sich dann gerne mal selber ausgelötet haben ;-) OK zu der Zeit waren weder die Lüfter noch die Anwender darauf vorbereitet.

Ein Wasserkocher oder Herdplatte liegen weit darunter. Sie hätten mit der Leistungsdichte über 10000W :)


@tropic

Das heist das die CPU selber faktisch die doppelte Leitungs verballern kann.
Da ist eine Leistungssteigerung auf das 2fache , rein lineares Skalieren.

Finde ich echt mau. Das sie jeden Vorteil des kleineren Prozesses in extrem OC verballern.
Das es anders geht zeigt Apples M1 Max mit ca. der selben Chipfläche.

Gut die 4090 wird eh nur ein Halo Produkt.
 
Zuletzt bearbeitet :
450W in so einem kleinen Chip, nicht schlecht. Heatpipes nach oben an den Deckel des Gehäuses, darauf dann eine Schale mit Steinen und fertig ist der Ofen für den Aufguss ;):ROFLMAO:

Interessant wird wie stark die Grafikleistung steigt, wenn diese sich nur verdoppelt wäre es fast kein Fortschritt. Benötigt ja etwa die doppelte elektrische Leistung und alles andere als mindestens eine Verdoppelung wäre dann ein Rückschritt.
 
Interessant fände ich auch eine Einschätzung, wieviel vom Kartenpreis anteilig auf den eigentlichen Chip, das Geraffel und die Kühllösung entfallen.
 
Je mehr ich über die "neue Generation" an Graka´s lese, egal ob Nvidia oder AMD, desto weniger interessant wird das für mich. Kann mir echt nicht helfen, aber wenn es (Spiele-) Anwendungen geben sollte, die solche Monster auch nur entfernt voraus setzen, bin ich raus aus dem Wettrüsten.
Dann wird die 69er sicher die letzte Highend-Karte, die ich mir geleistet habe.
Ich verstehe da jetzt sicher nicht jede Einzelheit, von dem Igor da wieder geschrieben hat. Aber was ich verstehe, ist eben, dass da absolut unnötig Ressourcen verbraten werden. Dieses "tiefer, breiter, schneller" war nie so meins und die Vorgehensweise der genannten Protagonisten erinnert mich leider stark an genau das.
 
Na Ja, es ist halt nicht immer "tiefer,schneller,breiter".

Ich spiele seit Dez. 2011 World of Tanks, und zwar auf 2 PCs, je nachdem wo ich grad bin.

PC 1)
i7-860 (ja 3 Zahlen)
Radeon HD 5870 Vapor
8GB RAM

PC 2)
i7-4770k
Radeon HD 7970 GHz-Vapor
16 GB RAM

In dieser Zeit musste ich die Grafik beim ersten PC von max auf min runterdrehen, da immer mehr Bling-Bling und sonstiges eingeführt wurde, zB. Büsche die sich biegen wenn ein Panzer durchfährt, das ganze Laub muss dabei halt mitgezeichnet werden, ist aber mMn unnötig => Bling Bling
Anderes Feature: Schmutz am Panzer der sich im Gefecht beim Fahren immer stärker ansammelt, heißt beim Start ist der Panzer sauber, nach 10 Minuten reicht der Kärcher nicht mehr. Nötig? Ich weiß nicht.

Soll heißen: Es sind nicht immer nur neue Anwendungen die inflationär Leistung brauchen.
 
Interessant fände ich auch eine Einschätzung, wieviel vom Kartenpreis anteilig auf den eigentlichen Chip, das Geraffel und die Kühllösung entfallen.
Das kann soviel nicht sein. Der Großteil wird sicher für Entwicklungskosten und die anderen laufenden Kosten draufgehen. Der VK orientiert sich doch seit langem, an dem, was der Markt hergibt. Das hat mit den Produktionskosten schon lange nichts mehr zu tun.

Meine 7990 hatte bei Release einen VK von 1299.00 Euro. Zum Schluss wurde sie für 389.00 Euro verscheppert. Und die hatte auch keiner vom fahrenden LKW geklaut. Das läst sich im Prinzip bei allen Produkten mit relativ kurzen Lebenszyklen beobachten.

Allerdings haben die Grafikkartenhersteller das in den letzten Jahren aus Ihrer Sicht extrem gut gemanagt. In den letzten Verkaufszyklen haben sie es geschafft, die Preise bis zum Schluss hoch zu halten. Das war bei der 2000 Serie ziemlich eindrucksvoll, weil die 3000 Serie ja günstiger als der Vorgänger angekündigt war. Dies wird diesmal aber anders sein. Preislich wird es wohl teuer bleiben. Unabhängig von den Produktionskosten.

LurkingInShadows


Wenn alle Spiele intelligent programmiert würden, käme ich mit meiner 3090 die nächsten 10 Jahre in 4 K zurecht.
 
Zuletzt bearbeitet :
In den letzten Verkaufszyklen haben sie es geschafft, die Preise bis zum Schluss hoch zu halten. Das war bei der 2000 Serie ziemlich eindrucksvoll, weil die 3000 Serie ja günstiger als der Vorgänger angekündigt war.
Das fand ich kein großes Kunststück bei der hohen Nachfrage durch Miner.
 
Das fand ich kein großes Kunststück bei der hohen Nachfrage durch Miner.
Fand ich schon. Man hat die Preise der 2080ti hochgehalten, obwohl die 3080 zum Listenpreis schon angekündigt waren. Selbst als die ersten 3080 zum Listenpreis und leicht darüber im Markt waren, haben die Händler an dem Preis, der unter dem Aspekt überteuerten 2080ti, festgehalten. Verkauft wurden sie dann zu diesen Preisen, als die Preise für die 3000er Serie durch die Decke schossen. Vielleicht wussten sie mehr als andere?

Diesmal jedenfalls wird der UVP der 4000serie Imho über der 3000 liegen. Es wird also noch einfacher.
 
Mal eine blöde Frage: Wie setzt sich das Power-Budget der 3090TI und der 3080TI zusammen? Haben die auch noch den "alten" GDDR6X, oder schon den sparsameren von Ada?
Mit dem Power Budget auf der GPU sollte das Ding am Ende grob 3x so schnell sein als eine 3090, denn grob doppelter Verbrauch, deutlich bessere Fertigung und dazu dann noch etwas weitere Optimierungen... Das Ding wird etwas monströs.
Dreimal so schnell? Wie kommst du denn auf diesen Wert?

Mit 18.342 Shadern hat man rund 75% mehr Shader, also bei gleichem Takt ca. 175% der Leistung einer 3090. Um die dreifache Performance liefern zu können, müsste man nun den Takt um 71% anheben, das halte ich selbst mit 600W für ausgeschlossen, auch mit 5nm. Man darf ja nicht vergessen, dass alleine rund 70% mehr Verbrauch schon auf die Anzahl der Shaderr entfallen würde (ohne Shrink), von 230W würden wir also sowieso auf 393W springen, also schon fast dem errechneten Wert von Igor.

Die einzige Unbekannte, bzw. weitestgehend Unbekannte ist die Steigerung der Effizienz von 8nm Samsung zu 5nm TSMC? Wunderdinge sollte man hier aber nicht erwarten, denn man wird beim Takt definitiv schon über dem Sweet Spot liegen und jede Erhöhung wird exponentiell den Verbrauch erhöhen. Ich spekuliere Mal und würde behaupten, dass man vielleicht 25% gewinnt durch die Umstellung der Fertigung und dadurch mögliche Takterhöhung, zusammen mit den 75% mehr Shadern, würde ich daher auf 220% - 230% der aktuellen Leistung tippen.
Ich halte das schon für positiv gerechnet, denn mehr Takt erhöht exponentiell den Verbrauch, 100Mhz mehr brauchen oft schon 30-40W, 200Mhz dann aber schon 120-160W.

@Igor Wallossek
Warum rechnest du denn bei den Spannungswandlern mit nur 70% Effizienz? Typisch sind doch eher Werte um die 85%+! Ich meine sogar 98% wären heute im DCDC Bereich möglich.
 
Zuletzt bearbeitet :
Dreimal so schnell? Wie kommst du denn auf diesen Wert?
Naja, ich dachte schon, dass NVidia auch eine Optimierung der Architektur durchführt, und nicht einfach die Ampere Shader fast verdoppelt und 1,5 Node Sprünge einbaut...Alleine technisch gesehen müsste man damit ja schon bei deutlich über Faktor 2 landen (fast doppelte Shader, deutlich bessere Fertigung). Den Rest würde dann bei mir eben eine optimierte Architektur bringen, die effektiver mit der Energie umgeht und für eine bessere Auslastung sorgt. Früher hat man über Architektur Verbesserungen auch mal eben 25% heraus geholt. Wenn man den Chip so massiv vergrößert und dann noch mal um die 25% bei der Architektur holen kann, ist man schnell bei grob Faktor 3 (was für mich auch z.B. Faktor 2,8 wäre).
Es wäre zwar schön eine Verdreifachung zu erreichen, aber es wird wohl nicht einmal die kolportierte Verdoppelung werden.
Die konservativen Schätzungen bewegen sich eher bei um die 80 % bis 100 %.
Von einer auf die nächste Generation folgende GPU kann ich mich an keine Verdreifachung der Rechenleistung erinnern...
Naja, es gab bisher ja auch noch keine GPU Generation, die im Vergleich zum Vorgänger fast das doppelte verbraucht hat.

Wie oben schon geschrieben, alleine bedingt durch die Fertigung und den deutlich größeren Chip müsste man mehr als doppelt so schnell sein. Wenn dann am Ende nur +80% - +100% raus kommt, wäre das noch enttäuschender als Ampere war.
 
@LurkingInShadows
Klar, spiele vorwiegend auch ältere Spiele, angefangen von der Fallout-Reihe seit Fallout 3, die Elder Scrolls Teile auch.

Aber wenn ich mir z.B. ein neueres Spiel rausnehme, wie Mafia 3, da verstehe ich nicht, weshalb bei der Grafik alle Graka´s außer der 69er damit Probleme hatten. Selbst die 5700XT war andauernd zu hören und das bei begrenzten 30 Frames.

Wie @Megaone schon schrieb, wenn es anständig programmiert wurde, sollte sowas nicht vorkommen. Aber gerade angesprochenes Spiel kam mindestens 6 Monate zu früh auf den Markt. Und so geht es ja mit allen Spielen, die kommen: man ist, wenn man zu den ersten gehört, immer zum Beta-Tester degradiert. Da ist nichts richtig fertig, massig Spiele, die einen "Day-One-Patch" benötigen. Da bin ich eh schon raus, wenn man ein Spiel wie CB2077 wie verrückt erst mal patchen muss (oder wie ich erst mal 8 Monate bis zur Installation wartet), damit die überhaupt stressfrei laufen.
Als Gegenbeispiel dann The Witcher 3, auch offene Welt, aber das lief auch auf einem FX 8370 und einer RX590 klasse. Sicher nur in FHD, aber trotzdem hatte ich auch da keine Probleme und vor allem: Spaß.

Bei den Bethesda-Spielen hab ich da auch keine Probleme, die kann ich bis zum umfallen modden, mit 4K-Texturen und allem, trotzdem klappt das alles ohne Düsenlaufwerk im Rechner.

Leider viel Murks in der Spielewelt und dann blos schnell auf den Markt mit dem Schrott. Vielleicht merkt´s ja keiner..... Und die Konsolen schneiden da wohl auch nicht viel besser ab, wenn ich mir die Berichte über z.B. Gran Turismo 7 für PS5 so durchlese. Gleich mal den Spieleserver am 2.ten Tag für 36 Stunden abgeschaltet. Blöd, wenn man den braucht, um (selbst Singleplayer) zu spielen.
Neue Technik ist halt nicht immer besser, auch wenn man uns den Stuss erzählen will ;)
 
Dreimal so schnell? Wie kommst du denn auf diesen Wert?

Mit 18.342 Shadern hat man rund 75% mehr Shader, also bei gleichem Takt ca. 175% der Leistung einer 3090. Um die dreifache Performance liefern zu können, müsste man nun den Takt um 71% anheben, das halte ich selbst mit 600W für ausgeschlossen, auch mit 5nm. Man darf ja nicht vergessen, dass alleine rund 70% mehr Verbrauch schon auf die Anzahl der Shaderr entfallen würde (ohne Shrink), von 230W würden wir also sowieso auf 393W springen, also schon fast dem errechneten Wert von Igor.

Die einzige Unbekannte, bzw. weitestgehend Unbekannte ist die Steigerung der Effizienz von 8nm Samsung zu 5nm TSMC? Wunderdinge sollte man hier aber nicht erwarten, denn man wird beim Takt definitiv schon über dem Sweet Spot liegen und jede Erhöhung wird exponentiell den Verbrauch erhöhen. Ich spekuliere Mal und würde behaupten, dass man vielleicht 25% gewinnt durch die Umstellung der Fertigung und dadurch mögliche Takterhöhung, zusammen mit den 75% mehr Shadern, würde ich daher auf 220% - 230% der aktuellen Leistung tippen.
Ich halte das schon für positiv gerechnet, denn mehr Takt erhöht exponentiell den Verbrauch, 100Mhz mehr brauchen oft schon 30-40W, 200Mhz dann aber schon 120-160W.
Was potentiell noch etwas bringen könnte (und sicher auch einen Teil des erhöhten Stromverbrauchs erklären würde) sind die massiv vergrösserten L2 Caches (von 6 auf 96) bei der 4000er Serie.

Der Infinity Cache hat bei RDNA2 ja auch (vor allem in tieferen Auflösungen) geholfen, das eher schwache Speicherinterface auszugleichen.
 
Puh - eine Verdoppelung der Leistung... Wie sagt @Igor Wallossek im Artikel so schön: "ein neues Strategiespiel in Echtzeit mit RTX On". Wenn die Demo mit dem Echtzeit Path Tracing den Takt vorgibt, krepelt die dickste Karte bei 30 FPS in Full HD rum. Ich hätte mir ja gewünscht, dass die vorhandene Technologie erstmal sauber implementiert wird - vor allem, wenn die jetzt schon wieder die nächste Sau durchs Dorf treiben: Nvidia calls path tracing one of the "largest breakthroughs for real-time graphics in many years" - und dafür braucht man ganz sicher ne neue Grafikkarte 🥱
Hatten die nicht schon Physics, Hairworks, Raytracing & Co. so gelabelt?! Das sitz ich aus :cool:
 
Oben Unten