Gaming News VGA

Wo die 600 Watt der NVIDIA GeForce „RTX 4090“ eigentlich herkommen – eine Schätzung von GPU und Komponenten | Exklusiv

Auch dieses Mal werde ich versuchen, die Leistungsaufnahme einzelnen Komponenten hochzurechnen, um daraus auf die Leistungsaufnahme der GPU schließen zu können. Bei Turing lag ich fast aufs Watt genau richtig und auch diesmal stellt einen die Platine, so sie denn wirklich so kommen wird, vor keine Rätsel. Man kann, basierend auf der GeForce RTX 3090 Ti und deren Schaltungsdesign, durchaus interessante Details ableiten, aber dazu gleich mehr. Was mit die Boardpartner jedoch auch bestätigt haben, ist der Umstand, dass die Platinen der GeForce RTX 3090 Ti zwar denen der neuen Generation ähneln werden, sich jedoch nicht 1:1 verwenden lassen.

Spekulationen darüber, dass man später nur den Pin-kompatiblen Chip austauschen müsse, sollen so nicht stimmen, auch wenn sie dem Wunschdenken vieler Hersteller natürlich entgegen kommen würden. Ganz so einfach scheint es am Ende dann also doch nicht zu sein und es läge an einigen, durchaus wichtigen und abweichenden Details. Alter Chip auf neuem PCB ja, aber umgekehrt nein. Dass man aber parallel mit dem „alten“ GA102 mangels echter Engineering Samples der neuen GPUs schon auf den ebenfalls neuen Platinen experimentiert, das wird nirgendwo bestritten. Die RTX 3090 Ti ist also quasi „Ada’s Playground“, ein neues Strategiespiel in Echtzeit mit RTX On. Nicht mehr und nicht weniger.

Aber ich bin für die GeForce RTX 3090 Ti durchaus dankbar, weil man sehr viele Dinge recht genau ableiten kann. Und genau da kommen wir wieder zurück zum Thema. Neben der TBP als Total Board Power gibt es noch die TGP als Total Graphics Power aus Nvidias Sicht. Das weicht zwar inhaltlich in kleinen Details etwas ab (TGP ist stets ohne 3.3 Volt), kommt aber zumindest bei den Größenordnungen noch recht gut hin. Erinnert Ihr Euch an meinen Artikel „Leistungsaufnahme: TDP, TBP und TGP bei Nvidia und AMD-Grafikkarten nachgerechnet samt Zerstörung einer PR-Folie„? Den sollte man gern auch noch einmal zum besseren Verständnis lesen.

Die damalige Schätzung der GeForce RTX 3090 mit 350 Watt (Referenz)

Ich bin seinerzeit für meine Schätzung der GeForce RTX 3080 und später auch der RTX 3090 in diversen Foren angefeindet worden, wobei ich die Gründe des aufgekommen Unverständnisses nicht kommentieren möchte. Nur kommt Kraft nun einmal von Kraftstoff und am Ende lag ich bei meinen Kalkulationen fast aufs Watt genau richtig. Schauen wir noch einmal uns die (stark vereinfachte) Zusammenfassung der wichtigsten Baugruppen der alten GeForce RTX 3090 mit dem GA102 einmal an:

Die 230 Watt sind für so ein Rechenmonster eigentlich noch recht manierlich, wenn man impliziert, dass hier auch der Takt weit ausgefahren wird.

 

Die neue Hochrechnung für die GeForce „RTX 4090“

Diesmal sind es bei der großen Ada-Karte (ob diese nun RTX 4090 heißen wird oder nicht) immerhin 600 Watt, die als gesetzt gelten dürften. Auch diesmal will Euch herunterrechnen, wie viel dann noch auf den Chip entfallen könnte. Und genau jetzt wird es interessant, denn man kann Spannungswandlerverluste, Kleinspannungen und sonstige Verluste anhand der letzten Generationen recht gut hochrechnen. Gut, den Speicher habe ich explizit nachgefragt, denn ich bin ja kein Hellseher. Mit 3,4 Watt pro Modul (laut meinen Informationen) liegt Micron im Rahmen dessen, was man durch den gestiegenen Takt sowieso erwarten konnte. Der Speicherausbau selbst ist dabei eher sekundär. Das macht in der Summe für 24 GB (12 Module) dann nur noch rund 40 bis 41 Watt, statt der 60 Watt auf der GeForce RTX 3090.

Die vier Spannungswandler des Speichers sollten in dieser einfachen Ausführung einen Wirkungsgrad von ca. 60 bis 70% aufweisen, ich plane hier zusammen mit den beteiligten Komponenten rund 15 Watt an Verlusten für die gesamte Schaltung einschließlich der MOSFETs, Spulen und Caps mit ein. Das ist nicht wenig, aber auch nicht unüblich. Bei den Kleinspannungen mit den üblichen 1.2 Volt, 1.8 Volt, 5 Volt und den anderen Dingen wie der MCU, den Shunts, der Filterung der Rails usw. setze ich ca. 10 Watt an, für die Lüfter durchschnittliche 5 Watt, wobei hier auch gemunkelt wurde, dass sie nicht direkt ins Limit mit einfließen würden.

Rechnet man die Leistungsaufnahme hoch und schaut sich die Tracks an, kann man wohl ungefähr fast auch von einer Verdopplung der Platinenverluste ausgehen, da mehr Phasen auch mehr Leiterzüge bedeuten. Die Spannungswandler der GPU-Spannung (NVVDD), wenn sie denen der 3090 Ti stark ähneln, sollten einen Wirkungsgrad von ca. 90% ausweisen, womit wir bei ca. 50 Watt angelangt wären. Auch das ist in etwa das Doppelte dessen, was die RTX 3090 in Wärme umgesetzt hat, denn es blieben für die GPU dann ungefähr 450 Watt übrig.  Ins Verhältnis gesetzt, nähme dann der AD102 in etwa auch nur etwas weniger als das Doppelte an elektrischer Leistung auf.

Die nachfolgende Tabelle zeigt noch einmal den Werdegang der Kalkulation:

Wie gesagt, so Einiges ist mit Sicherheit auch spekulativ, logisch gefolgert oder zumindest langweilige Rechenkunst, aber ich kann Euch auch versichern, dass ich mich nur ungern aus dem Fenster lehne, wenn ich solche Dinge veröffentliche. Das ist also alles kein Hexenwerk oder ein leichtsinniges Leak, sondern eher trivial nachgedacht und auch nachgefragt. Aber es klappt diesmal dank der GeForce RTX 3090 Ti viel einfacher und besser. Und manche Dinge werde ich auch (noch) nicht schreiben, weil es sich einfach nicht gehört.

Deshalb überlasse ich es auch den Kommentatoren und Kollegen, von diesem Wert in etwa auf die tatsächliche Rechenleistung oder Grafikperformance zu schließen. Da ich es nicht weiß bzw. wissen darf, halte ich mich hierbei besser vornehm zurück. Es darf also gern gerätselt und gestritten werden.

Kommentar

Lade neue Kommentare

O
Oberst

Veteran

332 Kommentare 129 Likes

Mal eine blöde Frage: Wie setzt sich das Power-Budget der 3090TI und der 3080TI zusammen? Haben die auch noch den "alten" GDDR6X, oder schon den sparsameren von Ada?
Mit dem Power Budget auf der GPU sollte das Ding am Ende grob 3x so schnell sein als eine 3090, denn grob doppelter Verbrauch, deutlich bessere Fertigung und dazu dann noch etwas weitere Optimierungen... Das Ding wird etwas monströs.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Monströs finde ich vor allem die Leistungsaufnahme des Chips, auch wenn die Peripherie abgezogen wird. Bei einer Stromdichte von >1 A/mm2 denke ich eher an Leistungsbauelemente als an Logikbausteine.

Antwort 1 Like

LurkingInShadows

Urgestein

1,345 Kommentare 549 Likes

Wasserkocher? Wäre da mein Tipp...

Antwort Gefällt mir

Igor Wallossek

1

10,104 Kommentare 18,594 Likes

Die 3090 Ti hat den neuen GDDR6X. Alles, was da mehr verbraten wird, geht zu Lasten der GPU und deren VRM. Minus Entlastung von Seiten des Speichers (ca. 27 Watt von Speicher und VRM). Die 3080 Ti ist sinnlos. Reines GPU-Heizkissen

Antwort 2 Likes

ipat66

Urgestein

1,343 Kommentare 1,334 Likes

Es wäre zwar schön eine Verdreifachung zu erreichen, aber es wird wohl nicht einmal die kolportierte Verdoppelung werden.
Die konservativen Schätzungen bewegen sich eher bei um die 80 % bis 100 %.
Von einer auf die nächste Generation folgende GPU kann ich mich an keine Verdreifachung der Rechenleistung erinnern...
Vielleicht kann mich Igor da aber berichtigen?

Antwort Gefällt mir

P
Phelan

Veteran

189 Kommentare 171 Likes

Ein Siedewasserreaktor hat übrigends 1W/mm² (1MW pro m²)
AMD Athlon XP 1000mhz hatte das übrigens auch schon... wenn auch nur 75W auf einen 0,75cm² DIE.
Das waren die , welche sich dann gerne mal selber ausgelötet haben ;-) OK zu der Zeit waren weder die Lüfter noch die Anwender darauf vorbereitet.

Ein Wasserkocher oder Herdplatte liegen weit darunter. Sie hätten mit der Leistungsdichte über 10000W :)

@tropic

Das heist das die CPU selber faktisch die doppelte Leitungs verballern kann.
Da ist eine Leistungssteigerung auf das 2fache , rein lineares Skalieren.

Finde ich echt mau. Das sie jeden Vorteil des kleineren Prozesses in extrem OC verballern.
Das es anders geht zeigt Apples M1 Max mit ca. der selben Chipfläche.

Gut die 4090 wird eh nur ein Halo Produkt.

Antwort 1 Like

LurkingInShadows

Urgestein

1,345 Kommentare 549 Likes
v
vonXanten

Urgestein

801 Kommentare 335 Likes

450W in so einem kleinen Chip, nicht schlecht. Heatpipes nach oben an den Deckel des Gehäuses, darauf dann eine Schale mit Steinen und fertig ist der Ofen für den Aufguss ;):ROFLMAO:

Interessant wird wie stark die Grafikleistung steigt, wenn diese sich nur verdoppelt wäre es fast kein Fortschritt. Benötigt ja etwa die doppelte elektrische Leistung und alles andere als mindestens eine Verdoppelung wäre dann ein Rückschritt.

Antwort 3 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Interessant fände ich auch eine Einschätzung, wieviel vom Kartenpreis anteilig auf den eigentlichen Chip, das Geraffel und die Kühllösung entfallen.

Antwort Gefällt mir

G
Guest

Je mehr ich über die "neue Generation" an Graka´s lese, egal ob Nvidia oder AMD, desto weniger interessant wird das für mich. Kann mir echt nicht helfen, aber wenn es (Spiele-) Anwendungen geben sollte, die solche Monster auch nur entfernt voraus setzen, bin ich raus aus dem Wettrüsten.
Dann wird die 69er sicher die letzte Highend-Karte, die ich mir geleistet habe.
Ich verstehe da jetzt sicher nicht jede Einzelheit, von dem Igor da wieder geschrieben hat. Aber was ich verstehe, ist eben, dass da absolut unnötig Ressourcen verbraten werden. Dieses "tiefer, breiter, schneller" war nie so meins und die Vorgehensweise der genannten Protagonisten erinnert mich leider stark an genau das.

Antwort 3 Likes

LurkingInShadows

Urgestein

1,345 Kommentare 549 Likes

Na Ja, es ist halt nicht immer "tiefer,schneller,breiter".

Ich spiele seit Dez. 2011 World of Tanks, und zwar auf 2 PCs, je nachdem wo ich grad bin.

PC 1)
i7-860 (ja 3 Zahlen)
Radeon HD 5870 Vapor
8GB RAM

PC 2)
i7-4770k
Radeon HD 7970 GHz-Vapor
16 GB RAM

In dieser Zeit musste ich die Grafik beim ersten PC von max auf min runterdrehen, da immer mehr Bling-Bling und sonstiges eingeführt wurde, zB. Büsche die sich biegen wenn ein Panzer durchfährt, das ganze Laub muss dabei halt mitgezeichnet werden, ist aber mMn unnötig => Bling Bling
Anderes Feature: Schmutz am Panzer der sich im Gefecht beim Fahren immer stärker ansammelt, heißt beim Start ist der Panzer sauber, nach 10 Minuten reicht der Kärcher nicht mehr. Nötig? Ich weiß nicht.

Soll heißen: Es sind nicht immer nur neue Anwendungen die inflationär Leistung brauchen.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,597 Likes

Das kann soviel nicht sein. Der Großteil wird sicher für Entwicklungskosten und die anderen laufenden Kosten draufgehen. Der VK orientiert sich doch seit langem, an dem, was der Markt hergibt. Das hat mit den Produktionskosten schon lange nichts mehr zu tun.

Meine 7990 hatte bei Release einen VK von 1299.00 Euro. Zum Schluss wurde sie für 389.00 Euro verscheppert. Und die hatte auch keiner vom fahrenden LKW geklaut. Das läst sich im Prinzip bei allen Produkten mit relativ kurzen Lebenszyklen beobachten.

Allerdings haben die Grafikkartenhersteller das in den letzten Jahren aus Ihrer Sicht extrem gut gemanagt. In den letzten Verkaufszyklen haben sie es geschafft, die Preise bis zum Schluss hoch zu halten. Das war bei der 2000 Serie ziemlich eindrucksvoll, weil die 3000 Serie ja günstiger als der Vorgänger angekündigt war. Dies wird diesmal aber anders sein. Preislich wird es wohl teuer bleiben. Unabhängig von den Produktionskosten.

LurkingInShadows

Wenn alle Spiele intelligent programmiert würden, käme ich mit meiner 3090 die nächsten 10 Jahre in 4 K zurecht.

Antwort 1 Like

Thy

Urgestein

1,843 Kommentare 744 Likes

Das fand ich kein großes Kunststück bei der hohen Nachfrage durch Miner.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,597 Likes

Fand ich schon. Man hat die Preise der 2080ti hochgehalten, obwohl die 3080 zum Listenpreis schon angekündigt waren. Selbst als die ersten 3080 zum Listenpreis und leicht darüber im Markt waren, haben die Händler an dem Preis, der unter dem Aspekt überteuerten 2080ti, festgehalten. Verkauft wurden sie dann zu diesen Preisen, als die Preise für die 3000er Serie durch die Decke schossen. Vielleicht wussten sie mehr als andere?

Diesmal jedenfalls wird der UVP der 4000serie Imho über der 3000 liegen. Es wird also noch einfacher.

Antwort Gefällt mir

C
CKBVB

Mitglied

75 Kommentare 36 Likes

Dreimal so schnell? Wie kommst du denn auf diesen Wert?

Mit 18.342 Shadern hat man rund 75% mehr Shader, also bei gleichem Takt ca. 175% der Leistung einer 3090. Um die dreifache Performance liefern zu können, müsste man nun den Takt um 71% anheben, das halte ich selbst mit 600W für ausgeschlossen, auch mit 5nm. Man darf ja nicht vergessen, dass alleine rund 70% mehr Verbrauch schon auf die Anzahl der Shaderr entfallen würde (ohne Shrink), von 230W würden wir also sowieso auf 393W springen, also schon fast dem errechneten Wert von Igor.

Die einzige Unbekannte, bzw. weitestgehend Unbekannte ist die Steigerung der Effizienz von 8nm Samsung zu 5nm TSMC? Wunderdinge sollte man hier aber nicht erwarten, denn man wird beim Takt definitiv schon über dem Sweet Spot liegen und jede Erhöhung wird exponentiell den Verbrauch erhöhen. Ich spekuliere Mal und würde behaupten, dass man vielleicht 25% gewinnt durch die Umstellung der Fertigung und dadurch mögliche Takterhöhung, zusammen mit den 75% mehr Shadern, würde ich daher auf 220% - 230% der aktuellen Leistung tippen.
Ich halte das schon für positiv gerechnet, denn mehr Takt erhöht exponentiell den Verbrauch, 100Mhz mehr brauchen oft schon 30-40W, 200Mhz dann aber schon 120-160W.

@Igor Wallossek
Warum rechnest du denn bei den Spannungswandlern mit nur 70% Effizienz? Typisch sind doch eher Werte um die 85%+! Ich meine sogar 98% wären heute im DCDC Bereich möglich.

Antwort 1 Like

Klicke zum Ausklappem
O
Oberst

Veteran

332 Kommentare 129 Likes

Naja, ich dachte schon, dass NVidia auch eine Optimierung der Architektur durchführt, und nicht einfach die Ampere Shader fast verdoppelt und 1,5 Node Sprünge einbaut...Alleine technisch gesehen müsste man damit ja schon bei deutlich über Faktor 2 landen (fast doppelte Shader, deutlich bessere Fertigung). Den Rest würde dann bei mir eben eine optimierte Architektur bringen, die effektiver mit der Energie umgeht und für eine bessere Auslastung sorgt. Früher hat man über Architektur Verbesserungen auch mal eben 25% heraus geholt. Wenn man den Chip so massiv vergrößert und dann noch mal um die 25% bei der Architektur holen kann, ist man schnell bei grob Faktor 3 (was für mich auch z.B. Faktor 2,8 wäre).
Naja, es gab bisher ja auch noch keine GPU Generation, die im Vergleich zum Vorgänger fast das doppelte verbraucht hat.

Wie oben schon geschrieben, alleine bedingt durch die Fertigung und den deutlich größeren Chip müsste man mehr als doppelt so schnell sein. Wenn dann am Ende nur +80% - +100% raus kommt, wäre das noch enttäuschender als Ampere war.

Antwort Gefällt mir

G
Guest

@LurkingInShadows
Klar, spiele vorwiegend auch ältere Spiele, angefangen von der Fallout-Reihe seit Fallout 3, die Elder Scrolls Teile auch.

Aber wenn ich mir z.B. ein neueres Spiel rausnehme, wie Mafia 3, da verstehe ich nicht, weshalb bei der Grafik alle Graka´s außer der 69er damit Probleme hatten. Selbst die 5700XT war andauernd zu hören und das bei begrenzten 30 Frames.

Wie @Megaone schon schrieb, wenn es anständig programmiert wurde, sollte sowas nicht vorkommen. Aber gerade angesprochenes Spiel kam mindestens 6 Monate zu früh auf den Markt. Und so geht es ja mit allen Spielen, die kommen: man ist, wenn man zu den ersten gehört, immer zum Beta-Tester degradiert. Da ist nichts richtig fertig, massig Spiele, die einen "Day-One-Patch" benötigen. Da bin ich eh schon raus, wenn man ein Spiel wie CB2077 wie verrückt erst mal patchen muss (oder wie ich erst mal 8 Monate bis zur Installation wartet), damit die überhaupt stressfrei laufen.
Als Gegenbeispiel dann The Witcher 3, auch offene Welt, aber das lief auch auf einem FX 8370 und einer RX590 klasse. Sicher nur in FHD, aber trotzdem hatte ich auch da keine Probleme und vor allem: Spaß.

Bei den Bethesda-Spielen hab ich da auch keine Probleme, die kann ich bis zum umfallen modden, mit 4K-Texturen und allem, trotzdem klappt das alles ohne Düsenlaufwerk im Rechner.

Leider viel Murks in der Spielewelt und dann blos schnell auf den Markt mit dem Schrott. Vielleicht merkt´s ja keiner..... Und die Konsolen schneiden da wohl auch nicht viel besser ab, wenn ich mir die Berichte über z.B. Gran Turismo 7 für PS5 so durchlese. Gleich mal den Spieleserver am 2.ten Tag für 36 Stunden abgeschaltet. Blöd, wenn man den braucht, um (selbst Singleplayer) zu spielen.
Neue Technik ist halt nicht immer besser, auch wenn man uns den Stuss erzählen will ;)

Antwort 2 Likes

Klicke zum Ausklappem
S
Staarfury

Veteran

257 Kommentare 206 Likes

Was potentiell noch etwas bringen könnte (und sicher auch einen Teil des erhöhten Stromverbrauchs erklären würde) sind die massiv vergrösserten L2 Caches (von 6 auf 96) bei der 4000er Serie.

Der Infinity Cache hat bei RDNA2 ja auch (vor allem in tieferen Auflösungen) geholfen, das eher schwache Speicherinterface auszugleichen.

Antwort Gefällt mir

grimm

Urgestein

3,069 Kommentare 2,023 Likes

Puh - eine Verdoppelung der Leistung... Wie sagt @Igor Wallossek im Artikel so schön: "ein neues Strategiespiel in Echtzeit mit RTX On". Wenn die Demo mit dem Echtzeit Path Tracing den Takt vorgibt, krepelt die dickste Karte bei 30 FPS in Full HD rum. Ich hätte mir ja gewünscht, dass die vorhandene Technologie erstmal sauber implementiert wird - vor allem, wenn die jetzt schon wieder die nächste Sau durchs Dorf treiben: Nvidia calls path tracing one of the "largest breakthroughs for real-time graphics in many years" - und dafür braucht man ganz sicher ne neue Grafikkarte 🥱
Hatten die nicht schon Physics, Hairworks, Raytracing & Co. so gelabelt?! Das sitz ich aus :cool:

Antwort 4 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung