Gaming Graphics Latest news

Where the 600 watts of the NVIDIA GeForce “RTX 4090” come from – a calculation of GPU and components | Exclusive

Once again, I will try to extrapolate the power consumption of individual components to be able to conclude the power consumption of the GPU. I was almost right on the money with Turing and also this time the board design, if it will really come like this, does not pose any riddles. It is possible to derive quite interesting details based on the GeForce RTX 3090 Ti and its circuit design, but more on that in a moment. However, what the board partners have also confirmed with me is the fact that the boards of the GeForce RTX 3090 Ti will be very similar to those of the new generation, but they cannot be used 1:1.

Speculations about only having to replace the pin-compatible chip later on are said to be untrue, even though they would of course meet the wishful thinking of many manufacturers. In the end, it doesn’t seem to be quite that simple after all, and it would be due to some quite important and deviating details. Old chip on new PCB yes, but vice versa no. However, the fact that the “old” GA102 is already being experimented with on the new boards due to the lack of real engineering samples of the new GPUs is not disputed anywhere. The RTX 3090 Ti is thus virtually “Ada’s Playground”, a new strategy game in real time with RTX On. No more and no less.

But I am quite grateful for the GeForce RTX 3090 Ti because you can derive a lot of things quite accurately. And that’s where we come back to the topic. Besides the TBP as Total Board Power, there is also the TGP as Total Graphics Power from Nvidia’s point of view. This deviates somewhat in terms of content in small details (TGP is always without 3.3 volts), but at least in the orders of magnitude it still comes out quite well. Do you remember my article “Power consumption: TDP, TBP and TGP of Nvidia and AMD graphics cards recalculated including destruction of a PR slide“? I also recommend you read it again for a better understanding.

The estimate of the GeForce RTX 3090 with 350 watts (reference) at that time

At the time, I was attacked in various forums for my estimate of the GeForce RTX 3080 and later also the RTX 3090, although I do not want to comment on the reasons for the incomprehension that arose. But power comes from fuel, and in the end I was almost exactly right in my calculations. Let’s take another look at the (highly simplified) summary of the old GeForce RTX 3090’s most important components with the GA102:

The 230 watts are actually still quite acceptable for such a computing monster, if you imply that the clock is also extended far here.

 

The new projection for the GeForce “RTX 4090”

This time, the large Ada card’s board power TGB  (whether it will be called RTX 4090 or not) is 600 watts, which should be considered as set. Again this time we want to calculate down how much could then still left for the chip itsself. And this is where it gets interesting, because you can extrapolate voltage transformer losses, extra-low voltages and other losses quite well based on the last generations. Well, I explicitly asked about the memory, because I’m not a psychic. With 3.4 watts per module (according to my information), Micron is within the bounds of what could be expected anyway due to the increased clock. The storage expansion itself is rather secondary. That makes a total of only about 40 to 41 watts for 24 GB (12 modules), instead of the 60 watts on the GeForce RTX 3090.

The four voltage converters of the memory should have an efficiency of about 60 to 70% in this simple design, I plan here together with the involved components about 15 watts of losses for the whole circuit including the MOSFETs, coils and caps. This is not little, but also not unusual. For the low voltages with the usual 1.2 volts, 1.8 volts, 5 volts and the other things like the MCU, the shunts, the filtering of the rails, etc., I put about 10 watts, for the fans an average of 5 watts, although it was also rumored here that they would not be directly included in the limit.

If you extrapolate the power consumption and look at the traces, you can almost assume a doubling of the board losses, since more phases also mean more conductor traces. The GPU voltage converters (NVVDD), if they are very similar to those of the 3090 Ti, should show an efficiency of about 90%, which would bring us to about 50 watts. This is also about double what the RTX 3090 converted into heat, and it would then leave about 450 watts for the GPU.  In relation to this, the AD102 would only consume slightly less than twice the electrical power.

The following table once again shows the process of the calculation:

As I said, some things are certainly speculative, logically deduced or at least boring math, but I can also assure you that I am reluctant to go out on a limb when I publish such things. So none of this is witchcraft or a careless leak, but rather trivial thought and also inquiry. But it also works out much easier and better this time thanks to the GeForce RTX 3090 Ti. And some things I won’t write (yet) because it’s just not appropriate.

Therefore, I will leave it to the commentators and colleagues to roughly infer the actual computing power or graphics performance from this value. Since I don’t know or am not allowed to know, I’d better keep a low profile here. So you are welcome to puzzle and argue.

Kommentar

Lade neue Kommentare

O
Oberst

Veteran

337 Kommentare 131 Likes

Mal eine blöde Frage: Wie setzt sich das Power-Budget der 3090TI und der 3080TI zusammen? Haben die auch noch den "alten" GDDR6X, oder schon den sparsameren von Ada?
Mit dem Power Budget auf der GPU sollte das Ding am Ende grob 3x so schnell sein als eine 3090, denn grob doppelter Verbrauch, deutlich bessere Fertigung und dazu dann noch etwas weitere Optimierungen... Das Ding wird etwas monströs.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Monströs finde ich vor allem die Leistungsaufnahme des Chips, auch wenn die Peripherie abgezogen wird. Bei einer Stromdichte von >1 A/mm2 denke ich eher an Leistungsbauelemente als an Logikbausteine.

Antwort 1 Like

LurkingInShadows

Urgestein

1,348 Kommentare 551 Likes

Wasserkocher? Wäre da mein Tipp...

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Die 3090 Ti hat den neuen GDDR6X. Alles, was da mehr verbraten wird, geht zu Lasten der GPU und deren VRM. Minus Entlastung von Seiten des Speichers (ca. 27 Watt von Speicher und VRM). Die 3080 Ti ist sinnlos. Reines GPU-Heizkissen

Antwort 2 Likes

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

Es wäre zwar schön eine Verdreifachung zu erreichen, aber es wird wohl nicht einmal die kolportierte Verdoppelung werden.
Die konservativen Schätzungen bewegen sich eher bei um die 80 % bis 100 %.
Von einer auf die nächste Generation folgende GPU kann ich mich an keine Verdreifachung der Rechenleistung erinnern...
Vielleicht kann mich Igor da aber berichtigen?

Antwort Gefällt mir

P
Phelan

Veteran

191 Kommentare 172 Likes

Ein Siedewasserreaktor hat übrigends 1W/mm² (1MW pro m²)
AMD Athlon XP 1000mhz hatte das übrigens auch schon... wenn auch nur 75W auf einen 0,75cm² DIE.
Das waren die , welche sich dann gerne mal selber ausgelötet haben ;-) OK zu der Zeit waren weder die Lüfter noch die Anwender darauf vorbereitet.

Ein Wasserkocher oder Herdplatte liegen weit darunter. Sie hätten mit der Leistungsdichte über 10000W :)

@tropic

Das heist das die CPU selber faktisch die doppelte Leitungs verballern kann.
Da ist eine Leistungssteigerung auf das 2fache , rein lineares Skalieren.

Finde ich echt mau. Das sie jeden Vorteil des kleineren Prozesses in extrem OC verballern.
Das es anders geht zeigt Apples M1 Max mit ca. der selben Chipfläche.

Gut die 4090 wird eh nur ein Halo Produkt.

Antwort 1 Like

LurkingInShadows

Urgestein

1,348 Kommentare 551 Likes
v
vonXanten

Urgestein

803 Kommentare 335 Likes

450W in so einem kleinen Chip, nicht schlecht. Heatpipes nach oben an den Deckel des Gehäuses, darauf dann eine Schale mit Steinen und fertig ist der Ofen für den Aufguss ;):ROFLMAO:

Interessant wird wie stark die Grafikleistung steigt, wenn diese sich nur verdoppelt wäre es fast kein Fortschritt. Benötigt ja etwa die doppelte elektrische Leistung und alles andere als mindestens eine Verdoppelung wäre dann ein Rückschritt.

Antwort 3 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Interessant fände ich auch eine Einschätzung, wieviel vom Kartenpreis anteilig auf den eigentlichen Chip, das Geraffel und die Kühllösung entfallen.

Antwort Gefällt mir

G
Guest

Je mehr ich über die "neue Generation" an Graka´s lese, egal ob Nvidia oder AMD, desto weniger interessant wird das für mich. Kann mir echt nicht helfen, aber wenn es (Spiele-) Anwendungen geben sollte, die solche Monster auch nur entfernt voraus setzen, bin ich raus aus dem Wettrüsten.
Dann wird die 69er sicher die letzte Highend-Karte, die ich mir geleistet habe.
Ich verstehe da jetzt sicher nicht jede Einzelheit, von dem Igor da wieder geschrieben hat. Aber was ich verstehe, ist eben, dass da absolut unnötig Ressourcen verbraten werden. Dieses "tiefer, breiter, schneller" war nie so meins und die Vorgehensweise der genannten Protagonisten erinnert mich leider stark an genau das.

Antwort 3 Likes

LurkingInShadows

Urgestein

1,348 Kommentare 551 Likes

Na Ja, es ist halt nicht immer "tiefer,schneller,breiter".

Ich spiele seit Dez. 2011 World of Tanks, und zwar auf 2 PCs, je nachdem wo ich grad bin.

PC 1)
i7-860 (ja 3 Zahlen)
Radeon HD 5870 Vapor
8GB RAM

PC 2)
i7-4770k
Radeon HD 7970 GHz-Vapor
16 GB RAM

In dieser Zeit musste ich die Grafik beim ersten PC von max auf min runterdrehen, da immer mehr Bling-Bling und sonstiges eingeführt wurde, zB. Büsche die sich biegen wenn ein Panzer durchfährt, das ganze Laub muss dabei halt mitgezeichnet werden, ist aber mMn unnötig => Bling Bling
Anderes Feature: Schmutz am Panzer der sich im Gefecht beim Fahren immer stärker ansammelt, heißt beim Start ist der Panzer sauber, nach 10 Minuten reicht der Kärcher nicht mehr. Nötig? Ich weiß nicht.

Soll heißen: Es sind nicht immer nur neue Anwendungen die inflationär Leistung brauchen.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Das kann soviel nicht sein. Der Großteil wird sicher für Entwicklungskosten und die anderen laufenden Kosten draufgehen. Der VK orientiert sich doch seit langem, an dem, was der Markt hergibt. Das hat mit den Produktionskosten schon lange nichts mehr zu tun.

Meine 7990 hatte bei Release einen VK von 1299.00 Euro. Zum Schluss wurde sie für 389.00 Euro verscheppert. Und die hatte auch keiner vom fahrenden LKW geklaut. Das läst sich im Prinzip bei allen Produkten mit relativ kurzen Lebenszyklen beobachten.

Allerdings haben die Grafikkartenhersteller das in den letzten Jahren aus Ihrer Sicht extrem gut gemanagt. In den letzten Verkaufszyklen haben sie es geschafft, die Preise bis zum Schluss hoch zu halten. Das war bei der 2000 Serie ziemlich eindrucksvoll, weil die 3000 Serie ja günstiger als der Vorgänger angekündigt war. Dies wird diesmal aber anders sein. Preislich wird es wohl teuer bleiben. Unabhängig von den Produktionskosten.

LurkingInShadows

Wenn alle Spiele intelligent programmiert würden, käme ich mit meiner 3090 die nächsten 10 Jahre in 4 K zurecht.

Antwort 1 Like

Thy

Urgestein

1,843 Kommentare 744 Likes

Das fand ich kein großes Kunststück bei der hohen Nachfrage durch Miner.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Fand ich schon. Man hat die Preise der 2080ti hochgehalten, obwohl die 3080 zum Listenpreis schon angekündigt waren. Selbst als die ersten 3080 zum Listenpreis und leicht darüber im Markt waren, haben die Händler an dem Preis, der unter dem Aspekt überteuerten 2080ti, festgehalten. Verkauft wurden sie dann zu diesen Preisen, als die Preise für die 3000er Serie durch die Decke schossen. Vielleicht wussten sie mehr als andere?

Diesmal jedenfalls wird der UVP der 4000serie Imho über der 3000 liegen. Es wird also noch einfacher.

Antwort Gefällt mir

C
CKBVB

Mitglied

75 Kommentare 36 Likes

Dreimal so schnell? Wie kommst du denn auf diesen Wert?

Mit 18.342 Shadern hat man rund 75% mehr Shader, also bei gleichem Takt ca. 175% der Leistung einer 3090. Um die dreifache Performance liefern zu können, müsste man nun den Takt um 71% anheben, das halte ich selbst mit 600W für ausgeschlossen, auch mit 5nm. Man darf ja nicht vergessen, dass alleine rund 70% mehr Verbrauch schon auf die Anzahl der Shaderr entfallen würde (ohne Shrink), von 230W würden wir also sowieso auf 393W springen, also schon fast dem errechneten Wert von Igor.

Die einzige Unbekannte, bzw. weitestgehend Unbekannte ist die Steigerung der Effizienz von 8nm Samsung zu 5nm TSMC? Wunderdinge sollte man hier aber nicht erwarten, denn man wird beim Takt definitiv schon über dem Sweet Spot liegen und jede Erhöhung wird exponentiell den Verbrauch erhöhen. Ich spekuliere Mal und würde behaupten, dass man vielleicht 25% gewinnt durch die Umstellung der Fertigung und dadurch mögliche Takterhöhung, zusammen mit den 75% mehr Shadern, würde ich daher auf 220% - 230% der aktuellen Leistung tippen.
Ich halte das schon für positiv gerechnet, denn mehr Takt erhöht exponentiell den Verbrauch, 100Mhz mehr brauchen oft schon 30-40W, 200Mhz dann aber schon 120-160W.

@Igor Wallossek
Warum rechnest du denn bei den Spannungswandlern mit nur 70% Effizienz? Typisch sind doch eher Werte um die 85%+! Ich meine sogar 98% wären heute im DCDC Bereich möglich.

Antwort 1 Like

Klicke zum Ausklappem
O
Oberst

Veteran

337 Kommentare 131 Likes

Naja, ich dachte schon, dass NVidia auch eine Optimierung der Architektur durchführt, und nicht einfach die Ampere Shader fast verdoppelt und 1,5 Node Sprünge einbaut...Alleine technisch gesehen müsste man damit ja schon bei deutlich über Faktor 2 landen (fast doppelte Shader, deutlich bessere Fertigung). Den Rest würde dann bei mir eben eine optimierte Architektur bringen, die effektiver mit der Energie umgeht und für eine bessere Auslastung sorgt. Früher hat man über Architektur Verbesserungen auch mal eben 25% heraus geholt. Wenn man den Chip so massiv vergrößert und dann noch mal um die 25% bei der Architektur holen kann, ist man schnell bei grob Faktor 3 (was für mich auch z.B. Faktor 2,8 wäre).
Naja, es gab bisher ja auch noch keine GPU Generation, die im Vergleich zum Vorgänger fast das doppelte verbraucht hat.

Wie oben schon geschrieben, alleine bedingt durch die Fertigung und den deutlich größeren Chip müsste man mehr als doppelt so schnell sein. Wenn dann am Ende nur +80% - +100% raus kommt, wäre das noch enttäuschender als Ampere war.

Antwort Gefällt mir

G
Guest

@LurkingInShadows
Klar, spiele vorwiegend auch ältere Spiele, angefangen von der Fallout-Reihe seit Fallout 3, die Elder Scrolls Teile auch.

Aber wenn ich mir z.B. ein neueres Spiel rausnehme, wie Mafia 3, da verstehe ich nicht, weshalb bei der Grafik alle Graka´s außer der 69er damit Probleme hatten. Selbst die 5700XT war andauernd zu hören und das bei begrenzten 30 Frames.

Wie @Megaone schon schrieb, wenn es anständig programmiert wurde, sollte sowas nicht vorkommen. Aber gerade angesprochenes Spiel kam mindestens 6 Monate zu früh auf den Markt. Und so geht es ja mit allen Spielen, die kommen: man ist, wenn man zu den ersten gehört, immer zum Beta-Tester degradiert. Da ist nichts richtig fertig, massig Spiele, die einen "Day-One-Patch" benötigen. Da bin ich eh schon raus, wenn man ein Spiel wie CB2077 wie verrückt erst mal patchen muss (oder wie ich erst mal 8 Monate bis zur Installation wartet), damit die überhaupt stressfrei laufen.
Als Gegenbeispiel dann The Witcher 3, auch offene Welt, aber das lief auch auf einem FX 8370 und einer RX590 klasse. Sicher nur in FHD, aber trotzdem hatte ich auch da keine Probleme und vor allem: Spaß.

Bei den Bethesda-Spielen hab ich da auch keine Probleme, die kann ich bis zum umfallen modden, mit 4K-Texturen und allem, trotzdem klappt das alles ohne Düsenlaufwerk im Rechner.

Leider viel Murks in der Spielewelt und dann blos schnell auf den Markt mit dem Schrott. Vielleicht merkt´s ja keiner..... Und die Konsolen schneiden da wohl auch nicht viel besser ab, wenn ich mir die Berichte über z.B. Gran Turismo 7 für PS5 so durchlese. Gleich mal den Spieleserver am 2.ten Tag für 36 Stunden abgeschaltet. Blöd, wenn man den braucht, um (selbst Singleplayer) zu spielen.
Neue Technik ist halt nicht immer besser, auch wenn man uns den Stuss erzählen will ;)

Antwort 2 Likes

Klicke zum Ausklappem
S
Staarfury

Veteran

257 Kommentare 206 Likes

Was potentiell noch etwas bringen könnte (und sicher auch einen Teil des erhöhten Stromverbrauchs erklären würde) sind die massiv vergrösserten L2 Caches (von 6 auf 96) bei der 4000er Serie.

Der Infinity Cache hat bei RDNA2 ja auch (vor allem in tieferen Auflösungen) geholfen, das eher schwache Speicherinterface auszugleichen.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,039 Likes

Puh - eine Verdoppelung der Leistung... Wie sagt @Igor Wallossek im Artikel so schön: "ein neues Strategiespiel in Echtzeit mit RTX On". Wenn die Demo mit dem Echtzeit Path Tracing den Takt vorgibt, krepelt die dickste Karte bei 30 FPS in Full HD rum. Ich hätte mir ja gewünscht, dass die vorhandene Technologie erstmal sauber implementiert wird - vor allem, wenn die jetzt schon wieder die nächste Sau durchs Dorf treiben: Nvidia calls path tracing one of the "largest breakthroughs for real-time graphics in many years" - und dafür braucht man ganz sicher ne neue Grafikkarte 🥱
Hatten die nicht schon Physics, Hairworks, Raytracing & Co. so gelabelt?! Das sitz ich aus :cool:

Antwort 4 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung