GPUs Graphics Latest news

NVIDIA GeForce RTX 4090 – Where the misconception about 600 watts really comes from and why the cards are so huge

Yesterday we were allowed to publish the first own pictures of NVIDIA’s upcoming graphics card generation, but we still have to keep quiet about further details up to the performance until the set launch day. Some clarification (certainly also in the sense of NVIDIA) would be urgently necessary. Because the outcry about the huge, heavy cooling solutions after the first unboxing articles and videos was really enormous. All the nastiness about supposed power guzzlers, overtaxed power supplies and load peaks that are said to be higher than Mount Everest would be over long ago if the backgrounds were better communicated.

But where does the rumored high TBP of 600 watts come from and the associated necessity to adequately cool this huge amount of waste heat and to have to buy a new power supply? And why is it now suddenly only 450 watts, as is reported everywhere? The answer is simple, but unfortunately the reason has never been openly communicated. NVIDIA could certainly have saved itself a lot of gloating and ridicule in the process. I’ll have to go a bit further, because I’ve already written a few articles on the topic of power consumption and waste heat.

Four fists for an energetic hallelujah

The real reason for the originally set 600 watt default power limit is Samsung and the very inefficient, old 8 nm node, for which Ada was planned for its part. This is exactly the amount of energy that would have been required to achieve the increases in clock speed needed to boost performance. And because you have to plan graphics cards for the long term and of course get all the parties involved, such as the entire board partners (AIC), on board in advance, the entire key data is of course always the worst-case scenario including all the necessary reserves.

Where the 600 watts of the NVIDIA GeForce “RTX 4090” actually come from – an estimate of GPU and components

If NVIDIA had really had to manufacture the new generation at Samsung in the 8 nm process, this article would of course have been superfluous today. All designs and components were developed to match the 600 watts of power consumption, because the necessary lead time of a few months was needed. Well, and then TSMC came along. The switch from Samsung to TSMC’s much better 4 nm process is the absolute turning point here, including the (positive) consequences that no one could have foreseen.

According to my own sources in Taiwan, the yield of the chips produced is so high that not only the quantity of what can be effectively utilized was higher than expected, but also the quality of the chips. Thus, it was probably possible to reduce the power consumption considerably for the performance target (it is rumored to be around 33 percentage points) and is thus roughly on the level of the (still) current generation.

2.4 kg cooling monster

However, based on the Thermal Design Guide distributed to board partners and third-party vendors at the time, all cooling solutions were designed for the truly extremely high 600 watts. I also wrote in an older article that the GeForce RTX 3090 Ti was supposed to be the playground for the new graphics cards and that the pin-compatible GA102 had been bored to 600 watts in the test vehicles via suitable firmware in order to be able to evaluate the electrical and thermal problems meaningfully in advance.

If you ask the responsible developers at AIC today, they would certainly have liked to spare themselves the cooling stunt. Internal tests should also show that the existing cooling solutions for the GeForce RTX 3090 Ti would have been sufficient. However, what is ordered is always delivered, and so we will certainly see many cards whose TBP will once again slightly exceed the new 450 watts that have been rumored. Not because they have to, but because they simply can. There are enough reserves, even for overclocking and as a graphical replacement for the expensive gas heating. However, the voltage limits of the VDDC should be reached very quickly, which should make an increase to values above 500 watts superfluous.

Because the VF curves should also only last up to 450 watts, no matter with which limit a card is sold and the rest is then just pure heating. I can’t give more details here, because there are unfortunately also blocking periods and I only cover the reports of third parties.

 

In line with this leaked information from the accessories industry and AIC, it seems that they have lowered the power consumption of the upcoming GeForce RTX 4080 16 GB from the initial 420 watts to 340 and later even to 320 watts, and the card could still be faster than expected. So, as AIC, you ordered clothes in XXXL format, which ended up being much too big due to the sudden change of food supplier and the resulting weight loss. But there is a point of no return in industrial processes, so everything is just the way it is now.

As a potential buyer, this can also be seen positively, because it can be assumed that all coolers will work with above-average sovereignty and quietness. However, some board partners are said to complain internally that they would have liked to save the additional costs of more than 10 USD per cooler. If you extrapolate this to the units to be produced, the sums quickly become really huge.

However, the last monolithic jumbo jet’s surge towards efficiency could well claim other prominent victims than just bent motherboards with the corners of their mouths pulled down. The efficiency boost, which is certainly unexpected for some, could probably also throw AMD’s next generation into a bit of a tailspin, since it does not rely on TSMC’s latest node, but on a mixture of older processes for GCD and chiplets.

AMD Radeon RX 7900XT – Possible board and new findings

Exactly at this point, I’ll add a speculation that might also explain why NVIDIA turned the originally planned RTX 4070 into a neutered RTX 4080 12GB. After all, there is still a lot of space between both RTX 4080s and more fits in between, so it is only a thin sheet of paper. For example, a fat Navi-31 box. NVIDIA’s spy investigative department has very rarely been wrong in the last few years, and so a green sandwich would actually be more than just schadenfreude, but almost a provocation. I don’t presume to be able to really assess AMD’s next generation, but according to all available information, it should hardly be possible to create the targeted power consumption AND increase the performance as much as NVIDIA might have managed thanks to TSMC with the older nodes.

As I said, it is a purely speculative conjecture but not entirely without background. But I am still a little bit in awe of the process change, because besides such jumbos like the GeForce RTX 4090, one could certainly also fabricate highly efficient smaller artificial planes for the graphic middle class, which should also exist for a while as pure monoliths in a single-chip design. If NVIDIA deigns to prioritize the satisfaction of the performance-hungry pixel proletariat alongside the lighthouse projects. Autumn will be exciting, winter not quite so cold, and spring all the more interesting – depending on your wallet and willingness to finance. Which would probably not change anything seriously in the current color theory. But I always like to be positively surprised.

Addition and correction: When I asked my source again, Samsung’s current node was mentioned as the reference for the 600 watts, but not explicitly the old 8 nm process.

 

 

427 Antworten

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,871 Kommentare 864 Likes

Heute mal kein LIKE von mir, weil der Spekulatius vs Navi31 doch etwas dünne ist.

weil
die 4080-12 evtl. doch net so große Bäume ausreisst, wie Igor(Jensen) gerne hätte
(falls die Spekus zur Cut-Variante von Navi 31 stimmen, wirds da wohl keinen grünen Perf. Sieger in highMidrange@Raster geben)

Navi31-Core@5nm sollte net groß ineffizienter als 4N(5nm) sein.
(das die zusätzlichen Cache-Chips in 6nm kommen, wird vermutlich den Stromverbrauch auch net übermäßig explodieren lassen)

Wer soll überhaupt ne 4080-12GB für 1100€ kaufen wenns ne 20GB-Cut-Navi31 für 899€ geben wird?

Antwort 6 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Pöh... Kunstflieger. Ein Segelflugzeug wird gebraucht. Mit ohne Stromstecker, wie man so sagt^^.

Antwort Gefällt mir

Igor Wallossek

1

10,197 Kommentare 18,810 Likes

Sandwich, die 12GB wird drunter liegen, die 16 GB wohl drüber. Bilderrahmenprinzip.
Dass AMD die Preise dumpt, ist eine Urban Legend. Wir werden sehen :)

Die Folien sind auch sicher nicht mit den finalen Versionen gemacht worden :D

Antwort 6 Likes

RX480

Urgestein

1,871 Kommentare 864 Likes

Mit Sandwich kann ich gut leben.
Meine olle 6800nonXT fühlt sich pudelwohl zw. der 3070 und 3080.

Dito wird sich Navi 31 unCut oberhalb 4080-16 und Cut oberhalb 4080-12 gut machen.
Die dumb Balkenlängenjäger für >2k Teuronen mit der 4090 sollen Ihr Ding alleine machen.
(diese Leute würden eeh net AMD kaufen)

bzgl.
8k-gaming lass ich mich mal überraschen, ob 12GB reichen

Antwort 2 Likes

N
Name

Mitglied

75 Kommentare 14 Likes

Ich bin mir nicht sicher ob ich mich über die großen Kühler freuen oder ärgern soll.
Einerseits klingt es nach leisen Karten, anderseits sind die schon arg fett...
Freuen kann ich mich aber definitiv über die kleinere TBP.

Antwort 2 Likes

RX480

Urgestein

1,871 Kommentare 864 Likes

Schau Dir mal das Video vom 8auer an.
ne AorusMaster vs ne FE

BIG is beautiful!
(man sollte vllt. beim PC-Zusammenbau das Motherboard an die Graka hängen)

Antwort 7 Likes

ssj3rd

Veteran

218 Kommentare 155 Likes

Im Umkehrschluss heißt das ja eigentlich, dass später erscheinende Karten/Custom Modelle viel kleinere Kühler haben werden?

Das ist ja schon irgendwie erheiternd 😂

Für mich bleibt immer noch die spannendste Frage ob zb mein süßes Seasonic TX-700W Fanless Netzteil die 4090 packt?
Die 3090 hat hier seit 1,5 Jahren gar keine Probleme, bin gespannt.

Antwort 4 Likes

RX480

Urgestein

1,871 Kommentare 864 Likes

nur mit h2o-fullcover wirds KLEINER

ne luftgekühlte AORUS wird wohl bis 600(660)W freigegeben sein
und
ist anscheinend momentan the BIGGEST

Antwort Gefällt mir

ssj3rd

Veteran

218 Kommentare 155 Likes

Da widerspricht dir der Artikel hier doch sehr deutlich.
Eine 4090 die nach dem Release angekündigt/produziert wird (sagen wir mal Q2/2023) könnte doch durchaus mit einem (viel) kleineren Luftkühler präsentiert werden.

Was spricht da dagegen?

Antwort 1 Like

RX480

Urgestein

1,871 Kommentare 864 Likes

Schau einfach mal die Unboxing Reviews an:

auch die Strix ist größer als die FE

Antwort 1 Like

N
Name

Mitglied

75 Kommentare 14 Likes

Irgendwann bauen wir CPU, Motherboard, RAM und co in die Grafikkarte ein. Da entscheidet die Graka gleich noch das Gehäuse.

Antwort 1 Like

P
Pokerclock

Veteran

430 Kommentare 368 Likes

So wie ich Gigabyte in den letzten Jahren kennengelernt habe, dürfte die Lüfterkurve immer noch Lautstärke des Todes haben und es trotzdem nicht schaffen den GDDR6X unter 100°C zu halten.

Oder anders ausgedrückt, mehr Schein als Sein.

Und bei Asus, würde ich mal drauf tippen, dass die Dauer der Gewährleistung voll ausgenutzt wird. Danach wirds kritisch...

Antwort 1 Like

ssj3rd

Veteran

218 Kommentare 155 Likes

Irgendwie reden wir einander vorbei oder du willst meine Aussagen erst gar nicht verstehen, ich geb’s auf 😏

Du redest ja immer noch von jetzigen Karten und ich von zukünftigen irgendwann in 2023….

Antwort 2 Likes

RX480

Urgestein

1,871 Kommentare 864 Likes

btw.
In schmalen Gehäusen könnte es mit der FE außerdem knapp werden, wenn die Stromanschlüsse mit der Glasscheibe kollidieren.
Dann kann man gleich den Airflow verbessern und die Glasscheibe demontieren.

Alternativ wäre es mal interessant, wie dann Riser mit der höheren Belastung klar kommen.
ne RTX 4000 wird sicher etwas mehr Traffic haben

Antwort Gefällt mir

G
Guest

Der Hype wird immer größer! Wobei ich eigentlich diese Gen aussetzen wollte :/ Was NVIDIA hier abliefert ist echt beeindruckend und man sieht wieder in diesem Artikel das NVIDIA mehr Shitstorm abbekommt als überhaupt angebracht ist. Da muss ich direkt wieder an INTEL/AMD denken. Alle sind der Meinung das Ryzen Intel zerstören würde und sie keine Chance hätten da Intel so teuer ist und ineffizient. Was ist jetzt? AMD ist doch mittlerweile teurer und wirklich schneller sind sie nur in Multicore Anwendungen. Darüber redet komischerweise keiner... Ich glaube einfach ich muss anfangen keine Kommentare mehr zu lesen und sämtliche Umfragen zu ignorieren sonst reg ich mir nur auf.

Danke Igor für den Artikel!

Antwort 3 Likes

RawMangoJuli

Veteran

253 Kommentare 146 Likes

Das würde ja dann heißen, dass Navi31 kaum schneller ist als Navi21.

Das macht keinen Sinn. Es sei denn der Chipletansatz is komplett in die Hose gegengen.

Antwort 1 Like

h
hotmob

Mitglied

23 Kommentare 6 Likes

1.) ich verstehe, warum Igor sketpisch ist, dass AMD N5-Kerten gegen den AD102 ankommen werden. Aber: N3x ist N5. Dass die MCDs N6 sind spielt einfach keine Rolle. Wenn AMD wieder N5P nutzt als Grundlage wäre der genauso leistungseffizient wie N4, nur die Packdichte ist ein bisschen höher, was in der Praxis genau 0 Einfluss haben dürfte.
2.) 8LPP kann nicht sein. Wenn dann 6LPP (+/-), in 8LPP wäre ein AD102 sicherlich >900mm². Ich bezweifle, dass man solche Chips hätte sinnvoll produzieren kann.
3.) sollte tatsächlich AD102 bis 104 in 8LPP geplant gewesen sein, gibt es keine kleinen Chips, dann ist vollkommen klar, dass diese 3 Chips als reine Ergänzung des Portfolios dienen sollten und GA102 aus dem Programm nehmen sollte, die kleineren jedoch wären geblieben. Jetzt ändert sich die Sache etwas und ich könnte mir gut vorstellen, dass wir demnächst Tapeout-Meldungen von AD106 und 107 erhalten werden, die dann in N6 (nicht den teuren und kapazitätsbeschränkten N4) gefertigt werden dürften.

Ich bin aber sehr skeptisch, dass die ganze Story stimmt, denn der Prozess ist eines der ersten Sachen, die beim Design festgelegt werden. Sicher, dass diese ganze "Information" nicht in Wirklichkeit irgendein BS ist?

Antwort 3 Likes

Klicke zum Ausklappem
RX480

Urgestein

1,871 Kommentare 864 Likes

außenliegende L3 sind kein Problem

theoretisch wird 7900>>6950 sein
oder
man machts an den Watt fest, wo AMD 50% mooore Fps/W verspricht, ... nur das die W noch net feststehen, weil AMD so große Angst vor
Igors Spekus hat, ... wie immer (manchmal frag ich mich, warum Igor´s Vorab-Spekus bzgl. AMD immer unter den Realitäten liegen)

Antwort 2 Likes

F
Falcon

Veteran

114 Kommentare 117 Likes

Auch wenns für die Boardpartner dadurch teurer wurde, finde ich es gut.

Klar sind das Riesentrümmer, aber wenn ich dadurch ne schön leise Karte bekomme nehme ich das gern mit.

Antwort 3 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung