Grafikkarten News VGA

NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Gestern durften wir zwar die ersten eigenen Bilder von NVIDIAs kommender Grafikkarten-Generation veröffentlichen, müssen jedoch bis zum festgelegten Launchtag noch über weitere Details bis hin zur Performance schweigen. Dabei wäre etwas Aufklärung (sicher auch im Sinne NVIDIAs) dringend nötig. Denn der Aufschrei über die riesigen, schweren Kühllösungen nach den ersten Unboxing-Artikeln und -Videos war wirklich enorm. Das ganze Ausschütten von Gehässigkeiten über vermeintliche Stromfresser, überforderte Netzteile und Lastspitzen, die höher als der Mount Everest sein sollen, wäre schon längst erledigt, würde man die Hintergründe besser kommunizieren.

Doch woher kommen die kolportierte hohe TBP von 600 Watt und die damit einhergehende Notwendigkeit, diese Unmenge an Abwärme auch adäquat kühlen und sich noch ein neues Netzteil kaufen zu müssen? Und warum sind es jetzt plötzlich doch nur noch 450 Watt, wie überall berichtet wird? Die Antwort ist zwar simpel, aber der Grund ist leider nie offen kommuniziert worden. Dabei hätte sich NVIDIA sicher viel Häme und Spott ersparen können. Dazu muss ich einmal etwas weiter ausholen, denn auch ich hatte ja bereits einige Artikel zum Thema Leistungsaufnahme und Abwärme geschrieben.

Vier Fäuste für ein energetisches Halleluja

Der eigentliche Grund für die ursprünglich angesetzten 600 Watt Default Power Limit liegen hier bei Samsung und dem sehr ineffizienten, alten 8-nm-Node, für den Ada seinerseits geplant wurde. Um die für die Steigerung der Performance notwenigen Takterhöhungen überhaupt realisieren zu können, wäre genau diese Menge an Energie notwendig gewesen. Und weil man Grafikkarten langfristig planen muss und sich natürlich dann auch im Vorfeld alle Beteiligten wie z.B. die ganzen Boardpartner (AIC) mit ins Boot holt, sind die ganzen Eckdaten natürlich immer das Worst-Case-Scenario einschließlich aller nötigen Reserven.

Wo die 600 Watt der NVIDIA GeForce „RTX 4090“ eigentlich herkommen – eine Schätzung von GPU und Komponenten

Hätte NVIDIA die neue Generation wirklich bei Samsung im 8-nm-Prozess fertigen müssen, dann wäre dieser Artikel heute natürlich überflüssig gewesen. Denn passend zu den kolportierten 600 Watt Leistungsaufnahme wurden damals auch alle Designs und Komponenten entwickelt, weil man dafür nun einmal den nötigen Vorlauf von einigen Monaten braucht. Tja, und dann kam TSMC. Der Wechsel von Samsung auf TSMCs deutlich besseren 4-nm-Prozess ist hier der absolute Wendepunkt einschließlich der (positiven) Folgen, die so keiner voraussehen konnte.

Laut meinen eigenen Quellen in Taiwan ist die Yield der produzierten Chips dermaßen hoch, dass nicht nur die Menge dessen, was man effektiv verwerten kann, höher ausfiel als erwartet, sondern auch die Qualität der Chips. Damit war man wohl auch in der Lage, die Leistungsaufnahme für das angestrebte Performance-Ziel deutlich senken (man kolportiert hier um die 33 Prozentpunkte) und liegt somit ungefähr auf dem Niveau der (noch) aktuellen Generation.

2.4 kg Kühlmonster

Basierend auf dem seinerzeit an die Boardpartner und Drittanbieter verteilten Thermal Design Guide wurden jedoch alle Kühllösungen auf die wirklich extrem hohen 600 Watt ausgelegt. Ich schrieb ja auch in einem älteren Artikel, dass die GeForce RTX 3090 Ti die Spielwiese für die neuen Grafikkarten sein sollte und man den Pin-kompatiblen GA102 mittels passender Firmware auf 600 Watt in den Test Vehicles aufgebohrt hatte, um die elektrischen und thermischen Probleme im Vorfeld sinnvoll evaluieren zu können.

Wenn man heute die verantwortlichen Entwickler bei den AIC fragt, dann  hätten diese sich den kühltechnischen Stunt sicher gern erspart. Man hätte, das sollen wohl auch interne Tests zeigen, auch mit den bereits existierenden Kühllösungen für die GeForce RTX 3090 Ti locker hinkommen können. Doch es wird stets geliefert, was bestellt wurde und so werden wir mit Sicherheit auch viele Karten sehen, deren TBP die kolportierten neuen 450 Watt noch einmal etwas überschreiten werden. Nicht, weil sie es müssten, sondern weil sie es einfach können. Reserven sind ja genügend vorhanden, auch zum Übertakten und als grafischer Ersatz für die teure Gasheizung. Wobei man hier sehr schnell an die Spannungslimits bei der VDDC stoßen dürfte, was eine Erhöhung auf Werte über 500 Watt eigentlich überflüssig machen dürfte.

Denn die VF-Curves sollen ja auch nur bis 450 Watt reichen, egal mit welchem Limit eine Karte verkauft wird und der Rest ist dann nur Heizung pur. Mehr Details kann ich hier nicht nennen, denn es gibt leider auch Sperrfristen und ich berichte ja nur über die Meldungen Dritter.

 

Zu diesen durchgestochenen Informationen aus der Zubehörindustrie und den AIC passt auch, dass man wohl die Leistungsaufnahme der kommenden GeForce RTX 4080 16 GB von den anfänglichen 420 Watt auf 340 und später sogar noch auf 320 Watt abgesenkt haben soll und die Karte trotzdem schneller als erwartet sein könnte. Man hat sich als AIC also Kleider im XXXL-Format bestellt, die durch den plötzlichen Wechsel des Nahrungslieferanten und dem damit einhergehenden Gewichtsverlust am Ende dann viel zu groß ausfielen. Doch es gibt in industriellen Prozessen nun einmal einen Point of no Return, so dass jetzt eben alles so ist, wie es ist.

Das kann man als potentieller Käufer auch positiv sehen, denn es ist davon auszugehen, dass alle Kühler überdurchschnittlich souverän und leise arbeiten werden. Allerdings sollen wohl einige Boardpartner intern jammern, dass man sich die kolportieren Mehrkosten von stellenweise deutlich mehr als 10 USD pro Kühler gern gespart hätte. Rechnet man das nämlich auf die zu produzierenden Einheiten hoch, kommen da ganz schnell wirklich riesige Summen zustande.

Doch das Aufbäumen des letzten monolithischen Jumbo-Jets in Richtung Effizienz könnte durchaus auch andere prominente Opfer fordern als nur verbogene Motherboards mit heruntergezogenen Mundwinkeln. Der für einige sicher unerwartete Effizienzschub könnte wohl auch AMDs nächste Generation ein wenig ins Schleudern bringen, denn diese setzt nicht auf TSMCs neuesten Node, sondern auf eine Mischung aus älteren Prozessen für GCD und Chiplets.

AMD Radeon RX 7900XT – Mögliche Platine und neue Erkenntnisse

Genau an dieser Stelle kommt nun noch ein Spekulatius von mir, der vielleicht auch erklärt, warum NVIDIA aus der ursprünglich wohl so geplanten RTX 4070 eine kastrierte RTX 4080 12GB macht. Zwischen beiden RTX 4080 ist nämlich noch sehr viel Platz und es passt mehr dazwischen, also nur ein dünnes Blatt Papier. Zum Beispiel ein fetter Navi-31-Karton. NVIDIAs Spionage Investigativ-Abteilung lag in den letzten Jahren nämlich sehr selten falsch und so wäre ein grünes Sandwich eigentlich mehr als nur Schadenfreude, sondern fast schon eine Provokation. Ich maße mir nicht an, AMDs nächste Generation wirklich einschätzen zu können, aber nach allen vorliegenden  Informationen dürfte es mit den älteren Nodes kaum möglich sein, die angestrebte Leistungsaufnahme zu schaffen UND die Performance so zu steigern, wie es NVIDIA dank TSMC vielleicht geschafft haben könnte.

Wie gesagt, es ist eine rein spekulative Mutmaßung aber nicht ganz ohne Hintergrund. Aber ein klein wenig Ehrfurcht habe ich vor dem Prozesswechsel dann noch, denn man könnte neben solchen Jumbos wie der GeForce RTX 4090 sicher auch hocheffiziente kleinere Kunstflieger für die grafische Mittelklasse fabrizieren, die auch als reine Monolithen im Ein-Chip-Design noch eine Weile existieren dürften. Falls sich NVIDIA herablässt, neben den Leuchtturmprojekten auch die Befriedigung des Performance-geilen Pixel-Proletariats zu priorisieren. Der Herbst wird spannend, der Winter nicht ganz so kalt und das Frühjahr erst recht interessant – je nach Geldbeutel und Finanzierungswillen. Womit sich wohl auch der aktuellen Farblehre noch nichts gravierend ändern würde. Aber ich lasse mich immer gern positiv überraschen.

Ergänzung und Korrektur: Auf nochmalige Nachfrage bei meiner Quelle wurde mir Samsungs aktueller Node als Bezug für die 600 Watt genannt, nicht aber explizit der alte 8-nm Prozess.

 

427 Antworten

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,885 Kommentare 874 Likes

Heute mal kein LIKE von mir, weil der Spekulatius vs Navi31 doch etwas dünne ist.

weil
die 4080-12 evtl. doch net so große Bäume ausreisst, wie Igor(Jensen) gerne hätte
(falls die Spekus zur Cut-Variante von Navi 31 stimmen, wirds da wohl keinen grünen Perf. Sieger in highMidrange@Raster geben)

Navi31-Core@5nm sollte net groß ineffizienter als 4N(5nm) sein.
(das die zusätzlichen Cache-Chips in 6nm kommen, wird vermutlich den Stromverbrauch auch net übermäßig explodieren lassen)

Wer soll überhaupt ne 4080-12GB für 1100€ kaufen wenns ne 20GB-Cut-Navi31 für 899€ geben wird?

Antwort 6 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Pöh... Kunstflieger. Ein Segelflugzeug wird gebraucht. Mit ohne Stromstecker, wie man so sagt^^.

Antwort Gefällt mir

Igor Wallossek

1

10,401 Kommentare 19,369 Likes

Sandwich, die 12GB wird drunter liegen, die 16 GB wohl drüber. Bilderrahmenprinzip.
Dass AMD die Preise dumpt, ist eine Urban Legend. Wir werden sehen :)

Die Folien sind auch sicher nicht mit den finalen Versionen gemacht worden :D

Antwort 6 Likes

RX480

Urgestein

1,885 Kommentare 874 Likes

Mit Sandwich kann ich gut leben.
Meine olle 6800nonXT fühlt sich pudelwohl zw. der 3070 und 3080.

Dito wird sich Navi 31 unCut oberhalb 4080-16 und Cut oberhalb 4080-12 gut machen.
Die dumb Balkenlängenjäger für >2k Teuronen mit der 4090 sollen Ihr Ding alleine machen.
(diese Leute würden eeh net AMD kaufen)

bzgl.
8k-gaming lass ich mich mal überraschen, ob 12GB reichen

Antwort 2 Likes

N
Name

Mitglied

75 Kommentare 14 Likes

Ich bin mir nicht sicher ob ich mich über die großen Kühler freuen oder ärgern soll.
Einerseits klingt es nach leisen Karten, anderseits sind die schon arg fett...
Freuen kann ich mich aber definitiv über die kleinere TBP.

Antwort 2 Likes

RX480

Urgestein

1,885 Kommentare 874 Likes

Schau Dir mal das Video vom 8auer an.
ne AorusMaster vs ne FE

BIG is beautiful!
(man sollte vllt. beim PC-Zusammenbau das Motherboard an die Graka hängen)

Antwort 7 Likes

ssj3rd

Veteran

225 Kommentare 156 Likes

Im Umkehrschluss heißt das ja eigentlich, dass später erscheinende Karten/Custom Modelle viel kleinere Kühler haben werden?

Das ist ja schon irgendwie erheiternd 😂

Für mich bleibt immer noch die spannendste Frage ob zb mein süßes Seasonic TX-700W Fanless Netzteil die 4090 packt?
Die 3090 hat hier seit 1,5 Jahren gar keine Probleme, bin gespannt.

Antwort 4 Likes

RX480

Urgestein

1,885 Kommentare 874 Likes

nur mit h2o-fullcover wirds KLEINER

ne luftgekühlte AORUS wird wohl bis 600(660)W freigegeben sein
und
ist anscheinend momentan the BIGGEST

Antwort Gefällt mir

ssj3rd

Veteran

225 Kommentare 156 Likes

Da widerspricht dir der Artikel hier doch sehr deutlich.
Eine 4090 die nach dem Release angekündigt/produziert wird (sagen wir mal Q2/2023) könnte doch durchaus mit einem (viel) kleineren Luftkühler präsentiert werden.

Was spricht da dagegen?

Antwort 1 Like

RX480

Urgestein

1,885 Kommentare 874 Likes

Schau einfach mal die Unboxing Reviews an:

auch die Strix ist größer als die FE

Antwort 1 Like

N
Name

Mitglied

75 Kommentare 14 Likes

Irgendwann bauen wir CPU, Motherboard, RAM und co in die Grafikkarte ein. Da entscheidet die Graka gleich noch das Gehäuse.

Antwort 1 Like

P
Pokerclock

Veteran

477 Kommentare 410 Likes

So wie ich Gigabyte in den letzten Jahren kennengelernt habe, dürfte die Lüfterkurve immer noch Lautstärke des Todes haben und es trotzdem nicht schaffen den GDDR6X unter 100°C zu halten.

Oder anders ausgedrückt, mehr Schein als Sein.

Und bei Asus, würde ich mal drauf tippen, dass die Dauer der Gewährleistung voll ausgenutzt wird. Danach wirds kritisch...

Antwort 1 Like

ssj3rd

Veteran

225 Kommentare 156 Likes

Irgendwie reden wir einander vorbei oder du willst meine Aussagen erst gar nicht verstehen, ich geb’s auf 😏

Du redest ja immer noch von jetzigen Karten und ich von zukünftigen irgendwann in 2023….

Antwort 2 Likes

RX480

Urgestein

1,885 Kommentare 874 Likes

btw.
In schmalen Gehäusen könnte es mit der FE außerdem knapp werden, wenn die Stromanschlüsse mit der Glasscheibe kollidieren.
Dann kann man gleich den Airflow verbessern und die Glasscheibe demontieren.

Alternativ wäre es mal interessant, wie dann Riser mit der höheren Belastung klar kommen.
ne RTX 4000 wird sicher etwas mehr Traffic haben

Antwort Gefällt mir

G
Guest

Der Hype wird immer größer! Wobei ich eigentlich diese Gen aussetzen wollte :/ Was NVIDIA hier abliefert ist echt beeindruckend und man sieht wieder in diesem Artikel das NVIDIA mehr Shitstorm abbekommt als überhaupt angebracht ist. Da muss ich direkt wieder an INTEL/AMD denken. Alle sind der Meinung das Ryzen Intel zerstören würde und sie keine Chance hätten da Intel so teuer ist und ineffizient. Was ist jetzt? AMD ist doch mittlerweile teurer und wirklich schneller sind sie nur in Multicore Anwendungen. Darüber redet komischerweise keiner... Ich glaube einfach ich muss anfangen keine Kommentare mehr zu lesen und sämtliche Umfragen zu ignorieren sonst reg ich mir nur auf.

Danke Igor für den Artikel!

Antwort 3 Likes

RawMangoJuli

Veteran

254 Kommentare 146 Likes

Das würde ja dann heißen, dass Navi31 kaum schneller ist als Navi21.

Das macht keinen Sinn. Es sei denn der Chipletansatz is komplett in die Hose gegengen.

Antwort 1 Like

h
hotmob

Mitglied

23 Kommentare 6 Likes

1.) ich verstehe, warum Igor sketpisch ist, dass AMD N5-Kerten gegen den AD102 ankommen werden. Aber: N3x ist N5. Dass die MCDs N6 sind spielt einfach keine Rolle. Wenn AMD wieder N5P nutzt als Grundlage wäre der genauso leistungseffizient wie N4, nur die Packdichte ist ein bisschen höher, was in der Praxis genau 0 Einfluss haben dürfte.
2.) 8LPP kann nicht sein. Wenn dann 6LPP (+/-), in 8LPP wäre ein AD102 sicherlich >900mm². Ich bezweifle, dass man solche Chips hätte sinnvoll produzieren kann.
3.) sollte tatsächlich AD102 bis 104 in 8LPP geplant gewesen sein, gibt es keine kleinen Chips, dann ist vollkommen klar, dass diese 3 Chips als reine Ergänzung des Portfolios dienen sollten und GA102 aus dem Programm nehmen sollte, die kleineren jedoch wären geblieben. Jetzt ändert sich die Sache etwas und ich könnte mir gut vorstellen, dass wir demnächst Tapeout-Meldungen von AD106 und 107 erhalten werden, die dann in N6 (nicht den teuren und kapazitätsbeschränkten N4) gefertigt werden dürften.

Ich bin aber sehr skeptisch, dass die ganze Story stimmt, denn der Prozess ist eines der ersten Sachen, die beim Design festgelegt werden. Sicher, dass diese ganze "Information" nicht in Wirklichkeit irgendein BS ist?

Antwort 3 Likes

Klicke zum Ausklappem
RX480

Urgestein

1,885 Kommentare 874 Likes

außenliegende L3 sind kein Problem

theoretisch wird 7900>>6950 sein
oder
man machts an den Watt fest, wo AMD 50% mooore Fps/W verspricht, ... nur das die W noch net feststehen, weil AMD so große Angst vor
Igors Spekus hat, ... wie immer (manchmal frag ich mich, warum Igor´s Vorab-Spekus bzgl. AMD immer unter den Realitäten liegen)

Antwort 2 Likes

F
Falcon

Veteran

115 Kommentare 118 Likes

Auch wenns für die Boardpartner dadurch teurer wurde, finde ich es gut.

Klar sind das Riesentrümmer, aber wenn ich dadurch ne schön leise Karte bekomme nehme ich das gern mit.

Antwort 3 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung