Grafikkarten News VGA

Neue Details zur NVIDIA GeForce RTX 4090 und RTX 4080 – Speicherausbau, Pin-Layout, Spannungsversorgung und Kühlung

Über Ada (Lovelace) und die kommenden Grafikkarten mit dem AD102 und bis zu 600 Watt TBP würde schon das eine oder andere Detail geleakt, heute kommt mit der voraussichtlichen Referenzplatine, den geplanten Kühlern und dem RAM-Ausbau sicher noch ein interessantes Puzzleteil dazu. Aus eigenen chinesischen Quellen wurde mir unlängst unter anderem ein Bild zugespielt, auf dem man die nackte, unbestückte Platine mehr oder weniger gut erkennen kann. Das Schema des als Referenzplatine bezeichneten Designs wurde mittlerweile von zwei weiteren Quellen bestätigt.

Auch wenn das PCB (das ich aus Rücksicht auf NVIDIA nicht im Original zeigen werde) für den Laien auf den ersten Blick nicht viel hergibt, ist es doch eine wahre Fundgrube, wenn man es verstehen kann. Natürlich muss man all diese Dinge mit der nötigen Skepsis betrachten, aber es sieht auf alle Fälle wirklich plausibel aus. Zusätzlich habe ich auch noch Informationen darüber, wie man die kolportieren 600 Watt gedenkt wegzukühlen und die Bestätigung, dass meine ersten Mutmaßungen nicht falsch waren. Dazu gehört auch, dass ich die GeForce RTX 3090 Ti als Testlauf für Ada und den AD102 bezeichnet hatte. Und ja, ich habe recht behalten, doch dazu gleich mehr.

 

Selbst wenn manche Bereiche leider unscharf waren (auch gute Quellen sind leider mittlerweile sehr vorsichtig), lässt sich aus dem Größenverhältnis und den Abmessungen der Komponenten einer bekannten Referenzplatine der NVIDIA GeForce RTX 3090 doch eine recht genaue Rekonstruktion dessen ableiten, was NVIDIA den betreffenden Firmen eigentlich mitteilen wollte. Ich habe das Ganze noch einmal selbst nachgezeichnet (um auch keine NDAs zu brechen) und einigermaßen passend positioniert. Ich verweise jedoch noch einmal darauf, dass Änderungen seitens NVIDIA jederzeit möglich sind und nichts in Stein gemeißelt sein muss.

Immerhin bis zu 600 Watt TBP (also für die gesamte Platine) müssen verarbeitet und später fast komplett auch wieder als Abwärme entsorgt werden. Die Aufteilung der Verluste für die einzelnen Komponenten lässt sich recht einfach abschätzen, da lag ich ja auch bei Ampere nur wenige Watt daneben. Doch das wird ein anderer Artikel, weil ich noch einige Komponenten recherchieren muss.

Was wir jedoch auf den ersten Blick sehen, sind satte 24 Spannunsgwandler für die GPU! Da NVIDIA (auch das wurde mittlerweile geleakt) wieder auf einen uP9512 setzen wird, der lediglich 8 Phasen erzeugen kann (aber gut erhältlich ist), werden pro Phase höchstwahrscheinlich insgesamt drei Spannungswandler zusammen angesteuert. Die vier dunklen Rechtecke in der Nähe der Bohrlöcher für den Kühler sollten die VRM für die Speicher-Spannungswandler sein. Damit wären wir bei vier Phasen für den GDDR6X angelangt.

Was wir in diesem Zusammenhang auch sehen, sind maximal 12 Lötplätze für den GDDR6X (von Micron), die es aktuell als 1 und 2 GB Module gibt. Daraus kann man schlussfolgern, dass bei Vollbestückung 12 bzw. 24 GB (eher wahrscheinlich) möglich sind. Kleinere Versionen könnten dann wieder mit 8 bzw. 16 GB (wahrscheinlich) bestückt sein, was auch die Anzahl der Spannungswandler auf drei reduzieren dürfte.

Kommen wir nun wieder auf die RTX 3090 Ti zurück und das, was ich einen Testlauf genannt habe. Wie ich in Erfahrung bringen konnte, sollen der GA102 (Ampere) und der AD102 (Ada) Chip nämlich Pin-kompatibel sein. Das hieße im Umkehrschluss aber auch, dass man bereits jetzt bei allen Boardpartnern in der Lage sein dürfte, auch ohne den kommenden Chip an den neuen Platinen und den Kühlern zu arbeiten, indem man einfach ein offenes 600 Watt BIOS nutzt. Dann kann sowohl die neue Platine als auch die Kühlung vollumfänglich getestet werden.

Apropos Kühlung: einige Quellen berichten, dass NVIDIA für die Referenz bzw. FE auf einen Tripple-Slot-Luftkühler setzen wird, während fast alle Boardpartner auf ein 3,5-Slot Design setzen dürften. Damit wird auch die Gewichtsklasse über 2 Kilogramm mit Sicherheit eine Menge neuer Mitbewerber vorweisen können. Über AiO-Kompaktkühler und Karten mit echten Wasserblock ab Werk wird abenfalls laut nachgedacht, jedoch nicht als primäre Lösung. Und zur Beruhigung aller potentiellen Kunden mit älteren Netzteilen: ein 12+4 (12VHPWR) auf 4x 6+2 Pin (PCIe alt) liegt natürlich auch immer bei.

 

112 Antworten

Kommentar

Lade neue Kommentare

konkretor

Veteran

297 Kommentare 300 Likes

Sehr spannende mit Pin kompatibel, die Info war mir neu

Antwort 1 Like

s
samhayne

Veteran

101 Kommentare 59 Likes

3,5 Slots…… das bedeutet, von meinen 4 anderen PCIe Slots würden zwei verdeckt und die nächste Karte hätte einen halben Slot Abstand zu den Propellern.

Tolle Entwicklung, Nvidia.

Auf Wasserkühlung muss man Lust (und den Platz dafür) haben.

Dann wohl doch ‘ne 3090 (TI)…

Antwort Gefällt mir

Ghoster52

Urgestein

1,408 Kommentare 1,064 Likes

Was baut man den heute noch an Zusatzkarten ein ???
Ich habe ehrlich gesagt keine Zusatzkarte mehr, Zeiten ändern sich... (im Pentium II waren mal alle Steckplätze belegt)
USB, Sound, WiFi, BT, M.2 und anderer Schnickschnack ist bereits OnBoard.

Ich habe ehrlich gesagt bedenken bei Kühlung und Verbrauch. (n)
Waterblock & leistungsfähiges Solarmodul wären (für mich) das optimale/optionale Zubehör.

Antwort 3 Likes

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

AMD wird nicht besser ;)

Antwort 2 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Also irgendwo hört der Spaß einfach auf, mir ist ja eigentlich egal was so ein Ding verbraucht, aber die 600Watt im Büro nach 2-3h Total War lassen mich im Sommer dann dahin schmelzen bei 35Grad im Raum oder was?

So gerne ich auch Enthusiasten-Hardware verbaue, dass ist mir einfach too much.

Antwort 16 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Die 2 Spalten mit den je 12 Spannungswandlern sehen schon pervers aus und die Leistungsaufnahme ist es ja auch. Ich würde mir für die nächste Generation auch xx50-Chips wünschen, die mal wieder unter 100 W benötigen, so wie es bei Pascal und Turing noch möglich war.

Antwort 1 Like

c
cunhell

Urgestein

549 Kommentare 503 Likes

Die kriegen es jetzt schon kaum hin, die Karten vom pfeifen, rattern und singen abzuhalten. Ich will mir gar nicht vorstellen wie lustig
die Lieder sein werden, wenn 600W durch die Bauteile durch gejagd werden.

Cunhell

Antwort 9 Likes

Ghoster52

Urgestein

1,408 Kommentare 1,064 Likes

Ich hätte jetzt nicht gedacht das ich das mal bringen kann...
Mein zweites Hobby verbraucht nur ein viertel (150 Watt) und hat mit Sicherheit eine ähnliche Heizleistung. :ROFLMAO:

View image at the forums

Antwort 12 Likes

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Nice :D EL84 Gegentakt?

Mit "magischen Auge", cool :D

Antwort 4 Likes

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Die Frage ist halt auch, wo die Leistung hingeht. Ich steh ja voll auf Grafik, aber was soll denn noch passieren? 8K? 16K? Und auf welchem Display? Da bewegt sich leider sehr wenig. Obwohl der Invest in ein gutes Display jeder Karte hilft, aber 4K, (echtes) HDR, 4ms, >100 Hz muss man erst suchen und sich dann auch leisten können.

Mir wäre ein effizienterer Ausbau der aktuellen Leistung lieber. Aber gut, ich hab keinen Grund zu klagen.

Antwort 5 Likes

Ghoster52

Urgestein

1,408 Kommentare 1,064 Likes

Richtig erkannt... (y)
Das Teil liefert 2x 30 Watt (Ost) Sinus :ROFLMAO:

Hier noch was in "klein", der braucht "nur" 75 Watt und wird für Kopfhörer missbraucht.

View image at the forums

Antwort 8 Likes

Igor Wallossek

1

10,193 Kommentare 18,806 Likes
S
Staarfury

Veteran

257 Kommentare 206 Likes

Die wirst du sicher auch kriegen.
Bei der Generation 1 hoch, beim Modell 1-2 runter hat bis auf wenige Ausnahmen (bei AMD und Nvidia) noch jede Generation mehr FPS/Watt ergeben.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Seh ich genauso. Dadurch das ich nun auch im Zweitrechner die 3080ti installiert habe, ist erstmal Ruhe. Der Unterschied zwischen FHD-WQHD und 4 K fand ich mit wachsender Monitorgröße gigantisch. Aber mehr als 4 K brauch ich nicht.

Mal schauen was die 4090 kann und kostet. Zu dem Preis kommen ja immer noch die kosten der Wakükühlung dazu und mein Hauptrechner ist mit dem 720er Aquadukt kühltechnich und der 3090 am Anschlag. Die 3080ti ist noch Luftgekühlt. Hier würde ich auch ein komplett neues Setup benötigen da die CPU mit einen 360er Aquadukt gekühlt läuft.

Im Ernstfall (was für ein Wort in diesen Zeiten) kämen also locker nochmal 1200-1400 Extrakosten für Grakakühler und neue interen Systeme auf mich zu.

Schauen wir mal.

Unabhängig davon aber wieder ein Top-Artikel.

Danke erstmal dafür.

Antwort 1 Like

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Ich muss mir 4K dringend mal auf nem großen Display (TV) anschauen - aktuell läuft es auf 27" und da war das Upgrade von 2K zu 4K zwar sichtbar, aber das ganz große Kino ist es nicht.

Antwort 1 Like

Zer0Strat

Veteran

162 Kommentare 138 Likes

@Igor Wallossek Jetzt mal unter uns Pastorentöchtern und so, das PCB ausgelegt für 600W heißt das, das wird auch voll ausgeschöpft? Was ist mit Peaks und OC Reserven oder kleineren SKUs wie der RTX 4080?

Wie will Nvidia verhindern, dass SSDs und RAM in "normalen" Gehäusen bei 600W Wärmeverlust getoastet werden?

Ich bin da auch raus, sorry.

Antwort 4 Likes

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

Nvidea (AMD)?

Ich glaube,dass bleibt bei Dir (uns) hängen...
Ohne Wasser geht da wohl nichts mehr.
Außer Du beschneidest die Leistung so sehr,dass es eine 3090 auch getan hätte.

Ich setze wahrscheinlich eine Runde aus.
Das wird mir persönlich zu teuer werden.

Antwort 2 Likes

c
curiosity

Neuling

9 Kommentare 0 Likes

Haufenweise (Ab)Wärme und Spekulatius: Da kommt man ja fast in Weihnachtsstimmung 😅

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Ich hab immer 34 Zoll Monis, wie du auf dem Photo erkennst. Das war schon ein ordenlicher Sprung auf fast 4k.

Der Zweit PC hängt am 70 Zoll 4 K TV.

Da ist alles ausser 4K Mumpe. Ich würde aber hier nicht just for fun auf 8 K gehen. Es gibt keine Soft- und Hardware dafür.

4K 60 Hertz reichen mir. 100 Hertz sind toll und 144 Hertz super. Aber mehr Hertz oder einen höhere Auflöung sehe ich für mich nicht.

Bestenfalls überspringe ich einfach die 4000er serie. Alles ausser der 4090 ist bei meiner Ausstattung sowieso uninteressant. Ich werde bald 60 und weiss nicht, wie lange ich noch Lust hab jedes Jahr ein paar Tausend Euro in die Kisten zu ballern.

Vielleicht gibt es ja sowas wie ein Leben nach Corona und jenseits vom Homeoffice? Aus dem Grund war es mir die letzten Jahre egal.

Antwort 3 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung