Grafikkarten News VGA

Neue Details zur NVIDIA GeForce RTX 4090 und RTX 4080 – Speicherausbau, Pin-Layout, Spannungsversorgung und Kühlung

Über Ada (Lovelace) und die kommenden Grafikkarten mit dem AD102 und bis zu 600 Watt TBP würde schon das eine oder andere Detail geleakt, heute kommt mit der voraussichtlichen Referenzplatine, den geplanten Kühlern und dem RAM-Ausbau sicher noch ein interessantes Puzzleteil dazu. Aus eigenen chinesischen Quellen wurde mir unlängst unter anderem ein Bild zugespielt, auf dem man die nackte, unbestückte Platine mehr oder weniger gut erkennen kann. Das Schema des als Referenzplatine bezeichneten Designs wurde mittlerweile von zwei weiteren Quellen bestätigt.

Auch wenn das PCB (das ich aus Rücksicht auf NVIDIA nicht im Original zeigen werde) für den Laien auf den ersten Blick nicht viel hergibt, ist es doch eine wahre Fundgrube, wenn man es verstehen kann. Natürlich muss man all diese Dinge mit der nötigen Skepsis betrachten, aber es sieht auf alle Fälle wirklich plausibel aus. Zusätzlich habe ich auch noch Informationen darüber, wie man die kolportieren 600 Watt gedenkt wegzukühlen und die Bestätigung, dass meine ersten Mutmaßungen nicht falsch waren. Dazu gehört auch, dass ich die GeForce RTX 3090 Ti als Testlauf für Ada und den AD102 bezeichnet hatte. Und ja, ich habe recht behalten, doch dazu gleich mehr.

 

Selbst wenn manche Bereiche leider unscharf waren (auch gute Quellen sind leider mittlerweile sehr vorsichtig), lässt sich aus dem Größenverhältnis und den Abmessungen der Komponenten einer bekannten Referenzplatine der NVIDIA GeForce RTX 3090 doch eine recht genaue Rekonstruktion dessen ableiten, was NVIDIA den betreffenden Firmen eigentlich mitteilen wollte. Ich habe das Ganze noch einmal selbst nachgezeichnet (um auch keine NDAs zu brechen) und einigermaßen passend positioniert. Ich verweise jedoch noch einmal darauf, dass Änderungen seitens NVIDIA jederzeit möglich sind und nichts in Stein gemeißelt sein muss.

Immerhin bis zu 600 Watt TBP (also für die gesamte Platine) müssen verarbeitet und später fast komplett auch wieder als Abwärme entsorgt werden. Die Aufteilung der Verluste für die einzelnen Komponenten lässt sich recht einfach abschätzen, da lag ich ja auch bei Ampere nur wenige Watt daneben. Doch das wird ein anderer Artikel, weil ich noch einige Komponenten recherchieren muss.

Was wir jedoch auf den ersten Blick sehen, sind satte 24 Spannunsgwandler für die GPU! Da NVIDIA (auch das wurde mittlerweile geleakt) wieder auf einen uP9512 setzen wird, der lediglich 8 Phasen erzeugen kann (aber gut erhältlich ist), werden pro Phase höchstwahrscheinlich insgesamt drei Spannungswandler zusammen angesteuert. Die vier dunklen Rechtecke in der Nähe der Bohrlöcher für den Kühler sollten die VRM für die Speicher-Spannungswandler sein. Damit wären wir bei vier Phasen für den GDDR6X angelangt.

Was wir in diesem Zusammenhang auch sehen, sind maximal 12 Lötplätze für den GDDR6X (von Micron), die es aktuell als 1 und 2 GB Module gibt. Daraus kann man schlussfolgern, dass bei Vollbestückung 12 bzw. 24 GB (eher wahrscheinlich) möglich sind. Kleinere Versionen könnten dann wieder mit 8 bzw. 16 GB (wahrscheinlich) bestückt sein, was auch die Anzahl der Spannungswandler auf drei reduzieren dürfte.

Kommen wir nun wieder auf die RTX 3090 Ti zurück und das, was ich einen Testlauf genannt habe. Wie ich in Erfahrung bringen konnte, sollen der GA102 (Ampere) und der AD102 (Ada) Chip nämlich Pin-kompatibel sein. Das hieße im Umkehrschluss aber auch, dass man bereits jetzt bei allen Boardpartnern in der Lage sein dürfte, auch ohne den kommenden Chip an den neuen Platinen und den Kühlern zu arbeiten, indem man einfach ein offenes 600 Watt BIOS nutzt. Dann kann sowohl die neue Platine als auch die Kühlung vollumfänglich getestet werden.

Apropos Kühlung: einige Quellen berichten, dass NVIDIA für die Referenz bzw. FE auf einen Tripple-Slot-Luftkühler setzen wird, während fast alle Boardpartner auf ein 3,5-Slot Design setzen dürften. Damit wird auch die Gewichtsklasse über 2 Kilogramm mit Sicherheit eine Menge neuer Mitbewerber vorweisen können. Über AiO-Kompaktkühler und Karten mit echten Wasserblock ab Werk wird abenfalls laut nachgedacht, jedoch nicht als primäre Lösung. Und zur Beruhigung aller potentiellen Kunden mit älteren Netzteilen: ein 12+4 (12VHPWR) auf 4x 6+2 Pin (PCIe alt) liegt natürlich auch immer bei.

 

112 Antworten

Lade neue Kommentare

konkretor

Veteran

190 Kommentare 155 Likes

Sehr spannende mit Pin kompatibel, die Info war mir neu

Antwort 1 Like

s
samhayne

Mitglied

54 Kommentare 20 Likes

3,5 Slots…… das bedeutet, von meinen 4 anderen PCIe Slots würden zwei verdeckt und die nächste Karte hätte einen halben Slot Abstand zu den Propellern.

Tolle Entwicklung, Nvidia.

Auf Wasserkühlung muss man Lust (und den Platz dafür) haben.

Dann wohl doch ‘ne 3090 (TI)…

Antwort Gefällt mir

Ghoster52

Veteran

397 Kommentare 227 Likes

Was baut man den heute noch an Zusatzkarten ein ???
Ich habe ehrlich gesagt keine Zusatzkarte mehr, Zeiten ändern sich... (im Pentium II waren mal alle Steckplätze belegt)
USB, Sound, WiFi, BT, M.2 und anderer Schnickschnack ist bereits OnBoard.

Ich habe ehrlich gesagt bedenken bei Kühlung und Verbrauch. (n)
Waterblock & leistungsfähiges Solarmodul wären (für mich) das optimale/optionale Zubehör.

Antwort 3 Likes

Igor Wallossek

Format©

6,674 Kommentare 10,873 Likes

AMD wird nicht besser ;)

Antwort 2 Likes

Gurdi

Urgestein

1,216 Kommentare 720 Likes

Also irgendwo hört der Spaß einfach auf, mir ist ja eigentlich egal was so ein Ding verbraucht, aber die 600Watt im Büro nach 2-3h Total War lassen mich im Sommer dann dahin schmelzen bei 35Grad im Raum oder was?

So gerne ich auch Enthusiasten-Hardware verbaue, dass ist mir einfach too much.

Antwort 16 Likes

Thy

Urgestein

1,456 Kommentare 409 Likes

Die 2 Spalten mit den je 12 Spannungswandlern sehen schon pervers aus und die Leistungsaufnahme ist es ja auch. Ich würde mir für die nächste Generation auch xx50-Chips wünschen, die mal wieder unter 100 W benötigen, so wie es bei Pascal und Turing noch möglich war.

Antwort 1 Like

c
cunhell

Veteran

122 Kommentare 115 Likes

Die kriegen es jetzt schon kaum hin, die Karten vom pfeifen, rattern und singen abzuhalten. Ich will mir gar nicht vorstellen wie lustig
die Lieder sein werden, wenn 600W durch die Bauteile durch gejagd werden.

Cunhell

Antwort 9 Likes

Ghoster52

Veteran

397 Kommentare 227 Likes

Ich hätte jetzt nicht gedacht das ich das mal bringen kann...
Mein zweites Hobby verbraucht nur ein viertel (150 Watt) und hat mit Sicherheit eine ähnliche Heizleistung. :ROFLMAO:

View image at the forums

Antwort 12 Likes

Igor Wallossek

Format©

6,674 Kommentare 10,873 Likes

Nice :D EL84 Gegentakt?

Mit "magischen Auge", cool :D

Antwort 4 Likes

grimm

Urgestein

1,933 Kommentare 1,071 Likes

Die Frage ist halt auch, wo die Leistung hingeht. Ich steh ja voll auf Grafik, aber was soll denn noch passieren? 8K? 16K? Und auf welchem Display? Da bewegt sich leider sehr wenig. Obwohl der Invest in ein gutes Display jeder Karte hilft, aber 4K, (echtes) HDR, 4ms, >100 Hz muss man erst suchen und sich dann auch leisten können.

Mir wäre ein effizienterer Ausbau der aktuellen Leistung lieber. Aber gut, ich hab keinen Grund zu klagen.

Antwort 5 Likes

Ghoster52

Veteran

397 Kommentare 227 Likes

Richtig erkannt... (y)
Das Teil liefert 2x 30 Watt (Ost) Sinus :ROFLMAO:

Hier noch was in "klein", der braucht "nur" 75 Watt und wird für Kopfhörer missbraucht.

View image at the forums

Antwort 8 Likes

Igor Wallossek

Format©

6,674 Kommentare 10,873 Likes
S
Staarfury

Mitglied

87 Kommentare 80 Likes

Die wirst du sicher auch kriegen.
Bei der Generation 1 hoch, beim Modell 1-2 runter hat bis auf wenige Ausnahmen (bei AMD und Nvidia) noch jede Generation mehr FPS/Watt ergeben.

Antwort Gefällt mir

Megaone

Veteran

495 Kommentare 394 Likes

Seh ich genauso. Dadurch das ich nun auch im Zweitrechner die 3080ti installiert habe, ist erstmal Ruhe. Der Unterschied zwischen FHD-WQHD und 4 K fand ich mit wachsender Monitorgröße gigantisch. Aber mehr als 4 K brauch ich nicht.

Mal schauen was die 4090 kann und kostet. Zu dem Preis kommen ja immer noch die kosten der Wakükühlung dazu und mein Hauptrechner ist mit dem 720er Aquadukt kühltechnich und der 3090 am Anschlag. Die 3080ti ist noch Luftgekühlt. Hier würde ich auch ein komplett neues Setup benötigen da die CPU mit einen 360er Aquadukt gekühlt läuft.

Im Ernstfall (was für ein Wort in diesen Zeiten) kämen also locker nochmal 1200-1400 Extrakosten für Grakakühler und neue interen Systeme auf mich zu.

Schauen wir mal.

Unabhängig davon aber wieder ein Top-Artikel.

Danke erstmal dafür.

Antwort 1 Like

Klicke zum Ausklappem
grimm

Urgestein

1,933 Kommentare 1,071 Likes

Ich muss mir 4K dringend mal auf nem großen Display (TV) anschauen - aktuell läuft es auf 27" und da war das Upgrade von 2K zu 4K zwar sichtbar, aber das ganz große Kino ist es nicht.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung