GPUs Graphics Latest news

New details about the NVIDIA GeForce RTX 4090 and RTX 4080 – memory configuration, pin layout, voltage supply and cooling

One or the other detail has already been leaked about Ada (Lovelace) and the upcoming graphics cards with the AD102 core and up to 600 watts TBP. Today, another interesting piece of the puzzle is surely added with the expected reference board, the planned coolers and the RAM configuration. I recently received a picture from my own Chinese sources, among others, where you can more or less see the bare, unpopulated PCB. The schematic of the design, which is called the reference PCB, has been confirmed by two other sources in the meantime.

Even if the PCB (which I won’t show in the original out of consideration for NVIDIA) doesn’t reveal much to the layman at first glance, it’s a real treasure trove if you can understand it. Of course, you have to look at all these things with the necessary skepticism, but it looks really plausible in any case. In addition, I also have information about how the 600 watts that are reported are to be cooled down and the confirmation that my initial assumptions were not wrong. This includes the fact that I had called the GeForce RTX 3090 Ti a test run for Ada and the AD102. And yes, I was right, but more on that in a moment.

 

Even if some areas were unfortunately blurred (even good sources are unfortunately very cautious nowadays), a fairly accurate reconstruction of what NVIDIA actually wanted to tell the companies in question can be derived from the size ratio and the dimensions of the components of a known reference board of the NVIDIA GeForce RTX 3090. I have traced the whole thing again myself (in order not to break any NDAs either) and positioned it reasonably appropriately. However, I would like to point out once again that changes on the part of NVIDIA are possible at any time and nothing has to be set in stone.

After all, up to 600 watts TBP (i.e. for the entire board) have to be managed and later almost completely disposed of as waste heat. The distribution of the losses for the individual components can be estimated quite easily, I was only a few watts off the mark with Ampere. But that will be another article, because I still have to research some components.

However, what we see at first glance are a whopping 24 voltage converters for the GPU! Since NVIDIA (this has also been leaked in the meantime) will again rely on a uP9512 that can only generate 8 phases (but is readily available), a total of three voltage converters will most likely be driven together per phase. The four dark rectangles near the drill holes for the cooler should be the VRM for the memory voltage converters. This brings us to four phases for the GDDR6X.

What we also see in this context is a maximum of 12 solder slots for the GDDR6X (from Micron), which is currently available as 1 and 2 GB modules. From this, we can conclude that 12 or 24 GB (more likely) are possible when fully loaded. Smaller versions could then be equipped with 8 or 16 GB (probably) again, which should also reduce the number of voltage converters to three.

Now let’s get back to the RTX 3090 Ti and what I called a test run. As I could find out, the GA102 (Ampere) and the AD102 (Ada) chip are supposed to be pin compatible. Conversely, this also means that all board partners should already be able to work on the new boards and coolers without the upcoming chip by simply using an open 600 Watt BIOS. Then both the new board and the cooling can be fully tested.

Speaking of cooling, some sources report that NVIDIA will rely on a tripple-slot air cooler for the Reference or FE, while almost all board partners are likely to go with a 3.5-slot design. This means that the weight class above 2 kilograms will certainly also have a lot of new competitors. AiO compact coolers and cards with a real water block from the factory are also being considered aloud, but not as a primary solution. And to reassure all potential customers with older power supplies: a 12+4 (12VHPWR) to 4x 6+2 pin (PCIe old) is of course always included.

112 Antworten

Kommentar

Lade neue Kommentare

konkretor

Veteran

239 Kommentare 226 Likes

Sehr spannende mit Pin kompatibel, die Info war mir neu

Antwort 1 Like

s
samhayne

Mitglied

74 Kommentare 30 Likes

3,5 Slots…… das bedeutet, von meinen 4 anderen PCIe Slots würden zwei verdeckt und die nächste Karte hätte einen halben Slot Abstand zu den Propellern.

Tolle Entwicklung, Nvidia.

Auf Wasserkühlung muss man Lust (und den Platz dafür) haben.

Dann wohl doch ‘ne 3090 (TI)…

Antwort Gefällt mir

Ghoster52

Urgestein

777 Kommentare 477 Likes

Was baut man den heute noch an Zusatzkarten ein ???
Ich habe ehrlich gesagt keine Zusatzkarte mehr, Zeiten ändern sich... (im Pentium II waren mal alle Steckplätze belegt)
USB, Sound, WiFi, BT, M.2 und anderer Schnickschnack ist bereits OnBoard.

Ich habe ehrlich gesagt bedenken bei Kühlung und Verbrauch. (n)
Waterblock & leistungsfähiges Solarmodul wären (für mich) das optimale/optionale Zubehör.

Antwort 3 Likes

Igor Wallossek

Format©

7,614 Kommentare 12,730 Likes

AMD wird nicht besser ;)

Antwort 2 Likes

Gurdi

Urgestein

1,234 Kommentare 753 Likes

Also irgendwo hört der Spaß einfach auf, mir ist ja eigentlich egal was so ein Ding verbraucht, aber die 600Watt im Büro nach 2-3h Total War lassen mich im Sommer dann dahin schmelzen bei 35Grad im Raum oder was?

So gerne ich auch Enthusiasten-Hardware verbaue, dass ist mir einfach too much.

Antwort 16 Likes

Thy

Urgestein

1,787 Kommentare 697 Likes

Die 2 Spalten mit den je 12 Spannungswandlern sehen schon pervers aus und die Leistungsaufnahme ist es ja auch. Ich würde mir für die nächste Generation auch xx50-Chips wünschen, die mal wieder unter 100 W benötigen, so wie es bei Pascal und Turing noch möglich war.

Antwort 1 Like

c
cunhell

Veteran

253 Kommentare 232 Likes

Die kriegen es jetzt schon kaum hin, die Karten vom pfeifen, rattern und singen abzuhalten. Ich will mir gar nicht vorstellen wie lustig
die Lieder sein werden, wenn 600W durch die Bauteile durch gejagd werden.

Cunhell

Antwort 9 Likes

Ghoster52

Urgestein

777 Kommentare 477 Likes

Ich hätte jetzt nicht gedacht das ich das mal bringen kann...
Mein zweites Hobby verbraucht nur ein viertel (150 Watt) und hat mit Sicherheit eine ähnliche Heizleistung. :ROFLMAO:

View image at the forums

Antwort 12 Likes

Igor Wallossek

Format©

7,614 Kommentare 12,730 Likes

Nice :D EL84 Gegentakt?

Mit "magischen Auge", cool :D

Antwort 4 Likes

grimm

Urgestein

2,234 Kommentare 1,353 Likes

Die Frage ist halt auch, wo die Leistung hingeht. Ich steh ja voll auf Grafik, aber was soll denn noch passieren? 8K? 16K? Und auf welchem Display? Da bewegt sich leider sehr wenig. Obwohl der Invest in ein gutes Display jeder Karte hilft, aber 4K, (echtes) HDR, 4ms, >100 Hz muss man erst suchen und sich dann auch leisten können.

Mir wäre ein effizienterer Ausbau der aktuellen Leistung lieber. Aber gut, ich hab keinen Grund zu klagen.

Antwort 5 Likes

Ghoster52

Urgestein

777 Kommentare 477 Likes

Richtig erkannt... (y)
Das Teil liefert 2x 30 Watt (Ost) Sinus :ROFLMAO:

Hier noch was in "klein", der braucht "nur" 75 Watt und wird für Kopfhörer missbraucht.

View image at the forums

Antwort 8 Likes

Igor Wallossek

Format©

7,614 Kommentare 12,730 Likes
S
Staarfury

Veteran

163 Kommentare 155 Likes

Die wirst du sicher auch kriegen.
Bei der Generation 1 hoch, beim Modell 1-2 runter hat bis auf wenige Ausnahmen (bei AMD und Nvidia) noch jede Generation mehr FPS/Watt ergeben.

Antwort Gefällt mir

Megaone

Urgestein

907 Kommentare 733 Likes

Seh ich genauso. Dadurch das ich nun auch im Zweitrechner die 3080ti installiert habe, ist erstmal Ruhe. Der Unterschied zwischen FHD-WQHD und 4 K fand ich mit wachsender Monitorgröße gigantisch. Aber mehr als 4 K brauch ich nicht.

Mal schauen was die 4090 kann und kostet. Zu dem Preis kommen ja immer noch die kosten der Wakükühlung dazu und mein Hauptrechner ist mit dem 720er Aquadukt kühltechnich und der 3090 am Anschlag. Die 3080ti ist noch Luftgekühlt. Hier würde ich auch ein komplett neues Setup benötigen da die CPU mit einen 360er Aquadukt gekühlt läuft.

Im Ernstfall (was für ein Wort in diesen Zeiten) kämen also locker nochmal 1200-1400 Extrakosten für Grakakühler und neue interen Systeme auf mich zu.

Schauen wir mal.

Unabhängig davon aber wieder ein Top-Artikel.

Danke erstmal dafür.

Antwort 1 Like

Klicke zum Ausklappem
grimm

Urgestein

2,234 Kommentare 1,353 Likes

Ich muss mir 4K dringend mal auf nem großen Display (TV) anschauen - aktuell läuft es auf 27" und da war das Upgrade von 2K zu 4K zwar sichtbar, aber das ganz große Kino ist es nicht.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Advertising

Advertising