GPUs Graphics Practice Reviews

Possible problems with the NVIDIA GeForce RTX 3090 Ti – When the PCB design becomes a tight corset | Analysis

The fact that the GeForce RTX 3090 Ti, which is already rumored for 01/27/22, is postponed quite a bit might even have several different reasons, but they certainly have to be considered in context with each other. That there is in fact a delay, one could already read everywhere, but unfortunately not, why exactly. The tight-lippedness among NVIDIA’s board partners was surprisingly pronounced this time, and yet even in the yes-no exclusion process you come to an interesting conclusion if you ask the right questions. I don’t want to speculate wildly today, but to do a little basic research based on various information and puzzle pieces (which were so to say thrown into my virtual mailbox).

The circumstances I’m writing about today are a real scenario, and at the same time it only claims to be a practical and fact-based “what if” experiment and not a leak, where you fry your sources with composure and NVIDIA’s legal department starts to rotate. The current rumors, depending on the side, speak of hardware or firmware problems, I would even go so far as to speak of hardware AND firmware problems, where the firmware could be the cause and the solution at the same time and the hardware a hard concrete wall in the way of high speeds.

However, I also have to narrow it down, meanwhile even three big board partners have assured that their cards run smoothly, one would have no real problems with it and the hold came from NVIDIA without any indication of reasons. Whether NVIDIA is now struggling with its own Founders Edition and the rest of the vendors have to wait for the “MSRP model”, who knows… But that the customization of the FE is not easy (up to the cooling) is certainly no secret. That’s why I refer in today’s article only to the FE and no other model.

Existing designs and the limits of balancing

In order to get everyone up to pace, I will greatly simplify the following content. At least as far as it remains accurate enough in terms of content. Let’s start on the commercial and technical side first. Since the GeForce RTX 3090 Ti is more likely to lead a unicorn existence, it would not make much sense to develop a separate board for a physically almost identical card (apart from the GPU and the memory) or to send this new card through NVIDIA’s Greenlight program to validate all individual steps. This then also explains why e.g. MSI sticks to the three 8-pin connectors instead of the new 16-pin Microfit adapter or the 12+4 ATX connector. You just keep using what you already have!

Therefore, board partners will usually do nothing but continue to use the existing designs of the GeForce RTX 3090 and simply adapt these boards, as well as the firmware, accordingly. But as always, the devil is already in the details, because the complete power supply of such a card is a very fragile and carefully balanced construction. It is not enough to turn just one or two screws (as has probably often happened), but it is essential to check what rat tail of mutual influences you may still be dragging behind you. Especially since all these cards have already been sewn very close to the edge. For the sake of simplicity, let’s first look at the GeForce RTX 3090 Founders Edition’s layout purely as an example, neglecting the rear:

We see a breakdown of the GPU supply voltage into NVVDD (blue) and MSVDD (green), as well as that for the memory in the form of FBVDDQ (red). The generation of the other partial voltages is negligible here for the time being because of their share in the TBP, although not completely uninteresting. If you know how the phases of the voltage converters work, then you also know that the majority is connected to the external PCIe port (Aux). But not all are. A certain part also hangs on the PCIe motherboard slot (PEG) and at the latest now the problem starts, which can even be understood quite easily! The PEG has already reached its limit of 5.5 amps (i.e. 66 watts) on the 12-volt rail in many GeForce RTX 3090s and could only be loaded further by means of a (blatant) spec excursion!

By the way, if you want to know which components cause which power consumption, you can first take a look at the reference layout (PG132), which NVIDIA gave to the board partners as a guide. The thermal load of course also corresponds to the electrical power dissipation of the respective components, the law of conservation of energy still applies! And so we see that the memory is really calculated with almost 60 watts (so 2x 30 watts per side) and the GPU actually stays even below 230 watts.

 

However, a considerably higher TBP (from about 480 watts) is stored in the firmware for the GeForce RTX 3090 Ti, i.e. the value for the entire graphics card including all existing 12-volt rails. And if we now keep the components from the schematic above in mind, it will also be quite evenful thermally, especially in the area of the GPU, the GPU voltage converters and the memory. However, the waste heat is ultimately only the result of the electrical energy previously supplied.

This should then also be the primary starting point of all the problems, even though NVIDIA meticulously monitors all incoming rails with so-called monitoring chips, such as UPI’s uS5650Q shown below. These special chips record various voltages at quite small and thus very suitable intervals, allowing real-time control.

But in the end it is also about the flowing currents and so it is more convenient to measure the voltage drop that occurs at the respective inputs of the 12 V rails at so-called shunts (i.e. low impedance resistors) (see picture below next to the two longitudinal coils in the middle). From this, the current flowing in each case can be calculated quite simply according to Ohm’s law, and together with the input voltage, which is also recorded, one can thus conclude the respective power as the product of both values. You then have the current power consumption added up, which programs like HWInfo can also read out. AMD unfortunately does not offer such a service (yet). Too bad actually. And when I write “you” here in such a simplified way, of course the firmware of the card takes care of that.

Unfortunately, it is not possible to increase the power consumption of individual components like the GPU or memory without a simultaneous increase on all components. And yes, even the even faster memory will probably need additional power and will certainly not get by with the current maximum of 3 watts per module. And all this with already existing designs? I would certainly not have a thermal problem with an MSI RTX 3090 Ti Suprim due to the fat cooler, but I would have an electrical problem.

And even though I actually dislike shunt mods for everyday use, you can actually learn from them! Because if you only change the shunts on the external power connectors (in this case of the RTX 3090 FE, that means two) and leave the shunt of the PCIe slot (motherboard) in the original, the card will sporadically become unstable and it will also no longer run cleanly under load. I also tested this before also making the measurements on the following page. Keyword page turning! Now there are watts to marvel at.

 

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,320 Kommentare 635 Likes

Welche Komponente der Graka bekommt eigentlich den Saft über den PCiE?
und
Wie waren eigentlich die Werte bei den 3V ?

Antwort Gefällt mir

Igor Wallossek

Format©

7,957 Kommentare 13,678 Likes

Am PEG hängen ein paar einzelne Phasen der GPU und des Speichers. Und ich habe auch keine Brücken gefunden, die man anders hätte verlöten können. MSI macht sowas gern. Das PCB der 3090 ist aber bisher nur für die 3090 geplant gewesen, alle anderen Karten sind skalierbar.

3 Volt nutzt doch keiner mehr. das liegt so um 1-2 Watt maximal. Schau doch auf die Charts, die grüne Kurve klebt immer fast bei der Null. :)

Antwort 2 Likes

grimm

Urgestein

2,437 Kommentare 1,545 Likes

Vielleicht ist der Garantiefall in den horrenden Summen, die die Händler verlangen, einfach schon eingepreist ;)

Antwort 3 Likes

D
Deridex

Urgestein

2,079 Kommentare 769 Likes

Nur weil darüber wenig Leistung bezogen wird, heißt es nicht das es keiner mehr nutzt. Deine Aussage kann eventuell für Grafikkarten gelten (wobei ich mir auch da nicht sicher wäre), aber nicht allgemein.

Antwort Gefällt mir

P
Phelan

Veteran

143 Kommentare 124 Likes

Chleudert den Purchen zu Poden! ;-)

@tropic
dieses hochgezüchte ist für mich mittlerweile echt jenseits von gut und böse..
Sehe da kein technischen Fortschritt mehr ... das ist eher wie Dragstar Motoren bauen oder so.
Grafikkarten die deutlich über ihrem Effizenzpunkt betrieben werden werde ich nicht kaufen.

AMD plant ein 256 kernigen CPU mit 600W ... krass ... aber das sind halt nur 2,5W pro CPU Kern also irgenwie auch wieder krass gut. Sowas ist ok.
Aber 100derte Watt zu verballern um aus eh schon überzüchteten Konstrukten noch paar % mehr rauszuprügeln ... ne lassmal.

Antwort 6 Likes

Pascal Mouchel

Moderator

823 Kommentare 932 Likes

1kw Netzteil Empfehlung das ist nur noch Irrsinn wo kommen wir denn da hin? Das ist Ressourcen Verschwendung im großen Still.
Jeder Gesunde Mensch sollte da doch sagen jetzt ist genug.
Aber es wird wieder so sein das so mancher sich die Gpu´s kauft koste es was es wolle für paar FPS mehr.

Ich erinnere mich gut wie alle über die Vega64 hergezogen sind und die mit einer Jet Turbine verglichen haben bezüglich TDP wo liegt dann jetzt die 3090ti? Kernschmelze? Sonneneruption?

Ich glaube es war keine gute Idee in Deutschland aus der Atomenergie auszusteigen :ROFLMAO:☢️

Antwort 5 Likes

ssj3rd

Veteran

141 Kommentare 80 Likes

Ich bin tatsächlich sehr auf die nächste Generation gespannt und wie viel Watt die 4090 dann tatsächlich benötigt, mit meiner 3090FE bin ich doch eher unzufrieden (wegen dem elenden Spulenfiepen, was mich langsam aber sicher doch durchdrehen lässt, kann man deswegen eigentlich einen Tausch arrangieren bei Nvidia?)

Antwort Gefällt mir

Igor Wallossek

Format©

7,957 Kommentare 13,678 Likes

Bezieht sich auf die Grafikkarten, denn nur um die ging es hier. Da NV eine Kontroll-Freak-Company ist, wäre diese Schiene sonst auch mitprotokolliert worden. Auf den Karten werden (auch hier siehe Blockschema) 5 Volt generiert, an denen dann fast der ganze Kleinkram hängt. Kaskadierung ist zwar nicht sonderlich effizient, aber bei den kleinen Strömen geht das schon. ich messe die 3.3V immer mit, aber seit ca. 4 Jahren ist sowohl bei AMD, als auch NV da komplett Ebbe.

View image at the forums

Allerdings geht auch der Trend bei Motherboards eher hin zu 5 und 12 Volt, denn jede Schiene mehr verkompliziert das Ganze ja auch etwas. Und was Netzteile so im Crossload abliefern... nun ja. Da gibts auch ordentlich viel Schund. ;)

Antwort 1 Like

P
Pokerclock

Veteran

193 Kommentare 152 Likes

Mal weniger aus der technischen Sicht gedacht als aus der wirtschaftlichen. Ich empfinde diese Entwicklung als sehr bedenklich. Meine Kunden erwarten von mir ausnahmslos funktionierende Systeme und ich als Verleiher stehe - anders als ein Händler - auch voll dafür ein, dass diese Systeme einwandfrei funktionieren und wenn es sein muss sofort bei Problemen ausgetauscht werden. Nix 6 bis 8 Wochen RMA, Austausch binnen Stunden. Die 3090er werden ausnahmslos nachgefragt von denjenigen, die damit ihr Geld verdienen. Da geht es gerne mal um fünf- bis sechsstellige Summen, und ich als Verleiher stehe da weit unten in der Wertschöpfungskette.

Ich muss zwangsläufig nun Systeme entwerfen, die von vornherein das dickste Netzteil und die dicksten Mainboards vorweisen können, nur um vollkommen vermurkste, hochgezüchtete Grafikkarten bedienen zu können. Und selbst das wird mir nicht helfen willkürliche Abstürze o.a. Probleme zu vermeiden. Im Zweifel wird das ganze System ausgetauscht. Das geht oftmals schneller als ewig den Fehler zu finden und hier im Fall kann man wohl wirklich ewig den Fehler suchen, den man gar nicht beheben kann. Am Ende wird das aber zu einer massiven Kostensteigerung führen, da die Systeme von vornherein teurer in der Anschaffung sind und ich wohl mehr Systeme einfach im Regal habe stehen müssen, um Reklamationen abfangen zu können = totes Kapital. Und wie es bei Desktop-Workstations sein muss, sollten die noch halbwegs transportabel sein. Aktuell lässt sich das selbst noch mit guten mATX-Boards und entsprechend kleinen Gehäusen handhaben. Wenn aber erstmal 700W+ Abwärme da raus muss, wird auch das nicht mehr gehen. Größere Gehäuse, mehr Transportvolumen, mehr Gewicht für meinen armen Rücken...

Und da ist noch die Sache einer gestiegenen Brandgefahr, die ich hier niemals ausschließen würde. Ich habe schon gesehen wie gut die Sicherungen bei den dicken Single-Rail-Netzteilen funktionieren, wenn die ersten Stichflammen züngeln. Nämlich gar nicht. Auch Versicherungen kennen Grenzen...

Antwort 3 Likes

Klicke zum Ausklappem
Martin Gut

Urgestein

6,158 Kommentare 2,515 Likes

Von der Abwärme her ist eine Wasserkühlung der Grafikkarte schon fast Pflicht. Für einen wartungsfreien, zuverlässigen Betrieb ist das aber sicher auch keine gute Lösung. Also muss man mehr Luft durch die Kiste blasen was solche PCs dann unangenehm laut macht. Das ist auch nicht das, was ich beim Arbeiten neben mir haben möchte.

Antwort 2 Likes

P
Pokerclock

Veteran

193 Kommentare 152 Likes

Custom-Wakü sind äußerst schwierig im täglichen, harten Umgang mit viel hin und her Transporten. Mit dem Zeug wird seitens der Kunden oftmals nicht zimperlich umgegangen. Einfach mal per DHL verschicken ist komplett unmöglich. Und ein Freund von AIOs bin ich überhaupt nicht. Kaputte Pumpen, mit der Zeit zugesetzte Kühlfinnen, mit der Zeit ein Blubbern, das lauter als das ganze Kühlsystem des PCs ist. Wenn es um Ausfallsicherheit geht, bevorzuge ich tatsächlich den dicken Tower-Kühler. Aktuell geht es aber auch dort nicht mehr anders. AIOs haben eben doch den Vorteil nicht soviel Gewicht am Mainboard kleben zu haben, was den Versand erleichtert. Dem Kunden zumuten eine Grafikkarte ein- und wieder auszubauen geht noch, aber den dicken Tower-Kühler mitsamt Umgang WLP etc. geht halt nicht mehr. Die AIOs werden wir bei den Grafikkarten in jedem Fall verstärkt sehen. Anders geht das ja kaum noch abzuführen, oder wann kommt die erste 5-Slot-Grafikkarte?

Antwort 1 Like

Pascal Mouchel

Moderator

823 Kommentare 932 Likes

kannst gleich 2kw Netzteil kaufen

Antwort Gefällt mir

D
Deridex

Urgestein

2,079 Kommentare 769 Likes

Mit Starkstromanschluss? :D

Antwort 2 Likes

k
krelog

Veteran

149 Kommentare 38 Likes

nein musst du nicht du kannst auch deinen Kunden sagen das dir die Qualität nicht gefällt und es instabil ist sowas verleihst du nicht. Wenn du das nicht machst um den Umsatz der Kunden mitzunhehmen die es trotzdem wollen, darf man sich nicht beschweren.

Allgemein sich über die hohen Leistungen aufzuregen bringt nix weil die Nachfrage ist da und die wird von den Herstellern nur befriedigt.
Ist wie beim Fahrzeug keiner brauch hier was über 100PS in Deutschland aber die Fahrzeuge mit unter 100PS kannst an einer Hand abzählen.

Antwort 1 Like

RAZORLIGHT

Veteran

321 Kommentare 205 Likes

Toller sehr interessanter Artikel, macht Spass mal hinter die Kulissen blicken zu dürfen.

Diese Entwicklung mit immer mehr TDP bei den GPUs ist doch einfach nur dämlich.

Gerade in Anbetracht der massiv erhöhten Strompreise und den Straßenpreisen der GPUs muss man sich manchmal wirklich Fragen ob man das Hobby noch in dem Maß wie bisher betreiben möchte.
Ist ja nicht der verbrauchte Strom sondern auch die dadurch entstehende Abwärme, ist selbst mit einer 2070super im Sommer kein Spass und der PC steht nicht in einem kleinen Raum.

Wir können nur hoffen, dass sich dieser Trend mit der nächsten Generation nicht fortsetzt oder gar verschlimmert.

Antwort Gefällt mir

RAZORLIGHT

Veteran

321 Kommentare 205 Likes

Ausstieg ja, aber der Zeitpunkt hätte nicht dümmer sein können Deutschland halt...
ps. Ich lebe seit 32 Jahren in der Nähe (ca.15km) eines AKW (Gundremmingen)... irgendwie fehlt die Wasserdampfwolke aus den Kühltürmen, man wusste immer wo es Richtung Heimat ging 😔

Antwort 3 Likes

Megaone

Urgestein

1,075 Kommentare 914 Likes

Naja, genau das ist aber das Problem. Es sind halt die paar FPS die der 3090 fehlen um stabil immer über 60 Frames zu haben in 4K.

Über die Atomenergie reden wir besser nicht. Dank der Fachkräft/innen von denen wir regiert werden, wundert mich nix mehr. Wobei die letzte Regierung auch nicht durch planerische Weitsicht geglänzt hat.

Und wie schon mehrfach geschrieben. 1KW ist perspektivisch eh die Einstiegsgröße für Nerds.

Haben ist besser als brauchen ist nirgendwo richtiger, als bei der Leistung des Netzteils im PC. Ich spreche da aus leidvoller Erfahrung.

Ansonsten Danke für den Top Artikel. Wieder was gelernt. (y)

Antwort Gefällt mir

Megaone

Urgestein

1,075 Kommentare 914 Likes
Megaone

Urgestein

1,075 Kommentare 914 Likes

Die Aussage würde ich anzweifeln. Wenn ich sehe was ich für einen Staub aus den Kühlkörpern geholt habe, gerade bei hochdrehenden Grakakühlern ist die Flüssigkeitskontrolle zusätzlich das deutlich geringere Problem.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

video display

video display