GPUs Graphics Practice Reviews

Possible problems with the NVIDIA GeForce RTX 3090 Ti – When the PCB design becomes a tight corset | Analysis

The load on the 12-volt rails from 350 to 520 watts

After the somewhat longer introduction, I now want to record the balancing of the RTX 3090 FE with three measurements and an extrapolation (emulation), which I almost pushed to the limits with a temporary shunt mod and water cooling including chiller. It’s better not to copy this excursion into hardware hell, because it doesn’t bring much besides a senselessly high power consumption and the waste of valuable resources. We already had a detailed article on how to solve this in detail:

Unleashed unicorn on a flight of fancy – Shunt-Mod for NVIDIA GeForce RTX 3090 FE and the Alphacool Eisblock GPX-N | Practice

Let’s leave the graphics card at the 350 watts ex-factory for now and save the initial values. The following image galleries now show us the wattages for the entire card (white, average value dashed), the sum of the aux connectors (blue) and the motherboard slot (PEG, in red) with its average value (yellow dashed). The water temperature is nice and low with 20 °C over all measurementsand and makes you want to raise the power limit already.

But let’s first look at the 350-watt measurement in detail. The measured power consumption is initially exactly 350.3 watts (1 ms spikes up to 528 watts) and is thus really fitting the trend minus possible tolerances. However, the somewhat more sensitive PEG is already fully loaded to the limit here with 5.3 amps (gaming) and 5.6 amps (torture), which was also the case in the MSI RTX 3090 Suprim by the way. This isn’t really helpful, but it’s design-related.

 

But what happens when you run the Founders Edition without a shunt mod with the maximum BIOS power limit of 400 watts and extremely cool? We now end up with about 401 watts, which is also only 1 watt above the hard limit set in the BIOS. Again, a nice point landing, but the PEG is now already loaded with 5.7 amps (Gaming) and 5.9 amps (Torture). In both cases, the card is already slightly above the PCI SIG standard, which allows a maximum of 5.5 amps. Nothing will burn down or explode here, but standards are like laws and should also be strictly monitored! With 647 watts in the 1-ms interval, the load peak of all rails is also already quite high, but it will get “better”, promised.

 

I just temporarily soldered two identical resistors next to the 12-pin and the one for the PEG, doubling the power limit. The test run again landed at a bit under 350 watts (tolerances). Afterwards I determined the rough limit in Afterburner with the pocket calculator (consider that only half of the power is tracked!) and fiddled at the slider, until I landed with approx. 480 Watts. However, this is already completely borderline for the GeForce RTX 3090 FE and really nothing that I could justify for permanent use. Unfortunately, I didn’t get much higher than 490 watts despite manual OC, because the voltage runs out in the end. So 500 watts were no longer in reach, which is a pity.

With 757.9 watts, the highest measured 1-ms interval was once again slightly above the already measured peak value and the current load at the PEG increases to 6.9 amps (gaming) and 7 amps (torture). That is already 82.8 or 84 watts instead of the allowed 66 watts. But you can go one better, right away….

 

Since I didn’t want to destroy my card, I calculated the possible load for the rumored 520 watts on the basis of the three first measurements and the increase (the PEG increases in the ratio somewhat more slowly than Aux), because the three 8-pin sockets of the Suprim don’t allow for much more (the 12-pin Microfit of the FE certainly does not either). Of course, this is not a real measurement, but if one follows the trend of past performance increases, then what is now depicted is quite plausible. Thus, we are at the end of today’s experiment with 520 watts, which would also suggest a maximum of 821.3 watts with the 1-ms spikes. We are a bit closer to MSI’s 1000 Watt power supply recommendation.

The PEG would be prognostically loaded with a whopping 7.4 amps (Gaming) and 7.5 amps (Torture). That would be a maximum of 90 watts, which corresponds to an overload of 36%, which also applies to the flowing currents, which are up to 2 amps above the norm.

Stability and balancing

Now, of course, one could argue that current motherboards would simply handle this overload, but the problem is also due to the type of load. because there are no constant currents flowing, but the fast and frequent load changes almost create a high-frequency mixture, where the current peaks can be up to 15 (!) amperes, which amounts to 180.2 watts. Sure, they are only peaks and the power supply or the circuit board can still handle it. But such a nasty mix also has a retroactive effect on the other assemblies on the motherboard, which are also powered from the relevant 12-volt rail of the 24-pin motherboard connector.

And what does this have to do with the firmware? Of course, you can’t change the electrical distribution or connection of the phases to the respective rails with this, because there are unfortunately no intelligent load balancers in the existing layouts that would allow smart power gating from the PEG to the PCIe (the GTX 1070 Katana from Galax, for example, could do that). However, it is possible to influence the control of the individual phases to a certain extent and to take the ones connected to the PEG somewhat out of circulation. However, this creates higher loads on the other phases and it almost becomes a dog-eat-dog principle, because it may push the AUX connections to the limits and the power management in the PWM controller is somewhat overridden. Apart from the fact that the smart power stages would be significantly more expensive because they would have to handle higher currents.

Summary and conclusion

Today’s experiment asks questions that even the board partners did not (or could not) answer definitively. But as always, no answer is the best answer. Because as usually explicitly denied when I hit with speculation, this time no one did. And also many a shopping list (BoM) actually speaks for my thesis. Of course, this is and remains purely speculative, but the conclusion cannot be dismissed. It is almost impossible to build a significantly faster graphics card out of one that has already been designed to the limit if you want to stick to the set standards.

I don’t even want to write about the capacitors underneath the GPU and along all the tracks up to the PWM nodes of the voltage converters, because this topic can’t be dismissed either. If 350 or even 450 watts already cause huge stability problems (and that could only be fixed by a driver), what happens at 520 watts? I don’t really want to think about that. But if such cards really make it to the market, I’ll be happy to be convinced of the opposite (or convince myself).

If the graphics card manufacturers should really offer models with over 500 watts TBP as the next generation, then the layout will have to be completely redesigned. Simply upgrading, as happened in the case of the rumored GeForce RTX 3090 Ti, will then inevitably end in a fiasco. Incidentally, the memory with 21 Gbps is also a shaky candidate, whose stability could be argued about despite the backdrill method, even if NVIDIA’s base design kit allows it and the manufacturers stick to it. Theory and practice.

This is the end of this short excursion, and I wouldn’t be surprised if I’m not that far off the mark in my assessment of the problem. Because I still also want to note one thing in the end: the measured card was no longer really stable from about 450 watts onwards.

 

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,871 Kommentare 864 Likes

Welche Komponente der Graka bekommt eigentlich den Saft über den PCiE?
und
Wie waren eigentlich die Werte bei den 3V ?

Antwort Gefällt mir

Igor Wallossek

1

10,192 Kommentare 18,803 Likes

Am PEG hängen ein paar einzelne Phasen der GPU und des Speichers. Und ich habe auch keine Brücken gefunden, die man anders hätte verlöten können. MSI macht sowas gern. Das PCB der 3090 ist aber bisher nur für die 3090 geplant gewesen, alle anderen Karten sind skalierbar.

3 Volt nutzt doch keiner mehr. das liegt so um 1-2 Watt maximal. Schau doch auf die Charts, die grüne Kurve klebt immer fast bei der Null. :)

Antwort 2 Likes

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Vielleicht ist der Garantiefall in den horrenden Summen, die die Händler verlangen, einfach schon eingepreist ;)

Antwort 3 Likes

D
Deridex

Urgestein

2,213 Kommentare 846 Likes

Nur weil darüber wenig Leistung bezogen wird, heißt es nicht das es keiner mehr nutzt. Deine Aussage kann eventuell für Grafikkarten gelten (wobei ich mir auch da nicht sicher wäre), aber nicht allgemein.

Antwort Gefällt mir

P
Phelan

Veteran

191 Kommentare 172 Likes

Chleudert den Purchen zu Poden! ;-)

@tropic
dieses hochgezüchte ist für mich mittlerweile echt jenseits von gut und böse..
Sehe da kein technischen Fortschritt mehr ... das ist eher wie Dragstar Motoren bauen oder so.
Grafikkarten die deutlich über ihrem Effizenzpunkt betrieben werden werde ich nicht kaufen.

AMD plant ein 256 kernigen CPU mit 600W ... krass ... aber das sind halt nur 2,5W pro CPU Kern also irgenwie auch wieder krass gut. Sowas ist ok.
Aber 100derte Watt zu verballern um aus eh schon überzüchteten Konstrukten noch paar % mehr rauszuprügeln ... ne lassmal.

Antwort 6 Likes

Pascal TM-Custom

Urgestein

1,122 Kommentare 1,361 Likes

1kw Netzteil Empfehlung das ist nur noch Irrsinn wo kommen wir denn da hin? Das ist Ressourcen Verschwendung im großen Still.
Jeder Gesunde Mensch sollte da doch sagen jetzt ist genug.
Aber es wird wieder so sein das so mancher sich die Gpu´s kauft koste es was es wolle für paar FPS mehr.

Ich erinnere mich gut wie alle über die Vega64 hergezogen sind und die mit einer Jet Turbine verglichen haben bezüglich TDP wo liegt dann jetzt die 3090ti? Kernschmelze? Sonneneruption?

Ich glaube es war keine gute Idee in Deutschland aus der Atomenergie auszusteigen :ROFLMAO:☢️

Antwort 5 Likes

ssj3rd

Veteran

218 Kommentare 155 Likes

Ich bin tatsächlich sehr auf die nächste Generation gespannt und wie viel Watt die 4090 dann tatsächlich benötigt, mit meiner 3090FE bin ich doch eher unzufrieden (wegen dem elenden Spulenfiepen, was mich langsam aber sicher doch durchdrehen lässt, kann man deswegen eigentlich einen Tausch arrangieren bei Nvidia?)

Antwort Gefällt mir

Igor Wallossek

1

10,192 Kommentare 18,803 Likes

Bezieht sich auf die Grafikkarten, denn nur um die ging es hier. Da NV eine Kontroll-Freak-Company ist, wäre diese Schiene sonst auch mitprotokolliert worden. Auf den Karten werden (auch hier siehe Blockschema) 5 Volt generiert, an denen dann fast der ganze Kleinkram hängt. Kaskadierung ist zwar nicht sonderlich effizient, aber bei den kleinen Strömen geht das schon. ich messe die 3.3V immer mit, aber seit ca. 4 Jahren ist sowohl bei AMD, als auch NV da komplett Ebbe.

View image at the forums

Allerdings geht auch der Trend bei Motherboards eher hin zu 5 und 12 Volt, denn jede Schiene mehr verkompliziert das Ganze ja auch etwas. Und was Netzteile so im Crossload abliefern... nun ja. Da gibts auch ordentlich viel Schund. ;)

Antwort 1 Like

P
Pokerclock

Veteran

429 Kommentare 367 Likes

Mal weniger aus der technischen Sicht gedacht als aus der wirtschaftlichen. Ich empfinde diese Entwicklung als sehr bedenklich. Meine Kunden erwarten von mir ausnahmslos funktionierende Systeme und ich als Verleiher stehe - anders als ein Händler - auch voll dafür ein, dass diese Systeme einwandfrei funktionieren und wenn es sein muss sofort bei Problemen ausgetauscht werden. Nix 6 bis 8 Wochen RMA, Austausch binnen Stunden. Die 3090er werden ausnahmslos nachgefragt von denjenigen, die damit ihr Geld verdienen. Da geht es gerne mal um fünf- bis sechsstellige Summen, und ich als Verleiher stehe da weit unten in der Wertschöpfungskette.

Ich muss zwangsläufig nun Systeme entwerfen, die von vornherein das dickste Netzteil und die dicksten Mainboards vorweisen können, nur um vollkommen vermurkste, hochgezüchtete Grafikkarten bedienen zu können. Und selbst das wird mir nicht helfen willkürliche Abstürze o.a. Probleme zu vermeiden. Im Zweifel wird das ganze System ausgetauscht. Das geht oftmals schneller als ewig den Fehler zu finden und hier im Fall kann man wohl wirklich ewig den Fehler suchen, den man gar nicht beheben kann. Am Ende wird das aber zu einer massiven Kostensteigerung führen, da die Systeme von vornherein teurer in der Anschaffung sind und ich wohl mehr Systeme einfach im Regal habe stehen müssen, um Reklamationen abfangen zu können = totes Kapital. Und wie es bei Desktop-Workstations sein muss, sollten die noch halbwegs transportabel sein. Aktuell lässt sich das selbst noch mit guten mATX-Boards und entsprechend kleinen Gehäusen handhaben. Wenn aber erstmal 700W+ Abwärme da raus muss, wird auch das nicht mehr gehen. Größere Gehäuse, mehr Transportvolumen, mehr Gewicht für meinen armen Rücken...

Und da ist noch die Sache einer gestiegenen Brandgefahr, die ich hier niemals ausschließen würde. Ich habe schon gesehen wie gut die Sicherungen bei den dicken Single-Rail-Netzteilen funktionieren, wenn die ersten Stichflammen züngeln. Nämlich gar nicht. Auch Versicherungen kennen Grenzen...

Antwort 3 Likes

Klicke zum Ausklappem
Martin Gut

Urgestein

7,774 Kommentare 3,572 Likes

Von der Abwärme her ist eine Wasserkühlung der Grafikkarte schon fast Pflicht. Für einen wartungsfreien, zuverlässigen Betrieb ist das aber sicher auch keine gute Lösung. Also muss man mehr Luft durch die Kiste blasen was solche PCs dann unangenehm laut macht. Das ist auch nicht das, was ich beim Arbeiten neben mir haben möchte.

Antwort 2 Likes

P
Pokerclock

Veteran

429 Kommentare 367 Likes

Custom-Wakü sind äußerst schwierig im täglichen, harten Umgang mit viel hin und her Transporten. Mit dem Zeug wird seitens der Kunden oftmals nicht zimperlich umgegangen. Einfach mal per DHL verschicken ist komplett unmöglich. Und ein Freund von AIOs bin ich überhaupt nicht. Kaputte Pumpen, mit der Zeit zugesetzte Kühlfinnen, mit der Zeit ein Blubbern, das lauter als das ganze Kühlsystem des PCs ist. Wenn es um Ausfallsicherheit geht, bevorzuge ich tatsächlich den dicken Tower-Kühler. Aktuell geht es aber auch dort nicht mehr anders. AIOs haben eben doch den Vorteil nicht soviel Gewicht am Mainboard kleben zu haben, was den Versand erleichtert. Dem Kunden zumuten eine Grafikkarte ein- und wieder auszubauen geht noch, aber den dicken Tower-Kühler mitsamt Umgang WLP etc. geht halt nicht mehr. Die AIOs werden wir bei den Grafikkarten in jedem Fall verstärkt sehen. Anders geht das ja kaum noch abzuführen, oder wann kommt die erste 5-Slot-Grafikkarte?

Antwort 1 Like

Pascal TM-Custom

Urgestein

1,122 Kommentare 1,361 Likes

kannst gleich 2kw Netzteil kaufen

Antwort Gefällt mir

D
Deridex

Urgestein

2,213 Kommentare 846 Likes

Mit Starkstromanschluss? :D

Antwort 2 Likes

k
krelog

Veteran

173 Kommentare 53 Likes

nein musst du nicht du kannst auch deinen Kunden sagen das dir die Qualität nicht gefällt und es instabil ist sowas verleihst du nicht. Wenn du das nicht machst um den Umsatz der Kunden mitzunhehmen die es trotzdem wollen, darf man sich nicht beschweren.

Allgemein sich über die hohen Leistungen aufzuregen bringt nix weil die Nachfrage ist da und die wird von den Herstellern nur befriedigt.
Ist wie beim Fahrzeug keiner brauch hier was über 100PS in Deutschland aber die Fahrzeuge mit unter 100PS kannst an einer Hand abzählen.

Antwort 1 Like

RAZORLIGHT

Veteran

355 Kommentare 262 Likes

Toller sehr interessanter Artikel, macht Spass mal hinter die Kulissen blicken zu dürfen.

Diese Entwicklung mit immer mehr TDP bei den GPUs ist doch einfach nur dämlich.

Gerade in Anbetracht der massiv erhöhten Strompreise und den Straßenpreisen der GPUs muss man sich manchmal wirklich Fragen ob man das Hobby noch in dem Maß wie bisher betreiben möchte.
Ist ja nicht der verbrauchte Strom sondern auch die dadurch entstehende Abwärme, ist selbst mit einer 2070super im Sommer kein Spass und der PC steht nicht in einem kleinen Raum.

Wir können nur hoffen, dass sich dieser Trend mit der nächsten Generation nicht fortsetzt oder gar verschlimmert.

Antwort Gefällt mir

RAZORLIGHT

Veteran

355 Kommentare 262 Likes

Ausstieg ja, aber der Zeitpunkt hätte nicht dümmer sein können Deutschland halt...
ps. Ich lebe seit 32 Jahren in der Nähe (ca.15km) eines AKW (Gundremmingen)... irgendwie fehlt die Wasserdampfwolke aus den Kühltürmen, man wusste immer wo es Richtung Heimat ging 😔

Antwort 3 Likes

Megaone

Urgestein

1,745 Kommentare 1,644 Likes

Naja, genau das ist aber das Problem. Es sind halt die paar FPS die der 3090 fehlen um stabil immer über 60 Frames zu haben in 4K.

Über die Atomenergie reden wir besser nicht. Dank der Fachkräft/innen von denen wir regiert werden, wundert mich nix mehr. Wobei die letzte Regierung auch nicht durch planerische Weitsicht geglänzt hat.

Und wie schon mehrfach geschrieben. 1KW ist perspektivisch eh die Einstiegsgröße für Nerds.

Haben ist besser als brauchen ist nirgendwo richtiger, als bei der Leistung des Netzteils im PC. Ich spreche da aus leidvoller Erfahrung.

Ansonsten Danke für den Top Artikel. Wieder was gelernt. (y)

Antwort Gefällt mir

Megaone

Urgestein

1,745 Kommentare 1,644 Likes
Megaone

Urgestein

1,745 Kommentare 1,644 Likes

Die Aussage würde ich anzweifeln. Wenn ich sehe was ich für einen Staub aus den Kühlkörpern geholt habe, gerade bei hochdrehenden Grakakühlern ist die Flüssigkeitskontrolle zusätzlich das deutlich geringere Problem.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung