Grafikkarten Praxis Testberichte VGA

Mögliche Probleme bei der NVIDIA GeForce RTX 3090 Ti – Wenn das Schaltungsdesign zum engen Korsett wird | Analyse

Die Belastung der 12-Volt Schienen von 350 bis 520 Watt

Nach der doch etwas längeren Einführung will ich nun mit drei Messungen und einer Hochrechnung (Emulation) das Balancing der RTX 3090 FE erfassen, die ich mittels temporärem Shunt-Mod und einer Wasserkühlung samt Chiller fast an die Grenzen des Möglichen getrieben habe. Nachmachen sollte man diesen Ausflug in die Hardware-Hölle besser nicht, denn es bringt außer einer sinnlos hohen Leistungsaufnahme und der Verschwendung wertvoller Ressourcen nicht mehr so viel. Wie das im Detail zu lösen ist, hatten wir ja bereits schon einmal als ausführlichen Artikel:

Entfesseltes Einhorn auf Höhenflug – Shunt-Mod für die NVIDIA GeForce RTX 3090 FE samt Alphacool Eisblock GPX-N

Belassen wir die Grafikkarte zunächst erst einmal auf den 350 Watt ab Werk und sichern die Ausgangswerte. Die nachfolgenden Bildergalerien zeigen uns nun die Wattzahlen für die gesamte Karte (Weiß, Durchschnittswert gestrichelt), die Summe der Aux-Buchsen (Blau) und den Motherboard-Slot (PEG, in Rot) mit dessen Durchschnittswert (Gelb gestrichelt). Die Wassertemperatur ist mit 20 °C über alle Messungen hin schön niedrig und macht so wirklich Spaß auf mehr.

Doch betrachten wir zunächst erst einmal die 350-Watt-Messung im Detail. Die gemessene Leistungsaufnahme beträgt zunächst exakt 350,3 Watt (1 ms Spikes bis 528 Watt) und liegt damit abzüglich möglicher Toleranzen so richtig voll im Trend. Der etwas empfindlichere PEG wird hier aber bereits mit 5,3 Ampere (Gaming) und 5.6 Ampere (Torture) voll am Limit belastet, was übrigens auch bei der MSI RTX 3090 Suprim der Fall war. Das ist nicht wirklich hilfreich, aber designbedingt.

 

Doch was passiert jetzt, wenn man die Founders-Edition ohne Shunt-Mod mit dem maximalen, im BIOS hinterlegten Power Limit von 400 Watt und zudem extrem kühl betreibt? Wir landen nun bei ca. 401 Watt, also auch nur 1 Watt über dem im BIOS gesetzten harten Limit. Erneut eine schöne Punktladung, aber der PEG wird nun schon mit 5,7 Ampere (Gaming) bzw. 5.9 Ampere (Torture) belastet. In beiden Fällen liegt die Karte also schon etwas über der Norm der PCI SIG, die maximal 5.5 Ampere erlaubt. Es wird hier nichts abfackeln oder explodieren, aber Normen sind wie Gesetze und sollten auch strikt eingehalten werden! Mit 647 Watt im 1-ms-Intervall liegt auch die Lastspitze aller Rails schon ordentlich hoch, aber es wird noch „besser“, versprochen.

 

Ich habe einfach zwei identische Widerstände neben dem 12-Pin und dem einen für den PEG temporär aufgelötet und damit das Power Limit verdoppelt. Der Testbetrieb landete wieder bei etwas unter 350 Watt (Toleranzen). Danach habe ich mir die gröbere Vorgabe im Afterburner mit dem Taschenrechner ermittelt (immer berücksichtigen, dass man ja nur die Hälfte erfassen kann!) und solange am Regler gespielt, bis ich bei ca. 480 Watt gelandet bin. Das ist für die GeForce RTX 3090 FE allerdings bereits komplett grenzwertig und wirklich nichts, was ich für den Dauerbetrieb vertreten könnte. Sehr viel höher als 490 Watt bin ich leider trotz manuellem OC dann nicht mehr gekommen, denn da geht einem am Ende auch die Spannung aus. Die 500 Watt waren leider nicht mehr drin, schade.

Mit 757,9 Watt lag der höchste gemessene 1-ms-Intervall noch einmal etwas über dem bereits gemessenen Spitzenwert und die Strombelastung am PEG steigt auf 6,9 Ampere (Gaming) und 7 Ampere (Torture). Das sind immerhin bereits 82,8 bzw. 84 Watt statt der erlaubten 66 Watt. Aber man kann ja noch einen drauflegen, gleich…

 

Da ich meine Karte nicht zerstören wollte, habe ich anhand der drei ersten Messungen und dem Anstieg (der PEG steigt im Verhältnis etwas langsamer an als Aux) die mögliche Last für die kolportieren 520 Watt berechnet, denn viel mehr geben auch die drei 8-Pin-Buchsen der Suprim nicht her (der 12-pin Microfit der FE sowieso nicht). Natürlich ist dies keine echte Messung, aber folgt man dem Trend der bisherigen Leistungssteigerungen, dann ist das nun Abgebildete durchaus plausibel. Mit 520 Watt liegen wir also am Ende des heutigen Experiments, was auch bei den 1-ms-Spikes auf maximal 821,3 Watt schließen ließe. Da kommen wir den 1000 Watt Netzteilempfehlung von MSI doch schon etwas näher.

Der PEG würde prognostisch mit satten 7,4 Ampere (Gaming) und 7,5 Ampere (Torture) belastet. Das wären dann maximal 90 Watt, was einer Überlast von immerhin reichlich 36% entspricht, was auch für die fließenden Ströme gilt, die bis zu 2 Ampere über der Norm liegen.

Stabilität und Balancing

Jetzt könnte man natürlich argumentieren, dass aktuelle Motherboards diese Überlast einfach wegstecken würden, aber das Problem liegt auch an der Art der Last. denn es fließen ja keine konstanten Ströme, sondern die schnellen und häufigen Lastwechsel erzeugen fast schon ein hochfrequentes Gemisch, bei dem die Stromspitzen bis zu 15 (!) Ampere betragen können, was 180,2 Watt ausmacht. Sicher, es sind nur Peaks und das Netzteil bzw. die Platine können das noch wegstecken. Aber solch ein fieses Gemisch wirkt sich auch rückwirkend auf die anderen Baugruppen auf dem Motherboard aus, die ebenfalls aus der relevanten 12-Volt-Schiene des 24-Pin-Motherboardanschlusses gespeist werden.

Und was hat das nun mit der Firmware zu tun? Die elektrische Aufteilung bzw. Anbindung der Phasen an die jeweiligen Rails kann man natürlich damit nicht ändern, denn es gibt leider in den existierenden Layouts keine intelligenten Load-Balancer, die ein smartes Power-Gating vom PEG zum PCIe ermöglichen würden (das konnte z.B. die GTX 1070 Katana von Galax). Man kann aber in gewissem Grade die Ansteuerung der einzelnen Phasen beeinflussen und die am PEG angeschlossenen etwas aus dem Verkehr ziehen. Nur schafft man damit wieder höhere Lasten auf den anderen Phasen und es wird fast schon zum Hund-Schwanz-Prinzip, weil es dann unter Umständen die AUX-Anschlüsse an die Grenzen treibt und das Power Management im PWM-Controller etwas ausgehebelt. Mal abgesehen davon, dass die Smart Power Stages deutlich teurer würden, weil sie höhere Ströme stemmen müssten.

Zusammenfassung und Fazit

Das heutige Experiment stellt Fragen, die auch die Boardpartner nicht final beantworten wollten (oder konnten). Aber wie immer ist gar keine Antwort sogar die bessere. Denn wie sonst explizit verneint, wenn ich mit Spekulationen aufgeschlagen bin, hat es diesmal niemand. Und auch so manche Einkaufsliste (BoM) spricht eigentlich für meine These. Es ist und bleibt natürlich rein spekulativ, aber des Fazit ist nicht von der Hand zuweisen. Aus Grafikkarten, die bereits am Limit konstruiert wurden, eine signifikant schnellere zu basteln, ist nahezu unmöglich, wenn man sich an die gesetzten Normen halten möchte.

Da will ich auch nicht wieder über die Kondensatoren unterhalb der GPU und entlang der ganzen Tracks bis hin zu dem PWM Nodes der Spannungsgwandler schreiben, denn auch dieses Thema ist nicht von der Hand zu weisen. Wenn schon 350 oder gar 450 Watt bereits riesige Stabilitätsprobleme aufwerfen (und das alles nur durch einen Treiber wieder gefixt werden konnte), was passiert dann erst bei 520 Watt? Darüber will ich eigentlich gar nicht nachdenken. Aber falls es wirklich solche Karten auf den Markt schaffen, lasse ich mich gern vom Gegenteil überzeugen (bzw. überzeuge mich selbst).

Wenn die Grafikkartenhersteller als nächste Generation wirklich Modelle mit über 500 Watt TBP anbieten sollten, dann muss das Layout komplett neu gestaltet werden. Einfach aufbohren, so wie im Fall der kolportierten GeForce RTX 3090 Ti geschehen, wird dann unweigerlich im Fiasko enden. Im Übrigen ist auch der Speicher mit den 21 Gbps so ein Wackelkandidat, über dessen Stabilität man trotz Backdrill-Verfahren trefflich streiten könnte, selbst wenn NVIDIAs Base-Design-Kit das hergibt und sich die Hersteller daran halten. Theorie und Praxis eben.

Damit ist dieser kurze Exkurs auch schon wieder beendet und es würde mich nicht erstaunen, wenn ich mit der Problemerfassung nicht gar so weit daneben liege. Denn eines will ich zum Schluss auch noch loswerden: so richtig stabil war die gemessene Karte ab ca. 450 Watt auch nicht mehr.

 

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,840 Kommentare 840 Likes

Welche Komponente der Graka bekommt eigentlich den Saft über den PCiE?
und
Wie waren eigentlich die Werte bei den 3V ?

Antwort Gefällt mir

Igor Wallossek

1

10,158 Kommentare 18,733 Likes

Am PEG hängen ein paar einzelne Phasen der GPU und des Speichers. Und ich habe auch keine Brücken gefunden, die man anders hätte verlöten können. MSI macht sowas gern. Das PCB der 3090 ist aber bisher nur für die 3090 geplant gewesen, alle anderen Karten sind skalierbar.

3 Volt nutzt doch keiner mehr. das liegt so um 1-2 Watt maximal. Schau doch auf die Charts, die grüne Kurve klebt immer fast bei der Null. :)

Antwort 2 Likes

grimm

Urgestein

3,081 Kommentare 2,033 Likes

Vielleicht ist der Garantiefall in den horrenden Summen, die die Händler verlangen, einfach schon eingepreist ;)

Antwort 3 Likes

D
Deridex

Urgestein

2,210 Kommentare 846 Likes

Nur weil darüber wenig Leistung bezogen wird, heißt es nicht das es keiner mehr nutzt. Deine Aussage kann eventuell für Grafikkarten gelten (wobei ich mir auch da nicht sicher wäre), aber nicht allgemein.

Antwort Gefällt mir

P
Phelan

Veteran

190 Kommentare 172 Likes

Chleudert den Purchen zu Poden! ;-)

@tropic
dieses hochgezüchte ist für mich mittlerweile echt jenseits von gut und böse..
Sehe da kein technischen Fortschritt mehr ... das ist eher wie Dragstar Motoren bauen oder so.
Grafikkarten die deutlich über ihrem Effizenzpunkt betrieben werden werde ich nicht kaufen.

AMD plant ein 256 kernigen CPU mit 600W ... krass ... aber das sind halt nur 2,5W pro CPU Kern also irgenwie auch wieder krass gut. Sowas ist ok.
Aber 100derte Watt zu verballern um aus eh schon überzüchteten Konstrukten noch paar % mehr rauszuprügeln ... ne lassmal.

Antwort 6 Likes

Pascal TM-Custom

Urgestein

1,122 Kommentare 1,361 Likes

1kw Netzteil Empfehlung das ist nur noch Irrsinn wo kommen wir denn da hin? Das ist Ressourcen Verschwendung im großen Still.
Jeder Gesunde Mensch sollte da doch sagen jetzt ist genug.
Aber es wird wieder so sein das so mancher sich die Gpu´s kauft koste es was es wolle für paar FPS mehr.

Ich erinnere mich gut wie alle über die Vega64 hergezogen sind und die mit einer Jet Turbine verglichen haben bezüglich TDP wo liegt dann jetzt die 3090ti? Kernschmelze? Sonneneruption?

Ich glaube es war keine gute Idee in Deutschland aus der Atomenergie auszusteigen :ROFLMAO:☢️

Antwort 5 Likes

ssj3rd

Veteran

214 Kommentare 142 Likes

Ich bin tatsächlich sehr auf die nächste Generation gespannt und wie viel Watt die 4090 dann tatsächlich benötigt, mit meiner 3090FE bin ich doch eher unzufrieden (wegen dem elenden Spulenfiepen, was mich langsam aber sicher doch durchdrehen lässt, kann man deswegen eigentlich einen Tausch arrangieren bei Nvidia?)

Antwort Gefällt mir

Igor Wallossek

1

10,158 Kommentare 18,733 Likes

Bezieht sich auf die Grafikkarten, denn nur um die ging es hier. Da NV eine Kontroll-Freak-Company ist, wäre diese Schiene sonst auch mitprotokolliert worden. Auf den Karten werden (auch hier siehe Blockschema) 5 Volt generiert, an denen dann fast der ganze Kleinkram hängt. Kaskadierung ist zwar nicht sonderlich effizient, aber bei den kleinen Strömen geht das schon. ich messe die 3.3V immer mit, aber seit ca. 4 Jahren ist sowohl bei AMD, als auch NV da komplett Ebbe.

View image at the forums

Allerdings geht auch der Trend bei Motherboards eher hin zu 5 und 12 Volt, denn jede Schiene mehr verkompliziert das Ganze ja auch etwas. Und was Netzteile so im Crossload abliefern... nun ja. Da gibts auch ordentlich viel Schund. ;)

Antwort 1 Like

P
Pokerclock

Veteran

424 Kommentare 361 Likes

Mal weniger aus der technischen Sicht gedacht als aus der wirtschaftlichen. Ich empfinde diese Entwicklung als sehr bedenklich. Meine Kunden erwarten von mir ausnahmslos funktionierende Systeme und ich als Verleiher stehe - anders als ein Händler - auch voll dafür ein, dass diese Systeme einwandfrei funktionieren und wenn es sein muss sofort bei Problemen ausgetauscht werden. Nix 6 bis 8 Wochen RMA, Austausch binnen Stunden. Die 3090er werden ausnahmslos nachgefragt von denjenigen, die damit ihr Geld verdienen. Da geht es gerne mal um fünf- bis sechsstellige Summen, und ich als Verleiher stehe da weit unten in der Wertschöpfungskette.

Ich muss zwangsläufig nun Systeme entwerfen, die von vornherein das dickste Netzteil und die dicksten Mainboards vorweisen können, nur um vollkommen vermurkste, hochgezüchtete Grafikkarten bedienen zu können. Und selbst das wird mir nicht helfen willkürliche Abstürze o.a. Probleme zu vermeiden. Im Zweifel wird das ganze System ausgetauscht. Das geht oftmals schneller als ewig den Fehler zu finden und hier im Fall kann man wohl wirklich ewig den Fehler suchen, den man gar nicht beheben kann. Am Ende wird das aber zu einer massiven Kostensteigerung führen, da die Systeme von vornherein teurer in der Anschaffung sind und ich wohl mehr Systeme einfach im Regal habe stehen müssen, um Reklamationen abfangen zu können = totes Kapital. Und wie es bei Desktop-Workstations sein muss, sollten die noch halbwegs transportabel sein. Aktuell lässt sich das selbst noch mit guten mATX-Boards und entsprechend kleinen Gehäusen handhaben. Wenn aber erstmal 700W+ Abwärme da raus muss, wird auch das nicht mehr gehen. Größere Gehäuse, mehr Transportvolumen, mehr Gewicht für meinen armen Rücken...

Und da ist noch die Sache einer gestiegenen Brandgefahr, die ich hier niemals ausschließen würde. Ich habe schon gesehen wie gut die Sicherungen bei den dicken Single-Rail-Netzteilen funktionieren, wenn die ersten Stichflammen züngeln. Nämlich gar nicht. Auch Versicherungen kennen Grenzen...

Antwort 3 Likes

Klicke zum Ausklappem
Martin Gut

Urgestein

7,743 Kommentare 3,556 Likes

Von der Abwärme her ist eine Wasserkühlung der Grafikkarte schon fast Pflicht. Für einen wartungsfreien, zuverlässigen Betrieb ist das aber sicher auch keine gute Lösung. Also muss man mehr Luft durch die Kiste blasen was solche PCs dann unangenehm laut macht. Das ist auch nicht das, was ich beim Arbeiten neben mir haben möchte.

Antwort 2 Likes

P
Pokerclock

Veteran

424 Kommentare 361 Likes

Custom-Wakü sind äußerst schwierig im täglichen, harten Umgang mit viel hin und her Transporten. Mit dem Zeug wird seitens der Kunden oftmals nicht zimperlich umgegangen. Einfach mal per DHL verschicken ist komplett unmöglich. Und ein Freund von AIOs bin ich überhaupt nicht. Kaputte Pumpen, mit der Zeit zugesetzte Kühlfinnen, mit der Zeit ein Blubbern, das lauter als das ganze Kühlsystem des PCs ist. Wenn es um Ausfallsicherheit geht, bevorzuge ich tatsächlich den dicken Tower-Kühler. Aktuell geht es aber auch dort nicht mehr anders. AIOs haben eben doch den Vorteil nicht soviel Gewicht am Mainboard kleben zu haben, was den Versand erleichtert. Dem Kunden zumuten eine Grafikkarte ein- und wieder auszubauen geht noch, aber den dicken Tower-Kühler mitsamt Umgang WLP etc. geht halt nicht mehr. Die AIOs werden wir bei den Grafikkarten in jedem Fall verstärkt sehen. Anders geht das ja kaum noch abzuführen, oder wann kommt die erste 5-Slot-Grafikkarte?

Antwort 1 Like

Pascal TM-Custom

Urgestein

1,122 Kommentare 1,361 Likes

kannst gleich 2kw Netzteil kaufen

Antwort Gefällt mir

D
Deridex

Urgestein

2,210 Kommentare 846 Likes

Mit Starkstromanschluss? :D

Antwort 2 Likes

k
krelog

Veteran

173 Kommentare 53 Likes

nein musst du nicht du kannst auch deinen Kunden sagen das dir die Qualität nicht gefällt und es instabil ist sowas verleihst du nicht. Wenn du das nicht machst um den Umsatz der Kunden mitzunhehmen die es trotzdem wollen, darf man sich nicht beschweren.

Allgemein sich über die hohen Leistungen aufzuregen bringt nix weil die Nachfrage ist da und die wird von den Herstellern nur befriedigt.
Ist wie beim Fahrzeug keiner brauch hier was über 100PS in Deutschland aber die Fahrzeuge mit unter 100PS kannst an einer Hand abzählen.

Antwort 1 Like

RAZORLIGHT

Veteran

355 Kommentare 262 Likes

Toller sehr interessanter Artikel, macht Spass mal hinter die Kulissen blicken zu dürfen.

Diese Entwicklung mit immer mehr TDP bei den GPUs ist doch einfach nur dämlich.

Gerade in Anbetracht der massiv erhöhten Strompreise und den Straßenpreisen der GPUs muss man sich manchmal wirklich Fragen ob man das Hobby noch in dem Maß wie bisher betreiben möchte.
Ist ja nicht der verbrauchte Strom sondern auch die dadurch entstehende Abwärme, ist selbst mit einer 2070super im Sommer kein Spass und der PC steht nicht in einem kleinen Raum.

Wir können nur hoffen, dass sich dieser Trend mit der nächsten Generation nicht fortsetzt oder gar verschlimmert.

Antwort Gefällt mir

RAZORLIGHT

Veteran

355 Kommentare 262 Likes

Ausstieg ja, aber der Zeitpunkt hätte nicht dümmer sein können Deutschland halt...
ps. Ich lebe seit 32 Jahren in der Nähe (ca.15km) eines AKW (Gundremmingen)... irgendwie fehlt die Wasserdampfwolke aus den Kühltürmen, man wusste immer wo es Richtung Heimat ging 😔

Antwort 3 Likes

Megaone

Urgestein

1,740 Kommentare 1,642 Likes

Naja, genau das ist aber das Problem. Es sind halt die paar FPS die der 3090 fehlen um stabil immer über 60 Frames zu haben in 4K.

Über die Atomenergie reden wir besser nicht. Dank der Fachkräft/innen von denen wir regiert werden, wundert mich nix mehr. Wobei die letzte Regierung auch nicht durch planerische Weitsicht geglänzt hat.

Und wie schon mehrfach geschrieben. 1KW ist perspektivisch eh die Einstiegsgröße für Nerds.

Haben ist besser als brauchen ist nirgendwo richtiger, als bei der Leistung des Netzteils im PC. Ich spreche da aus leidvoller Erfahrung.

Ansonsten Danke für den Top Artikel. Wieder was gelernt. (y)

Antwort Gefällt mir

Megaone

Urgestein

1,740 Kommentare 1,642 Likes
Megaone

Urgestein

1,740 Kommentare 1,642 Likes

Die Aussage würde ich anzweifeln. Wenn ich sehe was ich für einen Staub aus den Kühlkörpern geholt habe, gerade bei hochdrehenden Grakakühlern ist die Flüssigkeitskontrolle zusätzlich das deutlich geringere Problem.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung