Grafikkarten Praxis Testberichte VGA

Mögliche Probleme bei der NVIDIA GeForce RTX 3090 Ti – Wenn das Schaltungsdesign zum engen Korsett wird | Analyse

Dass sich die bereits für den 27.01.22 kolportierte GeForce RTX 3090 Ti ordentlich verschiebt, dürfte vielleicht sogar mehrere Gründe haben, die jedoch sicher im Zusammenhang betrachtet werden müssen. Dass es so ist, konnte man bereits überall lesen, nur eben leider nicht, warum genau. Die Schmallippigkeit bei NVIDIAs Boardpartnern war diesmal erstaunlich ausgeprägt und doch kommt man auch im Ja-Nein-Ausschlussverfahren zu einem interessanten Schluss, wenn man die richtigen Fragen stellt. Ich möchte heute auch nicht wild spekulieren, sondern anhand diverser Informationen und Puzzle-Steinchen (die mir quasi in meinen virtuellen Briefkasten geworfen wurden) ein wenig Grundlagenforschung betreiben.

Die Umstände, über die ich heute schreibe, sind also durchaus ein reales Szenario und es erhebt gleichzeitig doch nur den Anspruch, lediglich ein Praxis- und Fakten-basiertes „Was wäre wenn“ Experiment zu sein und eben kein Leak, wo man seine Quellen mit Contenance in die Pfanne haut und NVIDIAs Legal-Abteilung zu rotieren beginnt. Die aktuelle Gerüchte, je nach Seite, sprechen von Hardware- oder Firmware-Probleme, ich würde sogar soweit gehen, von Hardware UND Firmware-Problemen zu sprechen, wobei die Firmware gleichzeitig die Ursache und die Lösung sein könnte und die Hardware der harte Betonpfosten im High-Speed-Rennen.

Allerdings, das muss ich auch eingrenzen, haben mittlerweile sogar drei große Boardpartner versichert, dass Ihre Karten problemlos laufen, man keine wirklichen Probleme damit hätte und das Hold von NVIDIA ohne jegliche Angaben von Gründen kam. Ob sich NVIDIA jetzt mit der eigenen Founders Edition müht und der Rest der Anbieter auf das „MSRP-Modell“ warten muss, wer weiß… Aber dass die Anpassung der FE nicht einfach ist (bis hin zur Kühlung), ist sicher kein Geheimnis. Deshalb beziehe ich mich im heutigen Artikel auch allein auf die FE und kein andees Modell.

Bestehende Designs und die Grenzen des Balancings

Um auch wirklich alle abzuholen, werde ich die folgenden Inhalte stark vereinfachen. Zumindest soweit, wie es noch inhaltlich exakt genug bleibt. Fangen wir zunächst auf der kaufmännischen und technischen Seite an. Da die GeForce RTX 3090 Ti eher ein Einhorn-Dasein fristen dürfte, ergäbe es wenig Sinn, für eine physisch fast baugleiche Karte (sieht man mal von der GPU und dem Speicher ab) extra noch eine eigene Platine zu entwickeln bzw. diese neue Karte dann auch noch noch einmal aufwändig durch NVIDIAs Greenlight-Programm zur Validierung aller Einzelschritte zu schicken. Das erklärt dann auch, warum z.B. MSI bei den drei 8-Pin Anschlüssen statt des neuen 16-Pin Microfit-Adapters bzw. des 12+4 ATX-Steckers verbleibt. Man benutzt einfach weiter, was man eh schon hat!

Deshalb werden die Boardpartner meist nichts anderes tun, als die bestehenden Designs der GeForce RTX 3090 weiter zu nutzen und diese Platinen, sowie die Firmware einfach dementsprechend anzupassen. Doch wie immer steckt da bereits der Teufel im Detail, denn die komplette Spannungsversorgung so einer Karte ist ein sehr fragiles und sorgsam untereinander abgewogenes Konstrukt. Da reicht es nicht, an nur einer oder zwei Stellschrauben zu drehen (wie es wohl oft passiert ist), sondern man muss unbedingt kontrollieren, welchen Rattenschwanz an gegenseitigen Beeinflussungen man möglicherweise noch hinter sich herzieht. Zumal ja auch diese ganzen Karten bereits sehr knapp auf Kante genäht worden sind. Betrachten wir der Einfachheit halber zunächst rein exemplarisch die Aufteilung der GeForce RTX 3090 Founders Edition, wobei wir die Rückseite vernachlässigen:

Wir sehen eine Aufteilung der GPU-Versorgungsspannung in NVVDD (Blau) und MSVDD (Grün), sowie die für den Speicher in Form von FBVDDQ (Rot). Die Erzeugung der weiteren Teilspannungen ist hier erst einmal wegen Ihres Anteils an der TBP zu vernachlässigen, wenn auch nicht völlig uninteressant. Wenn man weiß, wie die Phasen der Spannungswandler funktionieren, dann weiß man auch, dass der Großteil am externen PCIe-Anschluss (Aux) angebunden ist. Aber es sind nun einmal nicht alle. Ein gewisser Teil hängt auch am PCIe-Motherboard-Slot (PEG) und spätestens jetzt beginnt das Problem, das sich sogar recht einfach nachstellen lässt! Der PEG hat nämlich seine Grenze von 5.5 Ampere (also 66 Watt) auf der 12-Volt-Schiene bei vielen GeForce RTX 3090 bereits erreicht und könnte nur nur mittels einer (eklatanten) Normüberschreitung noch weiter belastet werden!

Wer übrigens wissen möchte, welche Komponenten welche Leistungsaufnahme verursachen, kann zunächst noch erst einmal einen Blick auf das Referenzlayout (PG132) werfen, das NVIDIA den Boardpartnern als Leitfaden mit auf den Weg gab. Die thermische Last entspricht natürlich auch der elektrischen Verlustleistung der jeweiligen Komponenten, da gilt immer noch der Energieerhaltungssatz! Und so sehen wir, dass der Speicher wirklich mit fast  60 Watt (also 2x 30 Watt pro Seite) kalkuliert wird und die GPU eigentlich sogar noch unter 230 Watt bleibt.

 

In der Firmware wird für die GeForce RTX 3090 Ti jedoch eine deutlich höhere TBP (ab ca. 480 Watt) hinterlegt, also der Wert für die gesamte Grafikkarte unter Einbeziehung aller existierenden 12-Volt-Schienen. Und wenn wir nun die Komponenten aus dem Schema oben im Hinterkopf behalten, wird es besonders im Bereich der GPU, der GPU-Spannungswandler und dem Speicher auch thermisch recht lustig zugehen. Doch die Abwärme ist letztendlich ja nur die Folge der zuvor zugeführten elektrischen Energie.

Das dürfte dann auch der primäre Ausgangspunkt der ganzen Probleme sein, auch wenn NVIDIA alle eingehenden Leitungen mit sogenannten Monitoring-Chips wie z.B. dem unten abgebildeten uS5650Q von UPI akribisch überwacht. Diese speziellen Chips erfassen verschiedene Spannungen in recht kleinen und damit sehr gut geeigneten Intervallen und lassen somit eine Echtzeitkontrolle zu.

Doch es geht ja am Ende auch um die fließenden Ströme und so misst man zweckmäßigerweise den Spannungsabfall, der an den jeweiligen Eingängen der 12-V-Schienen an sogenannten Shunts (also niederohmigen Widerständen) entsteht (siehe Bild unten neben den beiden Längsspulen in der Mitte). Daraus lässt sich nach dem Ohm’schen Gesetz dann ganz einfach der jeweils fließende Strom errechnen und zusammen mit der ebenfalls erfassten Eingangsspannung kann man so auf die jeweilige Leistung als Produkt beider Werte schließen. Zusammenaddiert hat man dann die aktuelle Leistungsaufnahme, die z.B. Programme wie HWInfo auch auslesen können. AMD bietet so einen Service leider (noch) nicht. Schade eigentlich. Und wenn ich hier so vereinfacht „man“ schreibe, das erledigt natürlich die Firmware der Karte.

Nur leider kann man nicht so einfach die Leistungsaufnahme einzelner Komponenten wie GPU oder Speicher steigern, ohne dass es zu einem gleichzeitigen Anstieg auf allen Versorgungsleistungen käme. Und ja, auch der noch schnellere Speicher wird wohl zusätzliche Leistung benötigen und sicher nicht mit den aktuellen, maximal 3 Watt pro Modul auskommen. Und das alles mit bereits bestehenden Designs? Bei einer MSI RTX 3090 Ti Suprim hätte ich da auch aufgrund des fetten Kühlers thermisch sicher kein Problem, wohl aber elektrisch.

Und auch wenn ich Shunt-Mods für den Alltagsbetrieb eigentlich ablehne, kann man doch aus ihnen sogar noch lernen! Denn wenn man nur die Shunts an der externen Versorgungbuchse ändert (in diesem Fall der RTX 3090 FE also zwei) und den Shunt des PCIe-Slots (Motherboard) im Original belässt, wird die Karte sporadisch instabil und sie wird auch nicht mehr sauber unter Last laufen. Auch das habe ich getestet, bevor auch die Messungen auf der nachfolgenden Seite gemacht habe. Stichwort Umblättern! Jetzt gibts Watt zu staunen.

 

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,797 Kommentare 817 Likes

Welche Komponente der Graka bekommt eigentlich den Saft über den PCiE?
und
Wie waren eigentlich die Werte bei den 3V ?

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Am PEG hängen ein paar einzelne Phasen der GPU und des Speichers. Und ich habe auch keine Brücken gefunden, die man anders hätte verlöten können. MSI macht sowas gern. Das PCB der 3090 ist aber bisher nur für die 3090 geplant gewesen, alle anderen Karten sind skalierbar.

3 Volt nutzt doch keiner mehr. das liegt so um 1-2 Watt maximal. Schau doch auf die Charts, die grüne Kurve klebt immer fast bei der Null. :)

Antwort 2 Likes

grimm

Urgestein

3,070 Kommentare 2,023 Likes

Vielleicht ist der Garantiefall in den horrenden Summen, die die Händler verlangen, einfach schon eingepreist ;)

Antwort 3 Likes

D
Deridex

Urgestein

2,204 Kommentare 843 Likes

Nur weil darüber wenig Leistung bezogen wird, heißt es nicht das es keiner mehr nutzt. Deine Aussage kann eventuell für Grafikkarten gelten (wobei ich mir auch da nicht sicher wäre), aber nicht allgemein.

Antwort Gefällt mir

P
Phelan

Veteran

189 Kommentare 171 Likes

Chleudert den Purchen zu Poden! ;-)

@tropic
dieses hochgezüchte ist für mich mittlerweile echt jenseits von gut und böse..
Sehe da kein technischen Fortschritt mehr ... das ist eher wie Dragstar Motoren bauen oder so.
Grafikkarten die deutlich über ihrem Effizenzpunkt betrieben werden werde ich nicht kaufen.

AMD plant ein 256 kernigen CPU mit 600W ... krass ... aber das sind halt nur 2,5W pro CPU Kern also irgenwie auch wieder krass gut. Sowas ist ok.
Aber 100derte Watt zu verballern um aus eh schon überzüchteten Konstrukten noch paar % mehr rauszuprügeln ... ne lassmal.

Antwort 6 Likes

Pascal TM-Custom

Urgestein

1,122 Kommentare 1,358 Likes

1kw Netzteil Empfehlung das ist nur noch Irrsinn wo kommen wir denn da hin? Das ist Ressourcen Verschwendung im großen Still.
Jeder Gesunde Mensch sollte da doch sagen jetzt ist genug.
Aber es wird wieder so sein das so mancher sich die Gpu´s kauft koste es was es wolle für paar FPS mehr.

Ich erinnere mich gut wie alle über die Vega64 hergezogen sind und die mit einer Jet Turbine verglichen haben bezüglich TDP wo liegt dann jetzt die 3090ti? Kernschmelze? Sonneneruption?

Ich glaube es war keine gute Idee in Deutschland aus der Atomenergie auszusteigen :ROFLMAO:☢️

Antwort 5 Likes

ssj3rd

Veteran

213 Kommentare 142 Likes

Ich bin tatsächlich sehr auf die nächste Generation gespannt und wie viel Watt die 4090 dann tatsächlich benötigt, mit meiner 3090FE bin ich doch eher unzufrieden (wegen dem elenden Spulenfiepen, was mich langsam aber sicher doch durchdrehen lässt, kann man deswegen eigentlich einen Tausch arrangieren bei Nvidia?)

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Bezieht sich auf die Grafikkarten, denn nur um die ging es hier. Da NV eine Kontroll-Freak-Company ist, wäre diese Schiene sonst auch mitprotokolliert worden. Auf den Karten werden (auch hier siehe Blockschema) 5 Volt generiert, an denen dann fast der ganze Kleinkram hängt. Kaskadierung ist zwar nicht sonderlich effizient, aber bei den kleinen Strömen geht das schon. ich messe die 3.3V immer mit, aber seit ca. 4 Jahren ist sowohl bei AMD, als auch NV da komplett Ebbe.

View image at the forums

Allerdings geht auch der Trend bei Motherboards eher hin zu 5 und 12 Volt, denn jede Schiene mehr verkompliziert das Ganze ja auch etwas. Und was Netzteile so im Crossload abliefern... nun ja. Da gibts auch ordentlich viel Schund. ;)

Antwort 1 Like

P
Pokerclock

Veteran

411 Kommentare 347 Likes

Mal weniger aus der technischen Sicht gedacht als aus der wirtschaftlichen. Ich empfinde diese Entwicklung als sehr bedenklich. Meine Kunden erwarten von mir ausnahmslos funktionierende Systeme und ich als Verleiher stehe - anders als ein Händler - auch voll dafür ein, dass diese Systeme einwandfrei funktionieren und wenn es sein muss sofort bei Problemen ausgetauscht werden. Nix 6 bis 8 Wochen RMA, Austausch binnen Stunden. Die 3090er werden ausnahmslos nachgefragt von denjenigen, die damit ihr Geld verdienen. Da geht es gerne mal um fünf- bis sechsstellige Summen, und ich als Verleiher stehe da weit unten in der Wertschöpfungskette.

Ich muss zwangsläufig nun Systeme entwerfen, die von vornherein das dickste Netzteil und die dicksten Mainboards vorweisen können, nur um vollkommen vermurkste, hochgezüchtete Grafikkarten bedienen zu können. Und selbst das wird mir nicht helfen willkürliche Abstürze o.a. Probleme zu vermeiden. Im Zweifel wird das ganze System ausgetauscht. Das geht oftmals schneller als ewig den Fehler zu finden und hier im Fall kann man wohl wirklich ewig den Fehler suchen, den man gar nicht beheben kann. Am Ende wird das aber zu einer massiven Kostensteigerung führen, da die Systeme von vornherein teurer in der Anschaffung sind und ich wohl mehr Systeme einfach im Regal habe stehen müssen, um Reklamationen abfangen zu können = totes Kapital. Und wie es bei Desktop-Workstations sein muss, sollten die noch halbwegs transportabel sein. Aktuell lässt sich das selbst noch mit guten mATX-Boards und entsprechend kleinen Gehäusen handhaben. Wenn aber erstmal 700W+ Abwärme da raus muss, wird auch das nicht mehr gehen. Größere Gehäuse, mehr Transportvolumen, mehr Gewicht für meinen armen Rücken...

Und da ist noch die Sache einer gestiegenen Brandgefahr, die ich hier niemals ausschließen würde. Ich habe schon gesehen wie gut die Sicherungen bei den dicken Single-Rail-Netzteilen funktionieren, wenn die ersten Stichflammen züngeln. Nämlich gar nicht. Auch Versicherungen kennen Grenzen...

Antwort 3 Likes

Klicke zum Ausklappem
Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Von der Abwärme her ist eine Wasserkühlung der Grafikkarte schon fast Pflicht. Für einen wartungsfreien, zuverlässigen Betrieb ist das aber sicher auch keine gute Lösung. Also muss man mehr Luft durch die Kiste blasen was solche PCs dann unangenehm laut macht. Das ist auch nicht das, was ich beim Arbeiten neben mir haben möchte.

Antwort 2 Likes

P
Pokerclock

Veteran

411 Kommentare 347 Likes

Custom-Wakü sind äußerst schwierig im täglichen, harten Umgang mit viel hin und her Transporten. Mit dem Zeug wird seitens der Kunden oftmals nicht zimperlich umgegangen. Einfach mal per DHL verschicken ist komplett unmöglich. Und ein Freund von AIOs bin ich überhaupt nicht. Kaputte Pumpen, mit der Zeit zugesetzte Kühlfinnen, mit der Zeit ein Blubbern, das lauter als das ganze Kühlsystem des PCs ist. Wenn es um Ausfallsicherheit geht, bevorzuge ich tatsächlich den dicken Tower-Kühler. Aktuell geht es aber auch dort nicht mehr anders. AIOs haben eben doch den Vorteil nicht soviel Gewicht am Mainboard kleben zu haben, was den Versand erleichtert. Dem Kunden zumuten eine Grafikkarte ein- und wieder auszubauen geht noch, aber den dicken Tower-Kühler mitsamt Umgang WLP etc. geht halt nicht mehr. Die AIOs werden wir bei den Grafikkarten in jedem Fall verstärkt sehen. Anders geht das ja kaum noch abzuführen, oder wann kommt die erste 5-Slot-Grafikkarte?

Antwort 1 Like

Pascal TM-Custom

Urgestein

1,122 Kommentare 1,358 Likes

kannst gleich 2kw Netzteil kaufen

Antwort Gefällt mir

D
Deridex

Urgestein

2,204 Kommentare 843 Likes

Mit Starkstromanschluss? :D

Antwort 2 Likes

k
krelog

Veteran

170 Kommentare 44 Likes

nein musst du nicht du kannst auch deinen Kunden sagen das dir die Qualität nicht gefällt und es instabil ist sowas verleihst du nicht. Wenn du das nicht machst um den Umsatz der Kunden mitzunhehmen die es trotzdem wollen, darf man sich nicht beschweren.

Allgemein sich über die hohen Leistungen aufzuregen bringt nix weil die Nachfrage ist da und die wird von den Herstellern nur befriedigt.
Ist wie beim Fahrzeug keiner brauch hier was über 100PS in Deutschland aber die Fahrzeuge mit unter 100PS kannst an einer Hand abzählen.

Antwort 1 Like

RAZORLIGHT

Veteran

354 Kommentare 260 Likes

Toller sehr interessanter Artikel, macht Spass mal hinter die Kulissen blicken zu dürfen.

Diese Entwicklung mit immer mehr TDP bei den GPUs ist doch einfach nur dämlich.

Gerade in Anbetracht der massiv erhöhten Strompreise und den Straßenpreisen der GPUs muss man sich manchmal wirklich Fragen ob man das Hobby noch in dem Maß wie bisher betreiben möchte.
Ist ja nicht der verbrauchte Strom sondern auch die dadurch entstehende Abwärme, ist selbst mit einer 2070super im Sommer kein Spass und der PC steht nicht in einem kleinen Raum.

Wir können nur hoffen, dass sich dieser Trend mit der nächsten Generation nicht fortsetzt oder gar verschlimmert.

Antwort Gefällt mir

RAZORLIGHT

Veteran

354 Kommentare 260 Likes

Ausstieg ja, aber der Zeitpunkt hätte nicht dümmer sein können Deutschland halt...
ps. Ich lebe seit 32 Jahren in der Nähe (ca.15km) eines AKW (Gundremmingen)... irgendwie fehlt die Wasserdampfwolke aus den Kühltürmen, man wusste immer wo es Richtung Heimat ging 😔

Antwort 3 Likes

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Naja, genau das ist aber das Problem. Es sind halt die paar FPS die der 3090 fehlen um stabil immer über 60 Frames zu haben in 4K.

Über die Atomenergie reden wir besser nicht. Dank der Fachkräft/innen von denen wir regiert werden, wundert mich nix mehr. Wobei die letzte Regierung auch nicht durch planerische Weitsicht geglänzt hat.

Und wie schon mehrfach geschrieben. 1KW ist perspektivisch eh die Einstiegsgröße für Nerds.

Haben ist besser als brauchen ist nirgendwo richtiger, als bei der Leistung des Netzteils im PC. Ich spreche da aus leidvoller Erfahrung.

Ansonsten Danke für den Top Artikel. Wieder was gelernt. (y)

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes
Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Die Aussage würde ich anzweifeln. Wenn ich sehe was ich für einen Staub aus den Kühlkörpern geholt habe, gerade bei hochdrehenden Grakakühlern ist die Flüssigkeitskontrolle zusätzlich das deutlich geringere Problem.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung