Groundhog Day: Der 12V2X6, schmelzende Kontakte und Schieflasten – Was wir wissen und was nicht

Der Filter geht auf 38 kHz Cutoff-Frequenz. .56 microH, 2x 15 pF. Der ist exakt fürs vermeiden des Skinneffekt bei AWG16 bemessen. Der filtert nix weg was niederfrequenter wäre.
Das weiß ich ja. Nur macht man das ja nicht, wenn es keinen Skin-Effekt zu befürchten gäbe. AMD glaubt ja auch dran :)
 
Ok, ich habe mich schon gewundert warum die Auflösung so gering ist und die Spannung zwischen 10 - 14 V so stark schwankt.

Ich habe mal folgendes geordert:

PeakTech P 1331 100 MHz / 4 CH, 1 GS/s, Digital Speicheroszilloskop
Chauvin Arnoux Zange, MN60 CV
Meines Erachtens ist das keine Allstromzange. Mit einer Wechselstromzange wirst Du nicht viel Spaß haben. Außerdem löst das nicht genau genug auf. Selbst meine HZO50 schafft nur 100 KHz bevor sie anfängt zu halluzinieren. Bei spätestens 30A ist auch Schluss, deshalb teile ich die Messungen ja auch auf zwei Kabelbündel auf.
 
Jetzt mal ehrlich: 1500€ für eine 5080 (und grob das doppelte für die 5090) verlangen und dann wegen ein paar Cent an der Platine sparen... Kann ja wohl nicht sein...🥴
Minimizemania :D

Hier mal die 7900 XTX MBA, also AMDs Referenz:

XTX.jpg

Laut Whitepaper soll die Schaltfrequenz höher sein und die Karte hat auch einen besseren PWM Controller und nutzt ein Multi- sowie Intelli-Phase-Design mit adaptiver Phasensteuerung (Ändern der Phasenzahl im Teillastbetrieb, sowas wie Zylinderabschaltung beim Auto)
 
Zuletzt bearbeitet :
Wenn sie bei RDNA 3 mit der Software vom Start weg so gut gewesen wären wie mit dem Layout hätte ich heute keine 4080 .....

Wenns einem um die Skin Effekt geht, da gibts glaub ich sinnvollere Methoden das zu messen als mit einem Oszi, wenn man das unbedingt machen muss .. Aber es ist zumindest ungefährlicher und noch billiger als sich ein Raumschiff zu kaufen um zu prüfen ob die Erde wirklich keine Scheibe ist..
 
Wenns einem um die Skin Effekt geht, da gibts glaub ich sinnvollere Methoden das zu messen als mit einem Oszi, wenn man das unbedingt machen muss ..
Ich habe keinen Spektrumanalysator samt Nahfeldsonde, Thermografie scheidet auf Grund der Platzverhältnisse aus und eine Frequenz-Impedanzmessung mittels Vektor-Netzwerkanalysator kann ich auch nicht machen, das ist eh nur für Transformatoren sinnvoll. Ich schrieb ja schon, dass die Mittel begrenzt sind :(

Nachtrag:
Falls jemand eine Idee hat, wie man die Schaltfrequenz der Wandler ändern könnte, dann könnte man eine frequenzabhängige Verlustanalyse machen. Sollten sich signifikante Änderungen ergeben, hätte man den Effekt zumindest nachgewiesen.

Man könnte die Kontakte ja mal testweise vergolden :D
 
Zuletzt bearbeitet :
Meines Erachtens ist das keine Allstromzange. Mit einer Wechselstromzange wirst Du nicht viel Spaß haben. Außerdem löst das nicht genau genug auf. Selbst meine HZO50 schafft nur 100 KHz bevor sie anfängt zu halluzinieren. Bei spätestens 30A ist auch Schluss, deshalb teile ich die Messungen ja auch auf zwei Kabelbündel auf.

Danke für den Hinweis. Habe nun eine Chauvin Arnoux MH60 genommen. Die kann DC bis 1 MHz. Messwiderstand würde ich gerne vermeiden. Und unglaublich wie teuer Strommesszangen bzw. Umformer sind.
 
Nachtrag:
Falls jemand eine Idee hat, wie man die Schaltfrequenz der Wandler ändern könnte, dann könnte man eine frequenzabhängige Verlustanalyse machen. Sollten sich signifikante Änderungen ergeben, hätte man den Effekt zumindest nachgewiesen.
Da hätte ich in der Theorie eine Idee, "bessere" Spulen !
Das Problem an der Sache ist nur, dass ich was diese Bauteile absolut keine Ahnung habe, also ich weiß nicht ob es Spulen gibt die man anbringen könnte die so viel mehr an Energie speichern das die Frequenz der Wandler entsprechend abfällt.
Oder man bastelt den Pömpel an eine XTX mit oder ohne Zylinderabschaltung etc und schaut wie es sich dort verhält ... Das ist vielleicht noch das einfachere Experiment und die bringt man eventuell auch ohne all zu viel Aufwand zumindest in die Verbrauchs Regionen einer 4090 um das ganze noch besser zu vergleichen :)
 
Zuletzt bearbeitet :
Besser Spulen brauchen mehr Platz den man auf der Grafikkarte nicht hat. Um ausreichend Leistung über die relativ kleinen Spulen übertragen zu können, braucht es Schaltregler mit hohen Schaltfrequenzen. Man hat also auf der Grafikkarte auch nicht die Möglichkeit die Schaltfrequenzen einfach zu reduzieren.

Die hohen Schaltfrequenzen der Spannungsregler sind aber eigentlich auch garnicht so das Problem. Denn die hinterlassen am Ende ja nur ein relativ kleinen Voltage ripple, weil sich sehr hochfrequenter Mist auch effizienter Filtern lässt. Deutlich schwieriger zu filtern sind da die GPU-Lastschwankungen, mit ihrem extrem hohen WechselstromAnteil. Angesichts der unabdingbaren GPU-Stromsparfunktionalität lässt sich daran aber auch nix ändern.
 
Ich sehe das Probem eher in den entstehenden Mischprodukten. Niederfrequente Lastwechsel der GPU treffen auf hochfrequente Spannngswandler und am Ende haben wir ja auch noch Nichtlineritäten an den VRM und es entsteht quasi ein Brei aus allem Möglichen.

Ich persönlich wäre für etwas größere Platinen und einen gut gefilterten Eingangsbereich, dazu ein zweckmäßiges Load-Balancing und mindestens zwei echte (besser drei), überwachte und abgesicherte Rails, der PEG könnte ja unabhängig davon restliche Verbraucher versorgen, da gibt es genügend, um die paar Watt vollzubekommen. Ich finde das grüne Gottvertrauen in diesen Kack-Stecker komplett geisteskrank. Ok, man kann sich mal verrennen, aber es wäre besser, konsequent den Stecker zu ziehen, bevor man ihn rausmeißeln muss. Das wird ja nicht besser.
 
Das ist garantiert auch wieder nur ne Kostenfrage. Mit einer MultilayerLeiterplatte die zwei Layer mehr hat, wären optimierte Strompfade bestimmt kein Problem, auch ohne die DatenSignalwege zu verschlechtern. Aber ohne vernünftige NetzteilAnbindung, ist das auch nur "Perlen vor die Säue werfen".
 
Das weiß ich ja. Nur macht man das ja nicht, wenn es keinen Skin-Effekt zu befürchten gäbe. AMD glaubt ja auch dran :)
Die 5090FE sowie die Custom-Designs, wie auch die 40xx GPUs scheinen alle den gleich dimensionierten Filter zu haben, und der Shunt über den der Verbrauch gemessen wird sitzt auch bereits auf der anderen Seite davon. Heißt du dürftest da eigentlich wirklich nix über 40kHz messen. Alles was du bei den problematischen Karten misst, ist entsprechend niederfrequenter.

Die VRMs operieren im MHz-Berreich und unabhängig voneinander ohne gemeinsames Taktsignal aber trotzdem auf sehr ähnlichen Frequenzen - richtig? Dann wären im kHz-Bereich auch noch Interferenzmuster zu erwarten, zusätzlich zu den Lastwechseln.
 
Zuletzt bearbeitet :
Wie würde es sich auswirken, wenn garkeine Filterung zwischen GPU-Spannungsregler und GrafikkartenHeader vorhanden wäre?
 
An Electrical Engineer's take on 12VHPWR and Nvidia's FE board design

Mit dem Wissen sind sämtliche Testberichte für alle jene Pixelbeschleuniger die Katz, welche so grenzwertig konstruiert wurden. Aus meiner Sicht absolut erschreckend, welche Dilettanten sich hier austoben durften, dummerweise zu Lasten des Konsumenten. An und für sich sollte man/n doch annehmen, dass Nvidia & Co ihr Handwerk verstehen. Selbiges dürfen sich auch die Tester auf die Fahne schreiben, die solche Produkte durchwinken. Oder drastischer formuliert: Solchen Produkten stünde ein Warnhinweis gut zu Gesicht.

Somit bewahrheitet sich wieder mal, dass wer sich auf der sicheren Seite wünscht, sich mit seiner Kaufentscheidung in Zurückhaltung üben sollte, um erst einmal abzuwarten, ob das Produkt denn tatsächlich hält, was der Hersteller so blumig verspricht und das ist noch wohlwollend formuliert.

Gratulation hingegen dem Autor für solche offenen Worte:

If you even suspect your card may be at risk, return it and get your money back. Spend it on something else. You can do a lot with 2 grand and a bit extra. They do not deserve your money if they are going to sell you a potentially dangerous product lacking arguably critical safety mechanisms. Yes that includes AMD and Intel. That goes for any company to be honest.
 
Zuletzt bearbeitet :
Wie würde es sich auswirken, wenn garkeine Filterung zwischen GPU-Spannungsregler und GrafikkartenHeader vorhanden wäre?
Mehr Wärme, mehr Spitzen (bis in die GPU), kürzere Lebensdauer, vermutlich auch ein anderer Betriebspunkt (was die Performance etc angeht)......
 
Erhöht das Filter den Wechselspannungswiderstand über 40khz in beiden StromkreisRichtungen?
 
Ja, wie wir es drehen und wenden, alle möglichen physikalischen Effekte hin oder her, die Schuld bleibt bei Nvidia. Von Anfang an. Eigentlich müssten die nun handlen, und sicher nicht mit Rabatten, aber außer einem Preisaufschlag wirds wohl weiter rauchen in den heimischen PCs.

Wenn der 12VHPWR oder neu 12V-2x6 auch noch weniger Sicherheiten hätte als er schon hat, von mir aus -10%, wenn Nvidia sowas verbaut liegt die Verantwortung weiterhin beim Entwickler der Elektronik, Nvidia selbst. Wenn der Stecker sein Wasser nicht halten kann, muss eben ein entsprechender Pot bereitstehen.

Sprich das höchste des Nervenaufwandes vom Käufer und Nutzer der Hardware sollte sie Sorge sein, ob mit dem dämlichen Drittanbieterkabel aus der Billigproduktion wenigstens nach dem zwanzigsten Versuch endlich die Grafikkarte nicht mehr in den Sicherheitsmodus herunterfährt, weil die Verbindung so grottenschlecht ist, dass einzelne Leitungen hoffnunglos überlastet werden, was auch nicht mehr wegzu-balancen ist.
 
Erhöht das Filter den Wechselspannungswiderstand über 40khz in beiden StromkreisRichtungen?
Die Dämpfung steigt jenseits der Cutoff-Frequenz linear mit der Frequenz weiter an. Die Leistung die im gedämpften Teil des Spektrum war fällt am Tiefpass ab. Unterhalb der Grenzfrequenz entsteht nahezu überhaupt kein zusätzlicher Widerstand, nur der ohmsche Widerstand der Spule. Es wird aber auch ein Teil der Störungen am Tiefpass reflektiert.

Die Spule sitzt bei dem hier verwendeten LC-Tiefpass aber nur in 12V drinnen, nicht in GND. Das heißt der Tiefpass gleicht überwiegend 12V an GND als Referenz an, und nur sehr beschränkt umgekehrt. GND ist (leider) kein Problem, schlichtweg weil an der GPU noch sehr viel mehr GND zur Verfügung steht als nur über den Stecker.

Ein LC-Tiefpass mit Spulen in beiden Leitungen wäre sogar problematisch, wegen den ganzen zusätzlichen Verbindungen die GND hat über die dann alle die gefilterten Störungen vom 12V gespiegelt würden.
 
Zuletzt bearbeitet :
Hallo,
ich bin bei meiner RTX4090 auf folgende Werte gekommen, da sollte ja soweit passen? 🤷🏻‍♂️

Die grau hinterlegten Felder sollen die beiden belegten Sense-Pins darstellen.
 

Anhänge

  • IMG_3560.jpeg
    IMG_3560.jpeg
    720,9 KB · Aufrufe : 17
ich bin bei meiner RTX4090 auf folgende Werte gekommen, da sollte ja soweit passen? 🤷🏻‍♂️
Nach dem Pinout des Steckers ist die mittlere Reihe +12 und unten GND. Somit dürfte bei der Messung +- vertauscht sein. Das macht aber natürlich nichts aus.

Die unteren GND-Pins haben zusammen weniger Strom, weil ein Teil über den PCIe-Slot zurück fliesst. Sie sind auch zimlich einheitlich ausgelastet, so dass das schon passt.

Wenn ich die obere Reihe zusammen rechne, komme ich auf etwa 36 Watt. Das passt für die 4090 schon und es ist auch kein Pin direkt überlastet. Es fällt aber auch auf, dass rechts ein Pin weniger belastet und einer in der Mitte praktisch unbelastet ist. Dieser Pin schein kaum Kontakt zu haben. Optimal ist das nicht, aber auch nicht gefährlich. Wenn der Kontakt an allen Pins brauchbar ist, sollte die Last auch zimlich gleichmässig verteilt sein.
 
Oben Unten