CableMods individuelles 12VHPWR-Kabel für GeForce RTX 40-Karten brennt durch.

Schmelzende Kontakte sind ja nur die spektakuläre Endphase von des Ganzen, und tritt wahrscheinlich eher selten auf. Selbst wenn das Problem nur durch Montagefehler beim Einbau durch den Anwender entsteht, sollte es ja mindestens ne anwenderfreundliche Prüfmöglichkeit geben, um den Zustand den Anbindung zwischen NT und GPU zu kontrollieren. Dann wäre das ganze auch kein Diskussionsthema mehr.

Dafür bräuchte es doch nur ein simples Testprogramm, das den Spannungsunterschied zwischen Idle und Volllast am GPU-12VHPWR Anschluss ausliest. Dabei würde auch zusätzlich sofort auffallen, wenn das NT zu wenig Leistung hat.
 
Dafür bräuchte es doch nur ein simples Testprogramm, das den Spannungsunterschied zwischen Idle und Volllast am GPU-12VHPWR Anschluss ausliest. Dabei würde auch zusätzlich sofort auffallen, wenn das NT zu wenig Leistung hat.
Wie üblich ist es mal wieder etwas komplizierter als man sich das vorstellt. Die Spannung an den PCIe-Anschlüssen der Grafikkarte werden von der Karte selbst an Shuntwiderständen gemessen. Die Werte kannst du mit Hwinfo64 verfolgen. Das ist so weit kein Problem.

Die Werte sagen aber nichts über die Qualität des Steckkontakts aus, weil sie von vielen anderen Faktoren abhängig sind. Wenn die Grafikkarte oder ein anderes Bauteil mehr Strom benötigt, regelt das Netzteil die Leistung nach und versucht die Spannung stabil zu halten. Wenn ein Stecker schlecht sitzt, können das ein paar zusätzliche Watt sein, die dort verheizt werden. Die verschwinden aber neben allen anderen Verbrauchern die ebenso am Netzteil hängen.

Um zu sehen ob das Netzteil ausreicht sagt die Messung auch nichts aus. Die Spitzenlasten im Millisekundenbereich werden nicht erfasst. Dazu weiss man ja auch nicht, wie viel das Netzteil erträgt vor es abschaltet oder wann die Einbrüche so stark sind, dass irgend ein Bauteil im PC zu wenig Strom bekommt und instabil wird. Das ganze ist zu komplex, als dass man nur an einem Ort etwas messen könnte und dann weiss, ob die Stromversorgung in Ordnung ist und ausreicht für die verbauten Komponenten.
 
Klar ist so eine Auslesung auf der Grafikkarte nicht besonders genau(weil nur träge gerundete Durchschnittswerte).
Wenn aber die 12V Spannung zwischen GPU Idle und GPU Vollast um z.B. mehr als 0.5V fällt, sollte man sich doch schon Mal drum kümmern. Und sei es nur, die Steckverbindungen erneut zu setzen. Das wäre alle Mal besser als auf Rauchzeichen von den SteckerKontakten zu warten.

Für die Anwender die eh öfter durch HWinfo blättern, ist so eine Testroutine wahrscheinlich überflüssig, weil ihnen ein hohes 12V LastwechselDelta schneller Mal auffällt. Aber für die 5% der Anwender die einfach nur die Grafikkarte einbauen und benutzen wollen, könnte so eine Testroutine schon hilfreich sein. Und sei es nur um ihnen die Unsicherheit zu nehmen, ob sie eine Schwachstelle eingebaut haben.
 
Wahrscheinlich wär ein kleiner Temperaturfühler im Stecker die einfachste/billigste Variante... :D
 
Der Steckerstandard ist wie er ist, und wird wohl kaum wieder abgeändert werden. Ein TemperaturSensor in dem Stecker auf der GPU einzusetzen und auf der GPU auswerten zu lassen, ist viel zu aufwändig und somit zu teuer. Das wäre nur wieder als Bastellösung (ext. Motherboard Tempsensor) denkbar, und somit für normale Anwendern kaum interessant.

Ne Software Lösung wäre da bestimmt praktikabler. Gibt es nicht die Möglichkeit, bei irgendeinem SensorLoggingProgramm (HWinfo...) zwei SensorKurven(12V slotPCI, und 12VHPWR GPU) miteinander zu vergleichen, und das Delta zwischen beiden Kurven auf zu zeichnen/auszuwerten? Dann würde sich ja zeigen, ob einer mit Absicht aus dem 12VHPWR Stecker entfernter Kontakt, ein deutlich sichtbare Auswirkung im SpannungsDelta der GPU-telemetrie zeigt.
 
Wozu soll ich mir meine 30*C am Stecker nach langem Spielbetrieb denn anzeigen lassen? :)
Und wenn genug Übergangswiderstand an den Kontakten durch falsche Handhabung/ nur teilweises Einstecken bei hoher Last vorhanden ist, ist es schon zu spät, so schnell reagiert da niemand.
 
Ich kann mich trübe erinnern, das man mit Logview Kurvenvergleiche erstellen konnte. Hab mich damit aber nie so richtig beschäftigt. Bleibt die Frage, ob man aus HWinfo Kurven exportieren kann, um sie in Logview zu importieren und zu verarbeiten.
 
Der Steckerstandard ist wie er ist, und wird wohl kaum wieder abgeändert werden. Ein TemperaturSensor in dem Stecker auf der GPU einzusetzen und auf der GPU auswerten zu lassen, ist viel zu aufwändig und somit zu teuer. Das wäre nur wieder als Bastellösung (ext. Motherboard Tempsensor) denkbar, und somit für normale Anwendern kaum interessant....
Klar kann der Steckerstandard geändert werden, bzw eine Variante kann beschlossen werden. Noch besser wäre, zurück zu den wesentlich verlässlichern alten Steckern -

Über die Bastellösung habe ich tatsächlich nachgedacht. Aber man müsste den Stecker in Wärmeleitpaste tränken und eine passende Stelle für einen Wärmeleiter und -Sammler evt. ein Stück Kupferblech, die Wärme soll ja zum Sensor und darauf den Sensor finden. Alles keine gute Lösung, mehr Schaden und Aufwand als Nutzen. Wenn die Wärme den Kunststoff zu verlassen beginnt, dann ist es ja schon zu spät...
 
Man kann die gesammte Verlustleistung(=Wärme) doch ganz einfach anhand des Spannungsverlust im Kabel und Steckern zwischen NT und Grafikkarte messen. Anders wird das ja auch nicht in einem einfachen Temperatursensor punktuell gemacht.

Ich könnte wetten das genau so eine Verlustleistungsmessung mit dem 12VHPWR Stecker und seinen vier SupportPins auch vorgesehen ist. Dafür wäre nicht einmal ne Hardwäreanderung in den NTs nötig. Warum die Grafikkartenhersteller das in ihre 1K€ Grafikkarten trotzdem nicht implementiert haben, ist mir ein Rätsel.
 
Mal was Neues, nur dieses Mal auf der Seite des Netzteils:
Speziell bei den BQ-Steckern verwundert es mich nicht, denn die Dinger sind echt eine Qual in die Buchsen einzustecken (und mehr noch wieder rauszuziehen) und dazu stocksteif. Weiß nicht wo CWT die Dinger machen lässt, aber das geht besser. Selbst meine Billig-Netzteile von Caseking (Kolink Enclave) bekommen das besser hin. Die lassen sich wirklich butterweich einstecken und rausziehen. Halten aber trotzdem absolut fest drin bei Versand per DHL und Co.
 
Ist nicht bei allen, und dass die steckverbindung auf auf NT Seite mies sein kann ist doch auch nur logisch, wenns der gleiche Steckertyp im Grenzbereich ist. Generell fragt man sich schon, was dieser Quatsch soll mehr leistung auf weniger Pins zu verteilen. Wo war das Problem bei den 8 pin PCIE?
 
Ich nehme für neue builds nur noch seasonic NTs mit durchgehendem 12VHPWR Kabel. Schön flexibel, keine Erwärmung, keine Probleme bisher.
 
Zwei PCIe 8pin Stecker nutzen genauso viele KontaktPins wie ein 12VHPWR Stecker. Unterschied ist nur die Kontaktgröße. Bei den 8pin Steckern haben die Pin und Buchse etwas größeren Durchmesser, und auch das Rastermaß auf der Leiterplatte ist etwas größer als bei dem 12VHPWR Steckern.

Größeres Rastermaß hat Vorteile beim Verlöten mit den Leiterbahnen. Größerer Kontaktdurchmesser hat mechanische und elektrische Vorteil bei hoher Strombelastung.

Alles zusammen haben 2x8pin mehr elektrische und mechanische Reserven, als 1x 12VHPWR. Einziger Nachteil von 2x8pin ist der größere Platzbedarf auf dem Leiterplatte. Und genau das ist wohl auch der Grund, warum die Grafikkartenhersteller auf 12VHPWR um geschwenkt haben.
 
Hättest Du gerne 3 oder sogar 4 ( bei 600 Watt ) von den Steckern auf einer HighEnd-GPU ?
Wenn ich das Theater hier mitbekomme, öhm, ja wär mir egal. Warum sollte mich die Anzahl an Steckern stören? und bei 600 Watt reichen rechnerisch drei, der PCI-E spuckt ebenfalls 150 Watt aus.

Und wenn man die Stecker minimieren hätte wollen, hätte man den Querschnitt wohl gleich etwas vergrößern sollen. Man hat aber die Anzahl an Kabel und den Querschnitt der Pins verringert und fungiert hier an Grenzen, die scheinbar bei einem popligem PC zu solchen Ergebnissen führen.

Tut mir leid, ich komme aus der Energieversorgung, es ergibt einfach zum verrecken keinen Sinn keine ordentlichen Puffer bei Steckkontakten einzuplanen.

Alles zusammen haben 2x8pin mehr elektrische und mechanische Reserven, als 1x 12VHPWR. Einziger Nachteil von 2x8pin ist der größere Platzbedarf auf dem Leiterplatte. Und genau das ist wohl auch der Grund, warum die Grafikkartenhersteller auf 12VHPWR um geschwenkt haben.

Wenn man das Rastermaß vom PCI-E auf auf einen 12 Pin Stecker übertragen hätte, wäre der nur etwas größer geworden als der jetzige HWPR. Man hat hier also unnötigerweise Reservern verschenkt.
 
Zuletzt bearbeitet :
Das ist halt der Unterschied zwischen Evolution und Revolution. Ne Evolution kann halt auch ein Rückschritt sein. Und für ne Revolution sind idR zusätzliche elektronische Veränderungen nötig.
 
zum verrecken keinen Sinn keine ordentlichen Puffer bei Steckkontakten einzuplanen.
Der Drahtquerschnitt hat bei 16 AWG = 1.31mm² noch einen guten Puffer, das reicht für bis zu 20A je Ader bei sehr kurzen Strecken. Die Terminals des 12VHPWR Steckers sind bis 9,2A zugelassen, das sind mehr als 600W insgesamt. Bei einer Spielelast von maximal ca. 430A bei Grafikkarten mit 450W BIOS besteht da kein Risiko, sogar wenn einer der Kontakte etwas erhöhten Widerstand durch Aufweiten hat. Bei Overclock-Karten mit einer Stromversorgung bis 600W sieht das anders aus. Die fps-Mehrleistung ist nicht der Rede Wert, das Risiko bei 1-2 aufgeweiteten Kontakten steigt aber enorm. Das Problem ist sicher auch die Bastelwut vieler Leute wie uns, viele PC-Steckkontakte, auch die alten 6/8-PIN Molex, müssen nur durchschnittlich 30 Steckvorgänge aushalten, das ist sehr wenig. Da muss man Glück haben, wenn ein Hersteller die für etwas härteren Einsatz baut.
 
Mir ist die Theorie bekannt, die Praxis siehste ja oben. Scheinbar reichen die Puffer nicht für die Unwägbarkeiten in der Fertigung und Montage...

Für mich ist das halt Praxisuntauglicher Schrott, vor allem, wie du schon sagst, in der BastelPC Scene. Im Profibereich sind die Stecker scheißegal, sieht eh keiner und der Kunde zahlts und es muss funktionieren. Wenn da ne Workstation wegen sonem Kokolores ausfällt gibts halt keine Folgeaufträge.
 
Für mich ist das halt Praxisuntauglicher Schrott
Nicht für mich. Durchgehendes Kabel von Seasonic, wie gesagt. Schon dutzende Male beim CPU-Kühlerwechsel ausgesteckt und mit Thermographiekamera auf eventuell unnormale Erwärmung untersucht, keine Probleme. Da spielt wohl auch das PCB der Grafikkarte eine große Rolle, hatte Igor ja schon untersucht.
 
Oben Unten