Die unendliche Geschichte: NVIDIAs GeForce RTX 4090 und der 12VHPWR-Anschluss - Neue Daten von CableMod und offene Fragen

Naja, ich ab mindestens 1000 Watt Corsair Netzteile in meinen Rechnern. Für die 4090 hab ich mir extra ein AX1600i gekauft. Das Ding kostet 500 Euro, das will nicht tauschen.

Sehe ich das nun richtig, das es aktuell keinen brauchbaren Kabelersatz gibt?
von corsair gibts eh ein fertiges Kabel das die gängigen Netzteile direkt vom PCIE am Gerät zur 12VHPWR verkabelt.
Hab ich auch schon verbaut, alles ruhig bisher.

 
Danke für deine schnelle Antwort, aber genau hier ist mein Problem. Mein aktuelles Kabel hat einen 4 auf 1 Anschluss. Dieser hier hat nur einen 2 auf 1. Das hab ich bis jetzt nicht verstanden.
 
Dieser neue Anschluß ist von Anfang an in meinen Augen falsch konstruiert und auch nicht richtig getestet worden. In all den Jahrzehnten mit den Anschlüßen ist nie irgendwas abgeraucht und es brauchte sich auch keiner einen Kopf darum zu machen ob irgendwelche Winkel eingehalten werden müßen. Kaufen , einbauen, einstecken und läuft. Da kommt dann irgend ein Vollhonk von Ingeneur auf die Idee, jetzt jagen wir mal das dreifache oder mehr über die gleiche Bauweise weil rein rechnerisch sollte die Kabel das ja aushalten wenn ich das Kabel mit 15 Grad 5 Minuten maximal biege. So ein absurder Bullshit. Immer dieses es muß noch kleiner werden und vor allen Dingen nicht´s kosten. Für mich ist dieser Stecke eine komplette Fehlkonstruktion die so hätte nie das Labor verlassen dürfen. Alles was Igor und die anderen Fachleute nach dem Debakel rausgefunden haben bis heute , hätte bevor so ein Teil überhaupt irgendwo in der Öffentlichkeit Verwendung findet, fachgerecht getestet werden müssen. Dieses "theoretisch paßt und wenn nicht auch egal, werden sich schon nicht viele Kunden beschweren" Verhalten von Firmen die Milliarden schwer sind finde ich echt zum 🤮
 
Danke für deine schnelle Antwort, aber genau hier ist mein Problem. Mein aktuelles Kabel hat einen 4 auf 1 Anschluss. Dieser hier hat nur einen 2 auf 1. Das hab ich bis jetzt nicht verstanden.
du meinst den original Adapter der beiliegt ?

ist völlig Wumpe. bei den "original" Netzteilhersteller Kabeln die direkt ans Netzteil gehen sind ja in den 6/8Pin viel mehr Pins belegt als bei dem Murx den sie da im Karton mitschicken. Da brauchst du dir keine Gedanken machen. Damit hast du dann nur noch eine durchgehende Verbindung von 2 PCIE Buchsen direkt am Netzteil zu einem 12VHPWR an der Grafikkarte. Fertig, das passt auch so.
 
du meinst den original Adapter der beiliegt ?
Ja

ist völlig Wumpe. bei den "original" Netzteilhersteller Kabeln die direkt ans Netzteil gehen sind ja in den 6/8Pin viel mehr Pins belegt als bei dem Murx den sie da im Karton mitschicken. Da brauchst du dir keine Gedanken machen. Damit hast du dann nur noch eine durchgehende Verbindung von 2 PCIE Buchsen direkt am Netzteil zu einem 12VHPWR an der Grafikkarte. Fertig, das passt auch so.
Danke, das hat mir bis jetzt noch nie jemand sauber erklärt, oder ich habs überlesen.
 
Ja


Danke, das hat mir bis jetzt noch nie jemand sauber erklärt, oder ich habs überlesen.
Igor hats eh mal irgendwo am Anfange der Thematik aufgezeichnet das nur eine 12V und Masse Leitung pro Anschluss vom beiliegenden Adapter zur GPU führt... Also da brauchst du dir keine Gedanken machen wegen der Steckeranzahl.
 
Ich habe meine inno3D I Chill jetzt seit ungefähr November und bislang keine Probleme im geschlossenen Gehäuse. (Fractal Design, Modell weiß ich jetzt nicht, ist aber um 24 cm breit). Die Kabelkrümmung halt sich in Grenzen und eingerastet ist es. Ich tu mir da langsam schwer mit der Problematik.
Die für viele Anwender maßgebliche Frage bleibt nämlich nach wie vor unbeantwortet:
Besteht ein Risiko, dass das Problem im Verlauf (sagen wir mal ab einem halben Jahr und aufwärts) bei bis dato problemlosem Betrieb und exklusiv irgendwelcher Anwendungsfehler noch spontan auftreten kann oder nicht mehr ?
 
Besteht ein Risiko, dass das Problem im Verlauf (sagen wir mal ab einem halben Jahr und aufwärts) bei bis dato problemlosem Betrieb und exklusiv irgendwelcher Anwendungsfehler noch spontan auftreten kann oder nicht mehr ?
Bei der Problematik wird vermutlich immer ein Restrisiko bleiben, mit starker Abhängigkeit zur der Verbindungs/Kabel/Steckerqualität und deren eventueller Alterung + den Temperaturen am Stecker verursacht durch eventuelle PCB Probleme....
Aber was willst du da jetzt wirklich hören... ich sag mal groß wird das Risiko vermutlich nicht sein, aber vielleicht hast du auch in einem Jahr ein oder 2 Faktoren und es passiert dann etwas ... wer soll das schon voraussagen können.

Zur Beruhigung kann ich dir sagen ich verbaue hauptsächlich INNO3D 40er Modelle und bisher ist keines ausgefallen, aber ich kann auch niemanden garantieren das es so bleibt. Aber dafür gibts ja die Gewährleistung xD
Leider hab ich gerade nur eine Inno und KFA 4080er da und keine 4090 sons würd ich mal eine Oberflächentemperaturmessung beim Stecker machen, aber vielleicht kommt ja noch was rein in der nächsten Zeit.
 
Zuletzt bearbeitet :
Für mich ist noch folgender Punkt offen:
Man geht davon aus, dass die Kontakte vor und nach dem Stecker immer gebrückt sind.
Machen das wirklich alle so oder gibt es Hersteller, die auf dem PCB der Grafikkarte, also der 12V Seite nur bestimmte Leiterbahnen gruppieren und die dann auf die VRM Schaltkreise aufteilen?
 
Aber irgendwie schon ein bissel krass.. wie so ein paar Cent Stecker die Gemüter über Wochen und Monate in Wallung bringen kann.
Da hat Nvidia einen absoluten PR-Coup gelandet.
 
Aber irgendwie schon ein bissel krass.. wie so ein paar Cent Stecker die Gemüter über Wochen und Monate in Wallung bringen kann.
Da hat Nvidia einen absoluten PR-Coup gelandet.
Laut Igor stammt die Stecker-Vorlage, so wie auch der ATX12VO von Intel. Wahrscheinlich war es wieder einmal der Praktikant.
 
Laut Igor stammt die Stecker-Vorlage, so wie auch der ATX12VO von Intel. Wahrscheinlich war es wieder einmal der Praktikant.

Ja das habe ich auch gelesen, aber Nvidia hätte da auf jeden Fall nochmal gegentesten müssen.
Und hat dadurch nicht umsonst den ganzen Ärger.
Denn so ein QM Vorgang muss einfach sein.. bei Grafikkarten, die um die 2000 Euro bei der Einführung gekostet haben und vor allem wenn das Bauteil etwas komplett neues ist.
Denn es war ja nicht nur dioe Steckervorlage auch die Umsetzung war eine Katastrophe vom Zulieferer.
Das hat einen ganz miesen Beigeschmack..vor allem bei den horrenden Preise so einer Grafikkarte.
 
Für mich ist noch folgender Punkt offen:
Man geht davon aus, dass die Kontakte vor und nach dem Stecker immer gebrückt sind.
Machen das wirklich alle so oder gibt es Hersteller, die auf dem PCB der Grafikkarte, also der 12V Seite nur bestimmte Leiterbahnen gruppieren und die dann auf die VRM Schaltkreise aufteilen?

AFAIK verwenden alle das Standard PCB-Design von NV.
Und selbst wenn nicht; die Widerstände für die NV-Software zur Watt-Steuerung sind ja direkt nach dem Stecker, glaube nicht, dass NV da extra für einen Hersteller was eigenes programmiert => wieder NV-Standard Design.
 
Aber irgendwie schon ein bissel krass.. wie so ein paar Cent Stecker die Gemüter über Wochen und Monate in Wallung bringen kann.
Da hat Nvidia einen absoluten PR-Coup gelandet.
Ich halte das für die übliche Mischung aus Dummheit und Raffgier. Es wird nicht die beste Lösung protegiert, sondern die billigste, die vermeintlich noch irgendwie funktioniert.

Die in den meisten Fällen hervorragende Kühlung der 4090 haben wir keinerlei Einsicht zu verdanken, sondern nur der Tatsache, das man seinerzeit glaubte, man müsse wahrscheinlich ständig um die 600 Watt Wärme abführen. Das zeigt aber, das man selbst bei Hochleistungsgrafikkarten eine vernünftige Kühlung bauen könnte, die eine Wakü obsolet macht. Aber lieber nagelt man irgendeinen billigen Dreck zusammen, der die Kühlpads schmilzen und die Karte throtteln läst, bevor man bei einer 2000 Euro Karte 2 Euro mehr investiert.

Den Spaß hatte ich mit meiner 3090 zu genüge. Der Hammer der Woche war dann die Aussage vom Service: " Das gehört zu, Throtteln ist völlig normal."
 
Asus hat ja bereits ein Konzept vorgestellt um diese Buchsen von den Grafikkarten zu verbannen. Verschiebt in gewisserweise das Problem auf das Mainboard bzw. auf dessen Rückseite, aber die Grundidee finde ich gut. Im Idealfall verzichtet man komplett auf so Stecker und löst alles mit Slots. Sprengt natürlich jedes ATX-Format, aber dessen Konzept halte ich mittlerweile eh für veraltet und nicht mehr den Anforderungen gerecht. Im Server-Bereich gibt es so etwas schon länger, aber natürlich propritär ^10.
 
Also mich nervt die Geschichte mit diesem Stecker enorm.

Was für mich dazu schrecklich ist, die Kabel/Stecker sind, oder sollen für 600W ausgelegt sein und sie Versagen schon bei nicht 1000%igem Sitz bei um die 450W. Das sind 25% unter der Leistung welche die Kabel/Stecker aushalten sollten.
In der Regel sollten die Kabel eine Überlast (Schutzreserve) aushalten können.

Ich möchte wieder eine Nvidia Karte und um einen Leistungsgewinn zu haben, müsste es schon eine 4080 werden. Als ITX User habe ich nicht sonderlich Platz ein Kabel "Gestreckt" zu lassen damit die Stecker auch nicht wackeln... Was bleibt mir übrig um DLSS nutzen zu können? eine 4070, da dies mit 0815 8-Pin Stecker verfügbar ist. Kein Leistungsplus, nur zusätzliche Features.

Also 650Euro nur für DLSS verpulvern oder 1300Euro und ein Brandrisiko mit kaufen...

Ich hoffe die bekommen das Problem irgendwann gelöst. Bis dahin versuche ich vernünftig bei der GPU zu sein und mein System endlich DD5 fit zu machen.
 
AFAIK verwenden alle das Standard PCB-Design von NV.
Und selbst wenn nicht; die Widerstände für die NV-Software zur Watt-Steuerung sind ja direkt nach dem Stecker, glaube nicht, dass NV da extra für einen Hersteller was eigenes programmiert => wieder NV-Standard Design.
Das ist nicht so ganz, was ich wissen wollte.
Stelle die Frage daher anders, sind die 12V Pins auf dem PCB auch alle gebrückt oder werden nur einzelne 12 Pins gruppiert und gehen dann an die Messwiderstände?
Habe leider keinen Schaltplan vom 12V Eingang gefunden.
 
Oben Unten