Rest in Peace 12VHPWR Connector - Willkommen 12V-2x6 Connector, wichtige Modifikationen und PCIe Base 6 | Exklusiv

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.863
Bewertungspunkte
9.015
Punkte
1
Standort
Redaktion
Der König ist tot, lang lebe der König. Oder andersherum: Man nimmt die Erkenntnisse der letzten Monate endlich ernst und modifiziert den Steckverbinder, arbeitet an einer neuen Normierung und testet bis zum Erbrechen. Das Produkt bekommt einen neuen Namen, obwohl es am Ende ja nur eine Weiterentwicklung ist, die man so eigentlich von Anfang an (read full article...)
 
Die perfekte Lösung war doch auf der Messe in Taipei zu sehen und zwar gänzlich ohne Kabel über zusätzlichen MB Slot. Geht dann aber wiederum nicht für ITX.
 
Ich hatte die Boards und die Karte sogar in der Hand. Ich habs im Detail im Meeting Room begutachtet. Dem Teil würde ich noch weniger trauen als dem 12VHPWR. Proprietär wie Apple. Viel Spaß im geschlossenen Asus-Kosmos. Das würde keine Normierung überstehen und die Tracks auf dem Board für die Ströme.... aua.
 
Dann muss ja der gesamte GPU Strom erstmal mit in das Motherboard eingespeist, und dann auch zum breiteren PCIe Slot übertragen werden. Das würde mMn nur Sinn machen, wenn man einen Stromanschluss direkt unter dem längeren PCIe Slot auf der Mainboard Rückseite hat, wo man das NT-Kabel anstöpseln kann, um so möglichst wenig zusätzlichen LayoutPlatz auf dem Mainboard zu belegen.
 
Nvidia hat ja jetzt generell die Leistungsaufnahme seiner Karten massiv verringert. Von daher ist ein solcher Ansatz meiner bescheidenen Meinung nach nicht schlecht. Keine Kabel...keine Steckerprobleme. Ein guter Anfang.
 
Niemand konnte wohl das Desaster vorher so richtig ahnen, da nur unter Laborbedingungen getestet wurde. Das Kind ist jetzt im Brunnen und man Bau auf dem auf was man hat. Jahrelange Forschung hat nix gebracht.
 
Ohne jetzt neue Stecker zu erfingen:

Aber wenn ich mir den normalen 8-Pin ansehe, der ist fast schon so gross wie der 12VHPWR und beim 8-Pin welcher nur für 150W dienen soll, da wurde bei Karten welche am Limit dieser Leistung liefen schon gewarnt... Also 2 dieser Stecker (also eignetlich was vor 12VHPWR üblich war) dürfen nur mit 300W Betreiben werden! Dann soll ein Stecker welcher um einiges Magerer ist als ein 8-Pin-Gespann auf einmal 600W ab können?

Das konnte doch nur in die Hose gehen. Im Moment würde ich eher 1000W über ein 8-Pin-Gespann speicsen als nur 400W über diesen 12VHPWR.
 
Ein echter 8 Pin schaft schon 300W (ohne 6+2) aber das sind halt auch ganz andere Dimensionen was die Kontakte und den Raum betrifft als beim 12VHPWR und das macht dann halt wohl den Unterschied ...
 
JayzTwoCents hat in einem seiner neuen Videos über das ungenügende Design des Steckers gesprochen (Videotitel: "CableMod responds to melted adapter reports..."), speziell die Verriegelung/der Haken, da sind ca. 1mm Luft zwischen Haken und "Stift" (mir fällt die richtige Bezeichnung nicht ein). Der erlaubt bei voll eingestecktem Stecker sehr viel Spiel, auch starke Schiefstellung. Wenn man den Stecker komplett einsteckt und danach die GPU einbaut und/oder Kabelmanagement betreibt, passiert es sehr leicht und ist unauffällig wenn der sich lockert und schief steht, vor allem, wenn User den bis zum Anschlag eingesteckt haben und davon ausgehen, dass er so halten soll. Er hätte laut JayzTwoCents viel knapper einhaken sollen und bei einem so breitem Stecker hätten da auch 2 Haken/Verriegelungen hin gemusst.

Habe meinen älteren 8-Pin Stecker an meiner Grafikkarte angesehen, der hakt so dicht ein, dass ich nach etwas Bewegen und zur Seite biegen höchstens 2 Blatt Papier an einer Kante reinbekomme.
 
Meine Meinung dazu: Dann fügt man entsprechend ein extra-Kabel mit den Sens-Pins hinzu, ohne den die GPU nicht mal startet und fertig, kann man den Stecker benutzen. Ob löten oder crimpen ist hier nicht mehr relevant, weil der Stecker sehr viel mehr A aushält, als was die GPU zieht.
 
Nvidia hat ja jetzt generell die Leistungsaufnahme seiner Karten massiv verringert. Von daher ist ein solcher Ansatz meiner bescheidenen Meinung nach nicht schlecht. Keine Kabel...keine Steckerprobleme. Ein guter Anfang.
Hab ich was verpasst?😲
Gibts jetzt etwa eine "RTX 4090 ECO" die auf 200W limitiert wurde?:unsure:

NVIDIA ist die Leistungsaufnahme (unter Last) völlig egal, solange eine Konkurrenz da ist die auch nur der Leistung des Flaggschiffs nahe kommt, wird diese wenn nötig dann auch bis zum geht nicht mehr nach oben geschraubt. Hauptsache die Leistungskrone geht an NVIDIA.
Jahrelang ging NVIDIA nicht über die 250W hinaus - die Custom-Modelle außen vor. Nachdem AMD dann mit RDNA heraus kam, erwartete NVIDIA ein starken RDNA2, und die (vorab) Reaktion darauf war, die Leistungsaufnahme auf 350W anzuheben - die 3090 TI, als Testumfeld für die 4090 nicht mitgezählt.
Scheinbar hatte NVIDIA von RDNA3 auch mehr erwartet, sonst hätten sie der 4090 keine 450W mitgegeben, sondern wohl nur 350-380W - bekanntlich hätte das auch nicht nennenswert Leistung gekostet.

Ich würde nicht erwarten, das die Leistungsaufnahme so bald wieder groß sinken wird. Auch wenn ich es begrüßen würde.
 
Dann beziehe doch bitte AMD mit in Dein Beispiel ein.
Nvidea ist ja wohl sparsamer als AMD....
Oder um was geht es Dir?
Niemand verhindert,dass die Karte auch locker unter 300Watt betrieben werden kann.

Nvidea hat nur das neue Steckersystem schneller in sein Boarddesign mit integriert.
AMD wird es auch tun...
 
Zuletzt bearbeitet :
@ipat66: Warum sollte ich AMD mit einbeziehen? Es geht nicht um AMD, auch nicht darum das man die Leistungsaufnahme selbst reduzieren kann, oder wie nun der Strom zur GraKa gelangt. Ich beziehe mich auf die zitierte Aussagen von echolot, der behauptete das NVIDIA die Leistungsaufnahme ihrer Karten massiv reduziert hätten.
 
Da wird bei der 4060 sogar gecheatet.
 
@ipat66: Warum sollte ich AMD mit einbeziehen? Es geht nicht um AMD, auch nicht darum das man die Leistungsaufnahme selbst reduzieren kann, oder wie nun der Strom zur GraKa gelangt. Ich beziehe mich auf die zitierte Aussagen von echolot, der behauptete das NVIDIA die Leistungsaufnahme ihrer Karten massiv reduziert hätten.
Ja. Und dabei bleibe ich auch. Der Trend geht wohl genau dahin. Erstens durch die Transistorengröße und zweitens durch Framegeneration. Nimm mal die 4090 raus. Die ist nicht für den Ottonormalverbraucher gedacht. Die Masse kauft 4060 und 4070 Modelle. Der Sprung der 3000er zur 4000er Serie spricht schon Bände was die Leistungsaufnahme angeht.
 
Oben Unten