Rest in Peace 12VHPWR Connector - Willkommen 12V-2x6 Connector, wichtige Modifikationen und PCIe Base 6 | Exklusiv

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.863
Bewertungspunkte
9.015
Punkte
1
Standort
Redaktion
Der König ist tot, lang lebe der König. Oder andersherum: Man nimmt die Erkenntnisse der letzten Monate endlich ernst und modifiziert den Steckverbinder, arbeitet an einer neuen Normierung und testet bis zum Erbrechen. Das Produkt bekommt einen neuen Namen, obwohl es am Ende ja nur eine Weiterentwicklung ist, die man so eigentlich von Anfang an (read full article...)
 
Ja. Und dabei bleibe ich auch. Der Trend geht wohl genau dahin. Erstens durch die Transistorengröße und zweitens durch Framegeneration. Nimm mal die 4090 raus. Die ist nicht für den Ottonormalverbraucher gedacht. Die Masse kauft 4060 und 4070 Modelle. Der Sprung der 3000er zur 4000er Serie spricht schon Bände was die Leistungsaufnahme angeht.
Der Trend ist eher Stagnation und ab und zu dann kräftig was drauf. ( Wenn man jetzt rein auf die Leistungsaufnahme schaut)
Der Unterschied zwischen einer 3070 und 4070 liegt im Schnitt irgendwo um die 10 Watt beim Gaming.
Bitte nicht gleich alles auf einmal ausgeben ^^
 
Ok, ich werfe dann mal die NATO Schweinenase als neuen Stecker hier ein... Kennt der ein oder andere vielleicht noch vom Bund. Wenn man damit LKW fremd starten kann, sollte das doch für eine GraKa reichen... Angeblich 170A Nennstrom an 50mm^2 Leitungen. Man muss ja auch etwas in die Zukunft denken...
 
Nimm mal die 4090 raus. Die ist nicht für den Ottonormalverbraucher gedacht. Die Masse kauft 4060 und 4070 Modelle. Der Sprung der 3000er zur 4000er Serie spricht schon Bände was die Leistungsaufnahme angeht.
Richtig.

Und dabei muss man die 4090 auch nicht mal zwingend aus der Betrachtung heraus nehmen. Wenn man denn unbedingt die Augen davor verschließen will(!) dass man selber einfach ein Powertarget anlegt, was die 4090 deutlich unter den Stromhunger der Vorgängerin 3090 drückt, dann haben wir immer noch eine Karte, die etwas mehr Energie in Wärme umsetzt (in der Größenordnung von 10W mehr und das nur in UHD, darunter ist sie ab Werk sparsamer) aber über 60% schneller ist.

Wenn das keine Effizienzsteigerung ist, dann weiß ich auch nicht was eigentlich gewünscht ist...
 
Der Trend ist eher Stagnation und ab und zu dann kräftig was drauf. ( Wenn man jetzt rein auf die Leistungsaufnahme schaut)
Aber so funktioniert das einfach nicht. Du kannst doch nicht einfach die Leistungsaufnahme nehmen und sie mit "nichts" in Relation setzen.
Der Modellname als Relation sagt doch nichts aus.

Ja, die 4070 liegt laut dir irgendwo bei 10W Unterschied zu ihrer Vorgängerin 3070 im Gaming. Das klingt natürlich nicht nach Weiterentwicklung. Wenn man aber bedenkt dass sie das Tempo einer 3080 hat, die sich aber über 300W genehmigt (im Gegensatz zu den 215W der 4070), dann ist das sehr wohl die richtige Richtung.
 
Wenn man von Effizienz redet ja, aber dann muss man sich halt klar ausdrücken.
Wenn man einfach hergeht und sagt NVIDIA hat die Leistungsaufnahme seiner Karten drastisch verringert
dann stimmt das halt einfach nicht wenn eine 4070 200 und eine 3070 typischerweise 210 Watt aus dem Stecker zieht.
Dann mag die Effizienz besser sein, wäre ja anders auch traurig bei einem Architektur und Fertigungswechsel, die Leistungsaufnahme stagniert dann aber trotzdem.
 
Wenn man von Effizienz redet ja, aber dann muss man sich halt klar ausdrücken.
Wenn man einfach hergeht und sagt NVIDIA hat die Leistungsaufnahme seiner Karten drastisch verringert
dann stimmt das halt einfach nicht wenn eine 4070 200 und eine 3070 typischerweise 210 Watt aus dem Stecker zieht.
Dann mag die Effizienz besser sein, wäre ja anders auch traurig bei einem Architektur und Fertigungswechsel, die Leistungsaufnahme stagniert dann aber trotzdem.
Dein Aussage hat nix mit Effizienz zu tun wenn du eine 4070 mit einer 3070 vergleichst.

Effizients ist das Verhältnis zwischen Leistung und Verbrauch. und die 4070 hat die Leistung einer 3080 12gb, welche 350W verbraucht.

Also ist der Vergleich 200W zu 350W. Also Verbraucht in diesem Vergleich Ampere 75% mehr als Ada!
 
Richtig.

Und dabei muss man die 4090 auch nicht mal zwingend aus der Betrachtung heraus nehmen. Wenn man denn unbedingt die Augen davor verschließen will(!) dass man selber einfach ein Powertarget anlegt, was die 4090 deutlich unter den Stromhunger der Vorgängerin 3090 drückt, dann haben wir immer noch eine Karte, die etwas mehr Energie in Wärme umsetzt (in der Größenordnung von 10W mehr und das nur in UHD, darunter ist sie ab Werk sparsamer) aber über 60% schneller ist.

Wieso die Karte raus nehmen? Wenn sie 600W darf, hat der Stecker auch gefälligst sicher diese 600W zu übertragen. Klar ists ein Nischenprodukt. Es geht hier aber um Sicherheit.
 
Wenn man von Effizienz redet ja, aber dann muss man sich halt klar ausdrücken.
Wenn man einfach hergeht und sagt NVIDIA hat die Leistungsaufnahme seiner Karten drastisch verringert
dann stimmt das halt einfach nicht wenn eine 4070 200 und eine 3070 typischerweise 210 Watt aus dem Stecker zieht.
Dann mag die Effizienz besser sein, wäre ja anders auch traurig bei einem Architektur und Fertigungswechsel, die Leistungsaufnahme stagniert dann aber trotzdem.
Ich dachte, das wäre klar. Wie soll man das denn sonst verstehen. Und ich lege noch einen nach. Die Entwicklung der Leistungsaufnahme wird sich gegenüber dem Bedarf schneller vollziehen. Auch durch den Einsatz von KI wie z.B. Framegeneration. Bei den CPUs werden wir das Gleiche sehen.
 
Ich verstehe die Frage nicht: Wer bis jetzt eine 4090 hat und die nicht weggeschmolzen ist, hat doch offensichtlich kein Problem.
Also ich habe zumindest nicht das Bedürfnis mir irgendwelche neuen Kabel zu kaufen.
Bis er vllt. die Karte mal bei einer Rechnerreinigung oder Umbau ausbaut und neu anstöpselt.
Dieser bekloppte Anschluss ist unter real-life Bedingungen russisch Roulette, selbst mit teurem Cablemod Adapter.
 
Dein Aussage hat nix mit Effizienz zu tun wenn du eine 4070 mit einer 3070 vergleichst.

Effizients ist das Verhältnis zwischen Leistung und Verbrauch. und die 4070 hat die Leistung einer 3080 12gb, welche 350W verbraucht.

Also ist der Vergleich 200W zu 350W. Also Verbraucht in diesem Vergleich Ampere 75% mehr als Ada!
Es ging ja nicht um meine Aussage, es ging darum das kategorisch gesagt wurde Nvidia hat die Leistungsaufnahme mit der aktuellen Generation reduziert und das haben sie aber nicht. Die Karten nehmen im Kontext zu ihren Vorgängern nach wie vor ähnlich viel Leistung auf, teilweise sogar mehr. Und der Vorgänger der 4070 ist nun mal die 3070 und nicht die 3080 oder was auch immer.

Ich könnte ja auch sagen die 4070 leistet bei der selben Leistungsaufnahme 25-30% mehr als die 3070 - das ist dann die Effizienz durch Optimierung bei Architektur und Fertigung - die 200 W bleiben aber immer noch 200W also da gibt es keine drastische Verringerung.
Ich dachte, das wäre klar. Wie soll man das denn sonst verstehen.
Das kann man sich vielleicht denken, man kann dich aber auch beim Wort oder dem Geschriebenen nehmen und dann ist es eben nicht klar ;)
 
Es ging ja nicht um meine Aussage, es ging darum das kategorisch gesagt wurde Nvidia hat die Leistungsaufnahme mit der aktuellen Generation reduziert und das haben sie aber nicht.
Aufgrund einer höheren Effizienz saugen die Karten aber weniger bei der gleichen Arbeitslast.
Insofern stimmt die Aussage durchaus.

Wenn eine 3070 bei 60 FPS 200W saugt und die 4070 im selben Szenario nur noch 180W, dann ist das Marketing korrekt.
 
@Nagah my bad, sorry. Da musste ich aber schon etwas weiter rudern, deshalb ging das unter.

@Ifalna Jein. Ich kenne das exakte Marketing nicht, dennoch wäre eine absolute Behauptung wohl wirklich falsches Marketing. Im Vergleich der direkten Szenarien hast du da aber völlig Recht.

Was man halt nicht anders sagen kann: Der Effizienzgewinn von Ampere auf Ada ist gewaltig.

Und davon abgesehen muss mal n neuer Anschluss her. Einer, welcher ganz ohne die Beachtung von Biegeradien auskommt. Ich verstehe wirklich nicht, wieso die für einen derartigen Müll so gut entlöhnt werden. Der 12vhpwr ist meines Erachtens zwar keine generelle Fehlkonstruktion, für die Nutzung in einem normalen PC aufgrund nötiger Biegeradien allerdings völlig ungeeignet.
 
Aufgrund einer höheren Effizienz saugen die Karten aber weniger bei der gleichen Arbeitslast.
Insofern stimmt die Aussage durchaus.

Wenn eine 3070 bei 60 FPS 200W saugt und die 4070 im selben Szenario nur noch 180W, dann ist das Marketing korrekt.
Nochmal , es wurde von einem Mitposter gesagt die Karten haben eine drastisch geringere Leistungsaufnahme. Punkt - Ende - Aus . Kein Marketing, kein was wäre wenn... Dem ist nicht so - darauf hab ich mich bezogen. Das er das ursprünglich nicht so gemeint hat war auch absehbar - aber das ist ja nicht mein Fehler. Und mehr sag ich dazu auch nicht mehr - ich habs jetzt eh 3x für bedürftige erklärt. Wer es verstehen will kanns verstehen und alle anderen können weiter über eine 3080.1080, Arbeitslasten oder sonstiges orakeln.
Das ist ja alles richtig hat nur eben mit der ursprünglichen Aussage und meiner ersten Antwort darauf nichts mehr zu tun.
 
Nochmal , es wurde von einem Mitposter gesagt die Karten haben eine drastisch geringere Leistungsaufnahme. Punkt - Ende - Aus . Kein Marketing, kein was wäre wenn... Dem ist nicht so - darauf hab ich mich bezogen. Das er das ursprünglich nicht so gemeint hat war auch absehbar - aber das ist ja nicht mein Fehler. Und mehr sag ich dazu auch nicht mehr - ich habs jetzt eh 3x für bedürftige erklärt. Wer es verstehen will kanns verstehen und alle anderen können weiter über eine 3080.1080, Arbeitslasten oder sonstiges orakeln.
Das ist ja alles richtig hat nur eben mit der ursprünglichen Aussage und meiner ersten Antwort darauf nichts mehr zu tun.
Ganz ehrlich. Muss das hier in Korinthenkackerei ausarten? Können wir das infantile Geschwätz dann lassen. Ihr habt Recht. Habe mich nicht deutlich genug für euch erklärt und gut. Sorry dafür. Peace!
 
Aufgrund einer höheren Effizienz saugen die Karten aber weniger bei der gleichen Arbeitslast.
Insofern stimmt die Aussage durchaus.

Wenn eine 3070 bei 60 FPS 200W saugt und die 4070 im selben Szenario nur noch 180W, dann ist das Marketing korrekt.
Richtig aber der Unterschied ist deutlich höher, was ja noch positiver ist
 
Bis er vllt. die Karte mal bei einer Rechnerreinigung oder Umbau ausbaut und neu anstöpselt.
Dieser bekloppte Anschluss ist unter real-life Bedingungen russisch Roulette, selbst mit teurem Cablemod Adapter.
Ich finde das unausgereifte Vorgehen mit dem Stecker auch nicht gut, aber so dramatisch wie es dargestellt wird ist es nicht.
Ich bin im Besitz einer Grafikkarte mit dem 12VHPWR Anschluss und habe diese schon öfter ein und ausgebaut und auch schon kurzzeitig durch andere Modelle ersetzt. Also lustiges Kartenstecken ohne Rücksicht, aber eben mit Vorsicht.

Ich weiß dass man besonderes Augenmerk auf den korrekten Sitz des Steckers geben muss, beachte das eben und fertig. Ich habe keine Angst dass mir der Rechner explodiert oder die Bude abfackelt.
 
Ich finde das unausgereifte Vorgehen mit dem Stecker auch nicht gut, aber so dramatisch wie es dargestellt wird ist es nicht.
Ich bin im Besitz einer Grafikkarte mit dem 12VHPWR Anschluss und habe diese schon öfter ein und ausgebaut und auch schon kurzzeitig durch andere Modelle ersetzt. Also lustiges Kartenstecken ohne Rücksicht, aber eben mit Vorsicht.

Ich weiß dass man besonderes Augenmerk auf den korrekten Sitz des Steckers geben muss, beachte das eben und fertig. Ich habe keine Angst dass mir der Rechner explodiert oder die Bude abfackelt.
Geht mir genau so, hab auch ne 4090 in meinem PC. WENN ich den Stecker mal rausziehe, kommt der auch wieder voll und ganz rein. Da wird auch mit der Taschenlampe geschaut, ob der korrekt sitzt.

Das Problem sind die Biegeradien, weshalb ein anderes Konzept eigentlich schon selbstverständlich sein müsste. Es geht eben nicht nur um den Sitz des Steckers. In meinem Obsidian 1000D klappt das gerade so, aber nicht jeder hat ein derartig großes Gehäuse. Es ist eben nicht zu 100% User-Error. Der 12vhpwr ist ja auch okay, aufgrund der Biegeradien (zumindest aktuell) allerdings nicht für den Einsatz in Desktop-PCs geeignet. Wo ist das Problem, dort einen etwas breiteren Stecker zu verwenden? 16+4, 18+4 (ggf. versetzte Kontakte nutzen)?
Somit könnte man doch bestimmt dünnere Kabel nehmen, was den Biegeradien zugute kommt.
 
Die Frage nach der RMA-Häufigkeit durch die 12VHPWR Umstellung kann wohl keiner beantworten? Bevor man sich seitenweise über geschmolzene Stecker und Kontakte aufregt, sollte man doch wissen, von welcher Ausfallhäufigkeit man redet. 100 defekte zu 100.000 verkauften? "Normale" Ausfallraten werden schon deutlich höher als 0,1% eingeplant.
Und wer nur eine Generation überspringen oder sich den etwas preiswerteren, schwächeren Mitbewerber kaufen will braucht kein Argument, das kann man auch einfach so machen.
 
Zuletzt bearbeitet :
über die tatsächlichen Ausfallraten bzw. RMA Häufigkeiten usw. kann man hier natürlich nur spekulieren.
Tatsächlich belastbare Zahlen haben vermutlich nur "NVidia & Co", und die werden sie nicht veröffentlichen.
Allerdings, wenn aus genau der Richtung nun "klammheimlich" und ungewöhnlich schnell nach Markteinführung dieser Steckergenration bereits Änderungen getätigt werden, hinterlässt das doch schon etwas ein "Geschmäckle" und gedankliche Rückschlüsse zu, daß man das als doch nicht ganz so unproblematisch ansieht.
Daß man da rein auf ein schlechtes Image des Steckers reagiert, ohne daß es wirklich mit einer erhöhten Ausfallrate verbunden ist und somit technisch völlig unbegründet ist, glaube ich nicht.
Da hat man schon ganz andere Dinge "ausgesessen", zumal die wirkliche Aufregung und "öffentliches Bewusstsein" nur in solchen Nerd-Foren wie hier existiert, und ein Normal-Nutzer eben nichts davon mitbekommt.
Es zieht sich ja längst nicht jeder, der sich ne flotte Grafikkarte gönnt, auch jedes youtube video von Igor, Linus, Steve und wie sie alle heißen, rein.
 
Oben Unten