News Was ist dran an NVIDIAs neuer 12-Pin-Stromversorgung? Keine Panik, aber das ist eigentlich überfällig! | igorsLAB investigativ

Die Idee mit nur einem Stromstecker ( 12 -Pin ) die Versorgung aller Grafikkarten ab > 75 W TDP zu bedienen gefällt mir auch.
Andererseits müssen die Grafikkarten weiter Energieeffizient bleiben ( Leistung / Watt ).
Crossfire ( AMD ) / SLI ( Nvidia ) sind vom Tisch und ich habe keine Lust auf > 300 W "Mainstream" ;D GPU's nur weil es ein neuer 12-Pin-Stecker in zukünftigen Netzteilen ermöglicht.
 
@McFly_76 Hoffen wir mal, dass es nicht der einzige Stecker für GPUs werden wird. Denn dann müsste man dann beim nächsten Aufrüsten/Defekt zwangsläufig GPU und Netzteil tauschen. Zwar nur einmalig aber trotzdem sagt mir das nicht zu. Andererseits wird das so oder so Chaos in der Übergangszeit geben. Oder große Netzteile müssten mit entsprechend vielen Kabeln kommen, damit der Kunde dann am Ende zwischen x mal 6+2Pin und y mal 12Pin wählen kann. Das "schöne" an 6+2 Pin ist immerhin, dass es flexibel für 6Pin oder 8Pin funktioniert (auch wenn letzteres ein äußerst nerviges Gefummel ist). Ich habe mir jetzt nicht die Pinbelegung mit den entsprechenden Ausschnitten für die Stecker angesehen, aber wenn am Ende der 12Pin 4-teilig ist für 2x 6, 1x 8 oder 1x 12Pin, dann will ich nicht mehr ...
 
Abwarten, wo das wirklich hingeht. Big Navi wird auch ein Schluckspecht :D
Davon gehe ich aus, dass big Navi auch die Brechstange rausholt.
Aber ändert nichts daran, dass ich hoffe, dass der Stecker, so er denn kommt, nichts Nvidia spezifisches bleibt.

Ansonsten stimme ich @McFly_76 zu. Hoffentlich kommen dann nicht auf einmal 500W Monster, bloß weil der Stecker es kann.
Das wäre irgendwie nicht so sehr zu begrüßen.
 
Ach, zur Not müssen dann halt die Karten ohne die richtige neue Stromversorgung per Adapter in einem „Not-Undervolting / Not-Powerreduced“-Mode mit erzwungen höherer Effizienz zu Lasten der Max-Performance laufen und dann haben dann auch die Effizienzfanatiker was davon und müssen nicht mehr über Tools manuell Hand anlegen. :p
 
Hoffentlich kommen dann nicht auf einmal 500W Monster, bloß weil der Stecker es kann.
Das wäre irgendwie nicht so sehr zu begrüßen.
Die wenigsten CPUs nutzen die 1 bis 2 8Pin-Anschlüsse wirklich aus. Und PCIe-Geräte ziehen auch nur selten die maximal möglichen 5,5 A (was auch die meisten Boards überfordern dürfte, wenn das alle Slots machen). Und prinzipiell geht mit 3x 8Pin ja heute auch schon > 500 W. Aber mit Luftkühlung wird das zumindest schwierig.
 
Mich stört es grundsätzlich, dass sowohl Grafikkarten als auch Prozessoren einen so hohen Verbrauch haben.
 
Gut für Leute mit modularen Netzteilen, wenn es dann Statt PCI Kabel 12 Pin Kabel gibt zum nachrüsten.
Was am Ende nicht besser ist als ein Adapter von 2x6 auf 12 an der GK... Verschiebt es nur von einem Kabelende aufs andere.


Mich stört es grundsätzlich, dass sowohl Grafikkarten als auch Prozessoren einen so hohen Verbrauch haben.
Du kannst dich ja einfach mit einem Low-End Chip zufrieden geben. Ansonsten hast du einfach die Physik zu akzeptieren.
 
Was am Ende nicht besser ist als ein Adapter von 2x6 auf 12 an der GK... Verschiebt es nur von einem Kabelende aufs andere.



Was grundsätzlich einem Adapter vorzuziehen ist, da man sich etwaige unnötige Übergangswiderstände oder Steckfehler erspart....weniger Fehlerquellen!
 
Zuletzt bearbeitet :
@Dezor
Das ist richtig. Trotzdem will glaube ich niemand hier mehr sowas wie Fermi. Weder von AMD noch Nvidia noch Intel.

Dass man bei Grafikkarten die Grenzen des möglichen beim Stromverbrauch ausnutzt hatten wir halt auch schon.
Hatten wir auch bei den CPUs von AMD mit weit über 200W tdp.
 
Was grundsätzlich einem Adapter vorzuziehen ist, da man sich etwaige unnötige Übergangswiderstände oder Steckfehler erspart....weniger Fehlerquellen!
Aber da hilft halt "modular" kein bisschen weiter (bei NTs die schon auf dem Markt/verkauft sind), weil bei diesen trotzdem 2 Stränge zusammen geführt werden müssen außerhalb des NTs.
 
Aber da hilft halt "modular" kein bisschen weiter (bei NTs die schon auf dem Markt/verkauft sind), weil bei diesen trotzdem 2 Stränge zusammen geführt werden müssen außerhalb des NTs.

Und das ist mit einem vorkonfektionierten und qualitativ hochwertigen Kabel, besser als ein Adapter (auch aus Platzgründen). Natürlich hast du bei einem Modularen NT, noch die Anschlussbuchsen als Übergang.
Man kann es natürlich auch sehr genau nehmen, aber für Bestandsgeräte, die optimale Lösung.
 
Je weniger Adapter zwischen Quelle und Verbraucher sind, umso weniger Kontaktwiderstände und potentielle Ausfallursachen hat man auch. Sollte doch ohne Probleme möglich sein, zwei 6-pin-Stecker mit AWG18-Kabeln in einen 12-pin-Stecker münden zu lassen.
 
Im Übrigen ist der 12-Pin nicht neu, sondern ein nicht mal sonderlich frisches ATX12V-Projekt, um Mehrfachkabel zu vermeiden. Man will ja schon seit Ewigkeiten auf 8-Pin + 12-Pin + SATA umsteigen.
 
Huh. Mal davon abgesehen, dass ich schon seit mehr als einem Jahrzehnt ausschließlich Karten nutze, die maximal einen 6-Pin haben (und selbst der ist mir schon zuviel, am liebsten ganz ohne), ist das mit der Physik so ne Sache. Die Gesetze der Physik sind so, wie sie sind, aushebeln is nich, also sind wir alle dazu gezwungen, mit denen zu leben, das hat rein gar nichts mit Akzeptanz zu tun. Die sind so. Fertig.
Was ich innerhalb dieser für alle geltenden Gesetze nicht akzeptieren kann sind Desktopprozessoren, die 500 Watt verbrauchen. Grafikkarten mit einer richtig miesen Leistungseffizienz. Krücken wie AMDs FX-9590. 'Meisterwerke' wie so ziemlich alle Grafikkarten mit zwei GPUs.
Nur, weil etwas machbar ist, muß man es nicht machen.
Es bedarf mMn schon lange eines grundsätzlichen Umdenkens in der ganzen Branche, vor allem hinsichltlich des schneller-höher-weiter-Prinzips. Mir kommt es immer mehr so vor, als bedeute 'höher' vor allem höherer Verbrauch.
Nun steckt die ganze Chipletsache noch in den Kinder- ach, was: Babyschuhen, möglicherweise ist das ein Schritt in die richtige Richtung, das wird sich dann noch zeigen (müssen), aber solange die ganze Branche so tut, als stiegen die Stromkosten nicht stetig an, ist kein Ende abzusehen.
Warum zB wird sich seitens Nvidia nicht ein Grenzwert von zB 225 Watt auferlegt, also 1x8-Pin plus PCIe-Slot? Und dann versucht, die bestmögliche Leistung da rauszuholen? Warum muß es Prozessoren wie den 2990WX geben, der 500W aus der Steckdose nuckelt? Ist der dann durch die Bank doppelt so schnell wie mit 'nur' 250 Watt? Oder knapp 5x so schnell wie ein 2700X? Natürlich nicht. Was also soll der Rotz?
 
Die Gesetze der Physik sind so, wie sie sind, aushebeln is nich, also sind wir alle dazu gezwungen, mit denen zu leben, das hat rein gar nichts mit Akzeptanz zu tun. Die sind so. Fertig.
Als Naturwissenschaftler stimme ich dir zu, als Ingenieur muss ich widersprechen, dass man damit leben muss. Wie sind die Gesetze der Physik denn so? Wieviel Prozent davon haben wir schon verstanden? Selbst das ist nicht bekannt.

Warum muß es Prozessoren wie den 2990WX geben, der 500W aus der Steckdose nuckelt?
Da kann man genausogut fragen, weswegen man Supercomputer baut oder Sportwagen. Ist nicht immer leicht zu erklären, aber irgendeine Logik liegt meistens zugrunde. Ob das dann ökologisch sinnvoll ist, steht auf einem anderen Blatt.

Edit: Selbstverständlich sehe ich es genauso wie du, dass das Vernunft-System, von der Preis-Leistung (Watt und FPS) her, aus einem Ryzen 5 3600 plus GTX 1660 Super besteht.
 
Zuletzt bearbeitet :
Man will ja schon seit Ewigkeiten auf 8-Pin + 12-Pin + SATA umsteigen.
Und dann gibt es nagelneue Netzteile, die immer noch den Stecker für FDD mitbringen z. B. https://www.bequiet.com/de/powersupply/1765

@Derfnam Grundsätzlich gebe ich dir Recht, aber der 2990WX hat beispielsweise durchaus seine Berechtigung. In gut parallelisierbaren Anwendungen (z. B. Blender) ist der tatsächlich knapp 4x so schnell wie der 2700X. Außerdem ist das eine CPU, die nur in Spezialfällen wirklich ihre (dann aber auch wirklich enorme) Leistung entfalten kann und alleine aufgrund des Preises nichts mit dem Mainstreambereich zu tun hat. Wer sich das Teil holt, der weiß hoffentlich warum.

Anders sieht die Sache beim FX 9590 aus, das Teil war tatsächlich ziemlich sinnfrei. Andererseits steht der Mehrverbrauch eines 10900K in keinem Vergleich zur Mehrleistung gegenüber einem 3900X.

Über Sinn oder Unsinn von Spielen im Allgemeinen und insbesondere in hohen Auflösungen oder mit Bildwiederholraten von über 120 Hz will ich jetzt keine Grundsatzdiskussion anfangen, das würde zu weit führen. ;)
[...] Sportwagen [...]
Sportwagen finde ich dabei noch nichtmal so schlimm wie SUV: Unbrauchbar im Gelände, zu schwer und durstig auf der Straße, unübersichtlich, weniger Platz als in anderen Autos gleicher Größe. Und sportlich ist höchstens die Beschleunigung, aber auch nur, weil sie dicke Motoren haben, wodurch sie noch schwerer und durstiger werden. Und trotzdem gehen sie weg wie warme Semmeln ... Aber wir schweifen wiedermal vom Thema ab.
 
Jo, da du gerade mein Aufreger-Thema SUV anreißt, sei mir noch dieser kurze Ausflug ins Gelände erlaubt: Auch SUV sind leider logisch erklärbar aufgrund Nutzerwünschen. So, nun wieder zurück zur Steckerpanik.
 
Ich seh es so: nur wenn man Grenzen auslotet und ggf. zu überschreiten versucht, kommt man individuell wie auch die Menschheit insgesamt weiter. Was heute übertrieben-für-die-Masse-blödsinnige Technik z.B. im Rennsport oder Extrem-Leistungssport oder in der Raumfahrt ist, kommt morgen uns 08/15-Menschen zu Gute, weil man die Erkenntnisse für spannende andere Dinge nutzen kann. Ich behaupte mal, der Mensch ist sichererlich theoretisch besser geworden (Kalkulation, Planung, Simulation), aber wirklich wissen tut man es dann doch oft erst, wenn man es tatsächlich ausprobiert. Im Positiven wie Negativen: auch für die Erkenntnis, dass man eine Idee NICHT weiter verfolgen sollte, braucht es bisweilen auch einen Misserfolg / inakzeptables Ergebnis schwarz auf weiß. ;)

Dummerweise ist auch sehr menschlich: wenn etwas geht, wird es gemacht - auch wenn es vielleicht besser nicht gemacht werden sollte. Sei es aus Forscherdrang/Neugier, Dummheit, Gier (Macht/Geld/Ruhm), Wissensdurst, Altruismus oder was auch immer. Das ist so und einen, „der es ganz genau wissen will“ (Zitat Blade ;)), wird’s im Zweifel immer geben.

Übertragen auf unser Hobby: Auch da gab und wird es immer wieder Entwicklungen geben, die nicht so toll waren. Aber auf Fermi kam Kepler und da sah die Welt schon ganz anders aus. Teile (bzw. Konzepte) aus der Voodoo 3000 sind teilweise heute noch in Chips von Nvidia. Mir persönlich steht es jedenfalls nicht wirklich zu, Entscheidungen von Ingenieuren bei NVIDIA, AMD, Intel oder wem auch immer in Frage zu stellen, vor allem wenn das Produkt noch nichtmal das Licht der Welt erblickt hat, geschweige denn getestet wurde. Und hinterher, weiß man immer mehr. Wirklich meckern, dass etwas Neues (!) von vornherein Schwachsinnig war, darf eigentlich nur der, der es wirklich a) von vornherein, b) auf Anhieb ohne zwischendurch Rückschläge/Misserfolge, und vor allem c) nachhaltig besser/richtig macht.

Ich persönlich als dummes Anwender-Stimmvieh freue mich jedenfalls mehr über den Mut für einen bzw. zu einem wirklich neuen Ansatz, als wenn einer nur in der x. Iteration etwas mal wieder nur ein wenig optimiert/verbessert. Klar, der Übergang mag da fließend sein, aber für mich war das „Neue“ bei den RTX-Karten auch eine Rechtfertigung für mich ganz persönlich, den wahnsinnigen Aufpreis zu zahlen. Nur so gehts dämlich m.E. mit einer Chance auf WIRKLICHE Innovation weiter. Jedenfalls nicht mit einem Spirit von „me too“, nachdem bereits andere den Weg geebnet haben...

Sorry, mal wieder Fundamental-Gedankenfürze, aber darf ja vielleicht auch mal ab und an sein.
 
Jo, da du gerade mein Aufreger-Thema SUV anreißt, sei mir noch dieser kurze Ausflug ins Gelände erlaubt: Auch SUV sind leider logisch erklärbar aufgrund Nutzerwünschen. So, nun wieder zurück zur Steckerpanik.

Diese Wünsche wurden künstlich erzeugt.
 
Oben Unten