Grundlagenartikel Einblicke in ATX v3.0, ATX12VO v2.0 und PCIe 5.0 - Wenn Ressourcenverschwendung zum neuen Standard wird

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.814
Bewertungspunkte
8.781
Punkte
1
Standort
Redaktion
Der Wettlauf um immer schnellere CPUs und vor allem auch GPUs treibt mittlerweile derartige Blüten, dass für die neue energetische Verschwendungs-Offensive sogar bestehende Standards aufgeweicht bzw. so abgeändert werden müssen, dass wohl bald jeder Endverbraucher auf ein portables Kernkraftwerk sparen muss, wenn er sich nicht bis ins hohe Alter hinein beim Energieversorger verschulden will. Um (read full article...)
 
Die nächsten Gaming-Grafikkarten von VIDIA und AMD (später sicher auch Intel) werden diese Hürde sicher fast reißen. Das ist nicht mal vorausschauend, sondern die Standardisierung durch die Getriebenen im Endstadium. :(
 
Und: Ich persönlich habe bzgl. der Spielegrafik keine weiteren Anforderungen nach oben. Wenn 4K@90/120Hz flüssig läuft - was soll noch kommen? 8K? Ich hab ja für RT schon kaum Zeit, wenn ich das durch Mexiko rase... Ich steh sogar drauf, wenn ich sehe, dass es ein Spiel ist und nicht die Realität. Oder ist das schon die System-Anforderung für Zuckerbergs "Metaverse" in 4K?!

Na ja,ich glaube, VR / AR ist echt die neue Herausforderung.
Trotzdem, das hier ist ein reines Intel-Ding, dass allen anderen, vor allem AMD, mehr schadet als nützt. Es wird auch VR kaum helfen, wie es gerade implementiert wird.

Als ich die Überschrift gelesen hatte, dachte ich, wow, es geht auch um Software-Pfade, aber das hier ist ja sozusagen im Hardware-Keller, und total vermurkst, alleine wenn ich an die Änderung erlaubter Spannungs-Untergrenzen denke. Was für Schmiergelder da geflossen sein müssen...

Mir ist Zuckerl-Meta genauso wurstegal wie die Thunfisch-Gretl, aber unnütze Ressourcenverschwendung, nur um andere Marktteilnehmer aus dem Geschäft zu drängen oder zu behindern, ist schon typisch (US) Intel.

Was wir bräuchten, wäre mehr Effizienz in den Software-Render-Pfaden, UND eine dynamische Lastverteilung zwischen Grafikkarten und Prozessorkernen. Ich finde es x§!Xe , wenn meine GEFORCE 3090 am Anschlag heult, und die Prozessorauslastung des 5950X bei 10% liegt, wenn ich mal wieder ne BluRay rippe. Besonders bei 3D Konvertierungen ist bei der Software echt Luft nach oben. VR/AR ist kein Hype, sondern wird ein wesentlicher Teil unserer Arbeitswelt sein. DA hat der Zuckerlberger schon aufs richtige Pferd gesetzt... das wird 2x6K oder 2x8K für AR/VR...
 
Spätestens dann ist für mich Schluss mit PC-Gaming und ich steige dann wirklich notgedrungen auf Konsole um.
Ich glaube noch nicht dran bzw. solange meine Kiste mit <1000 Watt mit schöner Grafik flüssig läuft, bleibe ich dabei.
VR/AR ist kein Hype, sondern wird ein wesentlicher Teil unserer Arbeitswelt sein. DA hat der Zuckerlberger schon aufs richtige Pferd gesetzt... das wird 2x6K oder 2x8K für AR/VR...
Dann sprechen wir aber wirklich über Produktiv-Lösungen bzw. Einsatz in Entwicklungs-Szenarien. Das kann ich mir wiederum gut vorstellen. Aber wie @Igor Wallossek schon sagt: Die nächste Gen geht schon >500 Watt.
Ich schau dann mal nach ner günstigen Ampere.. 😜
 
Otto Normalnutzer wird einen Teufel tun sich da 1kW-schluckende Rechner zum Spielen oder Arbeiten unter den Tisch zu setzen. Das wäre wie stundenlang neben einem laufenden Staubsauger zu spielen.
Aber genau das passiert doch schon.
AMD 6900, NVidia 3080/3090 bei denen man am besten ein 1Kw (1000watt) ++ Netzteil hat wärend Staubsauger laut EU Recht nur noch maximal 900Watt Leisten dürfen.

Gezockt wird gern mal 3-12 Stunden am Stück ... ich hab zwar nen eigenes Haus. Aber selbst dafür brauch ich keine 3 Stunden zum saugen. Nicht mal, wenn ich den Keller und hinter allen Möbeln sauge.

Leider wird es wie bei jeder "freiwilligen Selbstkontrolle" ... solang man es darf wird es gemacht. Erst Gesetze würden was ändern.
 
SUVs sind auch die manifestierte Ineffizienz auf Rädern, aber ich sehe die auch noch nach 2035 auf unseren Straßen herumschippern. Ineffizient wird halt noch teurer als jetzt, was aber bestimmte Kreise nicht davon abhalten wird, sich trotzdem genau so zu verhalten, weil es für sie sprichwörtlich Peanuts sind.
 
Ist den beim neuen Standard die Absicherung Leitungsbezogen oder Schienenbezogen (z.b. +12V 40A) ?
 
Ich stimme absolut zu, dass dies völlig hirnrissig ist. Wir Kunden haben es in der Hand - ja, auch bei OEMs. Leider gottes ist der Anteil an mündigen Kunden aber vermutlich wieder viel zu gering, um dem gesunden Menschenverstand eine Chance zu geben -.-
 
Spätestens dann ist für mich Schluss mit PC-Gaming und ich steige dann wirklich notgedrungen auf Konsole um.
Sowas sind mir zu sehr schnell dahergesagte Lippenbekenntnisse.
Auch zukünftig wird es von besagten Firmen CPUs und GPUs geben, welche wenig Leistung fressen und/oder sich gut undervolten lassen. Das ist halt eine aktive und bewusste Entscheidung der Nutzer, auch z.B. welchen Bildschirm ich nehme und im Consumer und Gaming Bereich wie viele FPS auf welcher Auflösung ich haben will. 300 FPS in 4k - ja, da wird angehängter Rechner einige Watt fressen. 90 FPS in 1440 - das kann auch relativ sparsam laufen.
Und PC vs. Konsole seh ich sogar so, dass ich den Verbrauch nach unten am PC drücken kann, wenn ich will, während du bei der Konsole eher nicht groß die Hardwaresettings und Treiber änderst.
 
Ist den beim neuen Standard die Absicherung Leitungsbezogen oder Schienenbezogen (z.b. +12V 40A) ?
Du wirst lachen - aktuell gibt es noch nicht mal eine echte Lösung und schon gar keine spezialisierten Supervisor-Chips. Wie will man die Duty Cycles denn bitteschön überwachen? Eine smarte Lösung mit MCU und angepasster Firmware würde allein schon mindestens um die 10 bis 20 USD kosten, je nach Aufwand.

Es wird am Ende wohl erst einmal auf eine einzelne Schiene rauslaufen. Die aktuellen 1,6 KW Teile werden auf 1,2 KW runtergelabelt und intern trotzdem mit 20% bei 10 bis 20 ms höher abgesichert. Dann hast Du zwar keine 2,4 KW mit 10% Duty Cycle, aber mit etwas Gottvertrauen einen tollen Schweißtrafo. :D
 
@Igor Wallossek schalt dir mal für den Like-Button die restlichen Smiley-Symbole frei, damit man seine Gefühle hier besser ausdrücken kann - das mit dem Schweißtrafo, der treibt mir Tränen in die Augen :ROFLMAO:
 
Die Analogie zum Schweißtrafo passt ziemlich gut: Netzspannung mit niedriger Stromstärke wird in niedrige Spannung mit hoher Stromstärke gewandelt, gleichgerichtet und in kleine Energieportionen zerhackt. Genau das, was man auch bei einer CPU / GPU braucht.
 
So abwegig ist das gar nicht. Zum Punkten nutze ich seit Ewigkeiten ein altes Corsair AX1200, da gehen über 100 Ampere drüber, bevor es mal abschaltet. Damit haben wir auch schon mal Starterhilfe für einen uralten MB-Transporter geleistet, der 8 Jahre dumm rumstand. Läuft und heutzutage wär's ein YT-Video wert gewesen. :D
 
Falls und wenn das so kommt wie prognostiziert haben wir einen riesigen zusätzlichen Berg Elektroschrott in den nächsten 5-10 Jahren, zusätzlich zum dann aufgelaufenen Elektroautoschrott, denn die kann man ab 8 Jahren plus auch wegwerfen, wenn ein neuer Akku mehr kostet als der Restwert des Karrens.
 
Na dann passt das doch ganz gut, wenn wenigstens die Netzteile effizienter werden.
 
@Igor Wallossek
Mein Problem mit der Schienenweisen Absicherung ist, dass man da aus meiner Sicht einzelne Leitungen massiv überlasten kann. Las z.B. mal eine Leitung über eine Scharfe Kante am Gehäuse gehen.

Das mit den Bauteilen ist für mich eh geschenkt. Man ist eh froh wenn man aktuell überhaupt noch brauchbare Bauteile bekommt.
 
@Igor Wallossek
Mein Problem mit der Schienenweisen Absicherung ist, dass man da aus meiner Sicht einzelne Leitungen massiv überlasten kann. Las z.B. mal eine Leitung über eine Scharfe Kante am Gehäuse gehen.

Das mit den Bauteilen ist für mich eh geschenkt. Man ist eh froh wenn man aktuell überhaupt noch brauchbare Bauteile bekommt.
Ich finde das auch grässlich 😢
 
Naja, die Lastspitzen sind das Eine, der normale Alltagsverbrauch das Andere. 740W peak-Systemleistung habe ich mit Alder Lake schon mit Anstrengung, ungedrosselt und mit leichtem OC im Benchmark gemessen, ca. 240-290W sind eher die Regel beim Spielen.
Und der Nachbar heizt mit Ölradiatoren und IR-Paneln, weil ihm das Gas zu teuer ist. :)
 
Wo bleibt eine CPU- bzw. GPU Produktlinie, die die Chips am Sweetspot, maximal effizient konfiguriert (Chipgüte außen vor) auf den Markt wirft? DAS wäre mal Fortschritt.
CPUs mit zumindest reduzierter TDP werden ja noch vermarktet - Intel ist da breiter aufgestellt -, auch wenn die ihre TDP-Grenze nicht immer einhalten.
Bei GPUs hab ich das aber schon lange nicht mehr gesehen, auch wenn die, die es früher gab kaum sparsamer waren als die Standardmodelle.
 
Oben Unten