Grundlagenartikel Einblicke in ATX v3.0, ATX12VO v2.0 und PCIe 5.0 - Wenn Ressourcenverschwendung zum neuen Standard wird

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Der Wettlauf um immer schnellere CPUs und vor allem auch GPUs treibt mittlerweile derartige Blüten, dass für die neue energetische Verschwendungs-Offensive sogar bestehende Standards aufgeweicht bzw. so abgeändert werden müssen, dass wohl bald jeder Endverbraucher auf ein portables Kernkraftwerk sparen muss, wenn er sich nicht bis ins hohe Alter hinein beim Energieversorger verschulden will. Um (read full article...)
 
Schöner Beitrag, interessant und vorallem nach meinem Geschmackt. Vom unverständlichen RGB Fetisch (blendet das nicht wenn die Kiste da krell neben einem rumstrahlt?) mal abgesehen, bin ich da ganz deiner Meinung! Ich habe das Gefühl das z.B. bei der 3000 Serie von NV ab der 3080 kaum jemanden der viel höhere Stromverbauch stört. Die Generationen haben bis zur 2000 Serie immer etwas mehr verbraucht, aber dann dieser Sprung? Fast 50% im Schnitt obendrauf? Manchmal habe Ich das Gefühl, das ist niemandem aufgefallen. Von den aktuellen Preisen ganz abgesehen, ist das für mich abschreckend und einer der Gründe warum ich noch meine 2080 mit 225W Verbrauch habe.

Mit dem Autothema fange ich lieber nicht an. Ich fahre nur alte Autos die um die 30-40 Jahre alt sind, habe diese auch teilweise schon über 15 Jahre. Für mich muss keine Fabrik ständig neue Autos Stampfen, erst recht keine E Autos, die in anderen Teilen der Welt mehr schaden anrichten als ein Diesel es sein ganzen Leben lang je machen kann. Die Ressourcen die da von Entwicklung bis Endprodukt verbraucht werden könnte man anderst einsetzen. Ja klar, Motoren mit weniger Verbrauch, bessere Einspritzanlagen, Effizienz... is alles richtig, aber meiner Meinung nach läuft das aus dem Ruder.
Aber ein auto 20-30 Jahre fahren? Macht keiner, ich weiß.... Dann bleiben mehr alte Autos für mich übrig!
 
Und vergiß nicht die umweltverträgliche Förderung von Erdöl, und die noch verträglichere Verbrennung...
 
Sollen sie ruhig weiter übertreiben. Dann kommt eben irgendwann ein Gesetzes-Vorschriften-Hammer 🤷‍♂️
Die aktuelle Entwicklung - gerade am GPU Markt - der Verbräuche ist einfach nicht mehr schön anzusehen. Die haben echt den Schuss nicht gehört.
Zum Glück ist mir das PC-Gaming-Hobby nicht mehr ganz so wichtig. Ich überlege schon jetzt, ob ich mir nicht eher demnächst eine Konsole zulege. Der überhitzte PC Markt wird noch eine ganze Weile brauchen, eh er sich, wenn überhaupt, wieder abkühlt.

@Igor Wallossek Schönes Bild vom Lulatsch 😁
 
Und vergiß nicht die umweltverträgliche Förderung von Erdöl, und die noch verträglichere Verbrennung...

Zwar OT, aber sollte dazu erwähnt werden: Diesel kann zu 100% Synthetisch hergestellt werden. Hat zudem nochmal ~60% weniger Emissionen bei der Verbrennung....
 
Zwar OT, aber sollte dazu erwähnt werden: Diesel kann zu 100% Synthetisch hergestellt werden. Hat zudem nochmal ~60% weniger Emissionen bei der Verbrennung.... Göran hat gesagt. : Und vergiß nicht die umweltverträgliche Förderung von Erdöl, und die noch verträglichere Verbrennung...

Also, bitte beim Thema bleiben, sonst artet das wieder in einem Glaubenskrieg aus, den keiner gewinnt... hatte so gehofft, hier geht´s anders als bei Heise zu, wo alles und jedes Thema "gekapert" und gedreht wird. Triggerworte: Klima, E-Auto-Verbrenner- ... das was hier verbrennt, ist wenn, dann das Mainboard und die GraKa.

Gerade wegen der GPU-Verbräuche, das ist doch das Hauptproblem, dass pro Karte derzeit nicht mehr rauszuholen ist.
Wir brauchen einen parallelen Pfad für den Datenaustausch von Grafik-Clustern (Neuauflage/Rerdesign von SLI, CrossFire Mechanismen) für Consumer mit Energiesparsystematik. Amsonsten bleibt nur noch N2-Kühlung, weil Oberkannte. Die paar hundert Watt mehr bringens nicht, das ist doch architektonischer Epic Fail. Ich brauche 2*8K @120Hz+für bessere Immersion. Zuckerlberg hat angekündigt, und da gibts schon lange Gerüchte, neulich PIMAX. Wenn die Headsets kommen, braucht es einen komplett neuen Unterbau... Klar dass da Intel (quer)treibt...
 
Was mal schön wäre, ist ein Test bei dem man CPUs mit 95w max und GPUs mit 200w max tested. Also auch alle neuen I12000 Prozessoren und 6600-6900er sowie 3060-3090 GPUs. Dazu vieleicht noch ältere einer Linie (980, 1080, 1680, 2080 etc) bei max 200w als direkten Vergleich. Da könnten die Dinger mal zeigen, ob sie wirklich besser oder nur durstiger geworden sind ;).

PS: wenn ich meiner 970 knapp 500 Watt rein baller schafft die bestimmt auch noch 120 FPS @ 4k *g*.
So fern mir nicht vorher die Bude abfackelt.
 
Was mal schön wäre, ist ein Test bei dem man CPUs mit 95w max und GPUs mit 200w max tested. Also auch alle neuen I12000 Prozessoren und 6600-6900er sowie 3060-3090 GPUs. Dazu vieleicht noch ältere einer Linie (980, 1080, 1680, 2080 etc) bei max 200w als direkten Vergleich. Da könnten die Dinger mal zeigen, ob sie wirklich besser oder nur durstiger geworden sind ;).

PS: wenn ich meiner 970 knapp 500 Watt rein baller schafft die bestimmt auch noch 120 FPS @ 4k *g*.
So fern mir nicht vorher die Bude abfackelt.
verstehe, ist sicher interessant. Aber der Ausbau der Boosterfunktionen in jeder Generation macht das schwerer vergleichbar, wie soll das gehen? Über welches zeitliche oder absolute Intervall reden wir dann, und über welche Peak-Stromstärke? Ob man da dann Äpfel, Birnen und Aprikosen vergleicht?
Edit typo
 
Zuletzt bearbeitet :
Was mal schön wäre, ist ein Test bei dem man CPUs mit 95w max und GPUs mit 200w max tested. Also auch alle neuen I12000 Prozessoren und 6600-6900er sowie 3060-3090 GPUs. Dazu vieleicht noch ältere einer Linie (980, 1080, 1680, 2080 etc) bei max 200w als direkten Vergleich. Da könnten die Dinger mal zeigen, ob sie wirklich besser oder nur durstiger geworden sind ;).

PS: wenn ich meiner 970 knapp 500 Watt rein baller schafft die bestimmt auch noch 120 FPS @ 4k *g*.
So fern mir nicht vorher die Bude abfackelt.
Ja, guter Punkt. Manche Grafikkarten haben ja auch ein Dual-BIOS, und eines davon ist sparsamer als das andere; da gibt es sicher auch Potential.
Man sollte natürlich auch bedenken dass nicht alle PC-Nutzer die vollen Gamer sind. Bei mir wird selbst der Spiele-PC mehr für Fanfiction lesen/schreiben, Email und so was verwendet, und die Nutzungszeiten für fordernde Spiele sind überschaubar. Da sehe ich auch ein Kriterium, wie viel Strom die CPU/GPU-Kombo im 2D-Betrieb zieht.

Ich denke an die "Turbo"-Taste alter PCs zurück. So was wäre doch auch toll; der PC läuft normalerweise im Sparbetrieb, und nur dann wenn mal für eine Zeit die volle Leistung braucht, drückt man die Turbo-Taste?
 
Die Turbo-Taste war eigentlich gar keine, sondern invertiert ein Fallback fürs Runtertakten, um Inkompatbilitäten mit alter Software zu umgehen. Aber ein echter Stromsparmodus wäre schon wünschenswert, idealerweise gleich übers Motherboard als Standard für alles.
 
Immer wieder spannend diese Hintergrundberichte, lieben Dank dafür.

War lange hin und her gerissen, ob ich in meinen ersten Selbstbau-PC ne Gaming- oder Workstationkarte einbaue. Geworden ist es dann, auch getrieben von der diesjährigen irrwitzigen Preisentwicklung und himmelschreienden Verfügbarkeit von Grafikkarten, die Mini Nvidia RTX A4000 mit nem simplen 6-Pin Anschluss für die schmalen 140W.

Ist natürlich nix für Benchmark-Rekorde und Zocken in höchsten Gefühlen, aber wenn ich mir hier die Leistungsaufnahme vom Gesamtsystem anschaue schüttel ich immer wieder den Kopf warum ich ein 750W Netzteil verbaut hab 🙄
 
Netzteil war halt schon vor der Grafikkartenentscheidung da.
So bleiben halt noch Reserven für irgendwas.

Wie war das mit dem haben statt brauchen 😂

Happy Weekend
 
Wird der Strompreis tatsächlich immer teurer?

Mal kurz zum Einstieg:
Single, 90qm Wohnung, recht viel Technik inkl. High End Gaming PC im Haus: 2.000kwh im Jahr dadurch.

0815 Vattenfall Tarif vor 2 Monaten abgeschlossen, 28,20Cent Kilowatt+ 15,40€ Grundtarif.
Dazu kommen halt nun verschiedene Bonusse die es Dank mydealz eigentlich jedes Jahr gibt.
(112€+35+40).
Wenn ich alles abziehe bzw. die Bonusse im Hinterkopf behalte bin ich bei 46€ im Monat.
Das habe ich vor 5-7 Jahren eigentlich auch bezahlt, was genau ist hier teurer geworden? Oder übertreibt die Presse maßlos? Die Bonusse gab es auch schon vor zig Jahren.

So wirklich komme ich da nicht dahinter…

Und 46€ mtl für satte 2.000kwh ist jetzt nicht wirklich teuer, vor allem rechtfertigt es eigentlich gar nicht diese Artikel/Diskussionen zum Thema die man praktisch überall dazu aufschnappt.

Bin ich einfach nur völlig plemplem, oder sind 46€ für 2.000kwh nicht völlig in Ordnung? Extrem belastend finde ich den Betrag als Vollzeitkraft eigentlich auch nicht, absolut nicht.

Der Strompreis macht mir weder Sorgen noch benötige ich ein Kraftwerk für meine 3090. Nicht mal im entferntesten.
 
Zuletzt bearbeitet :
Naja, nicht jedem machen 10 oder 20 € im Monat mehr für Stromkosten nichts aus. Ich kenne einige Leute die im Moment jeden Euro sparen müssen. Allerdings kaufen die sich auch keinen neuen Gaming PC, sondern eine gebrauchte PS4, mit der es sich immer noch gut spielen lässt.
Und die Gamer-Kids, die 16 Stunden am Stück spielen, haben die leistungshungrige Hardware auch nicht oft.
Da gibt es neue energetische Probleme, die schwerwiegender sind. Der Industrie-Leistungsbedarf steigt Jahr für Jahr und der Ausbau der Ladeparks für EV-Fahrzeuge eilt dem Netzausbau auch schon Jahre voraus. Und diese Bedarfssteigerungen kommen in einer Zeit, wo Versorgungsengpässe wirklich ALLES, (z.B. Transformatoren und Kabel) selten werden lassen und viel teurer machen. Die Versorgungssicherheit der Stromnetze leidet auch nicht durch Gaming PCs, sondern durch die o.g. Dinge.
 
Klar, für einen Single-Haushalt macht das nicht viel aus. Wenn man sich allerdings mal ansieht, wie sich die Strompreise in den letzten Jahren entwickelt haben, sieht man das schon, z.B. von ca. 18 Cent im Jahr 2006 bis ca. 30 Cent heute. Im Gegensatz dazu fallen die Stromerzeugungspreise sogar, vor allem vermutlich wegen Strom aus Sonne und Wind. Es kostet zunehmend die Verteilung, Subventionierung und Speicherung.

Dazu kommt, dass man in der heutigen Zeit, aus meiner Sicht, generell auf das Stromsparen und den eigenen Energieverbrauch achten sollte - Klimawandel!
 
Das Thema Energieeffizienz ist doch an der EDV - dem selbsternannten Technologietreiber schlechthin - doch bislang komplett vorbei gegangen. Gesamtsysteme von vor 10 Jahren haben selbst mit top notch GPUs kaum 400-450 Watt im Vollastbetrieb verbraten.
Das braucht zwischenzeitlich der läppische Büro PC der Sekretär*in. Mehr Leistung durch höhere Verbräuche zu erreichen ist keine Evolution. Das ist Bullshit. Aber es ist wie mit den Discounter Tintendruckern für 70 Euro, wo zwei Sätze Patronen nochmals das Gleiche kosten. Wenn´s gekauft wird und der Markt verlangt es, dann wird es halt gemacht. Geil ist daran allerdings nix.
 
Wird der Strompreis tatsächlich immer teurer?

Mal kurz zum Einstieg:
Single, 90qm Wohnung, recht viel Technik inkl. High End Gaming PC im Haus: 2.000kwh im Jahr dadurch.

0815 Vattenfall Tarif vor 2 Monaten abgeschlossen, 28,20Cent Kilowatt+ 15,40€ Grundtarif.
Dazu kommen halt nun verschiedene Bonusse die es Dank mydealz eigentlich jedes Jahr gibt.
(112€+35+40).
Wenn ich alles abziehe bzw. die Bonusse im Hinterkopf behalte bin ich bei 46€ im Monat.
Das habe ich vor 5-7 Jahren eigentlich auch bezahlt, was genau ist hier teurer geworden? Oder übertreibt die Presse maßlos? Die Bonusse gab es auch schon vor zig Jahren.

So wirklich komme ich da nicht dahinter…

Und 46€ mtl für satte 2.000kwh ist jetzt nicht wirklich teuer, vor allem rechtfertigt es eigentlich gar nicht diese Artikel/Diskussionen zum Thema die man praktisch überall dazu aufschnappt.

Bin ich einfach nur völlig plemplem, oder sind 46€ für 2.000kwh nicht völlig in Ordnung? Extrem belastend finde ich den Betrag als Vollzeitkraft eigentlich auch nicht, absolut nicht.

Der Strompreis macht mir weder Sorgen noch benötige ich ein Kraftwerk für meine 3090. Nicht mal im entferntesten.
Es ist aus meiner Sicht weniger ein Thema der Stromkosten. Ich hab echt null Bock auf ein Blockheizkraftwerk in meiner Bude. Davon ab laufen hier D-Link Adapter, um die Datenleitung ins Wohnzimmer stabil und hoch zu halten. Auf derlei Schwankungen reagieren die sensibel.
Davon ab: es bleibt nicht bei der Stromrechnung. Neues NT, MoBo, Kühlung ... Für derlei Wattzahlen brauchst du einen neuen Unterbau.
 
Es ist aus meiner Sicht weniger ein Thema der Stromkosten. Ich hab echt null Bock auf ein Blockheizkraftwerk in meiner Bude.
Finde ich schon arg übertrieben, wie immer beim Thema Klima.
Man muss auch realistisch und auf dem Teppich bleiben, was bringen immer diese teils massiven Übertreibungen?
 
Das Thema Energieeffizienz ist doch an der EDV - dem selbsternannten Technologietreiber schlechthin - doch bislang komplett vorbei gegangen.
Es war schon mehr ein Thema als heute. Um 2013 hat Intel den Idle-Strombedarf der CPUs unter ein halbes Watt gesenkt. Davor war der Verbrauch im Idle einige Watt höher. Da viele PCs die meiste Zeit vor sich hin dümpeln, hat das durchaus Bedeutung. Damals musst man die Netzteile anpassen, weil die gemeint haben der PC sei aus, wenn er so wenig Strom braucht. (ATX 2.4, Energiesparmodus C6/C7)

Heute scheint das aber leider nicht mehr wichtig zu sein, wenn ein PC für 10 % Mehrleistung doppelt so viel Strom verpufft. Es kommt eben auch immer darauf an, welche Leute in einer solchen Firma nach welchen Kriterien entscheiden, was konstruiert wird.
 
Finde ich schon arg übertrieben, wie immer beim Thema Klima.
Man muss auch realistisch und auf dem Teppich bleiben, was bringen immer diese teils massiven Übertreibungen?
Sooo übertrieben ist das garnicht. Ich müsste von meinem 650Watt NT auf mehr als das Doppelte umsteigen. Und die Abwärme irgendwie aus dem Gehäuse pusten.
Davon ab: wir haben Ökostrom. Aber auch dabei geht es darum, weniger zu verbrauchen.
 
Oben Unten