Grundlagenartikel Einblicke in ATX v3.0, ATX12VO v2.0 und PCIe 5.0 - Wenn Ressourcenverschwendung zum neuen Standard wird

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Der Wettlauf um immer schnellere CPUs und vor allem auch GPUs treibt mittlerweile derartige Blüten, dass für die neue energetische Verschwendungs-Offensive sogar bestehende Standards aufgeweicht bzw. so abgeändert werden müssen, dass wohl bald jeder Endverbraucher auf ein portables Kernkraftwerk sparen muss, wenn er sich nicht bis ins hohe Alter hinein beim Energieversorger verschulden will. Um (read full article...)
 
Die wahre Sauerei ist, das das Stromsaufen zum Standard gemacht wird.
Sehe ich auch so. Und Elektroautos ab minimal 100KW und häufig mit 200 KW und mehr Leistung sind für mich ein Beweis dafür, dass nicht kapiert worden ist, um was es eigentlich geht. Völlig abstrahiert von der Energieform/-quelle. Und im Haushalt ist das nicht anders. Da helfen auch die "Energie" Label nix, weil da genauso beschissen wird wie anderswo.
 
Zuletzt bearbeitet :
Moderator @amd64 Edit: OT gelöscht

Zurück zum Intel-Powerstecker: Wenn das kommt, wird das eher non-deterministisch, weil die Komponenten untereinander den Bedarf aushandeln werden, das ist schon mal abzusehen. Man kann sich an 5 Fingern abzählen, dass die großen Firmen gerade hinter verschlossenen Türen die neue PC-microgrid Architektur aushecken. Mir wirds ganz anders, dann "braucht" es ML /KI fürs Powermanagement. Das bringt dann ganz bestimmt noch drölfzig frames mehr und wirkt wie ein powerbased framedrop-Limiter.

so, jetzt bin ich raus, hier wird´s wie bei Heise.
 
Zuletzt bearbeitet von einem Moderator :
Gut, dass du meinen Beitrag mit dem Energieverbrauch und der pöösen Solaranlage nicht gelesen hast.

Edit: Efuels sind für Mobilanwendungen übrigens genauso Blödsinn wie H2. Dann schon lieber den Strom direkt ohne die immensen Umwandlungsverluste verbrauchen mit Batteriefahrzeug.
 
Zuletzt bearbeitet :
verstehe, ist sicher interessant. Aber der Ausbau der Boosterfunktionen in jeder Generation macht das schwerer vergleichbar, wie soll das gehen? Über welches zeitliche oder absolute Intervall reden wir dann, und über welche Peak-Stromstärke? Ob man da dann Äpfel, Birnen und Aprikosen vergleicht?
Edit typo
Ich dachte das sei klar ausgedürckt.
Verbrauch auf MAX die Werte beschränken. Schlicht und ergreifend den maximalen erlaubten Verbrauch peer BIOS oder RED Tool oder was auch immer limitieren. Quasi ein Power (in Watt) Hardcap.
Ne 980 wird warscheinlich nicht viel davon merken (TDP 165W). Ne 2080 und drüber wird verdammt in die Kniehe gehen schätz ich.


Ich zocke eher selten. Aber ich kenne nicht wenige, die es am Tag auf deutlich mehr als drei Stunden schaffen. Das gleicht meine Enthaltsamkeit wieder aus. :D

Ich habe es, trotz "Großglotze", übrigens geschafft, meinen Energieverbrauch im privaten Teil der Wohnlandschaft in den letzten 10 Jahren zu halbieren, was aufgrund gestiegener Preise am Schluss zumindest noch eine finanzielle Ersparnis von ca. einem Viertel bedeutet. Da gleicht den erbrachten Aufwand in die Modernisierung und den Austausch in sparsamere Gräte und Beleuchtung allerdings NICHT aus, nur fürs Gewissen ist es etwas beruhigender. Als 4-Personen-Haushalt kommen wir auf unter 3000 kWh pro Jahr, das kann man so lassen. Was ich von Büro und Labor leider nicht sagen kann. Das wird jährlich immer teurer. :(
Laut Statistiken gibt jeder Deutsche 50-75,-€ im Monat für Kleidung aus. Bei mir reichen 75,-€ für 3 Jahre+ (Ersatz für Kaputt). Und gekauft wird nur Zeugs ohne jegliche sichtbaren Logos/Markennamen (bin doch keine Werbetafel ... und wenn will ich bitte bezahlt werden dafür).
Im Gegenzug gibt es warscheinlich genügend, die im Monat 300+++,-€ für Gutschi, Assidas, Snikkers oder Gorge Klunker ausgeben.

Laut Statistiken schmeißt jeder Deutsche 81,6kg Lebensmittle pro Jahr weg. Hab dieses Jahr bisher 3 Scheiben Käse weggeschmissen und eine Banane.
Das Meiste steht warscheinlich hinterm Discounter :(. Wird aber dann auf alle Umgerechnet. Aber die darf man ja (mal wieder) nicht anfeinden.
(quelle: suchmaschiene der wahl).

Und ne wandfüllende Glotze ist ja nicht wirklich das Problem WENN bei kauf eine genommen wird die a) nen echten Ausschalter hat, b) die mit dem geringsten Verbrauch gekauft wird und c) das Dingen nicht 24/7 proforma läuft. Denn der haupt Verbrauch kommt nicht durch aktive Geräte sondern durch Milliarden Stand-By Geräte welt weit.
Und es wird immer mehr mit all dem sinnlos "Smart-Haus" Krampf der da semi afk 365 Tage im Jahr Daten an Amazon/Google/etc sendet ... und Strom verbraucht!

Das ändert ja nichts dadran, dass uns Verbrauchern immer vorgebetet wird: "so können SIE xyz senken" ... wärend im gleichen Zug die Industrie (und einige Unverbesserliche) rausballern als gäb's kein Morgen. Und kritisieren darf man die Industrie ja nicht weil sie sofort weint "Arbeitsplätze". Und wenn das passiert kneifen ALLE Politiker sofort die Schwänze ein! Selbst die Grünen :(.

Was ICH dagegen tuh? Ganz klar in Foren wie diesem und bei jedem Gespräch das anprangern, wo wirklich die Probleme sind. EGAL, ob ich dafür gehaßt werde oder nicht!
 
Zuletzt bearbeitet :
Ich zocke eher selten. Aber ich kenne nicht wenige, die es am Tag auf deutlich mehr als drei Stunden schaffen. Das gleicht meine Enthaltsamkeit wieder aus. :D
Da muss ich noch nicht mal weit gehen, ich selbst bin auch nur ein gelegentlicher Zocker. Aber mein Rechner läuft täglich auch sehr lange mit Idle/Office.

Letztes Jahr habe ich mal die gesamte Leistungsaufnahme meines Rechners (9900K + 2080 Super) mit dem Rechner meines Sohnes verglichen (3900X + 2080S). Wir sind in Games auf dieselbe Leistungsaufnahme von etwa 420 Watt mit dem kompletten System gekommen. Da ich bei ihm auch einige Zeit ein Strommessgerät dran hatte und meine Fritzbox dieses täglich festhält, konnte ich sehen was die Systeme im Monat so verbrauchen und sein Verbrauch lag doppelt so hoch wie mein System.

Das liegt daran, dass er stundenlang mit seinen Kumpels am Zocken ist und sein Rechner dadurch längere Zeit eine hohe Leistungsaufnahme erreicht. Jetzt hat er sich auch solch ein Riesen Teil als Monitor gekauft, wo er sein Bildschirm in 2x 16:9 aufteilen kann. Da sieht mein Monitor mit 34 Zoll 21:9 daneben klein aus. :D

PS: Zu der Zeit hatte ich noch eine 2080S verbaut, heute habe ich eine 3080 Grafikkarte verbaut, die ich mit UV betreibe und so wieder meist unter 300 Watt komme. Ansonsten würde die Grafikkarte im Schnitt statt 250-270 Watt wie mit der 2080 Super, eher um die 320-340 Watt verbrauchen.

Mit dem neuen BF 2042 Spiel komme ich auf etwa 400 Watt.
Ashampoo_Snap_Montag, 22. November 2021_10h02m52s_004_.png

EDIT: Hier mal dasselbe Spiel ohne UV der Grafikkarte.
An FPS hatte ich etwa dasselbe. Die 400 Watt habe ich meist nun überschritten und Spitze war sogar 500 Watt.
Die aktuelle Leistungsaufnahme nicht beachten, da ich hierzu bezüglich des Screenshots aus dem Vollbild zum Fenstermodus wechseln musste.

Ashampoo_Snap_Montag, 22. November 2021_10h23m41s_005_.png
 
Zuletzt bearbeitet von einem Moderator :
Der Verbrauch von Alder Lake ist in der Praxis kein Problem. Erstens kaufen nur die wenigsten einen Core i9 12900k, weil der preislich in Relation zum Core i7 12700k überteuert ist. Die Masse kauft einen i5 oder i7 und deren Verbrauch ist in nicht-synthetischen Lasten fast immer unter 100w.

Die Grafikkarten haben den Bock abgeschossen, eine RTX 3090 FE ist massiv genug um als Mordwaffe genutzt zu werden. Das sind Dimensionen, die ohne GPU-Halterung nicht mehr an einem PCIe Slot hängen dürfen, sonst kommt sowas dabei raus.


Das Ding ist halt, ich sehe es nicht ein großartig UV zu betreiben, nur damit ich mir am Ende vom Jahr 7€ Stromkosten spare bei einer Grafikkarte mit Kaufpreis 1557€. Selbst bei nur 2% weniger Performance lohnt sich das nicht. Wobei ich unter normalen Umständen, wenn die Karten ihren Kaufpreis nicht selbst abbezahlen, auch nicht ein Kunde der Titanklasse wäre, sondern der 750€ Preisklasse.
 
Ja kenne ich von meinem 9900K, da komme ich meist auch unter 100 Watt (GPU-Limit).

Mit BF5, was alle Kerne gut auslastet:
K1600_Ashampoo_Snap_Montag, 27. September 2021_11h11m54s_002_.JPG

Mit Overwatch, was nicht alle Kerne stark auslastet:
Ashampoo_Snap_Montag, 22. November 2021_11h05m09s_001_.png

Mit UV + 116 FPS Limit, bezüglich meinem 120 Hz Monitor.
Ashampoo_Snap_Montag, 22. November 2021_11h11m42s_002_.png
 
UV ist nicht zum Stromsparen sondern um Mehrleistung rauszuholen
Unsinn, in meinem Fall kann ich nur auf 850 mv gehen, wenn ich hierzu auch die Leistung reduziere.
Die Grafikkarte würde sonst mit meiner Wasserkühlung bis 2040 MHz halten. Hierbei erreiche ich auch eine geringere Leistungsaufnahme, weil diese auch von der Spannung und der Last abhänig ist.

Mehr Leistung bekommst nur dann raus, wenn mit Stock mehr Spannung als nötig drauf gepackt wird, denn einfach so kannst nicht einfach weniger Spannung setzen und dann noch hoffen, dass die Grafikkarte oder ein Prozessor weiterhin stabil bleibt.
 
Zuletzt bearbeitet von einem Moderator :
Ja, es gibt noch genug User die es nicht interessiert, das der Energieverbrauch explodiert und damit im Grunde entgegen allen Bemühungen zum Thema U"
UV ist nicht zum Stromsparen sondern um Mehrleistung rauszuholen
Öhm...seh ich anders. Warum Leistung steigern, wenn es zum Zocken weniger bedarf?
 
Wenn es die "Gesprächs"-Situation nicht noch weiter aufheizen würde, würde ich für dass vorangegangene Posting sogar einen Like vergeben.
 
Dachte immer die Nvidia und Intel/AMD Fanatiker sind gruselig as f uck, aber die Klimafreaks machen mir inzwischen weitaus mehr Angst.
Die würden einfach alles tun fürs Klima und wenn sie dafür buchstäblich über Leichen gehen müssten, kommt mir jedenfalls so vor. Übel…
 
Ich entschuldige mich hiermit expressis verbis in diesem Thread für meine stattgehabten Ausflüge ins "Energiefeld" würde aber gerne anregen, die hier stattfindenden Diskussionen in den PN Bereich zu verlagern - auch wenn der Begriff "Ressourcenverschwendung" natürlich hier als Ankerpunkt für alles verwendbar ist - und Frau Thunberg hat hier nun wirklich nichts verloren, es sie denn von ihr gibt es zum Thema eine sinnspendende Einlassung oder einen Verbesserungsvorschlag.
 
Wer nicht Zustände wie bei Heise will, der sollte auch nicht so wie bei Heise üblich in den Wald rufen.
Reisst euch zusammen und diskutiert vernünftig. Troll und Triggermüll wird ab jetzt mit Auszeit oder Bann bestraft.
Vielen Dank an alle, die trotz geteilter Meinung die Fassung bewahren.
 
Dachte immer die Nvidia und Intel/AMD Fanatiker sind gruselig as f uck, aber die Klimafreaks machen mir inzwischen weitaus mehr Angst.
Die würden einfach alles tun fürs Klima und wenn sie dafür buchstäblich über Leichen gehen müssten, kommt mir jedenfalls so vor. Übel…
Ach und die "nach mir die Sinflut" alles Leugner sind besser?
Egoismus wins gelle. Hauptsache du hast deinen Spaß. Biste halt die letzte Generation, die auf diesem Planeten leben kann.

Da dreht sich mir der Magen auf Links.
 
Jetzt warte ich auf das erste Netzteil mit integriertem Ultrakondensator; denn wie soll so ein Teil diese Spitzenlasten sonst stemmen? Gut, in Deutschland ginge es gerade noch so (mit guter Sicherung und sonst nichts an der Leitung gehängt), aber Netzteile werden doch meistens universal für 220 (Europa, bis 240 UK) und 110 Volt (USA) Eingangsspannung gefertigt, und 2.4 kW von einem 110 Volt Haushaltsanschluss wird meist nicht klappen.
Außer man verlegt den PC gleich in sein Elektroauto, die Batterien in den Dingern schaffen 2.4 kW, und wenn's doch eng wird ist, kann man am 800 V Schnellader spielen. Die können ja angeblich bis zu 200 kW pro Stunde liefern.
 
Ich denke mal viele dieser Standards sind auch mal mit etwas Weitblick entwickelt worden und beziehen den Einsatz von spezieller Hardware z.B. in Workstations mit ein. Eher dort sehe ich das Gebiet wo stromsaufende Komponenten geballt zum Einsatz kommen.
Otto Normalnutzer wird einen Teufel tun sich da 1kW-schluckende Rechner zum Spielen oder Arbeiten unter den Tisch zu setzen. Das wäre wie stundenlang neben einem laufenden Staubsauger zu spielen.
Würde mich aber nicht wundern, wenn irgendjemand schon an einem Saubermach (Staubsaugen) Simulator bastelt. Farming simulator gibt's ja schon 😊
 
Hi Igor,
Dein Video finde ich wieder super. Viellicht sollte man mal versuchen, die Stromzufuhr mit einem "Potentiometer" zu regeln.
Den habe ich mir damals im Karl-Chemnitz im Kaufhaus zugelegt, als ich am Eingang fragte, wo es hier Küchengeräte gibt. Die Verkäuferin sagte, in der Küchenabteilung gibt's jetzt keine (elektrischen) Küchengeräte, aber in der ersten Etage gibt's gerade keine Elektrogeräte o_O. Also nach oben gerammelt, nach einem Lötkolben gefragt und die Antwort nach Warten in der Schlange, Lötkolben sind momentan ausverkauft, aber wir haben noch "Potentiometer". Den habsch gekooft und heute noch in Besitz.
Jetzt erkläre mal den Lesern, was ein Potentiometer ist und weshalb er in der Elektrotechnik zur Anwendung kommt (oder kam). ;)
 
Oben Unten