Grundlagenartikel Einblicke in ATX v3.0, ATX12VO v2.0 und PCIe 5.0 - Wenn Ressourcenverschwendung zum neuen Standard wird

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Der Wettlauf um immer schnellere CPUs und vor allem auch GPUs treibt mittlerweile derartige Blüten, dass für die neue energetische Verschwendungs-Offensive sogar bestehende Standards aufgeweicht bzw. so abgeändert werden müssen, dass wohl bald jeder Endverbraucher auf ein portables Kernkraftwerk sparen muss, wenn er sich nicht bis ins hohe Alter hinein beim Energieversorger verschulden will. Um (read full article...)
 
Schlimm und dumm.
Für mich wäre das ein Rückschritt und kein Fortschritt in der Technik.

Was verbraucht eigentlich eine PS5 oder Xbox - x unter last?

Die haben doch beide keine wakü/AiO und müssen Wohnzimmer verträglich sein.

Wenn zukünftige GPUs 500-600 Watt schlucken kann e die doch nur noch mit vorinstallierter wakü geben oder?

Eigentlich sollte der Energieverbrauch doch mit immer kleinerer Fertigung und besseerer, effizienter Architektur immer geringer und nicht größer werden. :unsure:o_O
 
Strom ist andernorts wohl immer noch zu billig und wächst auf Bäumen, anders kann ich mir so etwas nicht erklären.
Wo bleibt eine CPU- bzw. GPU Produktlinie, die die Chips am Sweetspot, maximal effizient konfiguriert (Chipgüte außen vor) auf den Markt wirft? DAS wäre mal Fortschritt.
 
Eigentlich sollte der Energieverbrauch doch mit immer kleinerer Fertigung und besseerer, effizienter Architektur immer geringer und nicht größer werden. :unsure:o_O
Ja und nein. Ein kleinerer Transistor und kürzere Leitungen brauchen weniger Strom um zu schalten. Die Isolationsschichten zwischen den Leistungen sind aber schon so dünn, dass Kriechströme ein immer grösseres Problem werden. Das ist so zu sagen ein teilweiser Kurzschluss zwischen den Leitungen und das verbraucht dann mehr Strom je dünner die Isolationsschicht ist.

Genau, vor etwa 300 Mio. Jahren. :rolleyes: Und jetzt verheizen wir in 300 Jahren, was in 30 Mio Jahren entstanden ist.
 
Bevor ich weiterlese - schon das Bild ist der Knaller :ROFLMAO:
 
Strom ist andernorts wohl immer noch zu billig und wächst auf Bäumen, anders kann ich mir so etwas nicht erklären.
Wo bleibt eine CPU- bzw. GPU Produktlinie, die die Chips am Sweetspot, maximal effizient konfiguriert (Chipgüte außen vor) auf den Markt wirft? DAS wäre mal Fortschritt.

Ganz deiner Meinung:

Mehr solcher Tabellen, auch für die CPUs, vielleicht sogar für Mainboards?
 
Was verbraucht eigentlich eine PS5 oder Xbox - x unter last?
Ich hatte mir letztes Jahr eine Xbox Series X gekauft, um die Konsole mal auszuprobieren und um einer nötigen Aufrüstung meines bestehenden PC-Systems mit einer neuen und überteuerten Grafikkarte vorzubeugen. Von der Grafik her war das schon nicht schlecht und die Konsole hat auch nie mehr als 200 W aus der Dose gezogen, aber da ich einfach kein Konsolenspieler bin, habe ich das Teil dann nach einem halben Jahr zum Einkaufspreis weiterverscherbelt. Im Sommer hatte ich eh anderes zu tun. Mal sehen, wie und wann ich nun aufrüsten werde.
 
Meine erste eigene Plattform war zwar eine Amiga, aber danach bin ich komplett Nintendo in die Hände gefallen. Sieht so aus, als ob es das dann auch wieder wird.
Mir erschließt sich der Sinn nicht: Werden das dann die ultimativen Mining-Boliden?
Wenn ich mir den sonstigen Markt (Nachfrage) anschaue: Im Vergleich zu Streaming-Angeboten (Geforce Now, Stadia, ...) in Kombi mit schnellem Internet werden diese Blockheizkraftwerke noch unattraktiver.
Davon ab: China hat letzten Monat zwei Dienstleistern den Strom abgedreht und damit faktisch die Fabriken lahmgelegt - einfach, weil sie ihr CO2-Ziel zu verfehlen drohten. Gerade in den größten Märkten (=Industrienationen) wird es darum gehen Energie-effizienter zu werden. Die hier skizzierten Produkt-Entwicklungen sind Totgeburten.
Und: Ich persönlich habe bzgl. der Spielegrafik keine weiteren Anforderungen nach oben. Wenn 4K@90/120Hz flüssig läuft - was soll noch kommen? 8K? Ich hab ja für RT schon kaum Zeit, wenn ich das durch Mexiko rase... Ich steh sogar drauf, wenn ich sehe, dass es ein Spiel ist und nicht die Realität. Oder ist das schon die System-Anforderung für Zuckerbergs "Metaverse" in 4K?!

@Igor Wallossek Lass doch das schwedische Kind in Frieden. Sie mag nerven, aber in der Sache hat sie Recht. Und zum Volvo: Hätten die damals nen Benziner gehabt, wäre ein Schwedenpanzer auch meine erste Wahl gewesen... (y)

Edit: Verpixel mal lieber dein Nummernschild - wenn es echt ist.
 
Hach, mein Amiga, das waren noch Zeiten. Mein erster richtiger Einstieg in die Computerwelt 1987. Alle Spiele liefen problemlos, da direkt auf die verfügbaren Ressourcen optimiert. 1990 habe ich ihm dann noch die Speichererweiterung auf 1 MB spendiert und habe das Teil noch bis 1993 mit Freude betrieben. Danach wurden die PCs mächtiger.
 
Zuletzt bearbeitet :
@Igor Wallossek Lass doch das schwedische Kind in Frieden. Sie mag nerven, aber in der Sache hat sie Recht. Und zum Volvo: Hätten die damals nen Benziner gehabt, wäre ein Schwedenpanzer auch meine erste Wahl gewesen... (y)

Edit: Verpixel mal lieber dein Nummernschild - wenn es echt ist.
Das "Kind" ist mittlerweile eine Erwachsene mit leicht anti-semitischem Einschlag und einer eher undurchsichtigen Finanzierung. Die muss das einfach abkönnen, die Präsenz ist doch selbst so gewählt. Etwas Ironie ist immer drin, solange es nicht persönlich wird.

Warum soll ich das Schild verpixeln? Ist eh bekannt. Die Leute sprechen einen auch so an :D


Meine Karriere ging vom ZX80 (1983), über einen Schneider CPC und Olivetti M20 direkt zum 086er PC :)
 
Das eine ist der Verbrauch der Komponenten selber, die setzen die schön in Wärme um... Im Winter ist das ja noch relativ egal, aber im Sommer wird das dann ein Spaß. Da hilft dann auch keine Wakü mehr, wenn die Raumtemperatur zu hoch wird. Dann gibt es noch eine Klimaanlage dazu.

Und die Anhebung der Spannungen, so sorgt man für mehr Absatz bei Neugeräten. Und braucht dann nicht die alten Geräte Supporten. Also eine Win Win Situation
 
Oder nur noch im Sommer spielen, wenn meine Solaranlage 5 kW liefert. Aber ich bin eher ein Winter-Höhlen-Nacht-Spieler.
 
Ob denen klar ist, dass da bald schon ne eigene 230V Leitung gebraucht wird weil sonst die Sicherungen durchknallen?
2,4Kw der PC + 1Kw für die 8k Monitore + Kleinkram wie HiFi Sound, Drucker, Router, vieleicht unverschämter weise noch Licht? Ich seh schon reihen weise die 8er Mehrfachstecker abfackeln ^^.

@Igor, gibt es nicht irgend wo nen Herrsteller, der Mobil CPUs (25-45W) und Mobil GPUs in nen normalen PC mit Sockel verbaut?

Hab echt null Bock nur noch kalt zu Duschen nur um den PC laufen zu lassen :/.

Meine Karriere ging vom ZX80 (1983), über einen Schneider CPC und Olivetti M20 direkt zum 086er PC :)
Uh, ein Pro-Nerd. ZX80 und CPC waren die, denen C16/64 zu ordinär waren ^^.

PS: C16 -> C116 -> Amiga500 -> Amiga 1500 -> 486DX(?)33
 
Zuletzt bearbeitet :
jo, technisches Hockrüsten ohne Rücksicht auf Verluste, getreiben von Gier.

Wobei ich da glaube das sie sich alle damit zukünftig gehörigt ins Knie schießen.
Wie laufen grade in ein Globalen Energie und Resourcennotstand hinein.

In vielen Staaten wird Energie stark subventioniert , das so wohl absehbar nicht haltbar ist.
China schaltet gerade 50% des Landes, wohl noch über Monate, in langanhaltende Brownouts. In der EU drohen ebenfalls welche, weil mit Gas gezockt wird statt es für den Winter zu bunkern. Und unsern wichtigsten Energielieferant pisst die EU seit Jahren ans Bein und droht ihm mittlerweile mit richtig Krieg.

Mit Crypto gibt es ein Verdiehstmodell wo man mit reinen verbrennen von Energie Geld verdiehnen kann. Auch so ein letzes Aufzucken vor dem Crash.

Will Sagen , Energie wird Weltweit, teils erheblich, teuerer werden. Und strom ist die reinste und edelste Form der Energie.
Vieleicht kommt dann auch der Kundenwunsch nach sparsamer Hardware eine höhere Priorität.
Der Ja bis jetzt eher keine Prio hatte.

PS: ich werden keine CPUs kaufen die mehr als 100W verbrauchen und keine Grafikkarten die mehr als 150W verbrauchen. Der kompromiss ist das ich sie sinnvoll mit eigenen Settings so betreiben kann. So hochgezüchteten Ineffizienten Schrott wie er in der nächsten Gen geplant ist will ich nicht geschenkt haben.

Der 12900K hat mit 50W bereits 50% und mit 125W 90% der Performance wie er mit 241W erreicht.
Wie gesagt bisher waren 90% der Leuten der Verbrauch egal, das wird sich halt ändern, leider ebend erst durch preislichen Zwang hohrenter Energiekosten.

Aktueller Film Tip: Die Menschheit: Auch mit dem letzen Tropfen Öl kann man noch beschleunigen, Live und in Farbe.
 
Zuletzt bearbeitet :
Das eine ist der Verbrauch der Komponenten selber, die setzen die schön in Wärme um... Im Winter ist das ja noch relativ egal, aber im Sommer wird das dann ein Spaß. Da hilft dann auch keine Wakü mehr, wenn die Raumtemperatur zu hoch wird. Dann gibt es noch eine Klimaanlage dazu.

Und die Anhebung der Spannungen, so sorgt man für mehr Absatz bei Neugeräten. Und braucht dann nicht die alten Geräte Supporten. Also eine Win Win Situation
Das stellt mich dann wirklich vor zahlreiche Herausforderungen - ich find ja immer, wahrer Luxus ist, am sonnigen Sommertag vorm PC zu vergammeln :cool:
Aber im Ernst: Bei der Entwicklung bin ich raus. Auf der anderen Seite: Vielleicht greift man dann eher zur "Mittelklasse", wenn die für WQHD outmaxed ausreicht.
 
Solange die Mittelklasse zu vernünftigen Preisen erhältlich ist, ja. Aber darauf können wir wohl noch etwas länger warten, bis Mittelklassegrafikkarten wieder für Preise unter einer Konsole zu haben sind. Vielleicht gibt es das nie wieder. Wer weiß.
 
Ich versteh die Politik von Intel nicht. Das neue Big-Little-Design dient doch der Reduktion der Leistungsaufnahme oder geht es da nur um den Mobilbereich ? Ich meine wie effizient kann ein Netzteil noch sein, wenn der Computer idle ist, bei diesen Anforderungen an Maximalleistung ?

Wie sieht das eigentlich mit dem Sweet-Spot zwischen Leistungsaufnahme und Taktrate sowohl für CPU als auch GPU aus.
Wäre da nicht Potential ? Also niedrigere Taktraten, aber dafür mehr Transistoren. Oder ist das eine Milchmädchenrechnung, weil dann die Produktionskosten zu stark steigen ?
Mir geht der Energieverbrauch schon ganz schön auf den Keks. Einmal wenn man sieht wie aufwendig es ist aktuelle Hardware gut zu kühlen und dann welche Abwärme dabei entsteht. In meinem "recht kleinen" (Spiel-)Arbeitszimmer geht im Winter so nach einer Stunde die Heizung aus, weil der Rechner inkl. 3er Bildschirme zum heizen reicht und wenn ich noch was grafisch anspruchsvolles Zocke mach ich ab und zu das Fenster auf weil es mir zu warm wird.
 
Die Frage ist halt, ob das überhaupt so kommt und für wen. Siehe Apple: Deren neue Chipgeneration ist eine Ausgeburt an Effizienz. Wäre schon grob fahrlässig, Konkurrenzprodukte zu bauen, die das konterkarieren. Mit Blick auf die Energiepreise kann es für diverse Unternehmen sehr schnell günstiger sein, die IT-Landschaft auf Apple umzustellen. Ein Mac mini kostet ab 700 € und Office läuft da auch...
 
Ich denke mal viele dieser Standards sind auch mal mit etwas Weitblick entwickelt worden und beziehen den Einsatz von spezieller Hardware z.B. in Workstations mit ein. Eher dort sehe ich das Gebiet wo stromsaufende Komponenten geballt zum Einsatz kommen.
Otto Normalnutzer wird einen Teufel tun sich da 1kW-schluckende Rechner zum Spielen oder Arbeiten unter den Tisch zu setzen. Das wäre wie stundenlang neben einem laufenden Staubsauger zu spielen.
 
Oben Unten