News Prozessor Redaktion System

Leistungsaufnahme, Lastspitzen und Technik-Details: Intels kommende Alder Lake S und Raptor Lake S CPUs im exklusiven Vergleich

Ich fand unlängst auf FCPOWERUP eine Tabelle, die Intels kommenden Alder Lake S CPUs ein deutlich verschärftes Lastspitzenverhalten bescheinigte. Allerdings ist dies nur die Hälfte der Geschichte, denn Intel ändert ja auch die IMPV (Intel Mobile Voltage Positioning) noch einmal deutlich, so dass man hier stärker differenzieren muss. Doch dazu gleich mehr. Trotzdem möchte ich zunächst auf die bereits veröffentlichten Daten eingehen, die allerdings nur ein reichlich unscharfes Bild bieten, jedoch zumindest erst einmal die Richtung andeuten. Was in Wirklichkeit auf die Motherboards und die PSU zukommen wird, habe ich heute exklusiv im Artikel erfasst.

Lastspitzen am EPS

Falls die Grafik von FCPOWERUP stimmt (wobei ich sie als sehr großzügig bemessen erachte), dann zeigt die Empfehlung für die Netzteilhersteller, dass vor allem die Stromstärke am 12-Volt Spannungsversorgungs-Anschluss (EPS) in den Spitzen deutlich zulegen könnte. Die TDP-Klasse mit 165 Watt ist hier allerdings eher eine Art Platzhalter, denn es wird diese CPUs mit Sicherheit auch in der 12. Generation so nicht geben, wie sie auch in der aktuellen 11. Generation nicht existierten. Die kolportierten Einflüsse auf die Netzteile halten sich jedoch meiner Meinung nach erst einmal im Rahmen, denn der Anstieg in den Peaks von 34 auf maximal 39 Ampere ist nichts, was ein ordentliches Netzteil gleich in die Knie zwingen wird, wenn es zweckmäßig designt wurde.

Source: FCPOWERUP

Doch wie lang diese Spitzen in der Realität auftreten können, verrät die Folie leider nicht, zumal die Liste generell recht ungenau ist. Man hat in dieser Tabelle zudem auch die Spannungswandlerverluste mit einbezogen, die jedoch von Board zu Board noch sehr unterschiedlich ausfallen können. Nehmen wir einmal den aktuellen Core i9-11900K mit seinen 125 Watt TDP und der Angabe von 26 Ampere als Dauerlast, sowie 34 Ampere für die Peaks. Die eigene Messung am EPS mit den BIOS-Defaults ohne erhöhtes Power Limit zeigt hier nämlich, dass die tatsächlich gemessene Dauerlast (hier als Durchschnitt mit der blauen Kurve dargestellt) mit 25.7 Ampere genau auf dem Punkt liegt.

Die messbaren Peaks gehen zwar stellenweise sogar bis 40 Ampere, aber es nichts, was eine gut konzipierte OCP/OPP für größere Rätsel stellen sollte. Denn wir wissen ja, dass nur Peak-Intervalle von 10 bis 20 ms in der Lage sind, eine gut eingestellte OCP überhaupt auszulösen. Alles, was zeitlich darunter liegt, wird normalerweise durch die Kondensatoren der Sekundärseite weggepuffert. Um die aufgelisteten 34 Ampere überhaupt zu schaffen, muss man schon einigermaßen zaubern. Im normalen Szenario wird das sowieso nicht auftreten.

Wir bewegen uns immer noch auf der Primärseite der CPU-Spannungsversorgung, also dem Part vor den Spannungswandlern auf dem Motherboard und letztendlich auch der CPU. Doch es ist anhand der geleakten Liste immer noch nicht geklärt, wo diese Lastspitzen eigentlich herkommen sollen und welche Grenzwerte Intel zugrunde legt. Denn Intel kontrolliert alle Ströme und damit auch aufgenommenen Leistungen reaktiv und proaktiv, je nach betreffendem Wert. Doch auch dazu komme ich gleich noch.

Zu den oben genannten Werten von FCPOWERUP für Alder Lake S aus Sicht des Netzteilherstellers habe ich noch die VR-Design-Werte aus den eigenen Unterlagen für die Motherboardhersteller zu ergänzen, was sicher erst einmal verwirrt, aber der Vollständigkeit halber an dieser Stelle doch mit erwähnt werden muss, obwohl es leicht abweicht. Interessant ist hier auch der 10-ms-Intervall, auf den ich später noch genauer eingehen werde.

VR

 

 

Lade neue Kommentare

konkretor

Veteran

145 Kommentare 111 Likes

Jemand schon Infos ob Alderlake wieder Spannungswandler bekommt wie Haswell damals?

Antwort Gefällt mir

Igor Wallossek

Format©

5,754 Kommentare 8,923 Likes

Soweit ich das überblicken kann, nein

Antwort Gefällt mir

W
WedgeAntilles

Mitglied

14 Kommentare 21 Likes

Danke für den sachlichen und nüchternen Artikel!
Teilweise las man ja in anderen Foren ganz schöne Horrorstories und Szenarien.

Ich denke man kann sicherlich sagen, dass Alder Lake eine spannende CPU ist. Das ist ja schon mal positiv, denn in den letzten Jahren war "spannend" jetzt ja nicht unbedingt das Wort der Wahl bei Intel.
Nicht, dass RL oder so jetzt Mist ist - aber es war eben die letzten Jahre kaum ein Fortschritt bei Intel. (Sehe ich ja auch daran, wie vergleichweise wenig Mehrleistung ein RL gegenüber meinem Xeon Xeon E3-1231 den ich vor 6 Jahren gekauft habe bietet. Klar sind die aktuellen CPUs schneller, aber das Plus an Performance hatte ich früehr (übertrieben ausgedrückt) in der Zeit, die ich gebraucht habe eine neu gekaufte CPU heimzutragen und einzubauen...)

Bei AlderLake wird es aber endlich mal wieder interessant - klappt BigLittle in der Praxis (vor allem interessant für mich: Gaming) so wie erhofft?
Oder wird es doch eher enttäuschend?

IMO die interessanteste Intel-CPU seit einigen Jahren.

Antwort 2 Likes

Klicke zum Ausklappem
g
gerTHW84

Veteran

373 Kommentare 224 Likes

Wobei diese i. d. R. aber auf die typischen Flamer und Hater zurückzuführen sind, die absolut keine Ahnung haben wovon sie reden und eine möglichst große Watt-Zahl lediglich dazu verwenden, um ihrer allgemeinen Unzufriedenheit Ausdruck zu verleihen.

Btw., das "interessant" resultiert ja zwangsweise daraus, weil es ein ganz neues Konzept ist und nicht nur einfach wie in jeder Generation schlicht einfach eine etwas schnellere CPU i. V. z. ihrer Vorgeneration. Letzten Endes geht es aber auch hier schlussendlich nur darum, was unterm Strich dabei herauskommt. Man darf vermutlich annehmen, dass ADL einen 5900X grundsätzlich einkassieren wird und entsprechend kann Intel nun auch problemlos den Großteil des Consumer-Marktes erfolgreich abdecken (und mit Blick auf Mainstream-Anforderungen vermutlich auch weitestgehend zu einem grob vergleichbaren Verbrauch). Dementprechend wird AMD mit dem V-Cache einige Monate später antworten müssen, um hier nicht zurückzufallen, zumal man ja auch gleichzeitig noch versuchen muss irgendwie die modernere Plattform zu kompensieren (ohne dass von AMD eine neue Plattform zeitnah kommen wird). Es bleibt auf jeden Fall spannend im Markt ... Konkurrenz belebt halt das Geschäft, wobei nicht nur das die Ursache für die aktuellen Tendenzen sein dürfte, sondern auch, dass Intel so langsam seine Fertigungsproblematik abzuschließen im Begriff ist.

Antwort 1 Like

Klicke zum Ausklappem
q
quantaro

Mitglied

32 Kommentare 26 Likes

Ich frage mich immer noch wo der Fortschritt dabei bleibt und vor allem die zukunftssichere Effizienz. Sich Grafikkarten die bis zu 400W und CPUs die bis zu 250W verpulvern, schön zu reden macht es nicht besser und ist einfach nicht mehr up to date. Vor allem den Aufwand den man dabei betreiben muss (Peripherie und drumherum) das die angegeben Leistungsdaten überhaupt erreicht werden, ist schon fast zu irre und treibt die Preise- und Unterhaltungskosten in den Himmel. Wahrscheinlich haben die Hersteller verschlafen das Energie immer kostspieliger wird und das deren Erzeugung sichtbar Spuren hinterlässt, nicht nur in der Brieftasche. Der Leistungszugewinn steigt dabei nicht mal proportional mit dem Energiebedarf, sorry aber das kann Intel, für die Mondpreise die sie dafür aufrufen werden gerne behalten.

Wer bitte braucht zum Beispiel zum Spielen eine 10/12/16C CPU, kein Mensch! In Benchmarkszenarien der Redaktionen werden sie eingesetzt um Limits zu vermeiden (Bottlenecks), die aber mit der schieren Kernanzahl gar nichts zu tun haben und die man damit auch nicht ausschließen kann.

Der Wettbewerb weiter, höher, schneller endet beim effizienten Einsatz. Ich verstehe ehrlich niemanden der 600W und mehr verpulvert, um ein Spiel zu spielen. Dafür habe ich absolut kein Verständnis. Ich vermute die EU wird dort bald regulierend eingreifen und dergleichen Hardware wird man auf europäischen Märkten nicht mehr verkaufen können, und andere Länder wie China zeigen beim Mining auf, wie man den Energiebedarf dafür rigoros unter Strafe stellt und es in dieser Form verbietet.

Und bei den Amerikanern, kann man ehrlich nur noch mit Kopf schütteln...Silicon Valley ist was leistungsfähige und effiziente Hardware angeht, Jahre zurück und hat einen wichtigen Trend komplett verschlafen. Aber Hauptsache die Aktienkurse und Gewinne stimmen. Da wird 125W angegeben und 250W verpulvert.

Antwort 2 Likes

Klicke zum Ausklappem
W
WedgeAntilles

Mitglied

14 Kommentare 21 Likes

Oh ja, genau! Der Staat soll mir noch vorschreiben wie ich meine Freizeit verbringe. Wieviel Strom ich beim zocken verbrauchen darf.
Genau das brauchen wir! Noch mehr Überwachung, Bevormundung und Vorschriften.
Brave new world.

Antwort 2 Likes

D
Deridex

Urgestein

1,700 Kommentare 515 Likes

Der Stromverbrauch einiger aktueller Komponenten stellt für mich auch ein Problem dar. Ich glaube tatsächlich das es da in der Consumertechnik einfach Limits z.B. beim Stromverbrauch von Grafikkarten geben sollte in denen man sich bewegt. Und das sollte aus meiner Sicht ein gutes Stück unterhalb von 400W bei Grafikkarten und unterhalb von 200W bei CPUs sein. Wer weiß wo wir sonst in 10 Jahren stehen.

Antwort 2 Likes

Alkbert

Urgestein

519 Kommentare 262 Likes

Das kann ich mir beim besten Willen nicht vorstellen, denn es gibt Bereiche in denen um Längen mehr Energie verblasen und CO2 generiert wird. Wir können da gerne mal bei den Flugreisen oder beim Motorradfahren (!!) oder beim Verkehr allgemein anfangen und wenn jetzt die "Energiewende" ins Feld geführt wird: Braucht es einen Tesla mit 500 PS und entsprechendem KW-Verbrauch/100 km ? Und grünen Strom kann ich auch im PC verwenden. Einen derartigen Tarif habe ich bei meinem lokalen Energieanbieter bereits abgeschlossen.

Darüber hinaus gibt es Leute wie mich, die die Leistung zum Arbeiten benötigen.

Was die Gamer betrifft: In den Hardwareforen findet sich in der Regel extrem konzentriert eine Fraktion aus Hardcore Gamern, die die absolute Minderheit im Gesamtbild darstellt. Und wer dieser "handvoll" Enthusiasten ihr Hobby verbieten will, der soll vorher mal das Freizeitfliegen und die Motorradclubs verbieten - also ums kurz zu machen: für mich absolut nicht sinnvoll, wenngleich im kritischen Diskurs nachvollziehbar.

Antwort 3 Likes

Klicke zum Ausklappem
a
andr_gin

Neuling

9 Kommentare 9 Likes

1.) Wenn es um Umwelt und Stromsparen geht, dann ist doch der Verbrauch innerhalb von 10ms vollkommen irrelevant. Was hier zählt ist der durchschnittliche Verbrauch und der ist bei regulären CPUs mit 65W limitiert. Wo ist also das Problem? Die 125W K CPUs s8nd ja auch nicht für die breite Masse gedacht, sondern sind eine OCing CPU für Leute, die diese haben wollen. Früher hat man selbst Spannung/Takt erhöht und die CPU mit doppeltem Verbrauch schmoren lassen, nun bietet Intel das eben schon ab Werk an.

2.) Bei allem das kein Gaming PC ist spielen in der Regel nicht einmal die 65W eine Rolle, da die PCs zu 99% Idle sind. Für den durchschnittlichen bundesweiten Stromverbrauch ist der Idle und der Standby Stromverbrauch relevant und sollte es zu Regulierungen der EU kommen, so wird dies nur diese 2 Werte betreffen, da hier das meiste Stromsparpotential besteht ohne dass dies für den Konsumenten negative aAuswirkungen hat.
Beispiel: Monitore mit GSync Modul brauchen in der Regel um die 14W obwohl sie ausgeschaltet sind und nur auf ein Eingangssignal vom PC warten. Hier waren die Hersteller einfach zu faul von einen Stromsparmodus.
Auch der Idle Verbrauch von GPUs würde sich mit etwas sanftem Druck sicher noch optimieren lassen. Wieso braucht z.B. eine 3090 im Dual Monitor betrieb so viel mehr als eine Low End Karte? Da könnte man sicher einiges sparen, indem im 2D Betrieb ohne Auslastung ein Teil der Shader abgeschaltet wird. Ist Nvidia und AMD vermutlich nur zu mühsam gewesen, da es dem Käufer in der Regel egal ist.
Wobei man meiner Meinung nach nicht einmal bei PCs anfangen muss. Was ist mit all den Routern und Switches, die ohne Last dahinglühen.

3.) Abgesehen davon sollten einmal bestehende Standby Richtlinien besser kontrolliert werden. Derzeit sieht das Prozedere so aus, dass ein Modell eines Fernsehers eingereicht, gemessen und zugelassen wird. Wenn später das alles durch ein Softwareupdate außer Kraft gesetzt wird, gibt es keinerlei Konsequenzen (siehe Sony XH90). Hier müsste es eine Möglichkeit geben Überschreitungen des Standby Verbrauchs an die Behörden zu melden.

4.) Was Multi Core Optimierungen in Spielen angeht, so war die größte Hürde bisher, dass DirectX 11 nur Draw Calls von einem Thread akzeptiert hat und es mussten alle Engines da herum gebaut werden. Da nun die meisten neuen Spiele den DirectX 11 Support eingestellt haben denke ich, dass sich in dieser Richtung sehr schnell etwas tun wird. Beispiel: Horizon Zero Dawn nutzt von den 16 Threads meines 9900K bei niedrigen Grafiksettings bereits 95% aus (Spiel + Nvidia Driver Overhead)

Antwort 3 Likes

Klicke zum Ausklappem
LEIV

Veteran

163 Kommentare 33 Likes

mir würde es ja schon genügen, wenn man bei CPUs neben der TDP auch den maximalen Stromverbrauch angeben würde

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung