Intel Core i9-12900K(F), Core i7-12700K und Core i5-12600K im Test – Gaming in ganz schnell und richtig sparsam | Teil 1

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.818
Bewertungspunkte
8.817
Punkte
1
Standort
Redaktion
Intel in schnell UND sparsam? Ja, seit der 12. Generation, also Alder Lake S, passt auch das wieder zusammen. Und so wird der heutige Text faktisch zum Narrativ für eine Art Trendwende, zu der man Intel eigentlich nur gratulieren kann, wenn man es objektiv testet und alles richtig einordnet. Da dies mit einigen technischen Hürden...
Hier den ganzen Artikel lesen
 
@fuchur86
Genau, im Test geht es darum, die Prozessoren von der Leistung und auch mit der Leistungsaufnahme dazu zu testen und je nach Test werden die Prozessoren auch eine Leistungsaufnahme erreichen, die später ggf. nicht anliegen wird. Daher sind solche Tests immer schön anzusehen, was der Prozessor so leisten kann, was dann mit eigenen Anwendungen wieder anders ausfallen wird.


Klar, dieses Vorgehen kannst mit jedem Prozessor übernehmen.

Mein 9900K läuft auch mit 5 GHz auf alle Kerne, trotzdem habe ich auch ein P2 von 241 Watt eingestellt und P1 auf 125 Watt. Bedeutet... der Rechner zieht für 56 Sekunden bis zu 241 Watt (bedeutet nicht, dass diese Leistungsaufnahme überhaupt erreicht wird!) und geht dann auf 125 Watt runter. Dabei würde der Rechner dann natürlich keine 5 GHz auf alle Kerne mehr halten, denn der muss ja runter takten, damit diese Leistungsaufnahme nicht überschritten wird.

In Games sieht es dann meist so aus:
Anhang anzeigen 15768

Also 96 Watt hat der Prozessor anliegen und hierbei handelt es sich um BF5, was alle Kerne gut auslastet. Spiele nutzen aber nicht immer alle Kerne und so kann ich z.B. Overwatch bei nur noch 50-70 Watt liegen. Nur weil ein Prozessor viele Kerne hat, wird er diese ja nicht immer nutzen. Denn die Software, bzw. die Games bestimmen wie viel Kerne genutzt werden und Overwatch als Beispiel nutzt von mir nicht alle 8 Kerne.
Verstehe. Bei mir wäre neben Games ab und an vor allem Video Rendering eine der Hauptaufgaben des neuen Rechners. Da läuft ne CPU ja ganz gerne auf allen Kernen ggf für Stunden auf Hochtouren. Deshalb interessiert mich das mit der Limitierung so, weil die bei mir in der Real Life Anwendung wahrscheinlich eine echte Bedeutung hätte. Man will ja nicht, das einem bei 2h Rendern die Bude in Flammen aufgeht.
 
Kommt immer ganz darauf an, was hierzu genutzt wird.

Denn diese Programme können entweder den Prozessor oder die Grafikkarte zum Berechnen verwenden und oft macht es mehr Sinn, die Grafikkarte hierzu zu nutzen. In meinem Fall nutze ich "Movavi Video Editor 15" hierzu und hierbei würde ich eine Leistungsaufnahme von etwa 140 Watt erreichen. Hierbei würde das Programm aber nicht alle Kerne nutzen, da es nicht darauf ausgelegt ist. Denn wie bereits geschrieben, nutzen Anwendungen und Spiele nicht automatisch alle Kerne. Es kommt immer ganz darauf an, wie solch eine Anwendung programmiert wurde.

Ashampoo_Snap_Sonntag, 7. November 2021_11h17m27s_007_.png

Intel hatte früher hier sogar ein Vorteil, denn es konnte den Prozessor inkl. der iGPU mit nutzen. Das Adobe Premiere Pro hat diese Funktion, so weit mir richtig bekannt ist mit unterstützt. Habe das Programm aber nicht, daher ist es mir nicht 100% genau bekannt.
 
Kommt immer ganz darauf an, was hierzu genutzt wird.

Denn diese Programme können entweder den Prozessor oder die Grafikkarte zum Berechnen verwenden und oft macht es mehr Sinn, die Grafikkarte hierzu zu nutzen. In meinem Fall nutze ich "Movavi Video Editor 15" hierzu und hierbei würde ich eine Leistungsaufnahme von etwa 140 Watt erreichen. Hierbei würde das Programm aber nicht alle Kerne nutzen, da es nicht darauf ausgelegt ist. Denn wie bereits geschrieben, nutzen Anwendungen und Spiele nicht automatisch alle Kerne. Es kommt immer ganz darauf an, wie solch eine Anwendung programmiert wurde.

Anhang anzeigen 15769
Okay, dann wird nur die Praxis ein wenig Licht ins Dunkel bringen. Ich arbeite mit Avid Media Composer und ab und an After Effects und dem Media Encoder.
 
Okay, dann wird nur die Praxis ein wenig Licht ins Dunkel bringen.
Genau. Man kann neben den anspruchsvollen Anwendungen einfach mal Tools wie Coretemp und GPU-z oder wenn man sehr viele Zahlen will HWinfo laufen lassen. Dann sieht man, wie stark CPU und GPU ausgelastet sind, wie warm sie werden und wie viel Strom sie saufen. Wenn es einem dann zu heiss ist oder man etwas Strom sparen möchte, kann man an den entsprechenden Einstellungen schrauben.

Man muss nicht meinen, dass man alle angezeigten Werte solcher Tools verstehen muss. :cool: Vieles sind auch einfach Informationen für Spezialisten und Freaks.
 
Man muss nicht meinen, dass man alle angezeigten Werte solcher Tools verstehen muss. :cool: Vieles sind auch einfach Informationen für Spezialisten und Freaks.
Weil ich gerne den Überblick habe, lasse ich auf dem Zweitmonitor mein selbst erstelltes Sensorpanel via AIDA64 laufen. Da ist alles drin, was Freak braucht! :D Zum Thema "Saufen" kann ich dann die PP/Package Power der entspr. Einheit überblicken. Ich habe mein gesamtes System unter Kontrolle. Aktuell läuft hier das neue Age of Empires IV...

Systemscreen.jpg
 
Wie kann es eigentlich sein, dass mit DERSELBEN Grafikkarte teils ziemlich unterschiedliche Effizienzwerte rauskommen. Mit dem 12600K schafft die Radeon in Anno 1800 720p ~230 fps bei ~272W, mit dem 5600X schafft dieselbe Radeon allerdings nur ~226 fps bei ~294W. Das kann doch nicht alleine an der Hardware liegen.
 
Das kann doch nicht alleine an der Hardware liegen.
Warum nicht? Die Prozessoren von AMD und Intel waren schon immer mit stark unterschiedlichen Techniken ausgestattet. gerade die neuen kleinen Kerne der Intelprozessoren scheinen sehr effizient zu laufen.

Der Grafikkartentreiber spielt da auch eine grosse Rolle. Er schaut, welche Arbeiten sich durch eine Grafikkarte erledigen lassen. Alle restlichen Arbeiten teilt er dem Prozessor zu. Dann generiert er Programmcode für die Grafikkarte und die CPU und lässt dann diese Aufgaben ausführen. Wie gut sich ein Prozessor bei diesen Aufgaben schlägt, kann sehr unterschiedlich sein.
 
Warum nicht? Die Prozessoren von AMD und Intel waren schon immer mit stark unterschiedlichen Techniken ausgestattet. gerade die neuen kleinen Kerne der Intelprozessoren scheinen sehr effizient zu laufen.
Du scheinst meinen Beitrag nicht verstanden zu haben. Ich rede ausschliesslich von der Grafikkarte. Die braucht in dem einen System trotz höherer fps weniger Strom, im anderen System ist es entsprechend umgekehrt. Das ergibt exakt Null Sinn, wenn es dieselbe Grafikkarte gewesen ist und die Systeme auch ansonsten vergleichbar sind.

Mal davon abgesehen, die kleinen Kerne von Alder Lake scheinen nicht wirklich sonderlich effizient zu sein. Zumindest wenn wir von Energieeffizienz sprechen. CB hat Tests mit diversen Kernkombinationen durchgeführt, da waren die Golden Cove Kerne bei <4 GHz um einiges effizienter als die Gracemont Kerne. Das bestätigt nur den tatsächlichen Grund für Intels big.LITTLE. Es geht hier nicht um Energieeffizienz. Die Gracemont Kerne wurden einzig aus Gründen der Flächeneffizienz implementiert, da die Flächeneffizienz der Golden Cove Kerne wiederum ziemlich mies ist. 16 davon auf einem Die hätte des Design ziemlich aufgebläht und wäre weniger wirtschaftlich gewesen.
 
Mal davon abgesehen, die kleinen Kerne von Alder Lake scheinen nicht wirklich sonderlich effizient zu sein. Zumindest wenn wir von Energieeffizienz sprechen. CB hat Tests mit diversen Kernkombinationen durchgeführt, da waren die Golden Cove Kerne bei <4 GHz um einiges effizienter als die Gracemont Kerne. Das bestätigt nur den tatsächlichen Grund für Intels big.LITTLE. Es geht hier nicht um Energieeffizienz. Die Gracemont Kerne wurden einzig aus Gründen der Flächeneffizienz implementiert, da die Flächeneffizienz der Golden Cove Kerne wiederum ziemlich mies ist. 16 davon auf einem Die hätte des Design ziemlich aufgebläht und wäre weniger wirtschaftlich gewesen.

@gruffi sollten die E-Cores nicht bis zu einem gewissen Punkt effizienter laufen und ab 4Ghz die P-Cores?
Ich meine das war so. Bis zu einer gewissen Ghz Zahl sollten die effizienter sein. Ich weis nicht warum die bei 4 Ghz testen.
Hab gerade gelesen das beim 12900k die maximal bis 3,9Ghz Boosten. 12700k 3,8Ghz und beim 12600k sogar nur 3,6Ghz.
Und das hatte ich auch noch im Kopf von den vorab Präsentationen des big.LITTLE. also die 3,6Ghz.

Im Handy ist es ja das selbe Prinzip. Interessant sind die kleinen Kerne ja aus der sich der kleineren Programme die meist im Hintergrund laufen.
 
Du scheinst meinen Beitrag nicht verstanden zu haben. Ich rede ausschliesslich von der Grafikkarte.
Sorry, das habe ich falsch verstanden.

Möglicherweise gibt es aber Techniken, wie Smart Acces Memory, die nicht mit beiden Prozessoren gleich gut laufen und auch eine Auswirkung auf den Strombedarf der Grafikkarte haben. Da ist es manchmal schwer abzuschätzen, wie es sich genau auswirkt. Wenn etwas mehr Strom braucht und trotzdem schlechter läuft, ist es natürlich nicht ideal.
 
@gruffi sollten die E-Cores nicht bis zu einem gewissen Punkt effizienter laufen und ab 4Ghz die P-Cores?
Ich meine das war so. Bis zu einer gewissen Ghz Zahl sollten die effizienter sein. Ich weis nicht warum die bei 4 Ghz testen.
Hab gerade gelesen das beim 12900k die maximal bis 3,9Ghz Boosten. 12700k 3,8Ghz und beim 12600k sogar nur 3,6Ghz.
Und das hatte ich auch noch im Kopf von den vorab Präsentationen des big.LITTLE. also die 3,6Ghz.

Im Handy ist es ja das selbe Prinzip. Interessant sind die kleinen Kerne ja aus der sich der kleineren Programme die meist im Hintergrund laufen.

Ja, das ist so, dass die E-Cores bis 3,9 Ghz getaktet werden. 4,0 Ghz sind ausgeschlossen, falls das im Test so stand.
Geringster Grundtakt ist für alle Kerne 500 MHz,
Die Kernauslastung sieht für mich so aus, als ob die kleinen Kerne zur Unterstützung der großen Kerne mitarbeiten. wenn gar kein Programm im Vordergrund läuft rödeln die Kleinen ab und zu auf 2500-3900 MHz hoch, meistens aber mit einigen großen Kernen gleichzeitig.
Würden alle Hintergrundtasks nur auf die Kleinen verlegt, sollten die Großen ja eigentlich Pause haben.


1636481720609.png
 
@gruffi sollten die E-Cores nicht bis zu einem gewissen Punkt effizienter laufen und ab 4Ghz die P-Cores?
Theoretisch schon. Scheint bei Alder Lake aber nicht der Fall zu sein, wie zumindest bisherige Tests bei vergleichbaren Taktraten zeigen. Was zum einen am deutlich geringeren Durchsatz der E-Cores liegt aufgrund der geringeren IPC und dem fehlenden SMT. Zum anderen scheinen die E-Cores aber auch nicht so sparsam zu sein wie sie vielleicht sollten.

Im Handy ist es ja das selbe Prinzip. Interessant sind die kleinen Kerne ja aus der sich der kleineren Programme die meist im Hintergrund laufen.
Bei Geräten mit Akku wie Smartphones oder Tablets mag das so sein. Bei Desktops und Servern halte ich das aber ehrlich gesagt für überschätzt und unnötig. Selbst P-Cores sind heutzutage so gut durchoptimiert, dass sie bei Teillast und Niedriglast sehr sparsam sind. Da hätte ich lieber 12 Golden Cove Kerne statt 8 Golden Cove + 8 Gracemont Kerne.

Möglicherweise gibt es aber Techniken, wie Smart Acces Memory, die nicht mit beiden Prozessoren gleich gut laufen und auch eine Auswirkung auf den Strombedarf der Grafikkarte haben.
Hmm, erscheint mir trotzdem unlogisch. Wenn es dieselbe Grafikkarte ist, dann sollte dort auch SMA oder welche Features auch immer gleich funktionieren. Werden diese Features von aussen anders angesteuert, und verursachen z.B. einen höheren Strombedarf, ohne die Performance zu erhöhen, dann wirft das natürlich kein gutes Licht auf die Vergleichbarkeit der Systeme. Da würde mich mal interessieren, was die Gründe dafür sind.
 
Theoretisch schon. Scheint bei Alder Lake aber nicht der Fall zu sein, wie zumindest bisherige Tests bei vergleichbaren Taktraten zeigen. Was zum einen am deutlich geringeren Durchsatz der E-Cores liegt aufgrund der geringeren IPC und dem fehlenden SMT. Zum anderen scheinen die E-Cores aber auch nicht so sparsam zu sein wie sie vielleicht sollten.
Hast du links zu den Tests? Bisher habe ich nichts brauchbares gefunden. Die kleinen Kerne haben Logischerweise geringere IPC und können nicht so hoch Takten und können kein HT. Dafür brauchen vier E Kerne nur soviel Platz wie ein einzelner P Kern und haben trotzdem die IPC der Skylake (Coffe etc.) Architektur und können trotzdem noch über 3 Ghz Takten.

Bei Geräten mit Akku wie Smartphones oder Tablets mag das so sein. Bei Desktops und Servern halte ich das aber ehrlich gesagt für überschätzt und unnötig. Selbst P-Cores sind heutzutage so gut durchoptimiert, dass sie bei Teillast und Niedriglast sehr sparsam sind. Da hätte ich lieber 12 Golden Cove Kerne statt 8 Golden Cove + 8 Gracemont Kerne.

Bei nur großen Kernen wären maximal 10 Kerne rausgekommen. Und zu der Sache was die kleinen Kerne machen ist ja wohl klar die Hintergrundlast abnehmen.
 
Zuletzt bearbeitet :
SMA ist nicht nur von der Grafikkarte sondern auch von der CPU und dem Mainboard abhängig. Am Anfang lief das nur mit AMD-Prozessoren. Mit der Zeit wurde dann durch BIOS-Updates auch die Unterstützung von Intelprozessoren möglich, lief aber noch nicht gleich gut wie bei den AMD-Prozessoren. Ich bin da aber zu wenig informiert, wie weit sich das heute angeglichen hat. Auf jeden Fall bin ich immer wieder erstaunt, dass die Technik, wenn man sie genauer betrachtet, doch einiges komplexer ist als man es sich gedacht hat.
 
Wenn etwas mehr Strom braucht und trotzdem schlechter läuft, ist es natürlich nicht ideal.
"Schade", dass das bis heute in vielen Bereichen der Industrie pauschal noch nicht erkannt worden ist. So wird das nichts mit unserem Klimaschutz.
Solange die geplante Obsoleszenz dominiert, wird auch die Effizienz darunter leiden. Das "Schade" in Anführungszeichen soll meinen Sarkasmus untermauern, denn es ist in diesem Umfang die verstärkte - im Vergleich zu damals - Absicht der heutigen Industrie.
 
Die Einzigen, die ab Werk effiziente System verhindern sind die Mainboardhersteller. Das ist kein Problem, wenn der 12900K etwas weniger Multicoreleistung hat als ein 5950X, da die sehr hohe Singlecoreleistung beim Energiesparen ja gar nicht beeinträchtigt wird.
 
Hast du links zu den Tests? Bisher habe ich nichts brauchbares gefunden.
Bei CB gibt's Tests zu verschiedenen Kernkonfigurationen.

Dafür brauchen vier E Kerne nur soviel Platz wie ein einzelner P Kern
Nicht ganz. Das Grössenverhältnis zwischen den P-Cores und E-Cores inklusive L2 liegt bei etwa 3,2:1. Aber wie gesagt, das spricht nicht unbedingt für die Flächeneffizienz der E-Cores. Golden Cove ist mit +75% auch wesentlich grösser als z.B. Zen 3. Es spricht eher gegen die Flächeneffizienz der P-Cores.

Bei nur großen Kernen wären maximal 10 Kerne rausgekommen. Und zu der Sache was die kleinen Kerne machen ist ja wohl klar die Hintergrundlast abnehmen.
Ein Design mit 12 P-Cores und ohne E-Cores wäre gar nicht mal so viel grösser geworden. Wäre mir persönlich lieber gewesen. Dass E-Cores Hintergrundlast abnehmen ist wie schon erwähnt für Desktops und Server vernachlässigbar. Da kommt am Ende nicht viel bei rum an zusätzlicher Effizienz, falls überhaupt. Für Hintergrundlast hätten zudem 4 oder sogar nur 2 E-Cores gereicht. Wozu dann 8?
 
Aber echt, Intel hätte besser dich gefragt wie's richtig geht. 😆
 
Ich gehe nicht davon aus, dass die CPU die Arbeit den Kernen nach Hintergrund- und Vordergrundprozess getrennt zuweist. Auf Prozessorebene macht das keinen Sinn, Arbeiten danach aufzuteilen, sondern eher danach, was schnell sein muss und welche Kerne für die jeweilige Funktion besser geeignet sind. Ich würde gut parallelisierbare Arbeiten auf mehrere langsame verteilen und nicht parallelisierbares auf die schnellen. Ich denke, da sind mehr Kriterien entscheidend, als nur ob es um einen Vordergrund- oder Hintergrundprozess geht. Schnell sein müssen alle Prozesse, von denen die Fortsetzung anderer Prozesse abhängt.
 
Oben Unten