Prozessor Redaktion System Testberichte

Intel Core i9-12900K(F), Core i7-12700K und Core i5-12600K im Test – Gaming in ganz schnell und richtig sparsam | Teil 1

Intel in schnell UND sparsam? Ja, seit der 12. Generation, also Alder Lake S, passt auch das wieder zusammen. Und so wird der heutige Text faktisch zum Narrativ für eine Art Trendwende, zu der man Intel eigentlich nur gratulieren kann, wenn man es objektiv testet und alles richtig einordnet. Da dies mit einigen technischen Hürden verbunden war, werde ich auch nicht umhin können, ein etwas längeres Vorwort voranzustellen. Das wird helfen, das heute Präsentierte auch richtig einordnen zu können. Denn oft genug ist es nicht nur die Länge der zuerst betrachteten FPS-Balken, welche über die Qualität und Akzeptanz eines neuen Produktes entscheidet, sondern es sind die vielen Details in der Summe, die den eigentlichen Mehrwert bilden.

Wichtiges Vorwort und Vorschau auf die Follow-Ups

Wenn wir ehrlich sind, dann haben wir aktuell beim Gaming einen Stand erreicht, wo die CPU fast immer von der Grafikkarte limitiert wird. Das betrifft die Schnell-Klicker mit ihren 240-Hz-Monitoren genauso, wie eher entspannte Gamer im Ultra-HD-Bereich (z.B. mich), die ja schon froh sind, wenn sich ihr teurer 120-Hz-Monitor zumindest ansatzweise rechnet. Und dann kommt Intel mit einer neuen CPU, die alles (noch) besser machen soll? Sicher, es gibt E-Sports Titel, die es wirklich noch fertig bringen, auch eine CPU an die Grenzen des Machbaren zu treiben, nur wird genau diese Zielgruppe meist keine vielkernigen High-End-Boliden bei der CPU nutzen. Denn ich möchte schon gern den sehen, der noch einen Unterschied zwischen 500 oder 600 FPS erkennt. Das hört man maximal noch am Spulenfiepen der Grafikkarte. Da sind die Prozente der Balken schnell ein Fall für die Galerie, so dass ich das für den heutigen ersten Teil einmal bewusst aussortiert habe und eben nicht diese (meist Denuvo-verseuchten) Titel gewählt habe. Und der Reviewers-Guide, nun ja…

Es wird natürlich sicher den einen oder anderen geben, dem die heutigen Unterschiede bei den Balkenlängen in meinem Review nicht groß genug sind. Auch dafür gibt es, zumindest heute beim Gaming, eine recht einfache Erklärung (siehe unten). Wer jedoch wirklich sehen will, in welchen echten Real-World-Anwendungen der selbsternannte blaue Riese Core i9-12900K den Ryzen 9 5950X auch außerhalb der Propaganda-Folien zum roten Zwerg schrumpfen kann, der möge bitte morgen den Teil Zwei lesen, wenn es um den Produktiveinsatz geht. Denn da gab es auch auf meiner Seite echte Schockmomente und die so gern genommenen Balken mit dem X-Faktor auf der nach oben offenen Folter-Skala. Die gibt es heute übrigens auch, allerdings musste ich da schon meine ganzen Metriken und mehrere Gigabyte an Log-Files aufbieten, um das später noch zu veranschaulichen. Ich sage nur 1% Low und Leistungsaufnahme…

Kommen wir aber als erstes zur Geschichte mit den Balken. Das, was Intel als eigene Benchmarks aufgeführt hatte, ist gleichermaßen falsch und richtig. Falsch in der extremen Ausprägung und trotzdem richtig im Trend. Die meisten AMD-CPUs (vor allem die mit mehr als 8 Kernen) waren anfangs unter Windows 11 extrem gehandicapt. Während ich anfangs in 720p in der Summe aller Spiele über 15 Prozentpunkte und in 1080p noch über 10 Prozentpunkte Unterschied zwischen den beiden schnellsten Vertretern von Intel und AMD messen konnte, ist dieser Vorteil nach dem betreffenden Windows-Update („L3-Bug“), dem nachgereichten AMD-Chipsatztreiber und in der Folge auch eines neuen BIOSes fürs Motherboard (das mich erst 7 Tage vor diesem Launch erreichte, aber noch einmal was brachte), doch erheblich geschrumpft. Hier bleibt die Sensation beim Average der FPS erst einmal aus, auch wenn wir Intels neue CPUs (fast) immer vorn sehen. Es wäre ja auch schlimm, wenn nicht.

Startschuss für die Benchmarks im Gaming und den Workstation-Systemen

Doch hinter der vermeintlich alles entscheidenden Performance gibt es noch eine zweite Seite, die ich im Hinblick auf die immer weiter ausufernden Leistungsaufnahmewerte neuer Hardware in ökologisch so fragilen Zeiten wie heute viel wichtiger finde. Dass Intel (als US-amerikanisches Unternehmen) solche Aspekte nicht in den Vordergrund stellt, ist zwar logisch (da Energie dort kein Kostentreiber ist), aber eigentlich eine grandios vertane Chance, ein gescheites Marketing auch abseits der Benchmarkbalken zu betreiben. Nun kann man sicher auf der Geschichte mit dem PL1 und der sehr hohen Ansetzung herumreiten, aber meine Messwerte belegen auch, dass selbst ein Setzen auf unendliche Werte an meinem heutigen Fazit nichts ändern wird.

Nein, Intel hat AMD heute nicht bei der Performance geschrumpft, wohl aber (das will ich schon mal spoilern) an der Steckdose. Und genau das ist es auch, worauf der heutige Artikel auch aufbaut. Die partielle Zerstörung einiger Ryzens im Produktivbereich hebe ich mir frecherweise dann für morgen auf, wo die Steckdose übrigens ebenfalls eine Rolle spielen wird. Und in Richtung Intel kann ich nur voranstellen: bitte etwas mehr Mut zur Gegenwart, es gibt nicht nur Gaming. Open World könnte man ja durchaus auch auch anders interpretieren.

NVIDIA oder AMD – Auf der Suche nach der richtigen Grafikkarte

Doch ich will nicht zu weit abschweifen, sondern komme nun auf das Testsystem und die zweckmäßigste Grafikkarte zurück. Dass Intel im Kampf gegen AMDs Ryzen lieber eine Grafikkarte von NVIDIA in Form der GeForce RTX 3090 nutzt, ist durchaus verständlich, wenn auch in 720p nicht zu 100% zielführend. Während ich alle Tests im professionellen Bereich (auch im Hinblick auf die zertifizierte Hardware) mit einer sehr schnellen RTX A6000 erstellt habe, sieht es beim Gaming in den niedrigeren Auflösungen stellenweise nicht ganz so rosig aus, weil hier der Overhead aus NVIDIAs Treibern stellenweise gnadenlos zuschlägt. Wie stark und in welchem Spiel, das werde ich gleich noch zeigen, denn es ist ja auch nicht permanent.

Die RTX A6000 lässt sich mit etwas OC als Vollausbau des GA102 durchaus auf das Level der RTX 3090 und darüber bringen, nur nützt einem das Ganze eigentlich nur in Ultra-HD, wo die Radeon-Karte ihre bekannten Schwächen zeigt. Allerdings ist in diesem Fall sogar auf der GeForce ein absolutes GPU-Bound zu verzeichnen, was den vermeintlichen Nachteil eher relativiert. Ja, es sind teilweise bis zu 12% Performanceunterschied zwischen beiden Karten zu verzeichnen, nur spielt dieser keine Rolle mehr. Der größte Performance-Unterschied lag hier bei weniger als 2% zwischen der langsamsten und der schnellsten CPU, also waren die Ergebnisse, wenn wann sie pro Karte verglich, wieder nahezu identisch.

Wichtiger ist hingegen, die echten Unterschiede im CPU-Bound herauszufinden, was uns in die niedrigen Auflösungen zwingt. Genau da aber deklassiert die von mir verwendete MSI RX 6900XT Gaming X die große RTX A6000 zum Teil erschreckend deutlich. Und genau so, wie bei Intel einige Spiele extrem aus dem Raster fallen, ist es auch bei meinem Test, wo es im Durchschnitt aller Spiele zwar „nur“ reichlich 9 Prozentpunkte Unterschied zwischen beiden sind, aber manche Spiele bis zu 20 Prozentpunkte schneller agieren. Ich habe diese Benchmarks sehr bewusst auch nur mit der zweitschnellsten Intel-CPU erstellt und feststellen müssen, dass die Unterschiede beider Karten in der Summe ungefähr so hoch lagen, wie der Unterschied zwischen den beiden jeweils schnellsten CPUs von Intel und AMD.

Das Ganze sieht in Full-HD übrigens kaum anders aus, wenn auch nicht mehr ganz so krass. Aber Nachteile hat die RX 6900XT definitiv keine und nur darauf kam es mir an. Und am Ende war es mir auch wichtig, resizeable BAR, also die Nutzung und Adressierung des erweiterten Speicherbereiches zwischen X570 und Z690 zu testen. Das wiederum gestaltet sich mit einer GeForce eher schwierig, weil der mögliche Zugewinn eher marginal ist. Hier spielen also weder die Vorlieben für Hersteller noch irgendwelche Emotionen eine Rolle, sondern der gesunde Menschenverstand.

Sicher, es ist ein Mehraufwand, Gaming- und Workstation-Benchmarks getrennt vorzunehmen, aber damit lässt sich die Arbeit sogar etwas parallelisieren, wenn man sich den Aufwand redundanter Hardware antun kann. Und um es abschließend klarzustellen: Natürlich sind auch Benchmarks mit der GeForce RTX 3090 (oder der RTX A6000) definitiv nicht falsch, im Gegenteil. Aber Nuancen werden bei dem Test mit der Radeon in 720p sicher eher sichtbar und deutlicher. Und nur darum ging es mir, denn nach all den AMD-Patches und Treiber-Updates waren sich die Balken plötzlich viel zu ähnlich.

Womit wir  mit der Einführung schon wieder durch wären. Die 720p sind bei meinen Tests also gesetzt, die höheren Auflösungen bis WQHD auch. Ich habe heute, also einen Tag vor dem Launch entschieden, auf Ultra-HD in den Charts trotz der ganzen Messungen zu verzichten. Denn es spielt absolut keine Rolle mehr, welche CPU im Hintergrund werkelt. Den Unterschied zwischen einem Ryzen 5 5600X und einem Core i9-12900K mit PL1 auf 241 Watt von unter 2% hatte ich ja bereits erwähnt. 100% GPU-Bound machen das möglich. Die Werte für die Leistungsaufnahme stimmen zudem mit denen aus WQHD fast zu 100% überein, so dass ich mir die ganzen Grafiken einfach sparen werde.

Benchmarks, Testsystem und Auswertungssoftware

Die Messung der detaillierten Leistungsaufnahme und anderer, tiefergehender Dinge erfolgt hier im Speziallabor (wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden) zweigleisig mittels hochauflösender Oszillographen-Technik (Follow-Ups!) und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards und Grafikkarten (Bilder unten).

 Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum). Doch alles zu seiner Zeit, denn heute geht es ja (erst einmal) ums Gaming.

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:

Intel LGA 1700
Core i9-12900KF (PL1 125W, 241W), Core i7-12700K (PL1 241W), Core i5-12600K (PL1 150W)
MSI MEG Z690 Unify
2x 12 GB Corsair Dominator DDR5 5200 @ 5200 Gear 2

Intel LGA 1200
Core i9-11900K, Core i7-11700K, Core i5-11600K
MSI MEG Z590 Unify
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro @ 3733 Gear 1

AMD AM4
Ryzen 9 5950X, Ryzen 9 5900X, Ryzen 7 5800X, Ryzen 5 5600X
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro @ 3800 1:1

MSI Radeon RX 6900XT Gaming X OC
NVIDIA RTX A6000

1x 2 TB MSI Spatium M480
1x 2 TB Corsair MP660 Pro XT
Be Quiet! Dark Power Pro 12 1200 Watt

Cooling:
Aqua Computer Cuplex Kryos Next, Custom LGA 1200/1700 Backplate (hand-made)
Custom Loop Water Cooling / Chiller
Alphacool Subzero
Case:
Raijintek Paean
Monitor: LG OLED55 G19LA
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)
NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 11 Pro (all updates/patches, current certified or press VGA drivers)

 

163 Antworten

Kommentar

Lade neue Kommentare

S
Staarfury

Veteran

257 Kommentare 206 Likes

Oha, das sieht auf den ersten Blick schon mal sehr interessant aus. Dann bin ich mal sehr gespannt, wie das ganze mit DDR4 aussieht.

Aber zumindest die Stromverbrauch Unkenrufer scheinen sich etwas verrant zu haben.

Und jetzt mal das Video laufen lassen (y)

Antwort 1 Like

LEIV

Urgestein

1,544 Kommentare 622 Likes

Sieht besser aus als gedacht, vor allem der 12600k sieht richtig gut aus.
Hätte sich intel mal die 11 Gen verkniffen, und gleich so ein Brett abgeliefert...

Bin auch ganz froh das der 5600x nach wie vor sehr gut oben mitspielen kann, gerade was die Effizienz betrifft.

Antwort Gefällt mir

LEIV

Urgestein

1,544 Kommentare 622 Likes

Gaming braucht auch nach wie vor selten mehr als 4 Kerne, mal teil 2 abwarten, wie die Mehrleistung in Anwendungen aussieht, die wirklich mal alle Kerne fordert und auf maximum laufen lässt

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

4 cores ?
Selbst 6 könnte in Zukunft knapp werden, wenn man spassenshalber ...

Der 12700k für Gaming und dann mal HT=off wäre sicher interessant, ... sollte evtl. mit 8p-cores reichen, da ja im Hintergrund noch die kleinen 8e-Cores werkeln.(bin mal gespannt, Was passiert wenn die ersten optimierten Games kommen, die den e-cores auch
besser die Nebenthreads zuweisen)

Der Verbrauch/Effizienz mit dem 12700k@241W sieht ja mal richtig gut aus.

Antwort 1 Like

S
Staarfury

Veteran

257 Kommentare 206 Likes

So nach all den Andeutungen von Igor in den letzten Tagen: Wahrscheinlich noch besser.

Antwort Gefällt mir

Blubbie

Urgestein

808 Kommentare 275 Likes

Irgendwie verstehe ich die Charts mit dem Stromverbrauch nicht.

View image at the forums

Wieso steht beim 12900KF mit 241 W - im chart dann aber 68,2 Watt ?
Ebenso beim 12900 mit 125 W - im chart dann 67,1 Watt?

Habe ich da irgendwas nicht mitbekommen?
Ich meine beim Ryzen 5600X der bekanntlich eine 65 Watt ist - passt auch der Wert im Chart mit 60,1 Watt.
Sorry wenn ich was wichtiges überlesen habe - aber dann sagt mir bitte was es war... 😣

Oder ist das Äpfel mit Birnen vergleichen? Sind die TDPs von den neuen Intels nicht mehr vergleichbar?

View image at the forums

Antwort Gefällt mir

LEIV

Urgestein

1,544 Kommentare 622 Likes

Nehme mal an, der Prozessor war nicht ansatzweise ausgelastet... weil die ja beim Gaming immer auf Anschlag laufen 🤣

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Eingestellt auf 241Watt/125Watt......Realer Verbrauch im Spiel 86 und 67Watt.
Den 5600X kannst auch auf 150Watt einstellen, dennoch bleibt der Verbrauch bei rund 60Watt.

Antwort 2 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ganz grob formuliert:
TDP gibt an, wie viel Strom die CPU ziehen darf
Der von Igor gemessene Verbrauch zeigt dir, wieviel sie effektiv (unter dem jeweiligen Workload) gezogen hat.

Antwort 1 Like

LEIV

Urgestein

1,544 Kommentare 622 Likes

das wäre zu wünschen, hab ja vorher auch geschrieben, wenn die 11 Gen nicht gewesen wäre, gäbe es nicht ansatzweise so viel Hohn und Spott im Vorfeld

Und dann halt bei der 12 Gen die sehr großzügig ausgelegte TDP - Aber nichts wird so heiß gegessen wie es gekocht wird, also alles bestens

Antwort Gefällt mir

Härle'sBöckle

Veteran

163 Kommentare 83 Likes

(y)

Hast du noch Bilder zum verwendeten Wasserkühler Kryos Next mit Details zur Halterung & Backplate? Wie ist das Delta zum Kühlmittel?

Antwort Gefällt mir

Blubbie

Urgestein

808 Kommentare 275 Likes

wäre dennnoch die Frage wo dann der Intel seine 240 Watt ziehen soll - beim Bitcoin farmen?
Ich empfinde es eher abschreckend eine so hohe TDP bei Intel in den "Specs" zu lesen - wenn ich dagegen die CPUs von AMD sehe.

Antwort 1 Like

amd64

1

1,103 Kommentare 670 Likes

Intel hat geliefert. (y) Sehr schön, dann kann das Rennen ja weiter gehen.

Antwort Gefällt mir

Alexander Brose

Moderator

819 Kommentare 573 Likes

Beeindruckender Effizienz-Sprung von Intel, Hut ab!

Wie immer ein schöner Test, so ausführlich sonst nirgends gesehen (y)

Grüße!

Antwort Gefällt mir

HerrRossi

Urgestein

6,778 Kommentare 2,243 Likes

Danke für den Test, da hat Intel ja richtig abgeliefert!

Beeindruckend, was da bei den 1% low fps gewonnen wurde und der Stromverbrauch ist ja regelrecht niedrig. Es wird auch spannend zu sehen sein, was mit schnellerem DDR5 und strafferen Timings noch an Leistungsgewinn rauskommen wird.

Echt stark, für uns Konsumenten gibt es nichts besseres als Konkurrenzkampf. Jetzt ist AMD wieder an der Reihe, diese Hürde du überspringen und ähnlich gut abzuliefern. Mit dem 3D Cache wird man vllt. an die Leistung rankommen, der Stromverbrauch wird aber höher bleiben als jetzt bei Alder Lake.

Antwort 1 Like

HerrRossi

Urgestein

6,778 Kommentare 2,243 Likes

Ich vermute, das ist eine Einstellung im Bios, einmal darf die CPU so viel saufen wie sie will, beim anderen Setting ist sie auf 125W limitiert. Zumindest beim Gaming hat das ja kaum Auswirkungen.

Antwort 1 Like

m
modena.ch

Mitglied

84 Kommentare 36 Likes

Naja, beim Gaming wo er nicht ausgelastet ist siehts schick aus, produktiv säuft er wie Loch.

100W mehr ist ne Hausnummer....
Bei oft weniger Leistung versteht sich.

Auch bei den Spielen scheint es schwer draufan zu kommen welches es ist.
Es ist nicht alles rosig im Alder See!

Antwort 2 Likes

Klicke zum Ausklappem
amd64

1

1,103 Kommentare 670 Likes

Intels 10nm Enhanced SuperFin ist mit dem 7nm Prozess von TSMC wohl doch nicht ganz zu vergleichen.
Mal sehen wo die "neuen" Ryzen mit den +64MB V-Cache pro Chiplet landen.

Antwort 1 Like

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Mich würde auch interessieren, was man da an NT reinbaut. Ich mach ja produktiv nix - rein von der Package Power sollten dann 12900 + 6900XT mit meinem 650 Watt NT auskommen. Aber wenn da soviel Luft nach oben ist und der sich ggf doch den Schluck genehmigt... Irgendwie ist mir das suspekt. Mal abwarten, was morgen kommt. Aber ja: Sieht endlich wieder nach ner guten Architektur aus.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung