Prozessor System Testberichte Workstation

Was taugt der Intel Core i5-12400 auf dem B660 Mainboard im Workstation- und Produktiveinsatz wirklich? Unser Praxis-Test | Teil 2

Kann man mit einem Intel Core i5-12400 wirklich effizient und produktiv arbeiten? Und reicht auch DDR4 statt des teuren und nicht verfügbaren DDR5-Speichers? Auch wenn einige Fragen offen bleiben und ein Jain die diplomatischste Antwort wäre, so schlecht ist auch Intels kleiner Core i5 nicht. Nur reicht das gegen einen AMD Ryzen 5 5600X? Den ersten Gaming-Test mit vielen Benchmarks hatten wir ja schon online. Heute wollen wir jedoch einmal genauer hinterfragen, wo sie die beiden Spiecher-Varianten mit dem Core i5-12400 abseits bunter Gaming-Welten noch einigermaßen punkten können und ob es dann auch genauso sparsam und effizient bleibt.

Gaming ist eigentlich reichlich überbewertet, wenn man sich die Benchmarks ab 1440p mal genauer ansieht. Die wahren Stärken der neuen Architektur wird man beim Daddeln somit kaum erkennen, nur frage ich mich, ob das im Workstation-Test und ohne die kleinen E-Cores auch noch so ausschaut. Und genau darum geht es heute, zumal es sehr Anwendungs-abhängig ist, ob man auf DDR4 oder doch DDR5 setzt. Aber genau deshalb mache ich solche Tests ja auch mit echten Vollprogrammen und nicht nur den reinen Synthetics, die eh keiner verwendet. Cinebench ist für die Praxis reichlich sinnlos, egal welche Revision.

Ein Wort vorab noch zur Speicher-Auswahl zwischen DDR4 und DDR5. Aufgrund der schlechten Vergürbarkeit und des Widerspruchs zwischen günstiger Plattform und den aktuellen Speicher-Preisen habe ich mich zu einem direkten Vergleich entschieden. Der Kingston Fury Beast DDR5-5333 ist durchaus auf der Höhe der Zeit, auch wenn schneller DDR4-Speicher kaum langsamer ist. Aber genau das wollen wir ja im Test ja auch noch im Detail herausfinden.

Für den heutigen Test nutze ich bewusst die selbe Plattform wie vorgestern beim Gaming, ebenfalls auch mit identischen Settings. Das erleichtert zudem auch die Vergleichbarkeit, wo man nun seine Präferenzen besser aufgehoben sieht: beim Zocken oder beim Arbeiten. Oder vielleicht sogar bei beidem, wer weiß das schon? Ich habe für den heutigen Test einen aktuellen Core i5-12400 als Retail Version entsprechen der Mainboardvorgaben für den „Boxed“-Kühler bei den Power Limits genutzt. Somit liegt das PL1 bei 65 Watt (Long Duration) und das PL2 diesmal bei 169 Watt (Short Duration, 28 Sekunden) statt der 117 Watt laut Specs. Ich kann aber jetzt schon mal spoilern, dass dieser Maximalwert nie erreicht wird, egal wie hoch man ihn auch setzt. Das Power Limit (Short Duration) liegt bei 175 Ampere.

Beim Gaming bremst meist die Grafikkarte, im Produktiveinsatz und vor allem beim Design sowie der Konstruktion ist es fast immer die CPU. Ich nutze zum Testen eine NVIDIA RTX A6000, die sich auch beim Ausgeben von 3D-Echtzeitansichten einen flotten Unterbau wünscht, egal, ob nun OpenGL oder DirectX zum Einsatz kommt. So manches CAD-Programm ist diesbezüglich noch schlimmer als der fieseste 720p-Gaming-Test, Stichwort AutoCAD. Doch dazu komme ich gleich noch. Auch Solidworks und Inventor Pro sind fordernd, beinhalten aber sehr unterschiedliche Workloads von leicht bis hammerhart, die im Fall der Fälle auch schon einmal gleichzeitig anfallen können. Gerade hier soll ja Alder Lake S seine Stärken ausspielen können, was auch ohne helfende E-Cores zu beweisen sein wird.

Und auch diesem Test muss ich voranstellen, dass die aktuellen Ryzen-CPUs, allen voran der vergleichbare Ryzen 5 5600X, mit dem heutigen Tag nicht etwa zum siliziumhaltigen Abfall degradiert werden und man auch keinen Grund zur Panik haben muss, plötzlich von heute auf morgen damit nicht mehr arbeiten zu können. Nur das mit der Effizienz muss man bei AMD wieder üben, denn da hat Intel mit dem Core i5-12400 beim Gaming echt ein Brett geliefert. Doch lassen wir uns überraschen, ich spoilere jetzt mal noch nichts.

Benchmarks, Testsystem und Auswertungssoftware

Die Messung der detaillierten Leistungsaufnahme und anderer, tiefergehender Dinge erfolgt hier im Speziallabor (wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden) zweigleisig mittels hochauflösender Oszillographen-Technik (Follow-Ups!) und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards und Grafikkarten (Bilder unten).

Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum). Doch alles zu seiner Zeit, denn heute geht es ja (erst einmal) ums Gaming.

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:

Intel LGA 1700
Core i9-12900KF (PL1 241W), Core i7-12700K (PL1 241W), Core i5-12600K (PL1 150W)
MSI MEG Z690 Unify
2x 16 GB Corsair Dominator DDR5 5200 @ 5333 Gear 2

Core i5-12400 (PL1 65W, PL2 169 W)
MSI MAG B660 Mortar WiFi
2x 8 GB Kingston Fury Beast DDR5 5333 @ 5333 Gear 2

Core i5-12400 (PL1 65W, PL2 169 W)
MSI MAG B660 Mortar WiFi DDR4
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro @ 3733 Gear 1

Intel LGA 1200
Core i9-11900K, Core i7-11700K, Core i5-11600K
MSI MEG Z590 Unify
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro @ 3733 Gear 1

AMD AM4
Ryzen 9 5950X, Ryzen 9 5900X, Ryzen 7 5800X, Ryzen 5 5600X
MSI MEG X570 Godlike, PBO auto
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro @ 3800 1:1

NVIDIA RTX A6000

1x 2 TB MSI Spatium M480
1x 2 TB Corsair MP660 Pro XT
Be Quiet! Dark Power Pro 12 1200 Watt

Cooling:
Aqua Computer Cuplex Kryos Next, Custom LGA 1200/1700 Backplate (hand-made)
Custom Loop Water Cooling / Chiller
Alphacool Subzero
Case:
Cooler Master Benchtable
Monitor: LG OLED55 G19LA
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)
NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
OS: Windows 11 Pro (all updates/patches, current certified or press VGA drivers)

 

Kommentar

Lade neue Kommentare

P
Pokerclock

Veteran

411 Kommentare 347 Likes

Die bittere Wahrheit hinter der Effizienz ist leider, dass diese in diesem speziellen Kundenkreis überhaupt nicht nachgefragt wird. Die Leute sind dafür leider zu stark getrieben von Abgabeterminen und davon Arbeitsstunden einzuhalten. In der Folge wird budgetabhängig eigentlich immer das Dickschiff gewählt, gerne auch mal gleich mehrere Systeme auf einmal mieten, wenn möglich. Und dann gibt es noch den Kundenkreis (hauptsächlich wo für Live-Szenen Rechenleistung gebraucht wird), die von vornherein auf Nummer sicher gehen und viel zu leistungsstarke Systeme ordern, Hauptsache es läuft alles einwandfrei. Würde es wohl auch mit nem 6 Kerner tun, am Ende wird dann doch der 16 Kerner geordert. Preislich macht es oftmals auch gar nichts aus im Vergleich zum Umsatz, der durch die erbrachte Leistung erzielt wird. Ob nun 200 € oder 700 € für ne CPU oder eben den ganzen PC draufgehen, fällt hier nicht weiter ins Gewicht, wenn der Auftrag locker 5-stellig Umsatz generiert.

Antwort Gefällt mir

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Schade das der 5600x wieder mit Übertaktung läuft,im Work und Produktiveinsatz wird ja selten der Ram Übertaktet und da bleibt die CPU sparsamer bei gleicher Leistung.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

So viel zum stromschluckenden und ineffizienten Golden Cove. Es kommt eben ganz auf die Taktraten an. Ja bei 5 Ghz ist Golden Cove förmlich der Stromfresser und der 5950x viel effizienter. Nur vergessen die Leute, dass der 5950x dank seiner 16 big Kerne und 32 threads mit nur etwa 4 Ghz bei voller Auslastung läuft, was nun einmal für die Effizienz sehr förderlich ist.

Und siehe da, taktet Golden Cove mit nur 4.0 Ghz, ist er genauso effizient bzw. hier effizienter. Die Architektur ist nicht automatisch ineffizient nur weil das Topmodell Strom säuft bei 5 Ghz. Im übrigen ist das hier ein 12400 vom C0 stepping, die 12400 im H0 stepping vom nativen 6+0 Die sind noch ein wenig effizienter.

Antwort Gefällt mir

p
peru3232

Mitglied

31 Kommentare 7 Likes

vor allem sieht man auch, wie "wichtig" die Effizenzkerne sind -> sind diese NICHT vorhanden, steigt die Effizienz spührbar an... well done, Intel 🤪

Antwort 1 Like

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Mit DDR4 3200 siehts nicht anders aus. Langsamer aber kaum sparsamer. Und die TDP auf 65 Watt festzutackern bringt auch nichts. Wir sind ja faktisch fast immer drunter.

Antwort 1 Like

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Ist das denn so anders beim 5600x mit dem SOC?
Selbst der 5950x verbraucht mit 4x8GB Ram bei 3200MHz nur 8Watt,mit 3266MHz sind es 10Watt mehr auf dem SOC was mehr Verbrauch bedeutet und schnellere Begrenzung bei PPT/TDC/EDC.

View image at the forums

So mit 3266MHz

View image at the forums

Antwort Gefällt mir

Alkbert

Urgestein

926 Kommentare 703 Likes

Bei AutoCAD und den entsprechenden Derivaten scheint eine ausgeprägte Parallelisierung eher nicht oben auf der Prioritätsliste zu stehen, sonst wäre der 5950 nicht permanent langsamer als der 5900er. Und wenn wir dann schon im Produktivität und - Workstation Segment sind und ich mir mal die Systeme von befreundeten Statikern, Bauingenieuren und Architekten anschaue, wo massiv auf Multi-Kern CPU´s gesetzt wird (da ist 16 eher das absolute Minimum), dann hinterfrage ich den Sinn solcher Systeme schon nachhaltig.
Schaut man sich - auch die Produktivitätsbenchmarks - von vor einem guten Jahr an, dann waren da gefühlt teils "kleine Welten" zwischen dem 12 und 16 Kerner und dann nochmals zu den sTRX Systemen. Offensichtlich hat man hier aber eher "much ado about nothing", frei nach Shakespeare.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Es zeigt sich genau das, was wir schon wussten. Die E cores sind nicht performance/W steigernd, sondern sind die hauptsächlich als Multithread Booster zu verstehen, Stichwort Flächeneffizienz. Intel kann kostengünstiger die MT Leistung steigern.

Und zukünftig hat es vielleicht den Vorteil das sie nicht mehr so einen großen tradeoff bei der Core Architektur eingehen müssen zwischen performance, Verbrauch und Flächenbedarf.

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Wenn man nicht gerade rendert oder sich totrechnet, bringt eine schnelle Workstation-GPU zusammen mit schnellen 6-8 Kernen mehr als ein Threadripper. Kanonen, Spatzen und so.

AutoCAD und Parallelisierung... Da ist nichts. Ein paar Ad-Ons vielleicht oder eine längere Simu, aber normalerweise klebt AutoCAD an der IPC. Da kommts auch auf den Takt an. Gerade 2D geht voll durch den Treiber und der ballert die CPU zu.

Antwort 3 Likes

LeovonBastler

Mitglied

42 Kommentare 13 Likes

Mich wundert es aber, warum manchmal mit der CPU und nicht mit der GPU gerendert wird. Hat es einen speziellen Grund?
Genau das Gleiche frage ich mich auch, wenn man eine Menge an Nummern crunchen will (ist auch Teil vom rendern). Klar, gibt es Instruktionen (wie x86, AVX usw.), welche die GPU vom Featureset her nicht unterstützt aber ausserhalb von dem wundert's mich manchmal schon...

Ich kenne mich aber in dem Bereich überhaupt nicht aus und arbeite auch nicht dort, daher sind meine Fragen und Angaben gegebenfalls falsch.

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Das Problem beim GPU-Rendern ist manchmal die Qualität oder die Verfügbarkeit passender Plugins in der benötigten Spezialsoftware. Sicher, mittlerweile läuft auch das Denoising mit CUDA oder OptiX recht brauchbar, aber nicht alles ist immer und überall verfügbar. Grafikkarten und deren Shader sind recht simple Konstrukte, wo sich nicht alles wirklich gewinnbringend umsetzen und parallelisieren lässt. Cruncher sind ok, aber auch hier ist stets die Frage, wie komplex die Aufgabenstellung ist. Das geht auch nicht immer. Am Ende braucht sogar NVIDAs Wunderrechner eine fette CPU und dicke Datenleitungen, weil es die Karten ganz allein gar nicht richten können. :)

Antwort 1 Like

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Schön, dass die Intel Mainstream-CPUs auf ganzer Linie überzeugen. Wer sagt, Intel hätte mit dieser ganz neuen Generation allzu viel verkehrt gemacht, hat keine Ahnung oder hat vor kurzem noch einen 5900X gekauft. :)

Antwort Gefällt mir

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Oder weil er Ahnung hat , hat er zum 5900/5950x gegriffen.:p

Antwort Gefällt mir

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Wenn er Ahnung hat gab es dann entweder noch keinen Alder Lake, oder AMD wird schon seit Bulldozer-Zeiten bevorzugt. 😆

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Keinen Fan-War bitte. Danke! :)

Antwort 3 Likes

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Natürlich nicht, Igor! :)

Antwort Gefällt mir

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Was störte dich an Bulldozer?
Das er zu spät raus gekommen ist,oder das Effizienz = Primes Gesetz war?
Wie Effizient ist Alder Lake noch mal unter Prime avx @ Bios Default?

Antwort Gefällt mir

M
McFly_76

Veteran

395 Kommentare 136 Likes

Was jetzt noch fehlt sind passende Angebote an Mainboards mit dem B660 Chipsatz + INTEL LAN + aktuellen Audiochip ( ALC1220, ALC4080, ALC4082 ) für unter 160 € sonst legt man 20-30 € drauf und greift direkt zum Z690 mit vollem Funktionsumfang.

Antwort Gefällt mir

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Ja, die Effizienz unter Prime mit BIOS Default Einstellungen ist wirklich ein sehr schlaues Argument, Chapeau! :giggle:

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung