Prozessor System Testberichte Workstation

Was taugt der Intel Core i5-12400 auf dem B660 Mainboard im Workstation- und Produktiveinsatz wirklich? Unser Praxis-Test | Teil 2

AutoCAD 2021 mit der Cadalyst Benchmark-Suite

Gut, AutoCAD war noch nie wirklich AMD-Domäne, aber Ryzen 5000 konnte seinerzeit erstmal mit Comet Lake S gleichziehen und sogar etwas in Führung gehen. Es hat sogar noch für Rocket Lake gut gereicht. Und dann kam Alder Lake. Nun ist es leider so, dass AutoCAD extrem CPU-lastig ist und im normalen Arbeitsbereich auch recht wenig zu parallelisieren ist. Da zählt oft, was einige wenige Kerne in der Lage sind zu leisten.

Im 2D- und im 3D-Bereich wird die RTX A6000 selbst in Ultra-HD fast immer noch von der CPU limitiert, auch wenn es mit Alder Lake schon etwas besser ausschaut.

Der Core i5-12400 hat hier bis zu 14 Prozentpunkte Vorsprung gegenüber dem Ryzen 5 5600X und ist sogar deutlich schneller als der Ryzen 7 5800X. Der Score setzt sich aus diversen Einzelbewertungen zusammen, die mit wenigen Ausnahme allesamt an den i5-12400 und nicht an den Ryzen 5 5600X gehen. Im Übrigen liegt hier die Version mit DDR5 leicht vorn, was auch am Teilbenchmark der CPU-Performance liegen mag.

Teilbenchmarks des Cadalyst

Betrachten wir nun noch die Einzelresultate, wo auch die Disk-Performance von ADL auf dem B660-Board erneut positiv überraschen kann. Zu 3D und 2D muss man glaube ich nichts weiter schreiben, denn das erklärt sich selbst. Nur beim internen CPU-Benchmark liegt der kleine Alder Lake Core i5-12400 mit DDR4 deutlicher hinter dem Ryzen 5 5600X, während bei DDR5 Gleichstand herscht.

 

Kommentar

Lade neue Kommentare

P
Pokerclock

Veteran

411 Kommentare 347 Likes

Die bittere Wahrheit hinter der Effizienz ist leider, dass diese in diesem speziellen Kundenkreis überhaupt nicht nachgefragt wird. Die Leute sind dafür leider zu stark getrieben von Abgabeterminen und davon Arbeitsstunden einzuhalten. In der Folge wird budgetabhängig eigentlich immer das Dickschiff gewählt, gerne auch mal gleich mehrere Systeme auf einmal mieten, wenn möglich. Und dann gibt es noch den Kundenkreis (hauptsächlich wo für Live-Szenen Rechenleistung gebraucht wird), die von vornherein auf Nummer sicher gehen und viel zu leistungsstarke Systeme ordern, Hauptsache es läuft alles einwandfrei. Würde es wohl auch mit nem 6 Kerner tun, am Ende wird dann doch der 16 Kerner geordert. Preislich macht es oftmals auch gar nichts aus im Vergleich zum Umsatz, der durch die erbrachte Leistung erzielt wird. Ob nun 200 € oder 700 € für ne CPU oder eben den ganzen PC draufgehen, fällt hier nicht weiter ins Gewicht, wenn der Auftrag locker 5-stellig Umsatz generiert.

Antwort Gefällt mir

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Schade das der 5600x wieder mit Übertaktung läuft,im Work und Produktiveinsatz wird ja selten der Ram Übertaktet und da bleibt die CPU sparsamer bei gleicher Leistung.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

So viel zum stromschluckenden und ineffizienten Golden Cove. Es kommt eben ganz auf die Taktraten an. Ja bei 5 Ghz ist Golden Cove förmlich der Stromfresser und der 5950x viel effizienter. Nur vergessen die Leute, dass der 5950x dank seiner 16 big Kerne und 32 threads mit nur etwa 4 Ghz bei voller Auslastung läuft, was nun einmal für die Effizienz sehr förderlich ist.

Und siehe da, taktet Golden Cove mit nur 4.0 Ghz, ist er genauso effizient bzw. hier effizienter. Die Architektur ist nicht automatisch ineffizient nur weil das Topmodell Strom säuft bei 5 Ghz. Im übrigen ist das hier ein 12400 vom C0 stepping, die 12400 im H0 stepping vom nativen 6+0 Die sind noch ein wenig effizienter.

Antwort Gefällt mir

p
peru3232

Mitglied

31 Kommentare 7 Likes

vor allem sieht man auch, wie "wichtig" die Effizenzkerne sind -> sind diese NICHT vorhanden, steigt die Effizienz spührbar an... well done, Intel 🤪

Antwort 1 Like

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Mit DDR4 3200 siehts nicht anders aus. Langsamer aber kaum sparsamer. Und die TDP auf 65 Watt festzutackern bringt auch nichts. Wir sind ja faktisch fast immer drunter.

Antwort 1 Like

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Ist das denn so anders beim 5600x mit dem SOC?
Selbst der 5950x verbraucht mit 4x8GB Ram bei 3200MHz nur 8Watt,mit 3266MHz sind es 10Watt mehr auf dem SOC was mehr Verbrauch bedeutet und schnellere Begrenzung bei PPT/TDC/EDC.

View image at the forums

So mit 3266MHz

View image at the forums

Antwort Gefällt mir

Alkbert

Urgestein

926 Kommentare 703 Likes

Bei AutoCAD und den entsprechenden Derivaten scheint eine ausgeprägte Parallelisierung eher nicht oben auf der Prioritätsliste zu stehen, sonst wäre der 5950 nicht permanent langsamer als der 5900er. Und wenn wir dann schon im Produktivität und - Workstation Segment sind und ich mir mal die Systeme von befreundeten Statikern, Bauingenieuren und Architekten anschaue, wo massiv auf Multi-Kern CPU´s gesetzt wird (da ist 16 eher das absolute Minimum), dann hinterfrage ich den Sinn solcher Systeme schon nachhaltig.
Schaut man sich - auch die Produktivitätsbenchmarks - von vor einem guten Jahr an, dann waren da gefühlt teils "kleine Welten" zwischen dem 12 und 16 Kerner und dann nochmals zu den sTRX Systemen. Offensichtlich hat man hier aber eher "much ado about nothing", frei nach Shakespeare.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Es zeigt sich genau das, was wir schon wussten. Die E cores sind nicht performance/W steigernd, sondern sind die hauptsächlich als Multithread Booster zu verstehen, Stichwort Flächeneffizienz. Intel kann kostengünstiger die MT Leistung steigern.

Und zukünftig hat es vielleicht den Vorteil das sie nicht mehr so einen großen tradeoff bei der Core Architektur eingehen müssen zwischen performance, Verbrauch und Flächenbedarf.

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Wenn man nicht gerade rendert oder sich totrechnet, bringt eine schnelle Workstation-GPU zusammen mit schnellen 6-8 Kernen mehr als ein Threadripper. Kanonen, Spatzen und so.

AutoCAD und Parallelisierung... Da ist nichts. Ein paar Ad-Ons vielleicht oder eine längere Simu, aber normalerweise klebt AutoCAD an der IPC. Da kommts auch auf den Takt an. Gerade 2D geht voll durch den Treiber und der ballert die CPU zu.

Antwort 3 Likes

LeovonBastler

Mitglied

42 Kommentare 13 Likes

Mich wundert es aber, warum manchmal mit der CPU und nicht mit der GPU gerendert wird. Hat es einen speziellen Grund?
Genau das Gleiche frage ich mich auch, wenn man eine Menge an Nummern crunchen will (ist auch Teil vom rendern). Klar, gibt es Instruktionen (wie x86, AVX usw.), welche die GPU vom Featureset her nicht unterstützt aber ausserhalb von dem wundert's mich manchmal schon...

Ich kenne mich aber in dem Bereich überhaupt nicht aus und arbeite auch nicht dort, daher sind meine Fragen und Angaben gegebenfalls falsch.

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Das Problem beim GPU-Rendern ist manchmal die Qualität oder die Verfügbarkeit passender Plugins in der benötigten Spezialsoftware. Sicher, mittlerweile läuft auch das Denoising mit CUDA oder OptiX recht brauchbar, aber nicht alles ist immer und überall verfügbar. Grafikkarten und deren Shader sind recht simple Konstrukte, wo sich nicht alles wirklich gewinnbringend umsetzen und parallelisieren lässt. Cruncher sind ok, aber auch hier ist stets die Frage, wie komplex die Aufgabenstellung ist. Das geht auch nicht immer. Am Ende braucht sogar NVIDAs Wunderrechner eine fette CPU und dicke Datenleitungen, weil es die Karten ganz allein gar nicht richten können. :)

Antwort 1 Like

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Schön, dass die Intel Mainstream-CPUs auf ganzer Linie überzeugen. Wer sagt, Intel hätte mit dieser ganz neuen Generation allzu viel verkehrt gemacht, hat keine Ahnung oder hat vor kurzem noch einen 5900X gekauft. :)

Antwort Gefällt mir

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Oder weil er Ahnung hat , hat er zum 5900/5950x gegriffen.:p

Antwort Gefällt mir

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Wenn er Ahnung hat gab es dann entweder noch keinen Alder Lake, oder AMD wird schon seit Bulldozer-Zeiten bevorzugt. 😆

Antwort Gefällt mir

Igor Wallossek

1

10,105 Kommentare 18,594 Likes

Keinen Fan-War bitte. Danke! :)

Antwort 3 Likes

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Natürlich nicht, Igor! :)

Antwort Gefällt mir

Casi030

Urgestein

11,906 Kommentare 2,323 Likes

Was störte dich an Bulldozer?
Das er zu spät raus gekommen ist,oder das Effizienz = Primes Gesetz war?
Wie Effizient ist Alder Lake noch mal unter Prime avx @ Bios Default?

Antwort Gefällt mir

M
McFly_76

Veteran

395 Kommentare 136 Likes

Was jetzt noch fehlt sind passende Angebote an Mainboards mit dem B660 Chipsatz + INTEL LAN + aktuellen Audiochip ( ALC1220, ALC4080, ALC4082 ) für unter 160 € sonst legt man 20-30 € drauf und greift direkt zum Z690 mit vollem Funktionsumfang.

Antwort Gefällt mir

Tronado

Urgestein

3,654 Kommentare 1,918 Likes

Ja, die Effizienz unter Prime mit BIOS Default Einstellungen ist wirklich ein sehr schlaues Argument, Chapeau! :giggle:

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung