Prozessor System Testberichte Workstation

Was taugt der Intel Core i5-12400 auf dem B660 Mainboard im Workstation- und Produktiveinsatz wirklich? Unser Praxis-Test | Teil 2

Autodesk Inventor 2021 Pro und InvMark

Der InvMark deckt mit seinem umfangreichen Benchmark fast alle Bereiche von Inventor und ist ein wirklich guter Gradmesser für die Systemperformance. Betrachten wir zunächst den Gesamt-Score für alle CPUs. Der Core i5-12400 mit DDR5 liegt satte 6 Prozentpunkte über dem Ergebnis des Ryzen 5 5600X, die DDR4-Version keine 2 Prozentpunkte knapp unterhalb des AMD-Pendants.

Dass Intel die Single-Thread-Performance mit DDR5 gewinnt, ist sicher keine Überraschung. Trotzdem ist es keine ganze Galaxie, sondern nur ein kosmischer Wimpernschlag. Genau so, wie der Rückstand der DDR4-Version zur AMD-CPU.

Auch die Multi-Thread-Performance geht an Intel, wo der Vorsprung der DDR5-Version nun fast 10 Prozentpunkte beträgt. Die E-Cores fehlen hier spürbar, wenn man sich mal die Werte des Core i5-12600K anschaut. Das liegt nämlich nicht nur am höheren Takt.

Einzelbenchmarks des InvMark

Auch hier unterteilen wir wieder in sehr unterschiedliche Anwendungs-Szenarien. Und immerhin schafft es der Ryzen 5 5600X in 2 Benchmarks auch mal zu gewinnen, auch wenn es in der Summe dann nicht zum Gesamtsieg reicht. Unter Strich sind beide dann auch annähernd gleich gut oder schlecht, je nach Sichtweise des Betrachters. Mit gewissen Vorteilen für Intel.

 

Lade neue Kommentare

P
Pokerclock

Mitglied

72 Kommentare 50 Likes

Die bittere Wahrheit hinter der Effizienz ist leider, dass diese in diesem speziellen Kundenkreis überhaupt nicht nachgefragt wird. Die Leute sind dafür leider zu stark getrieben von Abgabeterminen und davon Arbeitsstunden einzuhalten. In der Folge wird budgetabhängig eigentlich immer das Dickschiff gewählt, gerne auch mal gleich mehrere Systeme auf einmal mieten, wenn möglich. Und dann gibt es noch den Kundenkreis (hauptsächlich wo für Live-Szenen Rechenleistung gebraucht wird), die von vornherein auf Nummer sicher gehen und viel zu leistungsstarke Systeme ordern, Hauptsache es läuft alles einwandfrei. Würde es wohl auch mit nem 6 Kerner tun, am Ende wird dann doch der 16 Kerner geordert. Preislich macht es oftmals auch gar nichts aus im Vergleich zum Umsatz, der durch die erbrachte Leistung erzielt wird. Ob nun 200 € oder 700 € für ne CPU oder eben den ganzen PC draufgehen, fällt hier nicht weiter ins Gewicht, wenn der Auftrag locker 5-stellig Umsatz generiert.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

7,664 Kommentare 1,239 Likes

Schade das der 5600x wieder mit Übertaktung läuft,im Work und Produktiveinsatz wird ja selten der Ram Übertaktet und da bleibt die CPU sparsamer bei gleicher Leistung.

Antwort Gefällt mir

R
Rooter

Mitglied

38 Kommentare 5 Likes

So viel zum stromschluckenden und ineffizienten Golden Cove. Es kommt eben ganz auf die Taktraten an. Ja bei 5 Ghz ist Golden Cove förmlich der Stromfresser und der 5950x viel effizienter. Nur vergessen die Leute, dass der 5950x dank seiner 16 big Kerne und 32 threads mit nur etwa 4 Ghz bei voller Auslastung läuft, was nun einmal für die Effizienz sehr förderlich ist.

Und siehe da, taktet Golden Cove mit nur 4.0 Ghz, ist er genauso effizient bzw. hier effizienter. Die Architektur ist nicht automatisch ineffizient nur weil das Topmodell Strom säuft bei 5 Ghz. Im übrigen ist das hier ein 12400 vom C0 stepping, die 12400 im H0 stepping vom nativen 6+0 Die sind noch ein wenig effizienter.

Antwort Gefällt mir

p
peru3232

Mitglied

21 Kommentare 6 Likes

vor allem sieht man auch, wie "wichtig" die Effizenzkerne sind -> sind diese NICHT vorhanden, steigt die Effizienz spührbar an... well done, Intel 🤪

Antwort 1 Like

Igor Wallossek

Format©

7,018 Kommentare 11,488 Likes

Mit DDR4 3200 siehts nicht anders aus. Langsamer aber kaum sparsamer. Und die TDP auf 65 Watt festzutackern bringt auch nichts. Wir sind ja faktisch fast immer drunter.

Antwort 1 Like

Casi030

Urgestein

7,664 Kommentare 1,239 Likes

Ist das denn so anders beim 5600x mit dem SOC?
Selbst der 5950x verbraucht mit 4x8GB Ram bei 3200MHz nur 8Watt,mit 3266MHz sind es 10Watt mehr auf dem SOC was mehr Verbrauch bedeutet und schnellere Begrenzung bei PPT/TDC/EDC.

View image at the forums

So mit 3266MHz

View image at the forums

Antwort Gefällt mir

Alkbert

Urgestein

633 Kommentare 364 Likes

Bei AutoCAD und den entsprechenden Derivaten scheint eine ausgeprägte Parallelisierung eher nicht oben auf der Prioritätsliste zu stehen, sonst wäre der 5950 nicht permanent langsamer als der 5900er. Und wenn wir dann schon im Produktivität und - Workstation Segment sind und ich mir mal die Systeme von befreundeten Statikern, Bauingenieuren und Architekten anschaue, wo massiv auf Multi-Kern CPU´s gesetzt wird (da ist 16 eher das absolute Minimum), dann hinterfrage ich den Sinn solcher Systeme schon nachhaltig.
Schaut man sich - auch die Produktivitätsbenchmarks - von vor einem guten Jahr an, dann waren da gefühlt teils "kleine Welten" zwischen dem 12 und 16 Kerner und dann nochmals zu den sTRX Systemen. Offensichtlich hat man hier aber eher "much ado about nothing", frei nach Shakespeare.

Antwort Gefällt mir

Klicke zum Ausklappem
R
Rooter

Mitglied

38 Kommentare 5 Likes

Es zeigt sich genau das, was wir schon wussten. Die E cores sind nicht performance/W steigernd, sondern sind die hauptsächlich als Multithread Booster zu verstehen, Stichwort Flächeneffizienz. Intel kann kostengünstiger die MT Leistung steigern.

Und zukünftig hat es vielleicht den Vorteil das sie nicht mehr so einen großen tradeoff bei der Core Architektur eingehen müssen zwischen performance, Verbrauch und Flächenbedarf.

Antwort Gefällt mir

Igor Wallossek

Format©

7,018 Kommentare 11,488 Likes

Wenn man nicht gerade rendert oder sich totrechnet, bringt eine schnelle Workstation-GPU zusammen mit schnellen 6-8 Kernen mehr als ein Threadripper. Kanonen, Spatzen und so.

AutoCAD und Parallelisierung... Da ist nichts. Ein paar Ad-Ons vielleicht oder eine längere Simu, aber normalerweise klebt AutoCAD an der IPC. Da kommts auch auf den Takt an. Gerade 2D geht voll durch den Treiber und der ballert die CPU zu.

Antwort 3 Likes

LeovonBastler

Mitglied

39 Kommentare 12 Likes

Mich wundert es aber, warum manchmal mit der CPU und nicht mit der GPU gerendert wird. Hat es einen speziellen Grund?
Genau das Gleiche frage ich mich auch, wenn man eine Menge an Nummern crunchen will (ist auch Teil vom rendern). Klar, gibt es Instruktionen (wie x86, AVX usw.), welche die GPU vom Featureset her nicht unterstützt aber ausserhalb von dem wundert's mich manchmal schon...

Ich kenne mich aber in dem Bereich überhaupt nicht aus und arbeite auch nicht dort, daher sind meine Fragen und Angaben gegebenfalls falsch.

Antwort Gefällt mir

Igor Wallossek

Format©

7,018 Kommentare 11,488 Likes

Das Problem beim GPU-Rendern ist manchmal die Qualität oder die Verfügbarkeit passender Plugins in der benötigten Spezialsoftware. Sicher, mittlerweile läuft auch das Denoising mit CUDA oder OptiX recht brauchbar, aber nicht alles ist immer und überall verfügbar. Grafikkarten und deren Shader sind recht simple Konstrukte, wo sich nicht alles wirklich gewinnbringend umsetzen und parallelisieren lässt. Cruncher sind ok, aber auch hier ist stets die Frage, wie komplex die Aufgabenstellung ist. Das geht auch nicht immer. Am Ende braucht sogar NVIDAs Wunderrechner eine fette CPU und dicke Datenleitungen, weil es die Karten ganz allein gar nicht richten können. :)

Antwort 1 Like

Tronado

Urgestein

1,085 Kommentare 427 Likes

Schön, dass die Intel Mainstream-CPUs auf ganzer Linie überzeugen. Wer sagt, Intel hätte mit dieser ganz neuen Generation allzu viel verkehrt gemacht, hat keine Ahnung oder hat vor kurzem noch einen 5900X gekauft. :)

Antwort Gefällt mir

Casi030

Urgestein

7,664 Kommentare 1,239 Likes

Oder weil er Ahnung hat , hat er zum 5900/5950x gegriffen.:p

Antwort Gefällt mir

Tronado

Urgestein

1,085 Kommentare 427 Likes

Wenn er Ahnung hat gab es dann entweder noch keinen Alder Lake, oder AMD wird schon seit Bulldozer-Zeiten bevorzugt. 😆

Antwort Gefällt mir

Igor Wallossek

Format©

7,018 Kommentare 11,488 Likes

Keinen Fan-War bitte. Danke! :)

Antwort 3 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung