Reviews Was taugt der Intel Core i5-12400 auf dem B660 Mainboard im Workstation- und Produktiveinsatz wirklich? Unser Praxis-Test | Teil 2

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Kann man mit einem Intel Core i5-12400 wirklich effizient und produktiv arbeiten? Und reicht auch DDR4 statt des teuren und nicht verfügbaren DDR5-Speichers? Auch wenn einige Fragen offen bleiben und ein Jain die diplomatischste Antwort wäre, so schlecht ist auch Intels kleiner Core i5 nicht. Nur reicht das gegen einen AMD Ryzen 5 5600X? Den (read full article...)
 
Die bittere Wahrheit hinter der Effizienz ist leider, dass diese in diesem speziellen Kundenkreis überhaupt nicht nachgefragt wird. Die Leute sind dafür leider zu stark getrieben von Abgabeterminen und davon Arbeitsstunden einzuhalten. In der Folge wird budgetabhängig eigentlich immer das Dickschiff gewählt, gerne auch mal gleich mehrere Systeme auf einmal mieten, wenn möglich. Und dann gibt es noch den Kundenkreis (hauptsächlich wo für Live-Szenen Rechenleistung gebraucht wird), die von vornherein auf Nummer sicher gehen und viel zu leistungsstarke Systeme ordern, Hauptsache es läuft alles einwandfrei. Würde es wohl auch mit nem 6 Kerner tun, am Ende wird dann doch der 16 Kerner geordert. Preislich macht es oftmals auch gar nichts aus im Vergleich zum Umsatz, der durch die erbrachte Leistung erzielt wird. Ob nun 200 € oder 700 € für ne CPU oder eben den ganzen PC draufgehen, fällt hier nicht weiter ins Gewicht, wenn der Auftrag locker 5-stellig Umsatz generiert.
 
Zuletzt bearbeitet :
Schade das der 5600x wieder mit Übertaktung läuft,im Work und Produktiveinsatz wird ja selten der Ram Übertaktet und da bleibt die CPU sparsamer bei gleicher Leistung.
 
So viel zum stromschluckenden und ineffizienten Golden Cove. Es kommt eben ganz auf die Taktraten an. Ja bei 5 Ghz ist Golden Cove förmlich der Stromfresser und der 5950x viel effizienter. Nur vergessen die Leute, dass der 5950x dank seiner 16 big Kerne und 32 threads mit nur etwa 4 Ghz bei voller Auslastung läuft, was nun einmal für die Effizienz sehr förderlich ist.

Und siehe da, taktet Golden Cove mit nur 4.0 Ghz, ist er genauso effizient bzw. hier effizienter. Die Architektur ist nicht automatisch ineffizient nur weil das Topmodell Strom säuft bei 5 Ghz. Im übrigen ist das hier ein 12400 vom C0 stepping, die 12400 im H0 stepping vom nativen 6+0 Die sind noch ein wenig effizienter.
 
vor allem sieht man auch, wie "wichtig" die Effizenzkerne sind -> sind diese NICHT vorhanden, steigt die Effizienz spührbar an... well done, Intel 🤪
 
Schade das der 5600x wieder mit Übertaktung läuft,im Work und Produktiveinsatz wird ja selten der Ram Übertaktet und da bleibt die CPU sparsamer bei gleicher Leistung.
Mit DDR4 3200 siehts nicht anders aus. Langsamer aber kaum sparsamer. Und die TDP auf 65 Watt festzutackern bringt auch nichts. Wir sind ja faktisch fast immer drunter.
 
Mit DDR4 3200 siehts nicht anders aus. Langsamer aber kaum sparsamer. Und die TDP auf 65 Watt festzutackern bringt auch nichts. Wir sind ja faktisch fast immer drunter.
Ist das denn so anders beim 5600x mit dem SOC?
Selbst der 5950x verbraucht mit 4x8GB Ram bei 3200MHz nur 8Watt,mit 3266MHz sind es 10Watt mehr auf dem SOC was mehr Verbrauch bedeutet und schnellere Begrenzung bei PPT/TDC/EDC.
SoC.JPG
So mit 3266MHz
SOC 3266MHz.JPG
 
Bei AutoCAD und den entsprechenden Derivaten scheint eine ausgeprägte Parallelisierung eher nicht oben auf der Prioritätsliste zu stehen, sonst wäre der 5950 nicht permanent langsamer als der 5900er. Und wenn wir dann schon im Produktivität und - Workstation Segment sind und ich mir mal die Systeme von befreundeten Statikern, Bauingenieuren und Architekten anschaue, wo massiv auf Multi-Kern CPU´s gesetzt wird (da ist 16 eher das absolute Minimum), dann hinterfrage ich den Sinn solcher Systeme schon nachhaltig.
Schaut man sich - auch die Produktivitätsbenchmarks - von vor einem guten Jahr an, dann waren da gefühlt teils "kleine Welten" zwischen dem 12 und 16 Kerner und dann nochmals zu den sTRX Systemen. Offensichtlich hat man hier aber eher "much ado about nothing", frei nach Shakespeare.
 
vor allem sieht man auch, wie "wichtig" die Effizenzkerne sind -> sind diese NICHT vorhanden, steigt die Effizienz spührbar an... well done, Intel 🤪

Es zeigt sich genau das, was wir schon wussten. Die E cores sind nicht performance/W steigernd, sondern sind die hauptsächlich als Multithread Booster zu verstehen, Stichwort Flächeneffizienz. Intel kann kostengünstiger die MT Leistung steigern.

Und zukünftig hat es vielleicht den Vorteil das sie nicht mehr so einen großen tradeoff bei der Core Architektur eingehen müssen zwischen performance, Verbrauch und Flächenbedarf.
 
Wenn man nicht gerade rendert oder sich totrechnet, bringt eine schnelle Workstation-GPU zusammen mit schnellen 6-8 Kernen mehr als ein Threadripper. Kanonen, Spatzen und so.

AutoCAD und Parallelisierung... Da ist nichts. Ein paar Ad-Ons vielleicht oder eine längere Simu, aber normalerweise klebt AutoCAD an der IPC. Da kommts auch auf den Takt an. Gerade 2D geht voll durch den Treiber und der ballert die CPU zu.
 
Mich wundert es aber, warum manchmal mit der CPU und nicht mit der GPU gerendert wird. Hat es einen speziellen Grund?
Genau das Gleiche frage ich mich auch, wenn man eine Menge an Nummern crunchen will (ist auch Teil vom rendern). Klar, gibt es Instruktionen (wie x86, AVX usw.), welche die GPU vom Featureset her nicht unterstützt aber ausserhalb von dem wundert's mich manchmal schon...

Ich kenne mich aber in dem Bereich überhaupt nicht aus und arbeite auch nicht dort, daher sind meine Fragen und Angaben gegebenfalls falsch.
 
Das Problem beim GPU-Rendern ist manchmal die Qualität oder die Verfügbarkeit passender Plugins in der benötigten Spezialsoftware. Sicher, mittlerweile läuft auch das Denoising mit CUDA oder OptiX recht brauchbar, aber nicht alles ist immer und überall verfügbar. Grafikkarten und deren Shader sind recht simple Konstrukte, wo sich nicht alles wirklich gewinnbringend umsetzen und parallelisieren lässt. Cruncher sind ok, aber auch hier ist stets die Frage, wie komplex die Aufgabenstellung ist. Das geht auch nicht immer. Am Ende braucht sogar NVIDAs Wunderrechner eine fette CPU und dicke Datenleitungen, weil es die Karten ganz allein gar nicht richten können. :)
 
Schön, dass die Intel Mainstream-CPUs auf ganzer Linie überzeugen. Wer sagt, Intel hätte mit dieser ganz neuen Generation allzu viel verkehrt gemacht, hat keine Ahnung oder hat vor kurzem noch einen 5900X gekauft. :)
 
Wenn er Ahnung hat gab es dann entweder noch keinen Alder Lake, oder AMD wird schon seit Bulldozer-Zeiten bevorzugt. 😆
 
Natürlich nicht, Igor! :)
 
Wenn er Ahnung hat gab es dann entweder noch keinen Alder Lake, oder AMD wird schon seit Bulldozer-Zeiten bevorzugt. 😆
Was störte dich an Bulldozer?
Das er zu spät raus gekommen ist,oder das Effizienz = Primes Gesetz war?
Wie Effizient ist Alder Lake noch mal unter Prime avx @ Bios Default?
 
Was jetzt noch fehlt sind passende Angebote an Mainboards mit dem B660 Chipsatz + INTEL LAN + aktuellen Audiochip ( ALC1220, ALC4080, ALC4082 ) für unter 160 € sonst legt man 20-30 € drauf und greift direkt zum Z690 mit vollem Funktionsumfang.
 
Oben Unten