Frage Welche CPU (min 10C/20T - max. 12C/24T) mit 256GB RAM und hoher Fließkommaperformance

anfreund

Mitglied
Mitglied seit
Nov 11, 2021
Beiträge
30
Bewertungspunkte
4
Punkte
8
Hallo,

das Thema steht ja im Wesentlichen schon in der Überschrift. Für meine Firma suche ich eine neuen Rechenknecht. Aufgrund der Softwarelizenzen benötige ich max. 12C/24T, da ich nur auf 10-Kernen rechnen kann. Die durchgeführten Simulationen selbst basieren hauptsächlich auf Fließkommarechnungen. Eine GPU (Titan V) wird davon einen Teil übernehmen. Allerdings hab ich auch Szenarien, wo die Programme GPGPU nicht unterstützen und ich reine CPU-Leistung brauche. Da die berechneten Modell recht groß sind, sollen 256GB RAM zum Einsatz kommen.
Im Moment nutze ich ein System aus 2x Xeon E5 2687W v2 mit 192GB RAM und bin da teilweise am Limit. Jetzt benötige ich Empfehlungen, welche CPU hier sinnvoll wäre.

Danke
 
Die Werte hat ich bereits im Beitrag #10 als Grundlage. Allererdings sieht das für den Epyc 73F3 bzw. 7343 schon wieder ganz anders aus.

Bzgl. Xeon 6244:
Das ist ja mit Cascade Lake der gleiche Kern wie der W-2265, nur das letzterer ein deutlich höheren Takt hat und sogar verfügbar ist. Für meine Fälle ist ein Single Socket System zu bevorzugen. Die 6 Speicherkanäle bei den Xeon Gold auf Cascade Lake Basis sind blöd und der W-2265 hat nur 4 Speicherkanäle, was auch blöd ist. 8 wären mir lieber. Also Epyc, der ja wiederum mit der Intel MKL Probleme macht.

Aktuell am liebsten wäre mir Stand jetzt der W-3323. Ist sogar verfügbar, aber da werd ich das System selbst konfektionieren müssen...

Vielleicht noch etwas Hintergund zum Anwendungsfall. Es geht um FEM-Berechnungen. Dort benötige ich zum einen natürliche eine hohe Speicherbandbreite und eine CPU, deren Leistung recht gut über die Kernanzahl skaliert, die also pro Kern ein gute Leistung hat und einen hohen Basistakt aufweist. Weiterhin gibt es Anwendungfälle (z.B. Kontaktiterationen), die nur auf einem Kern laufen - dort ist ein möglichst hoher Turbo sinnvoll.
Wenn du die Intel MKL benötigst, wirst du leider immer bei Intel Hardware landen.

Bei AMD gibt es auch eine math library: https://developer.amd.com/amd-aocl/blas-library/
 
Bei 256 Gb im Pflichtenheft scheidet ja alles auf Konsumer Plattformen komplett aus. Da wird das Kochbuch schmal und teuer geworden sein.
Von der Vernunft her am ehesten ein sTRX oder ein Xeon System, wenn man So 2066 (vernünftigerweise) mal beiseite lässt, denn die Single Core IPC ist bei Letzterem eher, na ja.
 
Kommt auf die Anwendung an IPC ist ja nicht softwareneutral wer weis auf was seine Simulation so bevorzugt.
 
Kommt auf die Anwendung an IPC ist ja nicht softwareneutral wer weis auf was seine Simulation so bevorzugt.
IPC fängt beim Handischen Optimieren an.

Wenn mein Compiler für meine Software/Hardware Kombination Effizienteren Code erzeugt, liegt es daran das ich nur Quell Code lade und sie auf meinem Ziel System Compilieren lasse. :)
 
Für meine Firma suche ich eine neuen Rechenknecht. Aufgrund der Softwarelizenzen benötige ich max. 12C/24T, da ich nur auf 10-Kernen rechnen kann. Die durchgeführten Simulationen selbst basieren hauptsächlich auf Fließkommarechnungen.
Warum so geheimnisvoll? Einfach mal konkret die Software nennen, dann kann man das optimale Setup empfehlen.

Fließkommarechnungen, äh ja, so gut wie alles basiert auf Fließkommarechnungen, ungenauer geht es nun wirklich nicht mehr.
 
Nachdem sich @anfreund hier wohl eher nicht mehr meldet, scheint das Thema wohl zu einem befriedigenden Abschluss gekommen zu sein - für ihn zumindestens. Aber für die unter uns, die hier Hirnschmalz investieren ist es etwas frustrierend, wenn man gar kein Feedback bekommt. Mich eingeschlossen, ich bin da aber wohl noch anders erzogen. Nagt halt etwas an der Motivation, sich fürderhin in die Probleme Anderer reinzuknien.
 
naja die Frage ist zum Großteil auch eher: warum lebt der Thread überhaupt noch?
Wenn der Threadersteller am 12.Nov2021 schreibt, daß er sich aus steuerlichen Gründen noch in diesem Jahr (also 2021) neue hardware beschaffen muss, dann helfen ihm gute Ideen, die Mitte Januar '22 formuliert werden, ja ohnehin nicht...und er rechnet vermutlich auch gar nicht mehr damit, daß sich da überhaupt noch einer drum kümmert.
Klar wäre eine kurze Rückmeldung zum oder kurz nach Jahreswechsel nett gewesen, da bin ich absolut bei Dir!
...aber andererseits würd ich an seiner Stelle auch bezogen auf alle Beiträge ab #23 (eigentlich sogar nach 12.Nov...26.Dez half ihm wohl auch nicht mehr) denken:
"watt wollen die Typen noch von mir? naja lass sie fachsimpeln" 🙃
 
Warum so geheimnisvoll? Einfach mal konkret die Software nennen, dann kann man das optimale Setup empfehlen.

Fließkommarechnungen, äh ja, so gut wie alles basiert auf Fließkommarechnungen, ungenauer geht es nun wirklich nicht mehr.
Abaqus nennt sich die Software, da braucht es keine Geheimnisse. Nur arbeiten hier eben nicht so viele damit. Deswegen die Umschreibung.

PS: Ich fahr jetzt eine Doppellösung. Berechnungen mit wenig Speicherbedarf (<128 GB) laufen auf einem i9-13900k mit 128GB DDR5. Wenn eich mehr Speicher brauche, dann bleib ich auf meinem alten System (2x Xeon E5 2687v2 und 192GB RAM...

Irgendwann ist ja auch die Sapphire Rapids Plattform verfügbar und dann tausch ich das alte System aus.
 
E5 2687v2 wäre mir viel zu teuer. Sehr langsam, ~ 450 W und dazu als Dualsystem für FEM eher ungeeinet und somit einfach nur ineffizient. Für FEM, wie Abaquas, besser nur eine einzelne CPU mit sehr vielen Kernen verwenden.

Mit wieviel MHz laufen denn die 128 GB beim 13900K ?
 
E5 2687v2 wäre mir viel zu teuer. Sehr langsam, ~ 450 W und dazu als Dualsystem für FEM eher ungeeinet und somit einfach nur ineffizient. Für FEM, wie Abaquas, besser nur eine einzelne CPU mit sehr vielen Kernen verwenden.

Mit wieviel MHz laufen denn die 128 GB beim 13900K ?
Das Dualsystem hab ich schon seit Jahren und das läuft ziemlich gut, kühl und stabil. Grund dafür war/ist die Nowendigkeit für viel RAM und dazu brauchts halt ein Board mit genügend Sockeln. Und schon sind wir bei einem Dual Xeon angekommen.
Die 128 GB laufen beim 13900K laut CPU-Z bei 4200...4400 MHz.

PS: Viele Kerne bringen bei FEM oft genug nicht viel. Die Rechenzeit skaliert immer schlechter mit zunehmender Kernanzahl. Und die Lizenzen dafür sind ziemlich teuer.
 
Die 128 GB laufen beim 13900K laut CPU-Z bei 4200...4400 MHz.

Geht da auch mehr, schon probiert?

PS: Viele Kerne bringen bei FEM oft genug nicht viel. Die Rechenzeit skaliert immer schlechter mit zunehmender Kernanzahl. Und die Lizenzen dafür sind ziemlich teuer.

Ja, aber eine CPU mit gleicher Kernanzahl wie ein Dualsystem hat nur 50% des Strombedarfes und ist auch noch schneller, somit stets effizienter. Dual Systeme nehme ich nur noch für CFD. Ansonsten wird das schnell ineffizient und teuer. So eine Stromrechnung von über 3000 Euro ist nicht gerade erfreulich und ein vielfaches der Anschaffungskosten.

Singel Socket (Epyc Xeon) geht problemlos bis 1 bis 1,5 TB Ram.
 
Ja, aber eine CPU mit gleicher Kernanzahl wie ein Dualsystem hat nur 50% des Strombedarfes und ist auch noch schneller, somit stets effizienter.
Das setzt voraus, dass es eine einigermaßen gleichwertige CPU mit mehr Kernen gibt. Beim 2687W v2 gibts nix mit mehr Kernen und einigermaßen gleicher Taktfrequenz (3,4 Base und 4,0 Turbo). Das Dualsystem kombiniert halt elegant die Forderung nach viel Speicherbänken und hoher Taktfrequenz.
Vegleichsrechnungen (sowohl implizit auch auch explizit) mit einem 2697 v2 (12C/24T) waren bei 10 genutzten Kernen aufgrund des geringeren Taktes langsamer. Die Z620 mit 2 x E5-2697v2 ist meine Backup-Maschine, auf der ich Softwareupdates ausprobiere bevor sie ins Produktivsystem gehen.

Der 13900K läuft seit gestern prima. Die Rechenzeiten sind um Faktor 2,5...3,64 gesunken. Das ist enorm. Ob ich jetzt noch parallel in einen Ryzen/Epyc/Xeon investiere, weiß ich im Moment nicht. Ich schu mir mal die Entwicklung der Modellgrößen an und muss dann vielleicht erstmal mit den Rechenzeiten leben. Interessant wäre ein Vergleich mit der letzten Xeon-Generation (z.B. Platinum 8380H, aber die Preise dafür sind exorbitant)...

Was ich leider nicht berücksichtigt hatte: die Kombinatin 13900K auf dem Sockel 1700 kann nur 16+4 PCIe Lanes. Das ist verdammt wenig im Vergleich zum alten Xeon, der 40 hatte. Das schränkt die Bestückung mit NVMe-SSDs und Grafikkarten erheblich ein. Geplant waren 3 x NVMe + 2 GraKas. Davon bleiben 2 x NVMe + 1 GraKa übrig. Naja, die Rechenzeiten haben sich mit der zweiten GPU (Quadro K6000) nur noch geringfügig verbessert. Hier wird es wohl doch noch eine schnellere Karte werden müssen (Titan V oder GV100).
 
Zuletzt bearbeitet :
Das Sapphire Rapids Line-up hat mich bis jetzt nicht wirklich überzeugt. Gerade die All-Core-Turbotakte sind echt niedrig. Die HPC-Varianten zielen irgendwie nur auf extrem kernlastige Anwendungen. Ich hätte mit für den HPC-Bereich irgenwas in Richtung 13900K ohne E-cores und dafür mit 12 oder 16 P-cores sowie 40 PCIe-Lanes gewünscht.
Einzig interessant scheint mit der SPR Gold 6444Y (4GHz all core bei 16C/32T). Der Preis von $3622 geht auch noch irgendwie. Mal beim Epyc schauen... Hmm die 9x74F schauen gut aus. Dort passen Taktfrequenz und Kernanzahl. Jetzt hängts nur noch am Preis und der Verfügbarkeit.
 
Das setzt voraus, dass es eine einigermaßen gleichwertige CPU mit mehr Kernen gibt. Beim 2687W v2 gibts nix mit mehr Kernen und einigermaßen gleicher Taktfrequenz (3,4 Base und 4,0 Turbo). Das Dualsystem kombiniert halt elegant die Forderung nach viel Speicherbänken und hoher Taktfrequenz.

Der 2687W v2 hat gerade mal acht Kerne, das ist nichts. Einfach ein spott günstigen Epyc mit 16 Kernen, ist um ein vielfaches schneller als das Dual 2687W v2 bei bis zu 1,5 TB Ram Kapazität und einem Verbrauch von gerade mal ~ 200 W als Gesamtsystem.

E5 2xxx v 0 bis 2 sind totale Krücken.

Und das single CPU Epyc 7551 System ist dem dual CPU Epyc 7301 überlegen. Außer man nimmt einen direkten Solver (sparse Solver)





Case V18cg-1
Power Supply Module
Static, linear, thermal
Solver "JCG, real value, symmetric"
5266730 nodes ; 2303613 elements
Memory total in MB-> 37000



2x E5 2670 0 @ 3 Ghz // pc 12800

Multiply with A Memory Bandwidth : 57.99 GB/s
Multiply with A MFLOP Rate : 6.23 GFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 567.13 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 568.62 secs


Epyc 7551 @ 2,55 Ghz

Multiply with A Memory Bandwidth : 101.03 GB/s
Multiply with A MFLOP Rate : 10848.33 MFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 334.27 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 334.49 secs


2x Epyc 7301 @ 2,7 Ghz


TOTAL PCG SOLVER SOLUTION CP TIME = 367.422 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 367.438 secs

----------------------------------------------------------------------------





Case V18cg-2
Tractor Rear Axle
Static, linear, structural
Solver "PCG, real-value, symmetric, msave,off"
12329235 nodes ; 2366046 elements
Memory total in MB-> 39000


2x E5 2670 0 @ 3 Ghz // pc 12800

Multiply with A Memory Bandwidth : 104.42 GB/s
Multiply with A MFLOP Rate : 11.21 GFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 320.83 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 324.05 secs


Epyc 7551 @ 2,55 Ghz

Multiply with A Memory Bandwidth : 173.46 GB/s
Multiply with A MFLOP Rate : 18625.56 MFlops
Solve With Precond MFLOP Rate : 14404.20 MFlops
Precond Factoring MFLOP Rate : 32734.42 MFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 182.94 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 183.33 secs


2x Epyc 7301 @ 2,7 Ghz

Multiply with A Memory Bandwidth : 166.65 GB/s
Multiply with A GFLOP Rate : 17.89 GFlops
Solve With Precond GFLOP Rate : 13.73 GFlops
Precond Factoring GFLOP Rate : 35.39 GFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 189.09 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 189.42 secs




Case V18sp-4
Turbine
Static, nonlinear, structural, 5 cumulative iteration
Solver "sparse, real-value, symmetric"
1063750 nodes ; 726480 elements


2x E5 2670 0 @ 3 Ghz // pc 12800


CPU Time 1 iteration(sec) =
ELAPSED Time 1 iteration(sec) = 670.812
ELAPSED Time 3354.06


Epyc 7551 @ 2,55 Ghz

Memory total in MB-> 63824

CPU Time 1 iteration(sec) = 364.688
ELAPSED Time 1 iteration(sec) = 364.970
ELAPSED Time 2016.406

computational rate (mflops) for solve = 16502.2230 // 16558.9734
effective I/O rate (MB/sec) for solve = 62873.4690 // 63089.6879


2x Epyc 7301 @ 2,7 Ghz


CPU Time 1 iteration(sec) = 294.906
ELAPSED Time 1 iteration(sec) = 295.166
ELAPSED Time 1600.359
 
Zuletzt bearbeitet :
@hansdampf Deine Datenerhebung zeigt ziemlich gut, dass unter Ansys die Epyc den alten Ivy Bridges überlegen sind. Die Naples-Architektur ist halt deutlich jünger. Das Problem mit Deinen pauschalen Aussagen ist einfach, dass sie nicht so einfach übertragbar sind!
Unter Abaqus laufen die Naples "besch***en"! Es gibt Probleme mit den Numa-Knoten. Was bei CFD und Crash (Explizit) noch ganz gut funktioniert, läuft bei Standard (Implizit) miserabel. Deswegen hatte ich auch den Epyc aus den Augen verloren. Tatsächlich waren die E5 v2 hier schneller (und sie waren vorhanden). Zudem läuft die Kombi mit einer K6000 bzw. Titan Black (im anderen System) wirklich gut und verkürzt die Rechenzeit um Faktor 1,5...1,8. Die Rome Epyc und die Milan sind dagegen als preiswertes Nebenbeisystem durchaus interessant...
Aber es bringt ja nix, auf der vermeintlichen Schlechteignung eines alten Systems herumzureiten, denn solche Krücken sind sie nun auch wieder nicht. Denn folgender Fall aus deinem link entspricht weitestgehend meinen üblichen Problemstellungen:

Case V18sp-4
Turbine
Static, nonlinear, structural, 5 cumulative iteration
Solver "sparse, real-value, symmetric"
1063750 nodes ; 726480 elements

in core solution

---------------------------------------------------------------------------------------------------------------------------

2x E5-2650V2
@ 3Ghz (16cores total) (For some reason my CPUs stopped at 3GHz max and didn't go to 3.2GHz)
128GB DDR3 RAM (not perfectly populated due to MB issues)

Total memory allocated for solver = 61088.564 MB

ITER 1 / DSP Matrix Solver / CPU Time (sec) = 219.969
ITER 1 / DSP Matrix Solver / ELAPSED Time (sec) = 220.744
EQUIL ITER 1 CPU TIME = 231.7
ELAPSED TIME = 232.6

TOTAL ELAPSED TIME FOR 5 iterations = 1597.000

Equation solver computational rate: 151.0 Gflops
Equation solver effective I/O rate: 2.4 GB/sec

-----------------------------------------------------------------------------------------------------------

If we compare this to Duke711's benchmark using 2x Epyc7301 we will be a bit shocked.

2x Epyc 7301 @ 2,7 (32cores total)

CPU Time 1 iteration(sec) = 294.906
ELAPSED Time 1 iteration(sec) = 295.166
ELAPSED Time 1600.359

und noch ein weiterer Vergleich...

Epyc 7551 @ 2,55 Ghz

Memory total in MB-> 63824

CPU Time 1 iteration(sec) = 364.688
ELAPSED Time 1 iteration(sec) = 364.970
ELAPSED Time 2016.406

So und nun nehmen wir mal den E5 2687W v2 mit Base Takt 3,4 GHz (4,0 turbo) - dann sehen die alternativen Epycs nicht mehr gut da.
 
Zuletzt bearbeitet :

@anfreund


Wobei ich bezweifel dass die 1597 Sekunden für den 2x E5-2650V2 stimmen. Denn der E5 2650V2 ist bei gleichem Speichertakt nicht schneller als das E5 2670V0 Modell (schon getestet) Ich habe selbst 2x E5 2695 V2 im Einsatz und das verkaufte Epyc System war auch mit dem sparse Solver (Turbine Static, nonlinear, structural, 5 cumulative iteration) deutlich schneller. Numa Probleme gab es bezüglich CFD und dem Sparse Solver keine. Aber man muss ja auch kein Zen 1 (Naples) Eypc nehmen.



Auch sonst erkenne ich bei keinem Solver PCG / JCG / Sparse irgendwelche Numa Probleme:


Kann mir also nicht vorstellen das es bei Abaqus anders sein soll.


Für Dich sind eigentlich nur die PCG / JCG Ergebnisse wichtig, denn wenn die langsame K6000 die Ergebnisse beschleunigen kann, kann es sich nur um einen indirekten Solver (Ansys PCG) handeln. Der PCG Solver (indirekte Solver) wird/kann auch für transient (implicit) nonlinear structural verwendet werden, also dein Anwendungsfall.

Case V18cg-2
Tractor Rear Axle
Static, linear, structural
Solver "PCG, real-value, symmetric, msave,off"
12329235 nodes ; 2366046 elements
Memory total in MB-> 39000


2x E5 2670 0 @ 3 // pc 12800

Multiply with A Memory Bandwidth : 104.42 GB/s
Multiply with A MFLOP Rate : 11.21 GFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 320.83 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 324.05 secs


2x E5-2650V2 @ 3Ghz


Multiply with A Memory Bandwidth : 86.31 GB/s
Multiply with A MFLOP Rate : 9.27 GFlops
Solve With Precond MFLOP Rate : 7.87 GFlops
Precond Factoring MFLOP Rate : 30.77 GFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 373.69 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 375.29 secs


Epyc 7551 @ 2,55

Multiply with A Memory Bandwidth : 173.46 GB/s
Multiply with A MFLOP Rate : 18625.56 MFlops
Solve With Precond MFLOP Rate : 14404.20 MFlops
Precond Factoring MFLOP Rate : 32734.42 MFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 182.94 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 183.33 secs


2x Epyc 7301 @ 2,7


Multiply with A Memory Bandwidth : 166.65 GB/s
Multiply with A GFLOP Rate : 17.89 GFlops
Solve With Precond GFLOP Rate : 13.73 GFlops
Precond Factoring GFLOP Rate : 35.39 GFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 189.09 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 189.42 secs


Core-7 6850k @ 4,0:

Multiply with A Memory Bandwidth : 86.34 GB/s
Multiply with A MFLOP Rate : 9270.32 MFlops
Solve With Precond MFLOP Rate : 8265.42 MFlops
Precond Factoring MFLOP Rate : 45436.20 MFlops
TOTAL PCG SOLVER SOLUTION CP TIME = 373.34 secs
TOTAL PCG SOLVER SOLUTION ELAPSED TIME = 373.88 secs


Numa Probleme kann man hier wunderbar zwischen den Vergleich 2x Epyc 7301 @ 2,7 und Epyc 7551 @ 2,55 sehen. Denn jedes Dual System hat faktisch Numa Probleme, weil die Interlink Verbindung von CPU zu CPU der Flaschenhals ist. Und wie man sieht, hat diese keine großen Auswirkungen, aber das Dual System ist bei gleicher Kernanzahl stets langsamer.

Ich glaube bei deinem Test muss gehörig was schief gelaufen sein. Denn ein Epyc der ersten Generation ist trotz eventueller Numa Problematik einem alten E 5 2xxx V2 mit DDR 3 bei weitem überlegen. Das hat nichts mit Abaqus zu tun, denn die Solver sind fast ähnlich, denn in Ansys kann ich auch auf den Abaqus Solver umschalten und es gibt kaum nennenswerte Unterschiede.
 
Die Solver sind sich eben nur "fast" ähnlich. Insofern ist die Diskussion hier recht müßig. Was in Ansys gut läuft, das muss es eben nicht in Abaqus. Das hab ich jahrelang im Kollegenumfeld mit identischer Hardware erleben können. Unter Anys waren insbesonders geometrisch und werkstofflich nichtlineare Analysen grottenlangsam. Das Gleiche erlebe ich im Moment auch bei Optistruct und Abaqus. Da liegen bei einem portierten Modell die Rechenzeiten meilenweit auseinander - auf vergleichbarer Hardware.

Mal zur "langsamen" K6000. Was empfiehlst Du denn als Alternative? GP100 und GV100 hab ich bereits auf dem Radar...
 
Die Solver sind sich eben nur "fast" ähnlich. Insofern ist die Diskussion hier recht müßig. Was in Ansys gut läuft, das muss es eben nicht in Abaqus. Das hab ich jahrelang im Kollegenumfeld mit identischer Hardware erleben können. Unter Anys waren insbesonders geometrisch und werkstofflich nichtlineare Analysen grottenlangsam. Das Gleiche erlebe ich im Moment auch bei Optistruct und Abaqus. Da liegen bei einem portierten Modell die Rechenzeiten meilenweit auseinander - auf vergleichbarer Hardware.

Das Problem ist, das man nicht lineare Analysen, dann auch noch transient, nicht miteinander vergleichen sollte.

Denn die Lösungszeit pro Iteration ist meistens nicht reproduzierbar. Zum Vergleich nimmt man linear statische Analysen mit dem gleichen Solver.
Ich kann das Testcase "Case V18sp-4 Turbine Static, nonlinear, structural, 5 cumulative iteration" 10 mal wiederholen und habe 10 mal verschiedene Ergebnisse, teilweise mit doppelter Lösungszeit.


Wenn man aber die Numa Problematik testen möchte, dann eignet sich wunderbar:


Oder Passmark.


Gerne mal die Ergebnisse eines Epyc Naples mit einem E5 2xxx V2 vergleichen.

Mal zur "langsamen" K6000. Was empfiehlst Du denn als Alternative? GP100 und GV100 hab ich bereits auf dem Radar...

A100

Ansonsten wer Geld sparen möchte nimmt sowas hier:

 
Oben Unten