AMD AMD Ryzen Threadripper 2990WX auf Lager, 2950X ab Mittwoch verfügbar

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
threadripper-2-800x450.jpg


Jakob Ginzburg Neuen News-Beitrag vorschlagen
Die ersten Shops listen AMDs „großen“ Threadripper 2990WX und geben damit die ab sofortige Verfügbar bekannt. Der kleinere, aber dadurch auch günstigere Threadripper 2950X, wird ab Mittwoch verfügbar sein. Sein Preis liegt geringfügig über 900 Euro.

threadripper-2-800x450.jpg




Unser Premium-Partner Caseking listet die Ryzen Threadripper 2990WX CPU zu einem Preis von 1.829,00 Euro auf. Der Prozessor ist in erster Linie für den professionellen Einsatz gedacht und stellt eine günstige Alternative zu den Intel XEON-CPUs dar.

In unserem Testbericht waren wir von der Leistung überaus angetan. Für klassisches Gaming ist der Threadripper 2990WX aber überdimensioniert: AMD Ryzen Threadripper 2990WX und 2950X im Test – Echter Fortschritt mit bis zu 32 Kernen

Wem die beiden CPUs zu teuer oder zu potent sind, kann auch zu der ersten Threadripper-Generation greifen. Diese gibt es derzeit mit starken Preisnachlässen im Online- sowie Offline-Handel. Folgend die aktuelle Preisübersicht*:



AMD Ryzen Threadripper 2990WX

[affbox geizhals_id="1840353" caseking_url="amd-ryzen-threadripper-2990wx-3-0-ghz-pinnacle-ridge-sockel-tr4-boxed-hpam-145"]



AMD Ryzen Threadripper 2950X

[affbox geizhals_id="1867615" caseking_url="detail/index/sArticle/50037"]



AMD Ryzen Threadripper 1950X

[affbox geizhals_id="1664849" caseking_url="amd-ryzen-threadripper-1950x-3-4-ghz-summit-ridge-sockel-tr4-boxed-hpam-140"]



*Affiliate-Links. Durch betätigen der Links unterstützen Sie Tom‘s Hardware Deutschland.

Den Originalbeitrag lesen
 
Zuletzt bearbeitet :
Gastello hat übrigens Recht, wenn man die ganze Task- und Threadgeschichte nicht allzu old-school sehen mag. Das nur mal als Einwurf...

Die KI und offene Spielewelten sind da als stark simplifizierter Vergleich durchaus brauchbar. Viele Dinge, wie Körperbewegungen (und oft auch Zerstörungen) sind nur gespcriptet, das ist leider oft genug immer noch so. Immer schön nach dem seriellen Was-passiert-dann-Prinzip. Vieles, was da als Physik firmiert, ist erst einmal gar keine und es muss (bis auf ein paar Transformationen) auch nichts berechnet werden. Zerhaut es allerdings mehrere Mauern (mit gegenseitiger Beeinflussung) gleichzeitig und der Held fliegt mit sich krümmendem Körper in Loops durch den Orbit, dann wird es schon lustiger. Das wiederum funktioniert nur in parallelen Threads wirklich sauber, denn die meisten Daten müssen gemeinsam genutzt werden. Der Sound als akustische Untermalung wird hingegen ein einem separaten Task generiert.

Kommt allerdings noch eine echte KI hinzu, deren Abläufe eigenen Regeln folgt und mit der der Held maximal noch interagieren kann, haben wir bereits echtes Multi-Tasking und nicht nur Multi-Threading. Denn selbst wenn ich die Welt kurz verlasse und dann wieder zurückkehre, lief die KI ja weiter. Das macht übrigens auch die Programmierung so verzwackt, weil (wie völlig richtig angemerkt wurde), der Speicher hier die Grenzmauer darstellt. Aber ich kann ja auch nur schlecht ins Gehirn Dritter gucken :)

Der früher gern genutzte Ansatz, alles in einer Art Master-Thread abzufeiern, der alleinig die Verwaltung von was auch immer regelt, ist bei komplexeren Anwendungen schlichtweg unbrauchbar oder zumindest nicht wirklich effizient. Wir haben früher in der Programmierung z.B. größere Renderaufgaben in echte Tasks zerlegt, um diese entweder parallel auf einem oder verschiedenen Rechner gleichzeitig ausführen zu können. Also lokal und remote im gesamten Firmennetzwerk, wo sogar Office-PCs die kleineren Happen mit berechnen konnten, wenn die Auslastung es erlaubte. Ein weiterer Task war allein dafür zuständig alles zu verteilen, zu überwachen und wieder einzusammeln. Im Hinblick auf die Effizienz war das ganze Konstrukt eigentlich eher kontraproduktiv, aber durch die Flexibilität trotzdem einer Ein-Platz-Lösung haushoch überlegen, weil es damals maximal 4-Kerner gab.

Ich möchte stark bezweifeln, dass es auch nur ein Spiel gibt, welches sich einen ganz bestimmten Kern reservieren kann. Und Windows ist meist auch der Herr über die Threadverteilung, es sei denn, man hilft von außen händisch nach.
 
Das Auslagern beschriebener Teilaufgaben auf weitere Kerne (die Anwendungen eher als CPU Ansammlung erkennen) ist dabei absolut sinnvoll, weil diese Teilaufgaben oft deutlich weniger Performance benötigen und die physikalischen Cores die verbleibenden Hauptaufgaben abarbeiten können. Daher haben Threadingprozessoren auch deutliche Vorteile unter Spielen, soweit alles richtig optimiert wurde und Ressourcen dann sinnvoll verteilt werden. Das Thema ist seit Intels erster HT Gen für Consumer aktuell und die Pipeline hat sich seit dem stark verbreitert. Es wäre ja Quatsch diese Ressource nicht zu nutzen. Wahrscheinlich hat sich ein damaliger Kernelbug unter Windows 7 in die Köpfe einiger weniger gefressen, wo es eben Probleme gab die bereitgestellte Leistung einer Multithreading CPUs auch voll auszunutzen. Microsoft behob diesen teilweise auftretenden Fehler im Nachgang mit dem SP1.

Um zum Thema zurückzukommen. Du beschreibst es ja auch beim 2990WX, indem Du auf fehlende Optimierung bei der Software hinweist. Ich weiß nicht ob es erwünscht ist, früher (auf THG) wurde die Threading Efficiency immer noch mitgetestet. Zuletzt ist eine aktuelle CPU ganz sicher eine Investition in die Zukunft, denn auch Raytracing wird von mehr physikalischen Cores profitieren und da sollte man einen Anschaffungszeitraum bei CPUs von 5 Jahre im Auge haben. Das AMD dort einen schlechten Job abliefert muss klar verneint werden.

Was den kontroversen Diskussionstil angeht, der mag nicht jedem passen. Es geht nicht um Schulkinderniveau, sondern um das Halten einer bestimmten geistigen Höhe auf aktuellem Stand. Auch das zeichnet ein Forum nach außen hin aus.
 
Ich habe gerade erklaert, warum das mit Spielen so nicht moeglich ist, bzw das du nicht unendlich Leistung aus mehr CPUs fuer ein bestimmtes Spiel bekommen kannst. Wie ich bereits schrieb kannst du Unteraufgaben auslagern. Einige Dinge asynchron ablaufen lassen. Die Spieleengine jedoch an sich, die das Rueckrat des Ablaufes bildet und von anderen Threads abhaegig ist, laesst sich nicht durch beliebige weitere Threads beschleunigen. Man kann mit mehr CPUs mehr Threads reinpacken und die Spielewelt mit Details fuettern. Das ist der Punkt.
 
Der Unterscheid ist: Igors Erklärung ist verständlich. Das hat nichts mit Schulkinderniveau zu tun, sondern mit der Fähigkeit, solch komplexe Geschichten so weit zu vereinfachen, dass auch Leute, die in der Thematik nicht mal ansatzweise drinstecken, grundsätzlich verstehen, worum es überhaupt geht.
 
Ich hab keine Ahnung, wen du mit dem 'kontroversen Diskussionsstil' beeindrucken willst und warum du Zwischenfragen als sinnloses dazwischenplappern bezeichnest. Und natürlich hast du es geschrieben, da wurde nichts editiert:
'Es geht nicht um Schulkinderniveau, sondern um das Halten einer bestimmten geistigen Höhe auf aktuellem Stand.'
Ich denke, ich werde FfFCMADs Vorschlag, den er in einem anderen Thread machte, folgen. Geht ja zum Glück wieder mit der neuen Software.
 
Ich denke mal schon, ihn verstanden zu haben. Auch deshalb habe ich es versucht, etwas allgemeinverständlicher als üblich zu schreiben, um auch den Rest abzuholen. Multithreading ist per se eine extrem praktische Geschichte, wenn man es richtig einsetzen kann. Die Entwicklung erfolgte ja auch nicht nur für die Galerie. Gottestdienste in Latein mag ja auch keiner. :D

Allerdings gehen viele Details dann doch auch über den Allgemeinbildungs-Level hinaus. Das ist erst einmal nichts Schlimmes oder Ehrenrühriges, dafür können andere halt nicht kochen oder das Auto selbst zusammenflicken. Man möge mich korrigieren, wenn ich falsch liege, aber ich habe einfach den Eindruck, dass Kontroverses hier auch deshalb entsteht, weil sehr unterschiedliche Berufsbilder aufeinander treffen, die auch einen sehr unterschiedlichen Verständnisgrad in der Tiefe mitsichbringen.

Ich bin alles andere als allwissend und freue mich auf jedes (belastbare) Argument, dass einen selbst auch weiterbringt. Es sind Dinge, die man selbst für sich hinterfragen muss und die ggf. auch noch einmal selbst zum Nachlesen zwingen. Wenn ich mir überlege, wie viele beschissene Whitepaper samt weiterführender Literatur mir meine Freizeit immer wieder kastriert haben - es hat sich trotzdem meistens gelohnt.

Kontrovers kann auch produktiv sein, wenn es (a) nicht in Beleidigungen ausartet und man sich (b) stets das Ohr für diejenigen offen hält, die es vielleicht doch noch etwas genauer wissen. Man kann also auch für sich noch etwas mitnehmen, wenn man nicht stur beim eigenen Status Quo verharrt. ;)

Ansonsten der Hinweis an den Rest:
Bitte sachlich bleiben und auch mal zurückstecken, wenn man sich nicht zu 100% sicher ist. Gilt für alle, auch für mich.
 
@Derfnam
Vorschulkinder: https://www.igorslab.de/community/threads/amd-ryzen-threadripper-2990wx-auf-lager-2950x-ab-mittwoch-verfügbar.294/#post-2911

Stand der Dinge ala M$ Dev Game Blog - nur an einem aktuellen Beispiel:

...
10 // LOW - 2 Physical Cores 4 Hyper-threads
11 LOW->Name = TEXT("LOW");
12 LOW->NumPhysicalCores = 2;
13 LOW->NumLogicalCores = 4;
14 LOW->CPUPerfIndex = 0.0;
15 // MEDIUM - 4 Physical Cores 8 Hyper-threads
16 MEDIUM->Name = TEXT("MEDIUM");
17 MEDIUM->NumPhysicalCores = 4;
18 MEDIUM->NumLogicalCores = 8;
19 MEDIUM->CPUPerfIndex = 50.0;
20 // HIGH - 6 Physical Cores 12 Hyper-threads
21 HIGH->Name = TEXT("HIGH");
22 HIGH->NumPhysicalCores = 6;
23 HIGH->NumLogicalCores = 12;
24 HIGH->CPUPerfIndex = 100.0;
25 // ULTRA - 8 Physical Cores 16 Hyper-threads
26 ULTRA->Name = TEXT("ULTRA");
27 ULTRA->NumLogicalCores = 8;
28 ULTRA->NumPhysicalCores = 16;
29 ULTRA->CPUPerfIndex = 125.0;
...

Hier steht in dem Zusammenhang viel old school Unsinn, lesen und verstehen!

Da wird nichts an irgendeinen Core getackert. Heißt wer höchste Quali will muss auch Multithreading CPUs kaufen. Das ist ein UE catabilities Beispiel, was sich auf alle verfügbaren Ressourcen und Modi bezieht. Warum ist das so schwer zu verstehen. Die Content Level und Thread Priority habe ich bereits beschrieben. Es geht nicht darum etwas in eine Engine zu packen (Pfade), allein eine stupide Qualitätssteigerung beim wiederzugebenden Content reicht schon aus. Erst das ermöglicht mit der Indexierung höhste Detailstufen wiederzugeben, nach denen alle hecheln. Wenn dort noch mehr Effekte oder ausgelagerte User Threads hinzukommen, reicht eine 8 Core CPU schon nicht mehr.

Aber bitte setzt mich ignor, dann habe ich Ruhe.
 
Sei nicht immer so empfindlich, ich muss hier noch viel mehr aushalten. Ansonsten gilt das genau über Deinem letzten Post Geschriebene :)
 
Sei nicht immer so empfindlich, ich muss hier noch viel mehr aushalten. Ansonsten gilt das genau über Deinem letzten Post Geschriebene :)
Ich will gar nicht widersprechen das auch Features mit C ++ oder Blueprints zu füllen sind und das Binning eine maximale CPU-Nutzung bei konsistenter Framerate für Spieler ermöglicht (genauso bin ich auch in die Diskussion eingesteigen). Nur nicht an einen Kern, dass ist heutzutage selbst unter Low kontraproduktiv. Der Rest geht dann auch über Plattformkonfigurationen, bei der man Leistung oder Quali opfern muss und wie Ports oder dieses Gefrickel manchmal aussehen wissen wir auch. Das kann doch im Zusammenhang mit Diskussionen zu einer 16 Core CPU überhaupt nicht zweckdienlich sein. Die braucht man nicht, taugt zu nichts, Engines binden sich eher nur an einen Core der jede Leistung bestimmt. Mit einem 6 Core sieht man an meinem Beispiel, wird Ultra oder höchstes Particleslevel schon nicht mehr möglich und die CPU zum Bottleneck. Man haut aber 1300 für eine GPU raus.

O.k. ich bin vermutlich kein Lehrer, das gestehe ich ein. Dann wünsche ich Dir weiterhin viel Spaß. Dein Fell hätte ich gerne.

(y)
 
Ich sach' mal, am Ende zählt, was hinten rauskommt.

Soll heißen: bei Grafik in minFPS bzw. eben maximal mögliches Featurelevel wenn es um sonstigen Kladderadatsch geht.

Kleiner Exkurs: ich wüsste jetzt kein Spiel, bei dem die Engine abhängig von der CPU-Performance an einer anderen Schraube als Grafiksettings dreht (vielleicht Sound? Keine Ahnung). Wäre auch vermutlich eher schwierig, andere Elemente als die Grafik bei schwachen Systemen künstlich "runter zu schrauben", insbesondere wenn es Online- oder Multiplayerkomponenten gibt. Oder werden KI-Gegner "schlechter" / weniger wenn die CPU zu lahm wird? Bisweilen gab (gibt es noch?) z.B. so etwas wie wie maximale Einheitenlimits - vermutlich eben damit das Ganze auch CPU-/rechentechnisch beherrschbar bleibt. Aber ich habe z.B. noch nicht gesehen, dass die max-Einheiten spezifisch von der CPU im System abhängig wären. Auch Schachprogramme spielen ja nicht "schlechter", sondern nur langsamer... (wobei sich bei manchen glaube ich auch die Spielstärke einstellen lässt, um die Rechenzeit zu verkürzen).

Also: was nutzt mir am Ende in der Theorie mögliche bessere Parallelisierung, wenn mir Taskmanager & Co. melden, dass ein Kern auf 100% läuft und der Rest z.B. bei ~20-30% läuft. De facto spricht dann die Vermutung dafür, dass dann Ressourcen brachliegen und da eben gerade etwas ins Limit läuft - auf diesem Kern bzw. den Kernen die bei 100% liegen. Ob ich die weiteren Ressourcen nicht benutzten kann, weil die Engine nicht hinreichend optimiert ist, oder weil sich es gar nicht optimieren LÄSST - ist mir an der Stelle quasi wumpe, so lange die Optimierung auf sich warten lässt.

Gut, kann dann auch an anderen Komponenten liegen - RAM zu lahm, Graka zu lahm, Storage zu lahm... was weiss ich. Bottlenecks zeigen sich häufig erst in der Praxis und nicht zwingend schon auf dem Papier. Diese dann genauer zu identifizieren und sogar aufzulösen ist dann erfahrungsgemäß nicht ganz trivial.

Ja - die Theorie der Lastverteilung über verschiedene echte/SMT/HT-Kerne spielt eine Rolle, wenn weitere Optimierung möglich wäre. Aber wie schon an anderer Stelle erwähnt: ich kaufe heute für heute und nicht für in 3-5 Jahren. Kommt morgen der große Sprung, bei dem z.B. 32/64 Kerne bei 2GHz (ich übertreibe) fürs Daddeln besser sind als 8/16 bei 5GHz, hurra, dann kauf ich das. Die Erfahrung zeigt aber, dass schon der Sprung im Endergebnis von 1 auf 2 und dann auf 4 bzw. 8 recht lange hat auf sich warten lassen, bis das wirklich Spaß machte.

Und dann kommen eben doch noch so lustige Hardware-Spärenzken ins Spiel, dass nicht jeder (pseudo)Kern je nach Anbindung ans Speicherinterface oder Interconnect gleich gut für jede Aufgabe ist. Halleluja. Meines Erachtens fließt da jedenfalls noch einiges an Wasser den Rhein herunter, bis bei den Games die Kernemonster ihre PS auch auf die Straße bringen. Theorie hin oder her.

So geh ich jedenfalls als informierter Laie an die Sache ran. Die Theorie lese ich gerne mit, wenn ich was spannend finde steige ich sogar tiefer ein. Aber am Ende bin ich darauf angewiesen, dass andere den/ihren Job erledigen - also das, was möglich ist, herausholen. Unter'm Strich zähl ich - was bringt mir was, hier und jetzt.

Und dann bin ich ja nur einer von vielen. In anderen Use Cases sieht die Welt ganz anders aus und die Kerne glühen alle am Anschlag. Und genau derjenige mit solchen Use Cases muss so ein Kernemonster haben. Und zwar auch hier und jetzt. :)
 
Dann wirst Du in der Abfolge jedes Jahr, ab heute eine neue CPU kaufen müssen, wer will das schon?

Die Vorabtests von SotTR gelesen? DX12 CPU Performance und dafür notwendige Core? Das ist nur der Anfang wenn Nixxes endlich mal sinnvoll auf DX12 optimiert. Frag dich mal warum, weil RT DX12 braucht?

API-/, Engine- und Driveroverhead bewirken natürlich auch eine höhere Auslastung, die dann bei wirklich guter Portierung und Optimierung auch entfällt oder mininiert werden kann. Oder was denkst Du, wie schaffen das die Konsolen die Hardwaretechnisch dem Spiele PC deutlich unterlegen sind?

Was hier gemeint war hat mit Corebinning nichts zu tun, sondern der Out of Order (issue and completion) wo sich das Threading an Pipelinestufen bindend (Instruction Fetch, Instruction Decoding, Operand Fetch, Execution, Write Back).
Anders als physikalische Kerne werden logische SMT zwar als eigenständiger Prozessor abgebildet, greifen aber auf die gleichen Datenverarbeitungseinheiten wie die physikalischen zu. SMT kann also mehr Threads auf dem gleichen Core ausführen, was eine Leistungsteigerung und damit höhere Auslastung bis zu 25% zulässt. Letztlich sind aber wirkliche Cores durch nichts zu ersetzen, weil die Pipeline mehr Task/Threads abarbeiten kann wenn darauf ankommt.

Es ist natürlich jedem sein Ding, was er meint zu brauchen oder haben zu wollen (als notwendig erachtet), mir ging es nur um das Corebinning das so nicht existiert. Die Zeiten sind lange vorbei. Der Multithreaded-Paralellisierungsgrad ist immer gleich dem oder höher, als was die Pipeline in Programmierung ohne diesen liefern könnte. Das stupide Binning würde der gesamten Metric und Efficiency des modernen Processing im Weg stehen. Dabei belasse ich es, weil es Wiederholung nicht besser macht.
 
Zuletzt bearbeitet von einem Moderator :
Ich komme aktuell mit den 4 Kernen / 8 Threats meines i7-7700K ganz gut hin und werde vermutlich in den kommenden 3-6 Monaten aufrüsten. Auf was? Moderat mehr Kerne und idealerweise gleichzeitig mehr Takt bzw. „IPC“... 6/12 oder 8/16, mal gucken wie dann Ende Oktober das Marktumfeld mit den neuen Intels aussieht.

Also: nein, jedes Jahr eine neue CPU ist für meine Zwecke eher albern, aber alle 2 Jahre haute bisher ganz gut hin, wenn man in der CPU-Consumer-Sparte bleibt. Workstation-grade CPUs wie die TR, i7/9 für S2066 oder Xeon-W oder gar SP mit S3647 mit ggf. längeren Nutzungsdauern sind mir da einfach zu teuer. Mal durchgerechnet: der 2950X kostet quasi das doppelte wie ein high end 8 Kerner, von dem intel-Lager mal ganz zu schweigen - d.h. der Lifecycle einer Konsumer-CPU darf quasi halb so lang sein (Zusatzkosten für Plattformwechsel mal außen vor).
 
Nur mal so, weil es gastellos Ausführungen ja indirekt unterstreicht:
Der 8700K gegen den 9700K - man sieht sehr schön in den Vorabtests, was mit 6/12 samt HT bzw. 8/8 ohne HT besser läuft und umgekehrt. Also einen 9700K würde ICH mir z.B. nicht kaufen, weil ich beides gern hätte. Nur dass der 9900K zu teuer ist. Am Ende ist der 2950X eine echt nette CPU, die zwar aktuell nicht immer den letzten FPS in Spielen rausquetschen kann, aber in der Summe (bei mir) im täglichen Umlauf am meisten fetzt. Je nach Softwarepark und Erfordernissen mehr oder weniger. :D

Mich haben damals alle für bekloppt erklärt, weil ich gegen jeglichen Forenrat einen Q6600 gekauft habe und keinen 8400 Dual-Core. Den Q6600 hatte ich samt OC satte vier Jahre. Am Ende hatten alle Quadcores und ich bin immer noch munter mitgeschwommen :D
 
Ich finde ja den 1920X sehr interessant, 12 Kerne zu dem Preis gibt es wohl sonst nirgends. Wenn nur die Boards nicht so teuer wären und ich eine Anwendung für so eine CPU hätte, das was ich mit einem PC mache, braucht nicht so viel Leistung. Man könnte natürlich darauf setzen, dass Spiele in Zukunft immer mehr Kerne fressen und man von so einer CPU dann 10 Jahre hat und trotzdem noch bis zum 32 Kerner aufrüsten kann. Neue Schnittstellen kann man dank vieler PCIe Lanes auch immer nach installieren, nur PCIe 4.0 und DDR5 geht dann nicht, wobei es vllt. auch dann neue Boards gibt, die die CPU noch unterstützen. Aber das ist ja auch noch in weiter Ferne und ob es überhaupt Mehrleistung bringt, ist auch noch unklar.
 
Gab es bei Ashes of the Singularity nicht die Vergleiche zwischen 4 und 8 Kern CPUs, bei denen beim 8 Kerner mehr Partikel/Effekte trotz exakt gleicher Einstellungen angezeigt wurden?
 
@Igor & @Rossi: Wenn es dann endlich mal Tests gibt von 1920 vs 2950X vs i9-9700 vs i9-9900K mit Auflösungen bei WQHD und 4K, um mal die real auftretenden Effekte zu zeigen, wo es spannend wird... :D
 
Auch - aber „nur“? ;) Und auch mit den kommenden?
 
Bei WQHD und UHD rennt man aber eher mal ins GPU-Limit...
Genauso ist es. Zumindest fast immer. Deshalb ist es für Leute wie mich, die an einem Ultra-HD Monitor hängen, eher Rille, ob nun so ein auf 5 GHz hochgerotzter i7-8700K in der Briefmarkenauflösung 5 FPS mehr schafft. Ich zocke mit meinen systemgegebenen 60 Hz und das reicht mir auch. Aber ich habe letztens testweise Scum gezockt - ruckelfrei und auf Max - nebenher aber noch ein längeres Video konvertiert und eine VM laufen lassen. DAS ist mal geil und spart mehrere PCs. :D
 
Oben Unten