Warum ist NSX für Dich relevant? Hast Du zu Hause etwa eine 20k-CAD/CAM-Software auf deinem PC laufen? Abgesehen davon ist der Graph zu beachten, der Zahlenwerte über eine Skala von 20 bis 24 ausweist. Rein zahlentechnisch ist der 9900K gerade mal +8,3 % schneller als der 3700X. Hinzu kommt, dass hierbei typischerweise zertifizierte Hard- und Software verwendet wird, sodass der Hersteller durchaus eher Intel-Hardware bzgl. seiner Optimierungen im Blick hat. Unterm Strich nichts besonderes. Und gerade SNX ist ohne zertifizierte Treiber uninteressant. Ein i7-7700 mit einer GTX 1070 Ti schafft hier auch nur etwa 18 Punkte. Bereits eine Quadro P1000 schafft etwa 110 Punkte und eine Radeon Pro WX 9100 (Vega 64) etwa 250 Punkte, die eine Quadro P6000 noch einmal mit etwa 460 Punkten deutlich überbietet. (Dagegen mit einer Titan RTX würdest Du voraussichtlich wieder bei um die 25 Punkte landen aufgrund des GeForce-Treibers und trotz der 2600 € für die Grafikkarte.)
Der Performance-Hit fürs Gaming auf Intel-CPUs ist deutlich geringer. Große Prozentwerte sieht man nur bei umfangreichen Kontextwechseln (bspw. auf das I/O-Subsystem), was die Mitigations besonders fordert, so bspw. bei DB-Workloads u. Ä. Siehe die folgenden Linux-Benchmarks für eine grobe Abschätzung:
Gaming &
Various.
Sieht man sich seine gelbe Tabelle an, dann sind die Ergebnisse aber unspektakulär. Bei dem einen (oder den zwei) 3900X die er hatte, fehlten 100 MHz zu den offiziellen 4,6 GHz. Rechnerisch fehlen also +2,2 % Takt, die nicht einmal linear auf die Leistung skalieren ... extrem wenig, bis irrelevant, zumal das der oberste Wert ist, den die CPUs grundsätzlich nur extrem selten erreichen.
Zudem erklärte er in seinem Video auch etwas von einem Definitionswechsel bei der Takangabe seitens AMD. Angeblich bezeichnet der Maximaltakt jetzt den tatsächlich maximal möglichen Takt, d. h. etwas wie XFR wird auch nicht mehr darüber hinaus takten können. Verwunderlich ist das jedoch auch nicht, da die CPU lediglich mit 105 W TDP angegeben wird und AMD hier zudem eher eine maximale TDP spezifiziert (während Intel mit der TDP eher einen typischen/durchschnittlichen Wert beziffert). TSMCs 7FF ist zwar effizienter, Wunder vollbringt es dennoch nicht. - 12 Kerne für den Preis, ist doch ok, und vollkommen konkurrenzfähig. Dass die AMD-CPUs Intel nicht in "Grund und Boden stampfen" würden, war doch schon vorab klar.
Und wie
HerrRossi schrieb, bei Optimum Tech hat die CPU den Maximaltakt durchaus erreicht. Dass der maximale Turbo-Takt nahezu irrelevant ist, weil er kaum anliegt ist ein anderes Thema (ebenso wie der 4,7 GHz All-Core-Takt beim 9900K reichlich irrelevant ist). Performancerelevant sind vielleicht die 4,4, GHz. Schön sieht man das im Video bei
Optimum Tech mit Blender als Testvehikel. Alle Cores takten dauerhaft bei "nur" 4,0 - 4,1 GHz und erst am Ende, als sich die ersten Threads beim Renderabschluss der Szene verabschieden, takten einige verbleibende Cores hoch und 4 erreichen auch mal kurzzeitig die 4,6 GHz (während einige andere Cores deutlich runter takten).
Der Speicherdurchsatz ist sehr gut und kann sich problemlos mit Intel messen. Dass die Latenz mit etwa 65 ns zu 45 ns schlechter als bei Intel ist, ist ein erwartbarer Kompromiss, der auf den I/O-Chip zurückzuführen ist. Im Gaming ist der Ryzen 3000 auch bei Golem langsamer, legt jedoch ggü. dem 2700X auch deutlich zu. In bspw. Blender und Cinema R20 kann er über alle Kerne seine MP-Fähigkeiten ausfahren, selbst als 3700X ... und das ist auch das derzeit größte Problem beim Gaming, denn hohe Kernzahlen werden hier derzeit nur selten unterstützt, sodass auch Intels kommender
Comet Lake weiterhin eine valide Option bleiben wird, wenn man keinen großen Wert auf Perf/Watt legt (und deren Preisgestaltung muss man abwarten
).
Und 4 Speicherkanäle werden dem X590 vorbehalten bleiben. Wo sollten da beim X570 und den zugehörigen Boards die Leitungen für herkommen? Abgesehen davon dürfte der I/O-Chip wahrscheinlich auch nur ein 2-Kanal-Speicherinterface unterstützen. Bei Threadripper wird voraussichtlich der I/O-Chip des Epyc verwendet werden (nicht nur wegen des Speichers, sondern auch weil der mehr Chiplets anbinden kann).
Nahezu ausgeschlossen. Dass der Yield so schlecht ist, dass bis zu 4 Cores defekt sind pro Chiplet, bzw. dass man bis zu 4 Cores freiwillig deaktiviert, dürfte wohl ausgeschlossen sein, zumal auch die Fertigung des Packages geringfügig teuerer sein dürfte (3 Chips durchkontaktieren vs. 2 Chips). (Und man müsste die Kunden mit einem weiteren Modell "verwirren", bspw. einem 3900XC, wobei das C dann für zusätzlich mehr L3-Cache steht. Analog zu Intel würde man dann für den auch etwas mehr Geld nehmen
)
Zudem stellt sich grundlegend die Frage, wie AMD solche unvollständigen Chiplets bei entsprechenden CPU-Modellen handhaben wird. Da ein CCX über 16 MiB L3 verfügt, wären für den 3900X zwei Varianten denkbar:
- symmetrische Chiplets: zwei CCX pro Chiplet mit jeweils 3 aktiven Kernen
- asymmerische Chiplets: ein CCX mit nur 2 Kernen, ein CCX mit 4 Kernen (jeweils 2x)
Bei der asymmetrischen Variante hätten Threads auf dem 2er-CCX bei bestimmten Workloads einen beträchtlichen Vorteil, da hier 8 MiB L3 pro Kern zur Verfügung stehen würden. Dieser Umstand könnte dem Konsumenten jedoch nur schwer zugänglich gemacht werden und ein Bestücken nach freiem Gusto erscheint eher unwahrscheinlich, sodass ich (vorsichtig) davon ausgehe, dass AMD nur symmetrisch bestückte Packages fertigen wird.
Mit einer Beschränkung auf 6-Kern- und 8-Kern-Chiplets könnte AMD symmetrische Modelle mit 12, 16, 24, 32, 36, 48 und 64 Kernen anbieten.