AMD AMD Ryzen 3900X und 3700X im Test | igor´sLAB

Domme

Mitglied
Mitglied seit
Jan 17, 2019
Beiträge
43
Bewertungspunkte
17
Punkte
8
Ryzen-2-cover-893x502.jpg


Domme submitted a new blog post

Continue reading the Original Blog Post.
 
@Derfnam
Wie immer absoluter Unsinn, den du von dir gibst. Aber man ist ja von dir nichts anderes gewöhnt.

Erst einmal kommt schon fast der 3700x an den 9900k heran und das ohne dieselbe Ghz Leistung bringen zu müssen. Zum anderen ist Intels 14nm++++ sowas von optimiert, das es ein Ding der Unmöglichkeit ist, das ein neuer Prozess dies auf Anhieb schaffen könnte diesen zu überholen. Und dafür schlägt sich der relativ neue 7nm Prozess sehr gut. Gerade auch in Bezug darauf, das man keine 5Ghz benötigt um eben auf Augenhöhe zu sein im Gaming.

Aber dies wird ja komplett ignoriert und du lässt einen rant nach dem anderen zu allem ab was von AMD kommt. Du bist genauso ignorant und verbohrt wie so viele andere Fanboys in all den anderen Foren. Kauf einfach dein geliebtes Intel (was ja keine schlechten Produkte sind) und las doch alle anderen in Ruhe mit deinem Hatemist. -.-

@Case39
Ich sehe es anders, leb damit. Und was du für kompletten Quatsch hältst, stört mich da auch weniger. ;)
 
Ja so ganz rund ist das noch nicht. Die neuen CPUs laufen schon ab Werk an der Kotzgrenze um 1,4V und trotzdem werden selbst auf nur einem Kern die max. Boost-Taktraten kaum erreicht. Allerdings sollen die ganzen Testexplare schon einige Wochen alt sein. Mal schauen ob neuere Exemplare besser laufen und neue bios und Agesa noch was bringen.
 
Was einige hier und in anderen Foren außer Acht lassen, ist mit welchen Ressourcen AMD diese Leitung vollbracht hat und vollbringt - ist wie David und Goliath.
Sie machten aus der Not (chronisch klamme Finanzen) eine Tugend (simpel skalierbare CPU-Designs mit wiederverwertbaren Bauteilen). In dieser Hinsicht wahrlich Chapeau auch von meiner Seite!
Allerdings interessiert das wohl die wenigsten Endanwender außerhalb von Nerd-Foren, wie eine Firma das bewerkstelligt hat. Wobei man ja durchaus festhalten kann, dass sich AMD auf die Doppel-Elefantenhochzeit mit Intel und Nvidia selbst eingeladen hat :ROFLMAO:
 
Einerseits ist es etwas schade, dass AMD noch nicht ganz an Intel beim Spielen rangekommen ist und die Mainboardpreise jenseits von Gut + Böse (inkl. Miefquirl) liegen. Aber anderseits bekommt man mit einem 3700X + einem X470 Board ein verdammt gutes Pakt geliefert. Leider liegt hier noch viel im Dunkeln (Speicher, Kompatibilität X470/B450 usw.) so muss ich noch etwas warten.

Kompliment an @Igor Wallossek für die vielen guten Tests die Woche :)
 
Das stellt auch niemand in Frage!!! Erstmal sacken lassen und abschätzen.
Zum 3800X: Kann es womöglich sein, das er aus zwei Chiplets besteht?
Die TDP lässt es vermuten...mehr Fläche zum Abtransport der Wärme!?
 
Unter Anbetracht aller Umstände doch gar nicht so mies.

Für alle Stromnörgler dann zu Gunsten vom AMD ;)

Auch wenn hier heute kein Test zum 3600(X) existiert, so dürfte der 6c/12t Part wohl der wahre Gewinner dieser Iteration sein.

Nicht für jene die bereits ein modernes Intel System haben, für alle anderen, gerade Gen 1 Besitzer, durchaus lukrativ.
 
Was einige hier und in anderen Foren außer Acht lassen, ist mit welchen Ressourcen AMD diese Leitung vollbracht hat und vollbringt - ist wie David und Goliath.
Es stellt sich auch die Frage, was erwartet wird. Der Riese Intel optimiert seit Nehalem vor fast 10 Jahren die Core i-Architektur, mal mit größeren, mal mit kleineren Änderungen, die komplette Infrastruktur rund um den PC war auf diese Intel Architektur ausgelegt (Windows, Compiler, Engines). Jetzt kommt der Zwerg AMD an und zwingt Intel seit 2,5 Jahren zu immer verzweifelter wirkenden Aktionen, wie zB. teuerste Serverchips bis an die Kotzgrenze zu übertakten und als Desktop-CPU "billig" zu verhökern. Ich persönlich finde das eine Riesenleistung vom oft totgesagten Underdog AMD und würdige das auch mit einem Kauf einer solchen CPU, auch wenn die ein paar Prozent in der Gamingleistung hinten liegt. Aber gut, das muss natürlich jeder für sich selber entscheiden.
 
Entscheidend ist, was hinten rauskommt. (Birne, 1984)
Wer da was mit welchem finanziellen Hintergrund wie auch immer auf die Beine stellt ist erstmal völlig wumpe.
 
Zum 3800X: Kann es womöglich sein, das er aus zwei Chiplets besteht?
Die TDP lässt es vermuten...mehr Fläche zum Abtransport der Wärme!?

Nein, auch der 3800X hat nur ein Chiplet, hier ist nur die TDP höher.
 
Das Ryzen ausgerechnet in der SPECviewperfs 13 unter SNX so stark abkackt ist für mich einigermaßen bitter. [ ... ] da die Patches bei Intel doch angeblich ~15% Leistung kosten sollen.

Warum ist NSX für Dich relevant? Hast Du zu Hause etwa eine 20k-CAD/CAM-Software auf deinem PC laufen? Abgesehen davon ist der Graph zu beachten, der Zahlenwerte über eine Skala von 20 bis 24 ausweist. Rein zahlentechnisch ist der 9900K gerade mal +8,3 % schneller als der 3700X. Hinzu kommt, dass hierbei typischerweise zertifizierte Hard- und Software verwendet wird, sodass der Hersteller durchaus eher Intel-Hardware bzgl. seiner Optimierungen im Blick hat. Unterm Strich nichts besonderes. Und gerade SNX ist ohne zertifizierte Treiber uninteressant. Ein i7-7700 mit einer GTX 1070 Ti schafft hier auch nur etwa 18 Punkte. Bereits eine Quadro P1000 schafft etwa 110 Punkte und eine Radeon Pro WX 9100 (Vega 64) etwa 250 Punkte, die eine Quadro P6000 noch einmal mit etwa 460 Punkten deutlich überbietet. (Dagegen mit einer Titan RTX würdest Du voraussichtlich wieder bei um die 25 Punkte landen aufgrund des GeForce-Treibers und trotz der 2600 € für die Grafikkarte.)

Der Performance-Hit fürs Gaming auf Intel-CPUs ist deutlich geringer. Große Prozentwerte sieht man nur bei umfangreichen Kontextwechseln (bspw. auf das I/O-Subsystem), was die Mitigations besonders fordert, so bspw. bei DB-Workloads u. Ä. Siehe die folgenden Linux-Benchmarks für eine grobe Abschätzung: Gaming & Various.

DerBauer hat schon ca.10 Durch quer Beet und und hat einheitlich frühe harte Taktwalls gefunden.

Sieht man sich seine gelbe Tabelle an, dann sind die Ergebnisse aber unspektakulär. Bei dem einen (oder den zwei) 3900X die er hatte, fehlten 100 MHz zu den offiziellen 4,6 GHz. Rechnerisch fehlen also +2,2 % Takt, die nicht einmal linear auf die Leistung skalieren ... extrem wenig, bis irrelevant, zumal das der oberste Wert ist, den die CPUs grundsätzlich nur extrem selten erreichen.
Zudem erklärte er in seinem Video auch etwas von einem Definitionswechsel bei der Takangabe seitens AMD. Angeblich bezeichnet der Maximaltakt jetzt den tatsächlich maximal möglichen Takt, d. h. etwas wie XFR wird auch nicht mehr darüber hinaus takten können. Verwunderlich ist das jedoch auch nicht, da die CPU lediglich mit 105 W TDP angegeben wird und AMD hier zudem eher eine maximale TDP spezifiziert (während Intel mit der TDP eher einen typischen/durchschnittlichen Wert beziffert). TSMCs 7FF ist zwar effizienter, Wunder vollbringt es dennoch nicht. - 12 Kerne für den Preis, ist doch ok, und vollkommen konkurrenzfähig. Dass die AMD-CPUs Intel nicht in "Grund und Boden stampfen" würden, war doch schon vorab klar.
Und wie HerrRossi schrieb, bei Optimum Tech hat die CPU den Maximaltakt durchaus erreicht. Dass der maximale Turbo-Takt nahezu irrelevant ist, weil er kaum anliegt ist ein anderes Thema (ebenso wie der 4,7 GHz All-Core-Takt beim 9900K reichlich irrelevant ist). Performancerelevant sind vielleicht die 4,4, GHz. Schön sieht man das im Video bei Optimum Tech mit Blender als Testvehikel. Alle Cores takten dauerhaft bei "nur" 4,0 - 4,1 GHz und erst am Ende, als sich die ersten Threads beim Renderabschluss der Szene verabschieden, takten einige verbleibende Cores hoch und 4 erreichen auch mal kurzzeitig die 4,6 GHz (während einige andere Cores deutlich runter takten).

zwei Probleme: die RAM Latenzen und die inter-CCX Latenzen was am Ende die gamingperformance einbremst. ... Speicherkanäle

Der Speicherdurchsatz ist sehr gut und kann sich problemlos mit Intel messen. Dass die Latenz mit etwa 65 ns zu 45 ns schlechter als bei Intel ist, ist ein erwartbarer Kompromiss, der auf den I/O-Chip zurückzuführen ist. Im Gaming ist der Ryzen 3000 auch bei Golem langsamer, legt jedoch ggü. dem 2700X auch deutlich zu. In bspw. Blender und Cinema R20 kann er über alle Kerne seine MP-Fähigkeiten ausfahren, selbst als 3700X ... und das ist auch das derzeit größte Problem beim Gaming, denn hohe Kernzahlen werden hier derzeit nur selten unterstützt, sodass auch Intels kommender Comet Lake weiterhin eine valide Option bleiben wird, wenn man keinen großen Wert auf Perf/Watt legt (und deren Preisgestaltung muss man abwarten ;)).

Und 4 Speicherkanäle werden dem X590 vorbehalten bleiben. Wo sollten da beim X570 und den zugehörigen Boards die Leitungen für herkommen? Abgesehen davon dürfte der I/O-Chip wahrscheinlich auch nur ein 2-Kanal-Speicherinterface unterstützen. Bei Threadripper wird voraussichtlich der I/O-Chip des Epyc verwendet werden (nicht nur wegen des Speichers, sondern auch weil der mehr Chiplets anbinden kann).

3800X: Kann es womöglich sein, das er aus zwei Chiplets ...

Nahezu ausgeschlossen. Dass der Yield so schlecht ist, dass bis zu 4 Cores defekt sind pro Chiplet, bzw. dass man bis zu 4 Cores freiwillig deaktiviert, dürfte wohl ausgeschlossen sein, zumal auch die Fertigung des Packages geringfügig teuerer sein dürfte (3 Chips durchkontaktieren vs. 2 Chips). (Und man müsste die Kunden mit einem weiteren Modell "verwirren", bspw. einem 3900XC, wobei das C dann für zusätzlich mehr L3-Cache steht. Analog zu Intel würde man dann für den auch etwas mehr Geld nehmen ;))

Zudem stellt sich grundlegend die Frage, wie AMD solche unvollständigen Chiplets bei entsprechenden CPU-Modellen handhaben wird. Da ein CCX über 16 MiB L3 verfügt, wären für den 3900X zwei Varianten denkbar:
- symmetrische Chiplets: zwei CCX pro Chiplet mit jeweils 3 aktiven Kernen
- asymmerische Chiplets: ein CCX mit nur 2 Kernen, ein CCX mit 4 Kernen (jeweils 2x)
Bei der asymmetrischen Variante hätten Threads auf dem 2er-CCX bei bestimmten Workloads einen beträchtlichen Vorteil, da hier 8 MiB L3 pro Kern zur Verfügung stehen würden. Dieser Umstand könnte dem Konsumenten jedoch nur schwer zugänglich gemacht werden und ein Bestücken nach freiem Gusto erscheint eher unwahrscheinlich, sodass ich (vorsichtig) davon ausgehe, dass AMD nur symmetrisch bestückte Packages fertigen wird.
Mit einer Beschränkung auf 6-Kern- und 8-Kern-Chiplets könnte AMD symmetrische Modelle mit 12, 16, 24, 32, 36, 48 und 64 Kernen anbieten.
 
Zuletzt bearbeitet :
Schöner Test, aber im Vergleich zu CB etwas widersprüchlich.
Der 3900X macht in Anwendungen sogar Threadripper bis zu den WX schwer.
Das nicht mehr Übertaktet werden muss, finde ich schön. Einfach einen besseren Kühler verbauen und die CPU regel den Rest.
Die gesparte Zeit für stundenlanges Testen sparen, mehr Zeit eine gescheite WaKü zu bauen.
Der 3900X ist in Spielen gleichen schnell, wie der 9900K und in Andwendungen schneller. Passt doch.
Da sich in den letzen Tagen die Bios Updates überschlagen haben, könnte sich auch hier noch etwas ändern/ verbessern. Treiber und Software Patches werden auch noch beitragen.
Es geht vor ran und der Preis ist recht stabil geblieben. Schön für uns Kunden.
 
Warum ist NSX für Dich relevant? Hast Du zu Hause etwa eine 20k-CAD/CAM-Software auf deinem PC laufen?
Nein, ich arbeite mit der 4000€ Billigausführung. :rolleyes:
Als Produktdesigner braucht man halt so etwas.
Das die Hardware, insbesondere die Grafik zertifiziert sein muss ist schon klar. Und falls AMD nicht noch irgend etwas aus dem Hut zaubert, wird es wohl eine RTX 4000. Die hat ein recht gutes P/L Verhältnis.
Meine vorhandene Hardware pfeift halt aus dem letzten Loch und müsste schon längst erneuert worden sein.
Ich wollte halt auf die neue Ryzengeneration warten und habe mir eigentlich recht viel davon versprochen. Insbesondere wegen der vielen Kerne, um dann Windows 10 mit Solid Edge in einer VM unter Linux laufen zu lassen. Es gibt ja mittlerweile auch die zertifizierten Pro Ausführungen von Ryzen. Nicht nur die kleinen APU´s
Irgendwann im nächsten halben Jahr wird auf jeden Fall eine Entscheidung fallen.
_______________________________


Mein Fazit für heute:
Nichts genaues weiß man nicht.
Ich habe mir jetzt die Tests von Igor, CB, PCGH, Anandtech und Golem angetan.
Ich muss sagen, die sind mir alle zu ungleichmäßig und ergeben kein einheitliches Bild.
Da liegt in einem Test der 3900x leicht zurück. Beim gleichen Test auf einer anderen Seite wird der 9900k förmlich an die Wand genagelt.
Wie kann das sein, das in ein und demselben Benchmark ein Unterschied von >40% auftritt? o_O
Auch bei den Games sind Unterschiede von 20% wohl auch nicht ungewöhnlich?

Ja, es sieht allgemein nicht schlecht aus. Es existiert aber für meinen Geschmack zuviel Luft nach oben.
Das ganze Paket ist aber wohl doch durchaus verbesserungsfähig.

Der Herstellungsprozess läuft scheinbar auch noch nicht so ganz, wie er besser sollte.
Da die Prozessoren ihren Maximaltakt wohl nur so gerade eben erreichen, deutet das für mich auf eine allgemein noch nicht vollkommen zufriedenstellende Qualität und scharfes selektieren hin um genügend (sehr) gute Chips für die Epyc´s zu haben.

Für mich hat AMD den Ryzen 3 Start (wie von mir befürchtet) erst einmal versaut.
Sie können wohl einfach zum Start keine 100% fertigen und vor allem 100% vergleichbare Produkte zur Verfügung stellen.
Irgend etwas läuft wohl immer schief. Das kann Intel (in meiner Wahrnehmung) besser.
Ich für meinen Teil habe die Ryzen Anschaffung erst einmal 3 Monate nach hinten geschoben. Dann sollten die meisten Fehler wohl beseitigt und der Prozess bei TSMC schon ein gutes Stück verbessert sein.
 
Sieht man sich seine gelbe Tabelle an, dann sind die Ergebnisse aber unspektakulär. Bei dem einen (oder den zwei) 3900X die er hatte, fehlten 100 MHz zu den offiziellen 4,6 GHz. Rechnerisch fehlen also +2,2 % Takt, die nicht einmal linear auf die Leistung skalieren ... extrem wenig, bis irrelevant, zumal das der oberste Wert ist, den die CPUs grundsätzlich nur extrem selten erreichen.
Zudem erklärte er in seinem Video auch etwas von einem Definitionswechsel bei der Takangabe seitens AMD. Angeblich bezeichnet der Maximaltakt jetzt den tatsächlich maximal möglichen Takt, d. h. etwas wie XFR wird auch nicht mehr darüber hinaus takten können. Verwunderlich ist das jedoch auch nicht, da die CPU lediglich mit 105 W TDP angegeben wird und AMD hier zudem eher eine maximale TDP spezifiziert (während Intel mit der TDP eher einen typischen/durchschnittlichen Wert beziffert). TSMCs 7FF ist zwar effizienter, Wunder vollbringt es dennoch nicht. - 12 Kerne für den Preis, ist doch ok, und vollkommen konkurrenzfähig. Dass die AMD-CPUs Intel nicht in "Grund und Boden stampfen" würden, war doch schon vorab klar.
Und wie HerrRossi schrieb, bei Optimum Tech hat die CPU den Maximaltakt durchaus erreicht. Dass der maximale Turbo-Takt nahezu irrelevant ist, weil er kaum anliegt ist ein anderes Thema (ebenso wie der 4,7 GHz All-Core-Takt beim 9900K reichlich irrelevant ist). Performancerelevant sind vielleicht die 4,4, GHz. Schön sieht man das im Video bei Optimum Tech mit Blender als Testvehikel. Alle Cores takten dauerhaft bei "nur" 4,0 - 4,1 GHz und erst am Ende, als sich die ersten Threads beim Renderabschluss der Szene verabschieden, takten einige verbleibende Cores hoch und 4 erreichen auch mal kurzzeitig die 4,6 GHz (während einige andere Cores deutlich runter takten).

Genau das ist doch das das Problem das man die beworbenen Boosttaktraten real nicht wirklich erreicht, Slit hat vergleichbare Beobachtungen gemacht wobei er sogar etwas weiter kamm"
"Meanwhile the 3900X, which has stock max boost of 4.65GHz, there are no gains what so ever. In fact, none of the cores within this CPU even reach the advertised 4.65GHz." , könnte aber daran liegen das er und Andere die Spannung nicht auf ca. 1,475V wie der Bauer gedeckelt haben

Was hier deiner Aussage nach "wenig" oder "irrelavant" ist entscheidet jeder selbst , ich finds Halt Mist weils genau der Bereich ist wo Ryzen seit jeher Astma hat.

Entgegen deiner Behauptung ist die TDP Angabe und Deckelung von 105 W gerade im Zusammenhang mit dem höchsten Singelcore boost total Hupe weil es die CPU garnicht schafft auf einerm Kern soviel saft zu verrbaten, ergo sind leichte Lasten( singelcore usw. ) nicht TDP begrenzt und die 105W von keiner Relevanz

Wenn man sich die Spannungen gibt die ab 4,2-4,3GHz im Schnitt auf den Kernen der Samplen angelegt werden müssen dann kann sich ein bestimmter Gedanken in Richtung des verwendeten 7nm Prozess nicht erwehren.

Dein Vergleich zum Allcore Turbo des Coffelake lässt unter den Tisch fallen das der CFL diesen Takt problemlos erreicht und sogar relativ leicht dazu überreden ist diesen Takt anzunehmen und auch über alle Kerne zu halten + Nachschlag , also genau das Gegenteil zum gezeigten Verhalten der neuen 3000er die diesen Takt nur schwer erreichen , von Übertagen auf allcore ganz zu schweigen.

Quelle:https://www.overclock.net/forum/10-amd-cpus/1728758-strictly-technical-matisse-not-really.html
 
Warum ist NSX für Dich relevant? Hast Du zu Hause etwa eine 20k-CAD/CAM-Software auf deinem PC laufen? Abgesehen davon ist der Graph zu beachten, der Zahlenwerte über eine Skala von 20 bis 24 ausweist. Rein zahlentechnisch ist der 9900K gerade mal +8,3 % schneller als der 3700X. Hinzu kommt, dass hierbei typischerweise zertifizierte Hard- und Software verwendet wird, sodass der Hersteller durchaus eher Intel-Hardware bzgl. seiner Optimierungen im Blick hat. Unterm Strich nichts besonderes. Und gerade SNX ist ohne zertifizierte Treiber uninteressant. Ein i7-7700 mit einer GTX 1070 Ti schafft hier auch nur etwa 18 Punkte. Bereits eine Quadro P1000 schafft etwa 110 Punkte und eine Radeon Pro WX 9100 (Vega 64) etwa 250 Punkte, die eine Quadro P6000 noch einmal mit etwa 460 Punkten deutlich überbietet. (Dagegen mit einer Titan RTX würdest Du voraussichtlich wieder bei um die 25 Punkte landen aufgrund des GeForce-Treibers und trotz der 2600 € für die Grafikkarte.)

Der Performance-Hit fürs Gaming auf Intel-CPUs ist deutlich geringer. Große Prozentwerte sieht man nur bei umfangreichen Kontextwechseln (bspw. auf das I/O-Subsystem), was die Mitigations besonders fordert, so bspw. bei DB-Workloads u. Ä. Siehe die folgenden Linux-Benchmarks für eine grobe Abschätzung: Gaming & Various.



Sieht man sich seine gelbe Tabelle an, dann sind die Ergebnisse aber unspektakulär. Bei dem einen (oder den zwei) 3900X die er hatte, fehlten 100 MHz zu den offiziellen 4,6 GHz. Rechnerisch fehlen also +2,2 % Takt, die nicht einmal linear auf die Leistung skalieren ... extrem wenig, bis irrelevant, zumal das der oberste Wert ist, den die CPUs grundsätzlich nur extrem selten erreichen.
Zudem erklärte er in seinem Video auch etwas von einem Definitionswechsel bei der Takangabe seitens AMD. Angeblich bezeichnet der Maximaltakt jetzt den tatsächlich maximal möglichen Takt, d. h. etwas wie XFR wird auch nicht mehr darüber hinaus takten können. Verwunderlich ist das jedoch auch nicht, da die CPU lediglich mit 105 W TDP angegeben wird und AMD hier zudem eher eine maximale TDP spezifiziert (während Intel mit der TDP eher einen typischen/durchschnittlichen Wert beziffert). TSMCs 7FF ist zwar effizienter, Wunder vollbringt es dennoch nicht. - 12 Kerne für den Preis, ist doch ok, und vollkommen konkurrenzfähig. Dass die AMD-CPUs Intel nicht in "Grund und Boden stampfen" würden, war doch schon vorab klar.
Und wie HerrRossi schrieb, bei Optimum Tech hat die CPU den Maximaltakt durchaus erreicht. Dass der maximale Turbo-Takt nahezu irrelevant ist, weil er kaum anliegt ist ein anderes Thema (ebenso wie der 4,7 GHz All-Core-Takt beim 9900K reichlich irrelevant ist). Performancerelevant sind vielleicht die 4,4, GHz. Schön sieht man das im Video bei Optimum Tech mit Blender als Testvehikel. Alle Cores takten dauerhaft bei "nur" 4,0 - 4,1 GHz und erst am Ende, als sich die ersten Threads beim Renderabschluss der Szene verabschieden, takten einige verbleibende Cores hoch und 4 erreichen auch mal kurzzeitig die 4,6 GHz (während einige andere Cores deutlich runter takten).



Der Speicherdurchsatz ist sehr gut und kann sich problemlos mit Intel messen. Dass die Latenz mit etwa 65 ns zu 45 ns schlechter als bei Intel ist, ist ein erwartbarer Kompromiss, der auf den I/O-Chip zurückzuführen ist. Im Gaming ist der Ryzen 3000 auch bei Golem langsamer, legt jedoch ggü. dem 2700X auch deutlich zu. In bspw. Blender und Cinema R20 kann er über alle Kerne seine MP-Fähigkeiten ausfahren, selbst als 3700X ... und das ist auch das derzeit größte Problem beim Gaming, denn hohe Kernzahlen werden hier derzeit nur selten unterstützt, sodass auch Intels kommender Comet Lake weiterhin eine valide Option bleiben wird, wenn man keinen großen Wert auf Perf/Watt legt (und deren Preisgestaltung muss man abwarten ;)).

Und 4 Speicherkanäle werden dem X590 vorbehalten bleiben. Wo sollten da beim X570 und den zugehörigen Boards die Leitungen für herkommen? Abgesehen davon dürfte der I/O-Chip wahrscheinlich auch nur ein 2-Kanal-Speicherinterface unterstützen. Bei Threadripper wird voraussichtlich der I/O-Chip des Epyc verwendet werden (nicht nur wegen des Speichers, sondern auch weil der mehr Chiplets anbinden kann).



Nahezu ausgeschlossen. Dass der Yield so schlecht ist, dass bis zu 4 Cores defekt sind pro Chiplet, bzw. dass man bis zu 4 Cores freiwillig deaktiviert, dürfte wohl ausgeschlossen sein, zumal auch die Fertigung des Packages geringfügig teuerer sein dürfte (3 Chips durchkontaktieren vs. 2 Chips). (Und man müsste die Kunden mit einem weiteren Modell "verwirren", bspw. einem 3900XC, wobei das C dann für zusätzlich mehr L3-Cache steht. Analog zu Intel würde man dann für den auch etwas mehr Geld nehmen ;))

Zudem stellt sich grundlegend die Frage, wie AMD solche unvollständigen Chiplets bei entsprechenden CPU-Modellen handhaben wird. Da ein CCX über 16 MiB L3 verfügt, wären für den 3900X zwei Varianten denkbar:
- symmetrische Chiplets: zwei CCX pro Chiplet mit jeweils 3 aktiven Kernen
- asymmerische Chiplets: ein CCX mit nur 2 Kernen, ein CCX mit 4 Kernen (jeweils 2x)
Bei der asymmetrischen Variante hätten Threads auf dem 2er-CCX bei bestimmten Workloads einen beträchtlichen Vorteil, da hier 8 MiB L3 pro Kern zur Verfügung stehen würden. Dieser Umstand könnte dem Konsumenten jedoch nur schwer zugänglich gemacht werden und ein Bestücken nach freiem Gusto erscheint eher unwahrscheinlich, sodass ich (vorsichtig) davon ausgehe, dass AMD nur symmetrisch bestückte Packages fertigen wird.
Mit einer Beschränkung auf 6-Kern- und 8-Kern-Chiplets könnte AMD symmetrische Modelle mit 12, 16, 24, 32, 36, 48 und 64 Kernen anbieten.

Die höheren RAM und inter CCX-Latenzen kosten schlicht und einfach performance in games, das kann man sich in anderen Spieletests wo es um den Einfluß von Speicherlatenzen geht anschauen. Das ist nicht wegzudiskutieren und das es "...ein erwartbarer Kompromiss, der auf den I/O-Chip zurückzuführen ist...." macht es für mich nicht besser. Da wird einiges Potential verschenkt. Ich bin sicher das es mind. einen weiteren i/o chip gibt (für TR) der mind. 4 Speicherkanäle hat. Die Frage ist warum der 12Kerner den nicht bekommen hat und ob wenigstens der 16Kerner den bekommt.
Selbiges zum 2-channel Speichercontroller. Diverse Test mit 8 Kern CPUs zeigen das ab 8 Kernen der Einfluß höher getakteten RAMs (=mehr Speicherdurchsatz) spürbar ist. Umso mehr erst bei einem 12-Kerner.
Und last but not least....die "max. Turbo" Takte werden in den bisherigen Tests schlicht nicht erreicht, nicht mal im XFR auf einem Kern. Die stabilen all-core Takte liegen z.T. bis zu 10% unter den "max. Turbo" Angaben obwohl die CPUs schon mit über 1,4V an der Kotzgrenze laufen.
Sry aber da gefällt intel besser. Deren "max. Turbo" ging bei mir bisher immer auch als all-core mit deutlich weniger Spannung.
Wie gesagt, mal schauen was an Feinschliff an Fertigung, BIOS und Agesa in den nächsten Wochen noch kommt.

Hier und heute würde ich zum zocken, auch wegen der recht teuren mainboards, dann doch eher zum 9900k greifen.
 
@HerrRossi #32 eine super CPU mit ordentlicher Leistung. Ich wünsche Dir das die CPU zeitnah geliefert wird und ordentlich läuft.

Ich finde das AMD hier einen weiteren wichtigen Schritt nach vorn geschafft hat und Intel somit auch ordentlich unter druck setzt. Das was ich vermutet hatte, ist leider eingetroffen - der 9900k kann bei fast jedem Spiel die Nase knapp vorne behalten und mangels OC Potenzial bei AMD lässt sich dies auch nur schwer mit einer guten Kühlung kompensieren. Letztlich aber eher was für den Erbsenzähler, da man es in der Praxis eh kaum merken wird.

Für mich gibt es aktuell, zumindest aus Leistungssicht, keinen Grund zu wechseln (was ich durchaus gerne getan hätte, da bei meinem System irgendwas nicht 100%tig stimmt). Werde wohl doch erstmal ein anderes z390 Board testen und wenn das nicht fruchtet ggf. die neue Intel CPU die Ende 2019 erscheinen soll. (8 oder 10 Kerne, je nach Preis und was ich für die alte bekomme)
 
Nein, ich arbeite mit der 4000€ Billigausführung ...

Da spielt der GPU-Treiber wohl die schwergewichtigere Rolle. Die RTX 4000 erreicht zumindest in SNX um die 360 Punkte. Damit wärst Du bereits jenseits dessen, was AMD zurzeit regulär anzubieten hat. Die einzige Alternative dürfte dann die Radeon Pro Duo mit 2x Polaris (2x 16 GiB, 250 W TDP) sein, wenn der Treiber hier die Leistung auch tatsächlich so skalieren kann, wie sie es für Maya und Max in Aussicht stellen (die WX 9100 ist langsamer und teuerer). Wenn anstelle der 8 GiB der RTX 4000 16 GiB erwünscht wären, könnte auch noch die ältere P5000 infrage kommen. Die erreicht zumindest in SNX gar 390 Punkte und wird derzeit für rd. 1600 € gelistet (was natürlich schon etwas mehr ggü. den 1000 € der RTX 4000 sind).

Die Frage ist nur, was aus der VM heraus von der Viewport-Performance übrig bleiben wird? Hast Du das schon mal getestet? Meine DX-Tests mit VMware WS 12.5 auf Win10 waren da recht ernüchternd.
 
Ich bin etwas ernüchtert von dem was hinten raus kommt. Nicht von den Benchmark Ergebnissen. Auch wenn die vielen Kerne in Benchmarks mehr Vorteile bringen als im realen Desktop Einsatz. Aber die erwarteten Taktraten von 4,6 oder 4,7 Ghz sind Träumerei. Tatsächlich kommt man nicht wirklich höher als die 2000er Serie. Nächstes Ding die Mainboardsituation. Sauteure 570er für 12 und 16 Kerner ? bitteschön. Aber für die Mittelklasse ? Bei Intel muss man für jede neue CPU ein neues Board kaufen. Bei AMD für eine neue CPU ein ALTES Board. (4XX). Oder soll ich eine 6 Kern Einsteiger CPU in ein 350 euro Board stecken ??? Ich werde wohl die Intel Preissenkung abwarten und einen I5 K nehmen. Übrigens mein Uralter 2500K schafft mit der Brechstange 5,0 Ghz.
 
Die höheren RAM und inter CCX-Latenzen ...

Latenzen ... wer diskutiert die weg? "Ein erwartbarer Kompromiss", genaugenommen sogar ein notwendiger Kompromiss, da er unmittelbar aus dem MCM/Chiplet-Design heraus resultiert. (Die mit Zen2 nun doppelt so großen L3-Caches kommen nicht von ungefähr.)

Zen2-Threadripper: Selbstverständlich wird der weiterhin einen 4-Kanalspeicher besitzen. Der I/O-Chip von Rome unterstützt gar 8 Speicherkanäle (wie schon Naples). Dagegen eine Erhöhung erscheint aus Kostengründen unwahrscheinlich und man will schließlich auch noch Epyc verkaufen. Wenn AMD weiterhin so effizient fertigt, wovon auszugehen ist, da die TR-Plattform vergleichsweise kleinvolumig ist, wird AMD wie bei Rome den I/O-Chip sowohl auf dem CPU-Package als auch für den Chipsatz verwenden.
Der 3950X wird sicherlich auf 2 Speicherkanäle beschränkt bleiben, denn es ist ein Ryzen. Für mehr Kanäle würde man einen neuen Sockel und neue Boards mit zusätzliche Leitungen und DIMM-Slots benötigen, also quasi so etwas wie die TR-Plattform. Vielleicht wird der kleinste 3rd Gen TR ja bei 16 Kernen beginnen; mit 4 Speicherkanälen und mehr PCIe-Lanes würde auch ein solcher sich noch ausreichend von einem 3950X absetzen. Die Plattform (sowie ein Update, X590?) braucht man sowieso, da könnte man auch leicht kleine Stückzahlen eines TR-16-Kerners fertigen.

Btw, dass schnelleres RAM und mehr Speicherkanäle Mehrleistung bringen, in manchen Workloads gar signifikant, hat ja auch keiner bestritten. Der Threadripper 2990WX liefert hier mit seiner recht "speziellen Implementation" ein hervorragendes Negativbeispiel (die beträchtlichen Latenzen der nicht direkt angebundenen CCXe reduzieren die Performance beträchtlich bei I/O-lastigen Tasks).

Dass es über die gebotenen Taktfrequenzen nicht hinaus geht, kommt nicht allzu überraschend. AMD hat im Zuge der Vorveröffentlichung(en) (etwa seit Anfang Mai, dann Computex und jetzt E3), das Thema Overclocking kaum oder gar nicht thematisiert (zumindest mir wäre es entgangen). Es wurde lediglich ein verbessertes XFR2 angesprochen, aber auch nicht übermäßig herausgestrichen. Im Gegensatz dazu bei den 14/12nm-Varianten, wo man explizit auf die Beschränkungen des Konkurrenten und die Notwendigkeit einen K-Prozessor zu erwerben, hinwies.
Ebenso konnte man in den den letzten Wochen an zwei, drei Stellen aus AMD-Kreise hören/lesen, dass man schlussendlich "überrascht" war, dass man die Taktraten dermaßen "hoch" ansetzen konnte, was bei einem so deutlichen Shrink keinesfalls selbstverständlich ist. Die Physik lässt sich nun mal nicht überlisten.

"Sry aber da gefällt intel besser." - Kein Grund sich zu entschuldigen. ;) Ich schrieb nicht umsonst, dass Intel weiterhin seine Daseinsberechtigung haben wird (auch wenn es dafür etwas wärmer unter dem Schreibtisch wird).

Unterm Strich hat Zen2 hier aber einen deutlichen Schritt gemacht, vor allem, wenn man bspw. den 3700X und 2700X vergleicht.
Ich verstehe nur nicht, warum das dann immer am Ende in so einer Katerstimmung endet. Zu hohe, selbstgesteckte Erwartungen: 150 % Leistung ggü. Intel's Top-Modell und am besten zu 50 % des Preises? Dass Zen2 nicht die Welt auf den Kopf stellen würde, war doch von vorne herein klar, oder etwa nicht? Interessanterweise schreibt selbst Chip zum 3900X "etwas teuer". Wow, 12 Kerne im Mainstream zu einem attraktiven Preis und prompt sind die schon zu teuer. Bei MF kostet der 10-Kerner i9-9900X 940 € (trotz Angebotspreis).
Ich glaube, zu viele nehmen Lisa Su's Standardeinleitung "We love gamers" viel zu wörtlich. AMD ist wie auch Intel und nVidia ein börsennotiertes Unternehmen ... die wollen und müssen verkaufen ...
 
Zuletzt bearbeitet :
Oben Unten