AMD Ryzen 7 5800X3D – der einzige (und letzte) Kämpfer seiner Art als perfektes und sehr effizientes Upgrade

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.820
Bewertungspunkte
8.829
Punkte
1
Standort
Redaktion
Um es vorweg zu nehmen: Der Ryzen 7 5800X3D ist AMDs fast schon herablassende Geste von Nonchalance, sich mal eben so als „Zweitverwertung“ ein Epyc-Chiplet („Milan“) mit 3D-V-Cache zu schnappen, dieses in eine normale Consumer-CPU zu packen und damit „rein zufällig“ Intels Waffeltoast in Form des komplett überpowerten Core i9-12900KS galant in die Wüste zu (read full article...)
 
Da fehlt einfach REALE bedingungen sprich bis 4K denn je höher die auflösung desto eher ändert sich auch das Szenario dacher ist der Test nichtig für mich denn er sagt nur eins aus das die cpu effizient ist (in 720\1080p) doch (real ) in 4k was am ende rauskommt steht hier nirgends !!!
Manche wollen - oder können - es einfach nicht kapieren.
 
Na dann schau dir den Test besser nochmal genau an.
Ja längst passiert , doch effizienz und leistung bei 720\1080 war schon vorcher klar doch nutzt das nicht wircklich dem Sinn denn welcher trottel spielt den auf 720 p ,da kauf ich ne switch .Und klar wegen grafiklimit ,doch das ist ja auch teils der Sinn so ein test zu machen doch da muss man jawohl auch reale bedingungen bieten bis 4k .Keiner kauft sich die cpu um in 720 p zu zocken ,klar weiß man dann die rohdaten doch sagt es ja nix aus wenn du am 4k display sitzt und die cpu sich denn anderst verhaltet in 4k als in 720 p ! Finde das ist viel arbeit der test destotrotz ist er nicht komplett für mich:)
 
Klar hier sind alle Experten ,dann wundern sich die experten wenn sie 0 fps mehr an 4k haben .Wie kann das nur sein ?obwohl bei dem game igor es schwartz auf weiß belegt das das 30 % mehr sein müssten .
 
Ich habe den 12900K bis UHD getestet und was kam raus? Gleichstand! Warum Zeit in etwas investieren, das so logisch ist?

GPU-Bound ist nun mal eine Art Naturgesetz für Gamer :D
 
Klar hier sind alle Experten ,dann wundern sich die experten wenn sie 0 fps mehr an 4k haben .Wie kann das nur sein ?obwohl bei dem game igor es schwartz auf weiß belegt das das 30 % mehr sein müssten .
Selbst wenn der Unterschied in 4k Aufgrund der GPU Limitation nur noch gering ist ist das hier nicht das Thema! Hier geht es um die CPU und die kann man in einem 4K scenario nun mal nicht vernünftig testen weil vorher die Graka Linitiert.
An dem Testergebniss ändert das nichts, die CPU ist auch in 4K die effizienteste und die schnellste.
 
@Igor Wallossek

Danke für die ausführlichen Frame Varianzen Diagramme, die schaue ich mir am liebsten an. ;)
Die etwas andere Art des Sieges finde ich sehr gelungen, green IT kann kommen.

Was mir noch auf den Folien von AMD aufgefallen ist, die Überschrift auf Seite 13 sieht 1080P mit "high" Settings vor.
Soweit ich das richtig gelesen habe, hast du aber meist mit Maximal Details (Filter & BlingBling) getestet. ;)
 
Was ein erschreckender Aufwand hier reingeflossen ist.
TOP! Danke dafür Igor!
Mir wäre der 5800X3D zu inkonsistent und zu teuer. 500€ ist schon 'ne Ansage für einen 8-Kerner.
Da bin ich mit dem 12700K mit meinem Z690-Mainboard plus CPU fast auf die gleiche Summe (wohlgemerkt ein Schnäppchen gemacht) gekommen und sehr zufrieden.

Hatte geplant den 5800X3D auf eine B550 zu pflanzen aber mittlerweile weiß ich die schnellen PCIe-Lanes zu schätzen.
Ein 5800X3D nicht auf einem X570 ist m.M.n. irgendwie unpassend.😅
 
Ich habe B550 und X570 Taichi Razor Dings....
Wüsste jetzt nicht, was ein X570 besser macht bis auf etwas mehr Ausstattung (DAC).
Kühlung, USB und VRMs sind bei beiden kein Thema.
In Sachen Effizienz kommt der PC mit B550 @ 5700G viel sparsamer daher,
die andere Kiste mit X570 @ 5900x ist noch recht "süffig" unterwegs. :LOL:
 
Klar hier sind alle Experten ,dann wundern sich die experten wenn sie 0 fps mehr an 4k haben .Wie kann das nur sein ?obwohl bei dem game igor es schwartz auf weiß belegt das das 30 % mehr sein müssten .

Schalte bitte einen Gang runter. Du unterstellst den hier Anwesenden hier Fehler wo überhaupt keine sind.
 
@Igor Wallossek
Soweit ich das richtig gelesen habe, hast du aber meist mit Maximal Details (Filter & BlingBling) getestet. ;)
High Settings knechten in vielen Fällen die CPU nicht so sehr. Vor allem bei den DX12 Titeln, wenn es auch um Async Compute geht. Da spielt es kaum eine Rolle fürs GPU-Bound, welche Settings man nimmt, bei der CPU aber dann doch. Wenn man mit der GeForce auf High testet, ist auch der Treiber Overhead anders (geringer). Aber darum gehts ja nicht :D

Und nochwas:
Zur Plausibilität habe ich auch mal UHD laufen lassen,. Da liegen die CPUs so nah beieinander, dass die Messtoleranzen selbst den 12400 noch vor einen 12700K schieben. Sowas von Random will doch keiner sehen. Ich auch nicht :)
 
High Settings knechten in vielen Fällen die CPU nicht so sehr. Vor allem bei den DX12 Titeln, wenn es auch um Async Compute geht. Da spielt es kaum eine Rolle fürs GPU-Bound, welche Settings man nimmt, bei der CPU aber dann doch. Wenn man mit der GeForce auf High testet, ist auch der Treiber Overhead anders (geringer). Aber darum gehts ja nicht :D
Das erste "CPU" muss "GPU" heißen?! ^^ High Settings knechten beides, CPU und GPU. Wenn man im CPU Limit ist (wegen 720p), dann spielt es GPU-seitig keine Rolle. Dinge wie SSR, AA/AF/AO und Post Processing kann man grundsätzlich abschalten. Geht nur auf die GPU und die paar Drawcalls spielen keine Rolle.
 
ist der 5800x3d die 200€ Aufpreis vom 5700x wert? würde vom 1700 kommen und muss eh noch auf ein lauffähiges Bios warten (Asrock b350-itx fatality) und überlege auf Verfügbarkeit des 5800x3d zu warten oder halt günstig den 5700x zu kaufen, wenn mal unter UVP lieferbar.
 
@Igor Wallossek
top Test, Danke, sehr aufschlussreich ausgewertet! :)(y)
Ich hätte noch einen interessanten Aspekt, der wohl auch kontrovers betrachtet werden kann: der RAM und dessen Möglichkeiten. Wie gut sich speziell die Intel-CPUs pimpen lassen können(mit viel Aufwand, auch finanziell) ist eh bekannt. Aber ich vermute, dass sich beim X3D wohl nicht besonders viel tut zwischen dem allerbilligsten Kit, mit eventuell schon vorhandenem 2400er und low latency 3600er - das wäre sehr spannend abzubilden!
Natürlich einerseits nachteilig, weil da an Boden verloren gehen kann, andererseits natürlich auch toll, da die Leistung günstig und praktisch out of the box schon nahe am Optimum ist, ohne viel rumgebastel :) (so zumindest meine Theory und Schlussfolgerung - aber ist das auch wirklich so?)
 
Das erste "CPU" muss "GPU" heißen?! ^^ High Settings knechten beides, CPU und GPU. Wenn man im CPU Limit ist (wegen 720p), dann spielt es GPU-seitig keine Rolle. Dinge wie SSR, AA/AF/AO und Post Processing kann man grundsätzlich abschalten. Geht nur auf die GPU und die paar Drawcalls spielen keine Rolle.
Ja, muss es :D

Ich habe beide Settings vorher ausgetestet und die Abstände verglichen. Bei den meisten Spielen in meiner Auswahl war High nicht optimaler für die Tests.

Und AMD leidet unter langsamen RAM, leider. Mein X3D ging bis 2000, also DDR4 4000 direkt. Der Rest der Ryzens leider nicht. Glücksgriff :)
 
High Settings knechten in vielen Fällen die CPU nicht so sehr. Vor allem bei den DX12 Titeln, wenn es auch um Async Compute geht. Da spielt es kaum eine Rolle fürs GPU-Bound, welche Settings man nimmt, bei der CPU aber dann doch. Wenn man mit der GeForce auf High testet, ist auch der Treiber Overhead anders (geringer). Aber darum gehts ja nicht :D

Und nochwas:
Zur Plausibilität habe ich auch mal UHD laufen lassen,. Da liegen die CPUs so nah beieinander, dass die Messtoleranzen selbst den 12400 noch vor einen 12700K schieben. Sowas von Random will doch keiner sehen. Ich auch nicht :)
Soll keine Anspielung auf deine Methodik sein, ich finde sie gut!
Weil auch bei maximaler Visueller Darstellung ist die Energie Einsparung vorhanden.
Zumal man den Hahn auch weiter zu drehen kann mit FidelityFX Super Resolution.

AMD bezieht die 15% eben auf High Settings gegenüber dem 5900X. :)
 
Ich habe beide Settings vorher ausgetestet und die Abstände verglichen. Bei den meisten Spielen in meiner Auswahl war High nicht optimaler für die Tests.
Ne, man sollte Dinge wie Details, Logik, Physik, und (kaskadierende) Schatten auf Max knallen, weil das die CPU und bei Nvidia den Treiber (CPU-seitig) belastet.
 
sehr schöner test
manche Mitmenschen hier brauchen scheinbar noch ne 4K Seite, bei der alle Balken gleich lang sind 😂
 
Die Tendenz der Reviews ist ja sehr eindeutig - da kann man AMD nur beglückwünschen. Ich hoffe sehr das sich Intel bei Cache (und Effizienz des Flagschiffes) eine Scheibe abschneidet - für RL. Aber einstweilen muss man wohl konstantieren das Intel hier zumindest im Bereich Gaming von einer 5 Jahre alten Plattform ordentlich abgewatscht wird. Die ersten zwei Sätze dieses Reviews kommen zwar wie Slapstick daher, sind aber beinharte Realität. Es braucht keinen 5900X3D.
 
Und AMD leidet unter langsamen RAM, leider. Mein X3D ging bis 2000, also DDR4 4000 direkt. Der Rest der Ryzens leider nicht.
Ja leider...
Der 5900x will nicht mehr wie 1900 MHz IFC und "staun" der 5700G nimmt mir 2200 MHz IFC nicht mal übel (keine WHEAs).
Somit kann ich RAM @ 4400 MHz fahren 1:1 (y)
 
Oben Unten