Reviews AMD Ryzen 9 5900X und Ryzen 5600X im ersten Test - wird Intels 10. Generation jetzt obsolet?

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.276
Bewertungspunkte
19.019
Punkte
114
Alter
59
Standort
Labor
Aktuell konnte ich zwei der neuen Ryzen CPUs mit Zen3-Kern testen, die eigentlich unterschiedlicher nicht sein könnten. Zum einen ist da der Ryzen 9 5900X mit 12 Kernen (24 Threads) quasi als das neue, zweigrößte Wundermittel der Oberklasse und zu anderen der Ryzen 5 5600X mit 6 Kernen (12 Threads), der selbstbewusst das Sparbrötchen-Image an der Laden-Kasse abstreift, dafür aber umso bissiger zubeißt. Zu den heutigen Aufgaben und den Follow-Ups werde ich später noch Genaueres ergänzen...





>>> Hier den ganzen Testbericht lesen <<<
 
@RadiatorTwo

Bitte erstelle für deine Probleme mit dem 3900X einen extra Thread. Deine Probleme sind OT und rechtfertigen das thread-hijacking nicht!
 
Der Powerplan verändert nicht wie die CPU CC-Stage handhabt, es senkt nur die Latenzen wenn ein Programm gleich vom vollen Takt ausgeht. Das ist ein reines Softwareproblem. Die hohen (imaginären) Clocks haben nichts mit dem lowpower Plan (Idle) zu tun.

Da kann ich voll und ganz Entwarung geben, und Igor sicher auch.

Ist so wie amd64 schreibt, extra Thread aufmachen und das Problem angehen.
 
@RadiatorTwo

Bitte erstelle für deine Probleme mit dem 3900X einen extra Thread. Deine Probleme sind OT und rechtfertigen das thread-hijacking nicht!
Ich habe gefragt wie der 5900X sich im Idle verhält...
ICH war es nicht der hier angefangen hat über die Probleme des 3900X zu reden...
Mir deswegen Thread Hijacking zu unterstellen ist eine Unverschämtheit...
 
Zen typisch ändert er Clockstages im ms Bereich (1ms).

amd64 macht nur seine Arbeit, ist Mod!

Zu deinem Problem, es gibt Programme die mit den P Stages von Zen nichts anfangen können und geben dann Müll aus. Je nach Abhängigkeit deiner Agesaversion gibt Zen "tCTL" aus, also T-junction. Und dort wird der Fehler liegen.
 
Mittlerweile geht es hier fast nur noch um deine Probleme mit dem 3900X. Das hijacking machst du nicht bewusst und alleine, sondern auch alle die dir helfen wollen. Die Hilfe ist im Grundsatz sehr löblich, aber leider OT.

Unverschämtheit? Ich denke nicht.
 
Stimmt. Schuldig. 😔
 
Der 5900x nimmt im Idle (Gesamtsystem) genauso viel auf, wie ein 10900k in gleicher Config. Gibt keine Unterschiede. Vielleicht im Promillebereich von 1-2w.

Wie schon geschrieben haben die Energiesparpläne keinen Einflüsse auf low power States und dessen Handhabung, erkennt man auch an der VCore. Die 10w bekannter Mehrverbrauch (Energiepsaren -> Höchstleistung) liegen an anderen Dingen, das System reagiert aber deutlich latenzärmer. 200w nie und nimmer, selbt wenn man deinen Bildschirm rausrechnet (Steckdose). Liest sich eher wie avg Verbrauch, Gaming und zwar das Gesamtsystem, abhängig von der Graka.

Offtopic off [x].
 
Hmm im Idle 57 W?
Ich verkrampfe ja schon wenn ich in Games mal 65 W CPU-Verbrauch lese, es soll ja genug für die GPU übrig bleiben.^^

Mal Spaß beiseite: Ist der 10850K auch so hungrig?
Wenn Intel doch bloß mal einen neuen Prozess auf die Reihe kriegen würde...

So bleibt einem als Anwendungs- UND Spielenutzer ja wirklich nur ein AMD Mindestens-Achtkerner und die Hoffnung, keine komischen Einstellungen geliefert zu bekommen. An irgendwelchen BIOS-Einstellungen habe ich noch nie erfolgreich rumgeschraubt...
 
Ja - "Gesamtsystemverbrauch", nicht CPU only idle. Einfach mal Packagepower mit HW Info auslesen, kann doch nicht schwer sein. Ich würde mal behaupten der Großteil der Kerne schläft bei 0,4 bis 0,5v. Der 3900x braucht 5-7 Watt mehr.

Bei mir sind es gerade 15-17 Watt, CPU only und wenn ich mit der Maus umherklicke, ist nichts mehr idle.
 
UPDATE

Mittlerweile habe ich einen R9 5950X, der hat das Problem nicht. Stecke ich den 5900X rein, ist es wieder da. Schätze mal, die CPU hat einen Schuss. Es wird eh nachgebencht. Anderer 5900X kommt von morgen einem SI. Wochenendaufgabe.

@Igor Wallossek Die Frage ist hier ob der 5900x als Serie einen Schuss hat, (es also bei allen 5900x auftritt) oder ob speziell nur deine CPU zum Testen das Problem hat.

Interessant ist das die CPU ja ansosten fehlerfrei funktioniert. Es müsste dann jemand mal einen Benchmark schreiben um die defekten CPUs zu identifizeren falls es nur Einzelfälle sind.
 
@Igor Wallossek Die Frage ist hier ob der 5900x als Serie einen Schuss hat, (es also bei allen 5900x auftritt) oder ob speziell nur deine CPU zum Testen das Problem hat.

Interessant ist das die CPU ja ansosten fehlerfrei funktioniert. Es müsste dann jemand mal einen Benchmark schreiben um die defekten CPUs zu identifizeren falls es nur Einzelfälle sind.
Ja, die Frage ist berechtigt!
Ist es wirklich ein Einzelfall? Also DIE eine defekte CPU pro xxxxxxx Stück?? Oder hat jede 2345.te CPU den Schuß ?? Oder hat jede CPU den Schuß? Oder jede 2.te? Oder gibts da ggf. noch einen Faktor X oder einen Bug im AGESA oder oder oder???

Da bin ich ehrlich gesagt gerade doch froh, dass ich noch keine CPU bestellen konnte... Das will ich erstmal beobachten & abwarten....
 
Es könnte auch an SotTR liegen, da gab es schon in der Vergangenheit Probleme mit dem Core Balancing unter dx11 und 12. Kommt also drauf an welchen Savegame Igor als Benchmarkvorlage verwendet. Vermutlich muss der 5900x und das veränderte Caching Berücksichtigung finden. Ansonsten kann das Ding defekt sein, ja vermutl. möglich. Ich glaube mittlerweile eher das es im Spiel per Patch Berücksichtgung finden muss.

Es kam schon mit Zen 1u.2 zu erheblichen Einbrüchen, wenn man Pech hatte. Das Spiel viel dann auf 4C/8T zurück, warum auch immer wird in einigen Bereichen das Corescaling nicht angepasst. Vllt. hat Igor sowas im Bezug auf den 5900x entdeckt, mal wieder!:)

Wäre für AMD sicher wichtig das zu wissen.

*das passt übrigens zu den geschilderten Problemen: nämlich bevor Zen3 einen virtuellen Core anspricht, spicht er einen freien physischen Core an und verarbeitet dann die Anforderung der Engine 8T mit 8C, statt mit 4C/8T. Passt also, wobei die Lastverteilung auf einem CCD/CCX natürlich den Takt nach unten drückt, anstatt er denn die Anforderung 8T auf 12C mit PBO/Boost und schnellen Cores verteilt (2, 4 usw.).

8T ist in dem Fall ungünstig, weil nur 6C zur Verfügung stehen und die Engine dann wohl auf 3C/6T zurückfällt, wobei Zen3 es als 6C beantwortet. Müsste man sich die Skalierung mal anschauen. Dann dürfte der 5600 auch schneller sein, der darf an sein eines Chiplet viel mehr verteilen. W10 funzt ja auch noch dazwischen.
 
Zuletzt bearbeitet von einem Moderator :
dauerhaft 200 Watt aus der Steckdose zieht
Kannst du einmal abklären, was hier wie viel Strom braucht. Beispielsweise mit dem Open Hardware Monitor siehst du den Verbrauch der wichtigsten Bauteile im PC. Solange wir nicht wissen, wie viel Strom die CPU allein frisst, kann auch keiner abschätzen ob das Verhalten normal ist und ob die Temperatur passt.
 
Zurück zum Thema:

If Takt interessiert mich, denn die 5000er scheinen da echt anzufangen eklig zu saufen für wenig mehr Performance.

@Igor Wallossek:
- die power consumption Beschriftung von den beiden 5600x bei World War z ist vertauscht.

- ich sehe so ~4% mehr Leistung in 720p bei Verwendung des max möglichen If für den 5600x. Gibt's da einen sweetspot?
 
Ja, die Frage ist berechtigt!
Ist es wirklich ein Einzelfall? Also DIE eine defekte CPU pro xxxxxxx Stück?? Oder hat jede 2345.te CPU den Schuß ?? Oder hat jede CPU den Schuß? Oder jede 2.te? Oder gibts da ggf. noch einen Faktor X oder einen Bug im AGESA oder oder oder???

Da bin ich ehrlich gesagt gerade doch froh, dass ich noch keine CPU bestellen konnte... Das will ich erstmal beobachten & abwarten....
Ich verstehe den selbst auferlegten Einkaufsstress der Leute bei neuer Hardware eh nicht. Einfach ganz entspannt drei Monate warten und die Sachen dann stressfrei, bei guter Verfügbarkeit, mit gepatchten Kinderkrankheiten und ohne den üblichen Preisaufschlag für early adopter einkaufen. Das schont Nerven und Budget.
 
Nach Igor's Ergebnissen ist ja davon auszugehen,dass der große Ryzen noch Abstimmungsprobleme hat.
Ist das ein UEFI Problem ?

Dann wird es ja mit dem nächsten Update wahrscheinlich behoben werden.

Kann ein Zusammenhang mit dem Energiehunger,und damit entstehender Hitze,
die teilweise schlechten Benchmarks erklären ?
 
Der Sweetspot beim 5000 er Rüssel liegt ja RAM mäßig bei 3600er Speicher, wenn ich das richtig mitbekommen habe.
Daher habe ich mir für den Umstieg jetzt bei der Alternative mal den Mushin red 3600er (2x32GB) (

Mushkin DIMM 64 GB DDR4-3600 Kit, Arbeitsspeicher(rot, MRA4U360JNNM32GX2, Redline)

geordert. Würde noch mehr hier wirklich Sinn machen ? ist ja auch eine Kostenfrage, denn ab 4000 er Speicher geht der Preis mal richtig ab.
(AsRock x570 Extreme 4, Rüssel 5950x (jetzt noch 3950x) und derzeit Corsair Vengeance drinne mit 3200)
 
5000er Rüssel find ich ja süß ;)

Bei dem Mushkin RAM-Kit bin ich skeptisch, das ist aber reines Bauchgefühl.
 
Der Sweetspot beim 5000 er Rüssel liegt ja RAM mäßig bei 3600er Speicher, wenn ich das richtig mitbekommen habe.
Daher habe ich mir für den Umstieg jetzt bei der Alternative mal den Mushin red 3600er (2x32GB) (

Mushkin DIMM 64 GB DDR4-3600 Kit, Arbeitsspeicher(rot, MRA4U360JNNM32GX2, Redline)

geordert. Würde noch mehr hier wirklich Sinn machen ? ist ja auch eine Kostenfrage, denn ab 4000 er Speicher geht der Preis mal richtig ab.
(AsRock x570 Extreme 4, Rüssel 5950x (jetzt noch 3950x) und derzeit Corsair Vengeance drinne mit 3200)
Mushkin "baut" ja schon gefühlt seit 100 Jahren Arbeitsspeicher. Dachte die sind schon lange von der Bildfläche verschwunden ;)

Hätte aber eher zu G.Skill Trident Z 3600 mit mindestens CL 16 gegriffen.
 
Ohne bleibt er im Idle kühl (~30°) mit XMP hat er immer wieder Spikes bis zu ~45° nur mit den Windows Backgroundtasks.
Es liegt bestimmt daran dass ohne XMP die Speicherriegel nur mit 1,2 V und niedrigeren Takt ( bis 2666 Mhz ) laufen.
Sobald das XMP-Profil ( OC ) geladen wird ändert sich die Spannung auf 1,35 V damit es mit dem vorgegebenen Takt auch stabil läuft. :coffee:
 
Oben Unten