AMD Ryzen 7 5800X3D – (K)ein Review wie sonst, dafür aber anders

Cache ist der neue Takt.

Wirklich?

Wer hätte es gedacht. :rolleyes:

"was CPUs wirklich "schnell" für Gamer macht ist Cache, Cache und noch mal Cache. Der muss dann mit ordentlicher Latenz angebunden sein und schweine schnell. Am besten mit CPU Takt." ← habe ich im Mai 2020 bei CB geschrieben.

Ich wünsche dir aber in jedem Fall frohe Ostern und genieße die Zeit, die du hast. Es ist zwar unendlich davon vorhanden, nicht aber für uns Menschen. Wir müssen das Beste daraus machen und du bist auf jeden Fall ein gutes Beispiel, wie man es macht.

Weiter machen und bleibe uns allen bitte noch viele Jahre erhalten. Einheitsbrei ist für jedermann. Kann man mögen, muss man aber nicht.

mfg

p.s.

Die dann erreichten 15% gegenüber dem 5800er, überraschen mich aber tatsächlich. Ich hätte bei dem Takt mit höchsten 10% gerechnet.
 
Bandbreite ist nicht alles........

Takt + Leistung macht den Unterschied und da ist der 10850K ja Deutlich langsamer als der 12900K. ;)
Casi, ich meinte natürlich, dass auch der 12900KF mit DDR4 4133 cl. 17 im Schnitt langsamer in Spielen wäre. die größere Latenz bei DDR5 heißt nicht viel. Da hast du dir die Spieletests mit schnellem DDR4 und schnellem DDR5 nicht richtig angeschaut, glaube ich.

1650103056955.png
 
Gibt es eigentlich schon Tests der B2 Stepping? Würde mich auch mal interessieren, ob dort auch ein Effizienzgewinn gemacht wurde.
Ich hab seit ner Woche einen 5800X B2 und hab einen guten dahingehend erwischt, dass es mir trotz Anstrengungen (!) bislang nicht gelungen ist, ihm einen WHEA Fehle rzu entlocken. Sprich er läuft IF 2000 ohne Mucken. Daneben läuft er im CO auf allen Kernen beliebig (-30, 0, +30) ohne im Core Cycler bei SSE oder AVX2 nach 20 min Pro Kern einen Fehler zu werfen. Takten tun bei mir die meisten Kerne bis 5.049 MHz effective und der Verkäufer hatte auch nen Screenshot wo ein Kern bis 5.100 MHz ging (muss n älteres AGESA gewesen sein).

So, nun das Aber:
1. Hat mir der Verkäufer gesagt, er hat den aus 5 Stück vom B2 herausgefischt.
2. Lese ich in den einschlägigen Foren wie Luxx und PCGH immer wieder von B2ern, die genauso we die B0er sind, sprich keine stabiler IF 2000, Taktverhalten auch nicht die Welt, usw. Nachdem gehe ich davon aus, dass die B2 ggf. im Schnitt besser als die B0 sind, man aber nicht per se vom B2 erwarten kann, dass die deutlich besser laufen. Ich hatte also schon auch etwas Glück, bzw. der Verkaufer hat per Selektion nachgeholfen.
 
@ApolloX
Vielen Dank. Ich werde auf jeden Fall versuchen einen 3D zu bekommen. Ist genau meins Leistung und Effizienz. Nutze meinen PC eh nur zum zocken. Der Preis ist mir auch egal, durch das ganze Homeoffice habe ich soviel Geld für Sprit gespart da könnte ich auch noch ein 3080TI dazu packen. Aber die ist alles andere als Effizient :cool:
 
Hallo Igor, du hast Recht ein weiterer "normaler" Test wie die anderen auf Techpowerup, CB, PCGH oder Techspot bietet wenig Mehrwert.
Was allerdings fehlt (Techspot hat es zumindest angerissen) wäre mal ein Vergleich, der auch die möglichen RAM-Geschwindigkeiten berücksichtigt! Hier gibt es ja einige RAM-Tests, die belegen, dass RAM-OC 10-40% Mehrleisung bringen kann. Wenn man das berücksichtigt bin ich als Aufrüster (von einem 10900K) nicht wirklich schlauer geworden nach den Tests. Wie wäre es ZUSÄTZLICH zu den Standard-Tests damit:
5800X3D mit DDR 3800 RAM CL 14-16
5800X (oder 5900X/5950X) mit DDR 3800 RAM CL 14-16
12900K(S) mit dem schnellsten DDR5 RAM 6400 CL32
9900K (oder 10900K, Stellvertretend für alle Skylake, Coffe Lakes, Comet Lakes) mit DDR 4266/4400 CL18.

DDR5 RAM ist so teuer wie hochwertiger DDR4 mit Samsung B-Die UND ich habe bisher die Erfahrung gemacht, dass jedes Kit mit 3200 CL14 auch die Geschwindigkeiten von 4400 MHz mitmacht. Aus diesem Grund scheidet die Begründung Preis (bei 12900KS haha) aus. Desweiteren haben alle meine Prozessoren (7700K, 2x9900K, 10900K) 3200 MHz CL14 mit fixierten Standard-Spannungen bei VCCIO/VCSSA von 0,95V und 1,05V stabil geschafft.
 
Zuletzt bearbeitet von einem Moderator :
Casi, ich meinte natürlich, dass auch der 12900KF mit DDR4 4133 cl. 17 im Schnitt langsamer in Spielen wäre. die größere Latenz bei DDR5 heißt nicht viel. Da hast du dir die Spieletests mit schnellem DDR4 und schnellem DDR5 nicht richtig angeschaut, glaube ich.

Anhang anzeigen 18615
Intel ist eh nicht meins.;)
Zu dem fehlen Mir die relevanten Daten..........
Das Ram ne Bremse ist ist ja bekannt.
DDR5 erweitert einfach nur DDR4 im Takt.
Stelle DDR5 auf 4000MHz mit identischen Timings und DDR5 ist nicht schneller.
Nur die Übertaktung ist recht mager mit DDR5,da sollte noch mehr gehen........

EDIT:
Aber wenn man sich mal die Leistung anschaut.
Gaming beim 12900K/S
Preis wird beim 12700K liegen.
Verbrauch zwischen 12500 und 12600K.

NUR fürs Gaming die Beste CPU Aktuell.
 
Zuletzt bearbeitet :
Wieso 720p und 1080p testen? Das hat doch null Relevanz! Jemand der sich eine 400-500 Euro CPU zum Spielen kauft, benutzt diese für 1440p oder 2160p mit allen Grafikreglern auf max. Und genau hier wird es interessant: brauche ich solch eine CPU überhaupt, oder tut's auch beispielsweise die Alderlake Mittelklasse, da bei den gewählten Settings eh die Graka limitiert. Also: praxisnah testen mit den hohen Auflösungen und RTX 3070+ (nicht nur das Topmodell testen, das ist unrealistisch und nur für 2-3% der Leser interessant!
 
Und genau hier wird es interessant: brauche ich solch eine CPU überhaupt, oder tut's auch beispielsweise die Alderlake Mittelklasse, da bei den gewählten Settings eh die Graka limitiert.
Was so oder so klar ist, muss man ja nicht mehr testen. Die aktuellen CPUs hängen die Grafikkarten dermassen ab, dass man bei höheren Auflösungen keinen Unterschied mehr erkennt, sondern immer im Grafikkartenlimit läuft. Nur wenn man so realitätsfremde Anwendungen testet, sieht man einen Unterschied.

Somit ist auch klar, dass jede CPU über einem 5600X und spätestens ab dem 5800X im Gaming genau gleich viel heraus holt. Eine stärkere CPU bringt nur etwas, wenn man Videos rendert oder andere Anwendungen hat die sehr CPU-lastig sind.
 
Somit ist auch klar, dass jede CPU über einem 5600X und spätestens ab dem 5800X im Gaming genau gleich viel heraus holt. Eine stärkere CPU bringt nur etwas, wenn man Videos rendert oder andere Anwendungen hat die sehr CPU-lastig sind.

Trifft das dann auch für den 3D Cache zu bzw. bedeutet es der macht bei Spielen ab 1440p gar kein Unterschied? Nutze meinen PC ja auch nur für Games und bin am Überlegen aufzurüsten vom 5600X, entweder auf den normal 5800X wegen dem fallenden Preis oder halt doch versuchen einen 3D zu erwischen. 5900X habe ich auch schon überlegt, der hat ja auch einen relativ großen Cache...
 
Nutze meinen PC ja auch nur für Games und bin am Überlegen aufzurüsten vom 5600X, entweder auf den normal 5800X
Welche Grafikkarte hast du? Verfolge einmal mit dem Taskmanager oder GPU-z, wie stark der Prozessor und die Grafikkarte ausgelastet sind.

Solange die Grafikkarte am Anschlag läuft, sind höchstens noch minimale Unterschiede bei den Frametimes auszumachen. Das heisst, dass man nicht mehr FPS bekommt, sondern höchstens ein kleines bisschen weniger Mikroruckler, die man so oder so kaum mehr spürt. Messbar sind die Unterschiede noch, aber kaum mehr spürbar.
 
Wer nicht mehr als 16 Threads braucht, bekommt eine Effizienzbombe im Teillastbereich und - ich spoilere mal - endlich niedrigen Idle-Leistungsaufnahmewerten auch bei AMD. Es geht doch...
 
Welche Grafikkarte hast du?
3080 Ti, allerdings mit recht viel UV um sie kühler laufen zu lassen + IGFL bei so um die 110 FPS je nach Game. Wobei die beiden auch für 3x 1440p arbeiten müssen, also schon was zu tun bekommen und die Hauptsimulation (iRacing) nicht wirklich gut optimiert sein soll.
 
Eine Hauptsicht über 3 Bildschirme gestreckt oder verschiedene Sichten? Je nach Game kann das schon auch für die Grafikkarte viel Arbeit bedeuten. Ich würde einmal in den Games beobachten, wie stark die CPU ausgelastet ist. Die Grafikkarte dürfte so oder so fast am Anschlag laufen. Wenn die CPU aber nur zu 2/3 ausgelastet ist, dann bringt es auch nichts mehr Kerne hin zu stellen.
 
Eine Hauptsicht über 3 Bildschirme gestreckt

Genau so.

Bei der Ingame Anzeige sind beide Balken etwa gleich lang was die Auslastung angeht, aber ja muss wohl doch mal genauer hinschauen oder HWinfo im Hintergrund mitlaufen lassen...
 
Jenseits der hauptsächlichen "Anwender" könnte ich als Gamer, der in den letzten 1-2 Wochen Post von seinem Stromanbieter bekommen hat bei vorliegendem und anderweitig veröffentlichten Leistungs- und FPS Vergleichen des 5800x 3D mit dem Intel 12900 K(S) die Intel Plattform vorm Haushaltsvorstand nicht wirklich rechtfertigen, soweit kein CPU Upgrade (So 1700) in der Folge geplant ist.
Boards teurer, DDR5 Verfügbarkeit und Auswahl: na ja und mit dem Stromverbrauch kann man jetzt philosophieren - sexy ist das Ganze irgendwie nicht mehr wirklich.
 
Mich würde ja auch Tests mit AMPL und Gurobi zum Lösen von Problemen wie traveling salesman problem, facility location problem, capacitated lot sizing problem etc. interessieren, inwiefern da der zusätliche Cache etwas bringt. Das Ganze lässt sich auch single, multi (auto), full threaded testen. Irgendwann dieses Jahr soll ich neue Rechner zur Forschung bestellen.
 
Würde man nicht für Forschung und Entwicklung gar nicht im Mainstream suchen, sondern direkt im HEDT Bereich?
Wenn überhaupt macht ein 5950X oder ein 12900 Sinn, ein 5800X 3D sicher nicht.
 
Wer nicht mehr als 16 Threads braucht, bekommt eine Effizienzbombe im Teillastbereich und - ich spoilere mal - endlich niedrigen Idle-Leistungsaufnahmewerten auch bei AMD. Es geht doch...

Ich freu mich echt auf Deinen Test. Genau das sind die Punkte bei denen es bei mir bei Hardwarekauf ankommt.
 
Irgendwann dieses Jahr soll ich neue Rechner zur Forschung bestellen.
So sehr ich AMD mag, aber bei PCs für Beruf bin ich normal bei Intel+Invidia aus Gründen von Stabilität und vor allem Kompatibilität. Habe da einige Anwendungen, welche in den Specs "Intel/Nvidia only" sagen und ich wills nicht drauf ankommen lassen, ob das jetzt stimmt oder nicht.
 
So sehr ich AMD mag, aber bei PCs für Beruf bin ich normal bei Intel+Invidia aus Gründen von Stabilität und vor allem Kompatibilität. Habe da einige Anwendungen, welche in den Specs "Intel/Nvidia only" sagen und ich wills nicht drauf ankommen lassen, ob das jetzt stimmt oder nicht.
Die werden ja zum größten leider immer noch nur only Supportet und unterstützt was recht traurig ist.
 
Oben Unten