AMD Ryzen 7 5800X3D – der einzige (und letzte) Kämpfer seiner Art als perfektes und sehr effizientes Upgrade

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.872
Bewertungspunkte
9.081
Punkte
1
Standort
Redaktion
Um es vorweg zu nehmen: Der Ryzen 7 5800X3D ist AMDs fast schon herablassende Geste von Nonchalance, sich mal eben so als „Zweitverwertung“ ein Epyc-Chiplet („Milan“) mit 3D-V-Cache zu schnappen, dieses in eine normale Consumer-CPU zu packen und damit „rein zufällig“ Intels Waffeltoast in Form des komplett überpowerten Core i9-12900KS galant in die Wüste zu (read full article...)
 
Ich habe bei Ultra noch 16x AF drin, aber das kommt schon ungefähr so hin. Das ist bereits das GPU-Limit. Es deckt sich ja ganz gut. Du hast die 6900XT sicher noch etwas optimiert, ich nicht wirklich. Ich benchmarke allerdings immer mit der komplett erwärmten Karte, also meist Run 2 oder 3, je nachdem. :)
Der 5950x ohne SMT ist noch nicht 100% Optimiert,hatte die letzte Zeit Profile für den 5600G und den 5700G erstellt.Die bekommen eine Grund Staffelung bei mir,5600G PPT 25Watt,5700G PPT 50Watt und der 5950x fängt dann bei PPT 75Watt an.Getestet wurde jetzt aber mit PPT 150Watt.
Die RX6900XT wird nur über den Treiber angepasst,Takt rauf , Spannungskurve runter und PL auf 293Watt da ich das Silent mit 255Watt geladen hatte.damit komm ich dann auf min 230Watt runter.Mehr geht also nicht.Das MPT wollt ja nicht so richtig bei der RX6900XT und der RX6700XT.
Warm......Der T-Sensor ist die genauere Wassertemperatur , da liegst ja deutlich drunter.
Das einzige was ich noch gemacht hatte war alles mögliche unter Win10 was ich noch mit starten lasse aus gemacht.
Getestet,oder versucht hab ich noch Borderlands 3 , Far Cry 6 und World War Z , da änderte sich dann nicht mehr wirklich was bei den Temperaturen.
So sollte es dann doch passen oder?
Shadow of the Tomb Raider_2022.04.22-18.35.png

Shadow of the Tomb Raider_2022.04.22-18.35_1.png
 
Du bist ja so ein Sparfuchs. :) Da würde ich mir sofort den 5800X3D kaufen.
 

mal ein Gamestream von nem normalen User bei OCN
(mit Relive?)

edit: noch krasser scheints in NewWorld@4k zu sein bei nem User im Luxx:
(da scheint ein Wechsel vom 3950x sich echt zu lohnen)

Gerade das letztere Bsp. lässt vermuten das in einigen grottigen Engines auch >FHD noch Reserven schlummern.
 
Zuletzt bearbeitet :
Oh ja, ich schäme mich auch schon ein bisschen, aber stehe einfach so auf schnellen DDR5.
 
aus nem FSR-Thread:
Please note: At low resolutions (under 720p), DEATHLOOP can sometimes not render certain small objects at far distances, such as the light bulbs shown in the 1080p comparison images. When targeting 1080p output, the FSR 2.0 internal render resolution is 1280 x 720 or below, which results in the missing objects shown here — this issue is therefore not related to FSR 2.0.

ergo,
ist es sehr gut, das Igor auch mal in 1080p getestet hat
(könnte ja sein das einige Games die selben Issues aufweisen)
Und in 4k wird etwas nicht gerendert was in 2k nicht gerendert wird. und in 8k gibts noch mehr Details in der Ferne. Jajaja. Wir kennen es alle.
 
Und in 4k wird etwas nicht gerendert was in 2k nicht gerendert wird. und in 8k gibts noch mehr Details in der Ferne. Jajaja. Wir kennen es alle.
Was ich damit sagen wollte, mit der 3090Ti und hochgepuschten 6900xtxh@450W kann man eigentlich gut in 1080p testen.
(wo evtl. vorher die Tester nur ne 3080/6900@320W genutzt hatten = GPU-Limit)

Ältere light Games laufen evtl. in 1440p+4k auch noch ansprechend mit CustomSettings, aber da müsste man erstmal ne Liste erstellen.
(wo die Unterschiede auftreten)

Das will ich Igor net zumuten. (... werden die Streams+Posts von Usern mit der Zeit herausfinden)
 
Zuletzt bearbeitet :
Ja, das ist super spannend, eine 3090Ti in 1080p, merkst du was?
Ich war auch nicht begeistert, dass ein Bekannter mit gleicher Grafikkarte mit einem 5600X fast die gleichen fps in 4K hat, aber so ist es nun mal.
 
Kein Ahnung was sich Manche für Warzone so gönnen.
Der XTXH aus dem Video hat der 5800x3d ja gut geschmeckt für konstant 300fps.
(wenn vorher die GPU-Auslastung net passte, ist es jetzt auf jeden Fall deutlich besser)
 
Danke Igor, habs mir in die Richtung gedacht. Hab keinen 3D und kauf mich auch keinen, aber würde mich natürlich im direkten Vergleich auch mal interessieren, ein 3D gegen nen gut flutschigen X gegeneinander antreten lassen. Bin gespannt, in welcher für Normalos greifbaren Anwendung oder Benchmark man da mal vergleichen kann. Mein Verstand sagt, der X sollte bei höherem Takt schneller sein, wenn man ne Anwednung findet, wo der Cache nix zählt. Ja schaun wir mal - man könnts natürlich auch mal bei deiner Konkurrenz nachlesen, aber ich bin mal geduldig, bis dein nächster Teil kommt.
 
Stepping?
 
Danke Igor, habs mir in die Richtung gedacht. Hab keinen 3D und kauf mich auch keinen, aber würde mich natürlich im direkten Vergleich auch mal interessieren, ein 3D gegen nen gut flutschigen X gegeneinander antreten lassen. Bin gespannt, in welcher für Normalos greifbaren Anwendung oder Benchmark man da mal vergleichen kann. Mein Verstand sagt, der X sollte bei höherem Takt schneller sein, wenn man ne Anwednung findet, wo der Cache nix zählt. Ja schaun wir mal - man könnts natürlich auch mal bei deiner Konkurrenz nachlesen, aber ich bin mal geduldig, bis dein nächster Teil kommt.
Die Frage ist , hat der X wirklich einen Höheren Takt in Multi Anwendung, oder bricht der Takt stärker ein mit Zunahme der Temperatur , Last , Spannung , Strom......
 
Der X3D nutzt ja ein anderes und dünneres Chiplet, damit der Cache noch draufpasst. Was da im Detail noch anders ist, keine Ahnung.
 
Zuletzt bearbeitet :
Das ist schon beeindruckend mit welcher Leichtigkeit diese CPU alles auf dem Markt überflügelt.
 
(... werden die Streams+Posts von Usern mit der Zeit herausfinden)



oder
Sparfüchse können auch mit dem 5800x3d noch UVen: ... macht vllt. besonders Sinn für Aufrüster mit langsamen Ram, die eh net OCen
 

Anhänge

Zuletzt bearbeitet :
Oben Unten