Frage 5800X3D kühlen

grimm

Urgestein
Mitglied seit
Aug 9, 2018
Beiträge
3.110
Bewertungspunkte
2.047
Punkte
114
Standort
Wiesbaden
Hallo,
ich habe gestern endlich (die CPU stand 5 Wochen rum) meinen 3700X durch einen 5800X3D ersetzt. Im Singlecore Bench tut sich da sehr wenig (+11%), Multi-Core und vor allem in Games ist es eine ordentliche Schippe drauf. Aber mein Slim Rock kriegt den nicht in den Griff. Ich habe den sauber eingebaut, WLP flächig aufgetragen und der Kühler sitzt, passt und tut. Beim Spielen (z. B. Uncharted) wird er 90° heiß und taktet dann auf 3,0 GHz runter. Ich hab trotzdem 140+ FPS, aber dauerhaft möchte ich das nicht. Ne AiO? Und wenn ja: Welche?
 
Ich glaube, dass der Boost fix ist. Allerdings sind die Temps ein Traum. Ich schnalle erstmal den großen Kühler drauf und schaue, ob ich dann noch per PBO eingreifen muss.

Ich würde bevor ich Geld ausgeben würde erst mal per PBO Tuner testen. So schlecht ist der Dark Rock Slim jetzt auch nicht.
Evtl. sparst Du Dir für 5min Arbeit 70€.
 
Ich glaube, dass der Boost fix ist. Allerdings sind die Temps ein Traum. Ich schnalle erstmal den großen Kühler drauf und schaue, ob ich dann noch per PBO eingreifen muss.
mit PBO -30 und VCORE OFFSET -0,175V war bei mir nur noch 4040MHz drin. Darum hab ich alles so weit abgesenkt bis der Boost nicht mehr drunter leiden musste. Vielleicht hab ich glück mit meinem aber ich kann einstellen was ich will, er bleibt stabil, senkt nur den Takt teilweise drastisch.
 
Auch die GPU läuft immer auf 99% Auslastung - egal, ob Framelimiter an oder aus. Und trotz angezeigter maximaler Auslastung bei max. 104 FPS erzeugt sie bei Wegfall des Framelimits fröhlich 144+ FPS, also einfach so 40% mehr Frames.
Der Wert für prozentuale Auslastung der GPU orientiert sich leider nicht am absoluten Limit der GPU, sondern eher am aktuellen Takt der GPU, oder sonstigen Werten. MSI Afterburner und auch der Taskmanager zeigen exakt den gleichen, leicht misszuverstehenden Wert an.
Für die GPU solltest du die Leistungsaufnahme in Watt als Indikator wählen. MSI Afterburner, hwinfo und andere Tools zeigen den Wert an.
 
Der Wert für prozentuale Auslastung der GPU orientiert sich leider nicht am absoluten Limit der GPU, sondern eher am aktuellen Takt der GPU, oder sonstigen Werten. MSI Afterburner und auch der Taskmanager zeigen exakt den gleichen, leicht misszuverstehenden Wert an.
Für die GPU solltest du die Leistungsaufnahme in Watt als Indikator wählen. MSI Afterburner, hwinfo und andere Tools zeigen den Wert an.
Die ist ebenfalls fix. Habe bei 99% Auslastung grundsätzlich 289 Watt Leistungsaufnahme laut Adrenaline Overlay. Mit HWInfo hab ich noch nicht geschaut, aber die GraKa macht 0 Probleme.
 
So schlecht ist der Dark Rock Slim jetzt auch nicht.
Naja, so schaut es im Vergleich zum AS500+ in der Realität und meiner Erfahrung nach aus. Die meisten deutschen Tests kann man vergessen, da wird meist mit sehr geringer Wärmelast gemessen, hier wurde ein 10900K auf 200W übertaktet. Nicht dass deiner diese Leistung braucht, aber die Wärmelast auf kleiner Fläche wird ähnlich hoch sein. Mein 13900K darf im PL1 (noch) 200W saufen, es werden beim Benchmark ähnliche maximale Temps erreicht, beim Spielen natürlich viel geringere. Ein Assassin III wäre state of the art, aber verbaut komplett den Speicher.

1672328224463.png
 
Hier mal normale Temps beim 5800X3D
1672332275084.png
 
@Tronado

Ist ja alles richtig, dass der AS500 besser ist. Nur braucht der 5800X3D mit -30 nur 90W und damit weniger als die Hälfte
der 200W in dem Test. Zudem sind die Temps bzw. Verbrauch beim zocken viel niedriger als im Cinebench. Daher mein
Rat erstmal mit dem PBO2 Tuner zu testen. Sich die Temps und den Takt anzugucken beim Cinebench und dann beim
Gaming und dann zu entscheiden.
 
Plus: sämtliche Waküs schneiden deutlich besser ab.
 
Plus: sämtliche Waküs schneiden deutlich besser ab.
Das ist in der Regel schon so, aber leider nicht bei deinem 5800X3D. Aber du willst doch eine, dann hol dir doch einfach so ein wartungsresistentes, versottendes Drecksteil. :ROFLMAO:
 
Du suchst doch nur nach nem Grund.... ;) :ROFLMAO:
sinnlos Geld aus zu geben ist ja auch leichter als sich mal 30min damit zu befassen....
Da hätte ich dann das passenden,damit bleibt der 5800X3D dann auf jeden Fall unter 90°C.
 
sinnlos Geld aus zu geben ist ja auch leichter als sich mal 30min damit zu befassen....
Da hätte ich dann das passenden,damit bleibt der 5800X3D dann auf jeden Fall unter 90°C.
gibts den denn auch als AIO? :ROFLMAO: ausserdem is der ja gar nicht bunt! :mad:
 
Die beiden 5800X3D der Bekannten ließen sich aber mit einem Luftkühler 2-3°C besser kühlen als mit einer guten AIO, warum auch immer.
 
auf den Scalar bin ich gar nicht eingegangen. hab das mit Cinebench R23 eingestellt. PBO -30 lief auf anhieb. Dann hab ich dden VCORE Offset so lange verringert bis der effektive Takt gesunken ist.
dann das gleiche mit EDC etc. Als Richtwert hab ich die Tdie und den Eff. Takt genommen. Mein Boost liegt bei 4550Mhz bei 67°C in CB23. Allerdings kann ich den Score nicht sagen. Im vergleich zu Stock waren es ~200Punkte weniger dafür aber 23°C weniger.
Ist auch gar nicht schlecht für Spiele mit CineBench R23 und CPUz Benchmark.
Einen Verbrauch einstellen von z.b. PPT65Watt und erst mit CPUz EDC einstellen und sehen bei wieviel A er bei 100% am meisten bringt.
EDC ist ja die Sanfte Drossel.
Dann mit CineBench R23 TDC auf 99% bringen.
Wenn du LLC auch noch hast kannst damit noch fein Einstellen.
SOC nach Möglichkeit noch anpassen damit mehr für die Kerne übrig bleibt.
Bei mir hab ich auf 55Watt Optimiert als 5800X.
unknown_2022.12.03-16.45.png
 
Leute, ich kann mich grad nicht wehren. Bin über Silvester bei Freunden am Wasser. Wenn ich zurück bin: 1. BIOS aufspielen (2806) 2. PBO und CO fummeln 3. falls nötig: Anderer Lüfter / Kühler (Noctua oder Alphacool)
 
Noch kurz zur Info. Habe gestern Abend mal geschaut. Nach 2 1/2 Stunden Destiny 2 hatte die CPU einen max. Verbrauch von 65W.
Würde mich wundern, wenn der beQuite das nicht weg bekommen würde.
 
Oben Unten