Question 2600 -> 5700X -> 5800X3D ?

ChckNrrs

Mitglied
Mitglied seit
Mrz 23, 2022
Beiträge
86
Punkte
7
Guten Morgen.

Ich traue mich dann doch mal als Laie, hier im Profiforum eine Frage zu stellen.

Wir haben uns den 5700X als Upgrade für den 2600 gegönnt und sind sehr glücklich damit, für nur 140 EUR neu + OVP doch eher ein Schnäppchen, denken wir.

Die Entscheidung auf den 5700X viel nach viel Herumrechnerei mit der unten verlinkten Website.

Unser System:

- MSI MPG B550 Gaming Plus
- 2600 -> 5700X
- 4x 8 GB DDR 4 Corsair Vengeance LPX 3600 CL 18 single rank
(CMK16GX4M2D3600C18)
(läuft nach Anhebung der DRAM Voltage von 1,35 V auf 1,4 Volt dann auch stabil im XMP 2 bei 3600 CL 18...)
- GTX 1080 Ti oder RX 6750 XT (sind beide hier)
- 1 TB Kingston M.2 PCIe 3 SSD
(aktuell nur hier drauf die Games installiert)
- neu drin: 2x 1 TB Samsung 860 EVO SATA SSD
- Enermax Revolution D.F. 750 Watt

In Verbindung mit einer GTX 1080 Ti und einer RX 6700 / 6750 XT wohl das optimale Zusammenspiel von GPU und CPU, wenn ich der Website hier, Engpassrechner, Glauben schenken darf (?):


Wir wüssten sehr gerne, wie die Website, FPS - Rechner, in Red Dead Redemption 2 mit einer RX 6750 XT auf im Schnitt 92 FPS in (pauschal ?) ultra kommt (in 1080p), wir waren im ersten Anlauf, ohne viel an den Settings ingame zu tunen, gestern bei bestenfalls 60 in (pauschal) ultra. Wobei wir da noch nicht ausgiebig mit RSR oder FSR probiert haben. Ich kann auch nicht erkennen, ob die Website die Nutzung von FSR unterstellt.

Aber falls zumindest die Relationen der Rechenergebnisse der Website stimmen (Engpassrechner, oder Verbesserung in % des FPS - Rechners), wäre das schon eine Hilfe.

Aber das btw, falls das jemandem von euch etwas sagt: freue ich mich über euren Beitrag dazu. Zu Website und / oder RDR2.

Ich frage mich zu den CPUs:

- was wäre die maximal sinnvolle Grafikkarte für einen 5700X? Laut Website, Engpassrechner, die RX 6800 XT in 1080p und 2k; in 2k die RTX 3080 (Ti).

Ist das korrekt, nach eurer Meinung und Erfahrung?

- was bringt ein 5800X3D in Relation zu einem 5700X nochmal an + in 1080p und 2k?

Laut der Website quasi nix. Über den FPS - Rechner komme ich mit diversen Grafikkarteneingaben bspw. nur auf 97 oder 98 FPS (5800X3D) statt 94 FPS (5700X).

- könnte man in kommenden AAA - Titel evt. doch noch enorm von einer RX 7900 XT / RTX 4070 Ti / 4080 profitieren, wenn man Raytracing und alle damit verbundenen Einstellungen und Effekte voll nutzen möchte? Dann eher mit 5800X3D, oder genauso gut mit 5700X?

Ich habe mir einige Spiele - Benchmarks angesehen, würde mich aber dennoch sehr über eure Meinungen und Erfahrungsberichte freuen (gern zu allen Punkten des Beitrags).

Sorry, wenn das Thema schon reichlich abgehandelt wurde. Bin wirklich nicht faul mit Google. Aber viele Sachen sind für uns Neuland.

Vielen Dank vorab!
 

Anhänge

  • Screenshot_20230320-043825_Chrome.png
    Screenshot_20230320-043825_Chrome.png
    300,5 KB · Aufrufe : 4
Zuletzt bearbeitet :

Karli

Veteran
Mitglied seit
Mrz 9, 2023
Beiträge
113
Punkte
17
ok aber sowas wie 20% mehrleistung kann man vergessen, oder? Fänd ich gar nicht so schlimm...hab gar keine Lust mehr, mich mit sowas zu beschäftigen.
 

LEIV

Urgestein
Mitglied seit
Aug 12, 2021
Beiträge
1.320
Punkte
84
Alter
32
Standort
Aschaffenburg
Rechne so mit maximal 5% im Multicore.... single core noch weniger
Was aber tatsächlich gut (gaming) Performance bringt, ist SMT abzuschalten, da kann dann auch mal bis 20% mehr drinnen sein
 

Karli

Veteran
Mitglied seit
Mrz 9, 2023
Beiträge
113
Punkte
17
ich glaub das brauch ich nicht
werd auch so konstant im GPU Limit sein, ausserdem spiel ich eh immer mit Vsync/halbe Bildwiederholrate, bin froh wenns für die 72 fps reicht.

Ich glaub ich lass das mit dem i3 sein...auf die nächsten 10 jahre macht der 5700x bestimmt mehr Sinn, vielleicht kommt ja bald die grosse Multicore-Dominanz von der seit Bulldozer alle faseln :)
 

Karli

Veteran
Mitglied seit
Mrz 9, 2023
Beiträge
113
Punkte
17
Kann mir mal bitte einer sagen, was ein 5600 oder ein 5700x ca verbraucht bei Spielen? Etwa bei Anno 1800, cyberpunk oder RDR2? Mit 60/72 fps Cap? Momentan zieht meine CPU alleine gerne 75-80 Watt bei cyberpunk/RDR in den Städten, manchmal 90. Wollte schon einen deutlich effizienteren Rechner eigentlich. Hab jetzt zu meinem Erstaunen gesehen, der i5 12400 verbraucht beim spielen weniger, obwohl er bei Gamers Nexus deutlich mehr verbraucht hat (glaube das war aber rendern.)
 

Casi030

Urgestein
Mitglied seit
Sep 9, 2019
Beiträge
10.116
Punkte
113
Kann mir mal bitte einer sagen, was ein 5600 oder ein 5700x ca verbraucht bei Spielen? Etwa bei Anno 1800, cyberpunk oder RDR2? Mit 60/72 fps Cap? Momentan zieht meine CPU alleine gerne 75-80 Watt bei cyberpunk/RDR in den Städten, manchmal 90. Wollte schon einen deutlich effizienteren Rechner eigentlich. Hab jetzt zu meinem Erstaunen gesehen, der i5 12400 verbraucht beim spielen weniger, obwohl er bei Gamers Nexus deutlich mehr verbraucht hat (glaube das war aber rendern.)
Ich hab nur den 5950X @75Watt gedrosselt in Cyberpunk, RDR2 hab ich nicht in der Stadt.
Unter den vielen Taktraten kommt der Verbrauch.
 

Karli

Veteran
Mitglied seit
Mrz 9, 2023
Beiträge
113
Punkte
17
hm irgendwie stoss ich auf unklare Aussagen zur Effizienz. Bei GN ist der 5600 ganz klar effizienter bei Workloads, aber wie kann er dann mehr verbrauchen beim spielen? Laut igor zieht der 12400 nur ca 40 watt beim spielen. Mir gehts drum, dass nicht nur die Gaminglast, sondern auch die idle (bzw. Surf/Youtube) Last möglich niedrig ist. Da fällt halt auch Mainboardchipsatz und ram mit rein. Weil der Rechner läuft hier 12h am tag, wenn ich nicht dran sitz, zockt mein Mitbewohner, oft läuft auch Film oder Musik.

Unter den Gesichtspunkten wäre vielleicht der i3 12100 am schlausten. Selbst der reicht dicke. Andererseits kauf ich ja nur einmal die Dekade ne neue Basis und damit müsste ich dann vielleicht in ein paar jahren ne andere CPU in den sockel stecken. Hm.


dieser Typ hier meint, dass sogar der kleine 12100F mehr beim Gaming zieht als der 5600x.



Ich glaub, das ist jetzt nicht so der megakompetente tester. Ich frag mich einfach, was so schwer dran ist, den Gamingverbrauch zu messen, liest HW Info das etwa nicht korrekt aus in der CPU? Oder verbraucht einer der beiden Hersteller doppelt so viel auf dem mainboard?
 
Zuletzt bearbeitet :

Casi030

Urgestein
Mitglied seit
Sep 9, 2019
Beiträge
10.116
Punkte
113
hm irgendwie stoss ich auf unklare Aussagen zur Effizienz. Bei GN ist der 5600 ganz klar effizienter bei Workloads, aber wie kann er dann mehr verbrauchen beim spielen? Laut igor zieht der 12400 nur ca 40 watt beim spielen. Mir gehts drum, dass nicht nur die Gaminglast, sondern auch die idle (bzw. Surf/Youtube) Last möglich niedrig ist. Da fällt halt auch Mainboardchipsatz und ram mit rein. Weil der Rechner läuft hier 12h am tag, wenn ich nicht dran sitz, zockt mein Mitbewohner, oft läuft auch Film oder Musik.

Unter den Gesichtspunkten wäre vielleicht der i3 12100 am schlausten. Selbst der reicht dicke. Andererseits kauf ich ja nur einmal die Dekade ne neue Basis und damit müsste ich dann vielleicht in ein paar jahren ne andere CPU in den sockel stecken. Hm.
Die Antwort ist einfach und hier zu sehen.
Du kannst einen Verbrauch um 50Watt haben oder um 35Watt.


Je weniger Kerne um so höher ist der Verbrauch.......
Links 16Kerne rechts 12Kerne


AMD ist halt nicht Plug&Play wie Intel,wobei die größeren es ja auch nicht mehr sind.

Das Mainboard mach was aus und Igor übertaktet die AMD CPUs auch immer, sollte man auch nicht vergessen.
 
Zuletzt bearbeitet :

Karli

Veteran
Mitglied seit
Mrz 9, 2023
Beiträge
113
Punkte
17
ja ne so einfach ist das leider nicht. Wir reden hier von tests im CPU Limit, Sechskerner gegen 6 Kerner wo die einen behaupten der eine ist deutlich effizienter und die anderen sagen das Gegenteil.
 

Casi030

Urgestein
Mitglied seit
Sep 9, 2019
Beiträge
10.116
Punkte
113
ja ne so einfach ist das leider nicht. Wir reden hier von tests im CPU Limit, Sechskerner gegen 6 Kerner wo die einen behaupten der eine ist deutlich effizienter und die anderen sagen das Gegenteil.
Wie geschrieben kommt es auf das Mainboard an was es Einstellt,ob es Übertaktet,wie es Übertaktet,wie der Ram betrieben wird ob wie Igor mit OC oder ohne und natürlich auf die CPU selber die ja auch große Unterschiede hat.
In Anwendungen hast mit Ram OC z.b. gut den doppelten Verbrauch beim SOC und das schlägt sich auch auf den Verbrauch und die Leistung nieder.In Spielen ist es nicht so gravierend,aber auch da hast kleine Unterschiede.

Surf/Youtube schaut übrigens so aus.
Ein wenig I-Net und YouTube 4K Video.
Höchstleistung mit Spitze 74Watt.
unknown_2023.04.23-15.40.png
Ausbalanciert mit Taktbegrenzung und Spitze 47Watt.
unknown_2023.04.23-15.35.png

Alles eine Sache der Einstellung.;)



In Rot ist die Stelle wo der Verbrauch der CPU mit PPT zu sehen ist im Video.Die Ergebnisse sind bei allen 5 Identisch.
Cyberpunk2077_2023.04.23-13.21.jpg

Auch im Spiel,SOC hat weniger Auswirkungen,ABER es sind auch angepasste Profile mit 8 und 16Kernen.
1 ist ein 8Kerner mit 3600MHz,2 ist ein 8Kerner mit 3200MHz der ein paar Watt weniger Verbraucht,3 ist mein angepasstes 8Kern Profil mit 3200MHz was auch noch mal leicht weniger verbraucht,4 ist das 8 Kern Profil mit 6 Kernen und 3200MHz,5 ist mein 16Kern Profil was am wenigsten braucht.

 
Zuletzt bearbeitet :
Oben Unten