Question 2600 -> 5700X -> 5800X3D ?

ChckNrrs

Mitglied
Mitglied seit
Mrz 23, 2022
Beiträge
88
Bewertungspunkte
9
Punkte
7
Guten Morgen.

Ich traue mich dann doch mal als Laie, hier im Profiforum eine Frage zu stellen.

Wir haben uns den 5700X als Upgrade für den 2600 gegönnt und sind sehr glücklich damit, für nur 140 EUR neu + OVP doch eher ein Schnäppchen, denken wir.

Die Entscheidung auf den 5700X viel nach viel Herumrechnerei mit der unten verlinkten Website.

Unser System:

- MSI MPG B550 Gaming Plus
- 2600 -> 5700X
- 4x 8 GB DDR 4 Corsair Vengeance LPX 3600 CL 18 single rank
(CMK16GX4M2D3600C18)
(läuft nach Anhebung der DRAM Voltage von 1,35 V auf 1,4 Volt dann auch stabil im XMP 2 bei 3600 CL 18...)
- GTX 1080 Ti oder RX 6750 XT (sind beide hier)
- 1 TB Kingston M.2 PCIe 3 SSD
(aktuell nur hier drauf die Games installiert)
- neu drin: 2x 1 TB Samsung 860 EVO SATA SSD
- Enermax Revolution D.F. 750 Watt

In Verbindung mit einer GTX 1080 Ti und einer RX 6700 / 6750 XT wohl das optimale Zusammenspiel von GPU und CPU, wenn ich der Website hier, Engpassrechner, Glauben schenken darf (?):


Wir wüssten sehr gerne, wie die Website, FPS - Rechner, in Red Dead Redemption 2 mit einer RX 6750 XT auf im Schnitt 92 FPS in (pauschal ?) ultra kommt (in 1080p), wir waren im ersten Anlauf, ohne viel an den Settings ingame zu tunen, gestern bei bestenfalls 60 in (pauschal) ultra. Wobei wir da noch nicht ausgiebig mit RSR oder FSR probiert haben. Ich kann auch nicht erkennen, ob die Website die Nutzung von FSR unterstellt.

Aber falls zumindest die Relationen der Rechenergebnisse der Website stimmen (Engpassrechner, oder Verbesserung in % des FPS - Rechners), wäre das schon eine Hilfe.

Aber das btw, falls das jemandem von euch etwas sagt: freue ich mich über euren Beitrag dazu. Zu Website und / oder RDR2.

Ich frage mich zu den CPUs:

- was wäre die maximal sinnvolle Grafikkarte für einen 5700X? Laut Website, Engpassrechner, die RX 6800 XT in 1080p und 2k; in 2k die RTX 3080 (Ti).

Ist das korrekt, nach eurer Meinung und Erfahrung?

- was bringt ein 5800X3D in Relation zu einem 5700X nochmal an + in 1080p und 2k?

Laut der Website quasi nix. Über den FPS - Rechner komme ich mit diversen Grafikkarteneingaben bspw. nur auf 97 oder 98 FPS (5800X3D) statt 94 FPS (5700X).

- könnte man in kommenden AAA - Titel evt. doch noch enorm von einer RX 7900 XT / RTX 4070 Ti / 4080 profitieren, wenn man Raytracing und alle damit verbundenen Einstellungen und Effekte voll nutzen möchte? Dann eher mit 5800X3D, oder genauso gut mit 5700X?

Ich habe mir einige Spiele - Benchmarks angesehen, würde mich aber dennoch sehr über eure Meinungen und Erfahrungsberichte freuen (gern zu allen Punkten des Beitrags).

Sorry, wenn das Thema schon reichlich abgehandelt wurde. Bin wirklich nicht faul mit Google. Aber viele Sachen sind für uns Neuland.

Vielen Dank vorab!
 

Anhänge

  • Screenshot_20230320-043825_Chrome.png
    Screenshot_20230320-043825_Chrome.png
    300,5 KB · Aufrufe : 4
Zuletzt bearbeitet :
ok aber sowas wie 20% mehrleistung kann man vergessen, oder? Fänd ich gar nicht so schlimm...hab gar keine Lust mehr, mich mit sowas zu beschäftigen.
 
Rechne so mit maximal 5% im Multicore.... single core noch weniger
Was aber tatsächlich gut (gaming) Performance bringt, ist SMT abzuschalten, da kann dann auch mal bis 20% mehr drinnen sein
 
ich glaub das brauch ich nicht
werd auch so konstant im GPU Limit sein, ausserdem spiel ich eh immer mit Vsync/halbe Bildwiederholrate, bin froh wenns für die 72 fps reicht.

Ich glaub ich lass das mit dem i3 sein...auf die nächsten 10 jahre macht der 5700x bestimmt mehr Sinn, vielleicht kommt ja bald die grosse Multicore-Dominanz von der seit Bulldozer alle faseln :)
 
Kann mir mal bitte einer sagen, was ein 5600 oder ein 5700x ca verbraucht bei Spielen? Etwa bei Anno 1800, cyberpunk oder RDR2? Mit 60/72 fps Cap? Momentan zieht meine CPU alleine gerne 75-80 Watt bei cyberpunk/RDR in den Städten, manchmal 90. Wollte schon einen deutlich effizienteren Rechner eigentlich. Hab jetzt zu meinem Erstaunen gesehen, der i5 12400 verbraucht beim spielen weniger, obwohl er bei Gamers Nexus deutlich mehr verbraucht hat (glaube das war aber rendern.)
 
Kann mir mal bitte einer sagen, was ein 5600 oder ein 5700x ca verbraucht bei Spielen? Etwa bei Anno 1800, cyberpunk oder RDR2? Mit 60/72 fps Cap? Momentan zieht meine CPU alleine gerne 75-80 Watt bei cyberpunk/RDR in den Städten, manchmal 90. Wollte schon einen deutlich effizienteren Rechner eigentlich. Hab jetzt zu meinem Erstaunen gesehen, der i5 12400 verbraucht beim spielen weniger, obwohl er bei Gamers Nexus deutlich mehr verbraucht hat (glaube das war aber rendern.)
Ich hab nur den 5950X @75Watt gedrosselt in Cyberpunk, RDR2 hab ich nicht in der Stadt.
Unter den vielen Taktraten kommt der Verbrauch.
 
hm irgendwie stoss ich auf unklare Aussagen zur Effizienz. Bei GN ist der 5600 ganz klar effizienter bei Workloads, aber wie kann er dann mehr verbrauchen beim spielen? Laut igor zieht der 12400 nur ca 40 watt beim spielen. Mir gehts drum, dass nicht nur die Gaminglast, sondern auch die idle (bzw. Surf/Youtube) Last möglich niedrig ist. Da fällt halt auch Mainboardchipsatz und ram mit rein. Weil der Rechner läuft hier 12h am tag, wenn ich nicht dran sitz, zockt mein Mitbewohner, oft läuft auch Film oder Musik.

Unter den Gesichtspunkten wäre vielleicht der i3 12100 am schlausten. Selbst der reicht dicke. Andererseits kauf ich ja nur einmal die Dekade ne neue Basis und damit müsste ich dann vielleicht in ein paar jahren ne andere CPU in den sockel stecken. Hm.


dieser Typ hier meint, dass sogar der kleine 12100F mehr beim Gaming zieht als der 5600x.



Ich glaub, das ist jetzt nicht so der megakompetente tester. Ich frag mich einfach, was so schwer dran ist, den Gamingverbrauch zu messen, liest HW Info das etwa nicht korrekt aus in der CPU? Oder verbraucht einer der beiden Hersteller doppelt so viel auf dem mainboard?
 
Zuletzt bearbeitet :
hm irgendwie stoss ich auf unklare Aussagen zur Effizienz. Bei GN ist der 5600 ganz klar effizienter bei Workloads, aber wie kann er dann mehr verbrauchen beim spielen? Laut igor zieht der 12400 nur ca 40 watt beim spielen. Mir gehts drum, dass nicht nur die Gaminglast, sondern auch die idle (bzw. Surf/Youtube) Last möglich niedrig ist. Da fällt halt auch Mainboardchipsatz und ram mit rein. Weil der Rechner läuft hier 12h am tag, wenn ich nicht dran sitz, zockt mein Mitbewohner, oft läuft auch Film oder Musik.

Unter den Gesichtspunkten wäre vielleicht der i3 12100 am schlausten. Selbst der reicht dicke. Andererseits kauf ich ja nur einmal die Dekade ne neue Basis und damit müsste ich dann vielleicht in ein paar jahren ne andere CPU in den sockel stecken. Hm.
Die Antwort ist einfach und hier zu sehen.
Du kannst einen Verbrauch um 50Watt haben oder um 35Watt.


Je weniger Kerne um so höher ist der Verbrauch.......
Links 16Kerne rechts 12Kerne


AMD ist halt nicht Plug&Play wie Intel,wobei die größeren es ja auch nicht mehr sind.

Das Mainboard mach was aus und Igor übertaktet die AMD CPUs auch immer, sollte man auch nicht vergessen.
 
Zuletzt bearbeitet :
ja ne so einfach ist das leider nicht. Wir reden hier von tests im CPU Limit, Sechskerner gegen 6 Kerner wo die einen behaupten der eine ist deutlich effizienter und die anderen sagen das Gegenteil.
 
ja ne so einfach ist das leider nicht. Wir reden hier von tests im CPU Limit, Sechskerner gegen 6 Kerner wo die einen behaupten der eine ist deutlich effizienter und die anderen sagen das Gegenteil.
Wie geschrieben kommt es auf das Mainboard an was es Einstellt,ob es Übertaktet,wie es Übertaktet,wie der Ram betrieben wird ob wie Igor mit OC oder ohne und natürlich auf die CPU selber die ja auch große Unterschiede hat.
In Anwendungen hast mit Ram OC z.b. gut den doppelten Verbrauch beim SOC und das schlägt sich auch auf den Verbrauch und die Leistung nieder.In Spielen ist es nicht so gravierend,aber auch da hast kleine Unterschiede.

Surf/Youtube schaut übrigens so aus.
Ein wenig I-Net und YouTube 4K Video.
Höchstleistung mit Spitze 74Watt.
unknown_2023.04.23-15.40.png
Ausbalanciert mit Taktbegrenzung und Spitze 47Watt.
unknown_2023.04.23-15.35.png

Alles eine Sache der Einstellung.;)



In Rot ist die Stelle wo der Verbrauch der CPU mit PPT zu sehen ist im Video.Die Ergebnisse sind bei allen 5 Identisch.
Cyberpunk2077_2023.04.23-13.21.jpg

Auch im Spiel,SOC hat weniger Auswirkungen,ABER es sind auch angepasste Profile mit 8 und 16Kernen.
1 ist ein 8Kerner mit 3600MHz,2 ist ein 8Kerner mit 3200MHz der ein paar Watt weniger Verbraucht,3 ist mein angepasstes 8Kern Profil mit 3200MHz was auch noch mal leicht weniger verbraucht,4 ist das 8 Kern Profil mit 6 Kernen und 3200MHz,5 ist mein 16Kern Profil was am wenigsten braucht.

 
Zuletzt bearbeitet :
@Casi030 Das ist Hausaufgabe meiner Kids. Bis Donnerstag RDR 2 testen, mit MSI Afterburner / Riva Tuner HUD. Und die Feineinstellungen in den Gamesettings machen.

In 2k wären stabile 60 FPS ohne größere Drops wünschenswert, zumindest immer in der FreeSync - Frequenzrange ab 48 Hz. Wenn bei der Game mit den beiden Karten und der CPU zu ambitioniert, dann in 1080p.

Gem. YT sind mit einer GTX 1080 Ti in 1080p und alles nahezu ultra 90 bis 100 FPS stabil möglich.

A-XMP:

Gibt es bei mir im BIOS nicht. Nur XMP 1 und 2. Und das sind beides direkt 3600 MHz CL 18.

Wie aktiviert man das?

Wo man dort FCLK von Auto auf manuelle Eingabe umstellt, weiß ich.

(wie kann ich dann sehen, ob FCLK und ... noch was zu beachten ? ... stabil bei 1600 oder 1800 läuft und alles 1 : 1?)

"Mit dem 2600er hattest auf MSI auch weniger Probleme, erst mit den 3000er fingen die Ramprobleme an."

Bei uns mit dem 2600 mit dem RAM nur Probleme in XMP, ohne nicht. Mit dem 5700X und XMP keine Probleme im Betrieb bei 2 DIMM. Erst dann bei 4.

"Ob das Mainboard den Ram,Speichercontroller,Spannungen und die Widerstände richtig eingestellt hat kannst am besten mit Karhu feststellen,das musst aber richtig einstellen."

Das muß man kaufen, right? Geht das nicht mit bekannten, kostenlosen Tools?

Und ich wüsste gar nicht, was ich einstellen muss. In der Software, oder was vom Board wie von dir geschrieben eingestellt sein muss. Es sei denn, du meinst nur Freuqenz RAM und IMC (50 % RAM?). Aber Spannungen und Widerstände?

Glaube bei Ryzen 5000 kann man die Stabilität des RAM auch gut mit TestMem5 testen, und mit bestimmten Settings, oder?
Soooooo!
Also RDR2 soll stabil auf 60FPS in 2K mit einer RX6750XT laufen.
1.) RDR2 ist auf nVidia optimiert, sollte aber trotzdem problemlos mit 60Hz ohne Drops laufen.
Ich habe selber in dem einen System einen R7 5800x gepaart mit einer RX6700XT, 32gb RAM @3200MHz und RDR2 läuft
butterweich auf 60Hz in 2k.
Schalte den VSync aus, das kann Probleme bereiten, zumindest habe ich Mikroruckler bei RDR2, wenn VSync aktiviert ist.
2.) schau mal wie stark die Sichtweite aufgedreht ist und wenn sie über 100% (120% what ever), dann stell auf 100%.
Zudem würde ich die Qualität für die Fernsicht reduzieren von ultra auf hoch oder mittel sollte die Drops verhindern.
3.) Es muss nicht immer Ultra sein, für ein bisschen mehr Details von hoch auf ultra wird exponentiell mehr Leistung gebraucht.
das ist es nicht wert.

Mein zweites System ist ein i3 10100f gepaart mit einer RTX 3060, 16gb RAM @3200MHz hier sind mit mixed Settings aus Ultra und Hoch auch butterweich 60FPS und etwas mehr in 1080p möglich.
Hier sind Sichtweite und Entfernungsqualität etwas angepasst, sowie Framelock auf 60FPS und ohne VSync.

Zudem würde ich auch probieren den RAM einfach auf 3200Mhz laufen zu lassen, den Unterschied merken Ottonormalverbraucher wie du und ich sowieso nicht ;-)

MfG
Ein Besen
 
Sorry für das Offtopic aber wie bekommst du bei HWInfo mehrere Spalten?
 
Danke euch beiden! Keine Ahnung wieso mir die nie aufgefallen sind :D
 
Oben Unten