Frage Schnellste Gaming CPU - Lieber noch warten?

wHynachtsmann

Mitglied
Mitglied seit
Dez 1, 2019
Beiträge
95
Bewertungspunkte
20
Punkte
8
Hallo Leute,

ich habe einen 7700K @4.8Ghz und eine 2080 TI und bei einigen Spielen bremst die CPU mittlerweile dann doch. Es wird also Zeit, mal wieder aufzurüsten und da stehe ich aktuell vor einen kleinen Problem. Auch wenn der 9900KS hier auf igorslab sicher nicht den Beliebtheitswettbewerb gewinnt, ist er doch im reinen Gaming-Bereich aktuell das Maß der Dinge. Korrigiert mich, wenn ich falsch liege.

Nun stellt sich die Frage, ob die kommenden Spiele (in den nächsten 2-3 Jahren) eher mehr Multicore-Optimiert sind und die Ryzen-CPUs mit mehr Kernen aufschließen, oder ob die 8 Kerne den 9900KS in den nächsten zwei bis drei Jahren ausreichen, um die Nase vorn zu behalten. Praktisch stellt sich für mich die Frage 9900KS oder 3900X (immerhin aktuell nicht der schnellste und 100€ teurer) oder warten auf den 10900K. Was würded ihr tun?
 
Das kommt aber auch aufs Spiel an. ZB. AC Origins läuft mit dem 3900X auch in 4K deutlich flüssiger als mit dem 2600@4GHz.

Aber nicht wegen besonders guter Programmierung sondern durch den versauten Kopierschutz .
Die freie Version hat selbst auf nem 4C8T keinen Schluckauf mehr .

ACO ist für mich hier eher ein Negativbeispiel das durch den Virtualisierten KS für diese Effekte sorgt.
 
Ich glaube er meint „dezentrale Sicherheitskopien“ ohne Kopierschutz.
 
Hm, keine Ahnung, der R5 2600 kam halt in Gegenden mit viel NPCs stark an die Grenzen, ob das am Kopierschutz liegt, kann ich nicht beurteilen. Das halte ich aber für die Grundaussage für nicht relevant, der Kopierschutz betrifft ja beide CPUs gleichermaßen, dass ein solcher Schutz oft den ehrlichen Kunden bestraft, ist ja leider bekannt.
 
Es gibt mittlerweile eine komplett KS freie Version über die die Medien berichten.
Die läuft auch sauber auf 4 Kernern .
Von mehr Kernen profitiert hier also in erster Liebe die virtualisierte KS von ACO die dann Weniger stört.

P.S.
das größte CPU bottleneck bei ACO hatte ich Auf meinem 3,8 GHz UV 4790 nicht in Städten oder beim schnellem Reiten sondern in der StartHöhle mit Fackel und Schatten dann ging’s teils auf 30-40 runter und die GPU Auslastung sackte mit ein .
 
Intel hat wohl auf der PK zur CES 2020 kein Wort zu Comet Lake verloren. Man geht mittlerweile davon aus, dass die CPUs erst im April oder Mai gelauncht werden, weil der 10900K wohl noch Probleme macht. Die MB-Hersteller haben durchsickern lassen, dass diese CPU bei höchster Last über 300W zieht, dafür bekommt man dann aber wohl auch 4,9 GHz auf allen 10 Kernen.
 
[...] ob das am Kopierschutz liegt, kann ich nicht beurteilen. Das halte ich aber für die Grundaussage für nicht relevant, der Kopierschutz betrifft ja beide CPUs gleichermaßen [..]
Sehe ich nicht so. Das kommt nämlich dann zum Tragen, wenn ich für die Abarbeitung dieses Bockmists immer wieder mal einen Kern habe der grad auf 70% läuft.
Es wird immer wieder von Bottenlecks gesprochen. Ich hab schonmal im Forum verlinkt (*): Das Video unten zeigt einen 2500k der eine absolut unpassende ;) Graka bedient. Vs. u.a. 3600. Was da bei 1080 wie 1440 bei rauskommt find ich noch sehr passabel.
Läuft mit 4.4 und unberührtem 1600 RAM.
Ich suche schon seit Wochen - hab aber an sich schon aufgegeben - ein ähnliches Video was ich vor Monaten mal zufällig entdeckte, wo ein 2500k mit mein cih 4.2 und sicher mit 4.6 läuft. Bei 4.6 noch mit aufgedrehtem RAM auf nah 2000 (1950 glaub ich, dafür auch recht scharfe Timings bei noch knapp unter 1.6V)

Da taten sich bei der letzten Konfig nochmal Welten auf. Weniger Average und nur kleinwenig was bei Min. (die eh hoch genug waren), aber was die 1%low FPS angeht haben die sich dann nahezu halbiert gegenübr 4.4. Für klassichen Vsync in 1440 ging da echt noch ziemlich die Lutzi ab.

Das Problem bleibt, daß man die Berechnungen der jeweiligen Kerne für ein Frame immer irgendwie Syncronisieren muss bzw. der, der grad das meiste abbekam, den Ton angibt. Sonst ist nichts mit Flüssig bzw. ohne Mikroruckler. Und das macht halt Overhead. Je mehr Kerne, desto mehr Overhead.
Sieht man gelegentlich u.a. auch daran, daß 4 Kerne gut laufen, 8 Kerne auch sichtbar was bringen (einfach die internen Massnahmen verdoppeln), aber 6 Kerne wieder gelegentlich irgendwie schwieriger zu handnaben sind.

Das ist bei fortlaufend hoch dynamischen Daten (da dauernd kaum vorhersagbare Interaktion des Spielers stattfindet) auch heute nicht so trivial für die Coder wie wenn man z.B. ein Bild oder ein Video (Frame für Frame auch rein statisch wie eben ein Bild) bearbeitet.

Im Gegensatz zu GPUs mit ihren CUs/SMs die ihre Daten quasi als Stream bekommen und damit die Parallelisierung vergleichweise einfach ausfällt, sind >4 Kerne fürs Zocken wohl immernoch die Brechstange. Die aber halt öfters funktioniert, wenn innerhalb paar Sekunden FPS-ungemach droht.

(*)
 
Wie dieses Video.

Oder
Man muss halt nur die richtigen Spiele raus suchen + Einstellung....
 
Jou :D BF1 ist echt steil. Aber 1080p in Low, um in CPU-Limits zu laufen, ist halt nicht nah der Realität. Da sollte man sich "High" schon gönnen dürfen.
Meinst du das würde mit einer 2060 statt 1060 anders aussehen? Auf meinem Video ist es eine 2080...

MMOs kann man brauchbar auf viele Kerne aufteilen. Schrieb ich ja. Sonst aber oft eher wie in #107.
 
Zuletzt bearbeitet :
Es bringt aber selbst einen 4 Kerner mit Entsprechenden Spielen in Spielbare FPS zurück.
Oder anders rum , alles was die Grafikkarte Belastet rauf , CPU last runter , die richtigen Spiele und schon reicht wieder ein 4 Kerner aus.
Und alles andere Aus was die CPU belastet.......
In der Realität mit Virenscanner/Teamspeak oder der gleichen/YouTube.......kannst 4 Kerner vergessen.
 
Ja man kanns auch einsehen und halt nicht in Ultra spielen, sondern "einen drunter". Rennt immernoch.
 
Gut mit der Mini Map wird es sicherlich noch gehen wobei das Video kurz nach Erscheinung gemacht wurde,aber die Großen kannst heute vergessen.
 
"vergessen" ist immer so nen hartes Wort, was du vergessen nennst, ist für mich normal ;)
keine Ahnung ob das ne große Map ist:

aber ich denke man kann da immer noch ganz gut mit Zocken.
 
"vergessen" ist immer so nen hartes Wort, was du vergessen nennst, ist für mich normal ;)
keine Ahnung ob das ne große Map ist

aber ich denke man kann da immer noch ganz gut mit Zocken.
Ja ist ne Große bis zu 64 , da hab ich auch ein Video von......nur das man da alles Lesen kann in den Einstellungen.
Aber wenn es danach geht,dann würde da auch noch ein FX 4350 mit laufen.;)
 
Aber wenn es danach geht,dann würde da auch noch ein FX 4350 mit laufen.;)
Ja natürlich. Weil unter "mitlaufen" kann man sich auch alles mögliche vorstellen. Das ist auch glücklicherweise genauso dehnbar wie "kannst du heute vergessen".
Ich finds auch ziemlich gut, weil so läuft man nie Gefahr seine Meinung auch nur bisschen anpassen zu müssen.
 
So wait, so good. Aber stock (!) ist der 63xx schon merkbar schlapper als der 3570k stock (YT), und der 3570k hat mit OC bei 4.2 ungefährt einen ~>200Mhz Vorteil gegenüber einem 4.5 2500k.

Da wir uns hier wenigstens dagei einige waren, daß man den 2500k schon irgendwo zwischen 4.4 und 4.7 fahren sollte (YT Beispiele), damit man beim Zocken ungestört bleibt, sieht das auch für den 63xx imho eher schlecht aus ;)
 
Oben Unten