Userreview Upgrade 1600X > 3700X mess- aber nicht spürbar

grimm

Urgestein
Mitglied seit
Aug 9, 2018
Beiträge
3.084
Bewertungspunkte
2.040
Punkte
114
Standort
Wiesbaden
Jedes Jahr wieder kommen neue CPUs raus. Grund genug für viele Hardware-Enthusiasten, ihre geliebte Kiste auf den aktuellsten Stand zu bringen. Von Produktiv-Mitteln mal abgesehen, stehe ich dem skeptisch gegenüber. Aus verschiedenen Gründen, z. B. Ressourcen-Verbrauch.
Nach einem aufschlussreichen Artikel von @FritzHunter01 zum Thema Latenzen, Frametimes und Sync-Technologie hab ich mich auf die Suche nach Optimierungen gemacht. Von einigen Seiten wurde mein in die Jahre gekommener 1600X als Frametime- bzw- FPS-Bremse identifiziert. Mit dem Afterburner konnte ich zwar sehen, dass mein Rechner im GPU-Limit hängt, aber das Zusammenspiel aus CPU und GPU und wer da welche Limits verschiebt, ist komplexer als das Ablesen von Messdaten. Hab ich gelernt.

Mein System siehe Signatur. Vornehmlich spiele ich. WQHD mit maximal möglichen Settings bei >60 FPS (z. b. in Metro: Exodus, in SoTR meist zwischen 80 - 120, in Doom Eternal >120). Der Bildschirm kann G-Sync (nativ) und 144Hz. Kein Overclocking, lediglich der Ram läuft mit XMP @2933MHz.

Gestern habe ich von 1600X auf 3700X aufgerüstet. Alles andere ist unverändert. Gemessen wurde ein Leistungszuwachs Single Thread mit ca. 30% und Multithreaded um die 50%.
Auf die dann von mir getesteten Games hatte das aber null (0) Einfluss. Weder bei den FPS noch bei den Frametimes. Das war zwar ernüchternd aber auch im Rahmen meiner Erwartungen. Am Ende werden wieder die Leistungsdefizite den Unterschied machen, von denen ich wegen des Wechsels garnichts mitkriege. Etwa weil die Singlecore-Leistung gestiegen ist oder ein Game besser mit mehr Kernen skaliert. Solange ich aber im GPU-Limit hänge, ist auch das bums.

Fazit: Nur, weil was messbar ist, heißt das nicht, dass es Auswirkungen hat. Ich bereue das "Upgrade" nicht. Hatte endlich mal wieder was zum basteln, die Gelegenheit mein Case zu reinigen und hab zusätzlich das Gefühl mitgenommen, bis AM5 gut aufgestellt zu sein. Möge sich bis dahin der GraKa-Markt beruhigt haben, denn wenn die Preise bzw. die Verfügbarkeiten nicht mehr ganz so eklig sind, wird mein GPU-Limit nach oben verschoben.
 
Da ich (aus anderen Gründen) in dem Szenario einiges ausprobiert habe, solltest du das RAM OC beim 3700X (den ich im übrigen auch habe) nicht unterschätzen. Optimier das Ganze mal auf 1800If inkl. (Sub-) Timings. Das macht - je nach Anwendungsfall - deutliche Unterschiede.
Wie sollen die Unterschiede denn aussehen? Mehr FPS bringen nichts. Ich hab ja selber schon rumprobiert: Details runtergeschraubt und 60, 80, 90, 120 FPS gelockt. FPS offen gelassen und Details runter (also auf mehr FPS optimiert). FPS offen gelassen und alles auf Max (so spiele ich normalerweise). Im Spielgefühl bzw. der Flüssigkeit der Darstellung gibt es keine Unterschiede, bei der Qualität schon.
Kurz: Mehr FPS (oder niedrigere Frametimes) sorgen in meinem Setup nicht für eine bessere Darstellung (sie schaden aber natürlich nicht ;)).
Die 2080S markiert quasi den Sweetspot für WQHD-Gaming mit G-Sync. Auf AMD-Seite könnte die 6700XT/6800 mit FreeSync2 den Job tun.
 
Du hast mit dem 5800X 50 FPS mehr mit der 6800 als mit dem 3700X? Krass. Mit welchen Einstellungen?
Ach sorry, voll übersehen.

Nur in Siege war der Anstieg so hoch (wahrscheinlich, weil das Spiel multithreading ganz gut kann), meine Settings sind:
  • 1440p
  • TAA Render scale 100
  • Texturen, Aniso, Schatten, LOD alles auf Max
  • Shading, Reflections, Ambient Occlusion, Lens Effects, Zoom DOF auf low / aus, je nachdem was das niedrigste ist.
  • Aspect ratio spiele ich 16:10 (breitere Gegner, etwas leichtere Headshots, ohne dass es zu hässlich wird)
Mit dem Vulkan client habe ich einfach durchgehend 310 fps (gecappt bei doppelter Monitor refresh rate), nie auch nur ein dip unter 310. Mit dem 3700X hatte ich hier Schwierigkeiten überhaupt hinzukommen (im Spiel, auf den Ladebildschirmen war auch vorher schon 1000+fps angesagt) bei identischen Settings.
Ich habe es einmal am Anfang frei laufen gelassen um zu schauen, wo ich mit der Graka hinkomme, und man kratzt manchmal auch an den 500fps (je nach Map)!

Interner Benchmark: (Die Settings werden hier falsch angegeben, daher der zweite Screenshot).
Screenshot_2021-04-22 Advanced Benchmark Extended.png



Tom Clancy's Rainbow Six® Siege2021-4-22-10-37-57.jpg

Und nein, auch das Render scaling ist nicht bei 15, sondern bei 100%.

Es gibt einen Dip im Benchmark, der unter meine 310 geht, da stehen aber auch alle 10 Operators in voller Montur in einem Raum, während zeitgleich eine Explosion kommt - da fällt die fps ganz kurz auf 301 - so eine Situation kommt in ernsthaften Ranked spielen aber niemals vor.
 
@ArthurUnaBrau Ich gehe davon aus, dass du keine Sync-Technologie verwendest. Richtig?
 
Ich habe einen 3950x ( nicht notwendig, aber nice to have :) ), ein x570-board und ebenfalls eine 2080 super, weiters 32 GB 3600 cl16-16-16-16 und nur SSDs für System und Datengrab.

Ich lese auch sehr viele Tests, und ich frage mich immer, was mir ein Wechsel z.B. auf eine 5xxx-CPU ( 5950x eventuell) bringen würde.

Und da ich in WHQD spiele, erscheint es mir völlig irrelevant, ob ich irgendwo statt 120 Fps vielleicht 150 hätte oder statt 300 Fps vielleicht 400.

Mein System läuft jetzt seit über einem jahr völlig stabil ( kein OC, nur leichtes Untervolting von -0.0625 V).

Obwohl ich eine 240 Hz-Monitor habe ( Samsung Odysee G7, den ich auch mit nur 144 Hz genommen hätte), habe ich die Syncrate auf 144 gestellt und in Spielen, in denen das möglich ist, begrenze ich die FPS auf 120-140 Hz.

Qualität muss nicht überall Ultra sein, very high oder High ( je nach Spiel also eine Stufe unter max), und siehe da, Unterschiede nur mit der Lupe zu beobachten. und wenn ich in einem Shooter "um mein Leben kämpfe", ist es mir herzlich egal, ob da z.B. Schatten mehr oder weniger Details haben.

Ich plane irgendwann eventuell auf eine 3070ti ( falls sie je kommt) aufzurüsten ( muß aber jetzt keinesfalls sein). Da hätte ich dann einen schönen Fps-Sprung, der mir für weitere Jahre Freude an meinem System bescheren wird.

Achja, Clou am Rande: Für meine Sohn ( ein Hardcore-Game, spielt in FullHD) habe ich zeitgleich mit meinem System einen Identischen PC gebaut.

Und auch er ist seit über einem Jahr völlig zufrieden mit seinem rockstable System.

Interessant ist, daß ich uns jederzeit einen 5950x und eine sauteure 3080 oder 6800XT kaufen könnte( wir haben sehr gutes X570-board).

Aber ( er ist jetzt 20 und hat angefangen, zu studieren) wir sind beide der Meinung, daß uns ein solcher Upgrade sinnlos erscheint, da wir ja voll zufrieden sind.

Was soll jetzt dieser ganze Sermon?

Ganz einfach, ich gehe 100% konform mit Grimm und wünsche ihm ( und mir) noch Jahre der Zufriedenheit und vor allem Stabilität des Systems.
 
Ich bin vom 3900X auf den 5950X gewechselt und bei Sottr hat der Wechsel was gebracht. Das war aber nicht mein Wechselgrund;)
 
@alexbirdie Das klingt gut.
@HerrRossi Was hat der Wechsel denn gebracht? Mehr Frames? Ich hab das mittlerweile durch (bin bei 90%). Finde die Grafik bombastisch, fast das Beste, was ich in einem Spiel bisher gesehen habe. Liegt aber wohl auch am Setting (Dschungel).
 
@ArthurUnaBrau Ich gehe davon aus, dass du keine Sync-Technologie verwendest. Richtig?
Nicht in Siege. Meine Monitore sind beide Freesync-Monitore, und es ist auch an. Nutze ich aber nur bei CP77. Siege ist halt sehr kompetitiv, daher die hohe Zielframerate die ich da anpeile. Hatte auf meiner Vega immer auf die Monitorrate limitiert, aber seit ich diese Messungen gesehen habe, und Siege vor allem davon lebt, dass man die Gegner eher sieht als die Gegner einen selbst (und klar: Weil die 6800 die hohe Framerate auch schafft), habe ich das target erhöht. Sollte mir mal einer der Monitore abschmieren werde ich allerdings auch auf 240Hz hoch gehen (ideal für mich wäre 27" 4k 240 Hz, aber da darf ich wohl noch ein paar Jahre warten bis das auch erschwinglich wird).
 
Nicht in Siege. Meine Monitore sind beide Freesync-Monitore, und es ist auch an. Nutze ich aber nur bei CP77. Siege ist halt sehr kompetitiv, daher die hohe Zielframerate die ich da anpeile. Hatte auf meiner Vega immer auf die Monitorrate limitiert, aber seit ich diese Messungen gesehen habe, und Siege vor allem davon lebt, dass man die Gegner eher sieht als die Gegner einen selbst (und klar: Weil die 6800 die hohe Framerate auch schafft), habe ich das target erhöht. Sollte mir mal einer der Monitore abschmieren werde ich allerdings auch auf 240Hz hoch gehen (ideal für mich wäre 27" 4k 240 Hz, aber da darf ich wohl noch ein paar Jahre warten bis das auch erschwinglich wird).
Ok, also bei 144FPS @ 60Hz ist die Latenz geringer von Tastatur und Maus bis zur Bildausgabe (Das wäre mein Verständnis von End to End Latenz) ?

Irgendwie glaube ich das nicht, dazu fühlen sich meine Spiele viel zu Konsistent an bei der Eingabe mit Funk Tastatur und Maus.

Aber was will man erwarten, aus dem Youtube Link: This video was sponsored by NVIDIA

:LOL:

 
Zuletzt bearbeitet :
Ok, also bei 144FPS @ 60Hz ist die Latenz geringer von Tastatur und Maus bis zur Bildausgabe (Das wäre mein Verständnis von End to End Latenz) ?
Japp

Bezüglich Anti-Lag: Gutes Feature, lohnt sich aber bei hohen FPS nicht, da AMD selbst sagt, dass es maximal die Latenz um einen Frame verringert. Bei 60fps ist das viel, bei 300 eher nicht.
 
Japp

Bezüglich Anti-Lag: Gutes Feature, lohnt sich aber bei hohen FPS nicht, da AMD selbst sagt, dass es maximal die Latenz um einen Frame verringert. Bei 60fps ist das viel, bei 300 eher nicht.
Anti-Lag setzt da eher bei der Treiber Latenz an, das sollte egal sein bei welcher FPS Anzahl.
Mir ist es schon klar, dass die Engine bei 300 FPS schneller rechnet als bei 60 FPS, aber was bringt mir das wenn ich es nicht auf dem Bildschirm sehe?
Man reagiert schneller mit Maus und Tastatur aber sieht nicht in welche Richtung. :oops:
 
Anti-Lag setzt da eher bei der Treiber Latenz an, das sollte egal sein bei welcher FPS Anzahl.
Mir ist es schon klar, dass die Engine bei 300 FPS schneller rechnet als bei 60 FPS, aber was bringt mir das wenn ich es nicht auf dem Bildschirm sehe?
Man reagiert schneller mit Maus und Tastatur aber sieht nicht in welche Richtung. :oops:
Naja, der Monitor zeigt ja immer den zuletzt gerenderten Frame zum Zeitpunkt eines Refreshes an. Je höher die framerate, desto "aktueller" das Bild, was mir angezeigt wird. Wenn ich also 310 fps schaffe (durchgehend), aber auf 155 limitiere (Monitorrefreshrate), sehe ich im Prinzip eben doch immer doppelt so alte frames. Das mag bei den Frametimes super keinlich klingen, aber da ich mit meinen zarten 32 sowieso nicht mit den Reflexen der Kids mithalten kann, kann ich mir ja wenigstens ein paar Millisekunden eher die Info anzeigen lassen, damit ich das wenigstens ein ganz kleines Bisschen auszugleichen versuchen kann (weil ich ja eher auf das Gesehene reagieren kann).

Genau die doppelte Framerate zu nehmen sorgt dann nebenbei dafür, dass es kein Tearing gibt.
 
Ich weiß, ich weiß, man sieht deutlich mehr als 30 FPS... Aber ich glaube auch hier: Man kann es messen aber es hat keinen Einfluss auf die Realität. Du "siehst" die beiden Frames doch nicht wirklich. Also mir soll doch bitte niemand erzählen, dass er, weil er doppelt so viele Frames ausgespielt bekommt, schneller abgedrückt hat. Der Oli Kahn hat 10 Jahre Reflexe trainiert und nicht mal dem traue ich das zu. Das ist Training und Intuition. Wenn ich ne Map 100x spiele, lerne ich Gegnerverhalten. Klar muss das flüssig und flott laufen, aber im genannten Rahmen (+100 FPS) ändert die Framerate da nix.
 
Messbar. Das glaube ich. Auch die Darstellung wird flüssiger. Das bestreite ich nicht. Aber in kompetitiven Spielen "sieht" man doch nicht den Gegner früher, nur weil statt krummen 73 FPS 140 ausgegeben werden.
 
Ich weiß, ich weiß, man sieht deutlich mehr als 30 FPS... Aber ich glaube auch hier: Man kann es messen aber es hat keinen Einfluss auf die Realität. Du "siehst" die beiden Frames doch nicht wirklich. Also mir soll doch bitte niemand erzählen, dass er, weil er doppelt so viele Frames ausgespielt bekommt, schneller abgedrückt hat. Der Oli Kahn hat 10 Jahre Reflexe trainiert und nicht mal dem traue ich das zu. Das ist Training und Intuition. Wenn ich ne Map 100x spiele, lerne ich Gegnerverhalten. Klar muss das flüssig und flott laufen, aber im genannten Rahmen (+100 FPS) ändert die Framerate da nix.

Messbar. Das glaube ich. Auch die Darstellung wird flüssiger. Das bestreite ich nicht. Aber in kompetitiven Spielen "sieht" man doch nicht den Gegner früher, nur weil statt krummen 73 FPS 140 ausgegeben werden.

Natürlich sehe ich nicht alle Frames, und nein, meine Reflexe werden auch nicht besser. Aber, die Frames auf die ich reagiere, sind weniger alt. Und wie HerrRossi sagt, das wurde alles schon mehrfach durchgetestet (nicht nur von LTT). Und selbst wenn der Latenzgewinn als homöopathisch abgetan wird, die extra Smoothness ist es auf jeden Fall wert. Vor allem, wo bei Siege in meinem Fall das Ganze bei hohen Einstellungen und unter 200W auf der GPU läuft.
 
Zuletzt bearbeitet :
Gibt es denn Messungen Sync-Technologie vs. hohe Frameraten mit niedriger Latenz? Ich bin ja immer Fan von absolut flüssigen Spielerlebnissen, daher fand ich den Artikel https://www.igorslab.de/nvidia-g-sync-vs-amd-freesync-vs-v-sync-wir-messen-die-systemlatenz-praxis/ auch recht interessant.
Edit: Ich kann halt tatsächlich keinen Unterschied von gelockten 140 FPS (bei 144 Hz) G-Sync off zu G-Sync on und variable / gelockte Framerate feststellen.
Weiß jetzt aus dem Stehgreif keine Artikel dazu. Klar ist natürlich, dass wenn man die hohe Framerate nicht schafft, die Sync-Technologien natürlich super sind. Im Onlineshooter kommt aber meines Wissens niemand auf die Idee, auf hohe Framerate zu verzichten, nur weil er/sie nen G-Sync Monitor oder so hat.
 
Oben Unten