Reviews NVIDIA G-SYNC vs. AMD FreeSync vs. V-Sync? Wir messen die Systemlatenz! | Praxis

Das hat in keine Nachtteile... zumindest ist mir nix bekannt... das mach ich seit Windows XP so... oder sogar noch früher... is halt ewig her! Das kann kann bzw. sollte jeder so in seiner Reg erstellen!
Es kann/wird zur Verringerung der Upload-Bandbreite kommen weil nun jedes Paket Acknowledged wird. Ist bei Videostreams bspw. nicht wirklich gewünscht.
 
Es kann/wird zur Verringerung der Upload-Bandbreite kommen weil nun jedes Paket Acknowledged wird. Ist bei Videostreams bspw. nicht wirklich gewünscht.
Wenn dem so ist, dann muss der Streamer hier am besten zwei Netzwerkkarten verwenden... dann kann man das separieren!
 
Naja dann ist es halt so, dann sind einige wirklich sehr gut im Auge.
Ich hab mich damit auch schon x-mal beschäftigt. Vor allem im Filmbereich rechnet man mit mind. 25 FPS/Sekunde, um Bewegungen flüssig darzustellen. Ich sehe auch nicht wirklich einen Unterschied von meinem 75Hz Iiyama Panel zum 144 Hz Viewsonic. Da aber beide gesync'd sind, ist es ja kein Wunder, denn dafür ist die Technologie da. Zwischen Sync und non-Sync ist der Unterschied aber groß.
Wir sprechen hier allzuoft über Messgrößen - sei es bei den CPUs, den GPUs oder den FPS - ich habe diverse Dinge für mich ausprobiert. Klar ist es ein super Gefühl, die schnellste Hardware zu haben. Aber eigentlich war ich nach fast jeder Anschaffung relativ ernüchtert. Klar ist ein Upgrade spürbar und sichtbar - vor allem, wenn man wie ich nur alle drei bis vier Jahre CPU oder GPU updatet. Aber wenn man nicht gerade das Display von FHD auf WQHD ändert oder von Dx9 auf 11 umsteigt (weil die Hardware es dann kann) spielt sich das alles im psychologisch ungesicherten Bereich des "Empfindens" ab. Ob 80 oder 90 FPS ist mir persönlich komplett wurst, einen Unterschied spüre ich nicht.

Grundsätzlich sollte man fix >60 FPS kommen (mit den Einstellungen die man möchte). Darunter hilft eine Sync-Technologie. Darüber ebenfalls im Sinne der Homogenität. Ob der Input Lag 1 oder 7 oder gar 9 ms beträgt, ist für Humanoiden nicht wahrnehmbar.
 
Und wie gesagt kann das Menschliche Auge so oder so nicht mehr als 60 Bilder in der Sek FPS, war nehmen.
Die Behauptung ist so alt, wie die Filmindustrie, aber wahr ist sie noch nie gewesen. Vor hundert Jahren hat man gesagt, dass für einen flüssigen Bildverlauf 20 Bilder pro Sekunde nötig sind. Damals hat es Filmkameras mit 12, 16 und 20 Bildern pro Sekunde gegeben. Bei 12 Hz sieht man wirklich einzelne Bilder ruckeln. Bei 20 Hz sind langsame Bewegungen recht fliessend. Schnelle Bewegungen sind aber immer noch abgehackt. Bereits da hat man mit der guten Qualität von 20 Hz geworben und behauptet, das menschliche Auge könne nicht mehr wahrnehmen. Als dann 25, 50 und 60 Hz üblich wurden, hat man das selbe von diesen Frequenzen behauptet.

Das Auge nimmt aber auch Bilder wahr, die nur eine Hundertstelsekunde aufblitzen. Dass der Bildlauf flüssiger wird, merkt man auch über 60 Hz noch deutlich. Wenn das Bild sauberer fliesst, ermüdet das die Augen weniger und es hilft einem bei Games genauere Bewegungen zu machen.
 

Auf der Seite, kann man den Unterschied sehr gut sehen/wahrnehmen... 240 Hz vs. 120 vs 60 usw. da wird es deutlich... man kann es wahrnehmen!
Klasse Webseite! Ich kannte den UFO-Test, aber dass es da so viel Möglichkeiten zum Vergelich gibt, wusste ich nicht.

Wichtig ist aber: Man muss selbst einen Monitor besitzen der hohe Frameraten kann und der Desktop muss auch so eingestellt sein, dass er die nutzt. Sonst bringt die Seite gar nichts.

Ist ähnlich wie bei HDR: Man sieht den Vorteil nicht, wenn man nicht selbst einen entsprechend tauglichen Monitor hat. Man kann das auch nicht simulieren oder sonst irgendwie darstellen, man muss es live auf einem tauglichen Gerät selbst sehen.

Die Behauptung ist so alt, wie die Filmindustrie, aber wahr ist sie noch nie gewesen. Vor hundert Jahren hat man gesagt, dass für einen flüssigen Bildverlauf 20 Bilder pro Sekunde nötig sind. Damals hat es Filmkameras mit 12, 16 und 20 Bildern pro Sekunde gegeben. Bei 12 Hz sieht man wirklich einzelne Bilder ruckeln. Bei 20 Hz sind langsame Bewegungen recht fliessend. Schnelle Bewegungen sind aber immer noch abgehackt. Bereits da hat man mit der guten Qualität von 20 Hz geworben und behauptet, das menschliche Auge könne nicht mehr wahrnehmen. Als dann 25, 50 und 60 Hz üblich wurden, hat man das selbe von diesen Frequenzen behauptet.
Das ist absolut richtig. Mich nerven auch die "nur 23fps ist cineastisch"-Puristen.

Man sieht dann bei seitlichen Schwenks das ganze Bild ruckeln und auseinandereißen, dass einem schlecht wird. Weswegen Regisseure so etwas generell eher meiden.

Wenn dann einer, wie Peter Jackson, auf 48fps geht, schreien alle sofort "was für ein hässlicher Soap-Effekt, das ist ja gar kein Kino-Erlebnis mehr!!!!" weil das Ruckeln auf einmal fehlt. Man nimmt das oft gar nicht mehr so bewusst wahr, eher unbewusst, es sieht anders aus, eher "TV-Like" weil beim TV eben das Ruckeln fehlt.

Also hat das Hirn "Ruckeln" mit "Kino" und "cineastisch" assoziiert, und damit mit "besser", was aber völliger Humbug ist.

So viel aber zum Thema man könne die höheren Frameraten nicht wahrnehmen. Natürlich kann man das, sehr gut sogar, es hängt nur von der Szene ab.
 
@summit:

Wie kommst Du eigentlich darauf, dass eine höhere Framerate einen Vorteil beim Spiel mit sich bringt, auch wenn man die Frames selbst nie zu Gesicht bekommt? Das hast Du vor einigen Postings mal so dargestellt.

Das klingt als ob Du (bei einem Online MP Spiel) "FPS" mit "Ticks/second" (tps) gleichsetzen würdest. Ticks per second, also wie oft sich die Welt pro Sekunde updated, was oftmals damit verbunden ist, wie oft die Daten zwischen Clients und Server ausgetauscht werden, sind normal von der Framerate entkoppelt und das aus gutem Grund.

D.h. wenn sowohl tps als auch die Zahl der Bilder, die der Spieler zu Gesicht bekommt, und auch die Zeit, bis er ein Änderung des Bildes sieht, nichts mit der fps mehr zu tun hat, was genau soll dann eine solch astronomische fps Rate bringen? Das musst Du mir mal erklären. Die Aussage "der Gegner ist schon tot, bevor man ihn sieht" ist dann in diesem Zusammenhang nonsense. Es geht ja nicht darum, den Tod des Gegners zu sehen, sondern DASS er überhaupt da ist und WO genau er ist. Sonst kann man schlecht auf ihn zielen. Und dazu muss man ihn sehen können. Was schlecht möglich ist, wenn der Monitor "nur" 144 Bilder pro Sekunde anzeigen kann. Dann ist es völlig egal, ob Du 300 oder 500 fps erzeugst - außer Hitze in Deinem Rechner und einem höheren Verbrauch auf Deiner Stromrechnung macht das NULL

@summit:

Wie kommst Du eigentlich darauf, dass eine höhere Framerate einen Vorteil beim Spiel mit sich bringt, auch wenn man die Frames selbst nie zu Gesicht bekommt? Das hast Du vor einigen Postings mal so dargestellt.

Das klingt als ob Du (bei einem Online MP Spiel) "FPS" mit "Ticks/second" (tps) gleichsetzen würdest. Ticks per second, also wie oft sich die Welt pro Sekunde updated, was oftmals damit verbunden ist, wie oft die Daten zwischen Clients und Server ausgetauscht werden, sind normal von der Framerate entkoppelt und das aus gutem Grund.

D.h. wenn sowohl tps als auch die Zahl der Bilder, die der Spieler zu Gesicht bekommt, und auch die Zeit, bis er ein Änderung des Bildes sieht, nichts mit der fps mehr zu tun hat, was genau soll dann eine solch astronomische fps Rate bringen? Das musst Du mir mal erklären. Die Aussage "der Gegner ist schon tot, bevor man ihn sieht" ist dann in diesem Zusammenhang nonsense. Es geht ja nicht darum, den Tod des Gegners zu sehen, sondern DASS er überhaupt da ist und WO genau er ist. Sonst kann man schlecht auf ihn zielen. Und dazu muss man ihn sehen können. Was schlecht möglich ist, wenn der Monitor "nur" 144 Bilder pro Sekunde anzeigen kann. Dann ist es völlig egal, ob Du 300 oder 500 fps erzeugst - außer Hitze in Deinem Rechner und einem höheren Verbrauch auf Deiner Stromrechnung macht das NULL Unterschied.
Weil der input einfach x ms näher am output ist. Auch wenn der Monitor bei beiden ein Bild alle 1/144 sec anzeigt sind die Bilder zwischen zb 144 fps und 500 fps nicht gleich, das 500 fps Bild ist einfach aktueller.
Klar, erkennt man sowas bei den üblichen Standbild Tests nicht so direkt.
 
Das Auge kann im besten (trainierten) Fall bis zu 55 fps wahrnehmen, dann ist für das menschliche Auge kein Unterschied mehr erkennbar (der Rest ist biologisch gesehen Einbildung und ein reiner Gewöhnungseffekt - trifft gleichermaßen auf niedrigere Bildraten zu, denn wer es gewöhnt ist den stört es nicht).

HRF (HDR 48fps) hat auch Nachteile, wegen der extrem hohen Bitrate ist die Auflösung bei 48fps auf 2K begrenzt. Zudem wird es nur speziell eingesetzt und nicht dauerhaft, beschränkt sich also in Filmen auf eine bestimmte Szenenauswahl. Das Bild wird zwar schärfer, vor allem in Bewegung - aber der 4K-Standard kann dann nicht mehr gehalten werden. Es gibt also Vor- und Nachteile, weil dann wieder "interpoliert" wird. Zu hoher Detailgrad in Bewegung kann das Auge auf Dauer stark ermüden und auch Schwindel hervorrufen. Rein vom Aufwand/Nutzen her, mit speziellen Kameras bis hin zum Schnitt usw. ist der sichtbare Vorteil vernachlässigbar und in Filmen wird das 24fps-Ruckeln sogar als Stilmittelmittel eingesetzt, das ist also pure Absicht. Auch mit 24fps kann man ein Bild völlig ruckelfrei wiedergeben. Erst ab 18fps wird Ruckeln permanent sichtbar.
 
Zuletzt bearbeitet von einem Moderator :
Weil der input einfach x ms näher am output ist. Auch wenn der Monitor bei beiden ein Bild alle 1/144 sec anzeigt sind die Bilder zwischen zb 144 fps und 500 fps nicht gleich, das 500 fps Bild ist einfach aktueller.
Klar, erkennt man sowas bei den üblichen Standbild Tests nicht so direkt.
Darum geht es in dem Fall nicht, aber wenn man in dem Moment ein Bild liefern kann, wenn das Auge bereits ist es zu sehen und das Gehirn zu verarbeiten, ist es günstig und man würde rein vom untrainierten Auge her bei höherer Framerate diesen Zustand womöglich für die Allgemeinheit zu 70 oder 80% treffen.

Der niedrigere Inputlag nutzt dir nichts wenn du ihn nicht sichtbar wahrnehmen kannst, wie geschrieben ist es oftmals ein Gewöhnungseffekt denn man mit Trainig auch optimieren kann. Das geht natürlich auch bei niedriger Framerate.
 
Das netz is voll von wiedersprüchlichen meinungen dazu z.b.Wie-viele-Fps-kann-das-menschliche-Auge-sehen .
Ich merke den unterschied vom 60Hz zum 144Hz Monitor, vor noch schnelleren habe ich noch nicht gesessen.

Ich kann auch das geruckel im Kino nicht leiden.
 
Klasse Webseite! Ich kannte den UFO-Test, aber dass es da so viel Möglichkeiten zum Vergelich gibt, wusste ich nicht.

Wichtig ist aber: Man muss selbst einen Monitor besitzen der hohe Frameraten kann und der Desktop muss auch so eingestellt sein, dass er die nutzt. Sonst bringt die Seite gar nichts.

Ist ähnlich wie bei HDR: Man sieht den Vorteil nicht, wenn man nicht selbst einen entsprechend tauglichen Monitor hat. Man kann das auch nicht simulieren oder sonst irgendwie darstellen, man muss es live auf einem tauglichen Gerät selbst sehen.


Das ist absolut richtig. Mich nerven auch die "nur 23fps ist cineastisch"-Puristen.

Man sieht dann bei seitlichen Schwenks das ganze Bild ruckeln und auseinandereißen, dass einem schlecht wird. Weswegen Regisseure so etwas generell eher meiden.

Wenn dann einer, wie Peter Jackson, auf 48fps geht, schreien alle sofort "was für ein hässlicher Soap-Effekt, das ist ja gar kein Kino-Erlebnis mehr!!!!" weil das Ruckeln auf einmal fehlt. Man nimmt das oft gar nicht mehr so bewusst wahr, eher unbewusst, es sieht anders aus, eher "TV-Like" weil beim TV eben das Ruckeln fehlt.

Also hat das Hirn "Ruckeln" mit "Kino" und "cineastisch" assoziiert, und damit mit "besser", was aber völliger Humbug ist.

So viel aber zum Thema man könne die höheren Frameraten nicht wahrnehmen. Natürlich kann man das, sehr gut sogar, es hängt nur von der Szene ab.
1618226202428.png
Über das eingerahmte Menü kann man fast alles auf dem Monitor sehen... bzw. testen!

Wer einen Monitor mit 240 Hz hat, der geht mal die Seite und schaut euch doch die unterschiedlichen Hz Vergleiche an!

Ich kann die Aussagen über die Hz-Wahrnehung in keiner Weise nachvollziehen!

Auf der Seite seht ihr den direkten Vergleich... das einzige was klar ist, wer auf einem 75 Hz Monitor spielt, dem kommt sein Game flüssig vor... Dass es aber noch flüssiger geht, sieht man nur im direkten Vergleich... Und darum geht es... wie flüssig kommen Bewegung an...

Da ich ständig mit hohen FPS und Frametimes rumspiele, kann ich mittlerweile kleinste Mikro-Ruckler sehen... minimales Stutter oder kleinstes Tearing... Die flüssige Wahrnehmung zwischen 140 FPS (gelockt) auf 144 Hz vs. 236 FPS (gelockt) auf 240 Hz sind minimal aber spürbar...

Das ist in dem Fall keine Einbildung leute... Ich war 12 beim Militär, eine extrem langsame Bewegung (quer zur Blickrichtung) nimmt das Auge kaum war, hingegen werden schnelle Querbewegung sofort erkannt... daher gibt es auch den Grundsatz, sich niemals Quer vor dem Feind zu bewegen... (wenn doch, dann im Schneckentempo) Eine Frontalbewegung kann das Auge hingegen nur schwer wahrnehmen... Beherrscht man das Boxen und kann den Jap so geschickt ausführen, dass der Ellenbogen nicht seitlich ausklappt (in der Schlagwegung) quasi der Arm eine ohne Drehung in der Längsachse nach vorne schnappt, ist ein Treffer des Gegners sehr wahrscheinlich!
 
Das netz is voll von wiedersprüchlichen meinungen dazu z.b.Wie-viele-Fps-kann-das-menschliche-Auge-sehen .
Ich merke den unterschied vom 60Hz zum 144Hz Monitor, vor noch schnelleren habe ich noch nicht gesessen.

Ich kann auch das geruckel im Kino nicht leiden.
Seit kurzem hab ich einen 240 Hz Monitor... wenn man die nehmeneinander hat (144 vs 240) und die Grafik gleich gut ist, dann ist das Feeling schon noch besser, wenn es um flüssige Bewegungen geht... Vielleicht kann ich mal 360 Hz testen, hier wird der Effekt noch deulicher zu den 144 Hz... aber am besten ist der Sprung von 60 zu 144...
 
Weil der input einfach x ms näher am output ist. Auch wenn der Monitor bei beiden ein Bild alle 1/144 sec anzeigt sind die Bilder zwischen zb 144 fps und 500 fps nicht gleich, das 500 fps Bild ist einfach aktueller.
Klar, erkennt man sowas bei den üblichen Standbild Tests nicht so direkt.
Genau dafür gibt es den Framelimiter, im Spiel oder per Treiber/RTSS/SpecialK.

Der sorgt dafür, dass der Zeitpunkt des berechneten Frames möglichst zeitnah am dargestellten Bild liegt, im besten Fall genau so lange, wie der Scanout eines Bildes dauert. Schneller geht nicht.

Mehr FPS bringen, wenn diese Zeitspanne optimal klein ist, nichts mehr! Das ist ja genau das, was man als Eingabe-Latenz bezeichnet.
 
Seit kurzem hab ich einen 240 Hz Monitor... wenn man die nehmeneinander hat (144 vs 240) und die Grafik gleich gut ist, dann ist das Feeling schon noch besser, wenn es um flüssige Bewegungen geht... Vielleicht kann ich mal 360 Hz testen, hier wird der Effekt noch deulicher zu den 144 Hz... aber am besten ist der Sprung von 60 zu 144...
Ich spiele nicht kompetitiv, mir reichen 98Hz derzeit völlig aus. Bei mehr krieg ich bei 4k keine 10bit Farbtiefe mehr, irgendeinen Kompromiss muss man machen. Aber klar, das ist absolut Geschmacksache und Subjektiv.
 
Ich spiele nicht kompetitiv, mir reichen 98Hz derzeit völlig aus. Bei mehr krieg ich bei 4k keine 10bit Farbtiefe mehr, irgendeinen Kompromiss muss man machen. Aber klar, das ist absolut Geschmacksache und Subjektiv.
Ich spiele fast nur zu Testzwecken... kompetitiv hab ich vor Jahren mal WoW gespielt aber seither nur so aus Spaß... Mir geht beim Zocken um das bestmögliche Bild bei höchstmöglichen FPS... aber wenn, dann gelockt innerhalb der Sync-Frequenz.... Bei mir läuft zum Beispiel CoD MW mit relativ Konstanten 7 ms Frametime bei 140 FPS die ich auch im Durchschnitt habe und ca. 125 FPS 1% low... 1440p! Das ist ein unbeschreiblich geiles Bild... no Stutter, kein Tearing, niedrige Latenz (was mit 140 FPS halt rauskommt) Das kann ich mit meiner Hardware auch auf 236 FPS erreichen, aber dann nur 1080p und da muss ich sagen, dass ich 1440p bevorzuge!
 
Zuletzt bearbeitet :
Passt nur halb hier rein aber was solls. Hab mit Freesyc Flickering zu kämpfen. Habe auch einige workarounds ausprobiert z.b. https://www.displayninja.com/what-is-freesync-brightness-flickering/ . Hab einiges bei gelernt aber geholfen hat nichts.

Einzig die erhöhung auf 154Hz des displays und der der Freesync Range hat geholfen.
Stellt sich mir jetzt nur die frage ist Freesync jetzt wirklich an oder nicht? (treiber und Monitor ODS sagen ja)

Giebts da nen test der das deutlich darstellt?
 
Passt nur halb hier rein aber was solls. Hab mit Freesyc Flickering zu kämpfen. Habe auch einige workarounds ausprobiert z.b. https://www.displayninja.com/what-is-freesync-brightness-flickering/ . Hab einiges bei gelernt aber geholfen hat nichts.

Einzig die erhöhung auf 154Hz des displays und der der Freesync Range hat geholfen.
Stellt sich mir jetzt nur die frage ist Freesync jetzt wirklich an oder nicht? (treiber und Monitor ODS sagen ja)

Giebts da nen test der das deutlich darstellt?

Lock deine FPS, stell den IGFL auf 140 FPS und lass RTSS dir die Average FPS und die 1% low anzeigen.

Na ca. 30 min rumlaufen sollte dein Average bei ca 139 liegen und deine 1% low >100 FPS sein!

Dann liegst du immer innerhalb der VRR und solltest kein Tearing beobachten... wenn dem so ist, dann funktioniert es so wie es soll...

BTW: so stell ich mir meine FPS immer ein... damit habe ich das bestmögliche Bild und konstante Latenz... bei den Werten liegt deine Frametime bei ca 7 ms konstant und du hast kein Stutter!

Kann ich nur empfehlen... wer 240 Hz nach der gleichen Methode mit 236 FPS befeuert, der hat auch richtig geile Latenz und mega flüssiges Spielerlebnis
 
Das Ruckeln hat aber gar nichts mit der Framerate (Anzahl an Bilder) an sich zu tun, sondern dem unkonstanten Framepacing, siehst du denn unterschiedliche oder variierende VVR Range? Ich würde mal behaupten nein, die Framerate kann dort sehr schwanken und ist damit überhaupt nicht abhängig, in welchem fps Bereich.

Vor allem hängt es davon ab ob bspw. die Engine internes Puffern, verspätete Frames und oder aktuelle Frames richtig erkennt. Inkonsistente Anzeigezeit ist oft das Problem, egal bei welcher Framerate kann man dann Stuttern oder Ruckeln wahrnehmen. Da kann die Hardware noch so schnell sein.

Was Programme dabei messen, kann vom Auge kaum oder gar nicht wahrgenommen werden, vom Gehirn nicht verarbeitet, das aus zwei Augenvorlagen ein Bild macht (auch noch Seiten verkehrt). Dabei hast du immer ein starkes und ein schwaches Auge. Es ist mit sogenannten Zeitstempeln absolut wichtig, die Bilder dann zu repäsentieren wenn sie auch gesehen werden können und da ist jeder Mensch unterschiedlich empfindlich, bzw. reagiert darauf oder trainierbar. Jeder Renderer bringt dafür eine SDK und kompatibles Synchronization Framework mit. Mit'm Militiär hat das nichts zu tun. Da wird sogar extrem an der Hardware gespart.

Am PC sind die Synchronisationsprimitiven dabei extrem vom Userspace abhängig, da lässt sich keine allgemeine Einstellung finden die jeden berücksichtig, weil es viel zu viele Unbekannte gibt.

Sich das dann entsprechend hinzuoptimieren macht Sinn.
 
Das Ruckeln hat aber gar nichts mit der Framerate (Anzahl an Bilder) an sich zu tun, sondern dem unkonstanten Framepacing, siehst du denn unterschiedliche oder variierende VVR Range? Ich würde mal behaupten nein, die Framerate kann dort sehr schwanken und ist damit überhaupt nicht abhängig, in welchem fps Bereich.

Vor allem hängt es davon ab ob bspw. die Engine internes Puffern, verspätete Frames und oder aktuelle Frames richtig erkennt. Inkonsistente Anzeigezeit ist oft das Problem, egal bei welcher Framerate kann man dann Stuttern oder Ruckeln wahrnehmen. Da kann die Hardware noch so schnell sein.

Was Programme dabei messen, kann vom Auge kaum oder gar nicht wahrgenommen werden, vom Gehirn nicht verarbeitet, das aus zwei Augenvorlagen ein Bild macht (auch noch Seiten verkehrt). Dabei hast du immer ein starkes und ein schwaches Auge. Es ist mit sogenannten Zeitstempeln absolut wichtig, die Bilder dann zu repäsentieren wenn sie auch gesehen werden können und da ist jeder Mensch unterschiedlich empfindlich, bzw. reagiert darauf oder trainierbar. Jeder Renderer bringt dafür eine SDK und kompatibles Synchronization Framework mit. Mit'm Militiär hat das nichts zu tun. Da wird sogar extrem an der Hardware gespart.

Am PC sind die Synchronisationsprimitiven dabei extrem vom Userspace abhängig, da lässt sich keine allgemeine Einstellung finden die jeden berücksichtig, weil es viel zu viele Unbekannte gibt.

Sich das dann entsprechend hinzuoptimieren macht Sinn.

Wenn es nicht für dich passt, dann passt es für jemanden anderen... darum geht es doch hier, das perspektivische Betrachtung für jedermann dargestellt wird. Wenn ich nur einem Nutzer mit meiner Optimierungsmöglichkeit helfen kann, einfach weil es für ihn so passt, wie für mich, dann war es ein wertvoller Beitrag. Bisher konnte ich nicht nur einem, sondern vielen helfen, etwas zu verbessern! Davon bin ich überzeugt...

Wenn man alles nur zerredet, dann können wir den Fortschritt sein lassen!

Um Bewegung wahrzunehmen, habe ich beim Militär keine Hardware benötigt. (Fernglas, ok) Meine Augen und Ohren haben dazu immer ausgereicht. Das nennt sich Realität!

Du kannst jeden echten Scharfschützen fragen, dass die Wahrnehmung des menschlichen Auges exakt so funktioniert, wie ich es beschreiben habe. Das kann man auf den PC transferieren! (Natürlich mit Einschränkungen)

Leider gibt es kein einziges Spiel, was das reale Waffenhandling, das Zielverhalten, usw auch nur annähernd wiedergibt. Somit muss man das bei jedem Spiel neu lernen... genau wie man die richtigen Settings in jedem Spiel finden muss. Daher eine Methode von mir, die jeder ausprobieren kann...

Das eingeschränkt Sehfeld am PC will gar nicht näher ausführen!

Mit dem was ich in Bezug auf Frametimes, FPS Cap = Average, hohe 1% low und konstante Latenz erkläre, sollte mam zuerst testen und dann mit Möglichkeiten zur Verbesserung zurückkehren. Beim mir funktioniert diese Methode in CS:GO, Rainbow Six Siege, Overwatch, Farcry, CoD MW, Cold War, SotTR, Rise of the Tomb Raider, Assassins Creed, The Division I & II, Ghost Recon Wildland/Breakpoint, Metro Exodus usw. Um mal ein paar Beispiele zu nennen.

Klar, nicht in jedem Spiel kommt man auf extrem hohe FPS die man so locken kann (Lockt FPS = average usw.) manchmal muss man auch mit 90 FPS oder weniger leben... vor allen in WQHD und aufwärts!

Leider war dein letzter Kommentar nicht wirklich hilfreich... ich konnte dem nichts abgewinnen... es wäre echt schön gewesen, wenn du den Lesern hier was mitgeben würdest, was uns weiterbringt... welches ist deine Methode, für ein optimales Spielerlebnis?

Grüße
 
@FritzHunter01 Ich habe hier ne ganze Menge mitgenommen - Danke! Kann auf der Basis jetzt selbst ein bisschen testen und die für mich passende Einstellung finden. Für mich vor allem einen eigenen Test wert: Erledigt allein G-Sync den Job mit der "flüssigen" Darstellung oder hilft es, zusätzlich noch die FPS zu begrenzen. Mit meiner Hardware und in WQHD komme ich bei aller Grafikpracht selten >140 FPS, vor allem in aktuellen Titeln.
Manche haben sich gedanklich wohl immer noch nicht von der "vs" Überschrift getrennt.
 
Oben Unten