Frage FPS vs Hz

grimm

Urgestein
Mitglied seit
Aug 9, 2018
Beiträge
3.110
Bewertungspunkte
2.047
Punkte
114
Standort
Wiesbaden
Also Frames pro Sekunde, die die Grafikkarte liefert vs Bildwiederholfrequenz des Monitors (ebenfalls pro Sekunde).
Ich hätt da mal ne Frage: Hab grad nen neuen Monitor angeschafft (Umstieg von FullHD mit 60 Hz auf WQHD mit 75 Hz) und muss sagen, dass ich - abgesehen von der höheren Auflösung (=schärferes Bild) - keine Unterschiede merke. Ich hatte im Vorfeld 144 Hz, G-Sync (hab ne Nvidia-Karte) usw angeschaut und mich dann für die "billige Lösung" (75 Hz, V-Sync) entschieden. Einfach, weil mir kaum merkbare Unterschiede aufgefallen sind.

Und dann kommt noch Theorie dazu: Ich weiß aus der Video-/Animationserstellung, dass man 25 FPS benötigt, damit man Bewegung als flüssig wahrnimmt. Ein bisschen mehr ist natürlich gut, im hohen Frequenzbereich nimmt man aber die Zwischenstufen nicht mehr wahr - als Vergleich: ein Kolibri schlägt 40-50 mal pro Sekunde mit den Flügeln, man sieht aber nur verschwommen, was da passiert. Zu viel Input für den Prozessor. Das hat aber auch mit der Wahrnehmung von Bewegung zum einen und Bildern (Licht) zum anderen zu tun.
Bzw sagt die Biochemie / Physiologie, dass das Auge dreistellig Bilder wahrnehmen, das Gehirn diese aber nicht verarbeiten kann. Und soeben lese ich, dass man den Sehapparat trainieren kann...

Und so komme ich schon selber zu dem Fazit, dass es subjektiv ist. Eines Tages investier ich die 2.000 € in Monitor und GraKa ...
 
Ja.



Über 60 merk ich keinen Unterschied. 75, 144, sieht für mich alles gleich aus. Wird wohl dieses "training" sein. Wenn man's aber gewohnt ist jahrelang auf 144 Freesync zu guggen, könnten 60 schon blöd aussehen.
 
Aussehen tut es erstmal gleich, ja. Aber ich hab ne deutlich bessere K/D Ratio und treffe einfach besser in CS mit nem 75hz Monitor, das ist mein persönlicher Benchmark gewesen. Für 144hz fehlen mir die monetären Mittel ;)
 
Also mir fällt das schon extrem auf. Schon allein im Destkopbetrieb die Maus. Und bei FPS-Spielen mit bewegungen merk ich einen extremen Unterschied zwischen 60 und 144Hz.
Zwischen 144 und 165 merk ich jetzt keinen Unterschied mehr, aber zwischen 120 und 144 (ULMB vs Normal) Bilde ich mir ein, noch was zu merken.
 
Ja, das mit der Differenzierung zwischen "Bewegung" (=schnelle Shooter) und Bildwelt an sich (Adventure, Strategie, ...) leuchtet ein. Das hat auch was mit dem Aufbau des Auges zu tun. Im Zentrum sieht man schärfer, an den Rändern "franst" es aus.
 
Ergibt auch Sinn. Schnelle Bewegungen gibt es von Natur aus nur bei der Jagd oder auf der Flucht bzw. im Kampf. Da ist es dem Kopf dann auch erstmal egal ob da hundert Meter weiter ein Apfelbaum oder eine Tanne steht. Man fokussiert sich auf den Schlag oder das Vieh.

Experiment:
Stell dich mal mit starrem Kopf an ne Landstraße oder was ähnlich schnelles.
Schaue schnurgeradeaus und versuche das vorbeifahrende Auto in den Fokus zu bekommen ohne den Kopf oder die Augen zu bewegen. und versuchs dann nochmal ohne den Kopf zu bewegen, aber mit den Augen zu folgen.
 
Ob ich den Unterschied zwischen 75Hz und 60Hz direkt merken würde, vermutlich eher nicht so. Aber zwischen 144Hz und 60Hz liegt ein himmelweiter Unterschied! Ich merke sofort auf dem Desktop, wenn mein Monitor nur mit 60Hz angesteuert wird, der Mauscursor scheint auf 144Hz viel direkter zu reagieren und wenn ich kleinere Fenster verschiebe erscheint die Bewegung viel fließender.

Und dann kommt noch Theorie dazu: Ich weiß aus der Video-/Animationserstellung, dass man 25 FPS benötigt, damit man Bewegung als flüssig wahrnimmt.
Und hier ist der Punkt: Das Auge kann dargestellte Objekte ab ca. 18Hz als zusammenhängende Bewegung erkennen, flüssig ist die Bewegung dadurch noch lange nicht! Daran hängen sich jedes Mal die Anhänger der "mehr als 24Hz kann das Auge gar nicht wahrnehmen, also alles Marketingblabla" Fraktion auf! NATÜRLICH kann es das nicht, aber das Auge arbeitet auch nicht in FPS oder Hertz! In Fact hast du quasi außen eine "schnellere" Wahrnehmung, als im Fokusbereich, erkennt man manchmal an Leuchtstoffröhren: Im periphären Sichtfeld flackern sie, schaue ich direkt hin, sehe ich das Flackern nicht mehr.

In der Videobearbeitung und Effekterstellung fügt man Motion Blur hinzu. Nimm mal einen Animationsfilm und pausiere eine schnelle Szene, du wirst sehen, dass schnell bewegte Objekte verschwommen dargestellt sind. Würden die Animateure das nicht tun, sähe der Film ziemlich bescheiden aus.
Ein Beispiel von einem Realfilm hier: Crank. In einer Szene wird aus einem Auto heraus gegen das Licht gefilmt, aber hier hat der Kameramann gepfuscht, er hätte die Empfindlichkeit runterregeln müssen. So hat die Kamera (oder auch er selbst) die Belichtungszeit nach unten korrigiert, damit die Aufnahme nicht überstrahlt. Nun hat man allerdings durch die viel zu kurze Belichtungszeit einen Effekt wie ein Videospiel mit 24FPS: Alles sieht abgehackt aus, vor allem, weil sich Statham in der Szene relativ schnell bewegt.

Wenn du Crysis für den PC hast, versuch doch mal folgendes: Stell im Treiber/Bildschirmeinstellungen entweder 24Hz und V-Sync ein oder begrenze irgendwie die FPS auf 24. Dann geh in die Einstellungen von Crysis und spiele einmal mit Motion Blur und einmal ohne, das lässt sich in dem Spiel nämlich stufenlos per Schieberegler einstellen, bzw. auch ganz abschalten. Und dann sage mir, ob du einen Unterschied gesehen hast und welches "flüssiger" aussah ;)

Testufo ist ebenfalls gut.

Ich habe auch irgendwo noch so einen billigen Stroboblitzer von Conrad, ich glaube der konnte von 5-30Hz blitzen. 30Hz sollten dann ja locker für eine flüssige Bewegung ausreichen, oder? ;) Komisch, sieht trotzdem irgendwie abgehackt aus :D

Ach ja iPhones und ich glaube die Flagschiffe von Samsung arbeiten mittlerweile auch schon mit 120Hz Displays, warum wohl? ;)

Das Ding mit höheren FPS ist dass ein bewegt dargestelltes Objekt näher an der echten, natürlichen Bewegung liegt, was Motion Blur bei niedrigen Hz/FPS nur vorgaukelt, erzeugen hohe Bildwiederholraten von selbst.
 
Zuletzt bearbeitet :
@DHAmoKK: Danke, Testufo kannte ich noch garnicht.
Ich gehöre allerdings nicht zu der von dir genannten Fraktion. Geht am Ende nur drum, wieviel du - bzw in diesem Fall ich - auszugeben bereit bist. Und ab wann und vor allem für welche Art von Anwendung sich das lohnt.
 
Zwischen 60 und 96hz nehme ich definitiv einen Unterschied wahr. Das ist aber auch Unterschied von 50%.

Der Unterschied zwischen 60 und 75 ist da deutlich geringer. Der von 120 zu 144 sowieso.

Läuft mein Monitor Zuhaus auf 60hz, werden meine Augen recht schnell müde und tränen - bei 96hz nicht. Nehme in dem Bereich auch schon einen reichlich flüssigeren Mausverlauf wahr.

Allerdings bezweifel ich nicht, dass die Wahrnehmung dem Subjekt unterliegt. Leute die tatsächlich keinen Unterschied erkennen oder wahrnehmen, können sich die Kohle halt sparen ;)

Es kann aber auch sein, dass man Unterschied erst merkt, wenn man nach längerer 96(+) Zeit wieder auf 60 zurückkehrt - während der 'WOW Effekt' beim 'Upgrade' erstmalig gänzlich wegbleibt.
 
Ich gehöre allerdings nicht zu der von dir genannten Fraktion.
Sehr gut, ich dachte schon :D

WQHD Monitore sind ja nicht so teuer, auch mit 144Hz nicht. Es kommt drauf an, was der außer einem Bild darzustellen noch zu schaffen imstande sein soll ^^ Soll es farbtreu sein? IPS oder MVA, entsprechend teurer als TN. Eine dynamische Sync-Technologie? Je nach Grafikkartenhersteller und da ist G-Sync eben auch teurer als Freesync. Da ich vor 2 Jahren zu AMD gewechselt habe, blieb nur Freesync übrig, entsprechend kam der Monitor auch "nur" rund 400€. Klar, es gab noch den Eizo mit IPS Panel für gut 1000€, aber das war es mir dann auch nicht wert :D

@Moeppel
Vermutlich muss man sich mental auch darauf einstellen, dass etwas anders ist. Kann mir vorstellen, dass mein Vater wohl kaum etwas merken würde, würde ich ihm meinen Monitor auf den Tisch stellen, außer dass alles viel kleiner geworden ist wegen höherer DPI :D
 
Ich gehöre absolut nicht zu den Kompetitiven Spielern, zudem finde ich 60fps bereits ausreichend flüssig (Am PC am Fernseher gehen auch 30fps).
Ich finde auch Motion Blure (wenn gut implementiert) klasse und investiere meine Grafikleistung lieber in höhere Auflösungen (Downsampling) oder anderen Grafik Schnick Schnack als, dass ich mehr fps benötige.

Somit kann man nicht alles in einen Topf werfen. Jeder hat so seine Vorlieben. Es gibt aber auch Grenzen, jemand der sagt, dass ein PC Spiel ohne Motion Blure bei 24fps flüssig ist, hat entweder gar keine Ansprüche oder Probleme mit den Augen.
 
für mich ist es wichtig das der Rechner nie unter 60 FPS fällt - weil das auf der Annahme beruht, das ich die Einstellungen so gewählt habe, das Microruckler nicht stattfinden oder schlicht nicht auffalen - stichwort frame time latency... mehr darfs gerne sein, aber auch nicht mehr als 144 - das kann der monitor eh ned *g*
 
High FPS mit nem schnellen Monitor macht am meisten bei schnellen Shootern Sinn. Und ja, man merkt den Unterschied deutlich!
 
Was mich Mal interessieren würde ,Wer von den hier Anwesenden mit 144 Hz +Monitor merkt einen Unterschied zu async ( gsync/freesync ) on/off bei brauchbaren Bildraten ?
 
Ich merk es schon. In manchen spielen mehr und in manchen weniger. Ich habe das gefühl, dass man unregelmäßige Frametimes ohne gsync mehr merkt. Laufe ich z.b. in einem FPS-Spiel bewegt sich das Umfeld ohne gsync irgendwie manchmal unregelmäßig an mir vorbei, ruckig. Mit gsync ist alles wesentlich flüssiger. Wie gesagt, bei manchen Spielen merkt mans nur, wenn man drauf achtet, aber manche spiele sind, wenn man aus versehen gsync mal aus hat, merkbar nervig.
 
Hab selbst bisher keinen >75 Hz Monitor mit sync besessen , deshalb die Frage.

Bei dem was ich bisher mal bei der einen oder anderen Gelegenheit in Richtung 144hz testen konnte ist mir am meisten das fehlende Treaing aufgefallen welches ich bei meinen 60 und 75 Hz Kisten meist mit vsync erschlage.
Ich hatte aber beim testen immer den Eindruck das hohe Hz Zahlen anstrengender für mein Augen sind was ja eigentlich Quark ist ,sollte genau anders herum sein .

Ich glaube, das hier sollte in diesen Thread, nicht in den vom 9900K ^^

Das Tearing ist für mich auch mit das schlimmste.
 
Ich hab vor einiger Zeit diverse Monitore durchprobiert und habe hier 3 27“ WQHD: einen ASUS (IPS, 60Hz) einen Eizo (IPS, 60Hz) und einen Dell (TN, 144Hz). Der Eizo hat das natürlichste Bild, der Dell das schnellste (und das sehe ich sowohl aufm Desktop als auch in Spielen) und der ASUS das für meinen Geschmack irgendwie farbenfroheste zum Daddeln.

Das TN Panel vom Dell ist einfach kacke. Schnell, ja. Aber Farben? Fehlanzeige im Vergleich zu den beiden IPS. Macht keinen Spaß. Schäme mich ein wenig, es zuzugeben, aber der deutlich günstigere ASUS gefällt mir trotz ein wenig banding besser als der Eizo.

Zurück zur Speed: man sieht es. 144Hz sind schon ruhiger als 60. Man sieht auch von einer Bewegung „mehr“ und weniger verschwommen. Aber nur Speed allein reicht mir leider nicht. :(
 
Das ist ja das Problem: 144 Hz kriege ich in WQHD mit meiner "alten" GraKa nicht abgebildet. Dann bräuchte ich G-Sync. Den Aufpreis für den G-Sync Monitor würde ich aber lieber in eine GraKa investieren, die 4K kann. Leider verkauft Nvidia die für das doppelte, was ich so nicht erwartet hatte. Und müde von dem ganzen "und dann, wenn das, wäre dieses, ..." hab ich dann nen billichen 75 Hz Monitor gekauft, der zu meinem Setup passt. Farben und Co gefallen mir ebenfalls. Ich bin verdammt, zu warten. Allerdings warten 4K, HDR und ein Preiskampf bei den Grafikherstellern, wenn kommendes Jahr auch noch Intel einsteigt. Mal gucken, was kommt. So in zwei Jahren ;)
 
und ein Preiskampf bei den Grafikherstellern, wenn kommendes Jahr auch noch Intel einsteigt.
Hat Intel gesagt wo sie mit was einsteigen? (k.A. haben die explizit GAMING Karten angekündigt?)
Könnten auch reine AI Karten oder 1060er/580er werden, da sich dort die meisten Kunden tummeln. Dann is nicht viel mit 4k.
Oder es wird eine neue Saga, wie die 10nm...
 
Nicht, dass ich wüsste. Ich hab aber auch ein Zeitfenster von "2 Jahren"genannt. Bis dahin MUSS sich ja mal was bewegen. Zumindest weiß ich dann, für was DLSS und das ganze KI Gedöns gut ist. Oder eben nicht. Ne Karte, die ohne die Features auskommt und deshalb ein paar Hundert Euro günstiger wäre, wär ziemlich cool! Ach, die gibts ja - noch.
 
Oben Unten