Grafikkarten Grundlagenartikel Praxis Testberichte VGA

Gaming-Benchmarks: FPS, Perzentile, Frame Time, Varianzen, Leistungsaufnahme und Effizienz einfach erklärt

FPS und Perzentile als kombiniertes Balkendiagramm

Zunächst lasse ich ja, wie bereits beschrieben, den Benchmark-Run laufen und protokolliere Frame-Time, PCAT-Daten und die Systemdaten wie CPU-Takt, -Auslastung und -Package-Power mit NVIDIA FrameView, lasse also das volle Log-File schreiben. Nach dem PNG-Export aus dem Template interessieren uns natürlich erst einmal die FPS als Durchschnittswert. Das, was wir vor langer Zeit dazu noch als Min-FPS ausgegeben haben, spiegelt aber die Wirklichkeit (vor allem bei längeren Runs) kaum realistisch wieder. Da kommen jetzt die Perzentile ins Spiel.

Da es hier aber immer wieder Ungereimtheiten und Fragen gibt, erkläre ich Euch mal, was es damit auf sich hat, denn es ist ja im Prinzip eigentlich nichts anderes, nur in Richtig. Das, was ich hier in der kombinierten Balkengrafik als P1 (also quasi das 1. Perzentil oder auch 1% Low) ausgebe, repräsentiert die schlechtesten 1% aller gemessenen Daten. Diese Angaben sind auch für das Ausweisen größerer Frame-Drops, diverser FPS-Einbrüche oder permanenter Mikroruckler sehr gut geeignet, mehr zeigen sie jedoch auch erst einmal nicht.

FPS als Verlaufskurve

Läuft ein Benchmark wie hier z.B. 108 Sekunden, dann kann man die im Interpreter aufbereiteten FPS für jede Karte erst einmal wunderschön übereinander legen. Auch so ein Vergleich ergibt einen tieferen Sinn, denn es zeigt nicht nur die Stellen, wo z.B. alle Karten gleichermaßen einbrechen, sondern auch die Bereiche, wo eine Karte besser und runder läuft, als einen andere. Das kann dann bei der schlechteren Karte (die im Durchschnitt vielleicht nicht mal viel Langsamer ist) an dieser Stelle z.B. auch einen Treiber-Bug oder mangelnden Speicher hinweisen. Im Beispiel unten ohne DLSS sehen wir z.B. um wieviel geschmeidiger die schnellste Karte (RTX 3090)  im Vergleich  zur zweitschnellsten Karte (RTX 3080 Ti) den Benchmark absolvieren kann.

FPS und Perzentile als Kurve

Die nachfolgende Kurve wird stets unterschätzt, denn man erkennt sehr schön, wie viele FPS im Schnitt prozentual anfallen. Ich werte das zwar im Detail später auch noch für die Frame Time aus, aber hier geht es erst einmal um die Sekunden-Intervalle. Bei der RTX 3090 sehen wir z.B., dass 50% aller FPS bei 60 liegen, was auch fast den Durchschnitts-FPS entspricht, 85 % der FPS zumindest noch bei  55 und 99% aller FPS-Werte dann noch über knapp 49 liegen. Deshalb schreiben auch manche Kollegen immer noch vom 99. Perzentil, obwohl es mathematisch leider falsch ist.

 

 

Kommentar

Lade neue Kommentare

Blubbie

Urgestein

808 Kommentare 275 Likes

Genau wegen solchen fundierten und gut erklärten Grundlagen Artikeln ist Igor's Seite absolute Spitzenklasse!
Weiter so!
(y):coffee:

Antwort 8 Likes

RX480

Urgestein

1,874 Kommentare 868 Likes

Das klingt total interessant, an welchen Stellen FrameView misst.

Da gabs letztens Diskussionen bei CB, ob net CFX totalen Mist misst.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,348 Kommentare 551 Likes

@Igor Wallossek :
Frage zu den Mikrorucklern; du schreibst ab 8ms wirds merkbar, ab 16 sehr deutlich; aber ist das nicht Monitorabhängig?

Also solange Varianz (ms) < (1000/Hz)/2 (ms) ists nicht merkbar? Da kommt auch deine Aussage hin, allerdings nur bei einem 60 Hz Monitor.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,814 Likes

Die ganzen Sync-Verfahren lasse ich mal außen vor, weil ich sie ja eh nicht aktivieren darf. Und ich beziehe mich hier weniger auf Monitore, sondern physiologische Grenzen und das, was der mernsch selbst wahrnehmen kann.

Antwort Gefällt mir

Martin Gut

Urgestein

7,780 Kommentare 3,576 Likes

Ja und nein. Bei 240 Hz merkt man es viel weniger als bei 60 Hz wenn mal ein Bild ausfällt. Unterschiede von mehr als 16 ms sind bei 60 wie auch bei 240 Hz spürbar. Unterschiede von 2 oder 4 ms sind bei 60 Hz meist gar nicht sichtbar. Bei 240 Hz sind sie wohl sichtbar, aber so kurz dass man es auch kaum wahr nimmt.

Antwort 1 Like

RX480

Urgestein

1,874 Kommentare 868 Likes

Das Auge sieht ja net den absoluten Wert, merkt hingegen die Schwankung.(x)
D.h. in der Praxis hilft ein Cappen per Fps-Limit, um die Schwankung max Fps zu minFps zu verringern,
was zusätzlich noch dem Inputlag hilft.

(x) worst Case = beim Frameverlauf wenn auf einen Berg direkt ein Tal folgt = größte Differenz
(natürlich kann Buffern das etwas abmildern; ... interessant ist dann wirklich Wie und Wo die Frametimes gemessen werden)

Antwort 1 Like

LurkingInShadows

Urgestein

1,348 Kommentare 551 Likes

Solange aber dieser worst case bei der halben Bildfrequenz liegt kann ein Monitor das NIE darstellen => wird nie merkbar

zB.: 60 Hz ergibt 16 2/3 ms Bildanzeigeintervall, wenn die GPU mehr Zeit braucht wird das letzte Bild nochmals für ein komplettes weiteres Intervall dargestellt, oder?
=> <16 2/3 sollte sich ausgehen, kann aber mit lag daneben gehen, 8 1/3 geht sich sicher aus.

Bei 240 Hz müssten alle Zeiten geviertelt sein, um den selben Effekt zu erreichen, also 4 1/6 ms Intervall; 2 1/12ms zum sichergehen.

Meine Frage oben bezog sich dann mit monitorabhängig darauf, dass 8 ms Varianz einem 60Hz Monitor schurzegal sind, bei einem 240 Hz Monitor aber zur erneuten Darstellung des Frames führen => Ruckler

Ob der sichtbar/spürbar wäre weiß ich nicht, wenn ja müssten die Nutzer der beiden Monitore in der Grafik verschiedene Grün-Rottöne als Messlatte nehmen um flüssiges Spielen zu garantieren.

Antwort Gefällt mir

RX480

Urgestein

1,874 Kommentare 868 Likes

240Hz ist vllt. gleich ein zu großer Sprung für nen Vgl., idealer wäre 144Hz, weil sehr verbreitet, bzw. bei 4k auch 96...120Hz@HDR gebräuchlich.
(96Hz waren die Modelle mit Bandbreitenlimit)

Antwort Gefällt mir

Martin Gut

Urgestein

7,780 Kommentare 3,576 Likes

Die Varianz ist nicht die Frametime. Für deine Überlegungen mit der Anzeige auf dem Bildschirm sind die Frametimes entscheidend. So wie du es beschreibst, läuft es, wenn man V-Sync an hat und die FPS auf die Bildschirmfrequenz limitiert.

Die Varianz ist (wenn ich Igors Beschreibung richtig verstehe) der Unterschied zwischen aufeinander folgenden Renderzeiten (Frametimes). Ein Frame hatte beispielsweise eine Frametime von 10 ms, der nächste 19 ms. Das gäbe dann eine Varianz von 9 ms. Das zeigt, wie unregelmässig das Game läuft. Die Varianz lässt sich aber nicht mit den Zeitintervallen der Bildschirmfrequenz vergleichen.

Bitte korrigiert mich wenn ich es falsch interpretiert habe.

Antwort 1 Like

Igor Wallossek

1

10,198 Kommentare 18,814 Likes

Du liegst völlig richtig, es ist die Differenz zwischen zwei aufeinanderfolgenden Frame Times. Bei sehr hohen FPS-Zahlen sind kurze Drops oder Spikes auch nichts, was die Elektronic so schnell wegbügelt.

Antwort Gefällt mir

RX480

Urgestein

1,874 Kommentare 868 Likes

Wie war das genau bei Vsync+Fps-Limit ?

Je nachdem welcher Abstand zu der Moni-Frequenz (Hz), gibts 1 oder 2 oder 3 Frames Buffer.(x)
Bei AMD weniger Buffer als bei NV.(nur im UltraLatencyMode wirds auch bei NV weniger)

Falls man denn versuchen will die Varianz etwas wegzubügeln.

(x) manche Games haben neuerdings sogar die Möglichkeit Vsync mit niedrigem oder normalen Buffer auszuwählen.

Antwort Gefällt mir

Martin Gut

Urgestein

7,780 Kommentare 3,576 Likes

Ich kenne es nur von Nvidia. Die Grösse des Buffers kann man seit Jahren in der Nvidia-Systemsteuerung einstellen. Es ist eine separate Einstellung. Für eine kurze Latenz sollte man den Wert möglichst tief setzen und ev. den Ultra-modus einstellen. Dafür hat man dann keinen Buffer, der Ruckler wegbügeln kann.

Antwort Gefällt mir

RX480

Urgestein

1,874 Kommentare 868 Likes

seit Jahren, really?

Erst seit Navi mit AntiLag kam, hat NV ein bisschen nachgelegt und am Anfang funzte mit Turing UltraLow mehr schlecht als recht
in Games. Showcases mal außen vor.

Antwort Gefällt mir

Martin Gut

Urgestein

7,780 Kommentare 3,576 Likes

Der Ultra-Modus ist recht neu. Aber die Einstellung wie viele Frames der Buffer haben soll und ob man 3-fachpuffer verwenden will, sind über 5 Jahre alt. Wie gut es funktioniert hat, kann ich nicht sagen, da ich das nicht messen kann. Zumindest konnte man es mit den falsche Einstellungen spürbar schlechter machen. :p

Antwort Gefällt mir

RX480

Urgestein

1,874 Kommentare 868 Likes

Das stimmt,
zum Glück gibts die BlurBusters auch schon seit Jahren.
War schon interessant mit RTSS und genauen Einstellungen.
(weil 60Hz ist net 60Hz exactly)

btw.
Ganz nebenbei ist z.Bsp. auch 59,9394 bzgl. der Linkgeschwindigkeit bei meinem 4k-Moni dann niedriger, wenn ich ich auf dem Desktop
FHD einstelle. Wenn ich dumb W10 die Wahl lasse, bekomme ich 60Hz mit ner verkappten Linkgeschwindigkeit ala 4k, ... und schon ist man
Dabei mit dem "Vram net runtertakten -Problem", falls man bei DS die Häkchen rausnimmt (im MPT).

Antwort Gefällt mir

K
Kearvaig

Mitglied

32 Kommentare 9 Likes

Vielen Dank für den Artikel, endlich mal einige Fragen beantwortet...

Antwort Gefällt mir

R
Raistlin666

Neuling

1 Kommentare 0 Likes

Kurze Frage:
Bei Nvidia gibts weder den Interpreter noch das Sheet zu laden (ist auch nicht mehr im Install-Ordner zu finden). Ich hab gestern ne Analyse starten wollen, aber bei 10mins recording kommt kein Tool ansatzweise mit der Datenmenge klar - gibts da irgendwelche Tipps? Excel kann ich komplett knicken, nicht nur dass es bei 15MB csv irgendwie 1,5GB RAM braucht, es crasht auch dauernd und zeit irgendwie random Daten an, wenn ich die korrekte Spalte wähle (100k Zeilen, Datenauswahl hat 100k Zeilen, Diagramm zeigt aber nur 3000). Mit PowerBI und Google Sheets komme ich auch nicht weiter...

Antwort Gefällt mir

B
BullX

Neuling

4 Kommentare 0 Likes

Hallo zusammen,

kennt jemand eine Quelle für eine aktualisierte Überstellung der Leistungsaufnahme von Grafikkarten ?
So wie hier im Artikel gezeigt ist es top. Nur leider ist dort die neue Generation nicht vertreten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung