Basics GPUs Graphics Practice Reviews

Gaming Benchmarks: FPS, Percentiles, Frame Time, Variances, Power Consumption and Efficiency simply explained

Frame time of all cards as a curve

More interesting are the frame time progressions. Neatly interpolated, these data also lie neatly on a common time axis, so that one can also compare the maps better with each other. However, these curves with the many fluctuations also have the disadvantage that they can no longer be assigned to the individual cards in each case. All the overlaps make such a statement not insignificantly difficult. The slowest cards also have the highest rendering time in ms per rendered frame and the proportionally highest dips.

Frame time of a map as a curve (solo graphic)

Fittingly, PCAT’s power consumption values are also scaled to match the common timeline (although I don’t want to get ahead of the power consumption chapter). In this case, by the way, we see the measured values for the respective graphics card on all rails and not just estimates. AMD doesn’t have to speculate with unclear values like ASIC, this is the total power consumption, i.e. the board power of every single card in exactly this time window. Blue is the frame time curve, red represents the power consumption.

If you want it even more precise, you can even map the frame time together with the respective power consumption on a common time axis for each individual card, since I also produce precise and uniform time stamps on the measuring station with the oscillographs, so that it could be merged later in the interpreter. Only this is already over the top and would be pure measuring luxury. NVIDIA solves this with PCAT a bit more granularly than my measurement setup with the oscilloscope, but saves the much more complex merging of huge datasets via the Ethernet timestamp. That’s easily enough for visuals and a fairly accurate average (I’ll get into that later).

Frame time of all cards as bar chart

Here I now proceed differently than with the percentiles, because I cumulate the respective amount of frames per certain interval (see legend). Depending on how fast the image was rendered, the proportion of the respective time window then increases. Leaving DLSS aside, we see that the RTX 3090 without this help has the highest percentage of frames with < 16.66 ms, which would represent more than 60 FPS on average, even though very different render times can accumulate here in the second of a measurement.

Variances – Incorruptible indicator for smooth scrolling

By variance we mean the differences in time between two consecutive frames. These are absolute values of the difference between the two render times, because it does not matter to the viewer whether the following frame was rendered particularly quickly or the previous one particularly slowly. You can see micro jerks in both cases. All variances below 4 ms are actually not visible to the viewer, this only becomes an issue at around 8 ms and above. From 16 ms onwards, you can already see such pronounced jerks that you can no longer call the scrolling smooth.

 

Kommentar

Lade neue Kommentare

Blubbie

Urgestein

808 Kommentare 275 Likes

Genau wegen solchen fundierten und gut erklärten Grundlagen Artikeln ist Igor's Seite absolute Spitzenklasse!
Weiter so!
(y):coffee:

Antwort 8 Likes

RX480

Urgestein

1,870 Kommentare 861 Likes

Das klingt total interessant, an welchen Stellen FrameView misst.

Da gabs letztens Diskussionen bei CB, ob net CFX totalen Mist misst.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,348 Kommentare 550 Likes

@Igor Wallossek :
Frage zu den Mikrorucklern; du schreibst ab 8ms wirds merkbar, ab 16 sehr deutlich; aber ist das nicht Monitorabhängig?

Also solange Varianz (ms) < (1000/Hz)/2 (ms) ists nicht merkbar? Da kommt auch deine Aussage hin, allerdings nur bei einem 60 Hz Monitor.

Antwort Gefällt mir

Igor Wallossek

1

10,185 Kommentare 18,780 Likes

Die ganzen Sync-Verfahren lasse ich mal außen vor, weil ich sie ja eh nicht aktivieren darf. Und ich beziehe mich hier weniger auf Monitore, sondern physiologische Grenzen und das, was der mernsch selbst wahrnehmen kann.

Antwort Gefällt mir

Martin Gut

Urgestein

7,769 Kommentare 3,570 Likes

Ja und nein. Bei 240 Hz merkt man es viel weniger als bei 60 Hz wenn mal ein Bild ausfällt. Unterschiede von mehr als 16 ms sind bei 60 wie auch bei 240 Hz spürbar. Unterschiede von 2 oder 4 ms sind bei 60 Hz meist gar nicht sichtbar. Bei 240 Hz sind sie wohl sichtbar, aber so kurz dass man es auch kaum wahr nimmt.

Antwort 1 Like

RX480

Urgestein

1,870 Kommentare 861 Likes

Das Auge sieht ja net den absoluten Wert, merkt hingegen die Schwankung.(x)
D.h. in der Praxis hilft ein Cappen per Fps-Limit, um die Schwankung max Fps zu minFps zu verringern,
was zusätzlich noch dem Inputlag hilft.

(x) worst Case = beim Frameverlauf wenn auf einen Berg direkt ein Tal folgt = größte Differenz
(natürlich kann Buffern das etwas abmildern; ... interessant ist dann wirklich Wie und Wo die Frametimes gemessen werden)

Antwort 1 Like

LurkingInShadows

Urgestein

1,348 Kommentare 550 Likes

Solange aber dieser worst case bei der halben Bildfrequenz liegt kann ein Monitor das NIE darstellen => wird nie merkbar

zB.: 60 Hz ergibt 16 2/3 ms Bildanzeigeintervall, wenn die GPU mehr Zeit braucht wird das letzte Bild nochmals für ein komplettes weiteres Intervall dargestellt, oder?
=> <16 2/3 sollte sich ausgehen, kann aber mit lag daneben gehen, 8 1/3 geht sich sicher aus.

Bei 240 Hz müssten alle Zeiten geviertelt sein, um den selben Effekt zu erreichen, also 4 1/6 ms Intervall; 2 1/12ms zum sichergehen.

Meine Frage oben bezog sich dann mit monitorabhängig darauf, dass 8 ms Varianz einem 60Hz Monitor schurzegal sind, bei einem 240 Hz Monitor aber zur erneuten Darstellung des Frames führen => Ruckler

Ob der sichtbar/spürbar wäre weiß ich nicht, wenn ja müssten die Nutzer der beiden Monitore in der Grafik verschiedene Grün-Rottöne als Messlatte nehmen um flüssiges Spielen zu garantieren.

Antwort Gefällt mir

RX480

Urgestein

1,870 Kommentare 861 Likes

240Hz ist vllt. gleich ein zu großer Sprung für nen Vgl., idealer wäre 144Hz, weil sehr verbreitet, bzw. bei 4k auch 96...120Hz@HDR gebräuchlich.
(96Hz waren die Modelle mit Bandbreitenlimit)

Antwort Gefällt mir

Martin Gut

Urgestein

7,769 Kommentare 3,570 Likes

Die Varianz ist nicht die Frametime. Für deine Überlegungen mit der Anzeige auf dem Bildschirm sind die Frametimes entscheidend. So wie du es beschreibst, läuft es, wenn man V-Sync an hat und die FPS auf die Bildschirmfrequenz limitiert.

Die Varianz ist (wenn ich Igors Beschreibung richtig verstehe) der Unterschied zwischen aufeinander folgenden Renderzeiten (Frametimes). Ein Frame hatte beispielsweise eine Frametime von 10 ms, der nächste 19 ms. Das gäbe dann eine Varianz von 9 ms. Das zeigt, wie unregelmässig das Game läuft. Die Varianz lässt sich aber nicht mit den Zeitintervallen der Bildschirmfrequenz vergleichen.

Bitte korrigiert mich wenn ich es falsch interpretiert habe.

Antwort 1 Like

Igor Wallossek

1

10,185 Kommentare 18,780 Likes

Du liegst völlig richtig, es ist die Differenz zwischen zwei aufeinanderfolgenden Frame Times. Bei sehr hohen FPS-Zahlen sind kurze Drops oder Spikes auch nichts, was die Elektronic so schnell wegbügelt.

Antwort Gefällt mir

RX480

Urgestein

1,870 Kommentare 861 Likes

Wie war das genau bei Vsync+Fps-Limit ?

Je nachdem welcher Abstand zu der Moni-Frequenz (Hz), gibts 1 oder 2 oder 3 Frames Buffer.(x)
Bei AMD weniger Buffer als bei NV.(nur im UltraLatencyMode wirds auch bei NV weniger)

Falls man denn versuchen will die Varianz etwas wegzubügeln.

(x) manche Games haben neuerdings sogar die Möglichkeit Vsync mit niedrigem oder normalen Buffer auszuwählen.

Antwort Gefällt mir

Martin Gut

Urgestein

7,769 Kommentare 3,570 Likes

Ich kenne es nur von Nvidia. Die Grösse des Buffers kann man seit Jahren in der Nvidia-Systemsteuerung einstellen. Es ist eine separate Einstellung. Für eine kurze Latenz sollte man den Wert möglichst tief setzen und ev. den Ultra-modus einstellen. Dafür hat man dann keinen Buffer, der Ruckler wegbügeln kann.

Antwort Gefällt mir

RX480

Urgestein

1,870 Kommentare 861 Likes

seit Jahren, really?

Erst seit Navi mit AntiLag kam, hat NV ein bisschen nachgelegt und am Anfang funzte mit Turing UltraLow mehr schlecht als recht
in Games. Showcases mal außen vor.

Antwort Gefällt mir

Martin Gut

Urgestein

7,769 Kommentare 3,570 Likes

Der Ultra-Modus ist recht neu. Aber die Einstellung wie viele Frames der Buffer haben soll und ob man 3-fachpuffer verwenden will, sind über 5 Jahre alt. Wie gut es funktioniert hat, kann ich nicht sagen, da ich das nicht messen kann. Zumindest konnte man es mit den falsche Einstellungen spürbar schlechter machen. :p

Antwort Gefällt mir

RX480

Urgestein

1,870 Kommentare 861 Likes

Das stimmt,
zum Glück gibts die BlurBusters auch schon seit Jahren.
War schon interessant mit RTSS und genauen Einstellungen.
(weil 60Hz ist net 60Hz exactly)

btw.
Ganz nebenbei ist z.Bsp. auch 59,9394 bzgl. der Linkgeschwindigkeit bei meinem 4k-Moni dann niedriger, wenn ich ich auf dem Desktop
FHD einstelle. Wenn ich dumb W10 die Wahl lasse, bekomme ich 60Hz mit ner verkappten Linkgeschwindigkeit ala 4k, ... und schon ist man
Dabei mit dem "Vram net runtertakten -Problem", falls man bei DS die Häkchen rausnimmt (im MPT).

Antwort Gefällt mir

K
Kearvaig

Mitglied

32 Kommentare 9 Likes

Vielen Dank für den Artikel, endlich mal einige Fragen beantwortet...

Antwort Gefällt mir

R
Raistlin666

Neuling

1 Kommentare 0 Likes

Kurze Frage:
Bei Nvidia gibts weder den Interpreter noch das Sheet zu laden (ist auch nicht mehr im Install-Ordner zu finden). Ich hab gestern ne Analyse starten wollen, aber bei 10mins recording kommt kein Tool ansatzweise mit der Datenmenge klar - gibts da irgendwelche Tipps? Excel kann ich komplett knicken, nicht nur dass es bei 15MB csv irgendwie 1,5GB RAM braucht, es crasht auch dauernd und zeit irgendwie random Daten an, wenn ich die korrekte Spalte wähle (100k Zeilen, Datenauswahl hat 100k Zeilen, Diagramm zeigt aber nur 3000). Mit PowerBI und Google Sheets komme ich auch nicht weiter...

Antwort Gefällt mir

B
BullX

Neuling

4 Kommentare 0 Likes

Hallo zusammen,

kennt jemand eine Quelle für eine aktualisierte Überstellung der Leistungsaufnahme von Grafikkarten ?
So wie hier im Artikel gezeigt ist es top. Nur leider ist dort die neue Generation nicht vertreten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung