Basics GPUs Graphics Practice Reviews

Gaming Benchmarks: FPS, Percentiles, Frame Time, Variances, Power Consumption and Efficiency simply explained

Where are the limits?

As great as PCAT is for measurement and data acquisition – even PCAT can’t do everything that my site does here. And that’s a good thing, otherwise I would have become obsolete almost overnight. But what works well: PCAT is an ideal solution, because it is very convenient to use, and can complement my time-consuming measurements or help to shorten many paths. For all evaluations on the previous page, this is of course cuddling in the comfort zone par excellence, since it’s only 100-ms intervals.

Detail measurements at maximum gaming load? It’s quite possible to get close to the 500 watt limit even with a GeForce RTX 3090, but that’s only in the microsecond range, where PCAT is of course no help anymore. The first graph shows 20-ms measurement intervals, but where the mean does not represent the true spikes that may actually occur.

Once we resolve such a 20-ms interval, we see the real problem behind the very fast work of NVIDIA’s Boost. Then individual, albeit very short, peaks of up to 600 watts are by no means uncommon!

By the way, the stress test causes a very interesting picture, because the length of the real load intervals is halved! Even if you reach about 410 to 430 watts once for a single millisecond, it is then an average of about 360 watts in the 4.5-ms window. Then the card completely shuts down for about 0.25 ms. It also becomes much more relaxed with the currents. This is now once again significantly lower than what just occurred during gaming with the frequent load changes.

Modern switching power supplies should not really have any difficulties with the flowing currents that graphics cards generate. I couldn’t really measure sensationally high currents on any single card or in any of a wide variety of load situations. Very high spikes of up to 440 watts with a length of about 5 milliseconds are present, no question. If you were to scale down to the nanosecond range, then peaks well over 50 amps are conceivable, but if an OCP or OPP is already triggering by then, the circuit is screwed up and you don’t have to blame the graphics cards.

The very short load peaks can be safely put aside and you should really only worry about values that are above one to two milliseconds. By the way, not only because of the possible shutdown of the power supply by a protective mechanism, but also because of the durability. The more frantically such a graphics accelerator sucks on the power supply, the faster the secondary capacitors get into the realm of care. Anyone who then ends up saving money is misguided.

Summary and conclusion

This should suffice as a short excursus for now, because I have already described the infrared measurements in detail several times. Nothing much has changed there either, so I can skip that. Everything else from today should certainly satisfy transparency and have clarified the most important issues. That’s all I want to write about it, because it was actually more than I intended to write. If something is still unclear, then there is still the forum and the linked thread.

 

Kommentar

Lade neue Kommentare

Blubbie

Urgestein

808 Kommentare 275 Likes

Genau wegen solchen fundierten und gut erklärten Grundlagen Artikeln ist Igor's Seite absolute Spitzenklasse!
Weiter so!
(y):coffee:

Antwort 8 Likes

RX480

Urgestein

1,793 Kommentare 813 Likes

Das klingt total interessant, an welchen Stellen FrameView misst.

Da gabs letztens Diskussionen bei CB, ob net CFX totalen Mist misst.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,345 Kommentare 549 Likes

@Igor Wallossek :
Frage zu den Mikrorucklern; du schreibst ab 8ms wirds merkbar, ab 16 sehr deutlich; aber ist das nicht Monitorabhängig?

Also solange Varianz (ms) < (1000/Hz)/2 (ms) ists nicht merkbar? Da kommt auch deine Aussage hin, allerdings nur bei einem 60 Hz Monitor.

Antwort Gefällt mir

Igor Wallossek

1

10,104 Kommentare 18,594 Likes

Die ganzen Sync-Verfahren lasse ich mal außen vor, weil ich sie ja eh nicht aktivieren darf. Und ich beziehe mich hier weniger auf Monitore, sondern physiologische Grenzen und das, was der mernsch selbst wahrnehmen kann.

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Ja und nein. Bei 240 Hz merkt man es viel weniger als bei 60 Hz wenn mal ein Bild ausfällt. Unterschiede von mehr als 16 ms sind bei 60 wie auch bei 240 Hz spürbar. Unterschiede von 2 oder 4 ms sind bei 60 Hz meist gar nicht sichtbar. Bei 240 Hz sind sie wohl sichtbar, aber so kurz dass man es auch kaum wahr nimmt.

Antwort 1 Like

RX480

Urgestein

1,793 Kommentare 813 Likes

Das Auge sieht ja net den absoluten Wert, merkt hingegen die Schwankung.(x)
D.h. in der Praxis hilft ein Cappen per Fps-Limit, um die Schwankung max Fps zu minFps zu verringern,
was zusätzlich noch dem Inputlag hilft.

(x) worst Case = beim Frameverlauf wenn auf einen Berg direkt ein Tal folgt = größte Differenz
(natürlich kann Buffern das etwas abmildern; ... interessant ist dann wirklich Wie und Wo die Frametimes gemessen werden)

Antwort 1 Like

LurkingInShadows

Urgestein

1,345 Kommentare 549 Likes

Solange aber dieser worst case bei der halben Bildfrequenz liegt kann ein Monitor das NIE darstellen => wird nie merkbar

zB.: 60 Hz ergibt 16 2/3 ms Bildanzeigeintervall, wenn die GPU mehr Zeit braucht wird das letzte Bild nochmals für ein komplettes weiteres Intervall dargestellt, oder?
=> <16 2/3 sollte sich ausgehen, kann aber mit lag daneben gehen, 8 1/3 geht sich sicher aus.

Bei 240 Hz müssten alle Zeiten geviertelt sein, um den selben Effekt zu erreichen, also 4 1/6 ms Intervall; 2 1/12ms zum sichergehen.

Meine Frage oben bezog sich dann mit monitorabhängig darauf, dass 8 ms Varianz einem 60Hz Monitor schurzegal sind, bei einem 240 Hz Monitor aber zur erneuten Darstellung des Frames führen => Ruckler

Ob der sichtbar/spürbar wäre weiß ich nicht, wenn ja müssten die Nutzer der beiden Monitore in der Grafik verschiedene Grün-Rottöne als Messlatte nehmen um flüssiges Spielen zu garantieren.

Antwort Gefällt mir

RX480

Urgestein

1,793 Kommentare 813 Likes

240Hz ist vllt. gleich ein zu großer Sprung für nen Vgl., idealer wäre 144Hz, weil sehr verbreitet, bzw. bei 4k auch 96...120Hz@HDR gebräuchlich.
(96Hz waren die Modelle mit Bandbreitenlimit)

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Die Varianz ist nicht die Frametime. Für deine Überlegungen mit der Anzeige auf dem Bildschirm sind die Frametimes entscheidend. So wie du es beschreibst, läuft es, wenn man V-Sync an hat und die FPS auf die Bildschirmfrequenz limitiert.

Die Varianz ist (wenn ich Igors Beschreibung richtig verstehe) der Unterschied zwischen aufeinander folgenden Renderzeiten (Frametimes). Ein Frame hatte beispielsweise eine Frametime von 10 ms, der nächste 19 ms. Das gäbe dann eine Varianz von 9 ms. Das zeigt, wie unregelmässig das Game läuft. Die Varianz lässt sich aber nicht mit den Zeitintervallen der Bildschirmfrequenz vergleichen.

Bitte korrigiert mich wenn ich es falsch interpretiert habe.

Antwort 1 Like

Igor Wallossek

1

10,104 Kommentare 18,594 Likes

Du liegst völlig richtig, es ist die Differenz zwischen zwei aufeinanderfolgenden Frame Times. Bei sehr hohen FPS-Zahlen sind kurze Drops oder Spikes auch nichts, was die Elektronic so schnell wegbügelt.

Antwort Gefällt mir

RX480

Urgestein

1,793 Kommentare 813 Likes

Wie war das genau bei Vsync+Fps-Limit ?

Je nachdem welcher Abstand zu der Moni-Frequenz (Hz), gibts 1 oder 2 oder 3 Frames Buffer.(x)
Bei AMD weniger Buffer als bei NV.(nur im UltraLatencyMode wirds auch bei NV weniger)

Falls man denn versuchen will die Varianz etwas wegzubügeln.

(x) manche Games haben neuerdings sogar die Möglichkeit Vsync mit niedrigem oder normalen Buffer auszuwählen.

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Ich kenne es nur von Nvidia. Die Grösse des Buffers kann man seit Jahren in der Nvidia-Systemsteuerung einstellen. Es ist eine separate Einstellung. Für eine kurze Latenz sollte man den Wert möglichst tief setzen und ev. den Ultra-modus einstellen. Dafür hat man dann keinen Buffer, der Ruckler wegbügeln kann.

Antwort Gefällt mir

RX480

Urgestein

1,793 Kommentare 813 Likes

seit Jahren, really?

Erst seit Navi mit AntiLag kam, hat NV ein bisschen nachgelegt und am Anfang funzte mit Turing UltraLow mehr schlecht als recht
in Games. Showcases mal außen vor.

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Der Ultra-Modus ist recht neu. Aber die Einstellung wie viele Frames der Buffer haben soll und ob man 3-fachpuffer verwenden will, sind über 5 Jahre alt. Wie gut es funktioniert hat, kann ich nicht sagen, da ich das nicht messen kann. Zumindest konnte man es mit den falsche Einstellungen spürbar schlechter machen. :p

Antwort Gefällt mir

RX480

Urgestein

1,793 Kommentare 813 Likes

Das stimmt,
zum Glück gibts die BlurBusters auch schon seit Jahren.
War schon interessant mit RTSS und genauen Einstellungen.
(weil 60Hz ist net 60Hz exactly)

btw.
Ganz nebenbei ist z.Bsp. auch 59,9394 bzgl. der Linkgeschwindigkeit bei meinem 4k-Moni dann niedriger, wenn ich ich auf dem Desktop
FHD einstelle. Wenn ich dumb W10 die Wahl lasse, bekomme ich 60Hz mit ner verkappten Linkgeschwindigkeit ala 4k, ... und schon ist man
Dabei mit dem "Vram net runtertakten -Problem", falls man bei DS die Häkchen rausnimmt (im MPT).

Antwort Gefällt mir

K
Kearvaig

Mitglied

32 Kommentare 9 Likes

Vielen Dank für den Artikel, endlich mal einige Fragen beantwortet...

Antwort Gefällt mir

R
Raistlin666

Neuling

1 Kommentare 0 Likes

Kurze Frage:
Bei Nvidia gibts weder den Interpreter noch das Sheet zu laden (ist auch nicht mehr im Install-Ordner zu finden). Ich hab gestern ne Analyse starten wollen, aber bei 10mins recording kommt kein Tool ansatzweise mit der Datenmenge klar - gibts da irgendwelche Tipps? Excel kann ich komplett knicken, nicht nur dass es bei 15MB csv irgendwie 1,5GB RAM braucht, es crasht auch dauernd und zeit irgendwie random Daten an, wenn ich die korrekte Spalte wähle (100k Zeilen, Datenauswahl hat 100k Zeilen, Diagramm zeigt aber nur 3000). Mit PowerBI und Google Sheets komme ich auch nicht weiter...

Antwort Gefällt mir

B
BullX

Neuling

4 Kommentare 0 Likes

Hallo zusammen,

kennt jemand eine Quelle für eine aktualisierte Überstellung der Leistungsaufnahme von Grafikkarten ?
So wie hier im Artikel gezeigt ist es top. Nur leider ist dort die neue Generation nicht vertreten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung