Grafikkarten Grundlagenartikel Praxis Testberichte VGA

Gaming-Benchmarks: FPS, Perzentile, Frame Time, Varianzen, Leistungsaufnahme und Effizienz einfach erklärt

Leistungsaufnahme-Messung mit NVIDIA PCAT

Interessant ist jetzt allerdings auch die permanente Messung der Leistungsaufnahme (umgangssprachlich „Verbrauch“) mit PCAT und der nötigen Hardware sowie die Verknüpfung dieser Daten über ein passendes API mit dem gerade erwähnte FrameView von NVIDIA. Wer meine Artikel zur Leistungsaufnahmemessung mit hochauflösender Oszillografen-Technik (8-Kanal analog im Master/Slave mit zwei Speicheroszillografen) noch nicht kennt, der sei an dieser Stelle noch einmal auf die genaue Erklärung meiner Messtechnik und der eigentlichen Problematik verwiesen, ich werde aber nachher eh noch einmal kurz darauf zurückkommen müssen. Auch deshalb, um zu erklären, was PCAT kann und was nicht. Hier erst einmal die beiden wichtigen Links zum besseren Verständnis vorab:

Grafikkarte gegen Netzteil – Grundlagen, Fehlerursachen und richtige Netzteilbemessung
Der Kampf von Grafikkarte gegen Netzteil – Leistungsaufnahme und Lastspitzen entmystifiziert

Doch zurück zu PCAT und dem, was man mit diesen neuen Tool alles machen kann. Der bequeme und vielleicht auch finanztechnisch oder handwerklich eher eingeschränkte Tester wird sich nämlich faktisch ein zweites Loch in den Allerwertesten freuen, denn PCAT löst elegant gleich zwei Probleme. Es liest als Hardware mehr oder weniger in Echtzeit (100 ms) die Leistungsaufnahme der spannungsführenden 12V- und 3.3-Volt-Rails (PCIe und Slot) an der Grafikkarte aus und kann das Ganze auch noch grafisch darstellen. Dazu gesellt sich noch eine Schnittstelle (API), auf die FrameView zugreifen, um alles in einem einzigen Logfile chronologisch exakt zu protokollieren. Doch dazu gleich mehr. Schauen wir mal erst mal nach, was NVIDIA so alles in die Schachtel gepackt hat:

 

PCAT besteht aus einer MCU-Platine (Multi Controller Unit) für die Messung von bis zu drei 6+2 Pin Anschlüssen  samt optionalem OLED-Display für die Anzeige „on-the-fly“, die PCIe-4.0-kompatible Riser Card für die direkte Messung am Motherboardslot und Abstandshalter, die den Höhenunterschied dieser Karte kompensieren helfen, um die Grafikkarte trotzdem sicher verschrauben zu können. Die MCU-Platine wollen wir uns zunächst einmal etwas genauer betrachten.

Das Messprinzip ist einfach. Man misst einfach den Spannungsabfall parallel zu einem sehr niederohmigen Widerstand (Shunt), der sich in jeder einzelnen spannungsführenden Schiene befindet, um daraus auf den fließenden Strom schließen können. Dazu misst man noch die verbleibende Spannung nach dem Shunt und hat dadurch automatisch die Leistungsaufnahme, die über die jeweilige Schiene läuft. Addiert man alles zusammen, erhält man die gesamte Leistungsaufnahme der Grafikkarte. Für dieses sogenannte Monitoring sorgt der altbekannte INA3221, den man als Monitoring-Chip auf viele Grafikkarten finden konnte, auch wenn er mittlerweile oft durch einen ähnlichen Chip von On Semi ersetzt wird.

Als Mikrocontroller dient der MEGA32U4 von ATMEL. Das ist der übliche Low-Power 8-bit AVR RISC Microcontroller, der über 32 KB programmierbaren Flash-Programmspeicher verfügt und zudem noch 2.5 KB SRAM sowie einen 1 KB EEPROM beinhaltet, einen USB 2.0 Ausgang unterstützt, einen 12-Kanal 10-bit A/D-Konverter besitzt und das JTAG-Interface unterstützt. Die Rechenleistung liegt bei ca. 16 MIPS und 16 MHz. Klingt ein bisschen zu sehr nach Arduino? Logisch, das Prinzip ist immer das gleiche und sehr ähnlich zudem, was ich ebenfalls für meine ganzen Motherboard-Tests nutze, die auch die Grafikkarten mit einbeziehen.

Die Riser-Karte ist im Prinzip ähnlich gestrickt, auch hier sitzt ein INA3221, der insgesamt 2 Shunts überwacht, einmal für die 12-Volt- und einmal für die 3.3-Volt-Schiene. Die Shunts fallen natürlich deutlich kleiner aus, weil auch die Ströme niedriger sind. Gekoppelt und kommuniziert wird über das bereits erwähnte Bus-Interface.

PCAT – Die Software

Die Software liest die ganze Geschichte aus, kommuniziert also über den USB mit der MCU-Platine des PCAT-Systems. Arduino nutzt das auch, allerdings bin ich für kleinere Intervalle mittlerweile auf Ethernet umgestiegen. Die von PCAT genutzten Intervalle von 100 ms sind recht groß, reichen für eine einfache Erfassung über einen längeren Zeitraum allerdings völlig aus. Eine Spitzenlast wird man damit zwar nur mit Zufall erwischen, aber auch das geht mit etwas Glück. Doch für solche Analysen ist PCAT, so fair muss man bleiben, einfach nicht gedacht. Da kommt man nämlich schnell in mittlere fünfstellige Bereiche, was den Rahmen der Meisten sprengen dürfte und deshalb auch nicht zur Debatte steht.

Was die PCAT-Software aber kann: sie fungiert gleichzeitig auch als API, so dass die aktuellen Versionen von NVIDIAs FrameView auch darauf zugreifen und die relevanten Daten auslesen können. Was man damit alles so Schönes machen kann, sehen wir später noch bei der grafischen Auswertung.

 

Kommentar

Lade neue Kommentare

Blubbie

Urgestein

808 Kommentare 275 Likes

Genau wegen solchen fundierten und gut erklärten Grundlagen Artikeln ist Igor's Seite absolute Spitzenklasse!
Weiter so!
(y):coffee:

Antwort 8 Likes

RX480

Urgestein

1,792 Kommentare 813 Likes

Das klingt total interessant, an welchen Stellen FrameView misst.

Da gabs letztens Diskussionen bei CB, ob net CFX totalen Mist misst.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,345 Kommentare 549 Likes

@Igor Wallossek :
Frage zu den Mikrorucklern; du schreibst ab 8ms wirds merkbar, ab 16 sehr deutlich; aber ist das nicht Monitorabhängig?

Also solange Varianz (ms) < (1000/Hz)/2 (ms) ists nicht merkbar? Da kommt auch deine Aussage hin, allerdings nur bei einem 60 Hz Monitor.

Antwort Gefällt mir

Igor Wallossek

1

10,104 Kommentare 18,591 Likes

Die ganzen Sync-Verfahren lasse ich mal außen vor, weil ich sie ja eh nicht aktivieren darf. Und ich beziehe mich hier weniger auf Monitore, sondern physiologische Grenzen und das, was der mernsch selbst wahrnehmen kann.

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Ja und nein. Bei 240 Hz merkt man es viel weniger als bei 60 Hz wenn mal ein Bild ausfällt. Unterschiede von mehr als 16 ms sind bei 60 wie auch bei 240 Hz spürbar. Unterschiede von 2 oder 4 ms sind bei 60 Hz meist gar nicht sichtbar. Bei 240 Hz sind sie wohl sichtbar, aber so kurz dass man es auch kaum wahr nimmt.

Antwort 1 Like

RX480

Urgestein

1,792 Kommentare 813 Likes

Das Auge sieht ja net den absoluten Wert, merkt hingegen die Schwankung.(x)
D.h. in der Praxis hilft ein Cappen per Fps-Limit, um die Schwankung max Fps zu minFps zu verringern,
was zusätzlich noch dem Inputlag hilft.

(x) worst Case = beim Frameverlauf wenn auf einen Berg direkt ein Tal folgt = größte Differenz
(natürlich kann Buffern das etwas abmildern; ... interessant ist dann wirklich Wie und Wo die Frametimes gemessen werden)

Antwort 1 Like

LurkingInShadows

Urgestein

1,345 Kommentare 549 Likes

Solange aber dieser worst case bei der halben Bildfrequenz liegt kann ein Monitor das NIE darstellen => wird nie merkbar

zB.: 60 Hz ergibt 16 2/3 ms Bildanzeigeintervall, wenn die GPU mehr Zeit braucht wird das letzte Bild nochmals für ein komplettes weiteres Intervall dargestellt, oder?
=> <16 2/3 sollte sich ausgehen, kann aber mit lag daneben gehen, 8 1/3 geht sich sicher aus.

Bei 240 Hz müssten alle Zeiten geviertelt sein, um den selben Effekt zu erreichen, also 4 1/6 ms Intervall; 2 1/12ms zum sichergehen.

Meine Frage oben bezog sich dann mit monitorabhängig darauf, dass 8 ms Varianz einem 60Hz Monitor schurzegal sind, bei einem 240 Hz Monitor aber zur erneuten Darstellung des Frames führen => Ruckler

Ob der sichtbar/spürbar wäre weiß ich nicht, wenn ja müssten die Nutzer der beiden Monitore in der Grafik verschiedene Grün-Rottöne als Messlatte nehmen um flüssiges Spielen zu garantieren.

Antwort Gefällt mir

RX480

Urgestein

1,792 Kommentare 813 Likes

240Hz ist vllt. gleich ein zu großer Sprung für nen Vgl., idealer wäre 144Hz, weil sehr verbreitet, bzw. bei 4k auch 96...120Hz@HDR gebräuchlich.
(96Hz waren die Modelle mit Bandbreitenlimit)

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Die Varianz ist nicht die Frametime. Für deine Überlegungen mit der Anzeige auf dem Bildschirm sind die Frametimes entscheidend. So wie du es beschreibst, läuft es, wenn man V-Sync an hat und die FPS auf die Bildschirmfrequenz limitiert.

Die Varianz ist (wenn ich Igors Beschreibung richtig verstehe) der Unterschied zwischen aufeinander folgenden Renderzeiten (Frametimes). Ein Frame hatte beispielsweise eine Frametime von 10 ms, der nächste 19 ms. Das gäbe dann eine Varianz von 9 ms. Das zeigt, wie unregelmässig das Game läuft. Die Varianz lässt sich aber nicht mit den Zeitintervallen der Bildschirmfrequenz vergleichen.

Bitte korrigiert mich wenn ich es falsch interpretiert habe.

Antwort 1 Like

Igor Wallossek

1

10,104 Kommentare 18,591 Likes

Du liegst völlig richtig, es ist die Differenz zwischen zwei aufeinanderfolgenden Frame Times. Bei sehr hohen FPS-Zahlen sind kurze Drops oder Spikes auch nichts, was die Elektronic so schnell wegbügelt.

Antwort Gefällt mir

RX480

Urgestein

1,792 Kommentare 813 Likes

Wie war das genau bei Vsync+Fps-Limit ?

Je nachdem welcher Abstand zu der Moni-Frequenz (Hz), gibts 1 oder 2 oder 3 Frames Buffer.(x)
Bei AMD weniger Buffer als bei NV.(nur im UltraLatencyMode wirds auch bei NV weniger)

Falls man denn versuchen will die Varianz etwas wegzubügeln.

(x) manche Games haben neuerdings sogar die Möglichkeit Vsync mit niedrigem oder normalen Buffer auszuwählen.

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Ich kenne es nur von Nvidia. Die Grösse des Buffers kann man seit Jahren in der Nvidia-Systemsteuerung einstellen. Es ist eine separate Einstellung. Für eine kurze Latenz sollte man den Wert möglichst tief setzen und ev. den Ultra-modus einstellen. Dafür hat man dann keinen Buffer, der Ruckler wegbügeln kann.

Antwort Gefällt mir

RX480

Urgestein

1,792 Kommentare 813 Likes

seit Jahren, really?

Erst seit Navi mit AntiLag kam, hat NV ein bisschen nachgelegt und am Anfang funzte mit Turing UltraLow mehr schlecht als recht
in Games. Showcases mal außen vor.

Antwort Gefällt mir

Martin Gut

Urgestein

7,721 Kommentare 3,538 Likes

Der Ultra-Modus ist recht neu. Aber die Einstellung wie viele Frames der Buffer haben soll und ob man 3-fachpuffer verwenden will, sind über 5 Jahre alt. Wie gut es funktioniert hat, kann ich nicht sagen, da ich das nicht messen kann. Zumindest konnte man es mit den falsche Einstellungen spürbar schlechter machen. :p

Antwort Gefällt mir

RX480

Urgestein

1,792 Kommentare 813 Likes

Das stimmt,
zum Glück gibts die BlurBusters auch schon seit Jahren.
War schon interessant mit RTSS und genauen Einstellungen.
(weil 60Hz ist net 60Hz exactly)

btw.
Ganz nebenbei ist z.Bsp. auch 59,9394 bzgl. der Linkgeschwindigkeit bei meinem 4k-Moni dann niedriger, wenn ich ich auf dem Desktop
FHD einstelle. Wenn ich dumb W10 die Wahl lasse, bekomme ich 60Hz mit ner verkappten Linkgeschwindigkeit ala 4k, ... und schon ist man
Dabei mit dem "Vram net runtertakten -Problem", falls man bei DS die Häkchen rausnimmt (im MPT).

Antwort Gefällt mir

K
Kearvaig

Mitglied

32 Kommentare 9 Likes

Vielen Dank für den Artikel, endlich mal einige Fragen beantwortet...

Antwort Gefällt mir

R
Raistlin666

Neuling

1 Kommentare 0 Likes

Kurze Frage:
Bei Nvidia gibts weder den Interpreter noch das Sheet zu laden (ist auch nicht mehr im Install-Ordner zu finden). Ich hab gestern ne Analyse starten wollen, aber bei 10mins recording kommt kein Tool ansatzweise mit der Datenmenge klar - gibts da irgendwelche Tipps? Excel kann ich komplett knicken, nicht nur dass es bei 15MB csv irgendwie 1,5GB RAM braucht, es crasht auch dauernd und zeit irgendwie random Daten an, wenn ich die korrekte Spalte wähle (100k Zeilen, Datenauswahl hat 100k Zeilen, Diagramm zeigt aber nur 3000). Mit PowerBI und Google Sheets komme ich auch nicht weiter...

Antwort Gefällt mir

B
BullX

Neuling

4 Kommentare 0 Likes

Hallo zusammen,

kennt jemand eine Quelle für eine aktualisierte Überstellung der Leistungsaufnahme von Grafikkarten ?
So wie hier im Artikel gezeigt ist es top. Nur leider ist dort die neue Generation nicht vertreten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung