Grafikkarten Grundlagenartikel Praxis Software Testberichte VGA

Grafikkarten und deren Verbrauch per Tool auslesen statt aufwändig messen? Einfach bei NVIDIAs Geforce und fast unmöglich bei AMDs Radeon | Praxis & Grundlagen

Warum weichen bei AMD die wirklich gemessenen Werte an den Anschlüssen so extrem von den per Software ausgelesenen Ergebnisse ab und wieso ist auch die Fehlerquote bei Kurzeitmessungen an NVIDIA-Grafikkarten noch so hoch? Wo kommen die von den Tools ausgelesenen Werte eigentlich her und was unterscheidet beide Grafikkarten-Hersteller am Ende dann so grundlegend? Der heutige Artikel soll Euch zeigen, wo die jeweiligen Fallstricke bei den kostenlosen Tools liegen und was wirklich zur realen Abschätzung der Leistungsaufnahme ausreicht (und was nicht).

Denn da gibt es zwischen AMD und NVIDIA wirklich riesige Unterschiede, die ich Euch anhand des Platinendesigns und des Herangehens beider Hersteller so verständlich wie möglich erklären möchte. Außerdem werde ich Euch paar Hinweise liefern, wie Ihr die per Tool ausgelesenen Daten ggf. noch ergänzen bzw. hochrechnen könnt bzw. müsst. Denn schon an dieser Stelle müssen wir zwischen echter Messung und einfachem Auslesen über Software-Schnittstellen trennen und gehörig unterscheiden. Vergleichbar ist das nämlich, zumindest bei den Radeons, nicht wirklich. Deshalb beginne ich doch noch einmal kurz mit der Messung (zum besseren Verständnis der Aufgabe), da es zunächst die notwenigen Grundlagen zu vermitteln gilt.

Warum eine Messung nicht zu ersetzen ist und sie dennoch nicht jeder täglich braucht

Für den Normalanwender sind die Messungen, so wie ich sie im Labor mache, als reine Informationsquelle und Grundlage wichtig und zum Verständnis auch unerlässlich. Vor allem die Daten zu den Lastspitzen, dem Lastwechselverhalten und die Abschätzung der zweckmäßigen Bemessung des Netzteils sind Erkenntnisse, die man nur mit dem notwendigen technischen und finanziellen Aufwand in einem geeigneten Labor erstellen kann. Diesen Aufwand muss man als Kunde allerdings gar nicht treiben, denn man bekommt das alles ja durch Dritte (wie auch mich) bereits kostenlos geliefert.

Messen kann man es (wie ich z.B.) mit zwei gekoppelten Oszillografen, Strommesszangen und Tastköpfen für die jeweile Spannungen (bis zu 8 Kanäle insgesamt), um auch die letzte Lastspitze bei Intervallen weit unterhalb von eine Millisekunde noch belastbar zu messen, aufzuzeichnen und auszuwerten. Das ermöglichst natürlich tiefe Einblicke in das Verhalten der Grafikkarten bei verschiedenen Lasten, ist aber in der Menge der Daten für den Einzelnen ohne eine fachliche Auswertung und Zusammenfassung fast schon nutzlos. Auch ich muss dann erst einmal alles vereinfachen und auch grafisch so aufbereiten, dass man überhaupt etwas versteht. Alle Details werde ich aus verschiedenen Gründen nicht weiter ausbreiten, auch den aktuellen Aufbau im Labor nicht, denn auch ich habe so das eine oder andere Betriebsgeheimnis. Aber am Schluss habe ich noch eine Linksammlung für Euch, wo ich solche Dinge genauer beschreibe. Hier verwirrt das alles nur.

Was aber bei allen Messungen ermittelt werden muss, sind die fließenden Ströme auf den 12-Volt-Leitungen und die jeweils korrespondierenden Spannungen an jedem der Anschlüsse (da auch diese Werte extrem schwanken). Je kleiner die Messintervalle sind, umso mehr muss man sich aber technisch anpassen. Denn auch die Stromzangen haben eine eingebaute Elektronik, die zu einer gewissen zeitlichen Verzögerung führt, während die Spannungen ja direkt am Eingang des Oszillographen erfasst werden. Hier sind also eine aufwändige Kalibrierung und die Eintragung dieser Verzögerungen in die Firmware-Menüs für die Spannungseingänge zwingend nötig (Delay).

Es gibt nichts Schlimmeres, als wenn zeitversetzte Werte dann miteinander multipliziert werden (Spannung mal Stromstärke)! Denn nicht immer fällt eine Stromspitze auf eine hohe oder wenigstens durchschnittliche Spannung. Das, was an den 12V-Schienen anliegt, ist alles andere als eine saubere Gleichspannung! Man kann also auch jede Menge Unfug messen (bis hin zum gefürchteten Aliasing), wenn man nicht genau aufpasst, was man eigentlich macht.

Man kann das alles natürlich auch mittles eines sehr auswändigen, MCU-basierten Shunt-Messaufbaus für alle stromzuführenden Leitungen messen, büßt damit aber etwas an der Auflösung ein. Es gibt aktuell kaum Lösungen, die unterhalb einer Millisekunde noch messen können, da alles meist über den USB angebunden ist. Da begrenzt schon die Polling-Rate den Informationsfluss gehörig. Der Vorteil ist jedoch, dass man kein mittelhohes, fünfstelliges Investment treiben muss, sondern schon bei bis zu 1000 Euro glücklich werden kann, je nach Anspruch und Aufwand.

In diese Kategorie günstigerer Shunt-Lösungen fallen auch der PMD von ElmorsLAB und NVIDIAs PDAT. Die Auflösung ist nicht sonderlich hoch, aber für das tägliche Erfassen der relevanten Leistungsaufnahmen und eine gute Momentanzeige reichen diese Hardware-Lösungen allemal. Wer hier etwas Geld investieren möchte, wird sicher nicht enttäuscht sein. Und da bei solchen Lösungen die eingehenden 12V-Leitungen extern überwacht werden, funktioniert alles, wie auch meine Oszillographen-Lösung, für AMD- und NVIDIA Grafikkarten gleichermaßen gut.

Auch auf der 3,3-Volt-Schiene fließen Ströme!

Doch auch die 3,3-Volt-Leitung wird bei einigen Karten noch genutzt (mit zu 5 Watt und mehr!), allerdings wird sie von keinem einzigen Sofware Tool und selbst auch von NVIDIAs PDAT-Platine nicht erfasst, was schon einmal einen gröberen Messfehler (und auch Software-Auslesefehler) von einigen Watt bedeuten kann. Das Auslesen der 3,3-Volt-Schiene per Sensor ist generell unmöglich, wie wir auf den weiteren Seiten gleich noch sehen werden. Ich kann aber schon einmal spoilern, dass NVIDIAs Boardpartner diese Schiene gern nutzen, um diverse Kleinspannungen aus dem Gesamtbudget der 12V-Leitung herauszunehmen. Das ist dann nichts anderes als ein Cheat gegen NVIDIAs Kontroll-Wut, aber dazu komme ich ja gleich noch.

Das Bild oben zeigt die Auswertung der Daten für eine eher kleinere, dafür aktuelle NVIDIA-Grafikkarte, wo aber auch schon einmal 4,5 Watt (und mehr) über den 3,3-Volt-Anschluss fließen und nicht mit in die Total Board Power (TPB) der Grafikkarte als einzuhaltendes Power Limit einfließen. Das erklärt übrigens auch, warum z.B. zwei Karten unterschiedlicher Hersteller trotz eigentlich identischer Leistungsaufnahme auf 12 Volt und ähnlich wertigen Komponenten dann unterschiedlich hoch takten können und nicht gleich schnell agieren. Vor allem bei kleineren Grafikkarten bis 150 Watt TBP ist so etwas durchaus nicht nur messbar.

567 Antworten

Lade neue Kommentare

RX480

Urgestein

960 Kommentare 498 Likes

Wow,
Soviel mehr hätte ich jetzt net erwartet.

Ansonsten mal schön zu sehen, wieviel mehr Watt die heisse Graka ggü. der Kalten verbraucht.
Da lohnt es sich bestimmt ab nem Punkt X gar net mehr so richtig, noch mehr W drauf zu braten.
(mal abgesehen davon, das ne Air6900 bei 95°C - Hotspot oder gar niedriger schon langsamer wird, dito NV
auch bei einigen Grakas den GPU-takt runterstept; ... sofern net vorher der Vram schon zu heiss war)

Außerdem gut, das die 3,3V mit erwähnt wurden, was manche Reviewer gerne unterschlagen.

Antwort 2 Likes

Igor Wallossek

Format©

6,838 Kommentare 11,132 Likes

Hund-Schwanz-Prinzip. Richtig.

Antwort 2 Likes

RX480

Urgestein

960 Kommentare 498 Likes

Das beste Bsp. Hierzu war bisher hier das Review zum UVen bei der 6800 von Gurdi. (oder das 300W-Review zur Ti letztens)
Ohne großen Leistungsverlust (fps) wurden 40W asic bzw. 20% bei der 6800 gespart!
(da war bestimmt das "kalt" halten sinnvoll)

Antwort 3 Likes

Klicke zum Ausklappem
F
Falcon

Mitglied

22 Kommentare 19 Likes

Solange ich noch am Durchtesten des Systems bin hab ich immer nen einfaches Energiemeßgerät an der Kiste hängen.

Schon erstaunlich wieviel W man mit ein bisschen Undervolten und Übertakten ohne Leistungsverlust an Grafikkarten so Einsparen kann.

Antwort 1 Like

xlOrDsNaKex

Neuling

7 Kommentare 5 Likes

Danke dir Igor für die immer wieder sehr interessanten, tiefergehenden und sehr technischen Artikel. Schön zu sehen das du nicht einfach immer nur "nachplapperst" sondern den Sachen tatsächlich auf den Grund gehst und auch mal den Finger in die Wunde legst, wenn es sein muss!

Antwort 5 Likes

Göran

Veteran

126 Kommentare 49 Likes

Super Beitrag, auch für elektrotechnische Laien eine plausible Erklärung, Danke dafür Igor !

Antwort 1 Like

grimm

Urgestein

1,973 Kommentare 1,107 Likes

Der Aufbau sieht extrem aufwändig aus - Danke für den ausführlichen Test!

Antwort Gefällt mir

Casi030

Urgestein

7,521 Kommentare 1,199 Likes

Du hast aber nicht zufälligerweise Screens von HWINFO64 gemacht von NVIDIA und AMD um die Daten mal zu vergleichen?
Was Ich z.b. nicht verstehe ist wenn ich im AMD Treiber PPT 300Watt einstelle,dann zieht die GPU um 225Watt und der Rest zieht 75Watt damit es die 300Watt sind.Was verbaucht jetzt noch mal rund 30% mehr?

Antwort 1 Like

Martin Gut

Urgestein

5,477 Kommentare 2,140 Likes

Endlich verstehe ich, wie unterschiedlich die Hersteller die Leistungsaufnahme messen. Da ich noch keine AMD-Grafikkarte hatte, habe ich mich noch nicht so genau damit befasst.

Um die GPU immer mit einer bestimmten Leistung laufen zu lassen, macht die Messung von AMD natürlich Sinn. Für die Überwachung der Spannungswandler und der ganzen Leistungsaufnahme bringt das natürlich wenig.

Nun übertakte ich meine Nvidia-Grafikkarte, indem ich die Lüfter über das Mainboard versorge. Dann bekommt die GPU schon ein paar Watt mehr. Interessante Denkweise. 😉

Antwort 1 Like

Igor Wallossek

Format©

6,838 Kommentare 11,132 Likes

Du hast den Artikel nicht gelesen. Bei AMD stellst Du NIEMALS die gesamte Karte ein. Und wenn Du 300 Watt fürs Power Target vorgibst, dann müssen die gar nicht reale 300 Watt TGP am Stecker sein, weil Du im Wattman die TDC ja nicht mit anheben kannst und die Spannungsbegrenzung für eine Leistungsbegrenzung sorgt. Das ist schon etwas komplexer und AMD ist alles außer Chip und Speicher schnurzegal.

HWinfo liest NVIDIA auch richtig aus, nur AMD ist halt komplett beschnitten, weil das nur ein paar DCR-Werte sind. Da kann HWInfo nichts dafür. Die Werte decken sich mit denen von GPU-Z und dem Afterburner, weil alle die gleiche API nutzen. AMD kann man icht komplett auslesen. Nur hochrechnen, wenn man die Komponenten genau kennt. Über die gemessenen Temps und die Datenblattkurven der SPS kommt man schon recht ordentlich voran, wenn man die restlichen Verluste noch mit ausrechnen kann. Ich kann das, aber der Normalanwender nicht. Der muss dann grob schätzen, was fast immer schief geht.

Antwort 1 Like

Klicke zum Ausklappem
Gurdi

Urgestein

1,223 Kommentare 738 Likes

Schöner Artikel, bei AMD brauch man schon ein digitales Netzteil um valide Werte zu berechnen von der TBP. Die Karten unterscheiden sich da teils gravierend. Meine 6800XT LC brauch schon 40-50 Watt extra trotz sehr guter Kühlung, die 6800 dagegen ist deutlich genügsamer mit 20-30Watt.

@Igor Wallossek Wie misst eine NV Karte den PEG? Sitzen da auch nochmal Shunts?

Antwort Gefällt mir

Igor Wallossek

Format©

6,838 Kommentare 11,132 Likes

Ja, das steht sogar im Artikel. Schau mal aufs Schema, den Bereich habe ich sogar eingezeichnet und beschrieben. Current Sense :)
Bei der abgebildeten Karte ist der Shunt auf der Rückseite.

Digitale Netzeile sind aber auch nur Schätzeisen, denn die Auflösung ist wirklich mies. Dann lieber das Teil von Elmor. Allen gemeinsam ist aber, dass man die 3.3 Volt nicht bekommt. :D

Antwort 1 Like

Gurdi

Urgestein

1,223 Kommentare 738 Likes

Die 3,3V kann ich ohne Probleme messen am Netzteil. Das Digifanless ist dabei auch recht genau, hast du sogar selbst gesagt (und hast es auch selbst verwendet wenn ich mich recht erinnere)

View image at the forums

Antwort Gefällt mir

D
Deridex

Urgestein

1,839 Kommentare 607 Likes

Ich finde diese Werte bis auf 3 Stellen hinterm Komma immer wieder amüsant. Ich wäre sehr überascht, wenn so ein Netzteil das tatsächlich so genau messen kann, dass die 3te Stelle hinterm Komma noch ernsthaft aussagekräftig ist.

Ich lasse mich da gerne natürlich gerne positiv überraschen, bin da ber trotzdem eher pessimistisch.

Antwort 1 Like

F
Furda

Mitglied

34 Kommentare 21 Likes

@ Herr Wallossek
Schöner und sehr interessanter Artikel, vielen Dank. Fühle mich etwas in die 90er versetzt, als ich noch in der Elektrotechnik tätig war.

Bezgl. GPU Spannungen in Tools auslesen, bei Ampere z.B. soll es die Möglichkeit geben, die 'echte' NVVDD auszulesen, also die real anliegende Spannung der GPU, welche nicht mit der 'gewünschten' GPU Spannung (der Takt-Spannung-Kurve) übereinstimmen muss, welche die gängigen Tools anzeigen. Diese 'echte' NVVDD habe ich bisher nur in Ampere Tools gesehen. Ist für mich mittlerweile bei OC/UV ein wichtiger Punkt, genau wie GPU Clock vs. GPU Effective Clock, der einem etwas mehr darüber erzählen möchte/könnte, in welchen Betriebszuständen (Spannung vs. Clock) sich die GPU wohler fühlt, als in anderen Bereichen (Stichwort Sweet Spot(s)). Gibt es dazu Informationen, über welche Sie reden dürfen?

@ Martin G
Ja genau, der PWM Wert für die Lüfterdrehzahl wird von der GPU auch ausgegeben, wenn kein Lüfter angeschlossen ist. Diesen Wert kann man dann per Software (z.B. FanControl) auf Lüfter kopieren resp. synchronisieren, welche anderswo (z.B. am Mainboard) angeschlossen sind. Wenn man es Software-unabhängig machen möchte, kann man ein Spezial-Kabel machen und das originale PWM Signal Hardware-seitig vom GPU Fan Stecker abzapfen, Energieversorgung über das Mainboard.

@ Deridex
Dito, habe deshalb alle Nachkommastellen in HWInfo ausgeschaltet, ausser dort, wo sie wirklich im relevanten Wertebereich liegen. Gibt zudem ein aufgeräumteres, weniger 'nervöses' Monitoring.

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung