Grafikkarten Grundlagenartikel Praxis Software Testberichte VGA

Total Board Power (TBP) vs. reale Leistungsaufnahme und die Unzulänglichkeit von Software-Tools gegenüber echten Messungen

NVIDIA macht alles richtig, eigentlich…

NVIDIAs Überwachung erfolgt auf der Platine an den jeweiligen 12-Volt-Schienen, also an den jeweiligen externen PCIe-Buchsen (Aux)  und dem Motherboard-Slot (PEG), BEVOR die jeweiligen Verbraucher versorgt werden. Man erledigt diese Aufgabe, so ähnlich wie in meinem bereits gezeigten Messaufbau, mit sogenannten Shunts im Eingangsbereich gleich vor der Filterung direkt an den jeweiligen Schienen. Die eingesetzten, sehr niederohmigen Längs-Widerstände (Shunts) erzeugen einen kleinen Spannungsabfall, der durch zwei Spannungsabgriffe (vor und nach dem Widerstand) ermöglicht wird. Die hier anfallenden ca. 1,5 bis 5 Watt (je nach den fließenden Strömen) fallen noch nicht ins TBP-Budget (Power Limit) der Grafikkarte.

Berechnet wird das Ganze dann mit einem geeigneten Monitoring Chip, der meist bis zu vier Kanäle überwachen kann. Aus der Spannungsdifferenz kann man auf den fließenden Strom und zusammen mit der Ausgangsspannung hinter dem Shunt sogar auf die Leistungaufnahme in Watt (W) schließen. Das Ganze ist also im Grunde genommen nichts anderes als mein bereits gezeigter Messaufbau und damit auch für die GESAMTE Karte gültig!

Betrachten wir nun einmal die Grafikkarte als Schema. Wir sehen hier als „Current Sense“ die beiden Stellen, wo die Ströme (und Spannungen) erfasst werden und wo dann im „Power Monitor“ die Daten für die Firmware zur Einhaltung des Power Budgets generiert werden. Wir sehen im gelb markierten Bereich, dass sowohl die GPU, also auch der Speicher und alle anderen Verbraucher einschließlich deren Spannungswandler (und deren Verluste), sowie die Verluste aller Komponenten und sogar der Platine mit einbezogen werden. Unter Total Board Power (TBP) versteht NVIDIA somit die Leistungsaufnahme der gesamten Grafikkarte einschließlich der Lüfter und RGB-Spielereien!

Die Firmware (und natürlich damit Boost) können jetzt dafür sorgen, dass dieser Maximalwert nie für längere Zeit überschritten wird und auch in der Summe in einem größeren Intervall wieder der Vorgabewert eingehalten wird. All diese Werte lassen sich über die NVAPI (Programierer-Schnittstelle) recht einfach auslesen und verwerten. Hier sieht man auch, welcher Maximal- bzw. Minimalwert zulässig ist bzw. gerade eingestellt wurde. An diesen Werten orientieren sich auch Programme wie der MSI Afterburner, wenn es um die Anfangs- und Endwerte des Slider für das zu wählende Power Target geht. Im schimmsten Fall ist das eingestellte Power Target gleich dem in der Firmware hinterlegten Max Power Limit und man kann nichts mehr manuell erhöhen.

Warum bei heißen Karten die Performance stark sinkt

Wir kennen den Effekt, dass bei voll aufgewärmten NVIDIA-Karten (vor allem bei schlechterer Kühlung) der Takt (und damit auch die Performance) stärker sinken, als es bei meist AMD-Grafikkarten zu beobachten ist. Das wiederum liegt an der Art und Weise, wie NVIDIA sein sehr restriktives Power Budget verwaltet. Meist schiebt man das Fehlen der höchsten Boost-Steps bei aufgewärmten Karten auf die GPU und die Leckströme, was aber nur ein Teil der Wahrheit ist. Der kleinste wohlgemerkt, denn die größten Verluste fahren die heißen Spannnungswandler ein!

Dass man Spannungswandler möglichst gut kühlen muss, ist vielen nicht sonderlich bewusst. Doch die Verluste, die hier auftreten, sind enorm! Arbeitet eine normale Regelung mit Smart Power Stages (SPS) oder DrMOS  für NVVDD/MSVDD (also die GPU) meist mit einem Wirkungsgrad von 85% und höher, wenn die Karte kalt ist, sinkt dieser Wirkungsgrad auf bis zu 80%, falls die Spannungswandler heiß werden. Je effizienter und höherwertiger diese Komponenten sind, umso kleiner ist dieser Effekt. Mit einer diskret aufgebauten Low- und High-Side aus Einzel-MOSFETs sowie separaten Gate-Treibern erreichen manche Karten noch nicht einmal 80% im kalten Zustand und dieser Wert kann dann sogar noch auf unter 75% absinken! Alles das, was hier an Leistung verloren und bereits in Wärme umgewandelt wird, geht der GPU später verloren. Das gilt auch für alle andere Komponenten, die eine Verlustleistung erzeugen, egal, wo sie sich auf der Platine befinden.

Nicht ganz zufällig ist Nvidia vom sogenannten Phase-Doubling wieder abgerückt, wo die bis zu acht echten Phasen, die so ein PWM-Controller bereitstellen kann, mittels sogenannter Doubler-Chips quasi verdoppelt wurden, indem man die neu generierte Phase einfach phasenverschoben ansteuert. Mittlerweile gibt es jedoch auch PWM-Controller, die den parallelen und damit phasengleichen Betrieb mehrerer Spannungswandlerkreise erlauben. Im nachfolgenden Bild sehen wir links einen hochintegrierten Smart Power Stage (SPS) mit integrierter High- und Low-Side, sowie Gate-Treiber und Schottky-Diode. Rechts sehen wir zwei diskret aufgebaute Phasen mit jeweils einem MOSFET auf der High-Side (Q681 und Q684) und einem parallel arbeitenden Paar auf der Low-Side (Q686+Q685 und Q683+Q682), sowie jeweils einen externen Gate-Treiber (U630 und U631)

 

Da man aber nicht mit Kondensatoren allein auskommt, um eine qualitativ hochwertige und rippelfreie Spannung am Ende der PWM-Nodes hinzubekommen (siehe auch Wirkungsweise eines Schaltnetzteils), wird der Ausgang des Spannungswandlerkreises mit einem LC-Glied (Spule + Kondensator) abgeschlossen. Diese Spulen, welche die kurzeitig geladene Energie abspeichern und dann wieder freigeben, haben sowohl einen elektrischen als auch einen induktiven Widerstand, der die Effizienz noch einmal deutlich nach unten drückt. Klingt als Problem unlösbar, und das ist es übrigens auch, denn man kann ja die Querschnitte der Wicklungen nicht endlos erhöhen, um zumindest den ohmschen Widerstand zu senken. Zumal die Induktivität ja bleibt. Im Bild unten sehen wir links eine typische Spule für die GPU-Phase und recht eine mit höherer Induktivität für den Speicher. Obwohl man auch dafür mittlerweile wieder niedrigere Werte nutzt.

 

Dazu kommen natürlich noch Gleichlauf- und Balancing-Probleme, je mehr Phasen man so verdongelt. Mittlerweile sind jedoch die PWM-Controller in der Lage, bei Niedrig- und Teillasten die Auslastung und Nutzung der Phasen intelligent zu steuern. Doch wie wirkt sich das alles auf die GPU selbst aus? Eine Karte, die z.B. insgesamt 350 Watt an Leistung aufnimmt (Beispiel einer GeForce RTX 3090 FE), kann im kalten Zustand effektiv davon 230 Watt nutzen. Sinkt der Wirkungsgard aller verbauten Spannungswandler durch eine extreme Erwärmung stark ab, sind das noch 200 bis 210 Watt, die verbleiben!

Das Auslesen per Software ist möglich und plausibel

Die gute Seite an NVIDIAs Kontroll und Begrenzungs-Wahn ist der Umstand, dass man die Werte der Leistungs-Begrenzung und -Überwachung mittels Software recht einfach und auch genau auslesen kann. Die sehr groben Intervalle lassen zwar keine Aussagen über Lastspitzen zu, aber wenn man über einen langen Zeitraum protokolliert, ist das Ergebnis kaum anders als das, was ich mit viel aufwändigerer Technik im gleichlangen Zeitraum als Langzeitwert messen kann. Hier kann man den Ergebnissen des aktuellen MSI-Afterburners, von GPU-Z und HWInfo also gut vertrauen. dazu später noch mehr.

 

657 Antworten

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,871 Kommentare 864 Likes

Wow,
Soviel mehr hätte ich jetzt net erwartet.

Ansonsten mal schön zu sehen, wieviel mehr Watt die heisse Graka ggü. der Kalten verbraucht.
Da lohnt es sich bestimmt ab nem Punkt X gar net mehr so richtig, noch mehr W drauf zu braten.
(mal abgesehen davon, das ne Air6900 bei 95°C - Hotspot oder gar niedriger schon langsamer wird, dito NV
auch bei einigen Grakas den GPU-takt runterstept; ... sofern net vorher der Vram schon zu heiss war)

Außerdem gut, das die 3,3V mit erwähnt wurden, was manche Reviewer gerne unterschlagen.

Antwort 2 Likes

Igor Wallossek

1

10,192 Kommentare 18,803 Likes

Hund-Schwanz-Prinzip. Richtig.

Antwort 3 Likes

RX480

Urgestein

1,871 Kommentare 864 Likes

Das beste Bsp. Hierzu war bisher hier das Review zum UVen bei der 6800 von Gurdi. (oder das 300W-Review zur Ti letztens)
Ohne großen Leistungsverlust (fps) wurden 40W asic bzw. 20% bei der 6800 gespart!
(da war bestimmt das "kalt" halten sinnvoll)

Antwort 3 Likes

Klicke zum Ausklappem
F
Falcon

Veteran

114 Kommentare 117 Likes

Solange ich noch am Durchtesten des Systems bin hab ich immer nen einfaches Energiemeßgerät an der Kiste hängen.

Schon erstaunlich wieviel W man mit ein bisschen Undervolten und Übertakten ohne Leistungsverlust an Grafikkarten so Einsparen kann.

Antwort 1 Like

xlOrDsNaKex

Mitglied

33 Kommentare 29 Likes

Danke dir Igor für die immer wieder sehr interessanten, tiefergehenden und sehr technischen Artikel. Schön zu sehen das du nicht einfach immer nur "nachplapperst" sondern den Sachen tatsächlich auf den Grund gehst und auch mal den Finger in die Wunde legst, wenn es sein muss!

Antwort 6 Likes

Göran

Veteran

154 Kommentare 63 Likes

Super Beitrag, auch für elektrotechnische Laien eine plausible Erklärung, Danke dafür Igor !

Antwort 1 Like

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Der Aufbau sieht extrem aufwändig aus - Danke für den ausführlichen Test!

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Du hast aber nicht zufälligerweise Screens von HWINFO64 gemacht von NVIDIA und AMD um die Daten mal zu vergleichen?
Was Ich z.b. nicht verstehe ist wenn ich im AMD Treiber PPT 300Watt einstelle,dann zieht die GPU um 225Watt und der Rest zieht 75Watt damit es die 300Watt sind.Was verbaucht jetzt noch mal rund 30% mehr?

Antwort 1 Like

Martin Gut

Urgestein

7,774 Kommentare 3,572 Likes

Endlich verstehe ich, wie unterschiedlich die Hersteller die Leistungsaufnahme messen. Da ich noch keine AMD-Grafikkarte hatte, habe ich mich noch nicht so genau damit befasst.

Um die GPU immer mit einer bestimmten Leistung laufen zu lassen, macht die Messung von AMD natürlich Sinn. Für die Überwachung der Spannungswandler und der ganzen Leistungsaufnahme bringt das natürlich wenig.

Nun übertakte ich meine Nvidia-Grafikkarte, indem ich die Lüfter über das Mainboard versorge. Dann bekommt die GPU schon ein paar Watt mehr. Interessante Denkweise. 😉

Antwort 1 Like

Igor Wallossek

1

10,192 Kommentare 18,803 Likes

Du hast den Artikel nicht gelesen. Bei AMD stellst Du NIEMALS die gesamte Karte ein. Und wenn Du 300 Watt fürs Power Target vorgibst, dann müssen die gar nicht reale 300 Watt TGP am Stecker sein, weil Du im Wattman die TDC ja nicht mit anheben kannst und die Spannungsbegrenzung für eine Leistungsbegrenzung sorgt. Das ist schon etwas komplexer und AMD ist alles außer Chip und Speicher schnurzegal.

HWinfo liest NVIDIA auch richtig aus, nur AMD ist halt komplett beschnitten, weil das nur ein paar DCR-Werte sind. Da kann HWInfo nichts dafür. Die Werte decken sich mit denen von GPU-Z und dem Afterburner, weil alle die gleiche API nutzen. AMD kann man icht komplett auslesen. Nur hochrechnen, wenn man die Komponenten genau kennt. Über die gemessenen Temps und die Datenblattkurven der SPS kommt man schon recht ordentlich voran, wenn man die restlichen Verluste noch mit ausrechnen kann. Ich kann das, aber der Normalanwender nicht. Der muss dann grob schätzen, was fast immer schief geht.

Antwort 2 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Schöner Artikel, bei AMD brauch man schon ein digitales Netzteil um valide Werte zu berechnen von der TBP. Die Karten unterscheiden sich da teils gravierend. Meine 6800XT LC brauch schon 40-50 Watt extra trotz sehr guter Kühlung, die 6800 dagegen ist deutlich genügsamer mit 20-30Watt.

@Igor Wallossek Wie misst eine NV Karte den PEG? Sitzen da auch nochmal Shunts?

Antwort Gefällt mir

Igor Wallossek

1

10,192 Kommentare 18,803 Likes

Ja, das steht sogar im Artikel. Schau mal aufs Schema, den Bereich habe ich sogar eingezeichnet und beschrieben. Current Sense :)
Bei der abgebildeten Karte ist der Shunt auf der Rückseite.

Digitale Netzeile sind aber auch nur Schätzeisen, denn die Auflösung ist wirklich mies. Dann lieber das Teil von Elmor. Allen gemeinsam ist aber, dass man die 3.3 Volt nicht bekommt. :D

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Die 3,3V kann ich ohne Probleme messen am Netzteil. Das Digifanless ist dabei auch recht genau, hast du sogar selbst gesagt (und hast es auch selbst verwendet wenn ich mich recht erinnere)

View image at the forums

Antwort Gefällt mir

D
Deridex

Urgestein

2,213 Kommentare 846 Likes

Ich finde diese Werte bis auf 3 Stellen hinterm Komma immer wieder amüsant. Ich wäre sehr überascht, wenn so ein Netzteil das tatsächlich so genau messen kann, dass die 3te Stelle hinterm Komma noch ernsthaft aussagekräftig ist.

Ich lasse mich da gerne natürlich gerne positiv überraschen, bin da ber trotzdem eher pessimistisch.

Antwort 1 Like

F
Furda

Urgestein

663 Kommentare 370 Likes

@ Herr Wallossek
Schöner und sehr interessanter Artikel, vielen Dank. Fühle mich etwas in die 90er versetzt, als ich noch in der Elektrotechnik tätig war.

Bezgl. GPU Spannungen in Tools auslesen, bei Ampere z.B. soll es die Möglichkeit geben, die 'echte' NVVDD auszulesen, also die real anliegende Spannung der GPU, welche nicht mit der 'gewünschten' GPU Spannung (der Takt-Spannung-Kurve) übereinstimmen muss, welche die gängigen Tools anzeigen. Diese 'echte' NVVDD habe ich bisher nur in Ampere Tools gesehen. Ist für mich mittlerweile bei OC/UV ein wichtiger Punkt, genau wie GPU Clock vs. GPU Effective Clock, der einem etwas mehr darüber erzählen möchte/könnte, in welchen Betriebszuständen (Spannung vs. Clock) sich die GPU wohler fühlt, als in anderen Bereichen (Stichwort Sweet Spot(s)). Gibt es dazu Informationen, über welche Sie reden dürfen?

@ Martin G
Ja genau, der PWM Wert für die Lüfterdrehzahl wird von der GPU auch ausgegeben, wenn kein Lüfter angeschlossen ist. Diesen Wert kann man dann per Software (z.B. FanControl) auf Lüfter kopieren resp. synchronisieren, welche anderswo (z.B. am Mainboard) angeschlossen sind. Wenn man es Software-unabhängig machen möchte, kann man ein Spezial-Kabel machen und das originale PWM Signal Hardware-seitig vom GPU Fan Stecker abzapfen, Energieversorgung über das Mainboard.

@ Deridex
Dito, habe deshalb alle Nachkommastellen in HWInfo ausgeschaltet, ausser dort, wo sie wirklich im relevanten Wertebereich liegen. Gibt zudem ein aufgeräumteres, weniger 'nervöses' Monitoring.

Antwort Gefällt mir

Klicke zum Ausklappem
Martin Gut

Urgestein

7,774 Kommentare 3,572 Likes

Ich habe meine Lüfterregelung auf der Grundlage von Openhardwaremonitor selbst programmiert. Damit kann ich CPU- und GPU-Temperatur auslesen und die Lüfter so regeln, wie ich es haben möchte. Die Grafikkartenlüfter habe ich durch einen 14 cm-Silentlüfter ersetzt. Die Grafikkarte hat die Lüfter immer pulsierend laufen gelassen, was echt nervig war. Dazu hat der CPU-Lüfter bei jeder kurzen Lastspitze hörbar aufgedreht. Nun habe ich es so geglättet, dass die Lüfter eine etwa Minute brauchen bis sie sich angepasst haben. So lange braucht es so oder so, bis sich die Kühler richtig erwärmt haben und auch die Wärme abgeben können.

Dadurch ist mein PC praktisch lautlos geworden. Es hat einiges gebraucht, bis ich zu der Lösung gekommen bin. Aber es hat mir einfach keine Ruhe gelassen (wörtich gemeint), bis es richtig funktioniert hat.

Antwort 4 Likes

O
Oberst

Veteran

336 Kommentare 130 Likes

Naja, wie funktionieren denn die digitalen Netzteile? Ich habe ein etwas älteres Corsair AXi 760, das misst meiner Meinung nach viel Mist. Laut Netzteil braucht mein Rechner (R5 2600, B450 Pro4, 2x8GB Balistix 3200er DDR4, R9 Nano, Kingston A2000 512GB und Crucial P1 1TB) im Leerlauf um die 180W, mehrere Leistungsmessgeräte attestieren um die 50W. Das ist schon ne massive Differenz. Unter Volllast kommen ich etwas über 300W, da stimmt das Netzteil dann auch relativ ordentlich mit den Messgeräten überein.
Oder anders ausgedrückt: Die Netzteile helfen auch nur, wenn sie korrekt messen. ;)
@Igor Wallossek : Wie ist das eigentlich bei den Netzteilen? Da wird vermutlich in der Regel über Shunts gemessen, oder? Sorry für etwas OffTopic, aber irgendwie passt das doch auch halbwegs zum Thema.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Das Digifanless wirft sehr akkurate Messwerte aus, da gibts nichts dran zu bemängeln. Das ersetzt natürlich keine professionelle Messung, aber es ist der einzig gangbare Weg die TBP einer Radeon selbst zu messen und wenn man weiß wie, geht dass auch bis auf 5 Watt genau.

Antwort 2 Likes

F
Furda

Urgestein

663 Kommentare 370 Likes

@ Martin G
Top aktuelles Thema und Garantie für interessante Gespräche, hier aber wohl off-topic...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung