Grafikkarten Grundlagenartikel Praxis Software Testberichte VGA

Total Board Power (TBP) vs. reale Leistungsaufnahme und die Unzulänglichkeit von Software-Tools gegenüber echten Messungen

Da auch heute noch viele Anwender und vor allem auch YouTuber sowie Twitcher die Werte, die Tools wie der MSI Afterburner oder auch AMDs Radeon-Software für die Leistungsaufnahme iherer Grafikkarte als bare Münze nehmen, muss ich doch noch einmal nachlegen. Die Unmengen an Videos, die zeigen sollen, um wie viel „sparsamer“ die Grafikkarte A gegenüber der Grafikkarte B sein soll, bringen diejenigen, die es besser wissen (und können) immer noch reihenweise zum Weinen. Lustige Randnotiz: Selbst NVIDIA vertreibt heute unter Redaktionen und einschlägigen Videoschaffenden mit PCAT ein Tool, das der Wahrheitsfindung bei der Leistungsaufnahme von Grafikkarten dient. So recht geholfen hat es bisher aber eher weniger, leider.

Und weil immer wieder Fragen aufkamen, warum die von mir in Spielen gemessenen Werte von den Herstellerangaben (TBP) für die gesamte Grafikkarte so abweichen, habe ich einen bestehenden Artikel etwas überarbeitet und zudem ein neues Kapitel vorangestellt. Hier analysiere ich zunächst 11 Spiele mit und ohne Raytracing-Last in Ultra-HD (mit und ohne DLSS/FSR) für die meisten relevanten Karten, die wir auch noch aus dem Launchartikel zur NVIDIA GeForce RTX 4090 24 GB kennen. Denn des Ergebnis ist durchaus interessant. Abweichend zum  letzten Test habe die Radeon RX 6950XT mit einem Referenz-BIOS laufen lassen, weil es sonst die Messungen etwas verzerrt hätte.

Wir werden uns nach dieser Einführung auch primär mit dem Lösungsansatz beider Hersteller befassen, was die Ermittlung und das Logging der Leistungsaufnahme betrifft, denn hier gibt es immer noch jede Menge Nachholbedarf. Software-Tools und AMD-Karten sind schon immer ein leidiges Problem, aber dazu später mehr. Denn man kann Radeons natürlich ordentlich an den Stromzuführungen messen, aber eben nicht sauber auslesen. Das, was alle Tools anzeigen, ist leider nicht alles, was durch die Leitungen geht. Aber dazu ab der nächsten Seite gleich mehr.

450-Watt-Karte ungleich 450-Watt-Karte!

Wenn wir uns die erste Grafik anschauen, dann sehen wir, dass die GeForce RTX 3090 Ti mit 450 Watt Power Limit (TBP) eine echte 450-Watt-Karte ist, die diese Leistungsaufnahme auch im Gaming leider voll erreicht. Die so oft (völlig zu Unrecht) gescholtene GeForce RTX 4090 ist allerdings beim Gaming eher eine 380-Watt-Karte, die den verfügbaren Leistungsspielraum nur dann überhaupt ausnutzt, wenn man Stresstests laufen lässt oder reines Compute auf den Shadern betreibt!

Bei Ada hat NVIDIA im Gegensatz zu den eigenen Ampere-Karten und zu AMD einen extremen Puffer eingebaut, der zwar stellenweise erreicht werden kann, aber normalerweise nicht in jeder Anwendung erreicht wird. Jedes Spiel ist da anders und es gibt auch hier extreme Beispiele, die ordentlich Leistung abverlangen. Aber in der ganzen Bandbreite der Anwendungen sind Durchschnittswerte stets die objektivste Aussage. Denn man fährt ja auch nicht im realen Leben immer nur steil bergauf.

Bei allen anderen Karten liegen Hersteller-Angaben und Leistungsaufnahme im UHD-Gaming mit 98 bis 99% GPU-Last sehr nah an der angegebenen TBP bzw. überschreiten diese sogar leicht (die letzten drei Karten in den Charts unten). Aber es sind Abweichungen im niedrigen einstelligen Prozentbereich. Für die noch nicht gelaunchte GeForce 4080 16GB kann man aus NDA-Gründen nur den Taschenrechner zücken und TBP sowie die reale Messung ins Verhältnis setzen. Dann hieße es 274 Watt im Gaming für diese mit 320 Watt angegebene neue Karte. Das wird nicht ganz reichen, denn der Chip sollte auf Grund der geringeren Größe und Shaderanzahl höher takten und damit etwas ineffizienter werden. Doch um die 280 Watt könnten es dann durchaus werden. Rein spekulativ.

Da AMDs Karten bisher die angegebene TBP in Ultra-HD immer erreicht haben, könnte man durchaus annehmen, dass es auch bei der Radeon 7900XTX bzw. RX 7900XT der Fall sein könnte. Nur stellt sich eben die Frage, ob es auch AMD gelungen ist, ein ähnlich breites Fenster bei der tatsächlichen Leistungsaufnahme zu ermöglichen. Denn nur dann wäre die Karte der GeForce RTX 4080 an der Steckdose im täglichen Einsatz gewachsen. Hier wird man wirklich mehrmals und genauer hinsehen müssen, wie effizient beide Kontrahentinnen wirklich agieren können.

Mit Bildbeschleunigungs-Verfahren wie DLSS, FSR oder XeSS wird aus der 450-Watt-Karte in Form der GeForce RTX 4090 eine (auch den Durchschnitt bezogene) 350-Watt-Karte, während sich die GeForce RTX 3090 Ti nicht aus der 400-Watt-Zone lösen kann. Die anderen Karten liegen hier wieder in etwa gleichauf. Dazu kommt, dass die große Ada-Karte natürlich auch bereits ab und zu von der CPU gebremst wird. Genau an dieser Stelle kann man das spätestens am Launchtag der GeForce RTX 4080 16GB gegentesten, denn wenn man hier den Faktor ansetzen würde, der sich für die RTX 4090 ergibt. Wäre es ein echtes, alleiniges  Bottleneck für die RTX 4090, dann dürfte die kommende GeForce RTX 4080 16GB nur sehr wenig beeinflusst werden und annährend wieder das verbrauchen, was auch ohne DLSS messbar war.

Auch für diese Messungen habe ich noch einmal das prozentuale Verhältnis zur angegebenen TBP ermittelt. Das ist wirklich eindeutig:

Nachdem das jetzt auch geklärt wäre, können wir uns den weiteren Betrachtungen widmen, bevor nächste Woche der nächste große Launch ansteht. Wer noch einmal den Unterschied zwischen TBP, TGP und TDP hinterfragen möchte, den verweise ich auf einen weiterführenden Artikel, der fast schon ein Klassiker ist, aber immer noch Gültigkeit besitzt. Und nur mal ganz nebenbei: es gibt auch noch viele andere Lastszenarien als Games oder Stresstests. Das nur mal am Rande, aber Ihr kennt das ja bereits aus meinen ganzen Reviews.

Leistungsaufnahme: TDP, TBP und TGP bei Nvidia und AMD-Grafikkarten nachgerechnet samt Zerstörung einer PR-Folie | igorsLAB

 

657 Antworten

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,871 Kommentare 864 Likes

Wow,
Soviel mehr hätte ich jetzt net erwartet.

Ansonsten mal schön zu sehen, wieviel mehr Watt die heisse Graka ggü. der Kalten verbraucht.
Da lohnt es sich bestimmt ab nem Punkt X gar net mehr so richtig, noch mehr W drauf zu braten.
(mal abgesehen davon, das ne Air6900 bei 95°C - Hotspot oder gar niedriger schon langsamer wird, dito NV
auch bei einigen Grakas den GPU-takt runterstept; ... sofern net vorher der Vram schon zu heiss war)

Außerdem gut, das die 3,3V mit erwähnt wurden, was manche Reviewer gerne unterschlagen.

Antwort 2 Likes

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Hund-Schwanz-Prinzip. Richtig.

Antwort 3 Likes

RX480

Urgestein

1,871 Kommentare 864 Likes

Das beste Bsp. Hierzu war bisher hier das Review zum UVen bei der 6800 von Gurdi. (oder das 300W-Review zur Ti letztens)
Ohne großen Leistungsverlust (fps) wurden 40W asic bzw. 20% bei der 6800 gespart!
(da war bestimmt das "kalt" halten sinnvoll)

Antwort 3 Likes

Klicke zum Ausklappem
F
Falcon

Veteran

114 Kommentare 117 Likes

Solange ich noch am Durchtesten des Systems bin hab ich immer nen einfaches Energiemeßgerät an der Kiste hängen.

Schon erstaunlich wieviel W man mit ein bisschen Undervolten und Übertakten ohne Leistungsverlust an Grafikkarten so Einsparen kann.

Antwort 1 Like

xlOrDsNaKex

Mitglied

33 Kommentare 29 Likes

Danke dir Igor für die immer wieder sehr interessanten, tiefergehenden und sehr technischen Artikel. Schön zu sehen das du nicht einfach immer nur "nachplapperst" sondern den Sachen tatsächlich auf den Grund gehst und auch mal den Finger in die Wunde legst, wenn es sein muss!

Antwort 6 Likes

Göran

Veteran

154 Kommentare 63 Likes

Super Beitrag, auch für elektrotechnische Laien eine plausible Erklärung, Danke dafür Igor !

Antwort 1 Like

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Der Aufbau sieht extrem aufwändig aus - Danke für den ausführlichen Test!

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Du hast aber nicht zufälligerweise Screens von HWINFO64 gemacht von NVIDIA und AMD um die Daten mal zu vergleichen?
Was Ich z.b. nicht verstehe ist wenn ich im AMD Treiber PPT 300Watt einstelle,dann zieht die GPU um 225Watt und der Rest zieht 75Watt damit es die 300Watt sind.Was verbaucht jetzt noch mal rund 30% mehr?

Antwort 1 Like

Martin Gut

Urgestein

7,776 Kommentare 3,572 Likes

Endlich verstehe ich, wie unterschiedlich die Hersteller die Leistungsaufnahme messen. Da ich noch keine AMD-Grafikkarte hatte, habe ich mich noch nicht so genau damit befasst.

Um die GPU immer mit einer bestimmten Leistung laufen zu lassen, macht die Messung von AMD natürlich Sinn. Für die Überwachung der Spannungswandler und der ganzen Leistungsaufnahme bringt das natürlich wenig.

Nun übertakte ich meine Nvidia-Grafikkarte, indem ich die Lüfter über das Mainboard versorge. Dann bekommt die GPU schon ein paar Watt mehr. Interessante Denkweise. 😉

Antwort 1 Like

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Du hast den Artikel nicht gelesen. Bei AMD stellst Du NIEMALS die gesamte Karte ein. Und wenn Du 300 Watt fürs Power Target vorgibst, dann müssen die gar nicht reale 300 Watt TGP am Stecker sein, weil Du im Wattman die TDC ja nicht mit anheben kannst und die Spannungsbegrenzung für eine Leistungsbegrenzung sorgt. Das ist schon etwas komplexer und AMD ist alles außer Chip und Speicher schnurzegal.

HWinfo liest NVIDIA auch richtig aus, nur AMD ist halt komplett beschnitten, weil das nur ein paar DCR-Werte sind. Da kann HWInfo nichts dafür. Die Werte decken sich mit denen von GPU-Z und dem Afterburner, weil alle die gleiche API nutzen. AMD kann man icht komplett auslesen. Nur hochrechnen, wenn man die Komponenten genau kennt. Über die gemessenen Temps und die Datenblattkurven der SPS kommt man schon recht ordentlich voran, wenn man die restlichen Verluste noch mit ausrechnen kann. Ich kann das, aber der Normalanwender nicht. Der muss dann grob schätzen, was fast immer schief geht.

Antwort 2 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Schöner Artikel, bei AMD brauch man schon ein digitales Netzteil um valide Werte zu berechnen von der TBP. Die Karten unterscheiden sich da teils gravierend. Meine 6800XT LC brauch schon 40-50 Watt extra trotz sehr guter Kühlung, die 6800 dagegen ist deutlich genügsamer mit 20-30Watt.

@Igor Wallossek Wie misst eine NV Karte den PEG? Sitzen da auch nochmal Shunts?

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Ja, das steht sogar im Artikel. Schau mal aufs Schema, den Bereich habe ich sogar eingezeichnet und beschrieben. Current Sense :)
Bei der abgebildeten Karte ist der Shunt auf der Rückseite.

Digitale Netzeile sind aber auch nur Schätzeisen, denn die Auflösung ist wirklich mies. Dann lieber das Teil von Elmor. Allen gemeinsam ist aber, dass man die 3.3 Volt nicht bekommt. :D

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Die 3,3V kann ich ohne Probleme messen am Netzteil. Das Digifanless ist dabei auch recht genau, hast du sogar selbst gesagt (und hast es auch selbst verwendet wenn ich mich recht erinnere)

View image at the forums

Antwort Gefällt mir

D
Deridex

Urgestein

2,213 Kommentare 846 Likes

Ich finde diese Werte bis auf 3 Stellen hinterm Komma immer wieder amüsant. Ich wäre sehr überascht, wenn so ein Netzteil das tatsächlich so genau messen kann, dass die 3te Stelle hinterm Komma noch ernsthaft aussagekräftig ist.

Ich lasse mich da gerne natürlich gerne positiv überraschen, bin da ber trotzdem eher pessimistisch.

Antwort 1 Like

F
Furda

Urgestein

663 Kommentare 370 Likes

@ Herr Wallossek
Schöner und sehr interessanter Artikel, vielen Dank. Fühle mich etwas in die 90er versetzt, als ich noch in der Elektrotechnik tätig war.

Bezgl. GPU Spannungen in Tools auslesen, bei Ampere z.B. soll es die Möglichkeit geben, die 'echte' NVVDD auszulesen, also die real anliegende Spannung der GPU, welche nicht mit der 'gewünschten' GPU Spannung (der Takt-Spannung-Kurve) übereinstimmen muss, welche die gängigen Tools anzeigen. Diese 'echte' NVVDD habe ich bisher nur in Ampere Tools gesehen. Ist für mich mittlerweile bei OC/UV ein wichtiger Punkt, genau wie GPU Clock vs. GPU Effective Clock, der einem etwas mehr darüber erzählen möchte/könnte, in welchen Betriebszuständen (Spannung vs. Clock) sich die GPU wohler fühlt, als in anderen Bereichen (Stichwort Sweet Spot(s)). Gibt es dazu Informationen, über welche Sie reden dürfen?

@ Martin G
Ja genau, der PWM Wert für die Lüfterdrehzahl wird von der GPU auch ausgegeben, wenn kein Lüfter angeschlossen ist. Diesen Wert kann man dann per Software (z.B. FanControl) auf Lüfter kopieren resp. synchronisieren, welche anderswo (z.B. am Mainboard) angeschlossen sind. Wenn man es Software-unabhängig machen möchte, kann man ein Spezial-Kabel machen und das originale PWM Signal Hardware-seitig vom GPU Fan Stecker abzapfen, Energieversorgung über das Mainboard.

@ Deridex
Dito, habe deshalb alle Nachkommastellen in HWInfo ausgeschaltet, ausser dort, wo sie wirklich im relevanten Wertebereich liegen. Gibt zudem ein aufgeräumteres, weniger 'nervöses' Monitoring.

Antwort Gefällt mir

Klicke zum Ausklappem
Martin Gut

Urgestein

7,776 Kommentare 3,572 Likes

Ich habe meine Lüfterregelung auf der Grundlage von Openhardwaremonitor selbst programmiert. Damit kann ich CPU- und GPU-Temperatur auslesen und die Lüfter so regeln, wie ich es haben möchte. Die Grafikkartenlüfter habe ich durch einen 14 cm-Silentlüfter ersetzt. Die Grafikkarte hat die Lüfter immer pulsierend laufen gelassen, was echt nervig war. Dazu hat der CPU-Lüfter bei jeder kurzen Lastspitze hörbar aufgedreht. Nun habe ich es so geglättet, dass die Lüfter eine etwa Minute brauchen bis sie sich angepasst haben. So lange braucht es so oder so, bis sich die Kühler richtig erwärmt haben und auch die Wärme abgeben können.

Dadurch ist mein PC praktisch lautlos geworden. Es hat einiges gebraucht, bis ich zu der Lösung gekommen bin. Aber es hat mir einfach keine Ruhe gelassen (wörtich gemeint), bis es richtig funktioniert hat.

Antwort 4 Likes

O
Oberst

Veteran

337 Kommentare 131 Likes

Naja, wie funktionieren denn die digitalen Netzteile? Ich habe ein etwas älteres Corsair AXi 760, das misst meiner Meinung nach viel Mist. Laut Netzteil braucht mein Rechner (R5 2600, B450 Pro4, 2x8GB Balistix 3200er DDR4, R9 Nano, Kingston A2000 512GB und Crucial P1 1TB) im Leerlauf um die 180W, mehrere Leistungsmessgeräte attestieren um die 50W. Das ist schon ne massive Differenz. Unter Volllast kommen ich etwas über 300W, da stimmt das Netzteil dann auch relativ ordentlich mit den Messgeräten überein.
Oder anders ausgedrückt: Die Netzteile helfen auch nur, wenn sie korrekt messen. ;)
@Igor Wallossek : Wie ist das eigentlich bei den Netzteilen? Da wird vermutlich in der Regel über Shunts gemessen, oder? Sorry für etwas OffTopic, aber irgendwie passt das doch auch halbwegs zum Thema.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Das Digifanless wirft sehr akkurate Messwerte aus, da gibts nichts dran zu bemängeln. Das ersetzt natürlich keine professionelle Messung, aber es ist der einzig gangbare Weg die TBP einer Radeon selbst zu messen und wenn man weiß wie, geht dass auch bis auf 5 Watt genau.

Antwort 2 Likes

F
Furda

Urgestein

663 Kommentare 370 Likes

@ Martin G
Top aktuelles Thema und Garantie für interessante Gespräche, hier aber wohl off-topic...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung