Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
714
Punkte
1
Standort
Redaktion
Warum weichen bei AMD die wirklich gemessenen Werte an den Anschlüssen so extrem von den per Software ausgelesenen Ergebnisse ab und wieso ist auch die Fehlerquote bei Kurzeitmessungen an NVIDIA-Grafikkarten noch so hoch? Wo kommen die von den Tools ausgelesenen Werte eigentlich her und was unterscheidet beide Grafikkarten-Hersteller am Ende dann so grundlegend? Der heutige (read full article...)
 

RX480

Urgestein
Mitglied seit
Feb 13, 2020
Beiträge
1.003
Punkte
114
Wow,
Soviel mehr hätte ich jetzt net erwartet.

Ansonsten mal schön zu sehen, wieviel mehr Watt die heisse Graka ggü. der Kalten verbraucht.
Da lohnt es sich bestimmt ab nem Punkt X gar net mehr so richtig, noch mehr W drauf zu braten.
(mal abgesehen davon, das ne Air6900 bei 95°C - Hotspot oder gar niedriger schon langsamer wird, dito NV
auch bei einigen Grakas den GPU-takt runterstept; ... sofern net vorher der Vram schon zu heiss war)


Außerdem gut, das die 3,3V mit erwähnt wurden, was manche Reviewer gerne unterschlagen.
 
Zuletzt bearbeitet :

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
7.024
Punkte
114
Alter
58
Standort
Labor
Wow,
Soviel mehr hätte ich jetzt net erwartet.

Ansonsten mal schön zu sehen, wieviel mehr Watt die heisse Graka ggü. der Kalten verbraucht.
Da lohnt es sich bestimmt ab nem Punkt X gar net mehr so richtig, noch mehr W drauf zu braten.

Außerdem gut, das die 3,3V mit erwähnt wurden, was manche Reviewer gerne unterschlagen.
Hund-Schwanz-Prinzip. Richtig.
 

RX480

Urgestein
Mitglied seit
Feb 13, 2020
Beiträge
1.003
Punkte
114
Das beste Bsp. Hierzu war bisher hier das Review zum UVen bei der 6800 von Gurdi. (oder das 300W-Review zur Ti letztens)
Ohne großen Leistungsverlust (fps) wurden 40W asic bzw. 20% bei der 6800 gespart!
(da war bestimmt das "kalt" halten sinnvoll)

 

Falcon

Mitglied
Mitglied seit
Feb 12, 2021
Beiträge
24
Punkte
12
Solange ich noch am Durchtesten des Systems bin hab ich immer nen einfaches Energiemeßgerät an der Kiste hängen.

Schon erstaunlich wieviel W man mit ein bisschen Undervolten und Übertakten ohne Leistungsverlust an Grafikkarten so Einsparen kann.
 

xlOrDsNaKex

Neuling
Mitglied seit
Jan 25, 2021
Beiträge
9
Punkte
3
Danke dir Igor für die immer wieder sehr interessanten, tiefergehenden und sehr technischen Artikel. Schön zu sehen das du nicht einfach immer nur "nachplapperst" sondern den Sachen tatsächlich auf den Grund gehst und auch mal den Finger in die Wunde legst, wenn es sein muss!
 

Göran

Veteran
Mitglied seit
Jan 31, 2019
Beiträge
130
Punkte
28
Super Beitrag, auch für elektrotechnische Laien eine plausible Erklärung, Danke dafür Igor !
 

grimm

Urgestein
Mitglied seit
Aug 9, 2018
Beiträge
2.000
Punkte
114
Standort
Wiesbaden
Der Aufbau sieht extrem aufwändig aus - Danke für den ausführlichen Test!
 

Casi030

Urgestein
Mitglied seit
Sep 9, 2019
Beiträge
7.671
Punkte
113
Hund-Schwanz-Prinzip. Richtig.
Du hast aber nicht zufälligerweise Screens von HWINFO64 gemacht von NVIDIA und AMD um die Daten mal zu vergleichen?
Was Ich z.b. nicht verstehe ist wenn ich im AMD Treiber PPT 300Watt einstelle,dann zieht die GPU um 225Watt und der Rest zieht 75Watt damit es die 300Watt sind.Was verbaucht jetzt noch mal rund 30% mehr?
 
Zuletzt bearbeitet :

Martin Gut

Urgestein
Mitglied seit
Sep 5, 2020
Beiträge
5.617
Punkte
113
Endlich verstehe ich, wie unterschiedlich die Hersteller die Leistungsaufnahme messen. Da ich noch keine AMD-Grafikkarte hatte, habe ich mich noch nicht so genau damit befasst.

Um die GPU immer mit einer bestimmten Leistung laufen zu lassen, macht die Messung von AMD natürlich Sinn. Für die Überwachung der Spannungswandler und der ganzen Leistungsaufnahme bringt das natürlich wenig.

Nun übertakte ich meine Nvidia-Grafikkarte, indem ich die Lüfter über das Mainboard versorge. Dann bekommt die GPU schon ein paar Watt mehr. Interessante Denkweise. 😉
 

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
7.024
Punkte
114
Alter
58
Standort
Labor
Du hast aber nicht zufälligerweise Screens von HWINFO64 gemacht von NVIDIA und AMD um die Daten mal zu vergleichen?
Was Ich z.b. nicht verstehe ist wenn ich im AMD Treiber PPT 300Watt einstelle,dann zieht die GPU um 225Watt und der Rest zieht 75Watt damit es die 300Watt sind.Was verbaucht jetzt noch mal rund 30% mehr?
Du hast den Artikel nicht gelesen. Bei AMD stellst Du NIEMALS die gesamte Karte ein. Und wenn Du 300 Watt fürs Power Target vorgibst, dann müssen die gar nicht reale 300 Watt TGP am Stecker sein, weil Du im Wattman die TDC ja nicht mit anheben kannst und die Spannungsbegrenzung für eine Leistungsbegrenzung sorgt. Das ist schon etwas komplexer und AMD ist alles außer Chip und Speicher schnurzegal.

HWinfo liest NVIDIA auch richtig aus, nur AMD ist halt komplett beschnitten, weil das nur ein paar DCR-Werte sind. Da kann HWInfo nichts dafür. Die Werte decken sich mit denen von GPU-Z und dem Afterburner, weil alle die gleiche API nutzen. AMD kann man icht komplett auslesen. Nur hochrechnen, wenn man die Komponenten genau kennt. Über die gemessenen Temps und die Datenblattkurven der SPS kommt man schon recht ordentlich voran, wenn man die restlichen Verluste noch mit ausrechnen kann. Ich kann das, aber der Normalanwender nicht. Der muss dann grob schätzen, was fast immer schief geht.
 

Gurdi

Urgestein
Mitglied seit
Dez 2, 2018
Beiträge
1.224
Punkte
113
Schöner Artikel, bei AMD brauch man schon ein digitales Netzteil um valide Werte zu berechnen von der TBP. Die Karten unterscheiden sich da teils gravierend. Meine 6800XT LC brauch schon 40-50 Watt extra trotz sehr guter Kühlung, die 6800 dagegen ist deutlich genügsamer mit 20-30Watt.

@Igor Wallossek Wie misst eine NV Karte den PEG? Sitzen da auch nochmal Shunts?
 

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
7.024
Punkte
114
Alter
58
Standort
Labor
Ja, das steht sogar im Artikel. Schau mal aufs Schema, den Bereich habe ich sogar eingezeichnet und beschrieben. Current Sense :)
Bei der abgebildeten Karte ist der Shunt auf der Rückseite.

Digitale Netzeile sind aber auch nur Schätzeisen, denn die Auflösung ist wirklich mies. Dann lieber das Teil von Elmor. Allen gemeinsam ist aber, dass man die 3.3 Volt nicht bekommt. :D
 

Gurdi

Urgestein
Mitglied seit
Dez 2, 2018
Beiträge
1.224
Punkte
113
Ja, das steht sogar im Artikel. Schau mal aufs Schema, den Bereich habe ich sogar eingezeichnet und beschrieben. Current Sense :)
Bei der abgebildeten Karte ist der Shunt auf der Rückseite.

Digitale Netzeile sind aber auch nur Schätzeisen, denn die Auflösung ist wirklich mies. Dann lieber das Teil von Elmor. Allen gemeinsam ist aber, dass man die 3.3 Volt nicht bekommt. :D
Die 3,3V kann ich ohne Probleme messen am Netzteil. Das Digifanless ist dabei auch recht genau, hast du sogar selbst gesagt (und hast es auch selbst verwendet wenn ich mich recht erinnere) 3DMark Time Spy_2022.05.06-21.07.png
 

Deridex

Urgestein
Mitglied seit
Dez 2, 2018
Beiträge
1.860
Punkte
112
Ich finde diese Werte bis auf 3 Stellen hinterm Komma immer wieder amüsant. Ich wäre sehr überascht, wenn so ein Netzteil das tatsächlich so genau messen kann, dass die 3te Stelle hinterm Komma noch ernsthaft aussagekräftig ist.

Ich lasse mich da gerne natürlich gerne positiv überraschen, bin da ber trotzdem eher pessimistisch.
 

Furda

Mitglied
Mitglied seit
Apr 12, 2022
Beiträge
79
Punkte
17
@ Herr Wallossek
Schöner und sehr interessanter Artikel, vielen Dank. Fühle mich etwas in die 90er versetzt, als ich noch in der Elektrotechnik tätig war.

Bezgl. GPU Spannungen in Tools auslesen, bei Ampere z.B. soll es die Möglichkeit geben, die 'echte' NVVDD auszulesen, also die real anliegende Spannung der GPU, welche nicht mit der 'gewünschten' GPU Spannung (der Takt-Spannung-Kurve) übereinstimmen muss, welche die gängigen Tools anzeigen. Diese 'echte' NVVDD habe ich bisher nur in Ampere Tools gesehen. Ist für mich mittlerweile bei OC/UV ein wichtiger Punkt, genau wie GPU Clock vs. GPU Effective Clock, der einem etwas mehr darüber erzählen möchte/könnte, in welchen Betriebszuständen (Spannung vs. Clock) sich die GPU wohler fühlt, als in anderen Bereichen (Stichwort Sweet Spot(s)). Gibt es dazu Informationen, über welche Sie reden dürfen?

@ Martin G
Ja genau, der PWM Wert für die Lüfterdrehzahl wird von der GPU auch ausgegeben, wenn kein Lüfter angeschlossen ist. Diesen Wert kann man dann per Software (z.B. FanControl) auf Lüfter kopieren resp. synchronisieren, welche anderswo (z.B. am Mainboard) angeschlossen sind. Wenn man es Software-unabhängig machen möchte, kann man ein Spezial-Kabel machen und das originale PWM Signal Hardware-seitig vom GPU Fan Stecker abzapfen, Energieversorgung über das Mainboard.

@ Deridex
Dito, habe deshalb alle Nachkommastellen in HWInfo ausgeschaltet, ausser dort, wo sie wirklich im relevanten Wertebereich liegen. Gibt zudem ein aufgeräumteres, weniger 'nervöses' Monitoring.
 

Martin Gut

Urgestein
Mitglied seit
Sep 5, 2020
Beiträge
5.617
Punkte
113
Wenn man es Software-unabhängig machen möchte,
Ich habe meine Lüfterregelung auf der Grundlage von Openhardwaremonitor selbst programmiert. Damit kann ich CPU- und GPU-Temperatur auslesen und die Lüfter so regeln, wie ich es haben möchte. Die Grafikkartenlüfter habe ich durch einen 14 cm-Silentlüfter ersetzt. Die Grafikkarte hat die Lüfter immer pulsierend laufen gelassen, was echt nervig war. Dazu hat der CPU-Lüfter bei jeder kurzen Lastspitze hörbar aufgedreht. Nun habe ich es so geglättet, dass die Lüfter eine etwa Minute brauchen bis sie sich angepasst haben. So lange braucht es so oder so, bis sich die Kühler richtig erwärmt haben und auch die Wärme abgeben können.

Dadurch ist mein PC praktisch lautlos geworden. Es hat einiges gebraucht, bis ich zu der Lösung gekommen bin. Aber es hat mir einfach keine Ruhe gelassen (wörtich gemeint), bis es richtig funktioniert hat.
 

Oberst

Veteran
Mitglied seit
Jul 23, 2018
Beiträge
206
Punkte
27
Schöner Artikel, bei AMD brauch man schon ein digitales Netzteil um valide Werte zu berechnen von der TBP.
Naja, wie funktionieren denn die digitalen Netzteile? Ich habe ein etwas älteres Corsair AXi 760, das misst meiner Meinung nach viel Mist. Laut Netzteil braucht mein Rechner (R5 2600, B450 Pro4, 2x8GB Balistix 3200er DDR4, R9 Nano, Kingston A2000 512GB und Crucial P1 1TB) im Leerlauf um die 180W, mehrere Leistungsmessgeräte attestieren um die 50W. Das ist schon ne massive Differenz. Unter Volllast kommen ich etwas über 300W, da stimmt das Netzteil dann auch relativ ordentlich mit den Messgeräten überein.
Oder anders ausgedrückt: Die Netzteile helfen auch nur, wenn sie korrekt messen. ;)
@Igor Wallossek : Wie ist das eigentlich bei den Netzteilen? Da wird vermutlich in der Regel über Shunts gemessen, oder? Sorry für etwas OffTopic, aber irgendwie passt das doch auch halbwegs zum Thema.
 

Gurdi

Urgestein
Mitglied seit
Dez 2, 2018
Beiträge
1.224
Punkte
113
Das Digifanless wirft sehr akkurate Messwerte aus, da gibts nichts dran zu bemängeln. Das ersetzt natürlich keine professionelle Messung, aber es ist der einzig gangbare Weg die TBP einer Radeon selbst zu messen und wenn man weiß wie, geht dass auch bis auf 5 Watt genau.
 

Furda

Mitglied
Mitglied seit
Apr 12, 2022
Beiträge
79
Punkte
17
@ Martin G
Top aktuelles Thema und Garantie für interessante Gespräche, hier aber wohl off-topic...
 
Oben Unten