Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

Man sollte erwähnen, dass Messshunts, so hilfreich sie seien können, normalerweise der Effizienz abträglich sind. Auch wenn es z.B. nur 0,02 Ohm sind
... weiss net, ob das Hierher passt, aber es gibt Unterschiede, ob man per TDV-Tweak die Volt erhöht oder per EVC2 (x)
deswegen
Bin ich bei Gurdi = keine Shunts auf den Consumergrakas.

(x) weil der Treiber nix von der gemoddeten EVC2-Spannung weiss
(also könnten auch Shunt-Widerstände Einfluss nehmen)
 
Klar. Ist ja auch AMD, da wollen wir nicht kritisieren. Die machen immer alles richtig.
 
Das mag ja sein, dennoch müssen die Kurven mit dem AMD TGP Sensor sehr stark korrelieren. Warum sollte das abweichen? Vor allem Abweichungen im Bereich von 40W (niedrig frequente Peaks!) und mehr machen keinerlei Sinn. Wenn die Lüfter 10% schneller laufen, sind das 2-3W. Temperaturschwankungen sind ebenfalls kein Grund dafür. Anbei nochmal die Grafik von uns. Da lief PCAT dann mal sauber. ^^

Die TGP Kurve wird natürlich durch die Korrektur in y-Richtung verschoben, aber das ändert nichts an der Korrelation. Sogar die Peaks stimmen überein, weil ich mit 4Hz die Sensorwerte vom Treiber hole.
Ich habe mich jetzt nochmal nach oben bewegt, und die Karte angeworfen. Was offensichtlich nicht stimmt, ist die TGP von HWInfo. Ob dort zu viel Overhead drin ist oder der Loop einfach zu lang und damit Amok läuft - keine Ahnung. Die Zeitstempel in HWInfo stimmen auch nicht. Um 1-Sekunden-Intervalle zu bekommen, musst man 930 ms einstellen, bei kürzeren Intervallen wirds noch lustiger. Ich muss mal mit Martin reden, was das soll. Zu viel Klimbim drin :D

Mit GPU-Z sieht die TGP in der Bewegung beim Spiel deutlich ähnlicher zur TBP aus. Bin ich froh, dass ich normalerweise HWInfo nicht nutze, sondern AMDs Auslesetools.
 
... weiss net, ob das Hierher passt, aber es gibt Unterschiede, ob man per TDV-Tweak die Volt erhöht oder per EVC2
deswegen
Bin ich bei Gurdi = keine Shunts auf den Consumergrakas.
NVIDIA kalkuliert bei der großen 4xxx *hüstel* fast 4 Watt für die vier Shunts, aber die Power Limitierung gilt ja erst nach den Shunts.

1653240512821.png

Huch... ist das jetzt ein Leak? :D
 
Oder du nimmst einfach mal CapFrameX Igor. ^^ Wir haben ein Konzept, das vorsieht, dass nur jene Sensoren vom Treiber abgefragt werden, welche auf der UI auch tatsächlich auf enabled gesetzt werden. Zusätzlich kann man die Daten später komfortabel exportieren.
 
Klar. Ist ja auch AMD, da wollen wir nicht kritisieren. Die machen immer alles richtig.
Nehm mal die Batterie raus, ... hätte ich fast gesagt

Mich als Gamer/OCer-UVer interessiert vor Allem das die Arbeitskurve funzt und die hängt nun mal von den eff.W = TGP ab, die
bei Chip+Vram ankommen.

btw.
GPU-Z vs. HWinfo:
GPU-Z = AMD-Werte vom Overlay
HWinfo hat seine eigene Methode und evtl. andere Intervalle
(andere Intervalle = leicht verschobene Werte)
 
Zuletzt bearbeitet :
Ehrlich gesagt will ICH! auch keine Shunts auf meiner AMD Karte, die sollen dass mal schön so lassen wie es ist.

Ich verstehe deinen Punkt mittlerweile nicht mehr.

ASIC=PPT=TGP Alles das selbe, nur ein anderer Name. Also GPU+SOC+VRAM
TBP=Gesamte Karte inkl. aller Verluste

Werte wie TDC und Co aus dem MPT (alter, ist ja schlimmer als in der Armee mit den Abkürzungen hier) bitte ignorieren in dem Kontext. Hierbei geht es um die zulässigen Ströme.

Was genau ist dir jetzt unklar? Igor hat in dem Vergleich Custommodelle verwendet, daher die Differenzen in einigen Angaben zu den von AMD angegebene REFERENZWERTEN die für die Boardpartner aber unverbindlich sind und nur die Basislinie darstellen die nicht unterschritten werden darf.
Weil es mittlerweile nur noch um Bezeichnungen geht und nicht um dem Unvollständigen Artikel der leider nix Aufklärt.
Sonst würden die Leser nicht schreiben das die Angaben von AMD nicht Stimmen,das ihre Karte Deutlich mehr Verbrauchen würde..........
Das ist der Anfang wo Ich mich selber schon verhauen hatte.Ich stelle natürlich NICHT PPT300Watt ein sondern 225Watt und die GPU Allein zieht dann natürlich deutlich weniger.
Du hast aber nicht zufälligerweise Screens von HWINFO64 gemacht von NVIDIA und AMD um die Daten mal zu vergleichen?
Was Ich z.b. nicht verstehe ist wenn ich im AMD Treiber PPT 300Watt einstelle,dann zieht die GPU um 225Watt und der Rest zieht 75Watt damit es die 300Watt sind.Was verbaucht jetzt noch mal rund 30% mehr?

Du hast den Artikel nicht gelesen. Bei AMD stellst Du NIEMALS die gesamte Karte ein. Und wenn Du 300 Watt fürs Power Target vorgibst, dann müssen die gar nicht reale 300 Watt TGP am Stecker sein, weil Du im Wattman die TDC ja nicht mit anheben kannst und die Spannungsbegrenzung für eine Leistungsbegrenzung sorgt. Das ist schon etwas komplexer und AMD ist alles außer Chip und Speicher schnurzegal.

HWinfo liest NVIDIA auch richtig aus, nur AMD ist halt komplett beschnitten, weil das nur ein paar DCR-Werte sind. Da kann HWInfo nichts dafür. Die Werte decken sich mit denen von GPU-Z und dem Afterburner, weil alle die gleiche API nutzen. AMD kann man icht komplett auslesen. Nur hochrechnen, wenn man die Komponenten genau kennt. Über die gemessenen Temps und die Datenblattkurven der SPS kommt man schon recht ordentlich voran, wenn man die restlichen Verluste noch mit ausrechnen kann. Ich kann das, aber der Normalanwender nicht. Der muss dann grob schätzen, was fast immer schief geht.

Überflogen,so lange sind die Rotphasen nicht wenn man mit dem Handy unterwegs ist.;)
Nu voll gelesen.
Ich habe natürlich nur HWinfo64 und die Daten vom Netzteil zur Verfügung.
Somit ist der Löwenanteil von den 30% Aufschlag bei einer RX6950XT der Verlust an den Spannungswandlern.Das bedeutet wiederum das man gar nicht Pauschal sagen kann +30%.Wenn die Spannungswandler kaum Arbeiten müssen und Kühl bleiben können es auch nur 10-15% sein,wenn ich Aufdrehe auch 40%+.Ich komme bei einem Standbild z.b. mit 230Watt PPT dann z.b. auf rund 270Watt ohne Lüfter,da Wasserbock.Abgezogen ist dabei aber auch nicht der Unterschied zwischen Idle und dem "Spielezustand" sprich SSD,Lüfterdrehzahl,Ram und was sonst noch Aktiv wird gegenüber Idle.
Hmmmm wie kommt man dann an Relativ sichere Daten beim Optimieren ohne Dein Testaufbau und die Datenblätter?!

TDC wird doch im Wattman mit geändert für GPU und SOC.......
Min ist mein 230Watt Profil "Leistungsgrenze -10%"
Da habe ich GPU 288A und SOC 49,5A
Max ist mein 293Watt Profil "Leistungsgrenze +15%"
Da habe ich dann GPU 368A und SOC 63,25A

Anhang anzeigen 19041

Aber selbst wenn das Falsch ausgelesen wird was nicht sein kann,da die Daten mit den Einstellungen im MPT früher auch übereinstimmten,komme ich nicht mal an die 288A bei 325Watt....
Anhang anzeigen 19042

@Igor Wallossek
Deswegen hab ichs mal genauer genommen.
Rechner Kalt gestartet,Energiesparoptionen auf Energiesparen,rund 5Min gewartet und Screen gemacht.
PSU zeigt min 82Watt,CPU 22,7Watt.PPT der Grafikkarte 229,5Watt.
Energiesparoptionen auf Höchstleistung gestellt.
Spiel gestartet und gewartet bis es sich eingependelt hat und wieder Screen.Wird ja alles im Spiel angezeigt.
PSU zeigt 388Watt,CPU 59,4Watt.Ziehe ich jetzt die 22,7Watt Idle von den 59,4Watt ab komme ich auf +36,7Watt an der CPU.
Jetzt werden von den 388Watt die Idle 82Watt ab gezogen und die 36,7Watt von der CPU,somit komme ich auf 269,3Watt für die Grafikkarte.
Hab Oben aber Idle der Grafikkarte vergessen mit 8,44Watt....Dann sind es 277,75Watt,somit 48,25Watt mehr als PPT oder rund 21% und das Optimiert.
Die frage ist nur was verbraucht der Rest jetzt im Spiel,Windows auf SSD,Spiel auf ner weiteren SSD,was verbraucht das Mainboard mehr,die 4x8GB Ram.......Wenn ich für das Restliche System pauschal 8Watt nehme komme ich auf die rund 270Watt bei rund 18% Optimiert.

Ohne Optimierung dürfte das schon ziemlich in deine Richtung gehen.

Bei PPT 260Watt komme ich dann auf rund 307Watt.

Bei PPT 293Watt sind es dann rund 350Watt.

Wenn ich das dann mit Deiner PowerColor Liquid Devil AMD Radeon™ RX 6900 XT Gaming und PPT289Watt vergleiche kommt das gut hin.


Anhang anzeigen 19043
Anhang anzeigen 19044

Was fehlt ist hier die Aufklärung warum eine RX6900XT Ref ihre 300Watt AMD Angabe einhält und eine Sapphire von Igor mit 350Watt gemessen wird.
Wenn das Igor mit aufgeklärt hätte im Vergleich zu NV dann kann sich Jeder bei YT und CO den Realen Verbrauch mit wissen um welche Karte es geht selber aus Rechnen.
Aber genau das fehlt eben das die 50Watt der Sapphire aus einer Anhebung des PowerLimit + (Lüfter) + RGB besteht.

Ich hab ja schon einige Rechnungen gemacht , interessiert aber keine.
 
die Sapphire Pure ist ne 6950

Es bräuchte evtl der Einfachheit halber mal eine Nachlese zur 6900 normiert auf 255W TGP um die TBD zu messen.
(da kann dann Jeder mitreden)
 
Letzmalig:
Was fehlt ist hier die Aufklärung warum eine RX6900XT Ref ihre 300Watt AMD Angabe einhält und eine Sapphire von Igor mit 350Watt gemessen wird.
Weil es zwei verschiedene Karten mit zwei verschiedenen TGP Werten im BIOS sind. Die Sapphire hält ihren wert genauso ein. Nur dass der höher ist. Das schreibe ich Dir nun schon zum gefühlten hundersten Mal.

Ich werfe mir jetzt ein Bier ein und geh auf den Balkon. Heute ist Sonntag und eigentlich wollte ich mal einen Tag nicht arbeiten. Ich war ja mittags komplett gechillt mit der Family in Amerika. Das geht nur mit der Bahn....

1653241380337.png

... nicht. Obowhl ich Liegewagen gebucht hatte... :D

1653241323538.png
 
Nehm mal die Batterie raus, ... hätte ich fast gesagt
Du hast es gesagt. Wenn einem keine Argumente mehr einfallen...

Mich als Gamer/OCer-Uver interessiert vor Allem das die Arbeitskurve funzt und die hängt nun mal von den eff.W = TGP ab, die
bei Chip+Vram ankommen.
Klar. Das bestreite ich auch nicht. Ich bin übrigens auch Gamer. Für mich zählt das, was hinten rauskommt.

Aber es sind ja gerade die AMD Jünger, die in letzter Zeit NVidia immer wieder an die Wand stellen, weil die ja so ineffizient seien. Sicher ist die Kritik nicht ungerechtfertigt, aber dann AMD wieder derart in Schutz zu nehmen auf der anderen Seite, ist schon... eigenartig.

Wie gesagt, ich kriege mit ner 3090 mit 320 Watt (und zwar ECHTEN Watt) ziemlich sicher mehr raus, auch ohne RT, als mit ner 6900 oder 6950 (in 4k). Und genau das Gegenteil wird ja von AMD Freunden immer wieder behauptet. Man dreht sich die Wahrheit halt immer so hin, wie man sie braucht.

Wenn Du UV betreibst, werden Dich die Shunts normal auch nicht stören. Im Gegenteil. Die stören nur, wenn Du über das PowerLimit hinausgehen willst. Mir jedenfalls reichen die Möglichkeiten, die meine bescheidene Zotac liefert (Max PL auf 350W und kein Watt mehr) aus. Ich muss nicht in Regionen kommen, die eh nur extrem ineffizient sind.
 
Igor hat schon geschrieben, dass das Power Limit erst nach den Shunts gezählt wird. Und die paar Watt hat mein Netzteil gerade noch, um ein paar Shunts zu heizen. Was mich dabei eher stört, ist, dass bei Nvidia auf TBP geregelt wird.
 
Man muss die TGP ja nicht ersetzen, sie kann ja genau so bleiben wie sie aktuell ist, genau so wie sich die Regelung sowie die Einstellungen fürs Power Limit im Treiber weiterhin auf die TGP beziehen dürfen.

Ich möchte nur in Zukunft zusätzlich den vollen Verbrauch vom Treiber geliefert bekommen, einfach als reiner Ausgabewert, und der soll auch bitte prominenter in der Software dargestellt werden, sowie als default fürs Overlay gesetzt sein.
Gerade wenn man OC/UV betreibt ist ein Vergleich mit Nvidia Karten ohne diesen Wert schlicht nicht möglich, wenn man keine Hardware zum Messen zuhause hat.
 
Du hast es gesagt. Wenn einem keine Argumente mehr einfallen...
... aber dann AMD wieder derart in Schutz zu nehmen auf der anderen Seite, ist schon... eigenartig.
Keiner hat AMD sinnlos verteidigt, sondern Es wurde um Fakten und Erklärungen gerungen.
(zumindestens von meiner Seite)

Danke an Igor, das Er am Sonntag die Pure nochmal bzgl. Temp.abhängigkeit getestet hat.
 
Wo ist denn Objektiv der Unterschied zwischen einer Regelung auf TGP oder TBP? Ich meine bei einer Regelung auf TBP muss halt der Verbrauch vom Board auch einbezogen werden, wenn man das Limit definiert. Aber am Prinzip ändert sich doch nichts.

Der einzige Unterschied sind die Verluste der SpaWas, deren Effizienz sich bei höherer Temperatur überproportional verschlechtern. Aber das *will* ich geregelt haben, sprich ich will dass die SpaWas kühl bleiben und habe so auch mehr Spielraum. Dass mir die SpaWas abrotzen oder unfassbar viel Energie schlucken, ist doch beim OC nicht mein Ziel, oder?

Keiner hat AMD sinnlos verteidigt, sondern Es wurde um Fakten und Erklärungen gerungen.
(zumindestens von meiner Seite)

Nö, klar. ;)
 
DU kennst die Effizienz Deiner Spawas?

Nö, klar. ;)

Sollte mich wundern, wenn man net die VR-Temp auch bei NV in HWinfo angezeigt bekommt.
Danach kann dann auch ein Gaymer seine Settings und Lüftung optimieren.
 
Naja eben nicht, daher wäre es doch gut, wenn die Karte auch runterregelt, wenn die SpaWas bei höherer Temperatur mehr verbrauchen, eben um die Karte innerhalb ihrer TBP zu halten
 
  • Like
Bewertungen: ***
Wer bei 80°C GPU-Edge rumgurkt hat keinen ausreichenden Respekt vor seiner Hardware.
da nützt alle Kenntnis von XYZ auch nix mehr
 
Oben Unten