Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

Das erklärt auch warum mein 750Watt netzteil bei ~540Watt TGP ausgestiegen ist : )

Das sind 700Watt bei 30%. Alleine GraKa.
 
Du hast den Artikel nicht gelesen. Bei AMD stellst Du NIEMALS die gesamte Karte ein. Und wenn Du 300 Watt fürs Power Target vorgibst, dann müssen die gar nicht reale 300 Watt TGP am Stecker sein, weil Du im Wattman die TDC ja nicht mit anheben kannst und die Spannungsbegrenzung für eine Leistungsbegrenzung sorgt. Das ist schon etwas komplexer und AMD ist alles außer Chip und Speicher schnurzegal.

HWinfo liest NVIDIA auch richtig aus, nur AMD ist halt komplett beschnitten, weil das nur ein paar DCR-Werte sind. Da kann HWInfo nichts dafür. Die Werte decken sich mit denen von GPU-Z und dem Afterburner, weil alle die gleiche API nutzen. AMD kann man nicht komplett auslesen. Nur hochrechnen, wenn man die Komponenten genau kennt. Über die gemessenen Temps und die Datenblattkurven der SPS kommt man schon recht ordentlich voran, wenn man die restlichen Verluste noch mit ausrechnen kann. Ich kann das, aber der Normalanwender nicht. Der muss dann grob schätzen, was fast immer schief geht.
Überflogen,so lange sind die Rotphasen nicht wenn man mit dem Handy unterwegs ist.;)
Nu voll gelesen.
Ich habe natürlich nur HWinfo64 und die Daten vom Netzteil zur Verfügung.
Somit ist der Löwenanteil von den 30% Aufschlag bei einer RX6950XT der Verlust an den Spannungswandlern.Das bedeutet wiederum das man gar nicht Pauschal sagen kann +30%.Wenn die Spannungswandler kaum Arbeiten müssen und Kühl bleiben können es auch nur 10-15% sein,wenn ich Aufdrehe auch 40%+.Ich komme bei einem Standbild z.b. mit 230Watt PPT dann z.b. auf rund 270Watt ohne Lüfter,da Wasserbock.Abgezogen ist dabei aber auch nicht der Unterschied zwischen Idle und dem "Spielezustand" sprich SSD,Lüfterdrehzahl,Ram und was sonst noch Aktiv wird gegenüber Idle.
Hmmmm wie kommt man dann an Relativ sichere Daten beim Optimieren ohne Dein Testaufbau und die Datenblätter?!

TDC wird doch im Wattman mit geändert für GPU und SOC.......
Min ist mein 230Watt Profil "Leistungsgrenze -10%"
Da habe ich GPU 288A und SOC 49,5A
Max ist mein 293Watt Profil "Leistungsgrenze +15%"
Da habe ich dann GPU 368A und SOC 63,25A

unknown_2022.05.17-16.19.png

Aber selbst wenn das Falsch ausgelesen wird was nicht sein kann,da die Daten mit den Einstellungen im MPT früher auch übereinstimmten,komme ich nicht mal an die 288A bei 325Watt....
Far Cry 6_2022.05.16-18.27.png
 
Zuletzt bearbeitet :
Es gibt die Spannungswandlerverluste, die von der Last, den Temperaturen der MOSFETs und er Spulen abhängt, dazu kommen die ganzen Teilspannungen, die über normale Buck-Controler ohne Auslesemöglichkeit erzeigt werden, die MCU, die Lüfter, die Tracks der Platine und und und...

Genau das war ja die Absicht des Artikels mal zu erklären, dass es bei AMD keine verlässliche Pauschalaussage gibt bzw. warum es die gar nicht geben kann und dass leider wirklich sehr viel Unwissen im Umlauf ist. Ich kann mir die Datenblätter der Komponenten einer ganz bestimmten Karte hernehmen und ziemlich gut hochrechnen, was nebenher noch so verbraten wird. SPS und DrMOS sind meist brauchbar, aber die billigen On Semi DrMOS / Dual MOSFETs sind auch meist Müll, fast so schlimm wie diskrete High- und Low-Sides. Die Innenwiderstände kann man ja in Erfahrung bringen, da muss man nicht mal die Kurven haben, um Murks zu erkennen :D

Und was Deine Software-Werte aussagen: nichts.
Das Problem ist, dass die Tools nur grobe Intervalle auslesen und dass die Vorgaben im MPT auch nur Maximalwerte sind, die selten erreicht werden, weil fast immer die Telemetrie vorher eingreift. Man muss es im Zusammenhang sehen. Bitte vergesst diese Softwarelösungen, man betrügt sich damit echt nur selbst.
 
Es gibt die Spannungswandlerverluste, die von der Last, den Temperaturen der MOSFETs und er Spulen abhängt, dazu kommen die ganzen Teilspannungen, die über normale Buck-Controler ohne Auslesemöglichkeit erzeigt werden, die MCU, die Lüfter, die Tracks der Platine und und und...

Genau das war ja die Absicht des Artikels mal zu erklären, dass es bei AMD keine verlässliche Pauschalaussage gibt bzw. warum es die gar nicht geben kann und dass leider wirklich sehr viel Unwissen im Umlauf ist. Ich kann mir die Datenblätter der Komponenten einer ganz bestimmten Karte hernehmen und ziemlich gut hochrechnen, was nebenher noch so verbraten wird. SPS und DrMOS sind meist brauchbar, aber die billigen On Semi DrMOS / Dual MOSFETs sind auch meist Müll, fast so schlimm wie diskrete High- und Low-Sides. Die Innenwiderstände kann man ja in Erfahrung bringen, da muss man nicht mal die Kurven haben, um Murks zu erkennen :D

Und was Deine Software-Werte aussagen: nichts.
Das Problem ist, dass die Tools nur grobe Intervalle auslesen und dass die Vorgaben im MPT auch nur Maximalwerte sind, die selten erreicht werden, weil fast immer die Telemetrie vorher eingreift. Man muss es im Zusammenhang sehen. Bitte vergesst diese Softwarelösungen, man betrügt sich damit echt nur selbst.
Danke, sehr guter Text für das Verständnis !

Es sind ja auch die Tools die FPS (Also ein Frame pro 1000ms) auslesen.
Gleiches Prinzip, nur auf der Falschen Metrik hochgerechnet...
 
@Igor Wallossek
Deswegen hab ichs mal genauer genommen.
Rechner Kalt gestartet,Energiesparoptionen auf Energiesparen,rund 5Min gewartet und Screen gemacht.
PSU zeigt min 82Watt,CPU 22,7Watt.PPT der Grafikkarte 229,5Watt.
Energiesparoptionen auf Höchstleistung gestellt.
Spiel gestartet und gewartet bis es sich eingependelt hat und wieder Screen.Wird ja alles im Spiel angezeigt.
PSU zeigt 388Watt,CPU 59,4Watt.Ziehe ich jetzt die 22,7Watt Idle von den 59,4Watt ab komme ich auf +36,7Watt an der CPU.
Jetzt werden von den 388Watt die Idle 82Watt ab gezogen und die 36,7Watt von der CPU,somit komme ich auf 269,3Watt für die Grafikkarte.
Hab Oben aber Idle der Grafikkarte vergessen mit 8,44Watt....Dann sind es 277,75Watt,somit 48,25Watt mehr als PPT oder rund 21% und das Optimiert.
Die frage ist nur was verbraucht der Rest jetzt im Spiel,Windows auf SSD,Spiel auf ner weiteren SSD,was verbraucht das Mainboard mehr,die 4x8GB Ram.......Wenn ich für das Restliche System pauschal 8Watt nehme komme ich auf die rund 270Watt bei rund 18% Optimiert.

Ohne Optimierung dürfte das schon ziemlich in deine Richtung gehen.

Bei PPT 260Watt komme ich dann auf rund 307Watt.

Bei PPT 293Watt sind es dann rund 350Watt.

Wenn ich das dann mit Deiner PowerColor Liquid Devil AMD Radeon™ RX 6900 XT Gaming und PPT289Watt vergleiche kommt das gut hin.


unknown_2022.05.17-16.18.png
Need for Speed™ Payback_2022.05.17-16.27.jpg
 
Zuletzt bearbeitet :
Och komm @Igor Wallossek
Ich geh davon aus dass man solche Schaltregler auch diskret aufbauen kann. Wird aus meiner Sicht zwar dann ein etwas größeres lustiges "Transistorengrab", aber was solls ;)

@Rest
Bei den MosFets ist in diesen Schaltungen meiner Meinung nach der Wert RDSon relativ wichtig. Dieser sagt aus, wie groß der Widerstand im leitenden Zustand ist. Da gilt die einfache Regel:" Je weniger desto gut".

Meiner Meinung nach sollte man da nie auf irgendwelche tollen Bezeichnungen gehen, sondern nach den Werten/Kurven in den Datenblättern. Und bei jedem Wert oder Kurve immer beachten unter welchen Bedingungen die gelten.
 
Zuletzt bearbeitet :
Dann sind es 277,75Watt,somit 48,25Watt mehr als PPT oder rund 21% und das Optimiert.
Das passt etwa, das ist eine seriöse Kalkulation. Nicht auf den Watt genau, aber bei einer ASIC von 230 Watt wird man mit rund 40-50Watt je nach Modell rechnen können, eine Referenz sollte sogar unter 40 Watt kommen dabei. Chip und SpaWas sind dabei ja gechillt unterwegs.
 
Och komm @Igor Wallossek
Ich geh davon aus dass man solche Schaltregler auch diskret aufbauen kann. Wird aus meiner Sicht zwar dann ein etwas größeres lustiges "Transistorengrab", aber was solls ;)
Man könnte es durchaus, aber was dagegen spricht ist der Umstand, dass auch Platz knapp ist und die guten N-Channel MOSFETS einzeln fast schon so teuer sind wie so ein Dual-N-Channel. Wer heute was diskret auf die Grafikkarte baut, macht das eigentlich nur, um den billigsten Ramsch zu verdrücken, weil Cost-Down gefordert wurde. Gern mit On Semi oder A&O. :D

Bringt man alles in ein einziges Package, gern auch noch mit dem Treiber, dann spart man ja sogar Kosten, wenn man sich auf dem gleichen Level bewegen will.
 
Yup, ich gehe auch davon aus, dass man sich da nicht wirklich was spart.

Aber ich verstehe deine Ablehnung gegen z.B. OnSemi (schreibt man zusammen :) )nicht. Es kommt immer darauf an,das passende für den Einsatzzweck zu nutzen und nicht wer es produziert.
 
Da die Firma On Semiconductor heißt und ich ein schreibfauler Sack bin, hat sich das so eingebrannt. Manche schreiben auch onsemi, OnSemi oder ONSEMI. Die selbst schreiben es übrigens immer aus :D

On Semiconductor bedient nun mal größtenteils die Billo-Schiene der Grafikkartenhersteller, auch bei den "Generika". Man bekommt auch Brauchbares, zahlt dann aber auch wiederum mehr. Aber die haben echt ein Wühltisch-Portfolio, das andere nicht haben. Damit kann man allerdings auch gut Geld verdienen :)

Ich kenne aber auch die RMA Quoten diverser Komponenten auf so mancher Karte und da ist selbst Gigabyte mittlerweile wohl lieber bei A&O unterwegs, obwohl die Cost Down zur Religion erklärt haben. Wobei man aktuell eh nehmen muss, was man bekommt :D
 
BTW:
Ich habe vorhin mit einem Ex-Kollegen aus den Staaten gechattet, der heute den "Executives" bei AMD meinen Artikel und die Intention erklären durfte und dass kein böser Wille dahinter steckt. Man liest das also durchaus :D

Der Kollege ist mittlerweile im Team Red etwas weiter aufgestiegen. Ja, Netzwerke können schon helfen ;)
 
@Igor Wallossek
Die nennen sich anscheinend seit irgendwann letztes Jahr nicht mehr On Semiconductor sondern onsemi 😁

Edit:
Schätze mal in meinem Bereich landet man zwangsläufig bei dem höherwertigen Zeug. Das ist dann wieder der Punkt an dem man froh ist, doch keine Consumerware zu entwickeln.
 
Zuletzt bearbeitet :
Das passt etwa, das ist eine seriöse Kalkulation. Nicht auf den Watt genau, aber bei einer ASIC von 230 Watt wird man mit rund 40-50Watt je nach Modell rechnen können, eine Referenz sollte sogar unter 40 Watt kommen dabei. Chip und SpaWas sind dabei ja gechillt unterwegs.
Ja meine ich auch,morgen mal noch nen Lauf mit dem normalen Bios und Default machen und dann mal sehen wieviel % man gut aufschlagen kann und um wieviel % die Optimierung besser ist.
 
Das ist von Karte und Modell zu anderen nie gleich. Siehe mein Vergleich der 6950XT, 6750XT und 6650XT. Tut Euch doch einfach den Gefallen und kauft den PMD für lächerliche 45 USD. Dann seht Ihr es ganz genau und müsst nicht so viel Lebenszeit mit Logs vergeuden. :)
 
Das erklärt auch warum mein 750Watt netzteil bei ~540Watt TGP ausgestiegen ist : )
Das sind 700Watt bei 30%. Alleine GraKa.
Du kommst dann in Bereiche >> Norm der Spawas+2x8pin und wo auch beim NT die Kondensatoren (HoldUpTime) ne Rolle spielen!
(wie die SpikeStandhaftigkeit gestaffelt wird bei der NT-Auslegung, ist demnächst genauer geregelt ... siehe Artikel zu dem ATXv3.0-Tool)

Gurdis NT wird sicherlich auch nur den geglätteten avg.Wert auslesen.
aber
Interessant war der Treiberunfall von AMD letzten Herbst als ASIC ungfähr den 20ms-Spike angezeigt hat, who knows.
(vllt. verwendet die Graka intern diese Werte zur Regellung)

zurück zum konkreten Bsp:
Es gibt groooße Unterschiede zw. der üblichen average - Messung und den bösartigen Spikes:
(weils gerade passt im Anhang die Werte zur 6950trio, ... avg.400W gesamt zeigt halt net das gaaanze Problem)
 

Anhänge

  • 6950avgTotal 400W.jpg
    6950avgTotal 400W.jpg
    275,1 KB · Aufrufe : 9
Zuletzt bearbeitet :
Das ist von Karte und Modell zu anderen nie gleich. Siehe mein Vergleich der 6950XT, 6750XT und 6650XT. Tut Euch doch einfach den Gefallen und kauft den PMD für lächerliche 45 USD. Dann seht Ihr es ganz genau und müsst nicht so viel Lebenszeit mit Logs vergeuden. :)
Wie soll ich denn damit den PEG abgreifen? Die 12V Schiene zu messen ist ja kein Thema bei meinem NT.
 
Riser Card schnappen und 6-Pin Adaper drangelötet. 10 Minuten Arbeit. Siehe mein Teaser-Bild vom Artikel.
 
Ich denke aber schon, dass man die Werte heranziehen komm um zu sehen, was diverse Optimierungen bringen. Am Ende zählt halt auch was das System aus der Steckdose zieht und hier kann ich mit einem Messgerät den Realen Verbrauch von meinem System prüfen und auch was verschiedene Optimierungen bringen.

Wenn ich jetzt eine Ref. 6800XT nehme, soll diese 300W verbrauchen im Bios sind aber 255W Power Limit eingetragen. Somit gehe ich davon aus, dass hier die 45W für Nebenverbrauchen gedacht sind. Wenn ich also meine Ausleswerte der GPU nehem und 50W dazu rechne, müsste ich dennoch grob den Verbrauch der GPU haben.

Am Ende zählt dennoch für mich nur, wie Kühl die Karte bleibt und was Schlussendlich aus der Steckdose gezogen wird.
 
Schönes Build, da merkt man förmlich wie kühl der PC läuft.
 
Oben Unten