Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

So ist es doch immer: Jeder schaut, wer den längsten Balken hat.
 
Nein, das kann er nicht, weil jede Karte andere Werte produziert. Chipabhängig, temperaturabhängig, komponentenabhäng usw. und m.E. ist das von AMD auch gar nicht so gewollt.

ES KANN KEINE EINEHEITLICHE FAUSTFORMEL GEBEN UND WIRD ES AUCH NICHT
Damit disqualifizierst deine Eigenen Test doch wieder,da sich jeder Test und jede Messung NUR auf diese eine Karte bezieht aber nicht auf Millionen anderer die weniger Verbrauchen können.

Und wenn man will ist es absolut einfach eine Faustformel zu erstellen,man muss es nur wollen.
 
Ich verstehe die Aufregung hier nicht. Es ist ja nicht so als ob es was neues wäre wie AMD auf die TGP kommt und das dies eben keine TBP ist.

AMD gibt hier (sehr genau!) an, was sie regeln, der Witz bei dieser ganzen Aufregung ist, nvidia regelt auch nicht mehr. ;)
Ist/wird bei nvidia die TBP überschritten, dann werden NICHT Lüfter, A-RGB, SpannungswandlerVerlust (wie auch!) ... geregelt, sondern schlicht "nur" das, was AMD als TGP bezeichnet.
Soweit mir bekannt wird den AIBs auch nicht verboten die TBP zu erfassen und dem User zugänglich zu machen, nur geregelt würde mit diesem "Wert" damit immer noch nichts.

Was CapFrameX mit ihrem "AMD_TBP_schätzung" Witz da fabrizieren ist sowieso lächerlich.
 
Und wenn man will ist es absolut einfach eine Faustformel zu erstellen,man muss es nur wollen.
Es muss ja auch erst mal technisch möglich sein. Diejenigen, die behaupten es zu können, sind bis heute den Gegenbeweis nämlich schuldig geblieben. :D

Warum wohl messe ich jede Karte mit jedem Treiber neu? Weil es nun mal keine allgemeine Aussage gibt. Die Arbeit könnte ich mir doch locker sparen, wenn es so einfach wäre. Irgendwas zusammenzumultiplizieren ginge sicher, aber das wäre nun mal unehrlich. Genau das werde ich nicht tun.

Wenn ich mich mit Martin über sein HWInfo unterhalte und das, was er den Sensoren glaubt entnehmen zu können - wie oft schon habe ich für ihn dann erst mal gegengetestet, um zumindest zu wissen, was da angeblich ausgelesen wird. Das einzig Verlässliche, und das ist ja mittlerweile drin, sind die Leistungsangaben der Spannungswandler (DCR). Der Rest sind irgendwelche Register, die zu irgendetwas passen könnten. :D

..sondern schlicht "nur" das, was AMD als TGP bezeichnet.
Das ist nicht ganz korrekt. Der Arbitrator bei Power Tune funktioniert etwas anders, aber zumindest ähnlich. Geregelt werden bei AMD immerhin VDDC_GFX, VDDCI und SoC (Mem bleibt oben), bei NVIDIA ist es nur NVDDC und ggf. MSVDD bei den 3080ern und 3090ern (auch ohne Mem). Auch die Spannungsabstufung ist komplett unterschiedlich, wobei es bei beiden Karten um die Verlustleistung geht, die durch eine Taktabsenkung in Verbindung zur Spannung reduziert wird. Und NV ist zudem clever genug, auch die Power Estimation kommender Aufgaben über den Treiber etwas genauer mit einzubinden. :)
 
Sorry aber was soll das Ziel dieser Streitigkeiten sein?

AMD gibt einen Gesamtverbrauch an, welchen man nicht mit Software nachprüfen kann, dennoch duch Reviewer geprüft wurde und für Richtig befunden wurde.
Boardpartner, optimieren nur bei der Spannungsversorgung, und hier wird mal besser mal schlechter gearbeitet als AMD Referenz, was zu Abweichungen führt.
Mit den Auslesewerten, kann man dennoch noch seine Resultate von Spannungs- und Taktänderungen prüfen. OK, wenn die Karte kühler und weniger TGP hat, sollten die Spannungswandler auch effizienter Arbeiten und hier noch etwas ersparnis bringen.

Mal ehrlich, bei der CPU sehen wir doch auch nur die Verbrauchswerte der CPU selbst und nicht mit den Mainboard zusammen. Hat sich schon irgendwer gross Gedanken über unterschiedliche Verbräuche der Mainboards gemacht?
 
Es muss ja auch erst mal technisch möglich sein. Diejenigen, die behaupten es zu können, sind bis heute den Gegenbeweis nämlich schuldig geblieben. :D

Warum wohl messe ich jede Karte mit jedem Treiber neu? Weil es nun mal keine allgemeine Aussage gibt. Die Arbeit könnte ich mir doch locker sparen, wenn es so einfach wäre. Irgendwas zusammenzumultiplizieren ginge sicher, aber das wäre nun mal unehrlich. Genau das werde ich nicht tun.

Wenn ich mich mit Martin über sein HWInfo unterhalte und das, was er den Sensoren glaubt entnehmen zu können - wie oft schon habe ich für ihn dann erst mal gegengetestet, um zumindest zu wissen, was da angeblich ausgelesen wird. Das einzig Verlässliche, und das ist ja mittlerweile drin, sind die Leistungsangaben der Spannungswandler (DCR). Der Rest sind irgendwelche Register, die zu irgendetwas passen könnten. :D
Fakt ist doch wie DU selber in deinen Messungen zeigst das AMD seine Karten regelt und zwar auf die Watt die sie mit TDC,Karl August oder sonst was bezeichnen was MICH als Leser und Käufer 0 Interessiert.Mich interessiert was MICH Grafikkarte XY an Strom pro Stunde kostet,irgend welche Bezeichnungen sind Uninteressant.
Fakt ist auch das eine Ref einen Verbrauch von rund 300Watt hat wie es AMD vorgegeben hat.
Fakt ist auch das das ausgelesene PL im MPT oder HWinfo64 nicht den 300Watt von AMD entspricht.Das PL setzt sich aus den schon oft genannten Teilen zusammen VDDC_GFX, VDDCI und SoC.Da Ich noch keine PL von der Ref gesehen habe gehe ich einfach mal von 275Watt aus.
Somit verbraucht die Ref über die Spannungswandler,Lüfter,Platine.....25Watt +- fertigungs Toleranzen.

DU machst eine Raketenwissenschaft aus deinen Tests,bist aber nicht in der Lage einen simplen und einfachen Test zu machen der so ausschaut?!

AMD RX 6900XT Ref , HWinfo64 zeigt die PL275Watt an,deine Messstation zeigt 300Watt an.
PL 275Watt + 25Watt Rest = 300Watt was AMD auch angibt und womit man rechnen kann.

PowerColor Radeon RX 6900 XT Red Devil, 16GB GDDR6, HDMI, 3x DP schaut Optisch recht normal aus.
PL liegt bei 281Watt und deine Messstation zeigt 315Watt an.
Rechnet man auf 275Watt runter kommt man auf 309Watt.Somit 3% mehr als die Ref + Übertaktung durch das anheben des PL.

Jetzt hast noch ne andere RX6900XT mit beschissenen Spawas und und und.
PL liegt bei 285Watt und deine Messstation zeigt 331Watt an.
Rechnet man wieder runter auf 275Watt kommt man auf 321Watt.Somit 7% mehr als die Ref + Übertaktung durch das angehobene PL.

RGB und schlag mich tot ist geil,somit:
Sapphire Toxic Radeon RX 6900 XT Air Cooled, 16GB GDDR6, HDMI, 3x DP
PL liegt bei 325Watt und deine Messstation zeigt 405Watt an.
Rechnet man wieder runter auf 275Watt kommt man auf 355Watt.Somit fast 19% mehr als die Ref + Übertaktung durch das angehobene PL.

Nimmt man jetzt noch ne ASUS ROG Strix LC Radeon RX 6900 XT Top dazu dann landet man durch die Wasserpumpe,RGB.... wahrscheinlich bei 25%.

Somit kann man ohne Probleme Schreiben das "Normale" Karten rund 3-7% mehr Verbrauchen durch Spawas,Lüfter..... als die Ref Karte zuzüglich der PL Anhebung durch die Bordpartner.

Greift man zu RGB und Klim Bim ist man schnell bei 20-25% zuzüglich der PL Anhebung.

Somit kann man sich als Leser,Käufer wenigstens ein Bild machen was die Karten mehr verbrauchen können.

Das gleiche mit NV.

Und schon hast recht genaue Vergleichsdaten womit jeder etwas anfangen kann.
 
Fakten, Fakten, Fakten ... und an die Leser denken.
 
Meine Güte... Ich schrieb zwischen 20% und 30%, je nach Bauelementen und Ausstattung, sowie Temperatur und Lastkurve. Genauer geht es nun mal nicht. Wenn die Hersteller während der Produktion schon mal die DrMOS wechseln, sind das oft auch bis zu 5 Watt und mehr Unterschied. Für Frickeldreck bin ich nicht zu haben, sorry. Dann nutzt bitte CapFrameX und seid glücklich, auch wenn es dort meilenweit daneben liegt. Nicht meine Baustelle. Es geht einfach nicht. Wegen +/- 10 Watt sage ich ja nichts, aber da kommt man selten hin.

Warum sollte ich jetzt Tonnen von Karten aller Chipgrößen messen, vergleichen und statistisch was ausrechnen, was eh für die Tonne ist? Zahlt mir das wer? Ich brauche sowas nicht. Wer es genauer wissen will, kauft sich für einen schmalen Taler den PMD, lötet sich in 10 Minuten eine Riser dran und ist glücklich. Der Rest rätselt halt weiter rum oder kauft NVIDIA. Ich bin doch keine Nanny. :)
 
Ich gebe es auf. Ihr vermengt immer noch ...
Das glaube ich eher net, ... die User, speziell Casi, die nach Differenzen in Deinen 2 Reviews gefragt haben, wussten schon Warum.

belabel bitte einfach in Zukunft die Grakas, wenns CustomModelle sind und schreib net einfach 6900 hin

Das die gängigen Tools über HWinfo nur ASIC/TGP auslesen ist nach m.E. allen belesenen Leuten klar und nützlich.(x)
GPU-Z kann man sich ganz sparen, zeigt nur den AMD-OverlayValue an.
Warum AMD oder HWinfo den Wert ASIC nennt ist mir eigentlich schnurz. (und warum TGP minimal 1...2 Watt anders ist)

(x) kann ja Jeder im Hinterkopf XX Watt zur TGP dazu addieren
 
Zuletzt bearbeitet :
Meine Güte... Ich schrieb zwischen 20% und 30%, je nach Bauelementen und Ausstattung, sowie Temperatur und Lastkurve. Genauer geht es nun mal nicht. Wenn die Hersteller während der Produktion schon mal die DrMOS wechseln, sind das oft auch bis zu 5 Watt und mehr Unterschied. Für Frickeldreck bin ich nicht zu haben, sorry. Dann nutzt bitte CapFrameX und seid glücklich, auch wenn es dort meilenweit daneben liegt. Nicht meine Baustelle. Es geht einfach nicht. Wegen +/- 10 Watt sage ich ja nichts, aber da kommt man selten hin.

Warum sollte ich jetzt Tonnen von Karten aller Chipgrößen messen, vergleichen und statistisch was ausrechnen, was eh für die Tonne ist? Zahlt mir das wer? Ich brauche sowas nicht. Wer es genauer wissen will, kauft sich für einen schmalen Taler den PMD, lötet sich in 10 Minuten eine Riser dran und ist glücklich. Der Rest rätselt halt weiter rum oder kauft NVIDIA. Ich bin doch keine Nanny. :)
Dann darfst dich auch nicht darüber aufregen das HWinfo64 TGP AMD mit NV TGP oder wie auch immer das dann da steht verglichen wird,das bist dann selber schuld.
Und es sind keine Tonnen von Karten,sondern lediglich ausstattungs Varianten und die Messungen zeigen was die Ausstattungen für Auswirkungen auf MEINEN Stromverbrauch haben.
 
Ich kann Igor da gut verstehen.
Gehöre selbst zum Messvolg, und da gibst du mit so vielen unsichereichten nur ungern Glaskugel werte raus.
Denn du kannst dir sicher sein das dich einer drauf festnageln will.

Finde 20%-30% keinen schlechen anhaltspunkt. Kann man doch gut mit arbeiten.

Gut in die Diagrammen geht bestimmtz noch ein CM ( Custom Model ) oder OCM um verwirrungen zu vermeiden.
 
Wärme macht so viel aus, je nach Karte, Case und Raumtemp sind das gut und gerne alleine schon bis zu 20 Watt. Alles nur Wischiwaschi. 😜
Warum wohl zahle ich so viel Strom, um einen klimatisierten Raum zu garantieren 😎
 
Ich kann Igor da gut verstehen.
Gehöre selbst zum Messvolg, und da gibst du mit so vielen unsichereichten nur ungern Glaskugel werte raus.
Denn du kannst dir sicher sein das dich einer drauf festnageln will.

Finde 20%-30% keinen schlechen anhaltspunkt. Kann man doch gut mit arbeiten.

Gut in die Diagrammen geht bestimmtz noch ein CM ( Custom Model ) oder OCM um verwirrungen zu vermeiden.
Dann darf ich aber nicht schreiben das AMD oder NV seine Vorgegebenen Verbräuche nicht einhält wie es Igor leider immer macht.
Hänge ich noch Lüfter an die Grafikkarte oder ne 5V RGB Strippe misst das Igor auch mit und schon verbraucht die gleiche Karte auf einmal 20Watt mehr.AMD und NV regeln ihre Karten genau nach Vorgabe,nur Igor misst das noch mit was Zusätzlich von den Bordpartner mit drauf geklatscht wird und somit ist Seine Aussage falsch.Mein RGB zieht rund 25Watt was ich übers Mainboard angeschlossen habe,wenn ich das Aus machen verbraucht meine CPU und meine Grafikkarte dadurch aber auch nicht 1Watt weniger.Und auch das Mainboard verbraucht dadurch nicht 20Watt mehr,sondern es ist lediglich ein Anschluss der diese Funktionen ermöglicht.Wichtig ist es lediglich für die Netzteilgröße.
Die Unterschiede bei den Spawas durch Änderungen und und und sind dann auch noch fraglich wie groß und gravierend diese sind durch die Bordpartner.

EDIT: Und 20-30% entspricht nicht der Realität einem nicht übertakteten CM Modell mit einfacher Ausstattung.
 
Zuletzt bearbeitet :
Wärme macht so viel aus, je nach Karte, Case und Raumtemp sind das gut und gerne alleine schon bis zu 20 Watt. Alles nur Wischiwaschi. 😜
Warum wohl zahle ich so viel Strom, um einen klimatisierten Raum zu garantieren 😎
Um den Längsten zu haben,bzw. kürzesten. :p
So zu messen ist doch auch schon wieder Realitätsfremd,99,9% der Leute haben keinen Chiller,keine Klimaanlage oder nen Offenen Aufbau.
Selbst mit Wasserkühlung zu Testen ist schon so la la.
 
Zuletzt bearbeitet :
Um den Längsten zu haben,bzw. kürzesten. :p
So zu messen ist doch auch schon wieder Realitätsfremd,99,9% der Leute haben keinen Chiller,keine Klimaanlage oder nen Offenen Aufbau.
Selbst mit Wasserkühlung zu Testen ist schon so la la.
Und genau das lässt sich ja eben nicht einschätzen.

Er macht eine messung genau wie die andere, nur so kann man auch über längere zeiträume vergleichen.
Alles andere ist Unfug. Hier kannst du die messung von heute mit der von Winter 2019 vergleichen.

Genau so muss man arbeiten. Du kannst nicht alles abdecken was beim Nutzer passieren kann.
 
Kleine Korrektur zum Artikel:
AMD verbaut bei fast allen N21-Karten SPS von Infineon, bei den 6800 non-XT auch andere SPS und entsprechende Infineon-Controller. Das bedeutet, dass fast alle N21 besser ausgestattet sind als entsprechende NV-Karten, da diese oft mit super simplen DRMOS-Komponenten ausgerüstet werden, da sie die SPS schlichtweg nicht brauchen. Die Ineffizienz nehmen die meisten NV-Hersteller in Kauf aufgrund des Kostendrucks.

Beispiel Zotac 3090:
 
Und genau das lässt sich ja eben nicht einschätzen.

Er macht eine messung genau wie die andere, nur so kann man auch über längere zeiträume vergleichen.
Alles andere ist Unfug. Hier kannst du die messung von heute mit der von Winter 2019 vergleichen.

Genau so muss man arbeiten. Du kannst nicht alles abdecken was beim Nutzer passieren kann.
Da stimme ich dir voll zu.Da Igor aber sooooo genau ist sind solche Messungen eben nicht genau.
Er kritisiert ja auch Testseiten die am der Dose messen,aber genau DAS ist auch das was ICH am ende Zahle und nicht Sein System was durch die Kühlung schon wieder 50Watt weniger braucht.
Wenn man schon mit der Goldwaage ankommt , dann muss man aber auch alles drauf legen und sich nicht die besten Stücke raus suchen.
 
Kleine Korrektur zum Artikel:
AMD verbaut bei fast allen N21-Karten SPS von Infineon, bei den 6800 non-XT auch andere SPS und entsprechende Infineon-Controller. ...
Der NCP252160 ist so schlecht nicht. Zotac betreibt aber seit langem etwas Cost Down, da ist es auch nur eine Inductor DCR. Der Wirkungsgrad der NCP252160 ist kaum schlechter als bei den 60A-TDAs. Die Controller sind übrigens alle pin-compatibel, egal ob UPI, OnSemi, Realtek (Infineon) oder Monolith (der teuerste Scheiß. NV only). Das nimmt sich nichts. :)
 
Da stimme ich dir voll zu.Da Igor aber sooooo genau ist sind solche Messungen eben nicht genau.
Er kritisiert ja auch Testseiten die am der Dose messen,aber genau DAS ist auch das was ICH am ende Zahle und nicht Sein System was durch die Kühlung schon wieder 50Watt weniger braucht.
Wenn man schon mit der Goldwaage ankommt , dann muss man aber auch alles drauf legen und sich nicht die besten Stücke raus suchen.
Das stimmt so schlicht nicht. Oder hast du GENAU das gleiche System wie der "SteckdosenTester"? Vor allem Netzteil Effizienz.
 
Da stimme ich dir voll zu.Da Igor aber sooooo genau ist sind solche Messungen eben nicht genau.
Er kritisiert ja auch Testseiten die am der Dose messen,aber genau DAS ist auch das was ICH am ende Zahle und nicht Sein System was durch die Kühlung schon wieder 50Watt weniger braucht.
Wenn man schon mit der Goldwaage ankommt , dann muss man aber auch alles drauf legen und sich nicht die besten Stücke raus suchen.
Ne, willst du GraKas vergleichen oder Systeme?

Du kannst dir doch gut ein Bild davon machen. GraKa A zieht mehr wie GraKa B, wenn ich A einbaue verbrauche ich mehr an der Dose.

Wäre sicher eine Option System mit Graka A und B unter Norm bedingungen zu testen. Nur holst du dir da wieder Variablen rein ( AirFlow in Gehäuse XY das mit Grakas A lüfter anordnug besser geht).
 
Oben Unten