Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

Schönes Build, da merkt man förmlich wie kühl der PC läuft.
Aber ohne Platz und Teststation ist es schwierig wie Igor zu Testen.Das System mit ner RX6700XT schaut fast genauso aus vom Sohnemann, da kannst dann auch nicht mal eben um bauen.
Deswegen bleibt nur die Alternative über Software und da muss man dann mit Hilfe von Igor sehen wie man auf das genauste Ergebnis kommt.
 
Vllt. mal noch ne Anmerkung zu dem mittleren geglätteten Verbrauchswert.
Ich stell mir Das so vor, das bei Dips die Kondensatoren von NT+Graka geladen werden und dann bei Spikes zusätzlich
verfügbare Energie wieder abgeben, so das i.M. halt trotzdem die Energierechnung@Steckdose beim Stadtwerk stimmt.
 
Riser Card schnappen und 6-Pin Adaper drangelötet. 10 Minuten Arbeit. Siehe mein Teaser-Bild vom Artikel.
Ok verstehe, das lohnt sich aber kaum für mich. Evtl. mach ich mir da mal was fertig, aber am Ende muss ich sagen dass das den Aufwand und die kosten kaum lohnt.Ich kann mit dem Monitoring der Netzteile,vor allem durch die Aufteilung der 12V Rails eigentlich ziemlich exakt den Gesamtverbauch der Karte bestimmen. Ich habe sowohl die 3,3V die ausgelesen werden, die separate 12V Schiene exklusiv für die GraKa und anhand deiner Messwerte aus den Artikeln und den anderen Messwerte kann ich den Rest extrapolieren- Auf 5 Watt kommt es mir da nicht an muss ich sagen,zudem habe ich schon soviele Erfahrungswerte mit den Karten dass ich meist grob überschlagen kann anhand des Modells und des Chips wie hoch die Differenz zur ASIC ist.

Trotzdem, aufschlussreicher Artikel. Vor allem bei den 3,3V konnte ich das vorher nicht klar zuordnen. Das hilft.
 
Also das von AMD scheint schon fast ne Verarsche zu sein...
Beinahe jedes Review scheint die TGP als TDP zu nehmen und da HWiNFO auch nur die TGP angibt, fällt jeder schön drauf rein...
Jeder schreibt dann also AMD ist effizienter als Nvidia und das stimmt dann ja am Ende gar nicht mehr so wirklich..

Vorallem wenn AMD dann noch sowas raushaut:
RX6950XT 22% bessere FPS pro Watt? Die Karte verbraucht doch fast 100W mehr. Bei nur 15% mehr FPS, bezogen auf AMDs Slide wäre das eine schlechtere Effizient als Nvidia...
Vorallem schreibt AMD was von TBP im Slide und nicht TGP!!!! Was ja völlig gelogen wäre.
 
Also das von AMD scheint schon fast ne Verarsche zu sein...
Beinahe jedes Review scheint die TGP als TDP zu nehmen und da HWiNFO auch nur die TGP angibt, fällt jeder schön drauf rein...
Jeder schreibt dann also AMD ist effizienter als Nvidia und das stimmt dann ja am Ende gar nicht mehr so wirklich..

Vorallem wenn AMD dann noch sowas raushaut:
RX6950XT 22% bessere FPS pro Watt? Die Karte verbraucht doch fast 100W mehr. Bei nur 15% mehr FPS, bezogen auf AMDs Slide wäre das eine schlechtere Effizient als Nvidia...
Vorallem schreibt AMD was von TBP im Slide und nicht TGP!!!! Was ja völlig gelogen wäre.
Wir wissen halt nicht was sie wie gemessen haben.
 
Sehr schöner Artikel.

Bei meiner Vega Karte habe ich das auch schon länger vermutet. Aber egal man gewöhnt sich dran.:) Undervolten und zur Not etwas Takt herunter, Frame Limiter an und dann ist es akzeptabel. Würde ich bei einer Nvidia Karte genauso machen.
 
Wie schon geschrieben, gestern Abend hat mich einer meiner Kontakte aus dem AMD HQ angetextet, weil die „Executives“ das alles genau hinterfragt haben und meine Intention wissen wollten. Da hat ganz offensichtlich jemand kalte Füße bekommen 😂

Aus Sicht des Anwenders ist AMDs Lösung sogar besser, weil man schöner übertakten kann. Nur das mit den Tools ist halt Käse. Die Lösung von NV ist RMA freundlicher, weil die fast alles ausschließt
 
Ich denke die Leute müssen eben langsam mal verstehen, dass Messen etwas anderes ist als mal eben ein paar Tools auszulesen.

Was den Verbrauch angeht sollte man sich aus meiner Sicht nur auf ernst zu nehmende Messungen mit externen Equippment verlassen. Und selbst da kann viel schief gehen.
 
@ Gurdi
Es gibt 180 Grad Stecker für die Stromkabel der Grafikkarte. Die schaffen ordentlich Platz und machen das Problem mit den gedrehten/geknickten Kabeln obsolet. Für eine Handvoll Euro. Wenn gewünscht/erlaubt, kann ich ein Beispiel verlinken...
 
Also das von AMD scheint schon fast ne Verarsche zu sein...
Beinahe jedes Review scheint die TGP als TDP zu nehmen und da HWiNFO auch nur die TGP angibt, fällt jeder schön drauf rein...
Jeder schreibt dann also AMD ist effizienter als Nvidia und das stimmt dann ja am Ende gar nicht mehr so wirklich..
Naja, das kommt halt auch immer auf die Karten an. Beim Launch hat Igor ja die Referenzkarten von AMD vermessen, die waren ziemlich exakt bei dem, was AMD angegeben hat. Beim Test der 3080TI war die 6900XT in 4k z.B. bei knapp über 300W (grob 303W-305W), die 3080TI bei grob 335W-340W (die hatte deutlich mehr Schwankung über die einzelnen APIs/Engines). Insofern sind die Werte von Azor natürlich etwas cherry-picked, aber nicht unrealistisch. Die Board Partner Karten (wie die hier durchgemessene MSI) sind in der Regel deutlich über dem Sweet Spot, weil die Partner einfach über den Verbrauch versuchen, sich 1-2% Vorsprung vor der Konkurrenz zu holen.

Und wenn eine Review den Unterschied zwischen TGP und TBP nicht kennt, dann muss man sich als Leser eher fragen, ob man die Zeit da investieren sollte.
 
Wie schon geschrieben, gestern Abend hat mich einer meiner Kontakte aus dem AMD HQ angetextet, weil die „Executives“ das alles genau hinterfragt haben und meine Intention wissen wollten.
Wenns letzten Endes dazu führt, das AMD die Spikes besser kontrolliert ala 3090Ti wäre es wünschenswert
und
wenn Dein Artikel der Denkanstoss dazu ist, dann können User mit schwachem NT davon profitieren, ... dann in der
nächsten Graka-Gen und mit dem neuen NT-Standard.
 
@ Gurdi
Es gibt 180 Grad Stecker für die Stromkabel der Grafikkarte. Die schaffen ordentlich Platz und machen das Problem mit den gedrehten/geknickten Kabeln obsolet. Für eine Handvoll Euro. Wenn gewünscht/erlaubt, kann ich ein Beispiel verlinken...
Danke fürs Angebot.Hab kurz überlegt ob ich mir den Elmo anschaffe, aber wie gesagt, das rentiert nicht für mich. Ich kann via Tool auslesen was relevant ist, 5Watt mehr oder weniger spielen keine Rolle im Grunde für mich. Umständlich umbauen dafür ist mir einfach zu nervig.
 
Na das die Ausgelesen Leistungsaufnahme nicht stimmt, sage ich schon lange. Aber komischerweis glaubt es niemand. Ich nutz schon lange den Stuff von Elmor. Und kann das nur bestätigen. Grade bei Amd passt das nie
 
Na das die Ausgelesen Leistungsaufnahme nicht stimmt, sage ich schon lange. Aber komischerweis glaubt es niemand. Ich nutz schon lange den Stuff von Elmor. Und kann das nur bestätigen. Grade bei Amd passt das nie
Jeder mit etwas Ahnung weiß dass lediglich die ASIC ausgelesen wird, von daher ist das jetzt keine bahnbrechende Erkenntnis.
 
Was mich eher stört, das Igor im ersten Review zur 6950 Trio im Durchschnitt 400W gesamt hatte und jetzt auf einmal 430+W.
(deswegen evtl. auch die Rückfragen von XYZ)

Net das ausversehen mit dem Shunt die Spannungsregelung gestört wurde und damit die Leistungsaufnahme verzerrt ala EVC2.
Shirkan im Luxx misst mit EVC2-Offset andere Werte beim Takt+Verbrauch als mit TDV-Offset, was Er damit erklärt, das der Treiber net
von dem Offset weiß und anders taktet als mit normaler Kurve+TDV.
 
Zuletzt bearbeitet :
Man kann bedenkenlos mit dem Evc die Reale Leistungsaufnahme messen . Und zwar viel genauer als Amd Gpu-z Masi Afterburner und co es tut. Auch liegt niemals die volle Spannung von 1.175 Volt bei den 69xx an . Reale Spannung kann via Hwinfo und der Evc Software ganz gut gemessen werden . Ausserdem dürft Ihr nicht vergessen das Ram und Co ja auch noch leistung brauchen. Der PMD liest die Reale leistungsaufnahme nur über die Pci-e Steckern aus . Hinzu kommt ja noch was neben den 3.3 und 5 Volt sowie der Pci-e slot gesaugt wird. Das ganze kommt ja dann noch Ontop.

Ich selbst habe schon bei 3dmark Timespy im Gt 2 1000 Watt in der Spitze gemessen . Dort war die Karte allein an ein em Seasonic Prime 1300 Watt mit dem PMD. Hinzu kamen dann noch ca 75 Watt aus dem Pci-e Slot
 
Der Vram(vddci+mvdd) + SOC ist bei TGP dabei, der Cache (fclk) ist im Core dabei, net explizit.
(gibts als Einzelwerte in HWinfo)

Mal abgesehen von evtl. net im selben Intervall ausgelesen, ist sogar noch 5W Luft für Videoausgang o.ä. im Bsp. siehe Anhang.
(sollten eigentlich die current Values sein und hoffentlich aus einer Messung)
 

Anhänge

  • TGP vs Einzelwerte.jpg
    TGP vs Einzelwerte.jpg
    53,8 KB · Aufrufe : 5
Zuletzt bearbeitet :
Na das die Ausgelesen Leistungsaufnahme nicht stimmt, sage ich schon lange. Aber komischerweis glaubt es niemand. Ich nutz schon lange den Stuff von Elmor. Und kann das nur bestätigen. Grade bei Amd passt das nie
Natürlich glaubt DIR keiner weil es nicht stimmt,hat Igor ja schon nachgewiesen das z.b. die RX6900XT Rev. bei rund 305Watt liegt.
Was soll da jetzt nicht stimmen,die 5Watt?!
 
Das ist doch piep. Wenn Du der Karte freien Spielraum und den nötigen Tackt gibt zieht sie auch . Ich rede hier nicht von Stock Settings .

Stellst Du die Logtime auf 20 ms dann saugt ne 6900xt mit stocksetting im Ts bis zu 530 watt in der Spitze .

Und das hat Igor auch damals bei der Netzteil Empfehlung mit einbezogen .
 
Oben Unten