Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

Gib doch bitte mal nur einen Post dieses Threads an, in dem jemand behauptet, dass die AMD-Angaben bezüglich Verbrauch nicht stimmen.
Also das von AMD scheint schon fast ne Verarsche zu sein...
Beinahe jedes Review scheint die TGP als TDP zu nehmen und da HWiNFO auch nur die TGP angibt, fällt jeder schön drauf rein...
Jeder schreibt dann also AMD ist effizienter als Nvidia und das stimmt dann ja am Ende gar nicht mehr so wirklich..

Vorallem wenn AMD dann noch sowas raushaut:
RX6950XT 22% bessere FPS pro Watt? Die Karte verbraucht doch fast 100W mehr. Bei nur 15% mehr FPS, bezogen auf AMDs Slide wäre das eine schlechtere Effizient als Nvidia...
Vorallem schreibt AMD was von TBP im Slide und nicht TGP!!!! Was ja völlig gelogen wäre.

Ich denke schon, dass eine Abschätzung, wie sie Zer0strat macht, durchaus gute Näherungswerte liefern kann. Er schreibt ja selbst, dass es ihm nicht um eine genaue Messung geht, sondern nur um einen Wert, der besser auf den realen Verbrauch schließen lässt, als die, von AMD angegebene, TGP.
Und wo ist jetzt das Problem das die TBP nicht angezeigt wird.Anhand der TGP kann es sich jeder selber ausrechnen.
Mich ärgert, dass ich genau aufgrund der vermeintlich besseren Effizienz ne 6900XT gekauft habe. Ich bereue das jetzt nicht, weil ich die eh per Framelimiter einbremse, aber wenn ich sehe, dass die teilweise +30 % drüber liegen könnte, dann konterkariert das meine ürsprüngliche Kaufabsicht massiv.
Meine Rechnung war: 2080S > 275 Watt >> 6900XT > 350 Watt (eingebremst <300 Watt, also in etwas gleichauf bei deutlich mehr Leistung)
Nach den aktuellen Messungen (ausdrücklicher Dank an @Igor Wallossek ) ist das reine Augenwischerei. Oder doch nicht? Die 2080S hat demnach auch ca. 30% mehr gezogen... o_O
 
@Casi030 Hier hat der User wohl einfach nicht verstanden, dass Referenzkarten und Custom Karten unterschiedliche Verbräuche haben.

Das was AMD dort in dem Twitter Post angegeben hat, ist klar die TBP und nicht das, wass dir HWInfo ausgibt.(wobei sie hier bei der 6800XT gelogen haben, die hat 300W und nicht 280W, die restlichen Karten passen aber alle)
Das liegt bei der 6950XT bei 335W, die TGP sollte somit irgendwo bei 280W liegen.
Das was Igor hier gemessen hat, war ein Custom Design, natürlich verbraucht dieses auch deutlich mehr.


Und ich habe auch noch kein Review gesehen, bei dem die TGP als TDP genutzt wurde. Oder man verlinke mir ein einen Test eines namenhaften Reviewers, in dem steht, dass die 6900XT 255W verbraucht.

Und auch der zweite User hat es nicht verstanden. Wenn er sich ne 6900XT gekauft hat, die mit 300W TBP angegeben ist, dann verbraucht diese auch 300W und nicht +30% mehr, denn dass sich diese +30% auf die Differenz zwischen dem was der Treiber ausgibt und dem Kartenverbrauch beziehen, ist im Artikel mehr als deutlich beschrieben.

Und wo ist jetzt das Problem das die TBP nicht angezeigt wird.Anhand der TGP kann es sich jeder selber ausrechnen.
Eben nicht. Das beste was man tun kann ist, einen annähernd passenden Wert zusammenzurechnen, der mal passen kann, aber mal auch nicht.
Siehe unsere Formel. Die passt ganz gut für Karten unterhalb der 250W TGP.
Wenn ich mir Igors Testkarte nehme mit 330W TGP, dann kämen wir mit der Formel nur bei 385W raus und nicht bei über 400W, weil wir mit der Formel darauf bedacht waren, dne Standardbereich von 50-250W TGP möglichst genau abzudecken. Wenn wir so eine 330W TGP Karte mit unserer Formel kompatibel machen würden, dann würde sie für alle Karten mit 200W oder weniger deutlich zu hohe Werte ausgeben.

Du bräuchtest also im Grunde, wenn du es genau haben möchtest, für jedes einzelne Modell eine eigene Formel und selbst die kann nicht alle Einflüsse abdecken, die die TBP verändern könnten.

Und wenn ich gerade im Spiel bin und im Overlay meinen GPU Verbrauch sehen möchte, soll ich mir dann immer den Taschenrechner auf den Tisch legen und umrechnen?
Bei Nvidia ist das kein Problem, die bessere Frage ist also warum nicht einfach den kompletten Kartenverbrauch auslesen, statt rechnen zu müssen?
 
Zuletzt bearbeitet :
  • Like
Bewertungen: ***
Die Foristen schreiben ja nicht, dass die AMD-Angaben nicht stimmen, sondern, dass sie nicht für jeden intuitiv verständlich sind. AMD gibt die Board Power ja auf der AMD-Seite eindeutig für die Referenzkarten an. Bei den Board-Partnern findet man ebenfalls Angaben zum maximalen Verbrauch.
 
Wie gesagt, ich kriege mit ner 3090 mit 320 Watt (und zwar ECHTEN Watt) ziemlich sicher mehr raus, auch ohne RT, als mit ner 6900 oder 6950 (in 4k). Und genau das Gegenteil wird ja von AMD Freunden immer wieder behauptet. Man dreht sich die Wahrheit halt immer so hin, wie man sie braucht.
Das sind ja auch keine Behauptungen sondern Fakten.
Far-Cry-6-FPS-3840-x-2160-DX12-Ultra.png

RX6900XT PL 255Watt = TBP 300Watt bzw durch Wasserkühler etwas Drunter da Lüfter und RGB fehlen.
Far Cry 6_2022.05.14-00.34.png

RX6900XT PL 230Watt = TBP 275Watt was Real weniger ist.
Far Cry 6_2022.05.14-02.00.png
RX6900XT mit PL 260Watt was so langsam Richtung 310watt geht.
Das will ich sehen das DU mit 320Watt noch schneller bist.
Far Cry 6_2022.05.14-13.16.png
 
  • Like
Bewertungen: Thy
@Casi030 Und jetzt nochmal für alle Spiele und nicht dem einem RDNA2 Lieblingsspiel.
 
Zuletzt bearbeitet :
@Casi030 Hier hat der User wohl einfach nicht verstanden, dass Referenzkarten und Custom Karten unterschiedliche Verbräuche haben.

Das was AMD dort in dem Twitter Post angegeben hat, ist klar die TBP und nicht das, wass dir HWInfo ausgibt.(wobei sie hier bei der 6800XT gelogen haben, die hat 300W und nicht 280W, die restlichen Karten passen aber alle)
Das liegt bei der 6950XT bei 335W, die TGP sollte somit irgendwo bei 280W liegen.
Das was Igor hier gemessen hat, war ein Custom Design, natürlich verbraucht dieses auch deutlich mehr.


Und ich habe auch noch kein Review gesehen, bei dem die TGP als TDP genutzt wurde. Oder man verlinke mir ein einen Test eines namenhaften Reviewers, in dem steht, dass die 6900XT 255W verbraucht.

Und auch der zweite User hat es nicht verstanden. Wenn er sich ne 6900XT gekauft hat, die mit 300W TBP angegeben ist, dann verbraucht diese auch 300W und nicht +30% mehr, denn dass sich diese +30% auf die Differenz zwischen dem was der Treiber ausgibt und dem Kartenverbrauch beziehen, ist im Artikel mehr als deutlich beschrieben.


Eben nicht. Das beste was man tun kann ist, einen annähernd passenden Wert zusammenzurechnen, der mal passen kann, aber mal auch nicht.
Siehe unsere Formel. Die passt ganz gut für Karten unterhalb der 250W TGP.
Wenn ich mir Igors Testkarte nehme mit 330W TGP, dann kämen wir mit der Formel nur bei 385W raus und nicht bei über 400W, weil wir mit der Formel darauf bedacht waren, den Standardbereich von 50-250W TGP möglichst genau abzudecken. Wenn wir so eine 330W TGP Karte mit unserer Formel kompatibel machen würden, dann würde sie für alle Karten mit 200W oder weniger deutlich zu hohe Werte ausgeben.

Du bräuchtest also im Grunde, wenn du es genau haben möchtest, für jedes einzelne Modell eine eigene Formel und selbst die kann nicht alle Einflüsse abdecken, die die TBP verändern könnten.

Und wenn ich gerade im Spiel bin und im Overlay meinen GPU Verbrauch sehen möchte, soll ich mir dann immer den Taschenrechner auf den Tisch legen und umrechnen?
Bei Nvidia ist das kein Problem, die bessere Frage ist also warum nicht einfach den kompletten Kartenverbrauch auslesen, statt rechnen zu müssen?
Genau solche Artikel sorgen für diese Verwirrung wenn sie nicht vollständig sind.

Bei der RX6950XT hatte ich irgend was von 285Watt oder 290Watt geschrieben fürs PowerLimit.

Eben Doch,du kannst ohne Probleme die Unterschiede verschieden Ausgestatteter Karten Zeigen worauf es ankommt.

Du kannst Simpel und Einfach Vergleichen und Messen.TGP immer 255Watt bei der RX6900XT.
AMD Ref. wird mit 303Watt Gemessen.
Eine Einfache Custom mit 306Watt.
Eine mit RGB..... 317Watt.
Somit hast schon mal Daten über Einfache und Aufwändigere Modelle.
Dann kannst die erhöhte TGP noch Simpel dazu rechnen,Fertig bzw wird dir die ja angezeigt,so das du nur die Modelländerungen mit berücksichtigen musst.

Ist doch recht gut Berechnet bis fast 300Watt TGP.
DR.JPG
Sim 293Watt.JPG
 
Genau solche Artikel sorgen für diese Verwirrung wenn sie nicht vollständig sind.
Kann ich nach wie vor nicht nachvollziehen, mir ist beim lesen zu jedem Zeitpunkt klar gewesen, worüber geredet wird.

Dann kannst die erhöhte TGP noch Simpel dazu rechnen,Fertig bzw wird dir die ja angezeigt,so das du nur die Modelländerungen mit berücksichtigen musst.

Selbst damit bleibt der Punkt, dass du dafür für alle möglichen Modelle erstmal Werte haben musst, um solche Rechnungen aufzustellen und was machst du dann damit, wenn du Ingame sehen willst, was deine Karte gerade zieht?

Ich meine ich könnte mir einfach ne Custom Version von CapFrameX bauen, wo ich eine Formel speziell für meine Karte einbauen kann, aber der Durchschnittsuser, der einfach nur seine Standardmetriken auf dem Bildschirm sehen will?
Warum sollte man das einem gemessenen Verbrauch vorziehen wollen, der ja wie man bei Nvidia sieht, auch ganz einfach möglich wäre?

Und nein, die erhöhrte TGP kannst du nicht simpel dazu rechnen, denn mit erhöhter TGP ändert sich auch die Effizienz der VRMs und auch deren Verlustleistung erhöht die TBP weiter.
Als Beispiel hier die getestete 6950XT.
Die Referenz ist 280W TGP und 335W TBP.
Die getestete hat eine TGP von 330W, müsste demnach 50W höher liegen, sie liegt aber 80-90W höher.
 
Zuletzt bearbeitet :
Ich bin kein Spieler.......
Welcher Spielebenchmark.......?
Irgendeinen. Nimm z.B. den Index der PCGH (die haben die 6950XT mit Stocksettings getestet und kein OC Modell, das irre viel Strom schluckt.). Am besten den 4k Index.


Mal dumme Frage: Wenn Du kein Spieler bist, wieso ist Dir dann das Thema RDNA2 und Ampere so wichtig?
 
Und nein, die erhöhrte TGP kannst du nicht simpel dazu rechnen, denn mit erhöhter TGP ändert sich auch die Effizienz der VRMs und auch deren Verlustleistung erhöht die TBP weiter.
Als Beispiel hier die getestete 6950XT.
Die Referenz ist 280W TGP und 335W TBP.
Die getestete hat eine TGP von 330W, müsste demnach 50W höher liegen, sie liegt aber 80-90W höher.
Dafür Testest ja auch noch mit der Hinterlegten TGP gegen,so kannst sehen wie groß der Unterschied bei den Spawas und Co dann noch wird weil die Daten der Lüfter/RGB hast ja dann.
 
Dafür Testest ja auch noch mit der Hinterlegten TGP gegen,so kannst sehen wie groß der Unterschied bei den Spawas und Co dann noch wird weil die Daten der Lüfter/RGB hast ja dann.
Wie kannst Du das? Ohne gleich mit dem Igor's Equipment um die Ecke zu kommen?
 
Irgendeinen. Nimm z.B. den Index der PCGH (die haben die 6950XT mit Stocksettings getestet und kein OC Modell, das irre viel Strom schluckt.). Am besten den 4k Index.


Mal dumme Frage: Wenn Du kein Spieler bist, wieso ist Dir dann das Thema RDNA2 und Ampere so wichtig?
Es geht doch um DEINE bei 320Watt.;)
Weil ich meine Rechner zum Testen habe........
 
Würdet Ihr bitte das Thema Performancevergleich hier ausklammern, das sprengt sonst den Thread.
 
Es geht doch um DEINE bei 320Watt.;)
Weil ich meine Rechner zum Testen habe........
Ach Du möchtest das ich in einem Spiel konkrete Werte liefere?

Meinetwegen. Such Dir eines aus. Horizon? CP ohne DLSS/RT? WatchDogs Legion ohne DLSS/RT? Jeweils in 4k, den integrierten Benchmark?


Würdet Ihr bitte das Thema Performancevergleich hier ausklammern, das sprengt sonst den Thread.

Hast Recht. Hätte mich nicht verleiten lassen sollen.
 
Weil AMD dir die Daten der Ref zum vergleich liefert.
Wo denn? Die geben nur die maximale TBP an, aber nicht wieviel davon bei welcher Last in den SpaWas hängen bleibt. Und da sich das je nach Temperatur und Stromfluss ändert, hilft mir das schlicht null.
 
Wo denn? Die geben nur die maximale TBP an, aber nicht wieviel davon bei welcher Last in den SpaWas hängen bleibt. Und da sich das je nach Temperatur und Stromfluss ändert, hilft mir das schlicht null.
Hattest Igors Test zur RX6900XT Ref nicht gelesen?
Mit TGP 255Watt hat er 303Watt gemessen.Somit Spannungswandler Verluste + Lüfter + LED funzel = 50Watt.
Nimmst irgend eine Andere mit TGP 255Watt und normaler Ausstattung landest auch in diesem Bereich wie weiter Oben schon geschrieben.
 
Nimmst irgend eine Andere mit TGP 255Watt und normaler Ausstattung landest auch in diesem Bereich wie weiter Oben schon geschrieben.
Aha. Warum? Die hat andere Komponenten, andere SpaWas, einen anderen Lüfter usw...? Und dann ist es immer noch ein konstanter Offset, aber in der Wirklichkeit ist der Verlust nicht konstant. Die SpaWas brauchen mal mehr und mal weniger, und auch der Lüfter dreht nicht immer gleich.
 
Learning: man kann den Verbrauch nicht genau beziffern, weil jede Custom Karte in jedem System unterschiedliche Werte produziert - abhängig von Temps, Load, ... Der Bereich für Schwankungen bzw die Streuung der Messwerte ist leider relativ groß, weil die Parameter unterschiedlichen Einfluss haben.
Hab mich jetzt durch 17 Seiten Kommentare geackert und einiges gelernt. Nur, was ich mit dem Wissen anfangen soll, das weiß ich immer noch nicht.
 
Aha. Warum? Die hat andere Komponenten, andere SpaWas, einen anderen Lüfter usw...? Und dann ist es immer noch ein konstanter Offset, aber in der Wirklichkeit ist der Verlust nicht konstant. Die SpaWas brauchen mal mehr und mal weniger, und auch der Lüfter dreht nicht immer gleich.
Und wieviel ist das?
 
Oben Unten