Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

Das sind schon sehr seltene Werte, die es evtl. nur bei Air mit LM bei <<300W gibt!

95°C VR-Temp gäbe es ungefähr zusammen mit 90°C GPU-Edge, was selten geht, weil dann vorher schon der Hotspot abregelt.
Das war ja auch nur ein Beispiel für einen Festen Wert.
Hab gerad mal Screens gesucht mit Luftkühlung und da war das MAX bei 65°C.
Dabei war aber auch noch Luft nach Oben.
Dann nimmt man feste 75°C.........Es geht ja um die Verluste bei hoher Temperatur und je Höher um so besser.
Wobei ich zwischen 45 und 55°C max auf 1-2Watt Unterschied komme.

Ich habe aber gerade noch mal genauer gemessen,Lüfter Aus bis auf an einem 240er Radi und die Fest auf sehr gering.
RGB aus.
Windows SSD und Spiele SSD gemessen,Abzüglich der höheren CPU Last waren min 7Watt und max 12Watt,somit hab ich mit 9Watt gerechnet fürs "Mainboard" unter Last.
Durch den Wasserblock brauchte ich die Lüfter und RGB nicht ausrechnen,so das ich Rein die Grafikkarte messen konnte für den Multi.
So sind dann TBP 296Watt raus gekommen und das macht Multi 1.165.
Dann zeigt mir HWinfo64 zwischen 230Watt und 294Watt zur TBP auch einen Unterschied von 10Watt an,es bleibt somit kein Fester Wert mit Änderung des PowerLimit.

Ich hab jetzt noch nie geschaut was Grafikkarten Lüfter brauchen,aber ich würde einfach mal sagen bei 100% je Lüfter 1,5W was dann bei 3 Lüftern 4,5W sind und in das Feld Hinzufügen kommt dann +5.
Damit würde TBP dann mit 301Watt angezeigt.
Einfache LED Logo Funzel würd mit 2Watt dazu kommen.
RGB.......Hmmmm um 8Watt?!
Somit würde MEINE PowerColor Radeon RX 6900 XT Red Devil mit 3 Lüftern und RGB auf ~TBP 309Watt kommen.
 
Zuletzt bearbeitet :
Bei 45 Grad++ bekomme ich schon Herzkammerflimmern :D
this! ... aus dem Waterblockreview

Damit hat man i.d.R. Hotspot<60°C und TDV funzt zusätzlich, ... wenn die W net übermäßig hoch sind.
nur bei größeren Modellen und >>300W TBP geht die Schere weiter auseinander, sprich Hotspot>60°C und man verliert TDV
evtl. sollte man bei sich in so nem Grenzbereich mal genauer untersuchen wie sich der Takt temp.abhängig verhält und ob dann 20W mehr
tatsächlich linear mehr Performance bringen, was ich bezweifel

sorry für OT, aber Jeder der mit GPU und VR-temp>65°...70°C rumgurkt ist von Haus aus schon ineffizient unterwegs
(Werkslüfterkurven und Fanstopp finde ich gruselig, wenn dann noch die Hysterese die Lüfter an/aus schaltet = ein Ohrenschmaus)
 
wenn dann noch die Hysterese die Lüfter an/aus schaltet = ein Ohrenschmaus
Wenn man leise Lüfter langsam anlaufen lässt, hört man das nicht. Bei meiner GTX 1650 Windforce war das aber auch so schlecht gelöst, dass ich es selbst umgebaut habe. Wenn sogar bei unter 50 Grad der Lüfter jede Minute für ein paar Sekunden auf gut hörbare 1600 RPM aufjault, kann echt nicht von silent die Rede sein. Fan-Stop ist nicht schlecht, ausser man programmiert es schlecht..
 
Wenn man leise Lüfter langsam anlaufen lässt, hört man das nicht. Bei meiner GTX 1650 Windforce war das aber auch so schlecht gelöst, dass ich es selbst umgebaut habe. Wenn sogar bei unter 50 Grad der Lüfter jede Minute für ein paar Sekunden auf gut hörbare 1600 RPM aufjault, kann echt nicht von silent die Rede sein. Fan-Stop ist nicht schlecht, ausser man programmiert es schlecht..
Bei AMD programmieren wir es dank MPT einfach selbst :)
 
Bei AMD programmieren wir es dank MPT einfach selbst :)
Bei meiner Karte hat leider auch keine Lüfterkurve geholfen. Egal was man einstellte, je wärmer um so häufiger hat die Karte aufgeheult. Ich habe dann die Lüfter durch einen NB B14-1 ersetzt und an das Mainboard angehängt. Dann habe ich die Lüfterregelung auf der Basis von Openhardwaremonitor selbst programmiert. Es war mühsam, bis es funktioniert hat. Aber nun ist mein PC wirklich leise. Auch den CPU-Lüfter konnte ich nochmals leiser machen. Der dreht nun nicht mehr bei jeder kurzen Lastspitze auf sondern langsam über eine Minute. Es bringt ja nichts, durch den Kühler zu pusten vor die Wärme dort ankommt.

Wenn es einfacher gegangen wäre, hätte ich mich auch darüber gefreut. Aber so lernt man immer etwas dazu. :cool:
 
Es bringt ja nichts, durch den Kühler zu pusten bevor die Wärme dort ankommt.
Dann schau Dir mal das Gewicht der heutigen Brocken an.
Wenn man >1,5kg auf Zimmertemp.+10 hält ist ein kleiner Anstieg bei den Watt erst nach ner Minute o.ä. in der Lage wirklich groß Ärger zu machen.
Wenn dagegen mit Fanstopp die 1,5Kg schon auf 50°C vorgeheizt sind, ist der Puffer deutlich kleiner.
Mit Anstieg bei den Watt meine ich, das man trotz Fps-Limit immer mal Stellen im Game hat, wo 20-30% mehr Watt gebraucht werden.
(i.d.R. gibts da ne Explosion oder Rauch oder andere feine Dinge mit viel Partikeln, Tesselation, Lighting whatever)

btw.
Mich würde mal interessieren wieviel W die Graka-Lüfter tatsächlich brauchen, gerade wenn man die minPWM auf 12% runtersetzt.
... sollte man den Verbrauch wirklich gut steuern können: ... z.Vgl. aus dem 120er Review, ... und bei mir sinds nur 92er!?
 

Anhänge

  • Lüfter Watts.JPG
    Lüfter Watts.JPG
    57,6 KB · Aufrufe : 4
Zuletzt bearbeitet :
Natürlich ist es *kein* Zufall wie AMD agiert, man weiß genau dass die Menschen die Werte nicht hinterfragen. Falschinformationen, Glauben und Hörensagen sind der Kern vom Internet.

Nur wenige Menschen legen auf echte Informationen wert und darauf, ihre Quellen zu prüfen und auf Plausibilität abzuchecken.
Wenn man es nicht besser weiß oder nicht vom Fach ist, schenkst du dem Glauben, der dir das scheinbar beste Ergebnis liefert. Deswegen würde ich die Arbeit anderer nicht gleich abschätzen. Auch nicht die die das konsumieren. Wenn man anfängt sich zu interessieren, dann nimmt man halt alles, was einen über die Füße stolpert. Eine schlimme Sache ist es auch, Leute die Anfänger sind als dumm abzustempeln, dass gehört sich auch nicht.
 
Und es ist leider auch ein befremdliches Verhalten der ganzen Software-Heinis, hier keinen echten Hinweis auf die Unvergleichbarkeit der Angaben zu geben. Das artet in sehr vielen Videos in pure AMD-Propaganda aus und sowas ist dann leider genauso ätzend, wie das übermäßige Verwenden von Raytracing, nur um grünere Karten besser dastehen zu lassen. Es ist beides Grütze.
Die Hersteller schenken sich da nichts und wollen mit Marketing Tricks (Intel mit ihrer Fertigungsverfahren Verwirrspiel, AMD mit der Weglassen von Informationen zur Leistungsaufnahme, Nvidia mit ihren Funktionen RT, DLSS die in der Software nicht flächendeckend verbreitet sind) über die Fachpresse so steuern, dass der Konkurrent schlecht aussieht. Deshalb haben sich schlaue Leute Normen ausgedacht. Die könnten hier auch Abhilfe statt Verwirrung stiften.
 
Wenn man es nicht besser weiß oder nicht vom Fach ist, schenkst du dem Glauben, der dir das scheinbar beste Ergebnis liefert. Deswegen würde ich die Arbeit anderer nicht gleich abschätzen. Auch nicht die die das konsumieren. Wenn man anfängt sich zu interessieren, dann nimmt man halt alles, was einen über die Füße stolpert. Eine schlimme Sache ist es auch, Leute die Anfänger sind als dumm abzustempeln, dass gehört sich auch nicht.
Ich habe nie das Wort "dumm" in den Mund genommen. Auch habe ich mich nicht über Anfänger lustig gemacht. Ich weiß nicht woher du das überhaupt nimmst.

Jeder fängt mal an, mit allem, und daran ist auch nichts peinliches oder etwas wofür man sich zu schämen hat. Sonst dürfte man ja nie mit etwas neuem anfangen.

Wenn Du meinen Beitrag ehrlich lesen würdest, dann kämst Du auch darauf, dass es mir darum geht, dass es mich nervt, wenn nicht-Experten absichtlich aufs Glatteis geführt werden. Sei es durch Hersteller wie AMD oder eben auch YouTube Channels.

Und nur um das klarzustellen: Dabei geht es nicht um AMD speziell. Das macht NVidia und andere Hersteller ganz genau so. Aber hier in diesem Thread geht es nun mal um AMD und deren sicher nicht unabsichtlich viel zu niedrig angesetzten Werte beim Auslesen der Leistungsaufnahme.

Ganz ehrlich: Es wäre für AMD bzw. die Boardpartner ein leichtes, auch ohne zusätzliche Hardware, den Wert über eine einfache Formel zu korrigieren. Für ein konkretes Board mit einem konkreten Chip muss man das ja nur einmal ausmessen und hinterlegen. Wenn man nur wollte...

Nvidia mit ihren Funktionen RT, DLSS die in der Software nicht flächendeckend verbreitet sind
Na komm jetzt. Damit machst Du es Dir aber nun wirklich zu einfach. NVidia kann nicht mit einem Schlag in alle Spiele RT und DLSS Unterstützung reinzaubern. Wenn Du ihnen das vorwirfst dann dürfte man ja nie neue Techniken entwickeln, die Anfangs natürlich auch nicht unterstützt werden können.
 
Ganz ehrlich: Es wäre für AMD bzw. die Boardpartner ein leichtes, auch ohne zusätzliche Hardware, den Wert über eine einfache Formel zu korrigieren. Für ein konkretes Board mit einem konkreten Chip muss man das ja nur einmal ausmessen und hinterlegen. Wenn man nur wollte...
gibts doch!?

Solange Du net zeigen kannst, das AMD bei der Ref. unzutreffende Angaben macht, sind Deine Beiträge net zutreffend.
und
Die Vermutung das YTer irgendwas absichtlich machen, ist erstmal ne Unterstellung, solange sich Derjenige net hinstellt und sagt
das die angezeigte TGP die TBP sein soll.

Da sind irgendwelche Leute wieder hinter sinnlosen Verschwörungstheorien hinterher.
und
Das Diejenigen sich dann an schlecht gelabelten Grafiken von Igor hochziehen, ... war/ist hoffentlich net so gewollt.
(hoffentlich werden in Zukunft mehr Angaben zum konkreten Modell in die Grafiken gepackt)
 
@RX480

Ich muss nix zeigen, das hat ja Igor für mich erledigt. Die Werte, die AMD liefert, sind ja nicht per se falsch, sie sind nur irreführend. Das haben wir nun in dem ganzen Thread mehr als ausführlich beschrieben.

Hör auf immer nur alles als AMD vs NVidia zu sehen. Du bist doch der erste, der immer sofort auf die Barrikaden geht, wenn NVidia irgendwas macht, was in Deinen Augen schändlich ist.

Das ist auch keine VT sondern einfach ein Kritikpunkt. Weniger an AMD sondern mehr an die YTler, die entweder nicht wissen, was sie tun, oder ganz absichtlich AMD mit Falschinformationen pushen wollen. Wäre nicht das erste mal. AMD ist ja schließlich der arme Underdog.
 
Wenn Du meinen Beitrag ehrlich lesen würdest, dann kämst Du auch darauf, dass es mir darum geht, dass es mich nervt, wenn nicht-Experten absichtlich aufs Glatteis geführt werden. Sei es durch Hersteller wie AMD oder eben auch YouTube Channels.
Man wird ja nicht aufs Glatteis geführt von AMD,AMD gibt bei seinen Ref die TBP an und die stimmt ja auch.Die Bordpartner klatschen halt noch drauf was das + an zusätzlicher Leistungsaufnahme macht und natürlich die zusätzliche Übertragung, nur hier muss man auch abwägen in den Youtube Videos ob die Karte im PowerLimit läuft oder in der Taktbegrenzung.
Unterschiedliche AMD Karten kann man aber auch mit dem angezeigten PowerLimit vergleichen, es ist halt nur was schwieriger es mit NVIDIA zu vergleichen.
 
Hör auf immer nur alles als AMD vs NVidia zu sehen. Du bist doch der erste, der immer sofort auf die Barrikaden geht, wenn NVidia irgendwas macht, was in Deinen Augen schändlich ist.
so ein Schmarrn
(net, das Du nur von Unterstellungen lebst, ... von Dir ausgehst)

Wenn NV etwas gut löst, wie bei der 3090Ti bin ich auch sofort dabei!
(die Abregelung der Spikes ist vorbildlich und passt zu den kommenden NT´s, ... habe ich immer gesagt)


Ganz interessant fand ich auch den Artikel zu dem NT-Tool, wo man abschätzen konnte, ob man die neuen Specs einhält.

und
Wenn mich Jemand beim 6950-Launch gefragt hätte, ob ich die Graka für garantiert besser halte, gabs von meiner Seite immer den Hinweis,
das zuwenig Erfahrungen vorliegen. (während ne XTXH vom Binning her safer erscheint, ... mit mooore Takt ab Werk)
 
Zuletzt bearbeitet :
Mann mann Leute.

Kann man denn nicht diskutieren ohne dass sich gleich alle auf den Schlipps getreten fühlen? Die rote Armee hier und anderswo ist echt anstrengend. Als ob man Euch den Sandkuchen zertreten hätte.
 
Mann mann Leute.

Kann man denn nicht diskutieren ohne dass sich gleich alle auf den Schlipps getreten fühlen? Die rote Armee hier und anderswo ist echt anstrengend. Als ob man Euch den Sandkuchen zertreten hätte.
Die YTer nehmen das was da ist,wenn sie einen aufklärungs Artikel bekommen würden,dann würden die auch das angezeigt TGP in TBP um ändern mit dem entsprechenden Multi und dem + Zusatz in HWINFO64.
 
Die YTer nehmen das was da ist,wenn sie einen aufklärungs Artikel bekommen würden,dann würden die auch das angezeigt TGP in TBP um ändern mit dem entsprechenden Multi und dem + Zusatz in HWINFO64.
Nun ja, wie hier ja oft genug beschrieben wurde, hat AMD immer klar kommuniziert, was wie TGP ist. Und das es nicht die TBP ist.

Dass man den Wert deswegen nicht mit einer TBP von NVidia vergleichen kann, sollte eigentlich selbstverständlich sein.

Also: Entweder sind die YTler einfach für ihren Job die falschen (wäre ja nichts neues) oder sie machen das mit Absicht. Kann man von außen nicht entscheiden.

Wie hier auch schon x-mal beschrieben, kann HWInfo den Wert (ist kein fester Multiplikator sondern eine etwas komplexere Funktion) nicht fest einbauen. Das müsste der Boardhersteller oder AMD selber machen.
 
Wozu der Aufwand für Nothing?

Den Wert braucht der Chip/Arbitrator net zum Regeln der Takt/Volt-Kurve.

Wenn Dir die TGP-Angabe bei YTer XYZ net gefällt, kannst Du das doch im Video-Thread bei Ihm posten.
Das der YTer ausgerechnet HIER mitliest halte ich für unwahrscheinlich.
 
Nun ja, wie hier ja oft genug beschrieben wurde, hat AMD immer klar kommuniziert, was wie TGP ist. Und das es nicht die TBP ist.

Dass man den Wert deswegen nicht mit einer TBP von NVidia vergleichen kann, sollte eigentlich selbstverständlich sein.

Also: Entweder sind die YTler einfach für ihren Job die falschen (wäre ja nichts neues) oder sie machen das mit Absicht. Kann man von außen nicht entscheiden.

Wie hier auch schon x-mal beschrieben, kann HWInfo den Wert (ist kein fester Multiplikator sondern eine etwas komplexere Funktion) nicht fest einbauen. Das müsste der Boardhersteller oder AMD selber machen.
AMD schreibt TBP 300Watt bei z.b. der RX6900XT und diese hat Igor auch gemessen, somit kannst die ohne Probleme mit NVIDIA vergleichen.
Was die YTer bekommen in HWINFO64 ist PPT (das PowerLimit) worüber die Karte geregelt wird.
Wie Ich aber schon gezeigt hatte hast aber auch noch TGP in HWINFO64 und das kannst umbenennen in TBP ,erhöhst den Multi auf rund 1.165 ,fügst den zusätzlichen Verbrauch der Lüfter,RGB......mit + hinzu und hast recht gute Daten zum Gesamtverbrauch.
Stelle ich bei mir das PL auf 230Watt, komme ich bei TBP auf rund 260Watt.Das sind 30Watt mehr.
Stelle ich das PL auf 260Watt komme ich bei TBP auf rund 300Watt und somit 40Watt mehr.Der Multi ist somit nicht Lineal.
 
Auch bei einem Grafikkartentyp ist die Leistungsaufnahme nicht immer mit dem selben Faktor zu berechnen. Je nach Temperatur sind die Spannungswandler unterschiedlich effizient. Also hängt es von der Temperatur im Gehäuse ab, wie viel Strom die Karte (AMD) insgesamt braucht. Aber wenn man einen Typ ausgemessen hat, könnte man für diesen eine Formel machen, die auf +- 5 % hinkommen dürfte. Das würde für eine grobe Einschätzung schon viel bringen.

Eine Formel die nicht mal den Grafikkartentyp berücksichtigt, macht wirklich keinen Sinn. Einen Mehrverbrauch von 15 % bis 30 % nur auf einen Faktor von 1.175 oder so zu reduzieren liegt je nach Karte immer noch mehr als 10 % daneben.

Irgendwie steht das aber alles weiter oben schon. :)
 
  • Like
Bewertungen: ***
Eine Formel die nicht mal den Grafikkartentyp berücksichtigt, macht wirklich keinen Sinn. Einen Mehrverbrauch von 15 % bis 30 % nur auf einen Faktor von 1.175 oder so zu reduzieren liegt je nach Karte immer noch mehr als 10 % daneben.

Irgendwie steht das aber alles weiter oben schon. :)
Wo steht das?
Igor hatte es noch nicht gemessen und ich wüsste nicht das außer Mir es noch einer genau gemessen hat.
Und bei Temperaturen von 10°C unterschied sind 1-2Watt gar nix.

Eine RX6900XT hat z.b. ein Unterschied von 45Watt.
Eine RX6700XT kommt auf 49Watt + einen Lüfter weniger.
Das sind rund 6Watt beim Bord und den Spannungswandlern.
 
Oben Unten