AMD Workaround für hohen Idle Powerdraw RX5000, 6000, 7000

Not_A_Nerd

Mitglied
Mitglied seit
Nov 9, 2022
Beiträge
49
Bewertungspunkte
45
Punkte
17
Guten Abend an Alle AMD GPU User die weiterhin einen hohen Idle Stromverbrauch haben.

Diesen Workaround hat der YTber Ancient Gameplays in seinem neusten Video als Erstes publiziert. Er macht im Moment die Runde in den Hardwareforen und da ich ihn hier noch nicht entdeckt habe, wollte ich das nachholen.

Ihr nutzt eine Option aus dem Adrenalin GPU Treiber, zu finden unter Einstellungen - Display-Benutzerdefinierte Auflösung (engl. Custom Resolution)

Ihr erstellt eine neue Benutzerdefinierte Auflösung mit den exakt gleichen Werten welche euer Monitor nativ nutzt.
Mit der Ausnahme das ihr eure Hz Frequenz bei 144hz Monitoren zum Beispiel auf 142 Hz begrenzt. Beim Timing Standard wählt ihr "CVT" aus, sollte diese Option nicht funktionieren könntz ihr "CVT Reduced Blanking" auswählen oder ihr müsst mit den Hertz eures Monitors weiter
runtergehen 140, 120, 100 usw. bis er die normale CVT Option zulässt.
Danach klickt ihr die neu erstellte Auflösung 1x im Treiber an.
Nun müsst ihr diese nur noch in den Windows Monitor Einstellungen auswählen.

Für Multi Monitor Setups und hohen Idle Powerdraw durch Multi Monitot

Bei den anderen Monitoren eures Setup verfahrt ihr genauso hier reduziert ihr die Hertz auf 60,75,85,100hz solange bis ihr im Fenster Powerdraw des Treibers einen deutlichen Abfallfall der Wattzahl im Idle feststellt. Auf einem Zweit oder Drittmonitor sollte für die Meisten eine niedrigere Hertz verschmerzbar sein.

Das Prozedere hat bei mir jeweils bei eine 7900XTX und einer 6750XT mit jeweils Dual und Triple Monitor Setup zu einer deutlichen Senkung des Idle Powerdraw geführt.
28-32W bei der 6750XT, 40-50W bei der 7900er Karte.

Im Video ist alles sehr gut erklärt und gezeigt. Es ist absolut kein Hexenwert und hilft stromspare.

Wichtige Anmerkung : CVT funktioniert bei Wenigen Monitoren erst unterhalb/ab von ca. 100/118 Hz darüber muss man bei diesen Monitoren auf CVT Reduced Blanking zurückgreifen. Bitte beachtet aber das bei dieser Option ihr den Monitor etwas außerhalb der Herstellerspezfikation betreibt! Bei manchen Monitoren wird je nach Panel die Farbtiefe auf 6bit reduziert (meist bei 1080p TN Panels) solange ihr nur das Übliche wie Office, YT/Twitch, Gaming etc. mit dem Monitor macht sollte euch das nicht stören.
Wenn ihr Foto/Videobearbeitung nutzt dann müsst ihr auf diesen Workaround mit diesem/eurem speziellen Monitor dann leider verzichten.

Ich hoffe dem Ein oder Andere hilft dieser Workaround, so wie Mir und man kann etwas Stromsparen.

 
Der Trick mit der selbst definierten Auflösung ist vermutlich so alt wie das Problem selbst. Da es das Problem sowohl bei AMD als auch bei Nvidia seit sicher 10 Jahren gibt, wundert es mich nicht, dass "Jesus" das kennt. Leider funktioniert es aber nicht immer.

Dass "Reduced Blanking" in dem Zusammenhang auch hilft, habe ich noch nicht gehört. Das ist eigentlich eine Technik aus DVI-Zeiten als man die Röhrenmonitore durch LCDs ersetzt hat. Weiss einer von euch, ob das heute bei HDMI und Displayport überhaupt noch verwendet wird?

Schon traurig, dass die Hersteller das Problem des hohen Strombedarfs im Idle nicht endlich mal lösen. Es wären ja nur ein paar Einstellungen im BIOS der Grafikkarten anzupassen. Die Karten müssten nicht wegen etwas mehr Speicherzugriffen durch zwei Monitore gleich voll hochtakten. Haben die noch nicht gemerkt, dass es einige Leute mit mehr als einem Bildschirm gibt?

Bei mir habe ich einen Bildschirm an die interne Intelgrafik gehängt. Das geht aber natürlich nur wenn der Prozessor eine solche hat.
 
Der Trick ist wirklich uralt und ich nutze das seit über 10 Jahren. Aber nett, dass das mal wieder einer mit Bart und Haaren hochholt.

"Reduced Blanking" hat eigentlich gar keine Auswirkungen mehr, wobei AMD-Treiber immer so eine Wundertüte sind. Da aber fast alle Karten keinen DVI mehr haben, ist das komplett obsolet. Die ehemalige Verkürzung der Dunkelzeit (Austastlücken bei Röhren im Zeilensprungverfahren) wurde mal verwendet, um höhere Auflösungen mit der gleichen Bandbreite übertragen zu können, ohne einen zweiten Datenkanal (Dual-Link) zu benötigen. Das ist totaler Quark.
 
Der Trick ist wirklich uralt und ich nutze das seit über 10 Jahren. Aber nett, dass das mal wieder einer mit Bart und Haaren hochholt.
Ich nutze das auch schon länger aber die Möglichkeit ist/war wohl im Netz nicht mehr wirklich bekannt. Wenn es hilft den Idle Powerdraw etwas zu reduzieren für Viele betroffene Nutzer finde ich es okay wenn es nochmal publiziert wird. :)

Bei meinem MSI Optix MAG271CQR VA Panel am Displayport werden 142 Hz mit CVT nicht akzeptiert bzw. bleibt der Monitor dunkel. Mit CVT CB funktioniert es völlig normal. Also mit es treiberseitig auch abseits von DVI noch einen Impact haben. Woher das Verfahren stammt war mir tatsächlich auch bekannt. Aber wie gesagt, ganz obsolet kann es sichtbar am Beispiel ja nicht sein.
 
Zuletzt bearbeitet :
Der Trick mit der selbst definierten Auflösung ist vermutlich so alt wie das Problem selbst. Da es das Problem sowohl bei AMD als auch bei Nvidia seit sicher 10 Jahren gibt, wundert es mich nicht, dass "Jesus" das kennt. Leider funktioniert es aber nicht immer.

Dass "Reduced Blanking" in dem Zusammenhang auch hilft, habe ich noch nicht gehört. Das ist eigentlich eine Technik aus DVI-Zeiten als man die Röhrenmonitore durch LCDs ersetzt hat. Weiss einer von euch, ob das heute bei HDMI und Displayport überhaupt noch verwendet wird?
Ob alt oder nicht, solange es ein paar Nutzern gerade heute hilft Strom zu sparen warum nicht. Nutze das auch bereits lange aber im Netz war diese Option wohl in Vergessenheit geraten etwas. Ich kann dir nur sagen das an meinem MSI Haupt Monitor im Gaming System mit Displayport mit CVT und 142 statt 144hz das Bild dunkel bleibt, mit CVT RB aber ganz normal funktioniert. Also muss es ja einen Einfluss haben schlussendlich.
 
Ob alt oder nicht, solange es ein paar Nutzern gerade heute hilft Strom zu sparen warum nicht.
Klar. Es macht immer noch Sinn, das bekannt zu machen. Den meisten Leuten fällt ja nicht mal das Problem auf, weil sie nicht überwachen wie viel Leistung eine Grafikkarte verbrutzelt.

Schön wäre es, wenn das endlich mal zu den Herstellern durchsickern würde dass Strom sparen sinnvoll ist.
 
Oben Unten