Immer mehr Leistungsaufnahme, warum?

Ultharandor

Mitglied
Mitglied seit
Jun 16, 2021
Beiträge
43
Bewertungspunkte
11
Punkte
8
Hallo an die Community,

ich stelle mir immer wieder die Frage warum brauchen CPU's und Grafikkarten immer mehr Watt.
Die Ankündigung für Alder Lake aber auch ZEN-4 sprechen jetzt schon von 170Watt kurzzeitig
Bei Grafikkarten ist es nicht besser.
Eine Effizientbetrachtung bring auch nicht ganz soviel weil was bringt es mir, wenn ich überspitz gesagt beim zocken 1000 FPS hab
aber auch gleichzeitig 1KW aus der Steckdose ziehe und die Bude sich auf 25 - 30 Grad erwärmt.

Wenn ich mich recht erinnern kann sind alle CPU'S / GPU's der letzten 3-4 Jahre in der Lage Leistungsaufnahmemäßig eingebremst zu werden.

Ich bin leider messtechnisch und auch elektrotechnisch nicht so ausgestattet und so bewandert, das ich solche Messungen durchführen kann.

Meine Ausgangsparameter:
Monitore schaffen 60 120 144 und max 165 Hertz. Das für UHD und UWQHD Qualitätssettings MAX möglicherweise bei 165Hertz keine der CPU's und Grafikkarten die165hz in Spielen oder nur in wenigen Spielen erreicht ist klar aber wie sieht es bi 60 - 120 Hertz FHD oder WQHD aus.

Deshalb hier hier mal eine generelle Frage.

Wäre es, auch wenn es mega viel Aufwand ist, nicht mal möglich einen Architekturvergleich zu machen.

Teilnehmer
möglichst viele Grafikkarten sagen wir Nvidia 1000er 2000er 3000er Serie mindesten 1. AMD vergl. Karte AMD 500 / 5000 / 6000er

Maximalverbrauch der Karte festgezurrt auf 150Watt Max Verbrauch.

CPU Íntel 8000er 9000er 11000er (4 und 8 Kerner) / AM 2000er 3000er 5000er

Maximalverbrauch der CPU fest 65 Watt

2 - 3 Spiel plus Anwendung, zum Vergleich mit dem Eigenen System 3DMark Timespy in Standard und PCMark10 in Standard (Man kann nichts einstellen ist aber auch nicht wichtig dient ja nur dem Vergleich)

Wäre das nicht mal sinnvoll?

Denn ein Beispiel: Ich habe eine RX5700XT (Siehe eGPU Threat) und einen Intel I5-1135G7. Das verbraucht bei Timespy ca 250Watt(bei ca. 54 Frames FHD)
Mein Monitor LG 34UW99 ist aber 3440x1440 max 75hz. Fazit für mich, mein Setup ist noch ein wenig zu Langsam. Ich möchte aber nicht mehr verbrauchen, sondern lieber weniger, würde nun eine 3090 oder eine 6900XT die 75hz bei 250Watt Gesamtsystemverbrauch schaffen? Das kann mir kein Test sagen.
Ich weiß nur das ich höchst wahrscheinlich mit einer 6800 schneller sein werde, wahrscheinlich auch bei weniger Verbrauch.
Aber um wieviel schneller ist denn nun eine 6900XT oder 3090 zur 6800 bei gleichem Verbrauch. Das testet an sich niemand.

Alle reden von CO² Reduzierung nur wir Zocker brauchen FPS FPS FPS, egal ob ich die Tausend FPS mit meinem null 8/15 FullHD Monitor
noch sehen kann.

So jetzt dürft Ihr mich auseinandernehmen :D

@Igor hättest Du nicht einmal Lust zu so einem Test? Ich weiß unendlich viel Arbeit aber bisher hat das noch keiner gemacht würde ich sagen.
 
Zuletzt bearbeitet :
Hallo Ultharandor

Die Effizienz der GPUs und Prozessoren ist durchaus ein bekanntes Thema zu dem man auch viele Informationen findet. Für Rechenzentren oder Miner ist der Stromverbrauch ein Grossteil der Kosten. Da wird viel investiert um abzuklären, welche Prozessoren man wie betreiben muss um die Arbeiten möglichst effizient durchzuführen. Auch die Kosten für den Kühlungsaufwand sind nicht zu unterschätzen und werden genau kalkuliert.

Von Generation zu Generation steigt die Leistung von Grafikkarten etwa 30 bis 50 %. Bei der letzten Grafikkartengeneration ist auch der Strombedarf deutlich angestiegen. Das hat aber auch damit zu tun, dass AMD und Nvidia sich nur noch auf den Highendbereich fokussiern und kaum mehr etwas für die Mittelklasse und nichts mehr für das tiefe Segment anbieten. Davor ist der Strombedarf meist etwa gleich geblieben.

Mit der Verkleinerung der Prozessorstrukturen sinkt meist der Strombedarf pro Leistung. Bei sehr kleinen Strukturen treten aber auch mehr Kriechströme und andere Problem auf, die den Strombedarf ansteigen lassen können. Es ist darum nicht immer klar, dass eine kleinere Struktur auch effizienter sein muss.

Innerhalb einer Prozessor- oder Grafikkartengeneration ist meist etwa die selbe Technik verbaut. Da sind die langsameren Prozessoren deutlich effizienter als grössere. Beispielsweise nimmt man für Laptops oft die selben Grafikchips wie auf PC-Grafikkarten. Man lässt sie aber nur mit 70 bis 80 % der Geschwindigkeit laufen. Dadurch brauchen sie nur etwa die hälfte der Leistung und sind deutlich effizienter. Dass man momentan die Chips der Grafikkarten schon stark an die Grenze bringt, fördert die Effizienz natürlich nicht. Oft verbraucht man einen Viertel mehr Strom um noch 5 oder 10 % Leistung heraus zu kitzeln.
 
Z.b. verbraucht eine Optimierte RX5700 bei etwas mehr Leistung gegenüber einer RX5500XT rund 25% weniger.
Bedeutet , eine RX 6900XT verbraucht bei gleicher Leistung weniger als eine RX 6800.
Bei CPUs ist es nicht anders wobei CPUs ja nix mehr verbrauchen wenn man wie du von Spielen ausgeht.
 
Eigentlich ist das doch bei fast allen Reviews Thema, oder? (Performance per Watt bei CPU und VGA)
Basierend auf solche Zahlen, kann man sich die GraKas doch in Art Rangliste (deine 200Watt zB) berechnen.
 
Zuletzt bearbeitet von einem Moderator :
Z.b. verbraucht eine Optimierte RX5700 bei etwas mehr Leistung gegenüber einer RX5500XT rund 25% weniger.
Bedeutet , eine RX 6900XT verbraucht bei gleicher Leistung weniger als eine RX 6800.
Bei CPUs ist es nicht anders wobei CPUs ja nix mehr verbrauchen wenn man wie du von Spielen ausgeht.
Hi Casi,

das ist genau das was ich meine. Aber was für Werte erwarten mich da z.B. bei Full-HD.

Das mit den CPU's ist richtig. Siehe im eGPU Threat meine Timespy Werte auch wenn das ein Syntetischer Benchmark.

Der Graphics Wert und die FPS ändern sich fast nicht auch wenn die CPU nur mit halber Geschwindigkeit läuft.

Nur der CPU Grafiktest läuft halb so schnell. Sobald aber die CPU eine gewisse Geschwindigkeit unterschreitet zieht es auch die FPS runter.

z.B. CPU auf Low Power dann wird Sie auf 15 Watt gebremst.

Trotzdem reicht es für einen Architekturvergleich nicht. Wieviel schneller ist denn z.B. x5800(105Watt) zum x3700(65Watt) oder x2700(65Watt) bei 65 Watt. Aktuell gibt es ja keinen 8 Kerner ZEN3 mit 65 Watt TDP
 
Hi Ultharandor
Auf was bezogen?
In Spielen merkst den höheren Takt,in Anwendungen hmmmmm.
Aber in der Vergangenheit war die nächste Generation bei gleichem Verbrauch in Anwendungen 10-25% schneller.

Hier hast die Watt der CPUs,kannst ja ausrechnen wer wieviel Watt Pro FPS verbraucht.
 
Hi Casi,

Das ist Genau das was ich meine und kommt dem schon recht nahe. Bei z.B. Fortnight(Nur ein Beispiel) liegen alle CPU's bei ca. 60 - 85 watt und 340 530 Frames
Sagen wir ich brauche nur 120 FPS fest, meinst Du das dann die CPU's auch die unten angegebenen Wattzahlen benötigen:

1629378100110.png


5,847457627118644/Watt - 6,575/Watt - 5,902777777777778/Watt

20,52 Watt bei 120 FPS - 18 Watt bei 120 FPS - 20,3 bei 120FPS

In dem Fall ist es ja nun mal völlig egal welche CPU ich dann habe, aber das war nach meinem eGPU Test auch klar.
Das die CPU's dann aber bei 60FPS 9 - 10 Watt benötigen halte ich trotzdem für ein Gerücht.
 
Muss ich mal sehen ob ich das die Tage noch irgend wo zwischen bekommen zum Testen.
 
Ich bin jetzt mal für 1 Woche im Urlaub danach schau ich mal, ob ich auch ein paar Messungen machen kann mit dem i5 1135G7 ich könnte alle 4 Leistungsstufen durchtesten und auch den Notebook Verbrauch angeben.
Cinebench R23 in Standard aber alles unter Windows 11
 
Für die Game FPS Nem ich Diablo III.
Das müsste auch genügend FPS bis hoch zu 120 liefern. Klar ist dann das AAA Games einvielfaches an Leistung benötigen.
 
TSMC spielt dabei auch eine Rolle und Nvidia war bei der 3xxx Serie bei Samsung. Korrigiert mich da gerne.
 
Hallo Zusammen,

ich bin aus dem Urlaub zurück und kann nun Cinebench R23 Werte für die 4 Leistungsstufen des XMG Core 14 zur Verfügung stellen:

Verbrauchsmessung erfolgt am kompletten Notebook über ein EVE Energy
Die von XMG zur Verfügung gestellten Profil-Informationen:


ProfileCPU PL1 (Watt)CPU PL2 (Watt)CPU PL1 Tau (seconds)TCC Offset (Kelvin)CPU TurboBoost
Power Saving8152813off
Quiet10202813enabled
Entertainment15602813enabled
Performance28641282enabled

Diese Werte sind immer die gleichen, egal ob mit Core i5, Core i7, mit dGPU oder ohne.

Cinebench R23 10minutes Run
11Gen Intel Core i5-1135G7
16 Gbyte RAM Crucial 3200 SO-DIMM kein OC
Single Channel
WD NS550 NVME 2TByte
IGPU disabled GTX1650 enabled
Standard XMG Lüfterprofil
Leerlauf Eve Energy 14 Watt

ProfileEve Erg. CBCB R23 MultiCB R23 Single
Power Saving18 Watt1069 pts790 pts
Quiet20 - 21 Watt1560 pts944 pts
Entertainment26 Watt2835 pts1201 pts
Performance62 Watt Multi
31 Watt Single
5249 pts1346 pts
 
Wie sind die Werte in HWINFO64 von der CPU?
 
Besorge ich noch für jeden Powerzustand

oder während des Benchlaufs?
 
Wärend des Benchmarks lässt dir mit HWINFO64 den max Verbrauch anzeigen.
 
Alles Klar das dauert dann aber wieder ein wenig. Mal schauen wann ich das hinbekomme.
 
Klar bei der geringen Intelleistung dauert der Bench lange.....:D
 
CineBench R23 Multi.

2021.09.08-19.52.png

CineBench R23 Single.

2021.09.08-20.02.png
 
Hi Casi die Config bekomme ich so nicht hin Core Power über Regulator hab ich nicht als Sensor. Nur das Package
 
Zeig doch mal ein vollen Screen wie meinen.AMD und Intel musst ja eh anders rechnen und beurteilen.
 
Oben Unten