Bench Effizienz 2020

reneM

Mitglied
Mitglied seit
Nov 13, 2020
Beiträge
29
Bewertungspunkte
8
Punkte
2
Hallo Igor,
Hallo igorslab Community,
ich habe einen Wunsch und würde mich freuen über ein paar Ideen, wie man dies umsetzen könnte.
Wir sehen gerade eine Inflation an Power Input bei verschiedenen Hardware Herstellern. Meiner Meinung passt dies nicht in das Bild einer CO2 neutralen Zukunft.

Wie könnte ein Setup an benchmarks aussehen, bei dem es darum geht für einen bestimmten Anwendungsfall das effizienteste System zu finden.
Bsp 780ti -280ti hatten eine TDP von 250watt heute sehen wir bei 3080 und 3090 300/ 350 Watt. Bsp 2 Intels Effizienz im 14nm Prozess und wie teuer wird sich hier Konkurrenzfaehigkeit erkauft.
Des weiteren nehmen wir Mal einen 5600x und paaren diesen mit GPU XYZ für Auflösung 1080p , 1440p und 4k. Mit 60 FPS/ 100fps / 144 fps. Welche GPU benötige ich für welchen Fall.

Nicht jeder braucht einen 12 core oder 16er usw.
Macht es nicht sogar manchmal Sinn den 6 Kerner zu nehmen weil man im geamt usecase einfach weniger Strom bezahlen muss.

Dies könnte man dann als Basis aufbauen um dann FPS oder bsp Workstation Performance zu vergleichen pro Wh ! Denn am Ende des Tages kann es doch auch das Ziel sei die Stromrechnung im Zaum zu halten.
Oder bsp, was kann ich für Arbeit erledigen mit zb 5kwh Input.

Freue mich auf input.

Vg
 
Zuletzt bearbeitet :
Moin. Wer ist Ingo?
Egal.
Es gibt einen geradezu schlichten Weg, die Stromrechnung im Zaum zu halten: einfach weniger verbrauchen. Die ganzen Tests hingegen sind anzunehmenderweise mit extrem viel Aufwand verbunden und was alleine an Strom dabei verbraucht wird...
 
Du kannst dich einmal etwas mit Systemen für Mining oder grösseren Serveranlagen und Rechenzentren beschäftigen. Bei solch leistungsintensiven Anwendungen spielen die Kosten für Anschaffung, Stromverbrauch und Kühlung eine entscheidende Rolle. Deshalb nimmt man dafür keine Highend-Komponenten sondern gemütlichere Modelle. Diese sind wohl etwas langsamer, aber sie verbrauchen viel weniger Strom für die selbe Leistung. Oft taktet man sie dann noch etwas hinunter, so dass sie noch effizienter werden. Man überlegt sich auch genau, welche Bauteile für die entsprechende Anwendung wie stark ausgelgt werden muss und rechnet Kosten und Nutzen von Investitionen durch.

Ein Server braucht beispielsweise schnelle, grosse Festplatten und viel Arbeitsspeicher. Dazu nimmt man einen Prozessor mit vielen Kernen, die aber nicht besonders schnell sein müssen.

Ein Minimgsystem braucht dagegen nur viele preiswerte Grafikkarten. Der Prozessor und der ganze Rest wird kaum beansprucht. Für Wissenschaftliche Arbeiten kann es wieder anders aussehen.

Wenn man sich etwas damit befasst, hilft einem das auch, einen PC für die eigenen Anwendungen sinnvoll auszulegen. Vor man sich neue tolle Komponenten kauft, sollte man sich mit dem Taskmanager oder anderen Tools ansehen, welche Bauteile in welchen Situationen stark ausgelastet sind. Dann kann man erst mal die vorhandenen Engpässe beseitigen. Manchmal ist es auch sinnvoll, die eigenen Ansprüche nicht zu hoch zu setzen. Neu Komponenten anschaffen, nur weil sie möglicherweise 10 - 20 % schneller sein könnten, ist nicht sinnvoll.
 
Genau hier will ich ja ansetzen.
Mir ist schon klar das die Geschichte aufwendig ist. Aber wenn man mal einen gewissen Testparkour entwickelt hat und diesen nicht auf Schnelligkeit sondern Effizienz rechnet, dann hilft dies womöglich auch bei der Komponentenwahl.

Genau hier finde gibt es nicht viele Infos in den einschlägigen Kanälen. Ich glaube Igor hatte hier doch dazu Mal ein Video erstellt.

Natürlich haben Rechenzentren hier ein grosses Interesse. Nur wenn man die Vielzahl PC/ Konsolen in den Haushalten sieht, sollte hier auch ein Interesse bestehen und zumindest einige Richtlinien entstehen, sonst stehen wir gefüllt in ein paar Jahre bei 400-500 Watt TDP gpus um den Blödsinn von 8k zu befeuern.
Vielleicht muss hier auch irgendwo Mal regulative Gegengearbeit geleistet werden oder zumindest Transparenz geschaffen werden.
 
Zuletzt bearbeitet :
Das Problem beginnt m.E. doch schon bei einer vernünftigen Verbrauchsmessung und entsprechenden Messgeräten. Die hat doch kaum einer bzw. jeder hat etwas anderes. Wenn aber schon diese Datenbasis knirscht, macht das Ganze - meiner bescheidenen Meinung - nur sehr eingeschränkt Sinn, wenn überhaupt wohl nur in Richtung einer "groben Richtschnur".
 
Für Video oder 3d Render oder ander workloads kann man dies schon ganz gut standardisieren denke ich. Aber hier liegt es natürlich dann auch bei Details. Ich nutze zb davinci resolve und muss mir da auch genau anschauen was ist GPU unterstützt und was nicht und welcher Codec sogar Hardware beschleunigt usw. Aber genau darum geht es ja. Bei 3d Games kann man da sicher auch eine Parkour zusammenstellen und dann auf ein Leistungsmesser schauen, der natürlich auch von den restlichen Komponenten abhängt. Es geht ja hauptsächlich darum, die grossen Stromfresser zu finden und zu hinterfragen !
 
Ob sowas in einem "Enthusiastenforum" auf viel Zuspruch stößt, wage ich zu bezweifeln. Man gibt viel Geld aus, um die höchstmögliche Leistung zu erzielen, das geht dann meist auch mit dem höchsten Stromverbrauch einher.
 
Klar. Aber das eine muss das andere ja nicht komplett ausschließen. Ich fahre bei meinem System 2-3 Profile und passe CPU und GPU je nach Leistungsdarf auch mal an.
Diese Gedanken haben ja auch einen Hintergrund. Wir haben eine grosse Solaranlage auf dem Dach. Dafür könnte ich mir vorstellen einen Akku zu kaufen und je nachdem was die Sonne an Leistung bring passe ich eh schon mein bedarf im Haushalt an. Dies könnte ich mir auch beim Rechner vorstellen. Das Thema geht noch weiter. Ein 600 Watt Rechner im kfw40 Haus im Sommer ist kein Geschenk. Die Abwärme bekommt man nicht mehr aus dem Raum. Auch hier ist Effizienz ein Punkt.

Ich werde Mal einen Anfang machen und Mal ein paar bsp durchspielen mit meinem 3900x plus Radeon vii. Mal schauen wie ich mit gerigem Aufwand Gesamtsystem Watt auswerten kann.
 
Außerdem hat die Chip Lotterie einen sehr großen Einfluss auf die Effizienz.
Zwischen einem goldenen Chip und einer Kartoffel gibt es durchaus 10% Unterschied bei der Leistungsaufnahme.
 
Hallo Igor,
Hallo igorslab Community,
ich habe einen Wunsch und würde mich freuen über ein paar Ideen, wie man dies umsetzen könnte.
Wir sehen gerade eine Inflation an Power Input bei verschiedenen Hardware Herstellern. Meiner Meinung passt dies nicht in das Bild einer CO2 neutralen Zukunft.

Wie könnte ein Setup an benchmarks aussehen, bei dem es darum geht für einen bestimmten Anwendungsfall das effizienteste System zu finden.
Bsp 780ti -280ti hatten eine TDP von 250watt heute sehen wir bei 3080 und 3090 300/ 350 Watt. Bsp 2 Intels Effizienz im 14nm Prozess und wie teuer wird sich hier Konkurrenzfaehigkeit erkauft.
Des weiteren nehmen wir Mal einen 5600x und paaren diesen mit GPU XYZ für Auflösung 1080p , 1440p und 4k. Mit 60 FPS/ 100fps / 144 fps. Welche GPU benötige ich für welchen Fall.

Nicht jeder braucht einen 12 core oder 16er usw.
Macht es nicht sogar manchmal Sinn den 6 Kerner zu nehmen weil man im geamt usecase einfach weniger Strom bezahlen muss.

Dies könnte man dann als Basis aufbauen um dann FPS oder bsp Workstation Performance zu vergleichen pro Wh ! Denn am Ende des Tages kann es doch auch das Ziel sei die Stromrechnung im Zaum zu halten.
Oder bsp, was kann ich für Arbeit erledigen mit zb 5kwh Input.

Freue mich auf input.

Vg

Ist jetzt eine absolut unqualifizierte Beobachtung meinerseits aber von Tests her sind ja die neuen Grafikkarten auf Leistung der Vorgängergenerationen auch wirklich um einiges Effizienter. Des Weiteren sind die Ryzen 16 Kerner wohl sehr gut gebinnt und extrem gut von dem wie die Spannung und Co sich stets anpasst. Der 8Bauer hat ja mal getestet wie hoch der Stromverbrauch ist und der ist halt wirklich verschwindend gering. (den Stromtest hat er noch bei Zen 2 gemacht.
 
Es ist schon so, dass bei den Grafikkarten eine neue Generation oft 30 - 50 % mehr Leistung bei ähnlichem Stromverbrauch bringt. Das bedeutet natürlich, dass die Effizienz auch in der Grössenordnung gestiegen ist. Die neu erscheinenden Grafikkarten von Nvidia und AMD sind aber nur die Highend-Modelle, die auf maximale Leistung getrimmt sind und darum auch zu viel kosten und zu viel Strom verbrauchen. Wer es effizient will, der muss auf die kleineren Modelle im Preisbereich von 150 - 300.- warten.
 
Es ist schon so, dass bei den Grafikkarten eine neue Generation oft 30 - 50 % mehr Leistung bei ähnlichem Stromverbrauch bringt. Das bedeutet natürlich, dass die Effizienz auch in der Grössenordnung gestiegen ist. Die neu erscheinenden Grafikkarten von Nvidia und AMD sind aber nur die Highend-Modelle, die auf maximale Leistung getrimmt sind und darum auch zu viel kosten und zu viel Strom verbrauchen. Wer es effizient will, der muss auf die kleineren Modelle im Preisbereich von 150 - 300.- warten.
oder einfach downvolten und downclocken. Da schafft man es dann gut und gerne bei 40% weniger Stromverbrauch die Leistung der Vorgängergeneration zu erreichen.
 
Es ist schon so, dass bei den Grafikkarten eine neue Generation oft 30 - 50 % mehr Leistung bei ähnlichem Stromverbrauch bringt. Das bedeutet natürlich, dass die Effizienz auch in der Grössenordnung gestiegen ist. Die neu erscheinenden Grafikkarten von Nvidia und AMD sind aber nur die Highend-Modelle, die auf maximale Leistung getrimmt sind und darum auch zu viel kosten und zu viel Strom verbrauchen. Wer es effizient will, der muss auf die kleineren Modelle im Preisbereich von 150 - 300.- warten.
Jaein, denn bei den letzten 4 Generationen war bei Nvidia bei 250watt TDP Schluss ohne oc. Jetzt sind wir aber einen riesen Schritten weiter gegangen und stehen bei 350 Watt bei der 3090.
Im Grunde muss man auf die 3070 bei 250 Watt schauen und die dann mit der 2080ti vergleichen und da hat sich nichts getan. Die 3080/3090 ist doch nur schneller wegen mehr cuda cores und dies scheint ja nur bei riesen Auflösungen richtig gut in fps bei raytracing anzukommen.

Gerade Mal nachgeschaut, die 3070 ist ca 14% Prozent effizienter als die 2080ti, da die 3080/3090 ineffizienter sind sinkt der Effizienzgewinn gegenüber der 3080/3090.
 
Zuletzt bearbeitet :
Wie der Elektro-Ausbilder damals immer sagte: von nix kütt nix, Jung.
Wer Energie sparen möchte nimmt ein Laptop.
 
Gemessen an Fritz Schaltsteckdose:

5 Watt im Standby
ca. 230 Watt im Leerlauf
ca. 450 Watt Destiny 2 und 2 Monitoren 141hz und 60hz plus Topping MX5.

Mit Platin Netzteil…!

im Adrenalin GPU undervoltet, sonst alles auf STD.

Wobei mich eigentlich nur der Leerlauf stört.

Wenig geht anders.
 
Gemessen an Fritz Schaltsteckdose:

5 Watt im Standby
ca. 230 Watt im Leerlauf
ca. 450 Watt Destiny 2 und 2 Monitoren 141hz und 60hz plus Topping MX5.

Mit Platin Netzteil…!

im Adrenalin GPU undervoltet, sonst alles auf STD.

Wobei mich eigentlich nur der Leerlauf stört.

Wenig geht anders.
2 Monitore mit über 100Watt treiben den Leerlauf schon recht hoch + die 141HZ wo der VRam nicht mehr runter Taktet.
 
Ich finde es nicht schlimm diesen Thread auszugraben, könnte sehr interessant sein.

Hier mal bei mir:
System: Ryzen 7900, 32gb Ram, RTX4080, 2x Nvme SSD, 750W Platinum Netzteil
Bildschirm: LG 32Zoll 4K 60hz, verbraucht um die 40W im Betrieb, welche ich von der Steckdose weg rechne, nur für Standby habe ich keine Ahnung und denke bei so einem Geringen verbrauch, spielt es keine Rolle mehr.

Standby --> 3W (+Bildschirm im Standby)
Leerlauf --> 90W Steckdose, etwa 82W real HW
Gaming --> 300-350W Steckdose, etwa 285W - 333W real HW

Während des Gamings mit Bildschirm bin ich eigentlich immer unter 400W, hier müsste ich schon mehr erzwingen.

Real HW zieht die den Verlust des Netzteils mit in Betracht. Hier nehme gerne Werte aus Reviews (welche die Effizienz mit verschiedenen Lasten testen) um in etwa den Effizienzbereich zu ermitteln.

Am Ende zähl zwar nur das, was aus der Steckdose genuckelt wird, fürs Optimieren sind die reale Werte aber auch interessant. Es ist interessant die Werte der Software (theoretisch reale Werte der HW) und der Verbrauch an der Steckdose zu vergleichen. Hier können Optimierungen schon gerne mal an der Effizienz des Netzteils verpuffen und es macht keinen Sinn bis auf letzte mV zu optimieren und eine Unstabilität zu riskieren, wenn es am Ende an der Steckdose keine wirkliche Reduzierung bringt.

Am Ende eine kleine Kostenrechnung:
Privat --> Bei 4 Stunden am Tag bei 3x400W Gaming + 1x200W anderen Kram, die 6 Tage die Woche und 50 Wochen im Jahr käme ich auf 420kWh. Bei unseren aktuellen Preisen (0,20Euro/kWh) wären das 84Euro.

Home-Office --> 10 Stunden die Woche, über 40 Wochen, bei einem geschätztenen Verbrauch von 200W (Office Last + Bildschirm) käme ich auf 80kWh also 16Euro.

Jahresverbrauch --> 500kWh und 100Euro. (Finde es sehr wenig, wenn also jemand einen Fehler findet, bitte schreiben.)

Würde meine Hardware nun 20% mehr schlucken, käme ich auch nur auf 600kWh und 120Euro im Jahr, was einen 10er im Monat macht. Ich denke es gibt deutlich teurere Hobbys, was die laufenden Kosten angeht.
 
Bescheidene Frage: Wo bitte kostet Strom 20 Cent pro KW, oder rechnest Du die monatliche Grundgebühr als vorhanden raus?

Ich kenne bei Fritz die Anzeigeintervalle nicht, die Genauigkeit soll bei 1% liegen….

Die Frequenz von 144 auf 120hz senken sollen bummelig 20-30 Watt ausmachen….laut Fritz200.

Ich sollte tatsächlich mal meinen Jahresbedarf für PC erfassen, mal schauen ob ich mein altes Conrad Teil noch wieder finde….

Recht hast du….Stunden pro Tag…usw. …
 
Oben Unten