Ultharandor
Mitglied
- Mitglied seit
- Jun 16, 2021
- Beiträge
- 43
- Bewertungspunkte
- 11
- Punkte
- 8
Hallo an die Community,
ich stelle mir immer wieder die Frage warum brauchen CPU's und Grafikkarten immer mehr Watt.
Die Ankündigung für Alder Lake aber auch ZEN-4 sprechen jetzt schon von 170Watt kurzzeitig
Bei Grafikkarten ist es nicht besser.
Eine Effizientbetrachtung bring auch nicht ganz soviel weil was bringt es mir, wenn ich überspitz gesagt beim zocken 1000 FPS hab
aber auch gleichzeitig 1KW aus der Steckdose ziehe und die Bude sich auf 25 - 30 Grad erwärmt.
Wenn ich mich recht erinnern kann sind alle CPU'S / GPU's der letzten 3-4 Jahre in der Lage Leistungsaufnahmemäßig eingebremst zu werden.
Ich bin leider messtechnisch und auch elektrotechnisch nicht so ausgestattet und so bewandert, das ich solche Messungen durchführen kann.
Meine Ausgangsparameter:
Monitore schaffen 60 120 144 und max 165 Hertz. Das für UHD und UWQHD Qualitätssettings MAX möglicherweise bei 165Hertz keine der CPU's und Grafikkarten die165hz in Spielen oder nur in wenigen Spielen erreicht ist klar aber wie sieht es bi 60 - 120 Hertz FHD oder WQHD aus.
Deshalb hier hier mal eine generelle Frage.
Wäre es, auch wenn es mega viel Aufwand ist, nicht mal möglich einen Architekturvergleich zu machen.
Teilnehmer
möglichst viele Grafikkarten sagen wir Nvidia 1000er 2000er 3000er Serie mindesten 1. AMD vergl. Karte AMD 500 / 5000 / 6000er
Maximalverbrauch der Karte festgezurrt auf 150Watt Max Verbrauch.
CPU Íntel 8000er 9000er 11000er (4 und 8 Kerner) / AM 2000er 3000er 5000er
Maximalverbrauch der CPU fest 65 Watt
2 - 3 Spiel plus Anwendung, zum Vergleich mit dem Eigenen System 3DMark Timespy in Standard und PCMark10 in Standard (Man kann nichts einstellen ist aber auch nicht wichtig dient ja nur dem Vergleich)
Wäre das nicht mal sinnvoll?
Denn ein Beispiel: Ich habe eine RX5700XT (Siehe eGPU Threat) und einen Intel I5-1135G7. Das verbraucht bei Timespy ca 250Watt(bei ca. 54 Frames FHD)
Mein Monitor LG 34UW99 ist aber 3440x1440 max 75hz. Fazit für mich, mein Setup ist noch ein wenig zu Langsam. Ich möchte aber nicht mehr verbrauchen, sondern lieber weniger, würde nun eine 3090 oder eine 6900XT die 75hz bei 250Watt Gesamtsystemverbrauch schaffen? Das kann mir kein Test sagen.
Ich weiß nur das ich höchst wahrscheinlich mit einer 6800 schneller sein werde, wahrscheinlich auch bei weniger Verbrauch.
Aber um wieviel schneller ist denn nun eine 6900XT oder 3090 zur 6800 bei gleichem Verbrauch. Das testet an sich niemand.
Alle reden von CO² Reduzierung nur wir Zocker brauchen FPS FPS FPS, egal ob ich die Tausend FPS mit meinem null 8/15 FullHD Monitor
noch sehen kann.
So jetzt dürft Ihr mich auseinandernehmen
@Igor hättest Du nicht einmal Lust zu so einem Test? Ich weiß unendlich viel Arbeit aber bisher hat das noch keiner gemacht würde ich sagen.
ich stelle mir immer wieder die Frage warum brauchen CPU's und Grafikkarten immer mehr Watt.
Die Ankündigung für Alder Lake aber auch ZEN-4 sprechen jetzt schon von 170Watt kurzzeitig
Bei Grafikkarten ist es nicht besser.
Eine Effizientbetrachtung bring auch nicht ganz soviel weil was bringt es mir, wenn ich überspitz gesagt beim zocken 1000 FPS hab
aber auch gleichzeitig 1KW aus der Steckdose ziehe und die Bude sich auf 25 - 30 Grad erwärmt.
Wenn ich mich recht erinnern kann sind alle CPU'S / GPU's der letzten 3-4 Jahre in der Lage Leistungsaufnahmemäßig eingebremst zu werden.
Ich bin leider messtechnisch und auch elektrotechnisch nicht so ausgestattet und so bewandert, das ich solche Messungen durchführen kann.
Meine Ausgangsparameter:
Monitore schaffen 60 120 144 und max 165 Hertz. Das für UHD und UWQHD Qualitätssettings MAX möglicherweise bei 165Hertz keine der CPU's und Grafikkarten die165hz in Spielen oder nur in wenigen Spielen erreicht ist klar aber wie sieht es bi 60 - 120 Hertz FHD oder WQHD aus.
Deshalb hier hier mal eine generelle Frage.
Wäre es, auch wenn es mega viel Aufwand ist, nicht mal möglich einen Architekturvergleich zu machen.
Teilnehmer
möglichst viele Grafikkarten sagen wir Nvidia 1000er 2000er 3000er Serie mindesten 1. AMD vergl. Karte AMD 500 / 5000 / 6000er
Maximalverbrauch der Karte festgezurrt auf 150Watt Max Verbrauch.
CPU Íntel 8000er 9000er 11000er (4 und 8 Kerner) / AM 2000er 3000er 5000er
Maximalverbrauch der CPU fest 65 Watt
2 - 3 Spiel plus Anwendung, zum Vergleich mit dem Eigenen System 3DMark Timespy in Standard und PCMark10 in Standard (Man kann nichts einstellen ist aber auch nicht wichtig dient ja nur dem Vergleich)
Wäre das nicht mal sinnvoll?
Denn ein Beispiel: Ich habe eine RX5700XT (Siehe eGPU Threat) und einen Intel I5-1135G7. Das verbraucht bei Timespy ca 250Watt(bei ca. 54 Frames FHD)
Mein Monitor LG 34UW99 ist aber 3440x1440 max 75hz. Fazit für mich, mein Setup ist noch ein wenig zu Langsam. Ich möchte aber nicht mehr verbrauchen, sondern lieber weniger, würde nun eine 3090 oder eine 6900XT die 75hz bei 250Watt Gesamtsystemverbrauch schaffen? Das kann mir kein Test sagen.
Ich weiß nur das ich höchst wahrscheinlich mit einer 6800 schneller sein werde, wahrscheinlich auch bei weniger Verbrauch.
Aber um wieviel schneller ist denn nun eine 6900XT oder 3090 zur 6800 bei gleichem Verbrauch. Das testet an sich niemand.
Alle reden von CO² Reduzierung nur wir Zocker brauchen FPS FPS FPS, egal ob ich die Tausend FPS mit meinem null 8/15 FullHD Monitor
noch sehen kann.
So jetzt dürft Ihr mich auseinandernehmen
@Igor hättest Du nicht einmal Lust zu so einem Test? Ich weiß unendlich viel Arbeit aber bisher hat das noch keiner gemacht würde ich sagen.
Zuletzt bearbeitet
: