An sich sind die 40xx karten doch sehr effizient?
Sie haben das Potential, 450W usw. zu verbraten. Das ist aber kein Muss. In Sachen Effizienz verpruegeln diese Karten die Vorgaenger. Sei es im Idle, oder eben bei gleicher Framerate/ Aufloesung. Im Idle verbraucht meine 4090 nur die haelfte von dem, was die 3070TI schluckt. Und schafft dabei 8K Videos mit 60FPS und HDR. Die 3070TI dropt bereits bei 4K 60Hz Bilder ohne Ende. (Wer die 2D-Taktraten bei der 3070TI gesetzt hat gehoert gesteinigt)
Ich denke da an eine Zeit zurück, in der Grafikkarten nur einen Slot breit waren, keine zusätzlichen Stromstecker hatten und passiv gekühlt wurden.
Es ist ja eben das Traurige, dass eine 4090 wahrscheinlich sogar nahe daran betreibbar wäre, wenn Nvidia dies denn zuließe und daraufhin entwickeln würde - aber sie tun das Gegenteil.
Strom rein, was geht, und immer noch breitere Kühler, die PCIe-Slots zuparken, um die verlustige Abwärme abzuführen.
Der Gamer-Kundenwunsch ist freilich, für sein Geld richtig Material in der Hand zu halten.
Ändert nichts dran, dass das ziemlicher Irrsinn ist.
Früher schraubten Enthusiasten nachträglich Monster-Kühler drauf und übertakteten, was ging.
Heute kommen die Dinger von Haus aus so daher, und wer einigermaßen schlau ist, undervoltet, hat aber nicht so wirklich die Möglichkeit, das Ding wieder luftgekühlt schlank zu kriegen.
Nee… die 4090-Ungetüme kann man nicht ernsthaft noch effizient nennen, während Apple in manchen Geräten ihre mickrigen SoC-Prozessoren passiv kühlt und trotzdem 30fps in Shadow of the Tomb Raider schafft, bei gerade mal 20 Watt.
Wäre so spannend zu wissen, was man aus dem ad102 rausholen könnte, wenn man von Anfang an ein stromsparendes Board designet. Aber sowas würde Nvidia leider niemals greenlighten - und der Gamer wohl kaum kaufen.