NVIDIA bereitet sich auf heiße „Blackwell“-GPUs vor: Kühlung für RTX 50 im Test (250W bis 600W)

Das war also das selbe wie von 150W auf 300W auf 600W.
Na gut, das ist aber keine gradlinige Entwicklung die man einfach so mit "so viel mehr pro Generation" beschreiben kann. Highend-Grafikkarten wie mit 300 Watt und mehr gab es auch schon vor über 10 Jahren. Von einer GTX 590 oder einer Titan Z mit 365 - 375 Watt über eine R9 295 X2 mit 500 Watt bis zu einer HD 7990 XT2 mit etwa 700 Watt haben wir schon alles gesehen.

 
Moin,
Ich glaube viele Leute machen sich unnötig heiß wegen der 600 Watt. Die Karte wird vermutlich auch so viel nehmen können, analog der 4090, aber mit an Sicherheit grenzender Wahrscheinlichkeit deutlich darunter liegen, eher so im Bereich der 4090 vermute ich.
Während der Testphase lotet man die Grenzen aus und ermittelt die bevorzugten Lösungen für die einzelnen Kategorien. Hierbei schadet es nie gewisse Reserven mit einzuplanen.
Gruß Beschi
 
Boa, 600W Abwärme.. dann noch übertakten.. also Luftkühlung dann bei 120 DB? Würde dann nach wohl eher eine 420er AIO brauchen, wenn halbwegs Ruhe im Karton sein soll..
 
Moin,
Ich glaube viele Leute machen sich unnötig heiß wegen der 600 Watt. Die Karte wird vermutlich auch so viel nehmen können, analog der 4090, aber mit an Sicherheit grenzender Wahrscheinlichkeit deutlich darunter liegen, eher so im Bereich der 4090 vermute ich.
Während der Testphase lotet man die Grenzen aus und ermittelt die bevorzugten Lösungen für die einzelnen Kategorien. Hierbei schadet es nie gewisse Reserven mit einzuplanen.
Gruß Beschi
So sieht's aus. Lustig auch, dass sich ein Kollege in die Hosen gemacht hat und die 7900XTX geholt hat, weil die 4090 ja so viel verbrauche (ohne zu Wissen wie sehr effizienter eine 4090 im Vergleich zur 7900XTX ist). Dabei ist die TDP der 4090 ja eher nur mit 4K Spielen und ordentlichem Raytracing überhaupt ansatzweise zu erreichen (bzw. wenn man den Chip ordentlich ausgelastet bekommt). Mehr wird wohl bei der 5090 verbrauchstechnisch auch nicht gehen und man lässt sich die Option offen, um in bestimmten Szenarios noch mehr Leistung rauszuprügeln. 😅
PS: Meine 4090 läuft undervoltet und die Effizienz ist absoluter Wahnsinn
 
So sieht's aus. Lustig auch, dass sich ein Kollege in die Hosen gemacht hat und die 7900XTX geholt hat, weil die 4090 ja so viel verbrauche (ohne zu Wissen wie sehr effizienter eine 4090 im Vergleich zur 7900XTX ist). Dabei ist die TDP der 4090 ja eher nur mit 4K Spielen und ordentlichem Raytracing überhaupt ansatzweise zu erreichen (bzw. wenn man den Chip ordentlich ausgelastet bekommt). Mehr wird wohl bei der 5090 verbrauchstechnisch auch nicht gehen und man lässt sich die Option offen, um in bestimmten Szenarios noch mehr Leistung rauszuprügeln. 😅
PS: Meine 4090 läuft undervoltet und die Effizienz ist absoluter Wahnsinn
Da Nvidia die Käufer als Langzeittester für ihre nicht ganz ausentwickelten Stromstecker missbraucht hat, kann ich den Wechsel auf AMD im Nachhinein schon verstehen. Allerdings wusste man das am Anfang ja noch nicht.
 
Im Gegenteil: Es ging ihm nicht um den Stromstecker, sondern um die TDP. 7900XTX=355W, 4090=450W. Also dann lieber die 355W, weil 450W "nicht zumutbar". Der Otto-Normalo schaut nur auf solche Zahlen. Dabei hat er sogar eine Sapphire Nitro+, die er probeweise auf 420W gestellt und gemerkt hat, dass die Karte diese beinahe immer ausreizt. Da hat er dann nicht schlecht gestaunt.
PS: Will den Stromstecker nicht schönreden, welcher auch bei mir für Kopfzerbrechen gesorgt hat, wie in Post #33 beschrieben. :/
 
Zuletzt bearbeitet :
Oben Unten