GPUs Latest news

NVIDIA prepares for hot “Blackwell” GPUs: Cooling for RTX 50 in test (250W to 600W)

NVIDIA is testing cooling modules for the next generation of GeForce RTX 50 “Blackwell” gaming GPUs, which are expected to deliver up to 600W of power, as NVIDIA’s new “Blackwell” GPUs are expected to launch in the second half of this year and are expected to offer a significant performance boost over the current RTX 40 series. However, to cope with this higher performance, NVIDIA will also need to develop more advanced cooling systems.

According to Benchlife, NVIDIA has already started testing and verifying cooling modules with capacities of up to 600W. This indicates that the most powerful “Blackwell” GPUs will consume significantly more power than the current models. However, it is important to note that these are only test versions. The final products will likely be more energy efficient and consume less power. Nevertheless, the test shows that NVIDIA is preparing for the cooling of its new GPUs. In addition to the high-performance models, NVIDIA will probably also offer more energy-efficient “Blackwell” GPUs for the mainstream market. These GPUs will likely be equipped with lower power cooling modules.

The timeline for the release of the “Blackwell” GPUs is as follows

  • End of Q3 2024: Unveiling of the GeForce RTX 5080 and RTX 5090 (ultra-enthusiast segment)
  • Q4 20 24: Market launch of the GeForce RTX 5080 and RTX 5090
  • Early 2025: Market launch of further “Blackwell” GPUs for high-end, mainstream and budget segments

It is important to note that this is only speculation and NVIDIA’s actual timeline may differ.

Conclusion:

NVIDIA is working hard to prepare for the release of its next generation of gaming GPUs. The “Blackwell” GPUs should offer a significant leap in performance compared to the current RTX 40 series, but also require more advanced cooling systems. The test of cooling modules with up to 600W power shows that NVIDIA is preparing for the cooling of its new GPUs. The first “Blackwell” GPUs are expected to hit the market at the end of this year.

Source: Benchlife, TechPowerUP

Kommentar

Lade neue Kommentare

komatös

Veteran

104 Kommentare 78 Likes

Finde den Fehler. Schon im ersten Satz: Die Grafikkarten werden keine 600 W Leistung liefern, sondern verbrauchen. Aber ja, wenn mit 600 W die Abwärmeleistung gemeint war, dann ist der Satz richtig.

Antwort 3 Likes

Lieblingsbesuch

Veteran

451 Kommentare 80 Likes

interessant wird sein, ob NVIDIA bei der RTX 5090 auf zwei oder weiterhin auf einen 12VHPWR-Anschluss setzen wird.

Antwort 1 Like

Nulight

Veteran

231 Kommentare 156 Likes

Ich hoffe die Effizienz wurde *mindestens* verdoppelt XD.

Antwort 1 Like

s
samhayne

Veteran

108 Kommentare 77 Likes

Ich fänd’s ja geil, wenn die Karten einfach wieder effizienter und damit dünner und stromsparender würden.
Aber man verkauft die halt leider über FPS. Meh.

(Was inzwischen eh Quatsch ist, weil die Spielehersteller aus der Mehrleistung eh kaum zusätzliche Qualität zaubern - wir zahlen ’n Haufen Geld, damit die weniger Manntage in die Optimierung der PC-Konvertierung stecken müssen.)

Antwort 9 Likes

NordishBen

Mitglied

14 Kommentare 9 Likes

Sehr gut auf den Punkt gebracht. Mit der aktuellen Technik, könnte man eigentlich großartige Grafikkarten mit geringem Stromverbrauch produzieren und trotzdem einen guten Spielgenuss erleben. Aber weil die Entwicklung erbärmlichst durchgepeitscht wird und auch auch zig verschiedene Standards berücksichtigt werden müssen, weil jede Produzenten von Konsolen, Betriebssystem und Grafikchips jeweils ein eigenes Süppchen kochen müssen, wird Energie stumpf verschwendet und läuft hinterher alles die ersten Monate sowieso unrund...

Antwort 1 Like

FfFCMAD

Urgestein

681 Kommentare 179 Likes

An sich sind die 40xx karten doch sehr effizient?

Sie haben das Potential, 450W usw. zu verbraten. Das ist aber kein Muss. In Sachen Effizienz verpruegeln diese Karten die Vorgaenger. Sei es im Idle, oder eben bei gleicher Framerate/ Aufloesung. Im Idle verbraucht meine 4090 nur die haelfte von dem, was die 3070TI schluckt. Und schafft dabei 8K Videos mit 60FPS und HDR. Die 3070TI dropt bereits bei 4K 60Hz Bilder ohne Ende. (Wer die 2D-Taktraten bei der 3070TI gesetzt hat gehoert gesteinigt)

Antwort 2 Likes

s
samhayne

Veteran

108 Kommentare 77 Likes

Ich denke da an eine Zeit zurück, in der Grafikkarten nur einen Slot breit waren, keine zusätzlichen Stromstecker hatten und passiv gekühlt wurden.

Es ist ja eben das Traurige, dass eine 4090 wahrscheinlich sogar nahe daran betreibbar wäre, wenn Nvidia dies denn zuließe und daraufhin entwickeln würde - aber sie tun das Gegenteil.
Strom rein, was geht, und immer noch breitere Kühler, die PCIe-Slots zuparken, um die verlustige Abwärme abzuführen.

Der Gamer-Kundenwunsch ist freilich, für sein Geld richtig Material in der Hand zu halten.
Ändert nichts dran, dass das ziemlicher Irrsinn ist.

Früher schraubten Enthusiasten nachträglich Monster-Kühler drauf und übertakteten, was ging.
Heute kommen die Dinger von Haus aus so daher, und wer einigermaßen schlau ist, undervoltet, hat aber nicht so wirklich die Möglichkeit, das Ding wieder luftgekühlt schlank zu kriegen.

Nee… die 4090-Ungetüme kann man nicht ernsthaft noch effizient nennen, während Apple in manchen Geräten ihre mickrigen SoC-Prozessoren passiv kühlt und trotzdem 30fps in Shadow of the Tomb Raider schafft, bei gerade mal 20 Watt.

Wäre so spannend zu wissen, was man aus dem ad102 rausholen könnte, wenn man von Anfang an ein stromsparendes Board designet. Aber sowas würde Nvidia leider niemals greenlighten - und der Gamer wohl kaum kaufen.

Antwort 2 Likes

Klicke zum Ausklappem
FfFCMAD

Urgestein

681 Kommentare 179 Likes

Doch. Sie sind effizient. Und es gibt auch entsprechend kleinere Varianten. Deine Anforderungen an Lüfterlos etc sind halt unterstes Low End. Interessiert halt kaum einen, da dann nicht genuegend Leistung fuer aktuelle Anforderungen zur Verfuegung steht. Die Karten frueher brauchten halt oftmals keinen Kuehler, weil sie effektiv auch nichts konnten.

Antwort 3 Likes

s
samhayne

Veteran

108 Kommentare 77 Likes

Die kleineren Varianten sind sogar ineffizienter.
Die 4090 ist am effizientesten… und könnte noch viel effizienter sein, wenn Nvidia nicht neben Architekturverbesserungen und geringeren Strukturbreiten auch die TDP immer weiter hochjagen würde (mit immer mehr Verlustwärme, die mit immer fetteren Kühlern abgeführt werden muss).

Die PS3 bis PS5 schluckten als Gesamtsystem relativ gleichbleibend zwischen 150 und 200 Watt.
PS3: 170-200W
PS4: ~150 Watt
PS5: ~200 Watt (PS5 Games) / 100 Watt (PS4 Games)

Die TDPs der Nvidia GPUs dagegen:
980: 165W
1080: 180W
2080: 225W
2080 TI: 260W
3080: 320W
3090: 350W
4080: 320W
4090: 450W
5090: 500W (?)

Irgendwas läuft hier falsch.

Und nochmal: Die meisten Spiele sind Konsolenkonvertierungen, die meist nur so mittelgut auf PC angepasst sind.
Man zahlt auf PC ‘n Haufen Geld für Hardware und Strom, damit die Spielepublisher Entwicklungskosten sparen.

Meine Behauptung: Wir wären besser dran, würde Nvidia es bei Architekturverbesserungen und geringeren Strukturbreiten belassen, und darauf zu verzichten, mit immer höherer Stromzufuhr samt immer ausladenderen Monsterkühlern noch zusätzlich an der Boost-Schraube zu drehen.

Da Games-Entwickler dann die Konvertierungen automatisch besser optimieren würden, würde “der PC Gamer” auch gar nicht viel verlieren.

Antwort 6 Likes

Klicke zum Ausklappem
Alkbert

Urgestein

944 Kommentare 720 Likes

Ich lass mich mal von der Rohleistung überraschen. Das werden wir dann sehen, ob sich die 5090 im Vgl. zur 4090 zum 3D Rendern lohnt oder nicht. Die Versprechungen im Vorfeld sind ja schon immer vollmundig - man fühlt sich da zeitweise wie in der Politik.

Antwort Gefällt mir

FfFCMAD

Urgestein

681 Kommentare 179 Likes

Die Games-Entwickler werden einen Scheiss...

Die Publisher interessiert nur, ob das Spiel halbwegs laeuft und die Marke fuer eine breite Kundenschicht erreichbar ist. Wie dein Spielerlebniss aussieht interessiert da keinen. Wenn du deine 30 - 60 FPS bekommst bei einem normalen System ist das Ziel erreicht. Willste mehr, brauchste auch dickere Hardware. Und das Problem, so wie du beschreibst, liegt nicht alleine an Nvidia. Sondern auch an Windows. Das Ding hat so viele Layer, das die eigentliche Bremse eher das OS ist. Auch ist es ein Witz, ne PS5 mit einem PC zu vergleichen, was Effizienz angeht. Die PS5 ist nur zum Spielen da, die Leistung ist unteres Mittelmaß. Beim PC hast du eine ganz andere Palette von Optionen. Obst vs. Birnen. Die aktuellen Konsolen haben auch in ihrer Architektur einen Vorteil, den der PC nicht hat: Speicheranbindung. Dumm nur, das diese auch ein Nachteil vs. PC ist, weil nicht flexibel. Wenn dir Konsolenperformance reicht, hol dir halt ne Konsole. Wenn du PC spielen willst: Guck halt was fuer dich am besten passt. Besser wirds aktuell nicht. Die naechste Generation wird wieder effizienter sein als der Vorgaenger.

Antwort Gefällt mir

Nulight

Veteran

231 Kommentare 156 Likes

Vielleicht liegt es auch einfach daran, dass 4K als neuer Standard langsam etabliert wird, quasi irgendein Generationswechsel vom primären Monitor 1440 P und vormals 1080 P, die E-Sports Generation spielt ja sowieso weiterhin auf 1080 P.
In dem Sinne meine Vermutung.
Daher verpufft ein Großteil der Rohleistung der neuen GPU‘s.

Antwort 1 Like

D
Dezor

Veteran

494 Kommentare 216 Likes

ComputerBase hat es mit der Notebook-Version der 4090 also quasi einer 4080 getestet: https://www.computerbase.de/2023-02...est/#abschnitt_leistung_bei_8060_bis_150_watt

Die mobile 4090 verliert bis auf 70 W runter nur minimal Leistung - das wäre ohne zusätzlichen Stromanschluss zumindest grenzwertig, passiver Dual-Slot-Kühler dürfte aber möglich sein. Die mobile 4080 (= leicht abgespeckte 4070 Ti) verliert bis auf 55 W runter kaum Leistung. Das geht ohne zusätzliches Stromkabel und auch problemlos passiv gekühlt in 2 Slots oder mit flüsterleisen Lüftern in einem.

Die 4090 würde mit dem großen Chip unter 100 - 120 W wahrscheinlich auch stark einbrechen. Aber eine flüsterleise Dual-Slot GPU mit 120 W für eine immer noch enorme Performance wäre auch eine Ansage.

Man könnte also wenn man wollte ...

Antwort 1 Like

D
Deridex

Urgestein

2,217 Kommentare 851 Likes

Wie wäre es mit einer Art "Eco Version"?
Ich glaube die ließe sich sogar anständig vermarkten.

Antwort 2 Likes

H
Headyman

Veteran

117 Kommentare 54 Likes

Nividia hat keine Wahl, wenn sie nicht bei mickrigen ~30% Performancegewinn verhungern wollen (mehr geben die Fertigungsverfahren leider nicht mehr her), muss die Mehrleistung durch weiteres Hochprügeln der Verbräuche kommen.

Das wusste man aber schon länger, die 600W wurden ja schon angeprobt.

Das Namensschema hat Nvidia politisch eh schon verhunzt.
Deshalb schau ich immer mehr auf die Verbrauchswerte anstatt auf die Performance. Was bekomme ich für 200-250W. Mehr ist für mich nicht sinnvoll.

Interessant wird es dann, wie z.B. 300W Karten bei 220W abschneiden. Statt hochgeprügelte ineffiziente Saufkuh, auf einmal flüsterleiser Effizienzmeister.
Bei dem aktuellen Preisniveau vergeht einem das aber auch relativ schnell.

Antwort 1 Like

T
Toprallog

Mitglied

19 Kommentare 0 Likes

Irgendwie widersprüchlich der Satz:
zum restlichen Text.
Eine Leistungsaufnahme von 600W wäre echt übertrieben. Wird aber auch nur wenige User, die der RTX 5090 (UVP vermutlich 2000+ Euro), betreffen.

Antwort Gefällt mir

c
christoph1717

Mitglied

42 Kommentare 12 Likes

Das war bei mir dann die Geforce 2 MX (vor 24 ! Jahren), danach die Geforce 4400Ti hatte Lüfter und danch die Geforce 6800 auch Stromstecker.

Antwort Gefällt mir

NamaNatranius

Mitglied

16 Kommentare 3 Likes

Ja füher hat man auch in Max HD oder niederieger bei max 60fps oder weniger und man kannte es auch nicht anders. Aber ich hab halt keine lust mehr auf 60 hz oder hd/wqhd 24-30 zoll. ich finde 120Fps so langsam als anehmbahr und ja ich bin verwöhnt dafür geb ich aber auch alles zwei jahre mehre 10000€ aus mir ist der strom auch vollkomen egal weil daführ ge ich arbeiten wenn ich mir das mal nicht mehr leisten kann geh ich auch nicht arbeiten. Im gegen teil find ich intersant sachen zu kühlen oder flüsig metall direct die. noraml ist führ mich langweilig würde eh mein strom hoch ziehen bei eco karte oder ein xoc bios drauf flashen. Aber alles nur meine perönliche meinung finde nur wenn man die beste leistung will sollte man sich nicht über der verbrauch beschweren sonst halt was anders kaufen oder undervolten.

Antwort Gefällt mir

F
FreezyLemon

Neuling

5 Kommentare 0 Likes

Ich find die Lösung mit dem Eco-Mode wie bei Ryzen eigentlich ganz gut. Standard aus der Box bekommst du das, was die Benchmarkgraphen versprechen (dafür aber einen dementsprechenden Stromfresser) und wenn dir Effizienz wichtig ist, machste einen Klick und reduzierst den Verbrauch deutlich bei weiterhin akzeptabler Performance. Meinetwegen könnte man das auch andersrum machen, aber selbst das ist wahrscheinlich schon eine unrealistische Erwartung meinerseits.

Leider ist ja Nvidia kein großer Fan davon, bei den GPUs groß was an den Werkseinstellungen zu ändern. Da ich selber schon lange keine mehr hatte: Kann man ohne größere Eingriffe (z. B. VBIOS flashen) das Power Limit senken, um so was ähnliches zu erreichen? Nach oben hin ist es ja oft begrenzt.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung