Grafikkarten News

NVIDIA bereitet sich auf heiße “Blackwell”-GPUs vor: Kühlung für RTX 50 im Test (250W bis 600W)

NVIDIA testet Kühlmodule für die nächste Generation der GeForce RTX 50 “Blackwell” Gaming-GPUs, die bis zu 600W Leistung liefern sollen, denn die neuen “Blackwell”-GPUs von NVIDIA werden voraussichtlich in der zweiten Hälfte dieses Jahres auf den Markt kommen und sollen einen deutlichen Leistungssprung gegenüber der aktuellen RTX 40-Serie bieten. Um diese höhere Leistung zu bewältigen, muss NVIDIA jedoch auch fortschrittlichere Kühlsysteme entwickeln.

Laut Benchlife hat NVIDIA bereits mit dem Testen und der Verifizierung von Kühlmodulen mit Kapazitäten von bis zu 600W begonnen. Dies deutet darauf hin, dass die leistungsstärksten “Blackwell”-GPUs deutlich mehr Strom verbrauchen werden als die aktuellen Modelle. Es ist jedoch wichtig zu beachten, dass es sich hierbei nur um Testversionen handelt. Die finalen Produkte werden wahrscheinlich energieeffizienter sein und weniger Strom verbrauchen. Dennoch zeigt der Test, dass NVIDIA sich auf die Kühlung seiner neuen GPUs vorbereitet. Neben den leistungsstarken Modellen wird NVIDIA voraussichtlich auch energieeffizientere “Blackwell”-GPUs für den Mainstream-Markt anbieten. Diese GPUs werden wahrscheinlich mit Kühlmodulen geringerer Leistung ausgestattet sein.

Der Zeitplan für die Veröffentlichung der “Blackwell”-GPUs sieht wie folgt aus:

  • Ende Q3 2024: Enthüllung der GeForce RTX 5080 und RTX 5090 (Ultra-Enthusiasten-Segment)
  • Q4 2024: Markteinführung der GeForce RTX 5080 und RTX 5090
  • Anfang 2025: Markteinführung weiterer “Blackwell”-GPUs für High-End-, Mainstream- und Budget-Segmente

Es ist wichtig zu erwähnen, dass es sich hierbei nur um Spekulationen handelt und der tatsächliche Zeitplan von NVIDIA abweichen kann.

Fazit:

NVIDIA bereitet sich mit Hochdruck auf die Veröffentlichung seiner nächsten Generation von Gaming-GPUs vor. Die “Blackwell”-GPUs sollen einen deutlichen Leistungssprung gegenüber der aktuellen RTX 40-Serie bieten, erfordern aber auch fortschrittlichere Kühlsysteme. Der Test von Kühlmodulen mit bis zu 600W Leistung zeigt, dass NVIDIA sich auf die Kühlung seiner neuen GPUs vorbereitet. Die ersten “Blackwell”-GPUs werden voraussichtlich Ende dieses Jahres auf den Markt kommen.

Quelle: Benchlife, TechPowerUP

Kommentar

Lade neue Kommentare

komatös

Veteran

128 Kommentare 104 Likes

Finde den Fehler. Schon im ersten Satz: Die Grafikkarten werden keine 600 W Leistung liefern, sondern verbrauchen. Aber ja, wenn mit 600 W die Abwärmeleistung gemeint war, dann ist der Satz richtig.

Antwort 3 Likes

Lieblingsbesuch

Urgestein

517 Kommentare 96 Likes

interessant wird sein, ob NVIDIA bei der RTX 5090 auf zwei oder weiterhin auf einen 12VHPWR-Anschluss setzen wird.

Antwort 1 Like

Nulight

Veteran

277 Kommentare 185 Likes

Ich hoffe die Effizienz wurde *mindestens* verdoppelt XD.

Antwort 1 Like

s
samhayne

Veteran

117 Kommentare 87 Likes

Ich fänd’s ja geil, wenn die Karten einfach wieder effizienter und damit dünner und stromsparender würden.
Aber man verkauft die halt leider über FPS. Meh.

(Was inzwischen eh Quatsch ist, weil die Spielehersteller aus der Mehrleistung eh kaum zusätzliche Qualität zaubern - wir zahlen ’n Haufen Geld, damit die weniger Manntage in die Optimierung der PC-Konvertierung stecken müssen.)

Antwort 9 Likes

NordishBen

Mitglied

17 Kommentare 10 Likes

Sehr gut auf den Punkt gebracht. Mit der aktuellen Technik, könnte man eigentlich großartige Grafikkarten mit geringem Stromverbrauch produzieren und trotzdem einen guten Spielgenuss erleben. Aber weil die Entwicklung erbärmlichst durchgepeitscht wird und auch auch zig verschiedene Standards berücksichtigt werden müssen, weil jede Produzenten von Konsolen, Betriebssystem und Grafikchips jeweils ein eigenes Süppchen kochen müssen, wird Energie stumpf verschwendet und läuft hinterher alles die ersten Monate sowieso unrund...

Antwort 1 Like

FfFCMAD

Urgestein

751 Kommentare 230 Likes

An sich sind die 40xx karten doch sehr effizient?

Sie haben das Potential, 450W usw. zu verbraten. Das ist aber kein Muss. In Sachen Effizienz verpruegeln diese Karten die Vorgaenger. Sei es im Idle, oder eben bei gleicher Framerate/ Aufloesung. Im Idle verbraucht meine 4090 nur die haelfte von dem, was die 3070TI schluckt. Und schafft dabei 8K Videos mit 60FPS und HDR. Die 3070TI dropt bereits bei 4K 60Hz Bilder ohne Ende. (Wer die 2D-Taktraten bei der 3070TI gesetzt hat gehoert gesteinigt)

Antwort 2 Likes

s
samhayne

Veteran

117 Kommentare 87 Likes

Ich denke da an eine Zeit zurück, in der Grafikkarten nur einen Slot breit waren, keine zusätzlichen Stromstecker hatten und passiv gekühlt wurden.

Es ist ja eben das Traurige, dass eine 4090 wahrscheinlich sogar nahe daran betreibbar wäre, wenn Nvidia dies denn zuließe und daraufhin entwickeln würde - aber sie tun das Gegenteil.
Strom rein, was geht, und immer noch breitere Kühler, die PCIe-Slots zuparken, um die verlustige Abwärme abzuführen.

Der Gamer-Kundenwunsch ist freilich, für sein Geld richtig Material in der Hand zu halten.
Ändert nichts dran, dass das ziemlicher Irrsinn ist.

Früher schraubten Enthusiasten nachträglich Monster-Kühler drauf und übertakteten, was ging.
Heute kommen die Dinger von Haus aus so daher, und wer einigermaßen schlau ist, undervoltet, hat aber nicht so wirklich die Möglichkeit, das Ding wieder luftgekühlt schlank zu kriegen.

Nee… die 4090-Ungetüme kann man nicht ernsthaft noch effizient nennen, während Apple in manchen Geräten ihre mickrigen SoC-Prozessoren passiv kühlt und trotzdem 30fps in Shadow of the Tomb Raider schafft, bei gerade mal 20 Watt.

Wäre so spannend zu wissen, was man aus dem ad102 rausholen könnte, wenn man von Anfang an ein stromsparendes Board designet. Aber sowas würde Nvidia leider niemals greenlighten - und der Gamer wohl kaum kaufen.

Antwort 2 Likes

Klicke zum Ausklappem
FfFCMAD

Urgestein

751 Kommentare 230 Likes

Doch. Sie sind effizient. Und es gibt auch entsprechend kleinere Varianten. Deine Anforderungen an Lüfterlos etc sind halt unterstes Low End. Interessiert halt kaum einen, da dann nicht genuegend Leistung fuer aktuelle Anforderungen zur Verfuegung steht. Die Karten frueher brauchten halt oftmals keinen Kuehler, weil sie effektiv auch nichts konnten.

Antwort 3 Likes

s
samhayne

Veteran

117 Kommentare 87 Likes

Die kleineren Varianten sind sogar ineffizienter.
Die 4090 ist am effizientesten… und könnte noch viel effizienter sein, wenn Nvidia nicht neben Architekturverbesserungen und geringeren Strukturbreiten auch die TDP immer weiter hochjagen würde (mit immer mehr Verlustwärme, die mit immer fetteren Kühlern abgeführt werden muss).

Die PS3 bis PS5 schluckten als Gesamtsystem relativ gleichbleibend zwischen 150 und 200 Watt.
PS3: 170-200W
PS4: ~150 Watt
PS5: ~200 Watt (PS5 Games) / 100 Watt (PS4 Games)

Die TDPs der Nvidia GPUs dagegen:
980: 165W
1080: 180W
2080: 225W
2080 TI: 260W
3080: 320W
3090: 350W
4080: 320W
4090: 450W
5090: 500W (?)

Irgendwas läuft hier falsch.

Und nochmal: Die meisten Spiele sind Konsolenkonvertierungen, die meist nur so mittelgut auf PC angepasst sind.
Man zahlt auf PC ‘n Haufen Geld für Hardware und Strom, damit die Spielepublisher Entwicklungskosten sparen.

Meine Behauptung: Wir wären besser dran, würde Nvidia es bei Architekturverbesserungen und geringeren Strukturbreiten belassen, und darauf zu verzichten, mit immer höherer Stromzufuhr samt immer ausladenderen Monsterkühlern noch zusätzlich an der Boost-Schraube zu drehen.

Da Games-Entwickler dann die Konvertierungen automatisch besser optimieren würden, würde “der PC Gamer” auch gar nicht viel verlieren.

Antwort 6 Likes

Klicke zum Ausklappem
Alkbert

Urgestein

962 Kommentare 752 Likes

Ich lass mich mal von der Rohleistung überraschen. Das werden wir dann sehen, ob sich die 5090 im Vgl. zur 4090 zum 3D Rendern lohnt oder nicht. Die Versprechungen im Vorfeld sind ja schon immer vollmundig - man fühlt sich da zeitweise wie in der Politik.

Antwort Gefällt mir

FfFCMAD

Urgestein

751 Kommentare 230 Likes

Die Games-Entwickler werden einen Scheiss...

Die Publisher interessiert nur, ob das Spiel halbwegs laeuft und die Marke fuer eine breite Kundenschicht erreichbar ist. Wie dein Spielerlebniss aussieht interessiert da keinen. Wenn du deine 30 - 60 FPS bekommst bei einem normalen System ist das Ziel erreicht. Willste mehr, brauchste auch dickere Hardware. Und das Problem, so wie du beschreibst, liegt nicht alleine an Nvidia. Sondern auch an Windows. Das Ding hat so viele Layer, das die eigentliche Bremse eher das OS ist. Auch ist es ein Witz, ne PS5 mit einem PC zu vergleichen, was Effizienz angeht. Die PS5 ist nur zum Spielen da, die Leistung ist unteres Mittelmaß. Beim PC hast du eine ganz andere Palette von Optionen. Obst vs. Birnen. Die aktuellen Konsolen haben auch in ihrer Architektur einen Vorteil, den der PC nicht hat: Speicheranbindung. Dumm nur, das diese auch ein Nachteil vs. PC ist, weil nicht flexibel. Wenn dir Konsolenperformance reicht, hol dir halt ne Konsole. Wenn du PC spielen willst: Guck halt was fuer dich am besten passt. Besser wirds aktuell nicht. Die naechste Generation wird wieder effizienter sein als der Vorgaenger.

Antwort Gefällt mir

Nulight

Veteran

277 Kommentare 185 Likes

Vielleicht liegt es auch einfach daran, dass 4K als neuer Standard langsam etabliert wird, quasi irgendein Generationswechsel vom primären Monitor 1440 P und vormals 1080 P, die E-Sports Generation spielt ja sowieso weiterhin auf 1080 P.
In dem Sinne meine Vermutung.
Daher verpufft ein Großteil der Rohleistung der neuen GPU‘s.

Antwort 1 Like

D
Dezor

Urgestein

502 Kommentare 217 Likes

ComputerBase hat es mit der Notebook-Version der 4090 also quasi einer 4080 getestet: https://www.computerbase.de/2023-02...est/#abschnitt_leistung_bei_8060_bis_150_watt

Die mobile 4090 verliert bis auf 70 W runter nur minimal Leistung - das wäre ohne zusätzlichen Stromanschluss zumindest grenzwertig, passiver Dual-Slot-Kühler dürfte aber möglich sein. Die mobile 4080 (= leicht abgespeckte 4070 Ti) verliert bis auf 55 W runter kaum Leistung. Das geht ohne zusätzliches Stromkabel und auch problemlos passiv gekühlt in 2 Slots oder mit flüsterleisen Lüftern in einem.

Die 4090 würde mit dem großen Chip unter 100 - 120 W wahrscheinlich auch stark einbrechen. Aber eine flüsterleise Dual-Slot GPU mit 120 W für eine immer noch enorme Performance wäre auch eine Ansage.

Man könnte also wenn man wollte ...

Antwort 1 Like

D
Deridex

Urgestein

2,229 Kommentare 863 Likes

Wie wäre es mit einer Art "Eco Version"?
Ich glaube die ließe sich sogar anständig vermarkten.

Antwort 2 Likes

H
Headyman

Veteran

119 Kommentare 55 Likes

Nividia hat keine Wahl, wenn sie nicht bei mickrigen ~30% Performancegewinn verhungern wollen (mehr geben die Fertigungsverfahren leider nicht mehr her), muss die Mehrleistung durch weiteres Hochprügeln der Verbräuche kommen.

Das wusste man aber schon länger, die 600W wurden ja schon angeprobt.

Das Namensschema hat Nvidia politisch eh schon verhunzt.
Deshalb schau ich immer mehr auf die Verbrauchswerte anstatt auf die Performance. Was bekomme ich für 200-250W. Mehr ist für mich nicht sinnvoll.

Interessant wird es dann, wie z.B. 300W Karten bei 220W abschneiden. Statt hochgeprügelte ineffiziente Saufkuh, auf einmal flüsterleiser Effizienzmeister.
Bei dem aktuellen Preisniveau vergeht einem das aber auch relativ schnell.

Antwort 1 Like

T
Toprallog

Mitglied

19 Kommentare 0 Likes

Irgendwie widersprüchlich der Satz:
zum restlichen Text.
Eine Leistungsaufnahme von 600W wäre echt übertrieben. Wird aber auch nur wenige User, die der RTX 5090 (UVP vermutlich 2000+ Euro), betreffen.

Antwort Gefällt mir

c
christoph1717

Mitglied

45 Kommentare 16 Likes

Das war bei mir dann die Geforce 2 MX (vor 24 ! Jahren), danach die Geforce 4400Ti hatte Lüfter und danch die Geforce 6800 auch Stromstecker.

Antwort Gefällt mir

NamaNatranius

Mitglied

30 Kommentare 14 Likes

Ja füher hat man auch in Max HD oder niederieger bei max 60fps oder weniger und man kannte es auch nicht anders. Aber ich hab halt keine lust mehr auf 60 hz oder hd/wqhd 24-30 zoll. ich finde 120Fps so langsam als anehmbahr und ja ich bin verwöhnt dafür geb ich aber auch alles zwei jahre mehre 10000€ aus mir ist der strom auch vollkomen egal weil daführ ge ich arbeiten wenn ich mir das mal nicht mehr leisten kann geh ich auch nicht arbeiten. Im gegen teil find ich intersant sachen zu kühlen oder flüsig metall direct die. noraml ist führ mich langweilig würde eh mein strom hoch ziehen bei eco karte oder ein xoc bios drauf flashen. Aber alles nur meine perönliche meinung finde nur wenn man die beste leistung will sollte man sich nicht über der verbrauch beschweren sonst halt was anders kaufen oder undervolten.

Antwort Gefällt mir

F
FreezyLemon

Neuling

5 Kommentare 0 Likes

Ich find die Lösung mit dem Eco-Mode wie bei Ryzen eigentlich ganz gut. Standard aus der Box bekommst du das, was die Benchmarkgraphen versprechen (dafür aber einen dementsprechenden Stromfresser) und wenn dir Effizienz wichtig ist, machste einen Klick und reduzierst den Verbrauch deutlich bei weiterhin akzeptabler Performance. Meinetwegen könnte man das auch andersrum machen, aber selbst das ist wahrscheinlich schon eine unrealistische Erwartung meinerseits.

Leider ist ja Nvidia kein großer Fan davon, bei den GPUs groß was an den Werkseinstellungen zu ändern. Da ich selber schon lange keine mehr hatte: Kann man ohne größere Eingriffe (z. B. VBIOS flashen) das Power Limit senken, um so was ähnliches zu erreichen? Nach oben hin ist es ja oft begrenzt.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung