NVIDIA bereitet sich auf heiße „Blackwell“-GPUs vor: Kühlung für RTX 50 im Test (250W bis 600W)

Natürlich, alle neuen Topmodelle bei Nvidia haben 600W....bis sie dann erscheinen.
 
12VHPWR schmort in 3 ... 2 ... 1 ... xD
Werden die Karten dann für alle Fälle einfach 2 Stecker davon erhalten ?
Einfach eine echt unschöne Entwicklung :/
 
Werden die Karten dann für alle Fälle einfach 2 Stecker davon erhalten ?
Davon kann man wohl ausgehen. Das ist auch nichts Schlechtes, genau wie 3x8-Pin bei vielen Karten auch nicht nötig wäre, es dient eher der Redundanz und der sicheren Stromverteilung.
 
In der nächsten Generation dann vielleicht gleich 2x 12VHPWR oder ein ganz neuer Stecker weil die RTX6090 dann ja schon bei 800 Watt liegt o_O.

Also dass ist schon ein Irrsinn. Wie viele Radiatoren braucht man bei 600 Watt? 4x bis 6x 120mm vermutlich (Annahme: 100 bis 150 Watt je 120mm), d.h. man kommt mit einem 360er nicht mehr aus. Wie schauen dann die AiO-Versionen aus?
Klar dass die TDP nicht gleichzusetzen ist mit dem tatsächlichen Verbrauch, aber die Kühlung muss 100% packen.

Aktuell - wir haben das hier diskutiert: https://www.igorslab.de/community/threads/maximale-wassertemperatur.9765 - kann es schon Grenzwertig werden eine 335Wattt-Graka zu kühlen (kleines Gehäuse, feine Staubfilter - selber schuld).

Hoffe inständig dass man sich besinnt und am Ende in einen Bereich von vielleicht maximal 250 bis 300 Watt kommt. Eine RX 7900 GRE kommt, bei gleicher Leistung, mit rund 75 Watt weniger aus als eine RX 6950 und bei Nvidia wurde die Effizienz zwischen 3000er und 4000er-Serie stark verbessert - es geht also doch.
Oder es ist vielleicht doch so, dass wir genauso blöd sind, wie die uns halten: Kunde will mehr FPS, koste es was es wolle.

Allerletzte Hoffnung wären wohl die Schutzschalter, also bei 10 Ampere, wäre bei 2300 Watt dann halt auch definitiv Schluss.
 
Warum wartet ihr nicht ab? Der gleiche Mist wie bei der 4090, da haben auch alle geschrien "600W - so ein Wahnsinn", hoffentlich werden dann die Kühler auch wieder so überdimensioniert, das wäre gut. Aber eine "overclocked" 7900 XTX mit der elektrischen Leistung einer 4090 trotz viel geringerer Grafikleistung geht schon in Ordnung. 😂
 
In der nächsten Generation dann vielleicht gleich 2x 12VHPWR oder ein ganz neuer Stecker weil die RTX6090 dann ja schon bei 800 Watt liegt o_O.
Genau, für 800 Watt muss ein kleinerer Stecker her. :p

100 Watt pro 120er ist eigentlich sinnvoll. Ein 360er-Radiator ist kaum mehr grösser als der Kühler der so oder so auf so einer Karte sitzt. Nur weil man die Wärmeabgabe um 20 cm verschiebt wird das nicht so viel besser.

Oder es ist vielleicht doch so, dass wir genauso blöd sind, wie die uns halten: Kunde will mehr FPS, koste es was es wolle.
Ich würde differenzieren. Es gibt viele verantwortungsvoll denkende Leute. Es gibt daneben aber auch noch genug Leute die viel Geld und wenig Ahnung haben. Also funktioniert das Geschäft. Ob man deswegen alle für blöd halten will, ist eine andere Frage. Leider kann es auch so sein, dass wenn alle verantwortungsvoll denken und sich Mühe geben, am Schluss doch nichts sinnvolles raus kommt. Da kann noch einiges schief. Damit etwas richtig läuft, braucht es nicht nur etwas guten Willen sondern gezielte Korrekturen an der richtigen Stelle. Nur der Preis und der Markt regelt nicht alles von selbst richtig.
 
Also wenn die 600 Watt anpeilen kann man nur hoffen das die nicht ein 5-6 Slotkühler da draufschnalleno_O Denke mal 2x 12VHPWR wird wohl kommen, aber das Gewicht von dem Teil wird wohl auch erheblich sein. Da kann man dann nur hoffen das die PCIE Slots auch stabil genug für dieses Gewicht werden, oder halt standardmäßig mit ner Stütze ausgeliefert werden. Bin echt mal gespannt was die grünen da mal wieder zaubern.
Für mich wird die Gen wie auch die weiteren warscheinlich nicht in meinen Preisrahmen fallen. Da bleib ich erstmal bei AMD und verzichte vielleicht auf ein wenig Leistung.
 
Also wenn die 600 Watt anpeilen kann man nur hoffen das die nicht ein 5-6 Slotkühler da draufschnalleno_O
Ich frag mich, wann Nvidia einfach gleich das Mainboard um die Grafikkarte rumwickelt.

Oben noch Slots für Chip und Ram drauf… zack, fertig.

Mehr kann man ja jetzt auch schon kaum mehr anschließen, weil die Grafikkarte alles blockiert.
 
Ich frag mich, wann Nvidia einfach gleich das Mainboard um die Grafikkarte rumwickelt.
Genau. Man sollte etwas in die Zukunft denken. Das zentrale ist die Grafikkarte.

Es gibt ja schon eine Grafikkarte mit einem SSD-Slot. Dann noch ein Sockel für die CPU. RAM soll die CPU den der Grafikkarte nutzen. Eigener RAM für die CPU ist nur umständlich und langsam. USB-Anschlüsse kann man die des Bildschirms nutzen oder Tastatur und RAM gleich über Bluetooth versorgen. Ein Gehäuse um die Grafikkarte ist dann auch nicht mehr nötig. Das stört nur die Kühlung. Die Grafikkarte ist der PC.

Da bleibt da nur noch die Grafikkarte auf den Tisch zu stellen. Bildschirme anschliessen. Laptopnetzteil anschliessen. Los geht's. :cool:
 
Leider ist ja Nvidia kein großer Fan davon, bei den GPUs groß was an den Werkseinstellungen zu ändern. Da ich selber schon lange keine mehr hatte: Kann man ohne größere Eingriffe (z. B. VBIOS flashen) das Power Limit senken, um so was ähnliches zu erreichen? Nach oben hin ist es ja oft begrenzt.
Da NVIDIAs Boost recht clever ist, geht das mit Power Limit und Frame Limiter mittlerweile fast perfekt.

Hier mal etwas Lesestöffchen, das etwas über das V/F-Curve Geschwurbel der meisten Fanblasen hinausgeht :D
 
Ich frag mich, wann Nvidia einfach gleich das Mainboard um die Grafikkarte rumwickelt.

Oben noch Slots für Chip und Ram drauf… zack, fertig.

Mehr kann man ja jetzt auch schon kaum mehr anschließen, weil die Grafikkarte alles blockiert.
Manchmal wünsche ich mir mein Gehäuse von vor 10 Jahren zurück, in welchem das Mainboard horizontal verbaut war. Und da waren die Highend Karten gerade einmal so groß wie Einsteiger-/Mittelklassekarten. Hatte mit der 4090 schon eine kleine Odyssee durch den Stromanschluss (extra passendes Corsair-Kabel gekauft, da Adapter ständig nach 1-2 Wochen Problemen verursachte sprich random black screens und freezes) und durch etwas zu starkes Liften mit dem Anti-sag bracket ständig in "fordernden" Games Freezes und Systemhänger. Bedingt durch die Größe der Karten muss man da sehr genau hinschauen und nicht mal gerade so den GPU-Halter anbringen und nach Gefühl die Karte etwas anheben, um die Karte nach Augenmaß horizontal zum Slot zu bringen. Nachdem ich das Bracket nur noch relativ locker angebracht habe (ohne zu starkes "Nachobendrücken", max. 1-2mm), haben sich sämtliche Probleme auch schon in Luft aufgelöst. Frage mich, ob das einfach durch die gigantischen Ausmaße heutiger Karten passieren kann. Hatte auf dem Board auch schon 2 andere Karten gehabt, wo ich das niemals so genau nehmen musste. Vermute einfach ein, dass z. B. die 4090er zickiger zu sein scheinen, wenn es ein "pin misalignment" im Slot gibt. :/ Zu dem Thema gibt's auch im hiesigen oc.net Forum ein Thread.
 
Dank eines Wasserkuehlungsblock ist meine 4090 ziemlich handlich :D
 
Dito. Wird meine nächste Graka auch wieder haben - idealerweise auch wieder ab Werk.
 
Habe in zwischen beschlossen, die 4090 nach Release der 5090 nicht mehr zu verkaufen. Die kommt dann in meinen Wohnzimmer-PC, aber mit Original-Kuehlkoerper. Da sie 4K HDR Videoplayback mit 60 FPS und gar 8K Playback schafft, wird sie meine 3070 TI ersetzen. Und dabei nur die Haelfte an Energie in Waerme umwandeln.
 
Nvidia RTX Ecovariante nennt sich Quadro 4000/5000/6000 ADA. Und kostet ein vielfaches
 
Ich hab mal nachgeschaut - in Forbidden West und Disco Elysium (sind die Titel, die ich aktuell spiele), komme ich nur in Kampfszenen mit mehreren Maschinen >250 Watt. Beim normalen Erkunden deutlich unter 200 Watt (Werte aus HWInfo). Halte mich grundsätzlich an @Igor Wallossek und den Hinweis auf den Framelimiter. Wenn das Teil dann bei 54° rennt brauch ich erstmal keine 50X0er.
 
Ein Framelimiter ist wie ein Begrenzer bei den PS-starken PKW. Bei 250 wird abgeriegelt, obwohl das Fahrzeug mehr kann. Im Fall der GraKa macht es allerdings Sinn.
Bei allem Enthusiasmus für IT-Technik, aber das Konzept Konsole hat was (bezogen auf Gaming). Die Entwickler müssen auf genau 1 Konfiguration optimieren und der Kunde darf sich (hoffentlich) sicher sein, das das Spiel funktioniert. Zum Glück lassen sich Grafikkarten noch für etwas anders als Gaming benutzen...
 
Nividia hat keine Wahl, wenn sie nicht bei mickrigen ~30% Performancegewinn verhungern wollen (mehr geben die Fertigungsverfahren leider nicht mehr her), muss die Mehrleistung durch weiteres Hochprügeln der Verbräuche kommen.

Das wusste man aber schon länger, die 600W wurden ja schon angeprobt.

Das Namensschema hat Nvidia politisch eh schon verhunzt.
Deshalb schau ich immer mehr auf die Verbrauchswerte anstatt auf die Performance. Was bekomme ich für 200-250W. Mehr ist für mich nicht sinnvoll.

Interessant wird es dann, wie z.B. 300W Karten bei 220W abschneiden. Statt hochgeprügelte ineffiziente Saufkuh, auf einmal flüsterleiser Effizienzmeister.
Bei dem aktuellen Preisniveau vergeht einem das aber auch relativ schnell.
Die steigenden Stromverbräuche sind kein neues Thema. Auch die 30% Steigerung durch Fertigungsverfahren waren früher oft nicht besser.

Nur mal so aus der Steinzeit.
eine Geforce2 hatte 15W -> eine GF3 30W eine GF4 60W. Die Stromaufname hat sich pro Generation verdoppelt, weil es problemlos ging. Das war also das selbe wie von 150W auf 300W auf 600W. Es geht hier um die prozentuale Leistungsänderung nicht um die Absolute.

Mit 400W+ kommt man in der Praxis aber in schwer händelbare Bereiche. Deswegen können sie das Spiel seit der 30xx Serie nicht mehr so hemmungslos weiter machen und müssen zwangsweise etwas langsamer machen. Deswegen ging es dann mit 180W, 200W, 250W, 320W, 450W weiter und nicht mit Verdopplungen...
Aber ja sie müssen zwangsweise mit der Leistung weiter hoch wenn sie mehr als +30% Perfomance pro 2 Jahre liefern wollen.
 
Oben Unten