Neue Details zur NVIDIA GeForce RTX 4090 und RTX 4080 – Speicherausbau, Pin-Layout, Spannungsversorgung und Kühlung

Die Frage ist halt immer "wofür"? Hab mir schon von 2080S auf 6900XT schwer getan, allerdings hat der Sprung auf 4K das gerechtfertigt. Die 4000er / 7000er lass ich in jedem Fall aus - ich brauche einfach nicht mehr Leistung bzw. die Leistung passt zum Setup. Könnte vielleicht per 5800/3D noch was für die Frametimes tun, aber das bedeutet auch wieder mehr Abwärme im Vergleich zur 65Watt-Kanone 3700X. Das ist schon echt ne Hausnummer in Sachen Effizienz. Man munkelt ja, dass evtl ein 5700X kommen soll. Wenn der <100Watt liegt könnte ich schwach werden. Dann bin ich aber auch wieder komplett up to date - fehlende CPU-Power war auch noch nie das Problem...
 
Was baut man den heute noch an Zusatzkarten ein ???
Festplattencontroller, Thunderbolt, Soundkarte, evtl. WiFi, zusätzliche USB Ports,…

Die Flexibilität wird einem weitgehend genommen.
Die ersten drei sind bei mir jedenfalls geplant.

Wenn die Hersteller wenigstens mit ihren Kühlkörpern die paar Millimeter Abstand halten würden, dass man über ein Riser-Kabel noch an die verdeckten Slots käme.

Vielleicht kommt ja im Mainstream was vernünftiges raus. 3-3,5 Slots (samt Stabilisierungskonstruktion) um irgendwie den verheizten Strom abzuführen ist doch nur noch bekloppt.

Vielleicht sind die Karten langsam auch schon gar nicht mehr für Gamer gemacht, denn die sollen ja streamen…
 
Zuletzt bearbeitet :
Die Frage ist halt immer "wofür"?
Ich les auf MyDealz immer wieder Klagen von Leuten, die in 4K mit Raytracing spielen wollen, und mit einer 3090 nicht zufrieden sind.

Das sind wohl die neuen Enthusiasten… und der Rest freut sich auf mehr FPS bei 4K im Mainstream?
 
Festplattencontroller, Thunderbolt, Soundkarte, evtl. WiFi, zusätzliche USB Ports,…

Die Flexibilität wird einem weitgehend genommen.
Die ersten drei sind bei mir jedenfalls geplant.

Wenn die Hersteller wenigstens mit ihren Kühlkörpern die paar Millimeter Abstand halten würden, dass man über ein Riser-Kabel noch an die verdeckten Slots käme.

Ich hoffe, im es kommt im Mainstream was vernünftiges raus. 3-3,5 Slots (samt Stabilisierungskonstruktion) um irgendwie den verheizten Strom abzuführen ist doch nur noch bekloppt.

Vielleicht sind die Karten langsam auch schon gar nicht mehr für Gamer gemacht, denn die sollen ja streamen…
Wakü drauf und fertig. Dann hast du wieder alle Slots. Die ganzen 3080ti-3090er Karten sind doch mit Luft eh nicht wirklich zu kühlen. Geschweige denn die entsprechenden 4000er Varianten.
 
Ich les auf MyDealz immer wieder Klagen von Leuten, die in 4K mit Raytracing spielen wollen, und mit einer 3090 nicht zufrieden sind.

Das sind wohl die neuen Enthusiasten… und der Rest freut sich auf mehr FPS bei 4K im Mainstream?
Die Frage stellt sich mit ner Radeon garnicht... Und ich hab nach diversen Versuchen, Unterschiede im Look zu finden (2080 S RT on/off) aufgegeben. Entweder man bewundert die Grafik oder man wird vom Spiel reingezogen, weils Bock macht. Im Idealfall beides. Hab noch kein Spiel gefunden, bei dem mir RT on/off aufgefallen ist, wenn ich nicht bewusst drauf geachtet habe. Aber klar: gibt immer Leute, die alles auf on haben müssen, einfach, weil es da ist.

Edit: Bei mir hat ein hochwertiges Display deutlich mehr zur Grafikqualität beigetragen als Raytracing. Just saying.
 
Zuletzt bearbeitet :
Wakü drauf und fertig. Dann hast du wieder alle Slots. Die ganzen 3080ti-3090er Karten sind doch mit Luft eh nicht wirklich zu kühlen. Geschweige denn die entsprechenden 4000er Varianten.
Auf Wasserkühlung muss man Lust (und den Platz dafür) haben.
…müsste wenn dann eine Kompaktkühlung unter dem Deckel unterbringen.
Hab ein Fractal Define 7 XL, aber im Server-Layout, um viele Platten unterzubringen.

Überlegt hatte ich mir das auch schon… alle Slots hat man aber glaub nie. Der zweite wurde in den Lösungen, die ich mir angeguckt hab, auch mit WaKü noch verdeckt.

Ich scheue aber auch die Wartung. Bin echt‘n Schlamper.
Wenn ich alle zwei Jahre mal das Gehäuse durchpuste, ist das schon viel bei mir.
Regelmäßige Wasserfüllstsndskontrolle oder sowas geht bei mir garantiert schief.
 
Zuletzt bearbeitet :
Mich würde mal interessieren, und vielleicht kann Igor da ja mal seinen Verbindungen ins Ohr flüstern, ob es in naher Zukunft Grafikkarten ganz ohne vorab verbauten Kühler zu kaufen gäbe. Das würde etwaige Umbauten auf Wasser deutlich erleichtern, wenn man nicht immer übelst ausgefuchste, durchdesignte Kühler vorher entfernen muss. Quasi ein Bausatz für den typischen Konsumenten mit mittelmäßigen, aber vorhandenen Willen selbst zu bauen. Und natürlich ohne Verlust von etwaigen Garantien.
 
@Pokerclock: Garantieverlust ist bei den meisten Herstellern doch eh kein Thema, oder? Man muss die halt nur im RMA-Fall in den Ursprungszustand versetzen.
Anbieten müsste sowas wenn dann Nvidia selbst… zu customizen gibt‘s da für Boardpartner ja sonst nur noch wenig.

Ich denke, dass wir - wie in Igors Artikel schon in Aussicht gestellt wird - deutlich mehr Karten mit vorinstallierten Kühlblöcken sehen werden.
 
…müsste wenn dann eine Kompaktkühlung unter dem Deckel unterbringen.
Hab ein Fractal Define 7 XL, aber im Server-Layout, um viele Platten unterzubringen.
Ich glaube nicht, das es das tut. Mein 720er Aquadukt besteht aus 6 schmalen 360er Radiatoren. Die sind im Sommer bei über 30 Grad schon mit der 3090er und dem 3900XT bei Vollast überfordert. Darum habe ich auch das Define 7 XL gekauft. Aber da müssten dann mindestens 4 dickwandige Radiatoren a 480mm oben verbaut werden für eine 4090 +CPU.

Vielleicht doch besser ein Mora?

Mal schauen.
 
Garantieverlust ist bei den meisten Herstellern doch eh kein Thema, oder? Man muss die halt nur im RMA-Fall in den Ursprungszustand versetzen.
Anbieten müsste sowas wenn dann Nvidia selbst… zu customizen gibt‘s da für Boardpartner ja sonst nur noch wenig.
Garantie in jedem Fall. Überall sind Sticker drauf, die Dir klarmachen sollen, sobald da was umgebaut wird, ist Garantie futsch. Bei der Gewährleistung sieht das natürlich anders aus. Aber have fun beim Diskutieren, wenn sich quer gestellt wird. Leider gerne mal zurecht, weil doch genug vollkommen falsche Pads verwenden und den VRAM cracken.

Auch für die Custom-Designs gibt es mehr als genug Auswahl an Kühlblöcken. Das sollte kein Problem sein.

Ich denke, dass wir - wie in Igors Artikel schon in Aussicht gestellt wird - deutlich mehr Karten mit vorinstallierten Kühlblöcken sehen werden.

Problem ist leider wie erst bei Gigabyte erkannt, keiner weiß woraus die bestehen. Irgendwelche Alu-Kupfer-Gemische mit Flux-Resten, kombiniert mit den unterschiedlisten vom Kunden ausgesuchten Radiatoren. Ist schon schief gegangen und wird wohl noch schlimmer, wenn sich da in der Industrie nichts ändert.
 
@grimm stimmt schon. Momentan hab ich auch einen echt geringen Aufrüstdruck. Ich werd mal schauen was so zum Release der 4000er passiert und dann vermutlich spontan entscheiden. Aktuell fehlt mir auch vor allem ein forderndes Spiel, was da irgendwie einen Anreiz liefern würde…
 
Mich würde mal interessieren, und vielleicht kann Igor da ja mal seinen Verbindungen ins Ohr flüstern, ob es in naher Zukunft Grafikkarten ganz ohne vorab verbauten Kühler zu kaufen gäbe. Das würde etwaige Umbauten auf Wasser deutlich erleichtern, wenn man nicht immer übelst ausgefuchste, durchdesignte Kühler vorher entfernen muss. Quasi ein Bausatz für den typischen Konsumenten mit mittelmäßigen, aber vorhandenen Willen selbst zu bauen. Und natürlich ohne Verlust von etwaigen Garantien.
Glaube ich nicht. Dafür laufen definitv zu viele Idioten durch die Welt. Denen kannst du keine Grakas in die Hand drücken, bei denen Sie selber den Kühler montieren dürfen ohne Garantieverlust.

Das wäre ein Desaster.
 
Problem ist leider wie erst bei Gigabyte erkannt, keiner weiß woraus die bestehen. Irgendwelche Alu-Kupfer-Gemische mit Flux-Resten, kombiniert mit den unterschiedlisten vom Kunden ausgesuchten Radiatoren. Ist schon schief gegangen und wird wohl noch schlimmer, wenn sich da in der Industrie nichts ändert.
Genau. Tu es selbst, tu es sofort und tu es richtig. Vorgefertigte Karten mit Wakü sind in der Regel überteuert und mit Vorsicht zu genießen. Siehe unsere Freunde von Gigabyte.

Haben die sich eigentlich mal geäussert? Glaube nicht.
 
Zuletzt bearbeitet :
Kann mir ernsthaft nicht vorstellen dass die Boardpartner eine luftgekühlte Grafikkarte mit 600 W TBP veröffentlichen werden.

Der stärkste mir bekannten VGA-Kühler ( Raijintek ) mit einer max. Kühlleistung bis 360 W wäre doch nicht gut genug weil noch alle anderen Bauteile auf dem PCB gekühlt werden müssen.
Und auch wenn man z.B. die große Backplate ( passiv ) vom Arctic Accelero Xtreme IV dazu nehmen könnte hilft es nicht weiter.

Also wird es luftgekühlte Grafikkarten bis 450 W TBP geben und die anderen nur mit Wasserkühlung ( Alphacool muss jetzt handeln ;) ).
 
3,5 Slot, 2,2 Kilo :D

Sagen wir es mal so - eine SUPRIM 3xxx Titti mit 520 Watt tut es hier ganz nett. Da sind die weiteren 80 Watt auch noch machbar... :D
 
Moin. Eine wirklich besorgniserregende Entwicklung. 600 Watt sind eine Ansage. Ich bin auf die finalen Benchmarks gespannt.
Jedenfalls sehr interessante Einblicke die du bekommst, Igor. Es freut mich besonders, dass Quellen von dir geschützt werden und hierfür auch gern auf die "Extra-Klicks" verzichtet wird.

Was tun mit kommenden Leistungsrekorden? Für mich jedenfalls war die Pixeldichte noch nie ein Spaßgarant. Die besten Stunden hatte ich noch immer mit Diablo 2 - und das ist gar nicht lange her. Sicherlich, da spielte der Nostalgiefaktor mit hinein. Dennoch.
4K bei 120Hz sind sicher interessant, aber notwendig?

Nach heutigen Überlegungen in der Mittagspause, ob das nächste Projekt ein high-density-Würfel wird, werde ich hiervon wohl Abstand nehmen. Maximale Leistung in ein möglichst kleines Gehäuse inkl. Wasserkühlung zu bringen hätte was. Die Aufrüstmöglichkeiten bei kommenden 3-Slot Designs schrecken mich jetzt schon ab.
 
ich bin grade auf 27" hochgegangen, weil der 20" meiner frau zu dunkel wurde und ich ihr meinen 24" gegeben habe.
da habe ich dann auch nachgedacht und beschlossen, ich bleibe bei FHD.
da kann man dann auch bei der grafikkarte die wattzahl, leistung etc reduzieren und ich bin mit einer 5700xt mehr als ausreichend bestückt.
raytracing kommt wenn dann erst später, so noch 2-3 generationen weiter, wenn der fortschritt dort so fortgeht wie jetzt.

das spart ne menge strom und geld wenn man seine ansprüche etwas drosselt, also bei unter 30" auch unter UHD bleibt.
 
Garantie in jedem Fall. Überall sind Sticker drauf, die Dir klarmachen sollen, sobald da was umgebaut wird, ist Garantie futsch. Bei der Gewährleistung sieht das natürlich anders aus. Aber have fun beim Diskutieren, wenn sich quer gestellt wird. Leider gerne mal zurecht, weil doch genug vollkommen falsche Pads verwenden und den VRAM cracken.
Ich hatte mich mal schlau gemacht, weil ich die Wärmeleitpads tauschen wollte.
Sowohl von EVGA (Forum-Support) als auch von MSI (Mail) bekam ich die Auskunft, dass das kein Problem sei.

 
Vielleicht doch besser ein Mora?
Kommt mir alles so wahnsinnig vor… will eigentlich auch gern ohne großes Gefummel den Deckel öffnen und zur Seite legen können.

Dann schau ich mir lieber die 40xx-er Mittelklasse an, die hoffentlich vernünftiger daherkommt, oder greif zur 3090.
Wahrscheinlich letzteres, weil es sicher noch ein Jahr dauert, bis Nvidia seine Mittelklassekarten releast.

Träumchen wäre ein Hersteller, der einfach einen normalen Kühler verbaut, aber dafür weniger Strom reinpumpt - vielleicht sieht man Effekte wie beim Alder Lake, so dass man mit dem gar nicht so wesentlichen Leistungsverlust gut leben kann.
 
Sehe ich ähnlich. Ich hab die letzte Upgrade-Runde auch nicht mitgemacht und zum Jahreswechsel wird wohl was Neues anstehen, aber 400+ W nur für eine GPU sind da für mich indiskutabel, d. h. das HighEnd von nVidia oder AMD interessiert mich da nicht mehr aus Kundensicht, lediglich noch aus technischer Sicht.
Dennoch wird es interessant werden, denn im gehobenen Mittelfeld wird man nun voraussichtlich 3090+ Leistung mit guter (oder gar besserer?) Raytracing-Leistung bekommen für absehbar weniger Verbrauch als noch in der LastGen.
 
Oben Unten