Neue Details zur NVIDIA GeForce RTX 4090 und RTX 4080 – Speicherausbau, Pin-Layout, Spannungsversorgung und Kühlung

Na ja, wer es braucht greift zur 4090 (Ti) und gönnt sich den wahrscheinlich teuren Spaß. Effizient ist das vermutlich nicht, dafür wird es dann eine 4060 Ti geben. Leben und leben lassen.

Mir reicht meine RTX 3060 als eGPU über TB4 aus; mehr macht auch keinen Sinn bei einem i7-1165G7. Wird nur zum Spielen angeschaltet, für alles andere ist die integrierte Intel Iris Xe besser geeignet. An der Stelle noch mal ein herzliches Dankeschön an @Gurdi für den Artikel dazu, welcher mir sehr geholfen hat: https://www.igorslab.de/der-grosse-...vidia-oder-amd-wer-kommt-besser-damit-klar/6/ (y)
 
Dennoch wird es interessant werden, denn im gehobenen Mittelfeld wird man nun voraussichtlich 3090+ Leistung mit guter (oder gar besserer?) Raytracing-Leistung bekommen für absehbar weniger Verbrauch als noch in der LastGen.
Das glaube ich nicht und das ist auch bei der aktuellen Generation nicht der Fall.
Die Oberklasse wird neu eingepreist, die alte Oberklasse wird einfach die neue gehobene Mittelklasse. Zu den aufgerufenen Preisen. Für mich sieht Lovelace nicht nach Evolution aus. Es wird schlicht mehr Energie reingepumpt, um mehr Leistung rauszukriegen. Für die Leistung einer 3080 wird man auch 2023 rund 1000 Euros zahlen müssen.
 
Kommt mir alles so wahnsinnig vor… will eigentlich auch gern ohne großes Gefummel den Deckel öffnen und zur Seite legen können.

Dann schau ich mir lieber die 40xx-er Mittelklasse an, die hoffentlich vernünftiger daherkommt, oder greif zur 3090.
Wahrscheinlich letzteres, weil es sicher noch ein Jahr dauert, bis Nvidia seine Mittelklassekarten releast.

Träumchen wäre ein Hersteller, der einfach einen normalen Kühler verbaut, aber dafür weniger Strom reinpumpt - vielleicht sieht man Effekte wie beim Alder Lake, so dass man mit dem gar nicht so wesentlichen Leistungsverlust gut leben kann.
Dann eher die 4000er Mittelklasse. Meine Top-Luftgekühlte 3090 AORUS MASTER mit angeblich einer der besten Luftkühlungen auf dem Markt war auch völliger Müll. Pads haben nix getaugt und im Sommer haben die 3 riesigen Lüfter das Ding nicht gekühlt bekommen. Karte war eigentlich erst wirklich brauchbar mit neuen teuren Pads und Wasserkühler.

Meine 3080 ti von Asus werde ich wahrscheinlich auch noch umrüsten. Und auf der sicheren Seite bist du je nach Ausstattung auch erst mit einem 1000 Watt Netzteil.

Wahnsinnig ist da das richtige Wort. Teuere Karten mit billig Komponenten und Kühlproblemen sind doch jetzt schon an der Tagesordnung. Selbst bei Big-Tower Gehäusen mit guter Lüftung. In meinem Fall Define 7XL und
Nanoxia Deep Silence 5.

 
Für die Leistung einer 3080 wird man auch 2023 rund 1000 Euros zahlen müssen.
Wo du Recht hast......

Wie schon mal geschrieben. Wunderland ist abgebrannt. Es sei denn, das der Markt für solche Strombestien zusammenbricht, das man sich gezwungen sieht, am Preis zu drehen. Aber die Welt ist groß und der Strom ist nur in Deutschland so teuer.

Lassen wir uns überraschen.
 
Meine Top-Luftgekühlte 3090 AORUS MASTER mit angeblich einer der besten Luftkühlungen auf dem Markt war auch völliger Müll. Pads haben nix getaugt und im Sommer haben die 3 riesigen Lüfter das Ding nicht gekühlt bekommen. Karte war eigentlich erst wirklich brauchbar mit neuen teuren Pads und Wasserkühler.
Hatte eine MSI 3090 Gaming X Trio da und eine EVGA 3090 FTW Ultra.
Erstere war akkustisch angenehm, aber fürs Mining recht ungeeignet durch innerhalb von Sekunden durch die Decke gehende Speichertemperaturen - zudem hörte ich aus nächster Nähe ein leichtes Rasseln von einem der drei Lüfter.

Die EVGA war bei den Speichertemperaturen schon deutlich(!) besser, aber, obwohl die Lüfter an sich leise sind, mochte ich deren Klangcharakteristik so gar nicht. Die EVGA summt, die MSI brummt. Letzteres kann ich eher ab.

Plan wäre, wieder eine MSI zu kaufen, die Pads zu tauschen (oder gleich ´ne einseitig bestückte Ti nehmen) und noch einen Konstruktionsfehler bei der Heatpipe ausmerzen, den die wohl alle haben. Danach sollte es eigentlich ´ne schöne Karte sein.
Der Kühler lässt bei MSI auch grad so genug Abstand, dass ich noch ´ne Chance sehe mit einem (exotischen) Riser-Kabel an den verdeckten PCIe Slot zu kommen.
 
5nm statt 8nm,
18.432 vs 10.496 CUDA Cores,

… da MUSS was bei rumkommen.
Mehr Hubraum = mehr Leistung. Ich war nie Fan der Dodge Viper, weil die zwar ordentlich rennt, aber ein Lkw Motor im PKW nix mit Engineering zu tun hat.
Um im Bild zu bleiben: Wenn du aus einem 2 Liter Motor 150 statt 75 PS rausholst, dafür aber nur 1 Liter mehr verbraucht, dann kauf ich das Upgrade.
 
Mehr Hubraum = mehr Leistung. Ich war nie Fan der Dodge Viper, weil die zwar ordentlich rennt, aber ein Lkw Motor im PKW nix mit Engineering zu tun hat.
Um im Bild zu bleiben: Wenn du aus einem 2 Liter Motor 150 statt 75 PS rausholst, dafür aber nur 1 Liter mehr verbraucht, dann kauf ich das Upgrade.
Wir bleiben besser bei der Chipproduktion.
Eine feinere Struktur sollte eigentlich den Stromverbrauch senken.
Was offensichtlich nicht heißt, dass Nvidia nicht trotzdem mehr reinpumpen will als bisher.

Von Lovelace sollte man bei gleicher Stromzufuhr eigentlich mehr Effizienz erwarten.
 
Wir bleiben besser bei der Chipproduktion.
Eine feinere Struktur sollte eigentlich den Stromverbrauch senken.
Was offensichtlich nicht heißt, dass Nvidia nicht trotzdem mehr reinpumpen will als bisher.

Von Lovelace sollte man bei gleicher Stromzufuhr eigentlich mehr Effizienz erwarten.
Ich bin auf diesem technichen Niveau ehrlicherweise ein völliger Dilettant. Dennoch kann ich mich des Eindrucks nicht erwehren das man aktuell zumindest für deutlich mehr Leistung viel mehr Energie benötigt.

Wohin immer die vermeintliche oder tatsächliche bessere Effizens verschwinden mag. Oder sie ist einfach geringer wie angenommen?
 
Wir bleiben besser bei der Chipproduktion.
Eine feinere Struktur sollte eigentlich den Stromverbrauch senken.
Was offensichtlich nicht heißt, dass Nvidia nicht trotzdem mehr reinpumpen will als bisher.

Von Lovelace sollte man bei gleicher Stromzufuhr eigentlich mehr Effizienz erwarten.
Naja, bei den Struktur-Größen ist ja nicht immer das drin, was draufsteht. Für mich fühlt sich das allzuoft an, wie: es ist geschrumpft, wir können jetzt mehr (z. B. CUDA-Cores) drauf packen. Und dann steigt der Verbrauch zwar nicht parallel zur Anzahl, aber fast.
Die Grenze ist doch quasi erreicht: Auf weniger Fläche packen die mehr drauf und pumpen mehr Energie rein. Die sich - aufgrund der kleineren Struktur und der höheren Dichte - auf eine deutlich kleinere Fläche verteilen kann, damit die Temps in ungeahnte Höhen treibt und die Abfuhr der Wärme erschwert. Klingt für mich mehr und mehr nach einer Lösung, die für einen sicheren Betrieb erhebliche Aufwände nach sich zieht und die für den Mainstream-Markt überhaupt nicht geeignet ist.

Den Vorschlag mit der "nackten" Karte ohne Kühllösung finde ich verfolgenswert - warum nicht Custom-Karten Konfigurator?
 
Den Vorschlag mit der "nackten" Karte ohne Kühllösung finde ich verfolgenswert - warum nicht Custom-Karten Konfigurator?
Wäre ich sofort dabei. Allerdings mit guten Wasserkühlern und top Pads. Nicht wieder so ein frisch produzierter Sondermüll mit Verfallsgarantie.
 
:unsure: Ich sehe schon, bald sind Ringmuttern zum abhängen der GraKa auf der Backplate... :ROFLMAO:

Wenn du aus einem 2 Liter Motor 150 statt 75 PS rausholst, dafür aber nur 1 Liter mehr verbraucht, dann kauf ich das Upgrade.
Nvidia wird drauflegen, dafür aber auch eben um einiges mehr Strom saufen...
Ich zitiere mal Igor's Spruch, "Kraft kommt von Kraftstoff"
Vergleich es ein Stück weit mit Ryzen 5xxx oder der Intel-Brechstange, der Chip ist effizient(er) bietet viele Features
und säuft aber auch ordentlich ohne Limitierung. Die 3090 hat mit 320Watt Powerlimit kaum Leistungsverluste.
 
3,5 Slot, 2,2 Kilo :D ... Sagen wir es mal so - eine SUPRIM 3xxx Titti mit 520 Watt tut es hier ganz nett. Da sind die weiteren 80 Watt auch noch machbar... :D
Wie dick sind denn eigentlich die Lüfter bei "titti" ?

Wenn man irgendwann net mehr Gewicht kann/will, sollte mit fetteren 25mm Lüftern doch noch deutlich mehr Druck gehen.
und
Wenn man mal 10°C mehr Temp. in den Heatpipes zulässt, geht vermutlich auch mehr Wärme/Watt durch.
(da staune ich über die kleine 6900-LC mit der 140er AiO, was die bei rel. hoher Temp so an Watt abtransportiert bei Apollo@OCen =570W asic)
 
Zuletzt bearbeitet :
Wenn die in Bälde erscheinende 3090 Ti Suprim X von MSI sich 480 Watt gönnen darf und der KINGPIN max. 1275 Watt zur Verfügung stehen,
schaut´s doch für die 4000´er Serie gar nicht mehr so schlimm aus ... ;)

MfG Föhn.
 
Naja, bei den Struktur-Größen ist ja nicht immer das drin, was draufsteht.
Tatsächlich ist der Sprung von Samsungs 8nm Prozess zu TSMCs 5nm Prozess ein riesiger.
Manche sprechen von einer knappen Halbierung der Strukturbreite.

1648310305111.jpeg
Auf weniger Fläche packen die mehr drauf und pumpen mehr Energie rein. Die sich - aufgrund der kleineren Struktur und der höheren Dichte - auf eine deutlich kleinere Fläche verteilen kann, damit die Temps in ungeahnte Höhen treibt und die Abfuhr der Wärme erschwert.
Geringere Strukturbreite -> weniger Strombedarf für gleiche Leistung -> geringere Abwärme.

So war es zumindest die letzten trölfzig Jahre.
Aber vielleicht steht inzwischen sogar die Physik schon Kopf.

Nvidia will halt unbedingt eine Leistungsverdopplung und geht den Intel-Weg, überproportional viel Saft zuzulassen, um auch darüber noch mehr Rechenleistung rauszuholen.

Da bei GPUs (anders als CPUs) die Jobs so geschrieben sind, dass sie hochparallelisiert abgearbeitet werden können, sollte eigentlich die knappe Verdopplung der CUDA Cores schon ordentlich viel Mehrleistung bringen.
Von den Specs her sehen die Karten, abseits vom gewollt hochpushten Stromverbrauch, eigentlich sehr lecker aus.
 
Zuletzt bearbeitet :
Also irgendwo hört der Spaß einfach auf, mir ist ja eigentlich egal was so ein Ding verbraucht, aber die 600Watt im Büro nach 2-3h Total War lassen mich im Sommer dann dahin schmelzen bei 35Grad im Raum oder was?

So gerne ich auch Enthusiasten-Hardware verbaue, dass ist mir einfach too much.
Da bist du nicht alleine. Wo bleibt da nochmal der Fortschritt?
 
5nm statt 8nm,
18.432 vs 10.496 CUDA Cores,

… da MUSS was bei rumkommen.
Ich denke der Energiehunger ist der Konkurrenz geschuldet. Wären die RDNA2 Karten nicht so schnell würde die 3090 warscheinlich auch mit 300-320 Watt ausgeliefert.
 
Also meine 6900XT gönnt sich laut Overlay punktuell (also wirklich nur für Sekunden - Lastspitze?) auch mal 460 Watt. Und an anderer Stelle wieder nur 90.
 
Ich denke der Energiehunger ist der Konkurrenz geschuldet. Wären die RDNA2 Karten nicht so schnell würde die 3090 warscheinlich auch mit 300-320 Watt ausgeliefert.
Ich glaube das der Markt einfach danach verlangt. Wer mehr kann, wird gehypt. Und der kann halt höhere Preise durchsetzen. Effizenz ist für viele ein Thema, aber im Bereich High End Gaming spielt es Imho kaum eine Rolle. Die Zielgruppe hat in der Regel Geld und die Stromrechnung interessiert sie einfach nicht.
 
Ich empfehle immer einen Blick auf die Steam-Systemstatistikseite. Dort bekommt man einen vagen Eindruck, welche Hardware die Masse nutzt, Karten oberhalb 3060 sind es nicht.
 
Oben Unten