NVIDIA GeForce RTX 4090 Founders Edition 24GB im Test – Der kraftstrotzende Monolith, der abstinent aus der Kälte kam

Da hat Nvidia ja mal einen ordentlichen Burner rausgekloppt. Hey vielleicht hau ich doch mal bischen Kohlen raus für ein neues ADA Produkt, die Effizienz find ich sexy.
Schön ist sie ja - aber nicht so sexy wie eine voll ausgebaute NVIDIA GeForce RTX 4090 Ti - denn bestimmt hat NVIDIA noch eine Revision versteckt um AMD auskontern zu können die sind ja nicht doof. Der aufgerufene Maximalpreis allerdings ist für mich reine Unvernunft.
 
Bei der Effizienz bin ich nicht so optimistisch, [...]
Ich kann dich voll verstehen. Und ja, den Infinity Cache gibts bereits. Aber das war der erste (?) Wurf. Ist wie mit den Chiplets: was bereits ist, kann noch (viel) besser werden. Aber nein nein, da wittere ich kein großen Wurf. Besser ja, aber kein großen Wurf. Ich denke seit Tag 1, dass das MCM Design zu Anfang sogar ein Nachteil sein wird. Womöglich stellt sich heraus, dass sie ohne MCM hätten besser sein können. Es ist/wird halt günstiger in der Produktion und verschafft mehr Spielraum - als so ein riesiger Monolith.

Ich bin echt gespannt, egal wie deren Strategie aussehen und aufgehen wird. Wenn nicht die kommende Generation, dann eben die künftige. Spart im schlimmsten Fall sogar Geld :)

Aber um zu nVidia zurück zukommen. Selbst abseits der Leistungs- und Effizienzkrone hat nVidia immernoch DLSS 3.0. AMD könnte eine breite Unterstützung von DLSS 3.0, in meinen Augen, für die nächsten Jahre das Genick brechen. Die werdens schon überleben. Aber neben dem bloßen Silizium ist das echt ein dickes Ding geworden. Die müssen echt ranklotzen ^^
 
Nun gut, das kommt auf die Perspektive an. Wenn man den absoluten Verbrauch und noch viel dramatischer die resultierende Abwärme nimmt, dann ist eine RTX 4090 wohl erwartungsgemäss mit Sicherheit keine Revolution (sondern vielleicht sogar ein Rückschritt oder zumindest ein Schritt in die falsche Richtung) und es wäre sicherlich auch eine Nummer kleiner/effizienter gegangen.

Zudem erinnert es (auch wieder erwartungsgemäss) an Pascal, ein optimierter Shrink/Refresh der vorhergehenden Generation aber mit kaum neuer technischer (im Sinne von Features und Architektur) Innovationen, so hat es den Anschein. Das kann auch eine dritte, (noch) produktexklusive Iteration von DLSS nicht vortäuschen.

Ob man die Preisgestaltung (wie man seitens nVidia dort via Miner gelandet ist) damit rechtfertigen kann?

Ich persönlich finde das nicht und würde aufgrund der Mankos bei Preis und Abwärme keine 5 Sterne vergeben (zumal jetzt auch kein Platz mehr für bessere Boardpartnermodelle bleibt, die man mit mehr Punkten noch davon abheben könnte), aber gut, ich gehöre auch nicht zur Zielgruppe dieser angeblichen "Gaming"-Grafikkarten, die für diesen angeblich primären Anwendungszweck weder bzgl. des Speicherausbaus noch des aktuellen nötigen Leistungszuwachs (wofür lohnend?) m.E. passend sind (sondern nur für eine gewisse Nische).

Für mich und vermutlich die überwältigende Mehrheit der Gamer ist das ein Produkt, was komplett an den Bedürfnissen der Zielgruppe von nVidia vorbei entwickelt wurde und jetzt irgendwie künstlich per Marketing platziert und gehyped werden soll, ebenso wie die kommenden (wahrhaftigen und Möchtegern-) RTX 4080 Grafikkarten von nVidia, die vielleicht auf dem Papier von den Benchmarkbalken her beeindruckend erscheinen, aber mit eingeschlagenen Produkt- und Preispolitik für immer größere Fragmentierung sorgen, um maximalen Profit zu erzeugen und PC Gaming per se mit dieser Kundenpolitik mit Sicherheit nicht nach vorne bringen.

Es bleibt die Hoffnung auf AMD(/RTG), auch wenn ich da eher eine pessimistische Erwartungshaltung habe (aufgrund der Entwicklung/Anpassung AMDs/RTGs an nVidia in der jüngeren Vergangenheit) been kein Rennen um die längsten Balken - wie hier im Artikel befeuert - entfacht, sondern eher um noch halbwegs akzeptablen Mehrwert und weniger Abgehobenheit bei Grafikkartenleistung und Bepreisung und dahingehend liegt nVidia mit Sicherheit nicht mehr vorne.

Wer diese kontraproduktive Entwicklung bei nVidias Grafikkarten per Kauf unterstützen möchte, der soll das bitte gerne weiterhin tun, aber der sollte vorauschauend vielleicht auch einmal Gedanken darin investieren, welche surreale Entwicklung dieser damit unterstützt/vorantreibt in Bezug auf den Preis, den Trend bzgl. absolute Effizienz/Verbrauchsbilanz/Abwärme/Umweltbelastung (besonders natürlich beim aktuellen Flaggschiff RTX 4090 auffallend, keine Frage, auch wenn der Artikel das per Leistung pro Watt Balken im Fazit geschickt kaschiert), und die Entwicklung in immer mehr Elfenbeinturmnischen/Mehrklassen-Gaming-Struktur zur Profitmaxierung, der daran sich dumm und dämlich verdienenden Unternehmen.

Vernunftprodukte waren solche Grafikkartenflaggschiffe/Halo-Modelle eigentlich noch nie, aber hier wird es in einigen Bereichen doch schon auf die Spitze getrieben und das darf m.E. auch kritisiert werden.
Ohne jetzt auf jeden Punkt im einzelnen eingehen zu wollen, so kann von einem Nischenprodukt doch sicher keine Rede sein. Das werden die Verkaufszahlen der nächsten Tage sicher belegen. Die Karte bietet jedem, der in 4K Spielen will, jedem mit einem Mehr-Monitor-Setup sowie jedem VR-Brillen Besitzer mit höhreren Auflösungen einen deutlichen Mehrwert. Von den Leuten, die die Karte zum arbeiten nutzen, mal ganz zu schweigen.

Wenn von dem, was der 8auer in seinem Viedeo erzählt und was Igor im wesentlichen bestätigt hat, nur die Hälfte stimmt, kann ich diese Karte bei Bedarf mit weniger Watt befeuern als meine 3090 und hab am Ende trotzdem mehr Frames. Ausserdem liegt sie für die meisten 3090er Kunden sogar auf einem deutlich niedrigeren Preisniveau als sie seinerzeit für Ihre 3090 gezahlt haben.

Diese Effizienz/Verbrauchsbilanz/Abwärme/Umweltbelastung Geschichte hängt mir mittlerweile, bei allem Respekt, so langsam ziemlich zum Halse raus. Ich kann es bald nicht mehr hören. Jede sonntagliche Fahrt zum Kaffeetrinken mit dem Eletroauto verballert deutlich mehr Energie als tagelanges zocken mit diesem Karten. Ich bin 60 und im Lebtag noch nie in ein Flugzeug gestiegen. Ich wohne in einem Urlaubsort und fahre deswegen nie in Urlaub.

Ich verballere mit meinem PC soviel Energie wie ich Lust habe. Ich bin mir ziemlich sicher, das meine Umweltbilanz deutlich besser ist, als die jener, die mir ständig mit der Umweltkeule kommen.
 
Gute Karte aber für den Preis von 2,3K € uninteressant und ineffizient. Einige einzelne Käufer werden sich aber bestimmt finden.
 

Anhänge

  • 4090 Windhorst.png
    4090 Windhorst.png
    26,7 KB · Aufrufe : 6
Besser hätte man es nicht formulieren können. Ich bin in jedem Punkt bei dir. Wobei diese mittelalterliche Technologiefeindlichkeit gegenüber RT mir schon lange Rätsel aufgibt.

Aber auch das gehört zu den Rätseln, die vielleicht besser ungelöst bleiben.

So what. Morgen wird auf jeden Fall endlich bestellt.
Wieso Technologie-feindlich? Wenn ich mit meiner 2080S RT angeschmissen hab, dann war das selbst in WQHD nicht spielbar. Davon ab, hab ich keine Unterschiede zwischen on/off festgestellt. Und DLSS (1) hat massive Grafikfehler produziert in den drei Games, die es dafür gab.
Nach Upgrade auf UHD stand RT on garnicht mehr zur Debatte. Dafür aber die 6900XT, weil ausreichend Leistung.
Nach drei Generationen hat es NV endlich geschafft, RT on in WQHD mit ordentlich Frames darzustellen. Mit einem Backstein für 2.000€, der nicht in mein Gehäuse passt.
Ich würde ja mitfeiern, ich weiß nur nicht was.
Ich kann mich nur wiederholen:
Kaufe ein gutes Display (OLED, UHD, HDR)
Kaufe dann die passende Grafikkarte
Sonst sieht es am Ende auf ner technologisch unterlegenen AMD Karte trotzdem besser aus 😉
 
Nun gut, das kommt auf die Perspektive an. Wenn man den absoluten Verbrauch und noch viel dramatischer die resultierende Abwärme nimmt, dann ist eine RTX 4090 wohl erwartungsgemäss mit Sicherheit keine Revolution (sondern vielleicht sogar ein Rückschritt oder zumindest ein Schritt in die falsche Richtung) und es wäre sicherlich auch eine Nummer kleiner/effizienter gegangen.

Zudem erinnert es (auch wieder erwartungsgemäss) an Pascal, ein optimierter Shrink/Refresh der vorhergehenden Generation aber mit kaum neuer technischer (im Sinne von Features und Architektur) Innovationen, so hat es den Anschein. Das kann auch eine dritte, (noch) produktexklusive Iteration von DLSS nicht vortäuschen.

Ob man die Preisgestaltung (wie man seitens nVidia dort via Miner gelandet ist) damit rechtfertigen kann?

Ich persönlich finde das nicht und würde aufgrund der Mankos bei Preis und Abwärme keine 5 Sterne vergeben (zumal jetzt auch kein Platz mehr für bessere Boardpartnermodelle bleibt, die man mit mehr Punkten noch davon abheben könnte), aber gut, ich gehöre auch nicht zur Zielgruppe dieser angeblichen "Gaming"-Grafikkarten, die für diesen angeblich primären Anwendungszweck weder bzgl. des Speicherausbaus noch des aktuellen nötigen Leistungszuwachs (wofür lohnend/nötig(?)) m.E. passend sind (sondern nur für eine gewisse Nische).

Für mich und vermutlich die überwältigende Mehrheit der Gamer ist das ein Produkt, was komplett an den Bedürfnissen der Zielgruppe von nVidia vorbei entwickelt wurde und jetzt irgendwie künstlich per Marketing platziert und gehyped werden soll, ebenso wie die kommenden (wahrhaftigen und Möchtegern-) RTX 4080 Grafikkarten von nVidia, die vielleicht auf dem Papier von den Benchmarkbalken her beeindruckend erscheinen, aber mit eingeschlagenen Produkt- und Preispolitik für immer größere Fragmentierung sorgen, um maximalen Profit zu erzeugen und PC Gaming per se mit dieser Kundenpolitik mit Sicherheit nicht nach vorne bringen.

Es bleibt die Hoffnung auf AMD(/RTG), auch wenn ich da eher eine pessimistische Erwartungshaltung habe (aufgrund der Entwicklung/Anpassung AMDs/RTGs an nVidia in der jüngeren Vergangenheit), kein Rennen um die längsten Balken - wie hier im Artikel befeuert - entfacht, sondern eher um noch halbwegs akzeptablen Mehrwert und weniger Abgehobenheit bei Grafikkartenleistung, absolutem Verbrauch ohne Brechstange, und Bepreisung bemüht sein wird, denn dahingehend liegt nVidia mit Sicherheit nicht mehr vorne.

Wer diese kontraproduktive Entwicklung bei nVidias Grafikkarten per Kauf unterstützen möchte, der soll das bitte gerne weiterhin tun, aber der sollte vorauschauend vielleicht auch einmal Gedanken darin investieren, welche surreale Entwicklung dieser damit unterstützt/vorantreibt in Bezug auf den Preis, den Trend bzgl. absolute Effizienz/Verbrauchsbilanz/Abwärme/Umweltbelastung (besonders natürlich beim aktuellen Flaggschiff RTX 4090 auffallend, keine Frage, auch wenn der Artikel das per Leistung pro Watt Balken im Fazit geschickt kaschiert), und die Entwicklung in immer mehr Elfenbeinturmnischen/Mehrklassen-Gaming-Struktur zur Profitmaxierung, der daran sich dumm und dämlich verdienenden Unternehmen.

Vernunftprodukte waren solche Grafikkartenflaggschiffe/Halo-Modelle eigentlich noch nie, aber hier wird es in einigen Bereichen doch schon auf die Spitze getrieben und das darf m.E. auch kritisiert werden.
Alter, was redest du? Die Karte - klobig hin, klotzig her - pulverisiert die ganzen aktuellen Gens. Dass das kostet, dürfte wohl klar sein. Und technologisch ist das auch ne ordentliche Schippe drauf - hast du das Review überhaupt gelesen!?
 
@grimm

Komisch, ich hab einen ausgezeichneten UHD HDR Monitor (den ich auch echt feier) und spiel dennoch jedes Spiel mit maximierten RT Settings. Klar, auf ner 3090. Und mit DLSS Q oder B.

Wenn Du RT nicht siehst... nun ja. Es gibt de Fakto keine Grafiktechnologie der letzten Jahre, die einen derartigen Unterschied macht. Und nein, Reflektionen sind *nur* der augenscheinlichste Unterschied.

Aber genau wie man sich die tollen Vorzüge von RT herbeireden kann (was Du vermutlich bei mir unterstellst), so kann man sie sich auch wegreden ;)

Es geht auch ohne, ohne jeden Zweifel. Aber wenn es geht, dann immer mit. Ohne Diskussion. Für mich.
 
Nun gut, das kommt auf die Perspektive an. Wenn man den absoluten Verbrauch und noch viel dramatischer die resultierende Abwärme nimmt, dann ist eine RTX 4090 wohl erwartungsgemäss mit Sicherheit keine Revolution (sondern vielleicht sogar ein Rückschritt oder zumindest ein Schritt in die falsche Richtung) und es wäre sicherlich auch eine Nummer kleiner/effizienter gegangen. [...]
Da möchte ich dir aus ökologischer Sicht, oder aus Sicht meines Geldbeutels, einmal stark widersprechen. Die 4090 ist irgendwo doppelt so effizient pro Watt oder FPS. Schlagt mich bitte nicht, wenn ich hier einiges durcheinander bringe - so auf die schnelle. Wenn man die 4090 bei 60 und 120 FPS mit ihrem passenden Gegenstück der Vorgängergeneration vergleicht, ob an der Leistungsgrenze laufend oder nicht (weil vllt. deutlich mehr als 120 FPS möglich wären, wenn man beiden Generationen freien lauf ließe), dann würde die 4090 immerhin deutlich weniger Energie für das selbe Ergebnis liefern! Auch wenn sie bis zu 450W verbrauchen kann (wobei das jetzt schwer mit der Vorgängergeneration vergleichbar ist).

Dazu kommt noch DLSS 3.0. Wenn das Ergebnis stimmt (Artefakte & Latenz), dann ergäbe sich noch ein größerer Effizienzbonus gegenüber der Vorgängergeneration.

Natürlich mache es jetzt aus ökologischer Sicht keinen Sinn, wenn sich jetzt alle die neue Grakas kaufen. Die alten Grakas sollte man natürlich so lange nutzen, wie es sinnvoll ist und weiterverkaufen. Die Herstellung hat nun mal auch einen oköl. Fußabdruck. Aber wenn ich aufrüste, die alte Graka an jemand anderen weiterverkaufe (der eine noch viel ältere und ineffizientere hat(te)), um am Ende weniger Strom zu verbrauchen (mit meinem Alltagsgedöns), dann ist das ein WinWin.

Die 4090 übertakten und an der Kotzgrenze betreiben ist natürlich alles andere als Effizient. Das ist auch kein Schwarzweiß, sondern ein fließender Übergang und von allerlei Faktoren abhängig. Jedem das Seine. Ich behaupte nicht, dass die 4090 jedem Zweifel erhaben ist, aber ein Rückschritt ist sie aus meiner Sicht auf keinen Fall.

Ich schließe mich ebenso dem der8auer an, dass nVidia das stock Power Target irgendwo bei 300W hätten ansetzen sollen. Der Rest wäre dann ein Thema der Customdesigns und dem OC.

Letzlich ist es, wenn wir über die ach so fürchterlichen 450 oder gar 600W reden doch so: lieber haben, wenn man es tatsächlich mal brauchen sollte (hin und wieder), als sich ständig ne neue Krücke zu kaufen. Es ist immerhin ein Hobby. Ja, das ist total banane formuliert. Aber hey, mit dem Auto fährt man auch nicht permanent mit Vollgas im zweiten Gang oder so. Man braucht also keine 400kW. Es sei denn, man muss mal überholen. Oder möchte mal mit über 200km/h über die Autobahn (bei angemessenen Umständen) brettern, weil es mal geil ist. Zu glauben, dass sich jetzt alle 400kW Boliden oder die 4090 kaufen und permanent am Anschlag laufen lassen, dass das gaaaaanz ganz ganz besonders schlimm für die Umwelt ist (wenn der eine da, einmal oder hin und wieder mal, ....), ist in meinen Augen einfach überzogen.

Ja, spätestens der letzte Absatz von mir hat absolut nichts mehr mit dem von dir zitierten Absatz zu tun. Das ist einfach nur meine Meinung on top zu dem ganzen Gejammer über >400W und nicht an dich gerichtet ^^

PS: und wenn ich 4090 schreibe, dann meine ich natürlich den Bonus mit (fast) jeder neuen Generation und von (fast) jedem Hersteller. Die Effizienz pro W oder FPS wurde bestimmt mit jeder Generation besser. Aber klar, es ist Ansichtssache. Wenn man nur den maximalen Spitzenverbrauch sieht und nicht den Rattenschanz dahinter, ja, dann mag das ein Rückschritt sein; mit der allerersten CPU und mit der allerersten Graka geht die Technologie mit jeder Generation den Bach runter seit Jahrzehnten, denn die Leistungsaufnahme ist mit jeden Jahren immer weiter gestiegen. Es gab auch Schlenkerl nach unten. Aber unterm Strich stieg der Verbrauch schon immer. Sieht halt heute nur sehr viel geiler aus bei UHD/HDR/DLSS etc. und 60 FPS bei 200-300W als früher bei 640x480 und bis zu 100FPS ohne Shader etc. bei 50W. Aber umgekehrt würde die heutige Hardware bei 640x480 mit weit weit weit weit weniger als 50W auskommen. Ein Rückschritt, schon klar ^^

Richtet sich auch gegen niemanden hier im Forum 😘
 
97 (der Monitor kann auch 144, aber dann nur in 8 Bit. Das will ich nicht).

Warum hat eigentlich Ada keinen DP 2.0?
Soll man dann 2x HDMi nutzen?
Es gibt ja momentan keine Monitore, die DP2 können. Ich weiß nicht, ob es da keine Chips für gibt oder was da sonst aufhält. Irgendein Faktor wird es sein. Ich bin gespannt ob sich AMD darauf einlässt, aber wie gesagt, irgendeinen Nachteil muss es haben, ich nehme an im Preis.

Und man muss sich als Anbieter dann schon fragen, ob man wirklich für ein Checklisten Feature, das derzeit keiner nutzen kann, die Marge reduziert oder den Preis anheben muss.
 
Oder er wartet bis Q1/23 auf die 4060. Die hat dann nur 40% der Leistungsaufnahme (<200 W) bei entsprechend niedrigerer FPS-Leistung.
 
Zuletzt bearbeitet :
Oder er wartet bis Q1/23 auf die 4060.
Ist da der Preis schon bekannt?

... dürfte wohl ähnlich wie meine 6800nonXT laufen, oder?
(wenn man mal hofft, das die 3070Ti etwas überboten wird)

die 6800@579€
 
Wieso Technologie-feindlich? Wenn ich mit meiner 2080S RT angeschmissen hab, dann war das selbst in WQHD nicht spielbar. Davon ab, hab ich keine Unterschiede zwischen on/off festgestellt. Und DLSS (1) hat massive Grafikfehler produziert in den drei Games, die es dafür gab.
Das sind doch alles alte Kamellen und hat mit aktuellen Situation nichts zu tun.

Ich konnte mit DLSS 2 und einer 2080s sehr gut mit RT zocken.

Nach Upgrade auf UHD stand RT on garnicht mehr zur Debatte. Dafür aber die 6900XT, weil ausreichend Leistung.
Ist ja OK und ein nachvollziehbarer Standpunkt-

Nach drei Generationen hat es NV endlich geschafft, RT on in WQHD mit ordentlich Frames darzustellen.
Das stimmt doch so überhaupt nicht. Das ging mit einer 2080S / 2080TI mit DLSS 2.0 schon ganz gut. Ab 3080 läuft es doch top.

Mit einem Backstein für 2.000€, der nicht in mein Gehäuse passt.
Hat doch überhaupt keiner was gesagt. Den Schuh technologischfeindlich kann sich jeder anziehen der ihm passt. Ich hab nicht gesagt, du sollst danach greifen. Das hast du ohne Not selbst getan.

Ich würde ja mitfeiern, ich weiß nur nicht was.
Hier feiert doch gar keiner.

Ich kann mich nur wiederholen:
Kaufe ein gutes Display (OLED, UHD, HDR)
Kaufe dann die passende Grafikkarte
Sonst sieht es am Ende auf ner technologisch unterlegenen AMD Karte trotzdem besser aus 😉
Das wiederum sehe ich völlig anders. Aber auch das ist Ansichtssache.
 
Oben Unten