NVIDIA GeForce RTX 4090 Founders Edition 24GB im Test – Der kraftstrotzende Monolith, der abstinent aus der Kälte kam

Joa, welches ATX 3.0 NT von Seasonic würdest du den empfehlen? (Hint: es gibt eben noch keine von Seasonic und die Kabel lassen sich dann auch nicht weiter verwenden)

Wenn dann sollte man ja gleich vernünftig/zukunftsorientiert aufrüsten.
An ATX 3 hab ich nicht gedacht.
Da hast natürlich recht.
 
Ich freue mich über die Leistung des "kraftstrotzenden Monolith", Hut ab und Danke für den Test. (y)
Als 3090 Besitzer sehe ich aber keinen (vernünftigen Grund / Sinn zu tauschen, aktuell ist für mich eine 3090 der kleine P/L Sieger.
Gebraucht für 900 Flocken fast eine Empfehlung wert (wenn man Herkunft kennt)
 
Wow, geile Karte.
Irres Leistungsplus ohne mehr Stromverbrauch.
Leise, Kühl.
Perfekt - falls man sich sowieso schon überlegt hat den TopDog zu kaufen.
Ist da ja auch nur 20% teurer als die 3090, für das was man bekommt ein geiler Deal.
Nur: 2000 Euro für eine GraKa sind eben 2000 Euro für eine GraKa.
Wenn man die nicht ausgeben will, ist es egal wie geil das Teil ist.

Prinpiziell ja nicht schlimm - TopDog war (zu Recht) immer teuer. Egal bei welchem Produkt.
Gibt ja noch die kleineren Brüder.
Und genau das ist bei Lovelace ja das Problem.
Eine 4080 16GB kostet UVP 1450 Euro - die 3080 war 700, später 750 Euro.
Eine 4080 12GB kostet UVP 1100 Euro - und ist quasi eine 4070. Die 3070 kostete 500, später 550 Euro.

Hier haben sich die Preise also verdoppelt - bei einer Performance, deren Zuwachs (gemäß der Hardwarespecs) deutlich niedriger sein dürfte als bei der 4090 vs 3090.

Die 4090 ist geil und - für den TopDog - fair bepreist.
Nur wird das Preis-Leistungs-Verhältnis bei den unteren Karten schlechter.

Die Preise für die 4080 sind einfach krank und rauben mir jede Freude an der Lovelace Generation. Ein Porn-Chip ist das nicht :(

Denn nein, ich interessiere mich nicht für eine 2000 Euro GraKa - egal wie gut sie ist.
500 Euro gerne, meinetwegen 750 Euro - aber dann wird die Luft dünn.
Ich gebe definitiv keinen 4-stelligen Betrag für eine GraKa aus.
 
@Igor Wallossek
Ganz herzlichen Dank für diesen fundierten und extrem umfangreichen Test! Und nochmals Dank dafür, dass Du auch im geschlossenen Gehäuse getestet hast!
Temperaturen und Lautstärke im geschlossenen (Airflow-)Gehäuse finde ich mindestens so beeindruckend wie die Performance der FE. Bin sehr gespannt, wie das bei den Boardpartnerkarten ausieht. Die haben ja im Vergleich zur FE den Nachteil, dass sie keine Abwärme über die Slotblende rausblasen. Spekulation: Die Gehäuse-Innentemperatur müsste bei den Boardpartnerkarten (bei identischen Drehzahlen der Gehäuselüfter) eigentlich höher sein als bei der FE. Für eine unter dem Deckel verbaute AOI könnte das heißen, dass die Radiatorlüfter höher drehen müssen und dadurch lauter werden und dass die maximale Kühlleistung der AIO sinkt. Vielleicht kann man das vermeiden, indem man die Gehäuselüfter schneller drehen lässt, also den Luftdurchfluss erhöht, aber auch das müsste dann lauter werden.
 
Jetzt hat NVIDIA tatsächlich gezeigt, wo bei GPUs in 2022 der Hammer hängt! Tolle GPU, wenn nur der Preis nicht wäre, aber bei der Leistung wird NVIDIA trotzdem viele Abnehmer finden. Hoffentlich gibt's auch "trickle down economics" in Ada, mir persönlich würden 40 - 60% der Leistung reichen, wenn sie denn erschwinglich ist. Und jetzt wird's schwer für AMD; die Steilvorlage von NVIDIA muss man erst Mal einholen. Wenn (wenn!) AMD das aber auch nur ungefähr schafft, wäre das der endgültige Beweis, daß Chiplets auch bei höherendigen GPUs die Zukunft sind. Aber das wird schwer.

Unabhängig davon freue ich mich jetzt auf die weiteren Tests in den nächsten Tagen. Mich würde auch interessieren, ob und wie NVENC optimiert wurde (zusätzlich zu jetzt 2x, was alleine schon eine Ansage ist), ob AV1 Encode klappt usw.
 
Joah, das ist ein ziemliches Brett. Aber. Das ist wie mit ner Karre: Klar ist der Porsche Turbo geil, der kostet halt aber auch 200.000 Steine. Und so verhält es sich hier auch. Man hat wohl lange getestet, wie weit die Investitionslust der Leute geht. Und endlich das Machbare für Consumer umgesetzt. Es ist ein Klotz, aber ein performanter! Was mich irritiert ist, dass in 4K bei z. B. Cyberpunk trotzdem nur mickrige FPS erreicht werden. Zeigt aber auch, wie mies das Spiel optimiert ist.
Von der Leistungsaufnahme bin ich positiv überrascht - 550 Watt bei CPU und GPU kumuliert (Danke für die Ausweisung!) kann man ja schon durch mein 850 Watt NT jagen. Wenn da nur nicht diese bekloppte PCI 3.0 Spec wäre. Oder spricht was gegen den Betrieb?
 
Krasser Leistungssprung - selbst bei nur 300W (Eco 😍), DLSS 3.0 ist auch echt nice ... aber dieser Preis ist einfach nur LOL :D

Nun heißt es für mich gespanntes Warten auf AMD. Ich fürchte ja so ein Navi1 Debakel auf uns zukommen - wieder "nur" Mittelklasse und Navi 4 darf es dann richten. Mir soll(te) es recht sein. Leistung ist ... eigentlich ... genug da. Mehr wäre trotzdem geil(er). Projektunvernumft halt ^^

Mal gucken :)

Edit: mir geht es vorallem um eine höhere Effiziens bei 60/120FPS. Keine Ahnung, was meine aktuelle Graka so im Schnitt verbraucht. Aber wenn die nächste bei den selben FPS ordentlich weniger verbraucht, ist das für mich ein Kaufgrund. 150W sind besser als >200W. Es ist auch leiser. Bei der nächsten Graka wird natürlich das Powertarget wieder minimiert und etwas UV betrieben. Die alte wird natürlich zu einem fairen Preis verkauft und bleibt hoffentlich lange dem Mülleimer fern.
 
Zuletzt bearbeitet :
Joar, gute Arbeit NV.
 
Kommen eigentlich noch Tests von den Partnerkarten? Oder gibts da auch ein NDA?
Würde mir gerne eine TUF holen wegen 2x HDMI 2.1.
 
Verstehe nicht was meinst.
Wenn du einen Wasserblock verbauen willst, geht das am besten auf einer Karte mit dem Referenzdesign, weil die Blöcke dafür entwickelt werden. Eine Strix zum Beispiel hat eine eigene Platine, dafür braucht es dann auch einen extra Block.

@Pascal Mouchel Danke. Gilt das auch für die MSI Gaming Trio?
 
Beeindruckende Grafikkarte. Weniger beeindruckt hat mich leider der Test, speziell die Wortwahl. Sorry.
 
Beeindruckende Grafikkarte. Weniger beeindruckt hat mich leider der Test. Sorry.
Solltest schon auch sagen, warum. Es ist ja "nur" der erste Durchlauf der FE - da kommen ja noch Follow-ups. Dafür erscheint es mir ziemlich umfassend. Was fehlt dir denn?
 
Energetische Hinrichtung. Autsch @AMD....
Mit 300-350W PT wird es noch extremer.
Da hat Igor nicht unrecht, aber das sollte man auch nicht überbewerten. :)

Die 4090 hat 450W also 25% mehr als die 6950.
Die 7000 soll 50% mehr FPS pro Watt erreichen, dann wäre wir ziemlich genau gleich auf.

Selbst wenn die 7000 etwas Langsamer wird, ist sie bestimmt günstiger für uns. :)
 
Warten wir ab auf die Radeon 7900. Danach redet keiner mehr von einer RTX 4090. ;)
 
Oben Unten