NVIDIA GeForce RTX 5090 im großen DLSS 4.0 Test - Ist Multi Frame Generation ein echter Performance-Booster oder nur Realitätsverzerrung?

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
2.495
Bewertungspunkte
12.006
Punkte
1
Standort
Redaktion
Die ersten Tests der neuen NVIDIA RTX 5090 sind seit letzter Woche online und heute werfen wir mal einen Blick auf das neue DLSS 4.0. Dabei geht es wie immer um die Themen: Wie viel Mehr-FPS bekommt man in Verbindung mit welcher Bildqualität und was machen die Latenzen? Auf die Details, wie Frame Generation (FG) […] (read full article...)
 
Sehr guter Test! Danke für die Einordnung.
Wenn ich 60 oder 100 native Frames in UHD gerendert kriege, hab ich eigentlich keinen Bedarf an FG. Der Test in CP bestätigt meine Beobachtung in Indiana Jones - sobald die Szenerie komplexer wird, werden die generierten Frames zum Problem. Daran ändert auch das neue KI Modell nix. Auf einzelne Szenen (Straße im Outback, Innenräume) zu setzen, führt in die Irre, denn es kann in einem Spiel - abhängig vom Setting - zu sehr großen Schwankungen kommen, die mich zu sehr vom eigentlichen Spiel ablenken.
Insofern war es das jetzt endgültig für mich mit der 50er Gen - zu teuer, zu wenig Entwicklung und für den Leistungszuwachs einfach zu durstig.
Vielleicht sind wir Gamer aber seit gestern auch wieder wichtiger geworden - wenn es so weiter geht, wird aus Kroko unter Umständen Kunstleder 😉
 
Sehr schöner und interessanter Artikel
Mich würde bei der FG/MFG Vergleich mal AFMF2 noch interessieren, wie schauen da die Latenzen/Bildqualität aus - und ab wie viel FPS sollte man es erst aktivieren?

Spiele selbst keine Grafikkracher und auch nur 1080p mit Ziel FPS 240, aber ab so 80FPS(ohne AFMF2) sieht und fühlt es sich einfach echt gut an
 
Mit meinem alten Intel Core I9-12900K ist das CPU-Bottleneck – auch in UHD – schneller erreicht, als man Ryzen sagen kann.
Jetzt allen Ernstes? Selbst in 4K Max details?
Kann ich mir iwie so gar nicht vorstellen.
 
Respekt, Hammer Artikel.
Viel Input.
 
Doch, das ist leider so :(
Ist ja krass, wenn man bedenkt, das das System eigentlich nur ~30FPS rendert und der Rest mit DLSS Shenanigans nur auf der GPU passiert. Oder ist die CPU mit Framgen auch involviert?

Wobei ich es schon iwie makaber finde eine 2500€ GPU zu kaufen und dann mit DLSS Performance rumzueiern. :'D
 
Zuletzt bearbeitet :
Danke für den umfangreichen Test. Wie befürchtet, ändert auch das TM nichts wirklich bzgl. Artefakten. Man tauscht einfach Artefakte aus bei besseren Details, echte "Glanzleistung". Apropo Glanz:
Was mir auf dem ersten Vergleich auffällt, die Texturdetails sind besser mit TM, dafür fehlt das Glanzlicht völlig(!), ups das geht mal gar nicht.

Das das bei einfachen Szenen (einfachen Spielen) gut funktioniert ist sinnlos, da braucht man es nämlich auch nicht.

Sollte Nvidia (und dem Rest) weiterhin nichts einfallen, dann sind wir in einer Sackgasse.
Erweiterte Raytracing Funktionen werden es so die nächsten 5 Jahre nie in den Mainstream schaffen, dafür reichen die Performancesprünge der Fertigungen nicht aus.
Selbst im Toplevel wird es immer dünner, nächste Stufe 3Slot mit 800W und dann 1000W?
 
Irgendwie habe ich für mich das Fazit zu FG/MFG mitgenommen, dass Nvidia vor allem einen Weg gesucht zu haben scheint, um eine möglichst hohe Zahl zu den FPS zeigen zu können, bös gesagt wohl weil/obwohl die Grundleistung kaum zugenommen hat. Im Prinzip ist 4K mit RTX on immer noch "nö", sondern ich muss erst mit DLSS die FPS möglichst austarieren als Kompromiss zwischen nem gescheiten Bild und Geschwindigkeit (FPS+Latenz) und dann darf ich mir noch ein paar Bilder dazu phantasieren lassen - mit wiederum weiteren Abzügen bei der Bildqualität, Latenz usw.

Ich kann nur hoffen, dass AMD und Intel die Gelegenheit nutzen und einfach bei der klassischen Performance wieder eine ordentliche Schippe drauflegen.
 
Selbst im Toplevel wird es immer dünner, nächste Stufe 3Slot mit 800W und dann 1000W?
Man könnte ja die SLI-Bridge mal wieder aufmöbeln um zwei oder drei Grafikkarten zu verbauen. Da möchte ich dann aber das passende Netzteil und die Gehäusebelüftung sehen.
 
Ich kann nur hoffen, dass AMD und Intel die Gelegenheit nutzen und einfach bei der klassischen Performance wieder eine ordentliche Schippe drauflegen.
Unrealistisch.
Ray Tracing bzw. Path Tracing ist für Echtzeitanwendungen einfach zu rechenintensiv. Daher sind wir fürs gaming auf Kompromisse wie DLSS angewiesen.

Wenn dann aber auch noch Entwickler schlampig arbeiten, wie in Hogwarts, dann hilft auch DLSS nicht mehr. Leider sind hastig zusammengeklatschte anstatt liebevoll durchoptimierte AAA Titel heute die Norm. Klar kann man dann sagen "Haha ein 12900K schaffts nicht mehr und da muss nen Upgrade her" aber iwie finde ich das den falschen Ansatz.

Was wohl mit der heutigen Technik möglich wäre wenn die Software wirklich optimiert wäre.... echt schade, dass eine 5090 mit DLSS Quality immer noch nicht stabil die 60FPS schafft.
 
Ich sehe nur den Vergleich bei Cyberpunk, DLSS (egal welches) vs Nativ.
Die Blätter der Bäume :poop:

Ich möchte auch erwähnen das wohl kaum ein Influencer angemerkt hat das die 5090 FE ein Design Fehler ist.
CB hatt das wenigstens mal in einem Gehäuse getestet und überraschung mit einem 9800X3D (die X3D Cpu die endlich den Cache unter den Kernen hat und 20 kelvin kühler ist) geht auf über 90 Grad WOW, wahnsinn wer hätte damit bloß rechnen können wenn fast 600 Watt direkt in den CPU Lüfter gepumpt werden :D

Nein sowas aber auch, was wohl mit nem Intel passiert mit über 200 Watt Eigenverbrauch ?

Geiel Essen in den PC, 20 minuten bei 600-800 Watt Umluft backen bis alles eine schöne braune Kruste bekommt, hey ssds und spannungswandler werden gleich mit braun xD

Es ist nur meine Meinung, Niemand und das meine ich aus rein technischer Sicht, sollte eine 5090 FE kaufen, oder die Asus Astral >_>.
Das habe ich direkt bei der CES Vorstellung gedacht und Physik ist gesetz und lässt sich nicht ändern.
 
Was wohl mit der heutigen Technik möglich wäre wenn die Software wirklich optimiert wäre...
Wenn man bedenkt, auf welchen Gerätschaften Hacker Doom zum laufen bekommen haben oder welche atemberaubenden Visualisierungen die Demo Szene auf simpelster Hardware vorzeigen, in Echtzeit, fällt es einem echt schwer zu glauben, dass normale Spiele auf echter high end hardware so mies laufen.
 
Doch, das ist leider so :(
Ist das dann in irgendeiner Form so ähnlich wie die Abhängigkeit der Battlemage dGPUs von der CPU Leistung? Die B580 ist zwar am anderen Ende der Preiskategorie, aber bei der wurde diese Abhängigkeit von der CPU Leistung ja von einigen Leuten moniert. Schon interessant, daß die Battlemage dGPUs da voll im Trend lagen. Ich finde es allerdings schon etwas haarig, wenn eine i9 12900 jetzt nicht mehr schnell genug sein soll.
 
Ich sehe nur den Vergleich bei Cyberpunk, DLSS (egal welches) vs Nativ.
Die Blätter der Bäume :poop:

Ich möchte auch erwähnen das wohl kaum ein Influencer angemerkt hat das die 5090 FE ein Design Fehler ist.
CB hatt das wenigstens mal in einem Gehäuse getestet und überraschung mit einem 9800X3D (die X3D Cpu die endlich den Cache unter den Kernen hat und 20 kelvin kühler ist) geht auf über 90 Grad WOW, wahnsinn wer hätte damit bloß rechnen können wenn fast 600 Watt direkt in den CPU Lüfter gepumpt werden :D

Nein sowas aber auch, was wohl mit nem Intel passiert mit über 200 Watt Eigenverbrauch ?

Geiel Essen in den PC, 20 minuten bei 600-800 Watt Umluft backen bis alles eine schöne braune Kruste bekommt, hey ssds und spannungswandler werden gleich mit braun xD

Es ist nur meine Meinung, Niemand und das meine ich aus rein technischer Sicht, sollte eine 5090 FE kaufen, oder die Asus Astral >_>.
Das habe ich direkt bei der CES Vorstellung gedacht und Physik ist gesetz und lässt sich nicht ändern.
Das Thema mit den Blättern (Die Frabe) liegt am Nachschärfen. Das kann man etwas runterdrehen!
 
Ist das dann in irgendeiner Form so ähnlich wie die Abhängigkeit der Battlemage dGPUs von der CPU Leistung? Die B580 ist zwar am anderen Ende der Preiskategorie, aber bei der wurde diese Abhängigkeit von der CPU Leistung ja von einigen Leuten moniert. Schon interessant, daß die Battlemage dGPUs da voll im Trend lagen. Ich finde es allerdings schon etwas haarig, wenn eine i9 12900 jetzt nicht mehr schnell genug sein soll.
Mein Intel 12900K hat in 3440 x 1440p in fast alle Spielen die 4090 limitiert. Das ist leider so... in UHD finde ich es einfach erschreckend, dass ein Spiel wie Hogwarts mit den kranken Settings schon nativ ein CPU-Limit auslöst. Und das ein 9800X3D hier so in die Knie geht...
 
Das hatten wir doch alles schon einmal:

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9KL1EvMjg4NDIyL29yaWdpbmFsL21lbnVlX2VnZ18wMy5qcGc-1.jpeg


Und die HD 6990 mit OC-BIOS schaffte auch locker 600 Watt...

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9KL1kvMjg4NDMwL29yaWdpbmFsL21lbnVlX2hvdF9kb2dfMDIuanBn-1.jpeg
 
War das nicht so, das mit steigender Auflösung die Last eher auf die GPU geht? Mein 13900K dümpelt immer bei 40 - 60% rum bei UHD.
 
Sehr guter Test! Danke für die Einordnung.
Wenn ich 60 oder 100 native Frames in UHD gerendert kriege, hab ich eigentlich keinen Bedarf an FG. Der Test in CP bestätigt meine Beobachtung in Indiana Jones - sobald die Szenerie komplexer wird, werden die generierten Frames zum Problem. Daran ändert auch das neue KI Modell nix. Auf einzelne Szenen (Straße im Outback, Innenräume) zu setzen, führt in die Irre, denn es kann in einem Spiel - abhängig vom Setting - zu sehr großen Schwankungen kommen, die mich zu sehr vom eigentlichen Spiel ablenken.
Insofern war es das jetzt endgültig für mich mit der 50er Gen - zu teuer, zu wenig Entwicklung und für den Leistungszuwachs einfach zu durstig.
Vielleicht sind wir Gamer aber seit gestern auch wieder wichtiger geworden - wenn es so weiter geht, wird aus Kroko unter Umständen Kunstleder 😉
Also wer einen 240 Hz UHD OLED hat, der wird sicher bestrebt sein, die 240 FPS zu bekommen. Daher ist die Idee hinter Frame Gen nachvollziehbar. Leider ist es wohl so, dass wir einen Sprung wie von der 3090 zur 4090 nicht mehr so schnell erleben werden. Gründe:

Es fehlt das noch kleiner Fertigungsverfahren. 3N und was kommt dann? Die Architektur allein bringt nicht viel. Noch größere Chips sind noch teurer und brauchen nochmehr Strom.

Daher kommt bei mir wieder die Frage auf: Warum schreien immer Leute nach einem 8K Monitor? Wenn der Markt aufgrund der Nachfrage in die Richtung geht, dann sollen sich die Leute hier bitte im Forum zurhalten, wenn sie nur noch 10 FPS mit DLSS Performance bekommen. Warum denkt NVIDIA ernsthaft über MFG 16x nach? Genau wegen solchen - völlig sinnlosen Vorstellungen!
 
Oben Unten