Allgemein Grafikkarten Praxis Testberichte VGA

NVIDIA GeForce RTX 5090 im großen DLSS 4.0 Test – Ist Multi Frame Generation ein echter Performance-Booster oder nur Realitätsverzerrung?

Cyberpunk 2077

Dass man DLSS 4.0 mit der neuen Multi Frame Generation auch wirklich nutzen kann, zeigt sich in Cyberpunk 2077 mit deutlich besseren 1% Low werten. Hier ist Ruckeln kein wirkliches Thema! Getestet habe ich hier mit dem In-Game-Benchmark, aber keine Sorge, das läuft auch im Spiel genauso gut.

Auch hier kann sich die RTX 5090 nativ nur knapp vor die RTX 4090 setzen. Ohne DLSS-Qualität sieht man die 60 FPS auf keinen Fall. Und bitte, auf keinen Fall auf die Idee kommen, direkt die 33 FPS als Basis für Frame Generation zu nutzen. Egal, ob 2x, 3x oder 4x – das ist ein echter Latenzkiller!

Mit der RTX 5090 kann man das Spiel mit allen Details und voller DXR-Bestrahlung mit sehr guten 93 FPS zocken und das fühlt sich auch verdammt reaktionsschnell an. Die 26 ms Latenz passen genau zu dem, was man auf dem Monitor sieht. Will man jetzt Upscaling umgehen, weil man unbedingt natives UHD sehen will, dann bekommt man zwar mit MFG 4x direkt 120 FPS zu sehen, nur sind die Latenzen alles andere als gut: 72 ms im Schnitt, dass passt überhaupt nicht zu dem, was man auf dem Bildschirm sieht. Das Delta beträgt ca. 50 ms und das spürt man auch, da muss man kein eSportler sein! Die Basis für Frame Generation sollte hier mindestens DLSS-Quality, oder besser noch DLSS-Performance sein, dann ist der Latenzverlust in Relation bei ca. 10 ms.

 

Die 277 FPS fühlen sich optisch und latenztechnisch zwar ganz ok an, aber echte 270 FPS sind bezogen auf die Latenz etwas ganz Anderes! Werfen wir also mal einen Blick auf echte High-FPS und vergleichen sie mit Multi Frame Generation:

 

Wie ihr an dem Beispiel sehen konntet, liegen hier schon Welten zwischen echten 244 FPS und den zu 75 Prozent AI-generierten 277 FPS, wenn es um die Latenzen geht. Ja, der Vergleich passt jetzt nicht eins zu eins, weil ich für diese Darstellung hier, die Settings auf Medium reduziert und DXR komplett aus gemacht habe. Dennoch sollte NVIDIA das Thema: Performance-Verbesserung – nicht mit optischer Aufhübschung verwechseln. Wenn man mit DLSS-Performance in maximalen Details sowie DXR Overdrive – ohne Frame Generation auf 160 FPS kommen würde, dann können wir von einer echten Performance-Steigerung sprechen. Alles anderer ist reines Marketing und soll die Kunden in meinen Augen fehlleiten. Eine RTX 5070 mit der Performance einer RTX 4090? Wenn man nur Singen und Klatschen in der Schule hatte, dann läuft man solchen Parolen sicher hinterher.

 

 

102 Antworten

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,496 Kommentare 2,518 Likes

Sehr guter Test! Danke für die Einordnung.
Wenn ich 60 oder 100 native Frames in UHD gerendert kriege, hab ich eigentlich keinen Bedarf an FG. Der Test in CP bestätigt meine Beobachtung in Indiana Jones - sobald die Szenerie komplexer wird, werden die generierten Frames zum Problem. Daran ändert auch das neue KI Modell nix. Auf einzelne Szenen (Straße im Outback, Innenräume) zu setzen, führt in die Irre, denn es kann in einem Spiel - abhängig vom Setting - zu sehr großen Schwankungen kommen, die mich zu sehr vom eigentlichen Spiel ablenken.
Insofern war es das jetzt endgültig für mich mit der 50er Gen - zu teuer, zu wenig Entwicklung und für den Leistungszuwachs einfach zu durstig.
Vielleicht sind wir Gamer aber seit gestern auch wieder wichtiger geworden - wenn es so weiter geht, wird aus Kroko unter Umständen Kunstleder 😉

Antwort 13 Likes

s
scotch

Veteran

181 Kommentare 151 Likes

Klasse Test, Vielen Dank. Für mich steht auf jeden Fall fest das die 4090 mich noch eine ganze Weile begleitet.

Antwort 4 Likes

LEIV

Urgestein

1,622 Kommentare 685 Likes

Sehr schöner und interessanter Artikel
Mich würde bei der FG/MFG Vergleich mal AFMF2 noch interessieren, wie schauen da die Latenzen/Bildqualität aus - und ab wie viel FPS sollte man es erst aktivieren?

Spiele selbst keine Grafikkracher und auch nur 1080p mit Ziel FPS 240, aber ab so 80FPS(ohne AFMF2) sieht und fühlt es sich einfach echt gut an

Antwort 2 Likes

Ifalna

Urgestein

583 Kommentare 499 Likes

Jetzt allen Ernstes? Selbst in 4K Max details?
Kann ich mir iwie so gar nicht vorstellen.

Antwort Gefällt mir

Schnuffel

Veteran

277 Kommentare 291 Likes

Respekt, Hammer Artikel.
Viel Input.

Antwort Gefällt mir

Igor Wallossek

1

11,878 Kommentare 23,299 Likes

Doch, das ist leider so :(

Antwort 3 Likes

Ifalna

Urgestein

583 Kommentare 499 Likes

Ist ja krass, wenn man bedenkt, das das System eigentlich nur ~30FPS rendert und der Rest mit DLSS Shenanigans nur auf der GPU passiert. Oder ist die CPU mit Framgen auch involviert?

Wobei ich es schon iwie makaber finde eine 2500€ GPU zu kaufen und dann mit DLSS Performance rumzueiern. :'D

Antwort Gefällt mir

H
Headyman

Veteran

160 Kommentare 82 Likes

Danke für den umfangreichen Test. Wie befürchtet, ändert auch das TM nichts wirklich bzgl. Artefakten. Man tauscht einfach Artefakte aus bei besseren Details, echte "Glanzleistung". Apropo Glanz:
Was mir auf dem ersten Vergleich auffällt, die Texturdetails sind besser mit TM, dafür fehlt das Glanzlicht völlig(!), ups das geht mal gar nicht.

Das das bei einfachen Szenen (einfachen Spielen) gut funktioniert ist sinnlos, da braucht man es nämlich auch nicht.

Sollte Nvidia (und dem Rest) weiterhin nichts einfallen, dann sind wir in einer Sackgasse.
Erweiterte Raytracing Funktionen werden es so die nächsten 5 Jahre nie in den Mainstream schaffen, dafür reichen die Performancesprünge der Fertigungen nicht aus.
Selbst im Toplevel wird es immer dünner, nächste Stufe 3Slot mit 800W und dann 1000W?

Antwort Gefällt mir

B
Besterino

Urgestein

7,346 Kommentare 3,888 Likes

Irgendwie habe ich für mich das Fazit zu FG/MFG mitgenommen, dass Nvidia vor allem einen Weg gesucht zu haben scheint, um eine möglichst hohe Zahl zu den FPS zeigen zu können, bös gesagt wohl weil/obwohl die Grundleistung kaum zugenommen hat. Im Prinzip ist 4K mit RTX on immer noch "nö", sondern ich muss erst mit DLSS die FPS möglichst austarieren als Kompromiss zwischen nem gescheiten Bild und Geschwindigkeit (FPS+Latenz) und dann darf ich mir noch ein paar Bilder dazu phantasieren lassen - mit wiederum weiteren Abzügen bei der Bildqualität, Latenz usw.

Ich kann nur hoffen, dass AMD und Intel die Gelegenheit nutzen und einfach bei der klassischen Performance wieder eine ordentliche Schippe drauflegen.

Antwort 3 Likes

Martin Gut

Urgestein

8,720 Kommentare 4,273 Likes

Man könnte ja die SLI-Bridge mal wieder aufmöbeln um zwei oder drei Grafikkarten zu verbauen. Da möchte ich dann aber das passende Netzteil und die Gehäusebelüftung sehen.

Antwort 4 Likes

Ifalna

Urgestein

583 Kommentare 499 Likes

Unrealistisch.
Ray Tracing bzw. Path Tracing ist für Echtzeitanwendungen einfach zu rechenintensiv. Daher sind wir fürs gaming auf Kompromisse wie DLSS angewiesen.

Wenn dann aber auch noch Entwickler schlampig arbeiten, wie in Hogwarts, dann hilft auch DLSS nicht mehr. Leider sind hastig zusammengeklatschte anstatt liebevoll durchoptimierte AAA Titel heute die Norm. Klar kann man dann sagen "Haha ein 12900K schaffts nicht mehr und da muss nen Upgrade her" aber iwie finde ich das den falschen Ansatz.

Was wohl mit der heutigen Technik möglich wäre wenn die Software wirklich optimiert wäre.... echt schade, dass eine 5090 mit DLSS Quality immer noch nicht stabil die 60FPS schafft.

Antwort Gefällt mir

N
Nitroschnitzel

Neuling

8 Kommentare 6 Likes

Ich sehe nur den Vergleich bei Cyberpunk, DLSS (egal welches) vs Nativ.
Die Blätter der Bäume :poop:

Ich möchte auch erwähnen das wohl kaum ein Influencer angemerkt hat das die 5090 FE ein Design Fehler ist.
CB hatt das wenigstens mal in einem Gehäuse getestet und überraschung mit einem 9800X3D (die X3D Cpu die endlich den Cache unter den Kernen hat und 20 kelvin kühler ist) geht auf über 90 Grad WOW, wahnsinn wer hätte damit bloß rechnen können wenn fast 600 Watt direkt in den CPU Lüfter gepumpt werden :D

Nein sowas aber auch, was wohl mit nem Intel passiert mit über 200 Watt Eigenverbrauch ?

Geiel Essen in den PC, 20 minuten bei 600-800 Watt Umluft backen bis alles eine schöne braune Kruste bekommt, hey ssds und spannungswandler werden gleich mit braun xD

Es ist nur meine Meinung, Niemand und das meine ich aus rein technischer Sicht, sollte eine 5090 FE kaufen, oder die Asus Astral >_>.
Das habe ich direkt bei der CES Vorstellung gedacht und Physik ist gesetz und lässt sich nicht ändern.

Antwort 4 Likes

Corro Dedd

Urgestein

2,001 Kommentare 799 Likes

Wenn man bedenkt, auf welchen Gerätschaften Hacker Doom zum laufen bekommen haben oder welche atemberaubenden Visualisierungen die Demo Szene auf simpelster Hardware vorzeigen, in Echtzeit, fällt es einem echt schwer zu glauben, dass normale Spiele auf echter high end hardware so mies laufen.

Antwort 1 Like

e
eastcoast_pete

Urgestein

2,323 Kommentare 1,510 Likes

Ist das dann in irgendeiner Form so ähnlich wie die Abhängigkeit der Battlemage dGPUs von der CPU Leistung? Die B580 ist zwar am anderen Ende der Preiskategorie, aber bei der wurde diese Abhängigkeit von der CPU Leistung ja von einigen Leuten moniert. Schon interessant, daß die Battlemage dGPUs da voll im Trend lagen. Ich finde es allerdings schon etwas haarig, wenn eine i9 12900 jetzt nicht mehr schnell genug sein soll.

Antwort Gefällt mir

FritzHunter01

Moderator

1,346 Kommentare 1,839 Likes

Das Thema mit den Blättern (Die Frabe) liegt am Nachschärfen. Das kann man etwas runterdrehen!

Antwort Gefällt mir

FritzHunter01

Moderator

1,346 Kommentare 1,839 Likes

Mein Intel 12900K hat in 3440 x 1440p in fast alle Spielen die 4090 limitiert. Das ist leider so... in UHD finde ich es einfach erschreckend, dass ein Spiel wie Hogwarts mit den kranken Settings schon nativ ein CPU-Limit auslöst. Und das ein 9800X3D hier so in die Knie geht...

Antwort 1 Like

Igor Wallossek

1

11,878 Kommentare 23,299 Likes

Das hatten wir doch alles schon einmal:

View image at the forums

Und die HD 6990 mit OC-BIOS schaffte auch locker 600 Watt...

View image at the forums

Antwort 13 Likes

S
SpotNic

Urgestein

1,334 Kommentare 605 Likes

War das nicht so, das mit steigender Auflösung die Last eher auf die GPU geht? Mein 13900K dümpelt immer bei 40 - 60% rum bei UHD.

Antwort Gefällt mir

FritzHunter01

Moderator

1,346 Kommentare 1,839 Likes

Also wer einen 240 Hz UHD OLED hat, der wird sicher bestrebt sein, die 240 FPS zu bekommen. Daher ist die Idee hinter Frame Gen nachvollziehbar. Leider ist es wohl so, dass wir einen Sprung wie von der 3090 zur 4090 nicht mehr so schnell erleben werden. Gründe:

Es fehlt das noch kleiner Fertigungsverfahren. 3N und was kommt dann? Die Architektur allein bringt nicht viel. Noch größere Chips sind noch teurer und brauchen nochmehr Strom.

Daher kommt bei mir wieder die Frage auf: Warum schreien immer Leute nach einem 8K Monitor? Wenn der Markt aufgrund der Nachfrage in die Richtung geht, dann sollen sich die Leute hier bitte im Forum zurhalten, wenn sie nur noch 10 FPS mit DLSS Performance bekommen. Warum denkt NVIDIA ernsthaft über MFG 16x nach? Genau wegen solchen - völlig sinnlosen Vorstellungen!

Antwort 8 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung