Allgemein Grafikkarten Praxis Testberichte VGA

NVIDIA GeForce RTX 5090 im großen DLSS 4.0 Test – Ist Multi Frame Generation ein echter Performance-Booster oder nur Realitätsverzerrung?

Die ersten Tests der neuen NVIDIA RTX 5090 sind seit letzter Woche online und heute werfen wir mal einen Blick auf das neue DLSS 4.0. Dabei geht es wie immer um die Themen: Wie viel Mehr-FPS bekommt man in Verbindung mit welcher Bildqualität und was machen die Latenzen? Auf die Details, wie Frame Generation (FG) bzw. Multi Frame Generation (MFG), oder das neue Transformer Modell (TM) funktionieren, werde ich nicht eingehen. Dazu hat Igor bereits alles gesagt bzw. geschrieben, was man wissen muss.

NVIDIA GeForce RTX 5090 Founders Edition im Test – Das 600 Watt-Kraftpaket im Gaming- und Labortest

Eigentlich war mein Test schon für letzte Woche geplant, doch leider hat mir die GeForce RTX 5090 FE einen Strich durch die Rechnung gemacht. Die wollte bei mir einfach nicht laufen – Arbeitsverweigerung! Warum? Das muss NVIDIA jetzt analysieren – bisher gab es keine Rückmeldung. Die Ersatzkarte, die bei mir erst am Mittwoch ankam, wollte mit PCIe 5.0 unter keinem Umstand ihren Dienst antreten. Daher kann ich nur empfehlen: Wer sich eine neue NVIDIA RTX 5000er FE-Karte kauft (die Betonung FE ist dabei wichtig), der sollte sein Mainboard im Zweifel manuell auf PCIe 4.0 stellen, sonst kann es sein, dass der Bildschirm schwarz bleibt. Es liegt die Vermutung im Raum, dass die Verbindung zwischen dem PCB der GPU und dem eigentlichen Slot-PCB  nicht der Weisheit letzter Schluss zu seinen scheint.

Bevor wir gleich anfangen, kann jeder noch einen Blick auf mein aktuelles Testsystem werfen, welches ich kurzfristig neu aufgebaut habe. Mit meinem alten Intel Core I9-12900K ist das CPU-Bottleneck – auch in UHD – schneller erreicht, als man Ryzen sagen kann. Daher musste das Upgrade jetzt mal sein. Hier geht ein dickes Dankeschön an den Manu (aka Hardwaredealz), der mir einen Kontakt von Dubaro organisiert hat. Dubaro war so freundlich mir einen AMD Ryzen 7 9800X3D für drei Wochen auszuleihen, sodass der Test möglich wurde. Daher nochmal meinen Dank an Dubaro! Wem Dubaro nix sagt: Klick hier!

Mittlerweile ist ein weiterer AMD Ryzen 7 9800X3D hier aufgeschlagen, der dann auch dauerhaft seine Arbeit bei mir verrichten wird , da war Igor so freundlich und hat mir einen geschickt. Um den AMD Ryzen 7 9800X3D besser zu kühlen, gab es noch eine neue AiO von Arctic und auch hier geht mein Dank an Arctic für die blitzschnelle Unterstützung. Wem die Arctic Liquid Freezer III nichts sagen sollte: Klick hier! Den ausführlichen Test der Liquid Freezer III habe ich euch unten verlinkt.

Testsystem

CPU

AMD Ryzen 7 9800X3D
(PBO 2 OC: 5.4 GHz, Curve optimizer neg. 25)

Mainboard MSI MEG X670E ACE
RAM 2x 16 GB Corsair Dominator 6000 MHz CL 30-36-36-76
SSD 1 Samsung 980 Pro 500 GB (System)
SSD 2 MSI M480 2 TB (Spiele)
SSD 3 HP EX950 2 TB (Spiele)
SSD 4 HP SDD S750 1 TB S-ATA (Backup)
CPU Kühler Arctic Liquid Freezer III 360 mm
Netzteil Seasonic Prime Platinum 1300 Watt
GPUs

NVIDIA GeForce RTX 4090 FE  
NVIDIA GeForce RTX 5090 FE

Sound Onboard
Tastatur ASUS ROG Falchion RX Low Profile (2.4 GHz) @1000 Hz Polling Rate
Maus ASUS ROG Harpe Ace Aim Lab Edition (2.4 GHZ) @1000 Hz Polling Rate
Monitor
Cooler Master Tempest GP27U (IPS MiniLED 3840 x 2160p @ 160 Hz)
Software

Windows 11 24H2
NVIDIA Driver 571.86
NVIDIA FrameView
NVIDIA ICAT

Wichtiges Vorwort

Ich teste alle Spiele ausschließlich in UHD und das mit den maximal möglichen Einstellungen. Bedeutet auch, dass ich heute Ray Tracing auf das absolute Maximum stelle. Damit wir die Leistung der RTX 5090 besser einschätzen können, habe ich die gute alte RTX 4090 FE mit durch das Testprogramm geschickt. Des Weiteren werde ich alle Tests in Bezug auf die FPS und Latenzen ausschließlich mit dem neuen DLSS Transformer Model durchführen. Das ist optisch eine wirkliche Verbesserung.

Wenn ihr euch später die Videos bzgl. Bildqualität anschaut, dann bitte immer beachten, dass ich die Videos mit ICAT bearbeitet habe und auf YouTube hochladen muss (Komprimierung etc. hat hier einen Einfluss). Dass da etwas an Bildqualität verloren geht und Ihr nur 60 FPS seht, dass muss euch klar sein! Ich habe euch aber auch nur Videos hochgeladen, wo ich entweder gar nichts gefunden habe, was es früher mal zu bemängeln gab, oder wo ich wirklich was – auch bei hohen FPS – wahrnehmen konnte.

Jetzt geht es aber los und wir starten mit Alan Wake 2, gefolgt von Cyberpunk 2077 und abschließend noch Hogwarts Legacy. Diese Spiele unterstützen aktuell das neue DLSS 4.0 mit MFG und wir werden heute einen ersten Eindruck davon gewinnen: Was DLSS 4.0 alles kann, wo es noch so seine Ecken und Kanten hat und was man bei Frame Generation unbedingt beachten muss. Here we go!

Arctic Liquid Freezer III 240 und 360 A-RGB AIO CPU-Wasserkühler im Test – Würdiger Nachfolger und neue Standard-Empfehlung?

 

 

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,442 Kommentare 2,404 Likes

Sehr guter Test! Danke für die Einordnung.
Wenn ich 60 oder 100 native Frames in UHD gerendert kriege, hab ich eigentlich keinen Bedarf an FG. Der Test in CP bestätigt meine Beobachtung in Indiana Jones - sobald die Szenerie komplexer wird, werden die generierten Frames zum Problem. Daran ändert auch das neue KI Modell nix. Auf einzelne Szenen (Straße im Outback, Innenräume) zu setzen, führt in die Irre, denn es kann in einem Spiel - abhängig vom Setting - zu sehr großen Schwankungen kommen, die mich zu sehr vom eigentlichen Spiel ablenken.
Insofern war es das jetzt endgültig für mich mit der 50er Gen - zu teuer, zu wenig Entwicklung und für den Leistungszuwachs einfach zu durstig.
Vielleicht sind wir Gamer aber seit gestern auch wieder wichtiger geworden - wenn es so weiter geht, wird aus Kroko unter Umständen Kunstleder 😉

Antwort 13 Likes

s
scotch

Veteran

179 Kommentare 146 Likes

Klasse Test, Vielen Dank. Für mich steht auf jeden Fall fest das die 4090 mich noch eine ganze Weile begleitet.

Antwort 4 Likes

LEIV

Urgestein

1,607 Kommentare 680 Likes

Sehr schöner und interessanter Artikel
Mich würde bei der FG/MFG Vergleich mal AFMF2 noch interessieren, wie schauen da die Latenzen/Bildqualität aus - und ab wie viel FPS sollte man es erst aktivieren?

Spiele selbst keine Grafikkracher und auch nur 1080p mit Ziel FPS 240, aber ab so 80FPS(ohne AFMF2) sieht und fühlt es sich einfach echt gut an

Antwort 2 Likes

Ifalna

Urgestein

555 Kommentare 460 Likes

Jetzt allen Ernstes? Selbst in 4K Max details?
Kann ich mir iwie so gar nicht vorstellen.

Antwort Gefällt mir

Schnuffel

Veteran

262 Kommentare 262 Likes

Respekt, Hammer Artikel.
Viel Input.

Antwort Gefällt mir

Igor Wallossek

1

11,697 Kommentare 22,658 Likes

Doch, das ist leider so :(

Antwort 3 Likes

Ifalna

Urgestein

555 Kommentare 460 Likes

Ist ja krass, wenn man bedenkt, das das System eigentlich nur ~30FPS rendert und der Rest mit DLSS Shenanigans nur auf der GPU passiert. Oder ist die CPU mit Framgen auch involviert?

Wobei ich es schon iwie makaber finde eine 2500€ GPU zu kaufen und dann mit DLSS Performance rumzueiern. :'D

Antwort Gefällt mir

H
Headyman

Veteran

154 Kommentare 75 Likes

Danke für den umfangreichen Test. Wie befürchtet, ändert auch das TM nichts wirklich bzgl. Artefakten. Man tauscht einfach Artefakte aus bei besseren Details, echte "Glanzleistung". Apropo Glanz:
Was mir auf dem ersten Vergleich auffällt, die Texturdetails sind besser mit TM, dafür fehlt das Glanzlicht völlig(!), ups das geht mal gar nicht.

Das das bei einfachen Szenen (einfachen Spielen) gut funktioniert ist sinnlos, da braucht man es nämlich auch nicht.

Sollte Nvidia (und dem Rest) weiterhin nichts einfallen, dann sind wir in einer Sackgasse.
Erweiterte Raytracing Funktionen werden es so die nächsten 5 Jahre nie in den Mainstream schaffen, dafür reichen die Performancesprünge der Fertigungen nicht aus.
Selbst im Toplevel wird es immer dünner, nächste Stufe 3Slot mit 800W und dann 1000W?

Antwort Gefällt mir

B
Besterino

Urgestein

7,266 Kommentare 3,814 Likes

Irgendwie habe ich für mich das Fazit zu FG/MFG mitgenommen, dass Nvidia vor allem einen Weg gesucht zu haben scheint, um eine möglichst hohe Zahl zu den FPS zeigen zu können, bös gesagt wohl weil/obwohl die Grundleistung kaum zugenommen hat. Im Prinzip ist 4K mit RTX on immer noch "nö", sondern ich muss erst mit DLSS die FPS möglichst austarieren als Kompromiss zwischen nem gescheiten Bild und Geschwindigkeit (FPS+Latenz) und dann darf ich mir noch ein paar Bilder dazu phantasieren lassen - mit wiederum weiteren Abzügen bei der Bildqualität, Latenz usw.

Ich kann nur hoffen, dass AMD und Intel die Gelegenheit nutzen und einfach bei der klassischen Performance wieder eine ordentliche Schippe drauflegen.

Antwort 3 Likes

Martin Gut

Urgestein

8,503 Kommentare 4,120 Likes

Man könnte ja die SLI-Bridge mal wieder aufmöbeln um zwei oder drei Grafikkarten zu verbauen. Da möchte ich dann aber das passende Netzteil und die Gehäusebelüftung sehen.

Antwort 4 Likes

Ifalna

Urgestein

555 Kommentare 460 Likes

Unrealistisch.
Ray Tracing bzw. Path Tracing ist für Echtzeitanwendungen einfach zu rechenintensiv. Daher sind wir fürs gaming auf Kompromisse wie DLSS angewiesen.

Wenn dann aber auch noch Entwickler schlampig arbeiten, wie in Hogwarts, dann hilft auch DLSS nicht mehr. Leider sind hastig zusammengeklatschte anstatt liebevoll durchoptimierte AAA Titel heute die Norm. Klar kann man dann sagen "Haha ein 12900K schaffts nicht mehr und da muss nen Upgrade her" aber iwie finde ich das den falschen Ansatz.

Was wohl mit der heutigen Technik möglich wäre wenn die Software wirklich optimiert wäre.... echt schade, dass eine 5090 mit DLSS Quality immer noch nicht stabil die 60FPS schafft.

Antwort Gefällt mir

N
Nitroschnitzel

Neuling

8 Kommentare 6 Likes

Ich sehe nur den Vergleich bei Cyberpunk, DLSS (egal welches) vs Nativ.
Die Blätter der Bäume :poop:

Ich möchte auch erwähnen das wohl kaum ein Influencer angemerkt hat das die 5090 FE ein Design Fehler ist.
CB hatt das wenigstens mal in einem Gehäuse getestet und überraschung mit einem 9800X3D (die X3D Cpu die endlich den Cache unter den Kernen hat und 20 kelvin kühler ist) geht auf über 90 Grad WOW, wahnsinn wer hätte damit bloß rechnen können wenn fast 600 Watt direkt in den CPU Lüfter gepumpt werden :D

Nein sowas aber auch, was wohl mit nem Intel passiert mit über 200 Watt Eigenverbrauch ?

Geiel Essen in den PC, 20 minuten bei 600-800 Watt Umluft backen bis alles eine schöne braune Kruste bekommt, hey ssds und spannungswandler werden gleich mit braun xD

Es ist nur meine Meinung, Niemand und das meine ich aus rein technischer Sicht, sollte eine 5090 FE kaufen, oder die Asus Astral >_>.
Das habe ich direkt bei der CES Vorstellung gedacht und Physik ist gesetz und lässt sich nicht ändern.

Antwort 4 Likes

Corro Dedd

Urgestein

1,953 Kommentare 770 Likes

Wenn man bedenkt, auf welchen Gerätschaften Hacker Doom zum laufen bekommen haben oder welche atemberaubenden Visualisierungen die Demo Szene auf simpelster Hardware vorzeigen, in Echtzeit, fällt es einem echt schwer zu glauben, dass normale Spiele auf echter high end hardware so mies laufen.

Antwort 1 Like

e
eastcoast_pete

Urgestein

2,208 Kommentare 1,410 Likes

Ist das dann in irgendeiner Form so ähnlich wie die Abhängigkeit der Battlemage dGPUs von der CPU Leistung? Die B580 ist zwar am anderen Ende der Preiskategorie, aber bei der wurde diese Abhängigkeit von der CPU Leistung ja von einigen Leuten moniert. Schon interessant, daß die Battlemage dGPUs da voll im Trend lagen. Ich finde es allerdings schon etwas haarig, wenn eine i9 12900 jetzt nicht mehr schnell genug sein soll.

Antwort Gefällt mir

FritzHunter01

Moderator

1,335 Kommentare 1,828 Likes

Das Thema mit den Blättern (Die Frabe) liegt am Nachschärfen. Das kann man etwas runterdrehen!

Antwort Gefällt mir

FritzHunter01

Moderator

1,335 Kommentare 1,828 Likes

Mein Intel 12900K hat in 3440 x 1440p in fast alle Spielen die 4090 limitiert. Das ist leider so... in UHD finde ich es einfach erschreckend, dass ein Spiel wie Hogwarts mit den kranken Settings schon nativ ein CPU-Limit auslöst. Und das ein 9800X3D hier so in die Knie geht...

Antwort 1 Like

Igor Wallossek

1

11,697 Kommentare 22,658 Likes

Das hatten wir doch alles schon einmal:

View image at the forums

Und die HD 6990 mit OC-BIOS schaffte auch locker 600 Watt...

View image at the forums

Antwort 12 Likes

S
SpotNic

Urgestein

1,306 Kommentare 583 Likes

War das nicht so, das mit steigender Auflösung die Last eher auf die GPU geht? Mein 13900K dümpelt immer bei 40 - 60% rum bei UHD.

Antwort Gefällt mir

FritzHunter01

Moderator

1,335 Kommentare 1,828 Likes

Also wer einen 240 Hz UHD OLED hat, der wird sicher bestrebt sein, die 240 FPS zu bekommen. Daher ist die Idee hinter Frame Gen nachvollziehbar. Leider ist es wohl so, dass wir einen Sprung wie von der 3090 zur 4090 nicht mehr so schnell erleben werden. Gründe:

Es fehlt das noch kleiner Fertigungsverfahren. 3N und was kommt dann? Die Architektur allein bringt nicht viel. Noch größere Chips sind noch teurer und brauchen nochmehr Strom.

Daher kommt bei mir wieder die Frage auf: Warum schreien immer Leute nach einem 8K Monitor? Wenn der Markt aufgrund der Nachfrage in die Richtung geht, dann sollen sich die Leute hier bitte im Forum zurhalten, wenn sie nur noch 10 FPS mit DLSS Performance bekommen. Warum denkt NVIDIA ernsthaft über MFG 16x nach? Genau wegen solchen - völlig sinnlosen Vorstellungen!

Antwort 8 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung