Allgemein Grafikkarten Praxis Testberichte VGA

NVIDIA GeForce RTX 5090 im großen DLSS 4.0 Test – Ist Multi Frame Generation ein echter Performance-Booster oder nur Realitätsverzerrung?

Hogwarts Legacy

Ja, dieses Spiel habe ich wirklich lange gesuchtet, aber nie mit DXR Ultra, weil mir der FPS -Verlust viel zu hoch war. Auch die Umsetzung von Ray Tracing hat mir bisher gar nicht gefallen. Mit dem neuen Update sieht das an vielen Stellen schon ganz anders und viel besser aus. Wobei, an manchen Stellen ist Ray Tracing auch extrem übertrieben und total realitätsfremd. Aber schauen wir uns als erstes Mal an, was die beiden Grafikkarten mit DLSS so auf den Bildschirm ballern können. Meine Testszene sieht so aus:

Es geht also eine Runde durch das Dorf. Die Settings bleiben unverändert – nur die DLSS-Stufen bzw. Frame Generation schalte ich dazu. Wer hat noch nie ein richtig schönes CPU-Limit gesehen? Das sieht übrigens so aus:

Ja, der AMD Ryzen 7 9800X3D kommt in dem Spiel in DXR Ultra schon nativ nicht wirklich klar. Das Spiel ist einfach nur extrem schlecht optimiert. Und genau an der Stelle klappt mir das Messer in der Tasche auf. So schön DLSS bzw. Upscaling auch sein mag, und wenn die Absicht von NVIDIA hinter Frame Generation die 240 Hz in UHD sein mögen… Es bringt alles nichts, wenn die Spiele in Zukunft immer bescheidener optimiert werden. Das ist eine einzige Katastrophe, auf die wir hier zusteuern! (Man könnte es auch mit der aktuellen Politik vergleichen)

Die Latenzen sehen entsprechend alle gleich aus:

Auch das Bild spricht Bände, denn die Latenzen MFG 4x passen in keiner Weise zu echten 200 bis 260 FPS. Immerhin schafft es NVIDIA die Latenzen nicht ins Uferlose abdriften zu lassen. NVIDIA Reflex kann seiner Arbeit gar nicht wirklich nachkommen, weil es im CPU-Limit nichts bringt, außer, dass man Multi Frame Generation latenztechnisch im Zaum hält. 

 

Mit den gewählten Settings ist Hogwarts Legacy leider eine ziemlich ruckelige Angelegenheit. Das liegt aber in erster Linie an der schlechten bzw. nicht vorhandenen Optimierung des Spiels. Die CPU-Last ist viel zu hoch und die Grafikkarte langweilt sich fast schon zu tote. Das kann man weder NVIDIA noch AMD vorwerfen. Das Spiel werde ich mir zu einem späteren Zeitpunkt nochmal mit anderen Settings anschauen, denn so schlecht ist das Spiel bei mir noch nicht gelaufen. Vielleicht liegt es auch an der Vorabversion, die uns Testern hier zur Verfügung gestellt wurde?

 

 

102 Antworten

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,496 Kommentare 2,518 Likes

Sehr guter Test! Danke für die Einordnung.
Wenn ich 60 oder 100 native Frames in UHD gerendert kriege, hab ich eigentlich keinen Bedarf an FG. Der Test in CP bestätigt meine Beobachtung in Indiana Jones - sobald die Szenerie komplexer wird, werden die generierten Frames zum Problem. Daran ändert auch das neue KI Modell nix. Auf einzelne Szenen (Straße im Outback, Innenräume) zu setzen, führt in die Irre, denn es kann in einem Spiel - abhängig vom Setting - zu sehr großen Schwankungen kommen, die mich zu sehr vom eigentlichen Spiel ablenken.
Insofern war es das jetzt endgültig für mich mit der 50er Gen - zu teuer, zu wenig Entwicklung und für den Leistungszuwachs einfach zu durstig.
Vielleicht sind wir Gamer aber seit gestern auch wieder wichtiger geworden - wenn es so weiter geht, wird aus Kroko unter Umständen Kunstleder 😉

Antwort 13 Likes

s
scotch

Veteran

181 Kommentare 151 Likes

Klasse Test, Vielen Dank. Für mich steht auf jeden Fall fest das die 4090 mich noch eine ganze Weile begleitet.

Antwort 4 Likes

LEIV

Urgestein

1,622 Kommentare 685 Likes

Sehr schöner und interessanter Artikel
Mich würde bei der FG/MFG Vergleich mal AFMF2 noch interessieren, wie schauen da die Latenzen/Bildqualität aus - und ab wie viel FPS sollte man es erst aktivieren?

Spiele selbst keine Grafikkracher und auch nur 1080p mit Ziel FPS 240, aber ab so 80FPS(ohne AFMF2) sieht und fühlt es sich einfach echt gut an

Antwort 2 Likes

Ifalna

Urgestein

583 Kommentare 499 Likes

Jetzt allen Ernstes? Selbst in 4K Max details?
Kann ich mir iwie so gar nicht vorstellen.

Antwort Gefällt mir

Schnuffel

Veteran

277 Kommentare 291 Likes

Respekt, Hammer Artikel.
Viel Input.

Antwort Gefällt mir

Igor Wallossek

1

11,878 Kommentare 23,299 Likes

Doch, das ist leider so :(

Antwort 3 Likes

Ifalna

Urgestein

583 Kommentare 499 Likes

Ist ja krass, wenn man bedenkt, das das System eigentlich nur ~30FPS rendert und der Rest mit DLSS Shenanigans nur auf der GPU passiert. Oder ist die CPU mit Framgen auch involviert?

Wobei ich es schon iwie makaber finde eine 2500€ GPU zu kaufen und dann mit DLSS Performance rumzueiern. :'D

Antwort Gefällt mir

H
Headyman

Veteran

160 Kommentare 82 Likes

Danke für den umfangreichen Test. Wie befürchtet, ändert auch das TM nichts wirklich bzgl. Artefakten. Man tauscht einfach Artefakte aus bei besseren Details, echte "Glanzleistung". Apropo Glanz:
Was mir auf dem ersten Vergleich auffällt, die Texturdetails sind besser mit TM, dafür fehlt das Glanzlicht völlig(!), ups das geht mal gar nicht.

Das das bei einfachen Szenen (einfachen Spielen) gut funktioniert ist sinnlos, da braucht man es nämlich auch nicht.

Sollte Nvidia (und dem Rest) weiterhin nichts einfallen, dann sind wir in einer Sackgasse.
Erweiterte Raytracing Funktionen werden es so die nächsten 5 Jahre nie in den Mainstream schaffen, dafür reichen die Performancesprünge der Fertigungen nicht aus.
Selbst im Toplevel wird es immer dünner, nächste Stufe 3Slot mit 800W und dann 1000W?

Antwort Gefällt mir

B
Besterino

Urgestein

7,346 Kommentare 3,888 Likes

Irgendwie habe ich für mich das Fazit zu FG/MFG mitgenommen, dass Nvidia vor allem einen Weg gesucht zu haben scheint, um eine möglichst hohe Zahl zu den FPS zeigen zu können, bös gesagt wohl weil/obwohl die Grundleistung kaum zugenommen hat. Im Prinzip ist 4K mit RTX on immer noch "nö", sondern ich muss erst mit DLSS die FPS möglichst austarieren als Kompromiss zwischen nem gescheiten Bild und Geschwindigkeit (FPS+Latenz) und dann darf ich mir noch ein paar Bilder dazu phantasieren lassen - mit wiederum weiteren Abzügen bei der Bildqualität, Latenz usw.

Ich kann nur hoffen, dass AMD und Intel die Gelegenheit nutzen und einfach bei der klassischen Performance wieder eine ordentliche Schippe drauflegen.

Antwort 3 Likes

Martin Gut

Urgestein

8,720 Kommentare 4,273 Likes

Man könnte ja die SLI-Bridge mal wieder aufmöbeln um zwei oder drei Grafikkarten zu verbauen. Da möchte ich dann aber das passende Netzteil und die Gehäusebelüftung sehen.

Antwort 4 Likes

Ifalna

Urgestein

583 Kommentare 499 Likes

Unrealistisch.
Ray Tracing bzw. Path Tracing ist für Echtzeitanwendungen einfach zu rechenintensiv. Daher sind wir fürs gaming auf Kompromisse wie DLSS angewiesen.

Wenn dann aber auch noch Entwickler schlampig arbeiten, wie in Hogwarts, dann hilft auch DLSS nicht mehr. Leider sind hastig zusammengeklatschte anstatt liebevoll durchoptimierte AAA Titel heute die Norm. Klar kann man dann sagen "Haha ein 12900K schaffts nicht mehr und da muss nen Upgrade her" aber iwie finde ich das den falschen Ansatz.

Was wohl mit der heutigen Technik möglich wäre wenn die Software wirklich optimiert wäre.... echt schade, dass eine 5090 mit DLSS Quality immer noch nicht stabil die 60FPS schafft.

Antwort Gefällt mir

N
Nitroschnitzel

Neuling

8 Kommentare 6 Likes

Ich sehe nur den Vergleich bei Cyberpunk, DLSS (egal welches) vs Nativ.
Die Blätter der Bäume :poop:

Ich möchte auch erwähnen das wohl kaum ein Influencer angemerkt hat das die 5090 FE ein Design Fehler ist.
CB hatt das wenigstens mal in einem Gehäuse getestet und überraschung mit einem 9800X3D (die X3D Cpu die endlich den Cache unter den Kernen hat und 20 kelvin kühler ist) geht auf über 90 Grad WOW, wahnsinn wer hätte damit bloß rechnen können wenn fast 600 Watt direkt in den CPU Lüfter gepumpt werden :D

Nein sowas aber auch, was wohl mit nem Intel passiert mit über 200 Watt Eigenverbrauch ?

Geiel Essen in den PC, 20 minuten bei 600-800 Watt Umluft backen bis alles eine schöne braune Kruste bekommt, hey ssds und spannungswandler werden gleich mit braun xD

Es ist nur meine Meinung, Niemand und das meine ich aus rein technischer Sicht, sollte eine 5090 FE kaufen, oder die Asus Astral >_>.
Das habe ich direkt bei der CES Vorstellung gedacht und Physik ist gesetz und lässt sich nicht ändern.

Antwort 4 Likes

Corro Dedd

Urgestein

2,001 Kommentare 799 Likes

Wenn man bedenkt, auf welchen Gerätschaften Hacker Doom zum laufen bekommen haben oder welche atemberaubenden Visualisierungen die Demo Szene auf simpelster Hardware vorzeigen, in Echtzeit, fällt es einem echt schwer zu glauben, dass normale Spiele auf echter high end hardware so mies laufen.

Antwort 1 Like

e
eastcoast_pete

Urgestein

2,323 Kommentare 1,510 Likes

Ist das dann in irgendeiner Form so ähnlich wie die Abhängigkeit der Battlemage dGPUs von der CPU Leistung? Die B580 ist zwar am anderen Ende der Preiskategorie, aber bei der wurde diese Abhängigkeit von der CPU Leistung ja von einigen Leuten moniert. Schon interessant, daß die Battlemage dGPUs da voll im Trend lagen. Ich finde es allerdings schon etwas haarig, wenn eine i9 12900 jetzt nicht mehr schnell genug sein soll.

Antwort Gefällt mir

FritzHunter01

Moderator

1,346 Kommentare 1,839 Likes

Das Thema mit den Blättern (Die Frabe) liegt am Nachschärfen. Das kann man etwas runterdrehen!

Antwort Gefällt mir

FritzHunter01

Moderator

1,346 Kommentare 1,839 Likes

Mein Intel 12900K hat in 3440 x 1440p in fast alle Spielen die 4090 limitiert. Das ist leider so... in UHD finde ich es einfach erschreckend, dass ein Spiel wie Hogwarts mit den kranken Settings schon nativ ein CPU-Limit auslöst. Und das ein 9800X3D hier so in die Knie geht...

Antwort 1 Like

Igor Wallossek

1

11,878 Kommentare 23,299 Likes

Das hatten wir doch alles schon einmal:

View image at the forums

Und die HD 6990 mit OC-BIOS schaffte auch locker 600 Watt...

View image at the forums

Antwort 13 Likes

S
SpotNic

Urgestein

1,334 Kommentare 605 Likes

War das nicht so, das mit steigender Auflösung die Last eher auf die GPU geht? Mein 13900K dümpelt immer bei 40 - 60% rum bei UHD.

Antwort Gefällt mir

FritzHunter01

Moderator

1,346 Kommentare 1,839 Likes

Also wer einen 240 Hz UHD OLED hat, der wird sicher bestrebt sein, die 240 FPS zu bekommen. Daher ist die Idee hinter Frame Gen nachvollziehbar. Leider ist es wohl so, dass wir einen Sprung wie von der 3090 zur 4090 nicht mehr so schnell erleben werden. Gründe:

Es fehlt das noch kleiner Fertigungsverfahren. 3N und was kommt dann? Die Architektur allein bringt nicht viel. Noch größere Chips sind noch teurer und brauchen nochmehr Strom.

Daher kommt bei mir wieder die Frage auf: Warum schreien immer Leute nach einem 8K Monitor? Wenn der Markt aufgrund der Nachfrage in die Richtung geht, dann sollen sich die Leute hier bitte im Forum zurhalten, wenn sie nur noch 10 FPS mit DLSS Performance bekommen. Warum denkt NVIDIA ernsthaft über MFG 16x nach? Genau wegen solchen - völlig sinnlosen Vorstellungen!

Antwort 8 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung