NVIDIA GeForce RTX 4090 FE im DXR, DLSS, Reflex und Frame Generation Test - Wenn die CPU röchelnd im Flaschenhals steckenbleibt

Im Endeffekt ja egal, 35-45 FPS ist für mich eigentlich immer noch unspielbar in dem Game, DLSS bleibt hier Pflicht wenn man Raytracing Maxed out will.



Schade das Spulenfiepen überhaupt noch vorhanden ist und im Endeffekt könnt ihr halt einfach eine gute Karte erwischt haben. Da muss man wohl erst User Berichte abwarten wenn das Ding in der Masse angekommen ist,
Trotzdem natürlich danke für den Bericht 🙏
Can it run Cyberpunk? Yes, with DLSS 🤪
 
Raytracing wird eigentlich überbewertet bei Spielen, aber nun gut ist, ist ja auch das einzige was zieht beim Leistungstest. Wäre aber trotzdem schön gewesen, die AMD Red Devil mit reinzunehmen.


Wäre cool, den Test nächsten Monat mit den neuen AMD Karten nochmal zu machen. Würde mich interessieren, wo und welche Unterschiede es gibt.
Nö. Raytracing steckt in dieser Hinsicht noch in den Kinderschuhen. Und ist bis auf Quake 2 RTX quasi nur als Gimmick dabei. Wird sich hoffentlich aendern, aber da muessen noch ein paar Generationen an GPUs kommen, damit das vollumfaenglich um sich greifen kann. Aktuell gehts ja nur mit Getrickse.
 
Nö. Raytracing steckt in dieser Hinsicht noch in den Kinderschuhen. Und ist bis auf Quake 2 RTX quasi nur als Gimmick dabei. Wird sich hoffentlich aendern, aber da muessen noch ein paar Generationen an GPUs kommen, damit das vollumfaenglich um sich greifen kann. Aktuell gehts ja nur mit Getrickse.
Wenn es, wie in CP2077 so umfangreich umgesetzt wird, dann hast recht. Aber mit DLSS hast du eigentlich keinen Nachteil
 
Sorry, ich bin zu doof: In den Gegenüberstellungen zeigt welches Bild die native Grafik?
 
Gibt es eine Möglichkeit nur die dazwischenliegenden "KI-Bilder" anzuzeigen?
Wie habt ihr dies im Testsystem gemacht?

Ein Vergleich zwischen einem "DLSS realen frame" und native wäre ja nicht sehr fair.
Es müsste ja ein "DLSS fake frame" mit nativ verglichen werden.
 
Gibt es eine Möglichkeit nur die dazwischenliegenden "KI-Bilder" anzuzeigen?
Wie habt ihr dies im Testsystem gemacht?

Ein Vergleich zwischen einem "DLSS realen frame" und native wäre ja nicht sehr fair.
Es müsste ja ein "DLSS fake frame" mit nativ verglichen werden.
Das könnte ich machen, ich habe mit der 3080 Ti die gleiche Stelle auch nativ aufgenommen.

Ich mache eh noch weitere Untersuchen, aber heute nicht mehr... hier steht noch ein Laptop mit 240 Hz OLED Panel und zwei Monitore... ich komme bald nicht rum!
 
  • Like
Bewertungen: ***
Nö. Raytracing steckt in dieser Hinsicht noch in den Kinderschuhen. Und ist bis auf Quake 2 RTX quasi nur als Gimmick dabei. Wird sich hoffentlich aendern, aber da muessen noch ein paar Generationen an GPUs kommen, damit das vollumfaenglich um sich greifen kann. Aktuell gehts ja nur mit Getrickse.
Komplettes Pathtracing wird wohl noch lange nicht in Echtzeit möglich sein.

Aber Raytracing für die Beleuchtung / Reflexionen ist jeder anderer Methode (also dem herkömmlichen "Getrickse") qualitativ um Längen überlegen, wenn auch zu einem Preis.
Wer da den Unterschied nicht sieht, will es entweder nicht oder hat sich einfach schon zu sehr an den Look (und die Artefakte) herkömmlicher Spiele gewöhnt.
 
Das könnte ich machen, ich habe mit der 3080 Ti die gleiche Stelle auch nativ aufgenommen.

Ich mache eh noch weitere Untersuchen, aber heute nicht mehr... hier steht noch ein Laptop mit 240 Hz OLED Panel und zwei Monitore... ich komme bald nicht rum!

Sorry, vielleicht stehe ich auf dem Schlauch:
das wurde nicht gemacht?!

Der Bildvergleich könnte also ein reales DLSS frame (was ja das gleiche wie kein DLSS ist) einer 4090 mit einem realen frame einer 3080TI sein?

Müsste für einen fairen Bildvergleich nicht ein natives frame egal welcher Grafikkarte mit einem KI Frame einer 4090 verglichen werden?

Mit DLSS meine ich 3.0, vorher gab es ja noch gar keine KI Zwischenbilder.
 
Sorry, vielleicht stehe ich auf dem Schlauch:
das wurde nicht gemacht?!

Der Bildvergleich könnte also ein reales DLSS frame (was ja das gleiche wie kein DLSS ist) einer 4090 mit einem realen frame einer 3080TI sein?
Klingt zwar so, aber wo kommen denn dann die teils großen Unterschiede her?
 
Guter und umfangreicher Test, sehr interessant, vielen Dank, da steckt richtig Aufwand dahinter!

Habe Mühe die Diagramme mit DLSS 2.3 vs DLSS 3 zu deuten, weil die jeweilige Version bei jedem Balken nicht angegeben ist. Macht es echt schwer die Grafiken zu verstehen...



DLSS, ich habe bis heute nie ein Spiel gesehen, bei dem die Grafik mit DLSS on besser als nativ sein soll, nicht mal gleich gut, sondern immer, ausnahmslos schlechter. Details sind einfach immer schlechter, hinzu kommt Unschärfe.

Hingegen wird Bildruhe besser, wenn das normale AA nicht gut arbeitet.
Ich nutze DLSS ausschliesslich in Kombination mit DSR: bessere Bildruhe / Qualität bei etwa gleicher Leistung.
 
Klingt zwar so, aber wo kommen denn dann die teils großen Unterschiede her?
Erst jetzt habe ich den Play Knopf bemerkt! :) Da werden also doch alle Bilder von DLSS in einen Topf geworfen.

https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/4/ greift die Problematik von KI Bildern da besser auf.

Naja, ich persönlich kann mit DLSS nicht viel anfangen. In einem Singleplayer wie CP möchte ich lieber weniger frames dafür kein Geflacker, bei competitive online shooter wie Overwatch kommt DLSS nicht in Frage wegen Input lag und es sind auch ohne KI Tricks genügend fps vorhanden.
 
...
Wo soll das noch hinführen? 8K Monitor die auf 32 Zoll mal keinen Sinn haben! Kleiner 32“ und 8K ist wie 17“ und UHD = Sinnlos
...
Ich kenn mich zwar gerade nicht so gut mit den Zahlen aus, aber haben Handydisplays nicht ziemlich kleine Zoll Zahlen/Größen und eine sehr hohe Auflösung?
Naja, aber ich glaube interessant ist's doch ganz besonders für AR/VR?
Ich liebe VR aber bisher sind keine für mich so viel bessere VR Brillen aufgetaucht und ich denke, da könnte es doch auch einiges an power gebrauchen für eine hohe Auflösung gegen "Netz-Effekte" und hohe Wiederholrate gegen Übelkeit/Schwindel etc.?
Ich möchte gerne eine Brille ohne Meta/FB quatsch und gerne auch mit Kabel. Ich kann mir kaum vorstellen das ein standalone VR-System an die Leistung eines PC mit solchen GraKas drankommt.
Leistungs- und Effizienz-technisch sehen die GraKas ja mittlerweile echt stark aus und könnten doch VR noch mehr pushen (, mal abgesehen von den Preisen und der Weltwirtschaft zur Zeit :cry: ).
Ich dümpel immernoch gemütlich mit meinen zwei 1080p Monitoren bei genüsslichen 60Hz mit einer 1070gtx(250€) herum und bin sehr zufrieden. Upgrade von GPU+CPU+Monitore+VR Brille ist wohl größer als ich es mir vor ca 3Jahren vorgestellt habe, ich kann aber dafür noch was warten :)
 
Sorry, vielleicht stehe ich auf dem Schlauch:
das wurde nicht gemacht?!

Der Bildvergleich könnte also ein reales DLSS frame (was ja das gleiche wie kein DLSS ist) einer 4090 mit einem realen frame einer 3080TI sein?

Müsste für einen fairen Bildvergleich nicht ein natives frame egal welcher Grafikkarte mit einem KI Frame einer 4090 verglichen werden?

Mit DLSS meine ich 3.0, vorher gab es ja noch gar keine KI Zwischenbilder.
Stimmt so nicht… der Vergleich DLSS 2.3 vs 3.0 zeigt doch die nativ gerenderten Frames vs Frame Generation

lediglich der Vergleich nativ vs native mit FG on (ohne Super Resolution) ist nicht dabei.
 
Erst jetzt habe ich den Play Knopf bemerkt! :) Da werden also doch alle Bilder von DLSS in einen Topf geworfen.

https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/4/ greift die Problematik von KI Bildern da besser auf.

Naja, ich persönlich kann mit DLSS nicht viel anfangen. In einem Singleplayer wie CP möchte ich lieber weniger frames dafür kein Geflacker, bei competitive online shooter wie Overwatch kommt DLSS nicht in Frage wegen Input lag und es sind auch ohne KI Tricks genügend fps vorhanden.
Was die CB das macht, ist die Nadel im Heuhaufen suchen!

Wenn ich jeden Frame einzeln anzeigen lasse, dann sieht man natürlich die KI-Frames, die nicht immer ganz passen.

Lass die Szene mal mit 100 FPS laufen, dann siehst du gar nix! Wenn man will, dann kann man alles schlecht reden.

Sorry, aber wo steckt hier der Sinn dahinter? Bei 100 oder noch mehr Bildern/Sekunden kann das keiner auch nur im Ansatz wahrnehmen. Das die CB das so angeht führt ins ad absurdum! Fast schon Lächerlich…

Und in welchem Universum kostet DLSS Input Lag? Scheinbar hast du meine Latenzmessung übersehen!

Das ist ein Mythos, denn ich und andere z.B. Tim von Hardware Unboxed widerlegt haben!

Eine Latenzmessung via LDAT beinhaltet von Klick bis Photon auf deinem Display alles. Inklusive des Display Lag (Processing und Refreshing Lag) sowie die halbe Response Time der Pixel deines Monitors…

An der Stelle bitte ich darum, keine Unwahrheiten zu verbreiten. Danke!
 
Zuletzt bearbeitet :
Das gute an DLSS ist: selbst im Performance Mode hat man fast keine Bildverluste. Schade, dass es in CP2077 kein FSR 2.0 gibt. Der Vergleich, wäre echt interessant geworden…
Ist zwar nicht offiziell, aber auf nexusmods gibt es einen FSR 2.1 mod. Der benutzt den settings Pfad von DLSS, sprich mit den Einstellungen von DLSS aktivierst du den mod. Funktioniert sonderbarer Weise sogar besser, als die integrierte, offizielle FSR 1.0 Variante, mehr FPS und besseres Bild, aber ghosting beim Auto fahren und Artefakte bei Texten auf PCs oder in Hologramm Werbedingern.

 
Guter und umfangreicher Test, sehr interessant, vielen Dank, da steckt richtig Aufwand dahinter!

Habe Mühe die Diagramme mit DLSS 2.3 vs DLSS 3 zu deuten, weil die jeweilige Version bei jedem Balken nicht angegeben ist. Macht es echt schwer die Grafiken zu verstehen...



DLSS, ich habe bis heute nie ein Spiel gesehen, bei dem die Grafik mit DLSS on besser als nativ sein soll, nicht mal gleich gut, sondern immer, ausnahmslos schlechter. Details sind einfach immer schlechter, hinzu kommt Unschärfe.

Hingegen wird Bildruhe besser, wenn das normale AA nicht gut arbeitet.
Ich nutze DLSS ausschliesslich in Kombination mit DSR: bessere Bildruhe / Qualität bei etwa gleicher Leistung.
Wenn DLSS wie in SOTTR umgesetzt wurde, dann gebe ich dir recht. Da ist to much sharpening drin. Habe ich doch klar angesprochen.

In CB2077 ist die Umsetzung extrem gut, auch bei Guardians sehr geil…

Aber, wenn es dir nicht gefällt, auch ok…
 
Das gute an DLSS ist: selbst im Performance Mode hat man fast keine Bildverluste. Schade, dass es in CP2077 kein FSR 2.0 gibt. Der Vergleich, wäre echt interessant geworden…
Gibt's nicht eine FSR 2.0 Mod? Nicht ganz ausgegoren aber ... vielleicht ein Hinweis auf Zukünftiges?


Edit: Sorry, überlesen, dass das schon geteilt wurde ...
 
Guter und umfangreicher Test, sehr interessant, vielen Dank, da steckt richtig Aufwand dahinter!

Habe Mühe die Diagramme mit DLSS 2.3 vs DLSS 3 zu deuten, weil die jeweilige Version bei jedem Balken nicht angegeben ist. Macht es echt schwer die Grafiken zu verstehen...



DLSS, ich habe bis heute nie ein Spiel gesehen, bei dem die Grafik mit DLSS on besser als nativ sein soll, nicht mal gleich gut, sondern immer, ausnahmslos schlechter. Details sind einfach immer schlechter, hinzu kommt Unschärfe.

Hingegen wird Bildruhe besser, wenn das normale AA nicht gut arbeitet.
Ich nutze DLSS ausschliesslich in Kombination mit DSR: bessere Bildruhe / Qualität bei etwa gleicher Leistung.
Welches Diagramm verstehst du nicht? Vielleicht kann ich helfen?
 
Oben Unten