NVIDIA GeForce RTX 4090 FE im DXR, DLSS, Reflex und Frame Generation Test - Wenn die CPU röchelnd im Flaschenhals steckenbleibt

Ist zwar nicht offiziell, aber auf nexusmods gibt es einen FSR 2.1 mod. Der benutzt den settings Pfad von DLSS, sprich mit den Einstellungen von DLSS aktivierst du den mod. Funktioniert sonderbarer Weise sogar besser, als die integrierte, offizielle FSR 1.0 Variante, mehr FPS und besseres Bild, aber ghosting beim Auto fahren und Artefakte bei Texten auf PCs oder in Hologramm Werbedingern.


Gibt's nicht eine FSR 2.0 Mod? Nicht ganz ausgegoren aber ... vielleicht ein Hinweis auf Zukünftiges?


Edit: Sorry, überlesen, dass das schon geteilt wurde ...

Danke für den Hinweis:

Ich schau mir das an, sollte es in absehbarer Zeit kein FSR 2.0 (z.B. beim Start von RX7000) in Cyberpunk geben.
 
Ich kenn mich zwar gerade nicht so gut mit den Zahlen aus, aber haben Handydisplays nicht ziemlich kleine Zoll Zahlen/Größen und eine sehr hohe Auflösung?
Naja, aber ich glaube interessant ist's doch ganz besonders für AR/VR?
Ich liebe VR aber bisher sind keine für mich so viel bessere VR Brillen aufgetaucht und ich denke, da könnte es doch auch einiges an power gebrauchen für eine hohe Auflösung gegen "Netz-Effekte" und hohe Wiederholrate gegen Übelkeit/Schwindel etc.?
Ich möchte gerne eine Brille ohne Meta/FB quatsch und gerne auch mit Kabel. Ich kann mir kaum vorstellen das ein standalone VR-System an die Leistung eines PC mit solchen GraKas drankommt.
Leistungs- und Effizienz-technisch sehen die GraKas ja mittlerweile echt stark aus und könnten doch VR noch mehr pushen (, mal abgesehen von den Preisen und der Weltwirtschaft zur Zeit :cry: ).
Ich dümpel immernoch gemütlich mit meinen zwei 1080p Monitoren bei genüsslichen 60Hz mit einer 1070gtx(250€) herum und bin sehr zufrieden. Upgrade von GPU+CPU+Monitore+VR Brille ist wohl größer als ich es mir vor ca 3Jahren vorgestellt habe, ich kann aber dafür noch was warten :)

Also der Fliegengitterefrekt ist bei einer Valve Index eigentlich schon ziemlich weg.
Der Sweetspot könnte aber besser sein, also der Bereich, der richtig scharf ist...
Für VR wäre eine 4090 wirklich eine Überlegung wert, aber der Preis....
Wenn ich im Jahr 50h VR zocke, dann wären das erstmal 40€/h.
Das ist schon sehr, sehr teuer.
 
Jesus, scheint ja eine hitzige Debatte zu werden. Dies ist kein persönlich Angriff auf die Qualität des Artikels, nur mein fehlenden Verständnis. Muss ehrlicherweise zugeben, DLSS halte ich für Unfug und habe mich darum nur sehr oberflächlich damit beschäftigt.
Vielleicht schaffen wir es der Reihe nach ohne uns anzugreifen?

Stimmt so nicht… der Vergleich DLSS 2.3 vs 3.0 zeigt doch die nativ gerenderten Frames vs Frame Generation
Für einen fairen Vergleich (egal ob DLSS 2.3 oder nativ) müsste doch bei DLSS 3.0 das generierte Frame verwendet werden? Sind wir in dem Punkt einer Meinung?

lediglich der Vergleich nativ vs native mit FG on (ohne Super Resolution) ist nicht dabei.
Wäre nicht genau dies spannend, wenn FG das grosse neue Feature der 4090 ist?

Was die CB da macht ist die Nadel im Heuhaufen suchen!
Lass die Szene mal mit 100 FPS laufen, dann siehst du gar nix! Wenn man will, dann kann man alles schlecht reden.
Naja, CB schreib zu den Artefakten:
In Spielen zu sehen ist das ob der hohen Relativgeschwindigkeit in der Regel aber nicht.
und weiter
Problematisch waren wiederum stellenweise fahrende Autos, bei denen es immer mal wieder zu Bildfehlern kam. Doch fallen auch sie in Bewegung nur minimal auf.
Finde das hat überhaupt nichts mit "alles schlecht reden" zu tun. Ist einfach eine sachliche saubere Einordnung.

Und in welchem Universum kostet DLSS Input Lag?
DLSS 3.0 ist das falsche Wort, FG kostet Input Lag oder? Laut Nvidia selbst 10ms? Oder verwechsle ich da was?


Scheinbar hast du meine Latenzmessung übersehen!
Habe ich tatsächlich, ist ja auch im anderen Artikel ;)
Mit staunen und Unverständnis stelle ich fest, dass DLSS mit FG sogar die Latenz verringert. Woran liegt das?
Gehe ich dennoch richtig in der Annahme, dass eSport durch FG 10ms dazukommt?

An der Stelle bitte ich darum, keine Unwahrheiten zu verbreiten. Danke!
Verstanden! Fake news Propaganda von meiner Seite wird ab sofort eingestellt! ;)
 
So schön wie DLSS und Reflex auch sein mögen... sie sind proertiert und müssen explizit vom Spiel unterstütz werden. G-Sync ig höre dir tabsen.
Sowas hat eigentlich noch nie geklappt. Wie viele dieser Nvidia Exklusivs gibt es mittlerweile die vor sich hin oxidieren, obwohl sie im Prinzip gut fuktionieren. Ihr einziger Fehler ist das sie Nvidia exklusiv sind und nicht DX-Nativ.
Wieder Funktionen die nie einen Marktrelevante Verbreitung finden werden. Da die Hardware (Ada) erst in 10 Jahren entsprechende (80%) Verbreitung gefunden hat dann aber dann bereits 3 neuere Exklusive "noch bessere" Varianten aktuell sind.

Finde es doof das dadurch eigentlich alle solche Verbesserungen nie in der Breite der Spiele ankommen oder bestenfalls in irgend einen 10 Jahre veralteten Minimalkompromiss.
 
Ich bin echt neugierig wie viele FPS die Karte konstant in Warzone auf der Caldera Insel bei 2560 x 1440 mit allen Details auf Vollas, einmal ohne und dann mit RT schafft! Die Frage ist natürlich etwas eigennützig, weil ich WZ in genau dieser Auflösung zocke, aber ich denke da bin ich nicht der einzige! :)
Über einige ingame Szenen bin ich schon gestolpert, allerdings nur in 4K Auflösung.
 
Zuletzt bearbeitet :
Jesus, scheint ja eine hitzige Debatte zu werden. Dies ist kein persönlich Angriff auf die Qualität des Artikels, nur mein fehlenden Verständnis. Muss ehrlicherweise zugeben, DLSS halte ich für Unfug und habe mich darum nur sehr oberflächlich damit beschäftigt.
Vielleicht schaffen wir es der Reihe nach ohne uns anzugreifen?


Für einen fairen Vergleich (egal ob DLSS 2.3 oder nativ) müsste doch bei DLSS 3.0 das generierte Frame verwendet werden? Sind wir in dem Punkt einer Meinung?


Wäre nicht genau dies spannend, wenn FG das grosse neue Feature der 4090 ist?


Naja, CB schreib zu den Artefakten:

und weiter

Finde das hat überhaupt nichts mit "alles schlecht reden" zu tun. Ist einfach eine sachliche saubere Einordnung.


DLSS 3.0 ist das falsche Wort, FG kostet Input Lag oder? Laut Nvidia selbst 10ms? Oder verwechsle ich da was?



Habe ich tatsächlich, ist ja auch im anderen Artikel ;)
Mit staunen und Unverständnis stelle ich fest, dass DLSS mit FG sogar die Latenz verringert. Woran liegt das?
Gehe ich dennoch richtig in der Annahme, dass eSport durch FG 10ms dazukommt?


Verstanden! Fake news Propaganda von meiner Seite wird ab sofort eingestellt! ;)
Sorry wenn ich etwas ungehalten reagiert habe. Das Problem ist, dass du dich verallgemeinert ausgedrückt hast.

Ja, man kann auf die Artefakt Hinweisen, CB schreibt doch selbst, dass man diese im Grunde gar nicht wahrnehmen kann. Durch die explizite Darstellung der einzelnen Framebilder bleibt aber bei den meisten Lesern am Ende was hängen?

Oh, DLSS 3 verursacht Artefakte. Also wird wieder in der Welt herum erzählt, dass alles schlecht ist. Ich habe doch selbst einen Bug im Spiel entdeckt. Alle Spiele mit DLSS 3 waren im Beta Stadium und konnten nur via Testzugang überhaupt für uns Tester genutzt werden. Das muss man auch mit betrachten.

Ja, die FG kostet im Vergleich zu DLSS 2.3 mit Reflex on Latenz. Ich schreibe ja auch, dass der Nutzer die Wahl hat. Wenn ich ein eSports Game mit DLSS 2.3 und jenseits der 200 FPS spiele, dann nutzt man nur Reflex (bringt auch nur im GPU limit was) und lässt FG lieber aus.

Im heutigen Artikel wird deutlich dass du mit der 4090 und DLSS + FG on quasi die gleichen Latenzen hast wie mit der 3080 Ti DLSS + Reflex und bei der 4090 quasi mit DLSS + FG on die gleichen Latenzen wie mit Reflex off und DLSS 2.3 on. Ausnahme nativ ohne Reflex vs DLSS 3, da bist du besser mit DLSS 3 - sonst gleich. (fast gleich) für ein Story Game ist das kein Problem. eSports is was anderes… das muss ich mir aber alles noch in Ruhe anschauen. Lass mal die Spiele ohne Beta mit DLSS 3 kommen, dann schauen wir nochmal.

Latenzen skalieren grundsätzlich mit den FPS je höher die FPS, desto niedriger die Latenz. Im Detail sind es aber die Frametimes die den Unterschied machen. Je niedriger die Frametime und insbesondere die Varianzen, desto niedriger und vor allem konstanter sind die Latenzen.

Der Mittelwert einer Latenz sagt noch nix über die Konstanz. Dazu benötigt man die Standardabweichung. Die sagt, wie hoch im Grunde die Streuung der Messungen ausfällt.

Beispiel:

30 ms im Schnitt bei einer Standardabweichung von 8ms

oder

30 ms im Schnitt bei einer Standardabweichung von 2ms

Was is wohl besser?

Das alles in einen solchen Artikel zu packen, ist schwierig. Vielleicht mache ich mal einen gesonderten Artikel nur zu dem Thema und erkläre mal, was wirklich hinter den Latenzen und der Statistik steht.

Warum ist mit DLSS 3 jetzt die Latenz dennoch niedriger bzw wird mit steigender FPS niedriger? (Das zeigen auch die Messungen von CB)

Die Antwort steht in meiner Erklärung. Das problem von DLSS 3 ist dennoch einfach erklärt. FG off und nur Upscaling + Reflex im GPU Limit ist: hohe Framerate + niedrigere Frametime und niedrigere Varianzen + Reflex (knoten in der GPU render Pipeline auflösen) = niedrigste Latenz

FG on ist: Spiel engine rendert mit z.B. 100 FPS, die GPU haut jetzt Frames raus, die im Grunde nicht da sind. Somit hast du zwar 200 FPS, aber die Latenz von 100. Reflex kill im Grunde nur die 10 ms + X (je nach Spiel). Deshalb landest du auf dem gleichen Niveau wie Nativ + DLSS ohne Reflex.

Ich muss echt einen Artikel dazu machen… das schein wahrscheinlich doch komplexer zu sein als es eigentlich ist. Oder?
 
Zuletzt bearbeitet :
Was die CB das macht, ist die Nadel im Heuhaufen suchen!

Wenn ich jeden Frame einzeln anzeigen lasse, dann sieht man natürlich die KI-Frames, die nicht immer ganz passen.

Lass die Szene mal mit 100 FPS laufen, dann siehst du gar nix! Wenn man will, dann kann man alles schlecht reden.
Zusammen mit deiner Antwort @FritzHunter01 ist die Information komplett: die KI rendert Frames, dabei unterlaufen ihr kleine Fehler, die aber bei den FPS-Zahlen nicht sichtbar sind, sondern - im Gegenteil - den flüssigen Eindruck befördern. Das ist auch nachvollziehbar, denn in deinen Videos sind mir keine Fehler aufgefallen. Nicht immer ärgern ;)
 
Sorry wenn ich etwas ungehalten reagiert habe. Das Problem ist, dass du dich verallgemeinert ausgedrückt hast.

Ja, man kann auf die Artefakt Hinweisen, CB schreibt doch selbst, dass man diese im Grunde gar nicht wahrnehmen kann. Durch die explizite Darstellung der einzelnen Framebilder bleibt aber bei den meisten Lesern am Ende was hängen?

Oh, DLSS 3 verursacht Artefakte. Also wird wieder in der Welt herum erzählt, dass alles schlecht ist. Ich habe doch selbst einen Bug im Spiel entdeckt. Alle Spiele mit DLSS 3 waren im Beta Stadium und konnten nur via Testzugang überhaupt für uns Tester genutzt werden. Das muss man auch mit betrachten.

Ja, die FG kostet im Vergleich zu DLSS 2.3 mit Reflex on Latenz. Ich schreibe ja auch, dass der Nutzer die Wahl hat. Wenn ich ein eSports Game mit DLSS 2.3 und jenseits der 200 FPS spiele, dann nutzt man nur Reflex (bringt auch nur im GPU limit was) und lässt FG lieber aus.

Im heutigen Artikel wird deutlich dass du mit der 4090 und DLSS + FG on quasi die gleichen Latenzen hast wie mit der 3080 Ti DLSS + Reflex und bei der 4090 quasi mit DLSS + FG on die gleichen Latenzen wie mit Reflex off und DLSS 2.3 on. Ausnahme nativ ohne Reflex vs DLSS 3, da bist du besser mit DLSS 3 - sonst gleich. (fast gleich) für ein Story Game ist das kein Problem. eSports is was anderes… das muss ich mir aber alles noch in Ruhe anschauen. Lass mal die Spiele ohne Beta mit DLSS 3 kommen, dann schauen wir nochmal.

Latenzen skalieren grundsätzlich mit den FPS je höher die FPS, desto niedriger die Latenz. Im Detail sind es aber die Frametimes die den Unterschied machen. Je niedriger die Frametime und insbesondere die Varianzen, desto niedriger und vor allem konstanter sind die Latenzen.

Der Mittelwert einer Latenz sagt noch nix über die Konstanz. Dazu benötigt man die Standardabweichung. Die sagt, wie hoch im Grunde die Streuung der Messungen ausfällt.

Beispiel:

30 ms im Schnitt bei einer Standardabweichung von 8ms

oder

30 ms im Schnitt bei einer Standardabweichung von 2ms

Was is wohl besser?

Das alles in einen solchen Artikel zu packen, ist schwierig. Vielleicht mache ich mal einen gesonderten Artikel nur zu dem Thema und erkläre mal, was wirklich hinter den Latenzen und der Statistik steht.

Warum ist mit DLSS 3 jetzt die Latenz dennoch niedriger bzw wird mit steigender FPS niedriger? (Das zeigen auch die Messungen von CB)

Die Antwort steht in meiner Erklärung. Das problem von DLSS 3 ist dennoch einfach erklärt. FG off und nur Upscaling + Reflex im GPU Limit ist: hohe Framerate + niedrigere Frametime und niedrigere Varianzen + Reflex (knoten in der GPU render Pipeline auflösen) = niedrigste Latenz

FG on ist: Spiel engine rendert mit z.B. 100 FPS, die GPU haut jetzt Frames raus, die im Grunde nicht da sind. Somit hast du zwar 200 FPS, aber die Latenz von 100. Reflex kill im Grunde nur die 10 ms + X (je nach Spiel). Deshalb landest du auf dem gleichen Niveau wie Nativ + DLSS ohne Reflex.

Ich muss echt einen Artikel dazu machen… das schein wahrscheinlich doch komplexer zu sein als es eigentlich ist. Oder?

Das ist wirklich hoch komplex. Bin da auch gerade erst drauf gestoßen und bin halt verwirrt davon, dass Nvidia mit dlss 3 Microstuttering in die andere Richtung generiert.... Ergo 13ms, 3ms, 14ms, 3ms, 13ms, 3ms usw.... produziert. Ob ich so spielen möchte, weiß ich noch nicht, aber ich weiß auf jeden Fall das mit n Microstutter von 35+ms wenn ich konstant 13ms hab auffällt, keine Ahnung wie das in die andere Richtung ausfällt.

Also.... Artikel klingt richtig gut dazu.

Ansonsten noch an Igor: Hammer report zu dem Ding, danke für deine ausgesprochen guten Reviews. Ein Traum, Grüße aus dem Tal der Ahnungslosen.
 
Das ist wirklich hoch komplex. Bin da auch gerade erst drauf gestoßen und bin halt verwirrt davon, dass Nvidia mit dlss 3 Microstuttering in die andere Richtung generiert.... Ergo 13ms, 3ms, 14ms, 3ms, 13ms, 3ms usw.... produziert. Ob ich so spielen möchte, weiß ich noch nicht, aber ich weiß auf jeden Fall das mit n Microstutter von 35+ms wenn ich konstant 13ms hab auffällt, keine Ahnung wie das in die andere Richtung ausfällt.

Also.... Artikel klingt richtig gut dazu.

Ansonsten noch an Igor: Hammer report zu dem Ding, danke für deine ausgesprochen guten Reviews. Ein Traum, Grüße aus dem Tal der Ahnungslosen.
Der Artikel von heute stammt aus meiner Feder... Du hast kein Stutter... Schau dir die Varianzen an! Die Frametimes sind so niedrig, dass du das unmöglich wahrnehmen kannst. Man nennt das auch Unevenness

1665581027859.png


Diese Folie lege ich nie mit auf, weil sie im Grunde das Offensichtliche der Frametime sowie der Varianzen nur anderes darstellt
 
Zuletzt bearbeitet :
Sorry wenn ich etwas ungehalten reagiert habe. Das Problem ist, dass du dich verallgemeinert ausgedrückt hast.
Kein Problem, ist auch mein Fehler, hätte es sauberer schreiben sollen.
Ja, man kann auf die Artefakt Hinweisen, CB schreibt doch selbst, dass man diese im Grunde gar nicht wahrnehmen kann. Durch die explizite Darstellung der einzelnen Framebilder bleibt aber bei den meisten Lesern am Ende was hängen?
Die kleinen Fehler nimmt man natürlich nicht wahr bei 100 fps, aber ein flackernder Bildschirm und Auto ist schon bisschen störend. Kein Weltuntergang aber doof.
Latenzen skalieren grundsätzlich mit den FPS je höher die FPS, desto niedriger die Latenz.
Habe ich mir fast gedacht. DLSS verringert also nicht die Latenz an sich, sondern dank der Mehrframes von DLSS ist die Latenz tiefer.

Ich muss echt einen Artikel dazu machen… das schein wahrscheinlich doch komplexer zu sein als es eigentlich ist. Oder?
Spannend fände ich besonders, wie andere Spiele darauf reagieren. CB und Flight Simulator sind ein meinen Augen Krasse Exoten. CB ist einfach schlecht programmiert und frisst viel zu viel Leistung für die Gebotene Optik und Flight sieht tatsächlich bombastisch aus. Aber der Rest der Gaming Welt? Tomb Raider läuft auf einer 4090 irgendwas um die 200 fps mit 4k. Da sehe ich in diesen "Bildtricks" nur Nachteile.
Control mit RT wäre eventuell ein spannender Kandidat. Aber auch dort hätte ich eigentlich lieber bessere RT Kerne und dadurch gute Frameraten ohne diese Tricks.
 
Da sehe ich in diesen "Bildtricks" nur Nachteile.
Evtl. stromsparender, aber ansonsten ist es halt "Trickserei" wie es bei Computerspielen häufig so ist? Ist ja an sich nichts schlimmes, da wir ja nur spielen wollen und keine korrekte/realistische Simulation der Wirklichkeit brauchen.
Ist es evtl. was fürs undervolten, bzw. spielt es dann vll eine größere Rolle bei den Günstigeren Karten?
Bin mal gespannt was da noch so kommt. Etwas enttäuschend, dass man mit den Bezeichnungen so hintergangen wird, aber das ist ja nichts neues. Die kleine 4080 geht ja schon eher in Richtung 3060ti?
Ich bin gerade aber nicht aktiv auf der suche nach einer neuen Graka, daswegen ist's für mich noch nicht so relevant.

Kurz nochmal beim Artikel von Igor nachgeschaut und jap, weniger Watt: https://www.igorslab.de/nvidia-gefo...trotzende-monolith-der-aus-der-kaelte-kam/10/
 
Control mit RT wäre eventuell ein spannender Kandidat. Aber auch dort hätte ich eigentlich lieber bessere RT Kerne und dadurch gute Frameraten ohne diese Tricks.
Bei Control war das komplett überzogen. Da spiegelte sich einfach nur jede Fliese. Gefiel mir grafisch ohne RT deutlich besser.
 
Bei Control war das komplett überzogen. Da spiegelte sich einfach nur jede Fliese. Gefiel mir grafisch ohne RT deutlich besser.
Ganz generell halt ich RT erst für Serienreif, wenn RT only Spiele rauskommen. Also spiele die nur mit RT als Beleuchtung haben und auch nur mit RT Karten funktionieren.
Wenn ich mir anschaue, was für einen krassen Aufwand für die Beleuchtung seitens der Entwickler rausgehauen wird. Da dauert ein Dungeon ein ganzer Tag Arbeit, während bei RT einfach nur klick Fackel an die Wand, zack Beleuchtung macht sich von selbst. Habe eigentlich aufgrund der neuen Konsolen gehofft dies würde schneller Realität werden.
 
Ich kenn mich zwar gerade nicht so gut mit den Zahlen aus, aber haben Handydisplays nicht ziemlich kleine Zoll Zahlen/Größen und eine sehr hohe Auflösung?
Naja, aber ich glaube interessant ist's doch ganz besonders für AR/VR?
Ich liebe VR aber bisher sind keine für mich so viel bessere VR Brillen aufgetaucht und ich denke, da könnte es doch auch einiges an power gebrauchen für eine hohe Auflösung gegen "Netz-Effekte" und hohe Wiederholrate gegen Übelkeit/Schwindel etc.?
Ich möchte gerne eine Brille ohne Meta/FB quatsch und gerne auch mit Kabel. Ich kann mir kaum vorstellen das ein standalone VR-System an die Leistung eines PC mit solchen GraKas drankommt.
Leistungs- und Effizienz-technisch sehen die GraKas ja mittlerweile echt stark aus und könnten doch VR noch mehr pushen (, mal abgesehen von den Preisen und der Weltwirtschaft zur Zeit :cry: ).
Ich dümpel immernoch gemütlich mit meinen zwei 1080p Monitoren bei genüsslichen 60Hz mit einer 1070gtx(250€) herum und bin sehr zufrieden. Upgrade von GPU+CPU+Monitore+VR Brille ist wohl größer als ich es mir vor ca 3Jahren vorgestellt habe, ich kann aber dafür noch was warten :)
Pimax 8KX und wenn sie denn einmal kommt, dann die Pimax 12KX. Die wird mindestens die 4090 brauchen, um halbwegs zu flutschen.
Die Pimax 8KX ist ja 2* 4K Display, und auf viel kleinerem Display :ROFLMAO:. Wer mir erzählt, er braucht das nicht, hat sicher recht, nutzt aber kein (ordentliches) VR. 160° echtes FoV sind schon toll, kaum wahrnehmbares SDE. Den Quatsch mit 200° diagonalem "FoV" hätten sie sich bei Pimax sparen können. Alternativ die StarVR (Auflösung beachten) oder Varjo, alles sehr teuer.
 
Also der Fliegengitterefrekt ist bei einer Valve Index eigentlich schon ziemlich weg.
Der Sweetspot könnte aber besser sein, also der Bereich, der richtig scharf ist...
Für VR wäre eine 4090 wirklich eine Überlegung wert, aber der Preis....
Wenn ich im Jahr 50h VR zocke, dann wären das erstmal 40€/h.
Das ist schon sehr, sehr teuer.
Wenn es nur Zocken wäre... Ich kann halt Videos schaun, wie im Kino, echt klasse. Das ist halt mein Ersatz für den 3D Fernseher, die gibt es ja nicht mehr. 360° Videos damit sehen ist schon toll. oder 4K Filme schauen, ohne eine Großglotze zu benötigen oder zu besitzen. Da wird die BluRay-Sammlung dann wieder brauchbar
Aber die Index ist mir zu schwach in der Auflösung und FoV (und account gebunden).
 
Das dürfte sich für die Entwickler wohl nicht lohnen, vermutlich sind die Konsolen für so etwas auch viel zu schwach.
Leider scheinen die Konsolen tatsächlich viel zu schwach zu sein, ich hatte zu Beginn noch die Hoffnung die Entwickler bräuchten einfach noch Einarbeitungszeit. Shadow mapping, screen space reflections und Beleuchtung sind unglaublich viel Arbeit. Diese wegzulassen und durch RT zu ersetzten hätte enormes Einsparpotential in der Entwicklung. Vielleicht bei der nächsten Generation...
 
Leider scheinen die Konsolen tatsächlich viel zu schwach zu sein, ich hatte zu Beginn noch die Hoffnung die Entwickler bräuchten einfach noch Einarbeitungszeit. Shadow mapping, screen space reflections und Beleuchtung sind unglaublich viel Arbeit. Diese wegzulassen und durch RT zu ersetzten hätte enormes Einsparpotential in der Entwicklung. Vielleicht bei der nächsten Generation...
Sony und Microsoft haben bzgl. GPU in Konsolen auf das falsche Pferd gesetzt. DXR läuft bei NVIDIA einfach deutlich besser. Obb, das jetzt einen Unterschied gemacht hätte, kann ich nicht sagen. Aber es ist eine interessante Hypothese!
 
Der Artikel von heute stammt aus meiner Feder... Du hast kein Stutter... Schau dir die Varianzen an! Die Frametimes sind so niedrig, dass du das unmöglich wahrnehmen kannst. Man nennt das auch Unevenness

Anhang anzeigen 20936


Diese Folie lege ich nie mit auf, weil sie im Grunde das Offensichtliche der Frametime sowie der Varianzen nur anderes darstellt

Ja gut, bei 150 FPS und 75 Bildern in 3ms und den anderen in 12.5ms sollte das kein problem sein.
Aber das Szenario mit sagen wir 60 FPS und davon 30 Bildern in 3ms und die anderen in 50ms kann ich mir schon vorstellen, dass dort ein Stuttering entsteht. Glaubst du nicht?
 
Ja gut, bei 150 FPS und 75 Bildern in 3ms und den anderen in 12.5ms sollte das kein problem sein.
Aber das Szenario mit sagen wir 60 FPS und davon 30 Bildern in 3ms und die anderen in 50ms kann ich mir schon vorstellen, dass dort ein Stuttering entsteht. Glaubst du nicht?
Gute Frage, muss man sich anschauen.
 
Oben Unten