NVIDIA veröffentlicht DLSS 3.5 SDK: Spieler tauschen bereits DLLs aus und staunen nicht schlecht

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.852
Bewertungspunkte
8.949
Punkte
1
Standort
Redaktion
Diese Woche hat signifikante Fortschritte in der Welt der Gaming-Technologie gebracht. NVIDIA hat eine aktualisierte Version ihrer DLSS3-Bibliothek vorgestellt und dabei einen starken Fokus auf die Verbesserung der Raytracing-Fähigkeiten gelegt. Gleichzeitig hat AMD den lang erwarteten Konkurrenten zu DLSS3 enthüllt, der analog FSR3 genannt wird. Beide Upscaling-Technologien sollen in der kommenden Herbstsaison veröffentlicht werden, wobei (read full article...)
 
Schreibt diese News ein BOT?

"Diese Woche hat signifikante Fortschritte in der Welt der Gaming-Technologie gebracht" -> Diese Woche hat es signifikante Fortschritte in der Welt der Gaming-Technologie gegeben.
 
Das kann man so, oder so schreiben. Ein Jahr oder eine Woche kann auch etwas bringen. Das letzte Jahr hat mir echte Fortschritte gebracht, ohne dass ich mich korrigieren müsste. Man muss sich nicht verrenken oder bewusst falsch schreiben, um nicht als Bot verdächtig zu werden.

Die Grammatik sagt:
Der Ausdruck "Zeitabschnitte können Fortschritte bringen" ist grammatisch korrekt und verständlich. Es bedeutet, dass bestimmte Perioden oder Intervalle von Zeit in irgendeiner Weise vorteilhaft sein können.
 
Das kann man so, oder so schreiben.

Deutsche Sprache, schwere Sprache....
Das ist ja das Schöne !!!

Hier (in Frankreich) werde ich natürlich immer auf den Arm genommen, wenn ich unseren Sprachschatz verteidige.
Für Franzosen ist französisch nicht nur oft (wenn überhaupt) die einzige und zugleich die schönste Sprache...

Im Deutschen,hat man so viele verschiedene Wege und Möglichkeiten etwas auszudrücken oder zu umschreiben.
Einfach wunderbar :)

Ansonsten:
Schön zu sehen,dass es bei DLLS weiterhin vorangeht !
 
IgorsLAB hat gesagt. :
Nichtsdestotrotz haben die verbesserten Algorithmen in DLSS 3.5 dazu geführt, dass einige Gamer ihre Bibliotheken gewechselt haben, was zu berichteten Verbesserungen der Bildqualität und einer Reduzierung von Artefakten in Spielen wie The Last of Us oder Need for Speed Unbound geführt haben soll.

Ich bin ja auch Nutzer des "DLSS Swapper", das Ding ist wirklich gut! Allein schon, weil man sieht, wie lausig die Spielehersteller ihre Produkte pflegen. Da werden werksseitig teils Versionen aus dem Präkambrium des Upscalings installiert, und man fragt sich wirklich, wie scheiß egal einem Kunden und Anwender sein müssen, damit man nicht einmal die paar Minuten aufwendet, das zu aktualisieren.

Davon ab: sobald eine DLSS-DLL mit Version ab 2.5 im Einsatz ist, halte ich die Verbesserungen der Bildqualität für eine bloße Behauptung, die im Audio-Bereich ihre Entsprechung mit dem Tausch der Chinch-Kabel hat, deren bessere Klangqualität die Ehefrau bereits in der Küche wahrnimmt.

Ich hatte mal bei ein paar Spielen die DLSS-DLL aktualisiert und dann per Tweaker das DLAA-Profil aktiviert. DAS sieht dann wirklich besser aus, allerdings zu doch recht hohen Performance- und Energiekosten. Bei allen anderen empfundenen Verbesserungen in den herkömmlichen DLSS-Modi wäre ich sehr (!) kritisch meiner eigenen Wahrnehmung gegenüber! Das Bild sieht nämlich meist deshalb besser aus, weil man das so erwartet und so will, aber nicht, weil es tatsächlich besser wäre.
 
@Schrotti Ich hätte ES auch ohne ES geschrieben.

Sorry für OT, aber echt, wozu die Mühe eines Kommentars für sowas? Wegen einem einzigen Wort? All diese Millionen von Kommentaren da draussen über irgendwelche Rechtschreibungsgeschichten? Serious? Keine anderen Probleme? Nichts beizutragen, zu einer News oder einem Artikel, als nach Rechtschreibepopeln in der Suppe zu graben?

Ps: wer in diesem Kommentar einen Fehler findet, oder auch gleich mehrere, darf sie..... ❗
 
Auf RR von 3.5 bin ich gespannt.
Ebenso aufs DLAA Pendant von FSR 3 (native mode).
Könnte was Gutes raus kommen.
 
@ParrotHH
Wie vergleichst Du zwischen den Versionen? In-Game von Auge? Oder Pixel-genau mit Screenshots?
 
Mich interessieren nur zwei Sachen:

1. Warum hat NVidia mit DLSS 3.5 die Unterstützung für "Frame Generation" auch nicht für ihre RTX 2000 / 3000 Serie implementiert ?

2. Wie gut läuft AMD's FSR 3 auf den von NVidia ausgeschlossenen Grafikkarten ( s.o. )

Und wenn FSR 3 von der Bildqualität optisch mit DLSS 3.5 gleich zieht dann gibt es ein Grund weniger sich für NVidia GPU's unter der RTX 4080 zu entscheiden.
 
Wie vergleichst Du zwischen den Versionen? In-Game von Auge? Oder Pixel-genau mit Screenshots?

Im Audio-Bereich habe ich da mal relativ viel Aufwand getrieben, um Equipment objektiv miteinander zu vergleichen. Aber da ist das auch vergleichsweise einfach, da ein Musiksignal vollständig (!) über den Spannungsverlauf über die Zeitachse abgebildet wird. Und selbst da muss man schon einen teils erheblichen technischen und operativen Aufwand treiben, um Vergleiche zu machen, deren Ergebnisse irgendeine valide Aussage treffen, die über eine anekdotische subjektive Einschätzung hinausgehen.

Das ist bei gerenderten 3D-Bildern/Videos dann gleich um mehrere Levels schwieriger! Vieles lässt sich m. E. auch nicht mit statischen Screenshots vergleichen, sondern ergibt sich über den Zeitverlauf, und wird damit noch viel schwerer objektiv erfassbar. Interessante Aufgabe, sollen sich andere mit herumschlagen... ;)

Ich habe das alles ja nur überhaupt deshalb "getestet", weil mir in den Spielen, die ich spiele, ab und an Artefakte und Ghosting störend aufgefallen sind. Bei Assetto Corsa Competizione habe ich einfach Replays miteinander verglichen, also immerhin die identischen Szenen, mit verschiedenen DLLs bzw. verschiedenen Settings. Im Flugsimulator gibt es halt ein paar Ausgangsszenarien, die ich mittlerweile gut kenne, und die ich ich teils "Pancake" teils unter VR nutze.

Aber immer nicht direkt zeitgleich und nebeneinander, das wäre an sich wichtig, würde den Aufwand aber sofort um ein Vielfaches erhöhen, und meinen Schwerpunkt vollkommen verschieben.

Immerhin reicht das für mich aus, um zu erkennen, ob sich da grundlegende Verbesserungen ergeben haben. Man muss dazu als Grundvoraussetzung allerdings ein gewisses Maß an kritischer Distanz zur eigenen Wahrnehmung entwickelt haben, woran die Allermeisten m. E. scheitern.
 
Mich interessieren nur zwei Sachen:

1. Warum hat NVidia mit DLSS 3.5 die Unterstützung für "Frame Generation" auch nicht für ihre RTX 2000 / 3000 Serie implementiert ?

2. Wie gut läuft AMD's FSR 3 auf den von NVidia ausgeschlossenen Grafikkarten ( s.o. )

Und wenn FSR 3 von der Bildqualität optisch mit DLSS 3.5 gleich zieht dann gibt es ein Grund weniger sich für NVidia GPU's unter der RTX 4080 zu entscheiden.
Ausgeschlossen werden jeweils die selben Generationen von AMD als auch Nvidia, oder nicht? Dazu muss man abwarten, bis ein paar Spiele da sind, welche FSR3 *und* DLSS3 unterstützen und vergleichen. Das dauert noch. Zudem ist FSR open source, wenn da gewisse hart-codierte Nachteile drin wären, würde das wohl für Aufsehen sorgen...

Ich würde FSR 3 eher nur mit DLSS 3 vergleichen (nicht mit 3.5) da es um die "Frame Generation" geht.
DLSS 3.5 bringt den neuen Denoiser. FSR 3 bietet das nicht, soweit bekannt.
 
Wenn FSR 3 mit Starfield kommt, am 6.9. oder über Day-One, auf AMD Intel und Nvidia gut performt, das wäre Bombe, ein richtiges Statement von AMD und ein guter grosser wichtiger Schritt für alle Gamer! 🤞🏼
 
FSR3 ist für Starfield nicht mal angekündigt. AMD hat gerade mal ein Spiel aktiv mit FSR3 gezeigt.

Die Qualität von FSR2, was soll ich sagen: wenn ich keine Wahl habe, wie Star Wars Jedi Survivor ist der FSR2 besser als einfach die Ausflösung runter zu setzten. In dem Sinne macht es seinen Job. Im Vergleich zu DLSS2.3+ ist FSR aber meilenweit Entfernt wenn es um die Qualität geht.

Dass es besser geht zeigt Intel mit XeSS, was auch meine Hoffnung ist, dass FSR3 von der upscaling Qualität sich verbessern kann.

FrameGeneration, ja die meisten Nvidia User sollen es lieben, ich als 40k60 Gamer finde es unbrauchbar und ab 60fps ist es mir eh flüssig genug. Ich glaube kaum dass AMD es hier besser macht, nicht umsonst werden mindestens 40fps nativ empfohlen, dann kommt man mit FG um die 80fps. Würde ich dies nutzen hätte ich störendes Tearing. Interessant ist es also für User ab 40fps mit einem Bildschirm von mindestens 80hz.

DLSS3 FrameGeneration hat die meisten Probleme bei Ingame UI Sachen, wie Bezeichungen von NPCs, und AMD möchte dann Framegeneration per Treiber anbieten wo die Ganze UI mitgenommen wird? Hier habe ich meine Zweifel. Zuerst muss AMD mal zeigen, dass sie das Upscaling von FSR2+ in den Griff bekommen.
 
FrameGeneration, ja die meisten Nvidia User sollen es lieben, ich als 4k60 Gamer finde es unbrauchbar und ab 60fps ist es mir eh flüssig genug. Ich glaube kaum dass AMD es hier besser macht, nicht umsonst werden mindestens 40fps nativ empfohlen, dann kommt man mit FG um die 80fps. Würde ich dies nutzen hätte ich störendes Tearing. Interessant ist es also für User ab 40fps mit einem Bildschirm von mindestens 80hz.
keine Ahnung inwieweit Du fps-limiter einsetzt, wenn so ein Grenzfall auftritt -- oder ob Du Dich dann stets auf klassisches vsync stützt. Auf meinem 2020 erstandenen freesync-Monitor mit 100Hz begrenze ich gerne auf 98, um sporadische Überschwinger abzufedern und verzichte meist darauf, vsync zu nutzen wenn ich gute minima (über 80fps wenn möglich) habe. Funktioniert soweit für die Latenz-sensitiven Sachen ganz gut. Klar, mit meiner momentanen rx580 heißt das dann viele Einstellungen auf low..medium und im Zweifelsfall Auflösung herunterdrehen. Hier fehlt mir einfach in meinen Spielen die native fsr-Unterstützung, um vom "schöneren Upscaling" zu profitieren, zumal ich außer racing fast alles versuche unter Linux zu spielen. Und fsr 2.x meine ich wäre noch nicht in wine/proton angekommen (oder ich habe es noch nicht mitbekommen). "artofrally" ist momentan meine Ersatzdroge auf Tastatur welches bis auf die Finnland-Strecken recht ruckelfrei läuft, wenn auch nur mit full-hd auf 1440p ultrawide (mit schwarzen Seitenbalken und auf medium-high; tut dem Spielspaß aber dank schlankem Zeichenstil kaum was nehmen, wenn auch das mögliche eye-candy schon sehr hübsch ist, so als Dia-Show).

Ich vermute Dein Bildschirm hat noch kein variable-refresh? Meiner Meinung nach ein absoluter game-changer, wenn es um grenzwertige Performance geht. Massive frametime-Ausschläge bei grenzwertiger Grafikleistung sind zwar immer noch unschön, aber leichte Varianzen im 10..20% - Bereich bügelt diese Technik wirklich gekonnt weg.

Daher auch mein Eindruck - nach Studium der Schilderungen diverser Dritter: fake-frames können wohl vor allem im high-refresh Bereich eine optische Glättung erzielen und die Bildsynchronisierung verbessern. Jedoch ein Allheilmittel für unzureichende Hardware-Leistung scheint es wirklich nicht zu sein. Wer vorher nur zwischen 30 und 45 fps erzielt, sollte lieber die Grafikeinstellungen zurückdrehen, bis es stabil über 60 läuft. Diejenigen, die allerdings ihre 144Hz+ Monitore mit massiven Schwankungen zwischen ~85 und 140fps beschicken, könnten hier vielleicht den größten Nutzen davontragen bei Titeln, die keine absolute Präzision und kürzeste Steuerungs-Reflexe verlangen - wie halt single-player Titel, in denen eher eine Story oder die Exploration der Spielwelt im Vordergrund steht.
 
@arcDaniel
Starfield wäre ja *das* grosse Spiel dieses Jahr mit AMD als Partner. Wenns da nicht sehr zeitnah verfügbar ist, ist FSR3 noch länger nicht soweit.

FSR 3 frame generation empfiehlt AMD erst ab 60 FPS (nicht 40).

Wie @bitracer schreibt, gegen Tearing und dergleichen Übel gibt es FPS Limiter, Free- oder Gsync (VRR), Fast Vsync, Ultra Low Latency Mode, etc. Tearing bekommt man heutzutage problemlos in den Griff. Empfehle Dir da mal nachzulesen, falls Du damit Probleme hast, "101 Gsync" wäre eine empfehlenswerte Einstiegslektüre z.B...
 
Es geht gar nicht nur um Tearing, das Framepacing ist grauenhaft wenn man FrameGeneration limitiert. Das Funktioniert nur wirklich gut, wenn es drauf los feuern kann.

Begrenze ich nun das PowerLimit meiner 4080 auf 46% (weniger geht nicht) und nutze FrameGeneration in the TheWitcher3 alles Ultra+RT ind 4K DLSS Quality komme ich mit FG unter 60fps, also somit in meinen VRR Bereich (40-60hz) und es funktioniert relativ gut.

Sobald die GPU aber nicht zu 100% Ausgelastet ist und ein Frame Limit vorliegt, egal ob Limiter oder VSync, bekommt man Probleme mit Frame Pacing.

Nvidia soll hier zwar schon Sachen verbessert haben, dies beruht aber auf Treiber Profilen für einzelne Spiele. Bei The Witcher ist dies jedenfalls nicht der Fall.

Ein Bildschirm mit mehr hz wird es erst, wenn OLEDs in 32Zoll und 4K unter 800Euro fallen. Vorher bleibe ich bei meinem aktuellen.

Zum Thema aber, solche Features wie DLSS werden immer wichtiger und machen für mich schon einen Unterschied von welchem Hersteller ich kaufe.

Dass ich wieder zu AMD wechseln würde (oder Intel in einer Zukunft), müsste die Grundleistung stark genug sein um DLSS-Spiele nativ mit gleicher Leistung zu rendern. Also eine Karte welche bei 4K die gleiche Leistung bietet wie meine 4080 in WQHD und zudem es eine unterstützte Upscaling Methode bietet, welche an DLSS ran kommt.

Wie lange wird das wohl dauern? Wird das je wieder der Fall sein?

Denke schon. Irgendwann wie auch bei PhysX oder G-Sync/FreeSync wird der Fall kommen, wo sich auf ein Upscaling geeinigt wird und dann wieder die rein Hardware zählt.
 
Diese Woche hat signifikante Fortschritte in der Welt der Gaming-Technologie gebracht. NVIDIA hat eine aktualisierte Version ihrer DLSS3-Bibliothek vorgestellt und dabei einen starken Fokus auf die Verbesserung der Raytracing-Fähigkeiten gelegt. Gleichzeitig hat AMD den lang erwarteten Konkurrenten zu DLSS3 enthüllt, der analog FSR3 genannt wird. Beide Upscaling-Technologien sollen in der kommenden Herbstsaison veröffentlicht werden, wobei (read full article...)
Hallo Igor, bist Du auch der Meinung, das DLSS 3.0 mit Framegeneration technisch gesehen auch auf der RTX 3090/3090Ti laufen würde?

Kann es sein, das daß Update absichtlich zurück gehalten wird?🤔

Immerhin verdient sich ja NVDA dumm und dämlich, wenn es DLSS 3.0 nur exclusiv nur für
RTX 4000 gibt! 🤑 <------ NVDA
Wer es will, muss nochmal blechen, oder schaut in die Röhre. 😲

DLSS 3.5 wird nur eine abgespeckte Version davon sein oder?
 
Zuletzt bearbeitet :
keine Ahnung inwieweit Du fps-limiter einsetzt, wenn so ein Grenzfall auftritt -- oder ob Du Dich dann stets auf klassisches vsync stützt. Auf meinem 2020 erstandenen freesync-Monitor mit 100Hz begrenze ich gerne auf 98, um sporadische Überschwinger abzufedern und verzichte meist darauf, vsync zu nutzen wenn ich gute minima (über 80fps wenn möglich) habe. Funktioniert soweit für die Latenz-sensitiven Sachen ganz gut. Klar, mit meiner momentanen rx580 heißt das dann viele Einstellungen auf low..medium und im Zweifelsfall Auflösung herunterdrehen. Hier fehlt mir einfach in meinen Spielen die native fsr-Unterstützung, um vom "schöneren Upscaling" zu profitieren, zumal ich außer racing fast alles versuche unter Linux zu spielen. Und fsr 2.x meine ich wäre noch nicht in wine/proton angekommen (oder ich habe es noch nicht mitbekommen). "artofrally" ist momentan meine Ersatzdroge auf Tastatur welches bis auf die Finnland-Strecken recht ruckelfrei läuft, wenn auch nur mit full-hd auf 1440p ultrawide (mit schwarzen Seitenbalken und auf medium-high; tut dem Spielspaß aber dank schlankem Zeichenstil kaum was nehmen, wenn auch das mögliche eye-candy schon sehr hübsch ist, so als Dia-Show).

Ich vermute Dein Bildschirm hat noch kein variable-refresh? Meiner Meinung nach ein absoluter game-changer, wenn es um grenzwertige Performance geht. Massive frametime-Ausschläge bei grenzwertiger Grafikleistung sind zwar immer noch unschön, aber leichte Varianzen im 10..20% - Bereich bügelt diese Technik wirklich gekonnt weg.

Daher auch mein Eindruck - nach Studium der Schilderungen diverser Dritter: fake-frames können wohl vor allem im high-refresh Bereich eine optische Glättung erzielen und die Bildsynchronisierung verbessern. Jedoch ein Allheilmittel für unzureichende Hardware-Leistung scheint es wirklich nicht zu sein. Wer vorher nur zwischen 30 und 45 fps erzielt, sollte lieber die Grafikeinstellungen zurückdrehen, bis es stabil über 60 läuft. Diejenigen, die allerdings ihre 144Hz+ Monitore mit massiven Schwankungen zwischen ~85 und 140fps beschicken, könnten hier vielleicht den größten Nutzen davontragen bei Titeln, die keine absolute Präzision und kürzeste Steuerungs-Reflexe verlangen - wie halt single-player Titel, in denen eher eine Story oder die Exploration der Spielwelt im Vordergrund steht.
Und Leute mit einen 120 Herz 4K Oled Monitor/Tv?
 
Und Leute mit einen 120 Herz 4K Oled Monitor/Tv?
wenn ich bei Geizhals nach Computermonitoren mit displayport 2.1 filtere, sehe ich genau 3 Stück zur Zeit:
nur einer davon "normales" UHD.
Klar gibt es schon seit längerem Fernseher mit mal besserem mal schlechterem game-mode und entsprechend aktueller hdmi-Version (2.1), die echte 120Hz bei vollen 8 bit (oder vlt. auch mal 10bit-HDR) zuließen, alles andere aus dem Monitorbereich mit dp1.4 / hdmi_2.0 oder älter waren aber afaik entweder mit 2x dp_1.4-Kabeln und/oder display-stream-compression (verlustbehaftet) zu betreiben.

Und die liebe 4090, die alles andere über den Tisch zieht, sofern nvidia passende Treiber baut, hat leider nur dp1.4, braucht also für beste Ergebnisse einen Moni/Fernseher mit hdm_iieeeehhhh 2.1 (immerhin laut geizhals schon mindestens 77 Geräte mit uhd und mehr Pixeln)

Oder man nimmt eine 7900er mit dp_2.1 und wartet auf entsprechend ausgestattete Monitore (bisher wie gesagt erst 3 teure Stück laut GH-listing) bzw. versucht es mit einer der kommenden navi32-Karten (die 7000er bieten alle dp_2.1) und upscaling, wenn der eigentliche Zweck des 4k/uhd eher in der Pixelfläche für 2d-Darstellung liegt und weniger in der Spiele-Raster-Grafik.

Wie dem auch sei, mit welcher Strategie man am besten Ruhe in die Bilddarstellung der eigenen Spiele bringt, bleibt spannend. Und je nach Fall wird man wohl auch weiterhin selbst ausprobieren müssen, was zum Erfolg führt. Scheinbar ist die frame-generation vom Marktführer bisher nicht so ideal, wenn man einen frame-limiter mit dazu schaltet. Hier bin ich mal gespannt, ob sich da noch etwas tut und/oder ob die bald erwartete Konkurrenz-Technik sich positiv absetzen kann.
Einige Spiele bieten ja schon seit Jahren "resolution-scaling" in ihrer eigenen Engine integriert - zwar nicht ganz so brilliant und elegant wie dlss oder fsr, aber damit funktioniert ein frame-limiter meist problemlos.
 
Oben Unten