News Nvidia stellt DLSS 2.0 und weitere Features vor - schneller, knackiger, besser?

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.107
Bewertungspunkte
18.596
Punkte
114
Alter
59
Standort
Labor
Nvidia stellt heute DLSS 2.0 vor, das mit vielen interessanten Änderungen, einer signifikanten Qualitäts- sowie Performance-Steigerung aufwarten können soll. Auch wenn uns für den heutigen Tag nur die verbalen Informationen und die entsprechenden Folien zur Verfügung standen, lässt sich der Weg, den Nvidia eingeschlagen hat, schon ganz gut nachverfolgen. Inwieweit diese durchaus gravierenden Änderungen dann in der Realität einen echten Mehrwert schaffen, müssen Tests beweisen. Zumindest die Theorie sieht schon einmal recht vielversprechend aus.




>>> Den kompletten Artikel lesen <<<
 
Gibt es irgendwo eine Liste von Spielen, die unterstützt werden?
 
DLSS war für mich das deutlich unspanndere Turing-Feature. Bleibt auch erstmal so. Die blöden Dinger sollen einfach nativ in 4K schnell genug rechnen, dann braucht’s solche Tricks nicht. ;)
 
DLSS war für mich das deutlich unspanndere Turing-Feature. Bleibt auch erstmal so. Die blöden Dinger sollen einfach nativ in 4K schnell genug rechnen, dann braucht’s solche Tricks nicht. ;)
Für mich (mit einer 2080 Ti für 4k-Gaming) war es im Gegenteil eher eines der spannenderen Features, nachdem Raytracing bisher nur ein Fps-Killer mit eingeschränktem Nutzen ist. Ob Raytracing aktiviert ist oder nicht, sieht man oft genug nur an den Fps.
KI wird inzwischen, oft nur des Begriffs wegen, für jeden Fliegenschiss genutzt. Hier ist es tatsächlich mal sinnvoll, weil man nicht immer alles bereits bekannte neu ausrechnen muss und tatsächlich einen Nutzen (Fps) davon hat.
 
Zuletzt bearbeitet :
Gabs nicht auch mal DLSS 2X ? Was wurde oder wird aus dem Bereich?

Nachdem DLSS 1.0 ja nicht so der bringer war, sieht es mit der 2.0 Version schon anders aus. Nette Entwicklung.
Bin mal gespannt ob AMD mit RDNA 2 auch so ein Feature bringt.
 
Schaun wir mal :)
 
Ich bin auch noch skeptisch. Ich halte allgemein nicht so viel von diesen trickserein. Ich kann auch selbst in jedem Spiel die Auflösung mehr oder minder skalieren. Sinnvoll sind solche Maßnahmen in meinen Augen auch nur für 4k aufwärts, was soll ich denn in 1080p noch runter skalieren? Das ist doch bereits nativ nur noch gruselig.
 
Hoffentlich bekommt Metro Exodus auch noch ein Update auf 2.0 meine 2070 würde sich freuen .
RDR2 währ auch so ein Kandidat wo ich’s mir wünschen würde .
 
Ich bin auch noch skeptisch. Ich halte allgemein nicht so viel von diesen trickserein. Ich kann auch selbst in jedem Spiel die Auflösung mehr oder minder skalieren. Sinnvoll sind solche Maßnahmen in meinen Augen auch nur für 4k aufwärts, was soll ich denn in 1080p noch runter skalieren? Das ist doch bereits nativ nur noch gruselig.

so unterscheiden sich die ansichten:
ich bin mit einer 1080p auflösung zufrieden und brauche kein 4k.
wenn man mal mit der lupe an einen (1080p)monitor geht und sich ansieht, wie klein ein einzelner pixel ist, sieht man das es schon ausreichend fein aufgelöst ist.

hier zb sitze ich ca 1m weit weg und da kann ich auf die entfernung die einzelnen pixel meines 1080p-monitors nicht einzeln sehen.
wozu dann eine feinere auflösung?!

beim smartphone zb ist das was anderes, da sitze ich wenige cm weit weg und es muss feinere details auf kleinerer fläche darstellen, da sieht man den unterschied zwischen 1920er und 2500er auflösung, weil man ja auch näher dran ist.

was DLSS angeht: ist nicht meins.
damit verschleiert man nur, wie wenig die karten, gerade die kleinen, eigentlich dafür ausgelegt sind, diese hohen auflösungen zu meistern.
also rendert man in kleiner auflösung und skalliert dann, über den algorythmus, hoch.
es gaukelt also vor, das in hoher auflösung gerendert würde.

raytracing is da schon was anderes, das ist eine feine sache was da gemacht wird und bringt sehr schöne realistische optik ins spiel.
ABER, die karten müssen dafür auch entsprechende raytraycing-leistung bereit stellen, also mind. durchgehend 60fps in jeder auflösung.
und nein, nicht nur über die 'krücke' DLSS..............
 
Zuletzt bearbeitet :
Die blöden Dinger sollen einfach nativ in 4K schnell genug rechnen, dann braucht’s solche Tricks nicht. ;)
Jein.

Es hat durchaus Vorteile wenn man für die gleiche Wahrnehmung der Qualität weniger Leistung braucht. Für den 08/15 Zocker daheim mag das ein paar FPS bringen, aber skalier das mal auf ein Rechenzentrum. Das summiert sich schnell auf, wenn deine Karten pro Stück 50 Watt weniger ziehen.

Wenn ich nicht berechnen muss, was eh keiner sieht (generell sinnvoll, vgl. mp3), bleibt Rechenleistung (oder Speicherplatz) für anderes übrig.

Gerade in der verheißungsvollen Zukunft des allgegenwärtigen Streaming ist das eine womöglich nützliche Technologie.
Weniger Daten -> ??? -> bessere Latenz. (?)


Interessant, dass da v2 rauskommt. Hab mich neulich erst gefragt wie sich das inzwischen entwickelt hat und bin trotz anfänglicher Skepsis inzwischen ein bisschen begeistert.
Wenn der Fake so gut ist wie das Original, reicht mir der Fake.
 
Zuletzt bearbeitet :
@Affenzahn da gebe ich Dir natürlich recht. Wenn man mit weniger Aufwand (Energie) das gleiche Ergebnis erzielt, ist das ein Träumchen. Aber es muss halt die Prämisse wirklich stimmen, dass der Fake so gut ist wie das Original.
 
Die im Kontrast und Beleuchtung aufgehübschten Bilder lassen mich etwas Zweifeln. Das schwammige TAA zu verbessern ist auch keine wirkliche Kunst wie ich finde, das machen Schärfefilter auch bereits ohne Leistungseinbußen.
 
Versuch macht kluch. Hab mal den aktuellen Treiber installiert und MW5 hab ich ja auch... nachher mal bisserl mit den Einstellungen spielen.
 
wenn man in spielen zukünftig so vorgeht:
-ersteinmal nur ein gittermodell erstellen ohne texturen
-per raytracing oder anderer technik einige 'sichtstrahlen' berechnen um festzustellen was überhaupt gesehen wird
-dann nur das (zu ende) berechnen, was wirklich gesehen wird

wäre das eine vorgehensweise ich ich begrüssen kann.

bei DLSS geht es aber wohl ehr darum per algorythmus das (niedriger auflösend) gerenderte bild auf die native hochscalliert wird.
davon halte ICH PERSÖNLICH garnichts.
in ein paar jahren/monaten wird man über solche technischen tricks lachen, nach dem motto:
'hätte man etwas abgewartet oder XY gemacht, hätte man die rechenleistung auch gehabt um gleich in nativer auflösung zu berechnen'....
 
Oben Unten