NVIDIA veröffentlicht DLSS 3.5 SDK: Spieler tauschen bereits DLLs aus und staunen nicht schlecht

wenn ich bei Geizhals nach Computermonitoren mit displayport 2.1 filtere, sehe ich genau 3 Stück zur Zeit:
nur einer davon "normales" UHD.
Klar gibt es schon seit längerem Fernseher mit mal besserem mal schlechterem game-mode und entsprechend aktueller hdmi-Version (2.1), die echte 120Hz bei vollen 8 bit (oder vlt. auch mal 10bit-HDR) zuließen, alles andere aus dem Monitorbereich mit dp1.4 / hdmi_2.0 oder älter waren aber afaik entweder mit 2x dp_1.4-Kabeln und/oder display-stream-compression (verlustbehaftet) zu betreiben.

Und die liebe 4090, die alles andere über den Tisch zieht, sofern nvidia passende Treiber baut, hat leider nur dp1.4, braucht also für beste Ergebnisse einen Moni/Fernseher mit hdm_iieeeehhhh 2.1 (immerhin laut geizhals schon mindestens 77 Geräte mit uhd und mehr Pixeln)

Oder man nimmt eine 7900er mit dp_2.1 und wartet auf entsprechend ausgestattete Monitore (bisher wie gesagt erst 3 teure Stück laut GH-listing) bzw. versucht es mit einer der kommenden navi32-Karten (die 7000er bieten alle dp_2.1) und upscaling, wenn der eigentliche Zweck des 4k/uhd eher in der Pixelfläche für 2d-Darstellung liegt und weniger in der Spiele-Raster-Grafik.

Wie dem auch sei, mit welcher Strategie man am besten Ruhe in die Bilddarstellung der eigenen Spiele bringt, bleibt spannend. Und je nach Fall wird man wohl auch weiterhin selbst ausprobieren müssen, was zum Erfolg führt. Scheinbar ist die frame-generation vom Marktführer bisher nicht so ideal, wenn man einen frame-limiter mit dazu schaltet. Hier bin ich mal gespannt, ob sich da noch etwas tut und/oder ob die bald erwartete Konkurrenz-Technik sich positiv absetzen kann.
Einige Spiele bieten ja schon seit Jahren "resolution-scaling" in ihrer eigenen Engine integriert - zwar nicht ganz so brilliant und elegant wie dlss oder fsr, aber damit funktioniert ein frame-limiter meist problemlos.
Dann nimm die RX 7900/50 XTX, und warte noch einfach etwas.
Ich empfehle die Asrock Taichi Serie!

Ein Monitor mit Displayport 2.1, macht mit ner 4090 absolut keinen Sinn!
 
wollte mit dem kleinen Exkurs nur einmal aufzeigen, wie frisch und Fett-tropfend das Thema uhd/120+Hz an sich noch ist. arcDaniels Schilderung von seiner 4080 hast Du ein paar Beiträge weiter oben doch hoffentlich nicht verpaßt, oder?
 
Für 4k 120hz reicht Display Port 1.4 aus, nus als Info und das kann jede aktuelle Nvidia GPU. Möchte ich also 80fps im FG haben würde ein solcher Monitor reiche. Die meisten haben hier eine native (also ohne niedrige fps im dopten hz modus an zu zeigen) VRR von 48-120hz.

Also wäre hier Frame Generation absolut praktikabel ohne Tearing.

Mit einem 60hz Monitor kann man FG nicht ohne Tearing vernünftig einsetzen.

Und ja für 80fps FG braucht man weniger Leistung als für stabile 60fps.

Latenz ist mir als Story Driven Single Player relativ schnuppe. Die Latenz von 40fps reicht mir hier schon.
 
I stand corrected,
120Hz UHD ist gerade eben so noch im Bandbreitenlimit von 1.4/1.3 drin. Wenn die Spezis im Wikipedia stimmen ist das dann aber auch die harte Grenze. Also die richtigen "high-refresh"-Bildschirme (in UHD+ und mit mehr Farbraum) mit noch mehr Hz brauchen dann zwingend 2.0+ (wobei die Konsumgüter-Industrie die 2019 veröffentlichte Version 2.0 wohl übersprungen zu haben scheint und jetzt mit 2.1 für die neuen Geräte einsteigt)
 
I stand corrected,
120Hz UHD ist gerade eben so noch im Bandbreitenlimit von 1.4/1.3 drin. Wenn die Spezis im Wikipedia stimmen ist das dann aber auch die harte Grenze. Also die richtigen "high-refresh"-Bildschirme (in UHD+ und mit mehr Farbraum) mit noch mehr Hz brauchen dann zwingend 2.0+ (wobei die Konsumgüter-Industrie die 2019 veröffentlichte Version 2.0 wohl übersprungen zu haben scheint und jetzt mit 2.1 für die neuen Geräte einsteigt)
Mein Oled TV und meine Graka haben zum Glück beide HDMI 2.1B. ☺🤗
Nächtes Jahr sollen 4K Monitore mit 240 Herz erscheinen.
Wann und ob, solche Fernseher herraus kommen, steht aktuel glaub ich noch in den Sternen.
 
Es geht gar nicht nur um Tearing, das Framepacing ist grauenhaft wenn man FrameGeneration limitiert. Das Funktioniert nur wirklich gut, wenn es drauf los feuern kann.

Begrenze ich nun das PowerLimit meiner 4080 auf 46% (weniger geht nicht) und nutze FrameGeneration in the TheWitcher3 alles Ultra+RT ind 4K DLSS Quality komme ich mit FG unter 60fps, also somit in meinen VRR Bereich (40-60hz) und es funktioniert relativ gut.

Sobald die GPU aber nicht zu 100% Ausgelastet ist und ein Frame Limit vorliegt, egal ob Limiter oder VSync, bekommt man Probleme mit Frame Pacing.

Nvidia soll hier zwar schon Sachen verbessert haben, dies beruht aber auf Treiber Profilen für einzelne Spiele. Bei The Witcher ist dies jedenfalls nicht der Fall.

Ein Bildschirm mit mehr hz wird es erst, wenn OLEDs in 32Zoll und 4K unter 800Euro fallen. Vorher bleibe ich bei meinem aktuellen.

Zum Thema aber, solche Features wie DLSS werden immer wichtiger und machen für mich schon einen Unterschied von welchem Hersteller ich kaufe.

Dass ich wieder zu AMD wechseln würde (oder Intel in einer Zukunft), müsste die Grundleistung stark genug sein um DLSS-Spiele nativ mit gleicher Leistung zu rendern. Also eine Karte welche bei 4K die gleiche Leistung bietet wie meine 4080 in WQHD und zudem es eine unterstützte Upscaling Methode bietet, welche an DLSS ran kommt.

Wie lange wird das wohl dauern? Wird das je wieder der Fall sein?

Denke schon. Irgendwann wie auch bei PhysX oder G-Sync/FreeSync wird der Fall kommen, wo sich auf ein Upscaling geeinigt wird und dann wieder die rein Hardware zählt.
Also FSR 3.0, kommt glaube ich nächsten Monat raus.
Und FSR 3.0 ist ähnlich wie DLSS 3.0.

Nur mit dem Unterschied das AMD es (open source) für alle Grafikkarten auch Nvidia Karten frei macht.
Aber auch für alle älteren Grakas.

Für mich mit einer RTX 3090Ti ist das ein regelrechter Segen! 🤗

Das wird Nvidia überhaupt überhaupt nicht schmecken. 😄

Also ich sehe bei den Gameplay Videos keinen Unterschied zwichen FSR 3.0 und DLSS 3.0!

 
Es geht gar nicht nur um Tearing, das Framepacing ist grauenhaft wenn man FrameGeneration limitiert. Das Funktioniert nur wirklich gut, wenn es drauf los feuern kann.

Begrenze ich nun das PowerLimit meiner 4080 auf 46% (weniger geht nicht) und nutze FrameGeneration in the TheWitcher3 alles Ultra+RT ind 4K DLSS Quality komme ich mit FG unter 60fps, also somit in meinen VRR Bereich (40-60hz) und es funktioniert relativ gut.

Sobald die GPU aber nicht zu 100% Ausgelastet ist und ein Frame Limit vorliegt, egal ob Limiter oder VSync, bekommt man Probleme mit Frame Pacing.

Nvidia soll hier zwar schon Sachen verbessert haben, dies beruht aber auf Treiber Profilen für einzelne Spiele. Bei The Witcher ist dies jedenfalls nicht der Fall.

Ein Bildschirm mit mehr hz wird es erst, wenn OLEDs in 32Zoll und 4K unter 800Euro fallen. Vorher bleibe ich bei meinem aktuellen.

Zum Thema aber, solche Features wie DLSS werden immer wichtiger und machen für mich schon einen Unterschied von welchem Hersteller ich kaufe.

Dass ich wieder zu AMD wechseln würde (oder Intel in einer Zukunft), müsste die Grundleistung stark genug sein um DLSS-Spiele nativ mit gleicher Leistung zu rendern. Also eine Karte welche bei 4K die gleiche Leistung bietet wie meine 4080 in WQHD und zudem es eine unterstützte Upscaling Methode bietet, welche an DLSS ran kommt.

Wie lange wird das wohl dauern? Wird das je wieder der Fall sein?

Denke schon. Irgendwann wie auch bei PhysX oder G-Sync/FreeSync wird der Fall kommen, wo sich auf ein Upscaling geeinigt wird und dann wieder die rein Hardware zählt.
Hm scheint als wäre FG noch nicht ganz ausgereift, wenns Probleme mit FPS Limiter und Gsync gibt. Ist ja beides im Treiber, also in Nvidias Händen, das sollte schon mal so implementiert werden, dass es mit FG zusammen spielt. Aktueller Stand, schade.
 
Mann sollte sich mal grob Gedanken machen wie FG überhaupt funktioniert.

1 natives bild --> 1 fake --> nativ --> fake.....

gibt es kein Frame Limit (egal welcher Art) funktioniert das sehr gut, da die GPU einfach feuert was geht.

Kommt aber ein Limit dazu und dieses Limit kann nicht zu 1000% gehalten werden, kann es gut vorkommen, dass die Reihenfolge nicht eingehalten wird und so ein Ruckeln entsteht.

Mit DLSS FG 3.5 scheint es hier definitiv Verbesserungen zu geben. Wo The Witcher 3 mit den originalen DLLs noch Ruckeln mit VSync (Nvidia Control Panel Globale Einstellungen) verursacht, fühlt es sich doch sehr geschmeidig mit den 3.5 dlls an (es darf sonst kein Limiter dazwischen funken).

Nvidia scheint hier bei erkennen von VSync selbst einen Limiter hinzu zu fügen. So läuft W3 bei mir zwischen 58-59fps mit 60hz Vsync. Das bedeutet aber auch, dass ein VRR Monitor unbedingt wichtig ist, sonst bringt auch das nichts.

Ghosting in so niedrigen fps kann man auch eher erkennen als bei höheren fps. Bei W3 fällt mir das nur auch, wenn ich die Kamera wie wild um Gerald drehen lasse. Also provoziert, im normalen Gameplay merke ich nichts.

Der Input-Lag ist natürlich etwas höher als mir nativen 60fps, da aber sehr konstant habe ich mich sehr schnell daran gewöhnt. Für ein Single Player, Story Driven Titel sehe ich hier keine Probleme. Für Kompetetives zocken natürlich nicht brauchbar.
 
Mann sollte sich mal grob Gedanken machen wie FG überhaupt funktioniert.

1 natives bild --> 1 fake --> nativ --> fake.....

gibt es kein Frame Limit (egal welcher Art) funktioniert das sehr gut, da die GPU einfach feuert was geht.

Kommt aber ein Limit dazu und dieses Limit kann nicht zu 1000% gehalten werden, kann es gut vorkommen, dass die Reihenfolge nicht eingehalten wird und so ein Ruckeln entsteht.

Mit DLSS FG 3.5 scheint es hier definitiv Verbesserungen zu geben. Wo The Witcher 3 mit den originalen DLLs noch Ruckeln mit VSync (Nvidia Control Panel Globale Einstellungen) verursacht, fühlt es sich doch sehr geschmeidig mit den 3.5 dlls an (es darf sonst kein Limiter dazwischen funken).

Nvidia scheint hier bei erkennen von VSync selbst einen Limiter hinzu zu fügen. So läuft W3 bei mir zwischen 58-59fps mit 60hz Vsync. Das bedeutet aber auch, dass ein VRR Monitor unbedingt wichtig ist, sonst bringt auch das nichts.

Ghosting in so niedrigen fps kann man auch eher erkennen als bei höheren fps. Bei W3 fällt mir das nur auch, wenn ich die Kamera wie wild um Gerald drehen lasse. Also provoziert, im normalen Gameplay merke ich nichts.

Der Input-Lag ist natürlich etwas höher als mir nativen 60fps, da aber sehr konstant habe ich mich sehr schnell daran gewöhnt. Für ein Single Player, Story Driven Titel sehe ich hier keine Probleme. Für Kompetetives zocken natürlich nicht brauchbar.
Naja auch mit FG hat ein Limiter immer noch die selbe Funktion. Darunter nichts zu tun, darüber wird gekappt, egal ob es echte, oder generierte/dazwischen geschobene Frames sind, gehe ich mal davon aus....

VRRs wie Gsync mit Vsync sind per sé schon selbst eine Art Limiter.
 
Naja auch mit FG hat ein Limiter immer noch die selbe Funktion. Darunter nichts zu tun, darüber wird gekappt, egal ob es echte, oder generierte/dazwischen geschobene Frames sind, gehe ich mal davon aus....

VRRs wie Gsync mit Vsync sind per sé schon selbst eine Art Limiter.
Es gibt auch Konsumenten, die DLSS überhaupt nicht mögen und es immer deaktivieren, wegen Ghosting & verfälschten Bildern.🤨
Ich bin mal gespannt was die RTX 5090 so an Rohleistung hat, ohne DLSS, und dann mit?🤔
 
Einfach mal nach der Aufenthaltsgenehmigung fragen ?

Haben sie eine Steuer # im deutschen Staats Staats ?

Habe die Ehre.

Edit:
Aha, also doch mehr Gast als Arbeit ! :devilish:
 
Zuletzt bearbeitet :
Es gibt auch Konsumenten, die DLSS überhaupt nicht mögen und es immer deaktivieren, wegen Ghosting & verfälschten Bildern.🤨
Ich bin mal gespannt was die RTX 5090 so an Rohleistung hat, ohne DLSS, und dann mit?🤔
Leider scheint der Trend da hin zu gehen, dass DLSS & Co. in Zukunft Pflicht werden, weil sich Spiele zu viel genehmigen, weil nicht mehr optimiert wird.
Rohleistung nativ ist tot, DLSS & Co. ist das neue Mass. Eine 2080 TI ist eine lahme Ente fürn Elektroschrott, weil sie DLSS FG nicht *darf*.
Und Rohleistung nativ ist tot, weil es Fragmentierung gibt, bei Herstellern und unterstützter Technologien. Rohleistung wird durch Partei-Ergreifung pulverisiert.
 
Leider scheint der Trend da hin zu gehen, dass DLSS & Co. in Zukunft Pflicht werden, weil sich Spiele zu viel genehmigen, weil nicht mehr optimiert wird.
Rohleistung nativ ist tot, DLSS & Co. ist das neue Mass. Eine 2080 TI ist eine lahme Ente fürn Elektroschrott, weil sie DLSS FG nicht *darf*.
Und Rohleistung nativ ist tot, weil es Fragmentierung gibt, bei Herstellern und unterstützter Technologien. Rohleistung wird durch Partei-Ergreifung pulverisiert.
Das würde ich nicht umbedingt sagen.
Bald erscheint FSR 3.0, und es läuft auf allen Karten.
Auch auf deiner! 😉
 
😊 hoffentlich. Mehr kann man als Enduser auch nicht tun. Man wartet, oder hofft, und nimmt dann was kommt, oder dreht all dem den Rücken ganz zu und verabschiedet sich.
Du brauchst Dich nicht verabschieden.
Es wird funktionieren.
Ich bin auch davon betroffen als RTX3090Ti Besitzer.
Zum Glück gibt es ja noch AMD.
Die zeigen NVDIA wie man mit Kunden richtig umgeht.
DLSS 3.0 würde zu 100% auf unseren beiden Karten laufen.
Nur will NVDA dies nicht. 🤑 <-- NV.
 
Du brauchst Dich nicht verabschieden.
Es wird funktionieren.
Ich bin auch davon betroffen als RTX3090Ti Besitzer.
Zum Glück gibt es ja noch AMD.
Die zeigen NVDIA wie man mit Kunden richtig umgeht.
DLSS 3.0 würde zu 100% auf unseren beiden Karten laufen.
Nur will NVDA dies nicht. 🤑 <-- NV.
Die Fragmentierung ist aktuell für alle Gamer ein Fluch, egal welchen Hersteller sie nutzen. Für uns alle wäre es am besten, wenn sich offene Technologien durchsetzen würden. Vulkan, FSR und FreeSync, jedes Betriebsystem, jede Karte. Aktuell fährt man leider mit einer Nvidia Karte am "besten", weil alles Proprietäre unterstützt (DLSS, Gsync, CUDA) und zur Zeit auch am fortschrittlichsten (RT, DLSS 3.5). Und deswegen auch am teuersten, trotz zu wenig VRAM.
 
Die Fragmentierung ist aktuell für alle Gamer ein Fluch, egal welchen Hersteller sie nutzen. Für uns alle wäre es am besten, wenn sich offene Technologien durchsetzen würden. Vulkan, FSR und FreeSync, jedes Betriebsystem, jede Karte. Aktuell fährt man leider mit einer Nvidia Karte am "besten", weil alles Proprietäre unterstützt (DLSS, Gsync, CUDA) und zur Zeit auch am fortschrittlichsten (RT, DLSS 3.5). Und deswegen auch am teuersten, trotz zu wenig VRAM.
Ich sehe es doch genauso.
Nur wie heißt es immer do schön Konkurrenz belebt den Markt.
Und auf der anderen Seite bin ich froh das es auch noch AMD gibt.
Jetzt stell dir mal vor es würde nur Nvidia, als einzigen GPU Hersteller geben OMG.😱

Dann würde eine RTX 5090 vermutlich nicht 3000€ sondern 6000€ kosten.😭
Und es würden nicht so oft wie jetzt neue GPU's erscheinen.
Es wäre einfach nur furchtbar und schrecklich.
Auch Preise für Monitore wären exorbitant teuer.🥺

Und bei AMD ist alles open Source.
Freesync, FSR, unvm.🥳😎
Nvidia war schon immer gegen open source.🥴
 
Zuletzt bearbeitet :
Oben Unten