Gaming Grafikkarten Testberichte VGA

Strahlende Zukunft? NVIDIA DLSS 3.5 und die nächste Stufe des Raytracings

Die heute veröffentlichte Version von NVIDIA DLSS 3.5 ist die neueste Iteration der DLSS-Technologie (Deep Learning Super Sampling) von NVIDIA und bringt eine Reihe von Verbesserungen und neuen Funktionen, um die Ray-Tracing-Erfahrung in Spielen und Anwendungen zu verbessern. Dabei hat sich NVIDIA ehrgeizige Ziele gesteckt, um auch die Akzeptanz der neuen Technologie zu vergrößern. Immer frei nach dem Motto: „Das Auge isst mit“. Womit wir beim Ziel des heutigen Artikel angelangt wären, denn ich werde mich heute (fast) ausschließlich mit der Optik beschäftigen.

Apropos Akzeptanz und Massentauglichkeit: Der heutige Artikel wurde bewusst mit einer GeForce RTX 4070 erstellt, denn eine GeForce RTX 4090 kann zwar deutlich mehr, sie ist aber mit Sicherheit nichts, was die breite Masse der Leser repräsentiert. Deshalb sind die Screenshots und Videos überwiegend in WQHD bzw. UWQHD erstellt worden, auch wenn Ultra-HD natürlich feiner ausschaut. Aber wir legen heute bewusst den Schwerpunkt auf das, was der durchschnittliche Anwender davon für sich selbst in der Praxis mitnehmen kann. Und da kommt auch schon mal DLSS im Performance Modus mit ins Spiel, der von der neuen Ray Reconstruction fast noch mehr profitiert als der Quality Mode.

Ray Reconstruction (RR)

Ganz ohne etwas Theorie bzw. Hintergrundinformationen will ich Euch aber auch nicht im Regens stehen lassen, da müsst Ihr jetzt durch. Also noch einmal die wichtigste Frage: „Was ist Ray Reconstruction?“. Es handelt sich, kurz zusammengefasst, um ein neues KI-Modell, das höherwertige Bilder für intensive RT-Spiele und -Anwendungen erstellt. Es ersetzt handabgestimmte Denoiser durch ein von NVIDIA-Supercomputern trainiertes KI-Netzwerk, das höherwertige Pixel zwischen den abgetasteten Strahlen erzeugt, was die Spiele realistischer und schöner macht. Bei dieser Methode werden hochfrequente gesampelte Rays verwendet, um einen in 1080p berechneten Frame mit ausreichenden Informationen zu versehen, die später z.B. für eine Ausgabe in Ultra-HD benötigt werden. Dies wird durch die Hinzufügung von Vektorinformationen aus dem Spiel selbst erreicht

Traditionelle Denoiser (das kennen wir sogar aus Blender & Co.) können Probleme wie Geisterbilder, das Entfernen dynamischer Effekte und die Reduzierung der Qualität anderer Aspekte verursachen. Sie neigen auch dazu, zu viele Details unnötig zu verwischen oder im Gengensatz dazu nicht immer genug zu verwischen, wenn es doch nötig ist. Das ist eine Unzulänglichkeit, die zu nicht einheitlichen Lichteffekten führt. „Ray Reconstruction“ adressiert diese Probleme effektiv, indem es intelligentere Entscheidungen über die Verwendung von zeitlichen und räumlichen Daten trifft. Sie kann spezifische Ray-Tracing-Effekte identifizieren und andere Spielinformationen wie Bewegungsvektoren und Oberflächenfarben integrieren, um ein viel genaueres Endbild in Ray-Tracing-Spielen zu erzeugen. Dies führt zu einer deutlich verbesserten Klarheit, Genauigkeit und Schärfe der Ray-Tracing-Effekte.

Das KI-Modell wurde mit 5-mal mehr Daten als DLSS 3 trainiert, was es ermöglicht, klügere Entscheidungen über die Verwendung von zeitlichen und räumlichen Daten zu treffen und hochfrequente Informationen für eine überlegene Qualität der Hochskalierung zu erhalten. Im heutigen Beispiel mit Cyberpunk 2077 verbessert „Ray Reconstruction“ die Qualität und Klarheit von Reflexionen, macht die globale Beleuchtung genauer und die Beleuchtung dynamisch reaktionsfähiger. Die Funktion erkennt bestimmte Muster, die mit Reflexionen assoziiert sind, und hält das Bild stabil, während es genaue Pixel sammelt und benachbarte Pixel mischt, um hochwertige Reflexionen zu erzeugen. Für Entwickler vereinfacht die Technologie den Entwicklungsprozess, indem sie die Notwendigkeit manuell abgestimmter Denoiser elegant eliminiert. Für Spieler bedeutet dies eine verbesserte Bildqualität mit realistischeren und immersiveren Erfahrungen. Also eine Art Win-Win-Situation für die Spielentwickler und die Spieler. Und natürlich NVIDIA, das darf man nicht verschweigen.

 

Super Resolution und DLAA

Super Resolution ist eine Schlüsseltechnologie in der NVIDIA DLSS 3.5 Suite, die (was sonst?) auf den Fähigkeiten künstlicher Intelligenz (KI) basiert. Diese Technologie nutzt die Tensor Cores der GeForce RTX GPUs, um Bilder zu erschaffen, die eine gleichwertige oder sogar höhere Qualität als die native Auflösung aufweisen. Dadurch werden nicht nur die Bildraten beschleunigt und die Bildqualität verbessert, sondern auch die Reaktionsfähigkeit in Spielen und Anwendungen erhöht. Entwickler haben seit einiger Zeit auch die Möglichkeit, Super Resolution recht einfach und schnell in ihre Projekte zu integrieren, indem sie die entsprechenden DLSS SDKs und Plugins herunterladen. Ein weiterer Vorteil dieser Technologie ist ihre breite Verfügbarkeit, da sie zumindest auf allen RTX GPUs unterstützt wird.

DLAA, die Abkürzung für Deep Learning Anti-Aliasing, ist eine Technologie, die die KI-Techniken nutzt, die auch in DLSS vorhanden sind, um die Bildqualität zu verbessern. Im Gegensatz zu DLSS, das die Auflösung reduziert und dann ein KI-Modell verwendet, um das Bild wiederherzustellen, arbeitet DLAA direkt auf der nativen Auflösung, um die Kantenglättung zu verbessern. Dies bedeutet, dass es die Bildrate nicht erhöht, sondern tatsächlich ein wenig Leistung kosten kann, um eine höhere Bildqualität zu erzielen. Man kann also DLSS oder DLAA benutzen, nie aber beides Gleichzeitig, da der Ansatz ein komplett anderer ist.

 

DLAA ist besonders nützlich in Szenarien, in denen die Bildrate bereits sehr hoch ist und die Nutzer bereit sind, einige Frames pro Sekunde (fps) zu opfern, um eine verbesserte Bildqualität zu erzielen. Es ist jedoch zu beachten, dass Spiele diese Technologie explizit unterstützen müssen, um die Vorteile von DLAA nutzen zu können. Diese Technologie ist ein Teil der neuesten Aktualisierung von NVIDIAs DLSS 3.5 und ist darauf ausgelegt, die visuelle Qualität von Spielen zu verbessern, indem sie die Kantenglättung signifikant verbessert, ohne die native Auflösung zu reduzieren. Dies führt zu Bildern, die schärfer und detaillierter sind und mit weniger visuellen Artefakten wie „Ghosting“ negativ beeinflusst werden.

Frame Generation und NVIDIA Reflex

Diese Technologien arbeiten zusammen, um die Leistung zu steigern und das Gameplay reaktionsfähiger zu machen. Die Frame Generation nutzt die Leistung der NVIDIA Ada Lovelace GPU Tensor Cores und des Optical Flow Accelerators. Doch zu diesen Technologien haben wir ja bereits ausführlich berichtet, das kann man alles noch einmal nachlesen, ohne dass ich den heutigen Artikel immens aufblähen muss.

Verfügbarkeit und Integration

Kleine Randbemerkung, die uns NVIDIA immer mit in die Brotdose packt: Immerhin über 330 veröffentlichte Spiele und Anwendungen unterstützen mittlerweile NVIDIA DLSS, darunter sind über 40, die nun auch DLSS 3.5 unterstützen. Das NVIDIA Streamline SDK erleichtert den Programmierern die Integration von DLSS 3.5 und umfasst Super Resolution sowie DLAA (was für alle RTX-GPUs verfügbar ist), sowie Frame Generation für die Ada-Karten. und die Ray Reconstruction, die ebenfalls für alle RTX-GPUs verfügbar ist.

Entwickler, die bereits DLSS 2 mit dem NVIDIA Streamline SDK integriert haben, sind fein raus, denn es ist dann nur noch ein winziger Schritt, um DLSS 3 und seine verschiedenen Komponenten zu integrieren. Das Streamline SDK ist eine offene Quer-IHV-Lösung, die die Integration der neuesten NVIDIA- und anderer unabhängiger Hardware-Hersteller-Super-Resolution-Technologien in Anwendungen und Spiele vereinfacht. Es unterstützt eine Vielzahl von Technologien, darunter DLAA, NVIDIA Image Scaling (NIS), NVIDIA Real-Time Denoisers (NRD), DLSS Ray Reconstruction, NVIDIA Reflex und DLSS Frame Generation.

Und weil sich immer so viele über das angeblich so proprietäre Cyberpunk 2077 als neues Crysis beschweren:  Die Unreal Engine 5.2 unterstützt mittlerweile auch DLSS 3. Die Unreal Engine ist ein gern genutztes Werkzeug für die Erschaffung von Echtzeit-3D-Inhalten, also interaktive Erlebnisse und immersive virtuelle Welten. Wie das Ganze dann qualitativ in der UE 5.x aussehen wird, bleibt natürlich noch offen, aber dass es sogar ein einfach zu nutzendes Plugin für die UE gibt, lässt das Beste hoffen.

130 Antworten

Kommentar

Lade neue Kommentare

R
Ryzen84

Mitglied

12 Kommentare 4 Likes

Würde mich noch reizten eine RTX 4070 kaufen. Da aber meine RTX 2070 am Anfang des Jahres im Rauch aufgegangen ist und mir die ganzen neuen Karten zu teuer waren griff ich zu einer RX 6800. Was mir im späteren Hinblick entgegen gekommen ist, weil ich meinen PC komplett auf Linux um gestellt habe. Spielen am PC wurde mir als Hobby zu teuer, daher spiele ich fast nur noch auf meiner PS5.

Antwort Gefällt mir

helprequired

Mitglied

99 Kommentare 10 Likes

Wie Nvidia wieder deklassiert 😎

Antwort 3 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ein Feature wie Ray Reconstruction hat das Potential, die Luft für AMD ziemlich dünn werden zu lassen.

Wenn sich das durchsetzt, und AMD nicht (oder nicht gleichwertig) kontern kann, dann werden die heutigen Benchmark-Vergleiche langsam aber sicher zur Makulatur.
Wenn DLSS Quality plötzlich durchs Band eine gleiche oder bessere Qualität bietet als AMD in nativ, was soll man denn noch nativ gegen nativ benchmarken?

Antwort 3 Likes

helprequired

Mitglied

99 Kommentare 10 Likes

Tun wir mal so als wäre die Luft nicht schon dünn genug.:oops:

Gute Frage. Zumal auch Quality vs Quality, hanebüchen ist wenn DLSS viel besser aussieht.

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Sorry an die Community:

Ich hatte für den Test und die Videos ink. Auswertung nur einen Tag. Ich hätte gerne noch tiefer analysiert. Andere Kollegen hatte eine Woche... bitte berücksichtig das, wenn ihr den Artikel mit anderen vergleicht.

Fakt ist, dass Ray Reconstruction ist ein heftiger Schritt von NVIDIA. Den sieht man unmittelbar, ohne stundenlange Suche. Da wird AMD sich heftig die Augen reiben. Leider fehlt noch immer jede Spur von FSR 3...

Danke an Igor für das Schreiben des Artikels!

Ich bin leider aktuell leider heftig gebunden, viel Arbeit - wenig Zeit für Tests... Aber nächste Woche kommt ein Monitor...

Antwort 13 Likes

helprequired

Mitglied

99 Kommentare 10 Likes

Vielleicht braucht ihr mehr Personal :D

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Mehr hilft nicht... es müssen die richtigen Leute sein. Ich hänge hier in Problemlösungsprozessen mit sehr hohem Anteil an SixSigma und anderen Methoden... Digitalisierung kommt noch hinzu... :eek:

Antwort 1 Like

Tronado

Urgestein

3,726 Kommentare 1,951 Likes

Schön, da freue ich mich drauf, es kommen sicher bald einige regnerische Herbstsonntage. Und meine Grafikkarte freut sich auch, jedenfalls mehr als über energiefordernde UHD-Bildberechnung bei Starfield, mit einer Grafik, die gut ins Jahr 2014 passen würde. AMD Besitzer brauchen sich auch nicht grämen, die Grafik in CP 2077 ist auch ohne RT oder mit Leistungs-Einstellungen zeitgemäß und schön.

Antwort 1 Like

ipat66

Urgestein

1,359 Kommentare 1,357 Likes

Das ist wirklich eine Unverschämtheit von Euch !

Ich werde mir dann wohl doch eine 4070 bestellen ( Black Friday ? ) müssen.
Schei$$ ( Sorry ) auf die mageren 12 GB....
Das ist schon ein Hammer-Feature :)

Danke für den Appetithappen :)

Antwort 3 Likes

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Predige ich ja seit Release. Aber auf mich hört ja keiner. Hoffe die 5090 kommt bald damit ich meine 4090 endlich in den wohlverdienten Ruhestand schicken kann. ;)

Hab meiner liebesten auch eine 4070 spendiert. Und die spielt noch nichtmal wirklich. Die weiss gar nicht, was sie da hat. .

Antwort 1 Like

helprequired

Mitglied

99 Kommentare 10 Likes

Laut Dave im PCGH reichen 12gb in CP pathtracing in 5k....soviel dazu diese unnötige panikmache.

Dieser Typ ist auch cool :)

Antwort 1 Like

D
DaHell63

Mitglied

21 Kommentare 14 Likes
Igor Wallossek

1

10,202 Kommentare 18,831 Likes

Man kann die 4090 auf unter 300 Watt drosseln und der OLED ist immer noch partiell arg im Limit mit seinen 120 Hz. Spart mir über 150 Watt und sieht in UHD mit DLSS Qualität und RR eigentlich genauso aus bzw. sogar besser aus als nativ. Davon bitte gern mehr. :D

Antwort 10 Likes

H
Headyman

Veteran

116 Kommentare 53 Likes

Ja 12GB reichen, noch. Und bei den Preisen kaufen viele eher nicht alle 2 Jahre neu. Sobald die Konsolen auf 16GB sind, ist es vorbei mit 12 GB aufm PC. Für schlechte Ports schon früher...
Die 12GB sind die neuen alten 8GB, zum Kaufdatum völlig ausreichend, nach wenigen Jahren ist es ärgerlich. Hätte Nvidia einfach die 3070 mit 16GB politisch nicht gemordet, könnte keiner meckern, aber diese Wahl hatte wir ja nicht.

Antwort 1 Like

H
Headyman

Veteran

116 Kommentare 53 Likes

Ich hatte kurz nen Schreck bekommen, da war ja unter RR das Bild von Nvidia, wo auch Flow zu sehen ist. Dachte das wäre schon wieder nur ein 40er Feature. Zum Glück steht im Text, daß auch nicht 40er das Feature nutzen können.

Antwort Gefällt mir

helprequired

Mitglied

99 Kommentare 10 Likes

oppsie lol, mal schauen ob 12 reichen mit ultra sonst halt anpassen problem gelöst.

Antwort Gefällt mir

helprequired

Mitglied

99 Kommentare 10 Likes

ewig sogar. siehst eh auf ultra packst es eh nicht da macht der vram auch keinen unterschied mehr. klar mehr ist besser aber das meiste liegt nur rum.

raff nicht wie man hier posts zusammenführt auf cb geht es automatisch :D verbesserungsvorschlag 😎

Antwort Gefällt mir

D
DaHell63

Mitglied

21 Kommentare 14 Likes

Das vergessen halt viele, dass man mit ein wenig angepassen kaum/keinen Unterschied sieht. Maxed kostet eben.

Phantom Liberty in 5K, DLSS-Q, RR, PT, max. Details, VRAM + RAM Belegung siehe Bild oben links im OSD

Dafür reicht die Leistung meiner Karte sowieso nicht....also völlig egal ob der VRam reicht oder nicht.

Antwort Gefällt mir

helprequired

Mitglied

99 Kommentare 10 Likes

In ratchet and clank reichten 12gb nicht mit FG. Textur eine stufe runter fertig. Damit durchgezockt. gut auf Karten mit mehr Vram wird sowieso mehr belegt als gebraucht wird das sagt erstmal gar nichts aus :D

sollte ich mich jetzt dewsegen aufhängen das ich nicht eine 16gb karte gekauft habe weil das psychologisch wertvolle ultra nicht ging? ;) es sah trotzdem unfassbar gut aus eigentlich kein unterschied. Ist nur ein fanboy argument. das in 4k wohlgemerkt geht gut mit der 70TI.

edit: jop läuft mit 12gb vram: Die VRAM-Auslastung schwankt zwischen 10,5 und 11,8 GB knapp, 70 fps mit der 4070ti in 4k mit allem was geht wie schfft die amd 14fps? 😎 :cry:

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung