Gaming Grafikkarten Grundlagenartikel Testberichte

Aus Matschepampe wird knackiges Pixelobst – NVIDIAs DLSS 2.0 mit einer GeForce RTX 2060 Super im Test

NVIDIAs Geforce RTX 2060 Super ist, lässt man mal die ungesuperte Variante beiseite, quasi der Einstieg in NVIDIAs neue, bunte RTX-Welt. Besonders interessiert hat mich neben Raytracing vor allem DLSS und der Optik- bzw. Performance-Gewinn, der die „kleine“ RTX zwischen Hoppelhasen und echtem Spielkameraden hin und her mutieren lösst. Das wozu DLSS? In der ursprünglichen Version noch als „unscharfes Geschmiere“ oder gar „Vaseline auf dem Bildschirm“ verspottet, wurde die DLSS 2.0 getaufte zweite Iteration in aktuellen Reviews regelrecht mit Lob überschüttet. Ob dieses Lob gerechtfertigt ist, musste der heutige Selbsttest zeigen.

Die Schmach war seineziet groß, als NVIDIA voller Stolz „Deep Learning Super Sampling“ – kurz DLSS – als das „Killer Feature“ der Turing-Architektur vorstellte. Der FPS-Zuwachs durch das Aktivieren von DLSS war zwar durchaus messbar, stand aber in keiner Relation zur einhergehenden Reduktion der Bildqualität. Die nicht ganz ausgereifte Technik führte zu massiver Unschärfe, Artefakten und anderen verlorenen Bildinformationen. Das in einigen Spielen enthaltene schlichte Upscaling bot in vielen Fällen eine bessere Bildqualität bei ähnlichem Performance-Gewinn.

Entsprechend durchwachsen fielen die Reviews aus und schnell wurde die neue Technik als Flop abgetan. NVIDIA gelobte aber Besserung und feilte weiter an der vielversprechenden Technik. Etwa anderthalb Jahre sind vergangen, bis NVIDIAs Deep Learning Team schließlich DLSS 2.0 vorstellte und Verbesserungen auf breiter Front versprach. Allem Anschein nach konnte man die ursprünglichen Versprechungen dieses Mal tatsächlich einhalten, denn die Fachpresse reagierte äußerst positiv auf die neue Version. Dieser deutliche Sinneswandel hat mich schließlich auch neugierig gemacht und mich dazu gebracht, mir endlich ein eigenes Bild von den Turing Features zu machen.

Was ist DLSS und was macht es?

Da ich hier keinen wissenschaftlichen Artikel verfassen will, versuche ich die Funktionsweise so einfach wie möglich zu erklären. DLSS soll mit Hilfe künstlicher Intelligenz eine höhere Framerate in grafisch anspruchsvollen Spielen gewährleisten, ohne dabei die Bildqualität zu verringern. Dazu hat man Supercomputern in einem sehr aufwendigen Verfahren beigebracht, wie ein Spiel „perfekt“, also ohne erkennbare Pixel-Treppchen (dem sogenannten Aliasing), aussehen würde. Startet der User nun ein Spiel auf seinem Computer und aktiviert DLSS, wird das Spiel in einer geringeren Auflösung als der des Monitors gerendert, wodurch eine signifikante Steigerung der Framerate erzielt werden kann.

Durch die verminderte Anzahl an Pixeln gehen allerdings viele Bildinformationen verloren. Hier kommen nun die Turing-exklusiven Tensor Kerne zum Einsatz, die das gerenderte Bild mit dem im neuronalen Netzwerk gespeicherten „perfekten“ Bild abgleichen. Vor der Ausgabe werden schließlich gezielt Bildinformationen in Form von Pixeln zum gerenderten Frame hinzufügt, um den entstandenen Qualitätsverlust wieder zu korrigieren und ihn in der nativen Auflösung des Monitors auszugeben.

Da das sogenannte „Training“ des neuronalen Netzwerks sehr aufwendig war und für jedes Spiel und jede Auflösung separat durchgeführt werden musste, kam die Technik aus zeitlichen Gründen nur bei wenigen Spielen zum Einsatz und führte trotzdem häufig nicht zur gewünschten Bildqualität. Um den Aufwand zu senken hat NVIDIA bei DLSS 2.0 eine universelle Lösung erschaffen, bei der das neuronale Netz nicht mehr für jedes Spiel exklusiv trainiert werden muss. Außerdem soll der verbesserte Algorithmus auch eine deutlich gesteigerte Bildqualität bieten – insbesondere in Bezug auf die Schärfe des finalen Bildes. Wer etwas mehr über den technischen Hintergrund wissen möchte, kann sich auch die beiden Artikel von Igor mal zu Gemüte führen: 

 

DLSS 1.0

Um zu sehen, wie sich DLSS entwickelt hat, muss man zunächst natürlich einige Beispiele der ursprünglichen Implementierung betrachten. Mir kam als erstes die ungenügende Umsetzung in Battlefield V in den Sinn, die bei den ursprünglichen Reviews ja auch in der Luft zerrissen wurde. Als ich die Option dann im Spiel aktivierte, musste ich feststellen, dass die Reduktion der Bildqualität gar nicht mehr so drastisch war, wie es bei den ersten Tests Anfang 2019 noch gezeigt wurde.

 

Anscheinend haben NVIDIA und Dice da schon einige Verbesserungen durchgeführt. Letztlich fällt der Qualitätsverlust aber nach wie vor auf und insbesondere die Unschärfe bei Bewegungen sowie leicht vermatschte Texturen sprangen mir sofort ins Auge. Zudem war der FPS-Zuwachs durch DLSS bei Battlefield V von allen getesteten Spielen am geringsten. Hier zum Anklicken nochmal die Vollbilder:

 

Etwas gravierender ist der Qualitätsverlust bei Monster Hunter World, wo man den Fokus scheinbar eher auf die Implementierung von DX12 gelegt hat, statt Verbesserungen an der DLSS Umsetzung vorzunehmen. Auch hier fällt wieder die Unschärfe bei Bewegungen auf und zusätzlich führt die exzessive Nachschärfung noch zu Artefakten, wie man am Gesicht des Protagonisten gut erkennen kann. Der FPS-Zuwachs von über 30% macht das Spiel allerdings deutlich geschmeidiger.

 

Auch hier noch einmal die Vollbilder zum Vergrößern:

 

Das Paradebeispiel für eine schlechte Umsetzung lieferte mir schließlich Anthem, wo zur Unschärfe und den Artefakten durch eine übertriebene Nachschärfung auch noch ein unglaubwürdiger Glanz hinzugefügt wird. Bei den anderen beiden Spielen war die leichte Unschärfe ja schon anstrengend für die Augen, aber Anthem könnte ich mit DLSS gar nicht spielen, ohne nach kurzer Zeit Kopfschmerzen zu bekommen – und in dem Fall würde es nicht mal am miserablen Content liegen.

 

Das Ganze natürlich auch hier noch einmal in Groß:

 

Genau ab hier kann es eigentlich nur noch besser werden! Deshalb bitte umblättern!

Werbung

Werbung