Grafikkarten News Software

DLSS 4 mit Transformer-Modell: NVIDIA reißt die alte Architektur ein – und baut sich einen neuen Thron

Von CNN zu Transformer – NVIDIA krempelt sein Deep Learning Super Sampling (DLSS) radikal um. Was klingt wie ein Buzzword-Massaker, entpuppt sich bei näherer Betrachtung als ernstzunehmender Technologiesprung. Ein Kommentar zwischen technischer Faszination und strategischer Weitsicht.

Alte Schule raus, neue Klasse rein – warum CNNs jetzt ausgedient haben

Was haben klassische Convolutional Neural Networks (CNNs) und ein Ziegelstein gemeinsam? Beide sind stabil, zuverlässig – aber unfassbar schwerfällig. Im Fall von DLSS bedeutete das: akzeptable Bildqualität, aber ein ewiger Balanceakt zwischen Performance, Ghosting und Artefakten. NVIDIA zieht nun die Reißleine – und ersetzt das Ganze durch ein Transformer-Modell. Ja, genau das architektonische Grundgerüst, das auch hinter ChatGPT oder Midjourney steckt. Der große Unterschied? Während CNNs lokal denken – also Pixel für Pixel abklappern wie ein Buchhalter beim Steuerbescheid – agiert der Transformer wie ein literarischer Lektor: Er versteht den Kontext. Er weiß, welcher Pixel wichtig ist, welcher redundant. Und das nicht nur in einem Frame, sondern über mehrere hinweg. Klingt nach Magie? Ist es auch – wenn genug Rechenleistung vorhanden ist.

Source: TechPowerUP

Der Preis des Fortschritts: Vierfache Last, doppelte Parameter, massive Sprünge

NVIDIA spricht von einem 4-fachen Rechenaufwand gegenüber dem alten DLSS-Ansatz. Klingt erst mal nach Wahnsinn – ist aber relativierbar: Mit FP8-Optimierungen, Tensor Core-Beschleunigung und architektureller Alchemie auf Blackwell-Basis lässt sich das bändigen. Die Transformer-Variante nutzt doppelt so viele Parameter wie der CNN-Vorgänger – ein massiver Zuwachs an Komplexität, der sich aber offenbar auszahlt: Ray Reconstruction wird deutlich klarer, Kanten sind messerscharf, Ghosting ist (fast) Geschichte. Wenn’s denn so läuft wie versprochen.

Kompatibilität mit Hintergedanken: Die alte RTX lebt

Ein fast schon diplomatischer Schachzug: DLSS Transformer funktioniert ab Turing – also RTX 2000 aufwärts. Das bedeutet: Auch Besitzer älterer Karten bekommen ein Upgrade – zumindest bei Super Resolution und DLAA. Nur bei der Multi-Frame-Generation zieht NVIDIA eine klare Linie: RTX 5000 only. Ein Schelm, wer Böses denkt – oder einfach ein Analyst mit Marktverständnis.

Realität versus Marketing – wo das neue DLSS strauchelt

Reddit, Tech-Presse und Foren-Nerds sind sich einig: Es gibt Fortschritte – aber auch Probleme. Ghosting wurde reduziert, aber nicht eliminiert. Artefakte? Immer noch da. Der sogenannte „Dissoclusion“-Effekt bei sich schnell bewegenden Objekten bleibt ein Thema. Und bei VRAM-intensiven Szenen zeigt sich: Der Transformer ist zwar schlau, aber auch hungrig. NVIDIA hält sich mit echten Zahlen zurück – vermutlich nicht ganz ohne Grund.

Source: Github

NVIDIA’s Langzeitspiel: Ein strategisches Machtmanöver

Man darf den Move nicht isoliert betrachten. DLSS Transformer ist Teil einer größeren Taktik:

  • Marktsicherung: Wer keine Tensor Cores hat, kann einpacken.
  • Ökosystembindung: DLSS ist mittlerweile in über 125 Spielen – ein Monopol mit Komfortzone.
  • Innovation mit Lock-In: Alte GPUs bleiben relevant – aber nur eingeschränkt. Wer mehr will, muss zahlen.
  • Technologische Dominanz: AMDs FSR 3.1? Technisch solide, aber gegen Transformer-DLSS wirkt das wie ein Taschenrechner gegen einen Taschencomputer.

Transformer-DLSS – ein zweischneidiges Schwert mit goldener Klinge

Was NVIDIA hier liefert, ist technisch beeindruckend, strategisch clever – und gleichzeitig ein kleiner Schachzug mit Nebenwirkungen. Das Transformer-Modell hebt DLSS auf ein neues Level, keine Frage. Aber der Preis ist hoch: Rechenlast, Komplexität und eine gewisse Intransparenz bei Problemen. Die Marketingabteilung jubiliert, die Technik-Fraktion runzelt noch die Stirn – und der Verbraucher? Der merkt: Es geht voran. Nur nicht ganz ohne Haken.

Source: Videocardz

Kommentar

Lade neue Kommentare

c
cunhell

Urgestein

708 Kommentare 756 Likes

VRAM wird immer wichtiger ( RT und das neue DLSS ) und Nvidia knausert damit.
Man kann es dann zwar auf den alten Karten aktivieren, aber wegen VRAM-Mangels macht es da keinen Spass.

Also wird doch neu gekauft.

Cunhell

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,129 Kommentare 528 Likes

Das entspricht doch auch dem Marketing. Also nach Nvidia gleich am besten gleich die aktuelle X090 kaufen, dann hat man auch 1-2 Jahre Ruhe.

Antwort Gefällt mir

O
Oberst

Veteran

382 Kommentare 174 Likes

Wieso wird denn DLSS4 gegen FSR3.1 gestellt, wenn FSR4 für AMD so ein großer Schritt war? Noch vor RDNA4 hieß es, FSR4 Quality würde gegen DLSS4 Performance laufen, davon ist jetzt keine Rede mehr. Meist ist der Vorsprung von DLSS4 vor FSR4 marginal, klare Vorteile für DLSS eher selten. Insofern klingt der Text eher als NVidia Werbetext, denn als objektiver Artikel.

Antwort 6 Likes

Y
Yumiko

Urgestein

1,129 Kommentare 528 Likes

Zumal man bei FSR 3.1 Unterstützung auch FSR4 injekten kann. FSR ist frei, prinzipiell kann sich jeder sein eigenes bauen und auf seine Hardware optimieren, wie es die Firmen auch machen (Intel-Gpus, Nvidia-Gpus, Switch, iPhones, Android-Phones,...).

Antwort 1 Like

grimm

Urgestein

3,572 Kommentare 2,619 Likes

Das ist sowieso kompletter Bums! Diese ganze Marketing-Zweitverwertung - ja, das Transformer-Modell kann auf dem Papier ganz viel. Aber der ganze KI generierte Grafikbrei steht und fällt mit den Basis (=Raster) Frames. Und die sind bei dem neuen Modell und MFG nochmal wichtiger. Wenn ich nicht mindestens 50+ (eher 60) FPS per Rastergrafik gerendert kriege, sieht das KI Ergebnis mit egal welchem Modell shice aus.
Und was mich noch mehr nervt: DLSS wurde jahrelang über den grünen Klee gelobt, wird hier aber nur noch als "akzeptable Bildqualität" (es war mal mehr als nur akzeptabel und manchmal wirklich Mist) gelabelt.

Antwort 2 Likes

c
cunhell

Urgestein

708 Kommentare 756 Likes

Was erwartest Du denn. Der Artikel ist eine doppelte Zweitverwertung. Zu erst die Wiederverwertung des Nvidia-Hochglanzartikels von "videocardz" und dann hier die Wiederverwertung von dem Videocardz-Artikel.
Und die KI interpretiert halt die Daten, die sie bekommt so, wie sie meint so müssten sie sein.
Ob die Interpretation richtig ist, steht auf einem ganz anderen Blatt.

Irgendwann kommen wir dann zu dem Punkt, an dem die Spieleprogrammierer nur noch sagen, mal mir das oder jenes und die KI malt das, was sie meint, das am Besten passt.

Anm.: Ich kann KI oder AI nicht mehr hören. Alles ist nur noch KI oder AI. Ich warte noch drauf, dass ich Toilettenpapier zu kaufen kriege, dass mit KI designed wurde.
Früher wurde Gehirnschmalz investiert um ein bestmögliches Ergebnis zu bekommen. Jetzt wird irgendwas hingeklatscht und die KI soll es dann gerade ziehen damit man es irgendwie nutzen kann.

Das die Hardware-Hersteller, allen voran Nvidia, das forcieren, ist doch logisch. Damit füllen die ihre Kassen auf.

Aber ich bin vermutlich einfach zu alt für den ganzen Klumpatsch.

Cunhell

Antwort 3 Likes

Y
Yumiko

Urgestein

1,129 Kommentare 528 Likes

Also ich habe Upscaling generell nie gelobt :p
Wenn man nur Bewegungsunschärfe, Flimmern und Artefakte sieht (was man bei den überall abgebildeten "Vergleichen" von Standbildern eben nicht sieht) sollte man verstehen, das es (primär) eine Notlösung ist (olle Hardware noch ein bisschen laufen zu lassen oder die Framerate in brenzligen Situationen stabil zu halten).
Besonders perfide ist es doch, das bei Nvidias gepämperten Vorzeigespiel Cyberpunk bei Bewegung nicht mal die Texte lesbar sind.
"Besser als nativ 1!11" - DAS sind typische gesteuerte Rezensionen (um mal ein kürzliches Thema aufzunehmen).
"Akzeptable Bildqualität" entspricht eher der Realität - und je nach Qualitäts-Einstellung, Generation und Spiel merkt man es mehr oder fast gar nicht.
Wenn es bei einer neu gekauften GraKa aber wegen geringer Rasterleistung Pflicht ist, sollte man das Geld für eine Neue nächstes Jahr gleich zur Seite legen.

Rein technisch finde ich den Ansatz natürlich spannend - es kann für den Nvidia-Kunden aber natürlich zu mehr teurem und kaum gebrauchten spezialisierten Silizium zur Beschleunigung auf dem Chip führen.

Antwort Gefällt mir

D
Daniel#

Veteran

308 Kommentare 112 Likes

500mb weniger VRAM Bedarf. Das ist die eigentliche Neuerung in diesem Update.
Insgesamt zwar immer noch etwas mehr als mit CNN aber nur für ein Software Update ordentlich.
Das FSR4 SDK ist derweil immer noch nicht veröffentlicht, vermutlich irgendwann Q3.

Antwort Gefällt mir

c
cunhell

Urgestein

708 Kommentare 756 Likes

Es geht hier aber um DLSS 4 mit Transformer-Modell.
Zitat:
Und bei VRAM-intensiven Szenen zeigt sich: Der Transformer ist zwar schlau, aber auch hungrig. NVIDIA hält sich mit echten Zahlen zurück – vermutlich nicht ganz ohne Grund.

Cunhell

Antwort Gefällt mir

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Also meine 4090 ist 2,5 Jahren alt und noch immer mit Abstand die 2. Schnellste Karte oder was meinst du?

Antwort 1 Like

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Unsinn steht alles in den dlss whitepapers, vram bedarf bei transformer wurde reduziert

Antwort Gefällt mir

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Oje da hat wer den Unterschied zwischen upscaling und FG nicht verstanden, hauptsache mal einen Nvidia hate ablassen

Antwort 2 Likes

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Nö fsr4 ist nicht mehr frei bzw gibt's nicht Mal das SDK dazu

Antwort 1 Like

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Dlss4 ist in niedrigen auflösungen bzw aggressivere upscalings schon noch viel besser gegenüber fsr4, selbst in 1080p gut nutzbar. Einfach hwu dlss4 Video ansehen

Antwort Gefällt mir

D
Daniel#

Veteran

308 Kommentare 112 Likes

Nvidia hält sich nicht zurück. Es wird nur nicht vernünftig recherchiert. Journalismus in 2025...
Bei Computerbase wurde das auch erst entdeckt als ich es im Forum gepostet hatte.
Hier die DLSS Bibliothek allein ohne Spiel:

View image at the forums

Und das bereits gepostete Video in Flight Simulator zeigt 500 MB weniger als mit 310.2.1

Antwort Gefällt mir

c
cunhell

Urgestein

708 Kommentare 756 Likes

Und was interessiert die Größe der Bibliothek, wenn es um den VRAM-Verbrauch geht?
Ausserdem wird in dem Video wohl nur die Verbesserung des Updates dargestellt nicht aber der Vergleich zwischen CNN und Transformer.

Cunhell

Antwort Gefällt mir

Ifalna

Urgestein

656 Kommentare 580 Likes

Also bei meiner 3080 12GB ist nie der VRAM das Problem sondern die Processing power.
Der Chip hat einfach nicht genug Dampf auf 4K, vor allem wenn RT involviert ist.

Wuthering Waves mit RT fällt selbst mit DLSS Balanced regelmäßig unter die 60FPS Marke.

Antwort Gefällt mir

c
cunhell

Urgestein

708 Kommentare 756 Likes

12GB sind aber nicht 8GB die Nvidia verbaut und verbaut hat.

Antwort Gefällt mir

Ifalna

Urgestein

656 Kommentare 580 Likes

Das 8GB Karten heutzutage "Waste of Sand" sind, sollte hinlänglich bekannt sein. :'D

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Als gelernter Elektroinstallateur ist er quasi auch der Strippenzieher hinter den elektrisierenden News. Learning by doing und die Neugier in Person.

Werbung

Werbung