GPUs Latest news Software

DLSS 4 with Transformer model: NVIDIA tears down the old architecture – and builds itself a new throne

From CNN to Transformer – NVIDIA is radically revamping its Deep Learning Super Sampling (DLSS). What sounds like a buzzword massacre turns out to be a serious technological leap on closer inspection. A commentary between technical fascination and strategic foresight.

Old school out, new class in – why CNNs are now obsolete

What do classic Convolutional Neural Networks (CNNs) and a brick have in common? Both are stable, reliable – but incredibly cumbersome. In the case of DLSS, this meant: acceptable image quality, but an eternal balancing act between performance, ghosting and artifacts. NVIDIA is now pulling the ripcord – and replacing the whole thing with a Transformer model. Yes, exactly the same architectural framework that is behind ChatGPT or Midjourney. The big difference? While CNNs think locally – i.e. rattling off pixel by pixel like an accountant doing a tax assessment – the Transformer acts like a literary editor: it understands the context. It knows which pixel is important and which is redundant. And not just in one frame, but across several. Sounds like magic? It is – if enough computing power is available.

Source: TechPowerUP

The price of progress: quadruple the load, double the parameters, massive jumps

NVIDIA speaks of four times the computing effort compared to the old DLSS approach. Sounds like madness at first – but it can be put into perspective: With FP8 optimizations, Tensor Core acceleration and Blackwell-based architectural alchemy, this can be tamed. The Transformer version uses twice as many parameters as its CNN predecessor – a massive increase in complexity, but one that obviously pays off: Ray reconstruction is much clearer, edges are razor-sharp, ghosting is (almost) history. If it works as promised.

Compatibility with an ulterior motive: the old RTX lives on

An almost diplomatic move: DLSS Transformer works from Turing – i.e. RTX 2000 upwards. This means that owners of older cards will also get an upgrade – at least for Super Resolution and DLAA. Only with the multi-frame generation does NVIDIA draw a clear line: RTX 5000 only. A rogue who thinks evil – or simply an analyst with an understanding of the market.

Reality versus marketing – where the new DLSS stumbles

Reddit, the tech press and forum nerds agree: there has been progress – but there are also problems. Ghosting has been reduced, but not eliminated. Artifacts? Still there. The so-called “dissoclusion” effect with fast-moving objects remains an issue. And VRAM-intensive scenes show that the Transformer is smart, but also hungry. NVIDIA is holding back with real figures – probably not without good reason.

Source: Github

NVIDIA’s long-term game: A strategic power maneuver

You can’t look at the move in isolation. DLSS Transformer is part of a larger tactic:

  • Market protection: if you don’t have tensor cores, you can pack it in.
  • Ecosystem lock-in: DLSS is now in over 125 games – a monopoly with a comfort zone.
  • Innovation with lock-in: Old GPUs remain relevant – but only to a limited extent. If you want more, you have to pay.
  • Technological dominance: AMD’s FSR 3.1? Technically solid, but against Transformer-DLSS it looks like a pocket calculator against a pocket computer.

Transformer DLSS – a double-edged sword with a golden blade

What NVIDIA is delivering here is technically impressive, strategically clever – and at the same time a small move with side effects. The Transformer model takes DLSS to a new level, no question about it. But the price is high: computing load, complexity and a certain lack of transparency in the event of problems. The marketing department is jubilant, the technology faction is still frowning – and the consumer? They realize that progress is being made. But not entirely without hitches.

Source: Videocardz

Kommentar

Lade neue Kommentare

c
cunhell

Urgestein

700 Kommentare 748 Likes

VRAM wird immer wichtiger ( RT und das neue DLSS ) und Nvidia knausert damit.
Man kann es dann zwar auf den alten Karten aktivieren, aber wegen VRAM-Mangels macht es da keinen Spass.

Also wird doch neu gekauft.

Cunhell

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,127 Kommentare 524 Likes

Das entspricht doch auch dem Marketing. Also nach Nvidia gleich am besten gleich die aktuelle X090 kaufen, dann hat man auch 1-2 Jahre Ruhe.

Antwort Gefällt mir

O
Oberst

Veteran

381 Kommentare 174 Likes

Wieso wird denn DLSS4 gegen FSR3.1 gestellt, wenn FSR4 für AMD so ein großer Schritt war? Noch vor RDNA4 hieß es, FSR4 Quality würde gegen DLSS4 Performance laufen, davon ist jetzt keine Rede mehr. Meist ist der Vorsprung von DLSS4 vor FSR4 marginal, klare Vorteile für DLSS eher selten. Insofern klingt der Text eher als NVidia Werbetext, denn als objektiver Artikel.

Antwort 6 Likes

Y
Yumiko

Urgestein

1,127 Kommentare 524 Likes

Zumal man bei FSR 3.1 Unterstützung auch FSR4 injekten kann. FSR ist frei, prinzipiell kann sich jeder sein eigenes bauen und auf seine Hardware optimieren, wie es die Firmen auch machen (Intel-Gpus, Nvidia-Gpus, Switch, iPhones, Android-Phones,...).

Antwort 1 Like

grimm

Urgestein

3,572 Kommentare 2,618 Likes

Das ist sowieso kompletter Bums! Diese ganze Marketing-Zweitverwertung - ja, das Transformer-Modell kann auf dem Papier ganz viel. Aber der ganze KI generierte Grafikbrei steht und fällt mit den Basis (=Raster) Frames. Und die sind bei dem neuen Modell und MFG nochmal wichtiger. Wenn ich nicht mindestens 50+ (eher 60) FPS per Rastergrafik gerendert kriege, sieht das KI Ergebnis mit egal welchem Modell shice aus.
Und was mich noch mehr nervt: DLSS wurde jahrelang über den grünen Klee gelobt, wird hier aber nur noch als "akzeptable Bildqualität" (es war mal mehr als nur akzeptabel und manchmal wirklich Mist) gelabelt.

Antwort 2 Likes

c
cunhell

Urgestein

700 Kommentare 748 Likes

Was erwartest Du denn. Der Artikel ist eine doppelte Zweitverwertung. Zu erst die Wiederverwertung des Nvidia-Hochglanzartikels von "videocardz" und dann hier die Wiederverwertung von dem Videocardz-Artikel.
Und die KI interpretiert halt die Daten, die sie bekommt so, wie sie meint so müssten sie sein.
Ob die Interpretation richtig ist, steht auf einem ganz anderen Blatt.

Irgendwann kommen wir dann zu dem Punkt, an dem die Spieleprogrammierer nur noch sagen, mal mir das oder jenes und die KI malt das, was sie meint, das am Besten passt.

Anm.: Ich kann KI oder AI nicht mehr hören. Alles ist nur noch KI oder AI. Ich warte noch drauf, dass ich Toilettenpapier zu kaufen kriege, dass mit KI designed wurde.
Früher wurde Gehirnschmalz investiert um ein bestmögliches Ergebnis zu bekommen. Jetzt wird irgendwas hingeklatscht und die KI soll es dann gerade ziehen damit man es irgendwie nutzen kann.

Das die Hardware-Hersteller, allen voran Nvidia, das forcieren, ist doch logisch. Damit füllen die ihre Kassen auf.

Aber ich bin vermutlich einfach zu alt für den ganzen Klumpatsch.

Cunhell

Antwort 3 Likes

Y
Yumiko

Urgestein

1,127 Kommentare 524 Likes

Also ich habe Upscaling generell nie gelobt :p
Wenn man nur Bewegungsunschärfe, Flimmern und Artefakte sieht (was man bei den überall abgebildeten "Vergleichen" von Standbildern eben nicht sieht) sollte man verstehen, das es (primär) eine Notlösung ist (olle Hardware noch ein bisschen laufen zu lassen oder die Framerate in brenzligen Situationen stabil zu halten).
Besonders perfide ist es doch, das bei Nvidias gepämperten Vorzeigespiel Cyberpunk bei Bewegung nicht mal die Texte lesbar sind.
"Besser als nativ 1!11" - DAS sind typische gesteuerte Rezensionen (um mal ein kürzliches Thema aufzunehmen).
"Akzeptable Bildqualität" entspricht eher der Realität - und je nach Qualitäts-Einstellung, Generation und Spiel merkt man es mehr oder fast gar nicht.
Wenn es bei einer neu gekauften GraKa aber wegen geringer Rasterleistung Pflicht ist, sollte man das Geld für eine Neue nächstes Jahr gleich zur Seite legen.

Rein technisch finde ich den Ansatz natürlich spannend - es kann für den Nvidia-Kunden aber natürlich zu mehr teurem und kaum gebrauchten spezialisierten Silizium zur Beschleunigung auf dem Chip führen.

Antwort Gefällt mir

D
Daniel#

Veteran

307 Kommentare 112 Likes

500mb weniger VRAM Bedarf. Das ist die eigentliche Neuerung in diesem Update.
Insgesamt zwar immer noch etwas mehr als mit CNN aber nur für ein Software Update ordentlich.
Das FSR4 SDK ist derweil immer noch nicht veröffentlicht, vermutlich irgendwann Q3.

Antwort Gefällt mir

c
cunhell

Urgestein

700 Kommentare 748 Likes

Es geht hier aber um DLSS 4 mit Transformer-Modell.
Zitat:
Und bei VRAM-intensiven Szenen zeigt sich: Der Transformer ist zwar schlau, aber auch hungrig. NVIDIA hält sich mit echten Zahlen zurück – vermutlich nicht ganz ohne Grund.

Cunhell

Antwort Gefällt mir

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Also meine 4090 ist 2,5 Jahren alt und noch immer mit Abstand die 2. Schnellste Karte oder was meinst du?

Antwort 1 Like

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Unsinn steht alles in den dlss whitepapers, vram bedarf bei transformer wurde reduziert

Antwort Gefällt mir

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Oje da hat wer den Unterschied zwischen upscaling und FG nicht verstanden, hauptsache mal einen Nvidia hate ablassen

Antwort 2 Likes

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Nö fsr4 ist nicht mehr frei bzw gibt's nicht Mal das SDK dazu

Antwort 1 Like

T
The_Invisible

Mitglied

25 Kommentare 8 Likes

Dlss4 ist in niedrigen auflösungen bzw aggressivere upscalings schon noch viel besser gegenüber fsr4, selbst in 1080p gut nutzbar. Einfach hwu dlss4 Video ansehen

Antwort Gefällt mir

D
Daniel#

Veteran

307 Kommentare 112 Likes

Nvidia hält sich nicht zurück. Es wird nur nicht vernünftig recherchiert. Journalismus in 2025...
Bei Computerbase wurde das auch erst entdeckt als ich es im Forum gepostet hatte.
Hier die DLSS Bibliothek allein ohne Spiel:

View image at the forums

Und das bereits gepostete Video in Flight Simulator zeigt 500 MB weniger als mit 310.2.1

Antwort Gefällt mir

c
cunhell

Urgestein

700 Kommentare 748 Likes

Und was interessiert die Größe der Bibliothek, wenn es um den VRAM-Verbrauch geht?
Ausserdem wird in dem Video wohl nur die Verbesserung des Updates dargestellt nicht aber der Vergleich zwischen CNN und Transformer.

Cunhell

Antwort Gefällt mir

Ifalna

Urgestein

651 Kommentare 575 Likes

Also bei meiner 3080 12GB ist nie der VRAM das Problem sondern die Processing power.
Der Chip hat einfach nicht genug Dampf auf 4K, vor allem wenn RT involviert ist.

Wuthering Waves mit RT fällt selbst mit DLSS Balanced regelmäßig unter die 60FPS Marke.

Antwort Gefällt mir

c
cunhell

Urgestein

700 Kommentare 748 Likes

12GB sind aber nicht 8GB die Nvidia verbaut und verbaut hat.

Antwort Gefällt mir

Ifalna

Urgestein

651 Kommentare 575 Likes

Das 8GB Karten heutzutage "Waste of Sand" sind, sollte hinlänglich bekannt sein. :'D

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

As a trained electrician, he's also the man behind the electrifying news. Learning by doing and curiosity personified.

Werbung

Werbung