AI/KI Grafikkarten News Software

NVIDIA Optimiert DLSS Frame Generation für RTX 40 GPUs: Weniger VRAM-Verbrauch und Höhere Leistung

NVIDIA hat offiziell eine aktualisierte Version der DLSS Frame Generation für die GeForce RTX 40 Serie angekündigt. Diese Optimierung führt zu einem geringeren VRAM-Verbrauch und verbessert die Gesamtleistung. Ursprünglich mit DLSS 3.0 eingeführt, wurde die Frame Generation stetig weiterentwickelt und erreicht mit der neuesten Version einen neuen Effizienzgrad.

Optimierte Frame Generation für RTX 40 GPUs

Die Frame Generation-Technologie dient dazu, zusätzliche Frames mithilfe von KI-gestützter Berechnung zu erzeugen und so ein flüssigeres Spielerlebnis zu bieten. NVIDIA hat diese Technologie nun für die RTX 40 Serie verbessert. Jacob Freeman von NVIDIA bestätigte, dass sowohl die RTX 40 als auch die RTX 50 Serie von der neuen Generation der Frame Generation-Technologie profitieren werden. Dabei kommt ein optimiertes KI-Modell zum Einsatz, das für geringere Latenzzeiten, bessere Leistung und reduzierten VRAM-Verbrauch sorgt.

In einem Beispiel zeigte Freeman, dass die neue DLSS-Version nicht nur die Bildrate leicht verbessert, sondern auch etwa 400 MB weniger VRAM beansprucht. Diese Einsparung mag gering erscheinen, könnte jedoch insbesondere bei Grafikkarten mit 8 GB VRAM signifikante Vorteile bieten. Durch die Entlastung des Videospeichers bleiben mehr Ressourcen für hochauflösende Texturen, Mods und andere spielspezifische Inhalte.

Erweiterte Funktionen mit DLSS 4.0

Mit DLSS 4.0 führt NVIDIA weitere Verbesserungen ein, darunter Enhanced Ray Reconstruction, Super Resolution und DLAA (Deep Learning Anti-Aliasing). Während DLAA aktuell in der Beta-Phase ist und GPUs von der RTX 20 bis zur RTX 50 Serie unterstützt, bleibt die Frame Generation weiterhin den RTX 40 und RTX 50 GPUs vorbehalten. Allerdings erhält die RTX 40 Serie nicht das neue Multi-Frame Generation-Feature der RTX 50 Serie.

Ein kritischer Punkt bleibt die Eingabelatenz. Die Einführung von DLSS 3.0 brachte eine spürbare Erhöhung der Latenz durch die Frame Generation mit sich. NVIDIA verspricht jedoch, dass DLSS 4.0 diese Latenz reduziert, obwohl die Berechnung zusätzlicher Frames naturgemäß mehr Zeit benötigt. Laut NVIDIA gibt es im direkten Vergleich zwischen DLSS 2.0, 3.5 und 4.0 kaum Unterschiede bei der Latenz. Diese Beobachtung wirft Fragen auf, insbesondere da Reflex bei DLSS 2.0 offenbar deaktiviert war, während es bei DLSS 3.5 und 4.0 obligatorisch ist.

Mit der neuen Version der DLSS Frame Generation bringt NVIDIA spürbare Verbesserungen für Nutzer der RTX 40 Serie. Der geringere VRAM-Verbrauch könnte insbesondere Spielern mit kleineren Speicherausstattungen zugutekommen. Dennoch bleibt abzuwarten, ob die versprochene Reduzierung der Latenz in der Praxis hält, was NVIDIA ankündigt. Insbesondere bei kompetitiven Spielen dürfte dies ein entscheidender Faktor sein. NVIDIA setzt mit der Weiterentwicklung von DLSS den Fokus klar auf Effizienzsteigerung und bessere Ressourcennutzung, was die RTX 40 Serie auch in Zukunft attraktiv halten dürfte.

Source: Jacob Freeman via X

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

2,201 Kommentare 1,405 Likes

Wenn man jetzt etwas bissig sein will, kann man spekulieren, daß Nvidia hier auch auf die doch ordentliche Leistung der B580 reagiert. Weniger VRAM brauchen wird v.a. der 4060 (und 5060?) zugute kommen, also den am meisten beschnittenen Karten. Gerade bei der 4060 lag es wohl v.a. an zu wenig RAM und zu engem Bus, daß sich die B580 in einigen Spielen in 1440p vor der 4060 platzieren konnte.

Antwort 2 Likes

C
Cerealiensalat

Neuling

3 Kommentare 1 Likes

In competitive Spielen nutze ich mit meiner 4090 höchstens DLSS mit low latency Modus, besser sogar ohne Dlss wenn möglich. Frame Generation ist einfach spürbar zu langsam, genauso wie Freesync. Echtes Gsync geht gerade noch so, aber selbst hier ist Nativ wenn möglich vorzuziehen.
Und vergleichen lässt sich das mit anderen Usern meistens nicht, da jeder andere Einstellungen nutzt. Ob in Spielen, Windows und Uefi etc. noch so einige Einstellungen Einfluß auf die Wahrnehmung in der Wiedergabe haben. Von Nvidia Resizable Bar, Hpet, GPU Beschleuniger, Nvidia Settings, ingame settings, Fps Limiter, DPI hoch oder niedrig bei Mauseinstellungen, Kabellos oder wireless, Hintergrund Anwendungen wie Overlays bis hin zu Monitoreinstellungen und Spezifikationen wie Hz, Latenzzeiten, Panel Variante etc..
Und die meisten merken nicht einmal wenn im Hintergrund Windows Updates geladen werden, MSStore loslegt oder unnötige Virenscanner etc. Performance ziehen.
Ich feier immer noch meinen Kollegen, der auf einer 4090 mit altem TV und seinen angeblich tausenden von Herz conpetitive spielt und sich über D-sync aufregt.
Ich bin dennoch gespannt, ob DLSS mit neuer Frame Generation Version endlich nutzbar wird für competitive. Im Detail haben die sich ja wirklich einiges einfallen lassen.

Antwort Gefällt mir

Finnschi001

Mitglied

39 Kommentare 10 Likes

Ich verliere leider komplett den Faden was du uns damit sagen möchtest.
Was hat FG mit freesync oder gsync zu tun? Und was bitte meinst du mit nativ?

Antwort 1 Like

Homerclon

Veteran

115 Kommentare 64 Likes

Die 4060 rettet auch diese Optimierung nicht, 8GB sind auch in 1080p immer öfter zu wenig.
Selbst unter der Annahme, das NVIDIA die Texturkomprimierung für die RTX 50er noch weiter verbessern konnte, also nochmal etwas weniger Speicher benötigt als die RTX 40er, wären 8GB dennoch zu wenig - die Speicheranforderung wird auch weiter steigen, nicht stagnieren oder gar sinken.
Die 5060 müsste mit mind. 10GB kommen, besser 12GB, aber NVIDIA wird sicherlich an 8GB festhalten.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

2,201 Kommentare 1,405 Likes

Die 10 GB VRAM wären ein Nvidia-typischer (fauler) Kompromiss für ihr 5000 Einstiegsmodell 😁. Immer noch zu wenig, aber so kann man nicht mehr sagen, es hätte sich ja nichts getan von der 4060.
Es ist aber auch interessant, daß Nvidia sich bis jetzt bei den Specs der 5060 sehr bedeckt hält. Die werden wohl abwarten, was AMDs RDNA4 Karten so können und wo die UVPs dafür landen. Und ich würde mich wundern, wenn nicht ein paar B580 bei Nvidia durch Tests und Labors gejagt werden bzw bereits wurden. Genau abschätzen zu können, wo die Konkurrenz ist, gehört mit zu den Stärken von Team Green.

Antwort 2 Likes

feris

Mitglied

64 Kommentare 41 Likes

Für mich wirft Jennsen hier nur eine weitere Feature-Nebelkerze nach der nächsten.
Er möchte nur die Sicht darauf vernebeln, dass die Rohleistung der 5000er eigentlich nur unwesentlich gegenüber der 4000er steigt.
Die 5090 macht es halt mit der Brechstange über mehr Shader.

Duell Zuwachs Shader Zuwachs im Benchmark*
RTX 5090 vs. RTX 4090 +33 Prozent ~ +33 Prozent
RTX 5080 vs. RTX 4080 +11 Prozent ~ +15 Prozent
RTX 5070 Ti vs. RTX 4070 Ti +17 Prozent ~ +20 Prozent
RTX 5070 vs. RTX 4070 +4 Prozent ~ +20 Prozent
* Schätzung auf Basis der von Nvidia präsentierten Benchmarks in RE 4 und Horizon FW

Quelle: Computerbase
Für mich rein vom Rohleistungssprung die unattraktivste Serie seit langem.
KI Features hier und da müssen erst einmal in der breiten Spielewelt ankommen, das kann dauern.
Richtig nach vorn geht es hoffentlich mit neuen Fertigungsnode und RTX 6000.

Antwort Gefällt mir

Klicke zum Ausklappem
8j0ern

Urgestein

3,398 Kommentare 1,073 Likes

Dito, beide Lösungen tun was sie sollen.

Freesync ist Nvidias Tor zu VRR (nicht nur Tearing vermeiden) !

Antwort Gefällt mir

Widukind

Mitglied

41 Kommentare 8 Likes

View image at the forums

Bei 30% mehr Effizienz nur 400MB Einsparung? Müssten das bei einer 8GB VRAM nicht 2.600 MB sein? 👼

Habe diese "400MB" nun schon in mehreren Artikeln gelesen.

Antwort Gefällt mir

Martin Gut

Urgestein

8,494 Kommentare 4,108 Likes

Die Frage ist, wovon 30%. Ich vermute, es ist gemeint, dass das optimierte KI-Modell 30 % weniger Platz braucht als bisher. Das KI-Modell braucht ja nicht den ganzen VRAM sondern nur einen Teil davon.

Wenn es nur 400 MB Unterschied ausmacht, rettet das eine Karte mit zu wenig RAM aber auch nicht mehr.

Antwort Gefällt mir

Widukind

Mitglied

41 Kommentare 8 Likes

@Martin Gut
Ja das würde mich genau interessieren. Man sieht ja schon, dass Nvidia und AMD den VRAM völlig anders nutzen.

Selbst bei einem Setting, wo VRAM mehr als ausreichend zur Verfügung steht, zieht AMD mehr Daten in den Speicher und Nvidia weniger.

4K Ultra TAA: beide Grafikkarten mit 24GB VRAM
7900XTX mit dedicated 9.1GB allowcated 13.0GB / rechts RTX 4090 dedicated 5.8GB allowcated 8.4GB

View image at the forums

4K Ultra, TAA: RTX 3070 mit 7.8/8GB vs. rechts RX6800 mit 12.8/16GB

View image at the forums

Was mir auffällt ist, dass bei Nvidia-PCs die CPU stets etwas mehr ausgelastet ist und mehr Daten über den Arbeitsspeicher geschoben wird. Ist bei allen Vergleichen auf YT beobachtbar. In dem Beispiel jeweil R9 5900X -16% vs nur 9% CPU-Auslastung bei dem System mit Radeon-GPU.

Jedenfalls hier leicht bessere Performance der 3070 8GB gegenüber der RX6800 16GB.

Gibt natürlich auch andere Beispiel und i.d.R. ist die RX6800 10% flotter (zumindest in TAA), aber dieses Beispiel ist gut weil die RX6800 12.000MB in den VRAM zieht.

Das sind so Beispiele wo ich immer wieder in Foren lese, oh ja da kannste eine 8GB-Karte vergessen. Oder 16GB sind jetzt Minimum, weshalb eine 4070 12GB gar nicht erst mehr empfohlen wird.

Antwort Gefällt mir

Klicke zum Ausklappem
Martin Gut

Urgestein

8,494 Kommentare 4,108 Likes

Ja, mich auch. Aber ich denke, das ist etwas zu kompliziert und als Nutzer weiss man einfach zu wenig darüber wie solche Grafikkarten genau funktionieren.

Dass die GPUs je nach Hersteller und Kartengeneration unterschiedliche Recheneinheiten für verschiedene Aufgaben haben, ist ja bekannt. Dass die Anzahl der Recheneinheiten und die Menge Grafikkartenspeicher unterschiedlich ist, ist auch klar. Es hat somit jede Karte unterschiedliche Möglichkeiten Programmcode auszuführen.

Auf der anderen Seite hat ein Programmierer die Möglichkeiten über eine Grafikschnittstelle, also eine definierte Programmierschnittstelle wie DX12 oder so zu definieren, was die Grafikkarte darstellen soll.

Dazwischen steht der Grafikkartentreiber der etwa ein halbes GB Programmcode zur Verfügung hat um die gewünschten Aufgaben auszuführen. Der Treiber schaut bei jeder Aufgabe erst, auf welchen Recheneinheiten der GPU diese ausgeführt werden können. Wenn die GPU etwas nicht kann, ist Programmcode vorhanden die Aufgaben auch auf der CPU auszuführen.

Wenn klar ist, wo etwas ausgeführt wird, erstellt die CPU den entsprechenden Programmcode, überträgt diesen zur ausführenden Einheit und schaut, dass die nötigen Daten dort hin kommen.

So läuft das mit jeder auszuführenden Aufgabe. Es ist somit wichtig, welche GPU und CPU vorhanden sind, wie viel Grafikspeicher und RAM zur Verfügung stehen und vor allem wie das der Grafikkartentreiber dann organisiert. Davon hängt dann ab, wie viele Bilder in welcher Qualität heraus kommen und wie stark GPU, CPU und der Speicher genutzt werden. Darum können auch Veränderungen des Treibers sehr viel an der Effizienz einer Grafikkarte verändern. Als Anwender sieht man aber nicht, was da wirklich alles gemacht wurde und was es genau bewirkt. Dafür gibt es ja auch keine technischen Daten die man vergleichen könnte oder anderes, was man für jedermann verständlich erklären könnte. Darum wird das von der Werbeabteilung auch nur ganz grob erwähnt, dass etwas gemacht wurde.

Antwort 1 Like

Klicke zum Ausklappem
Widukind

Mitglied

41 Kommentare 8 Likes

Das sehen wir ja z.B. bei der Unreal Engine.

Man sieht meine Erachtens deutlich, dass bei Nvidia-Karten zumindest ein wenig Arbeit an die CPU abgeben wird. Unter hier auch mehr Arbeitsspeicher benötigt wird. Also tendenziell gesprochen.

Letzen Endes sieht es für mich im Ergebnis so aus, als wenn Nvidia Karten mit deutlich weniger VRAM zu recht kommen.

Die allgemeine Panik mit Blick auf den kleineren VRAM im Vergleich zu AMD sehe ich nicht bestätigt. Mit Ray Tracing und Pathtracing wird es da zwar intensiver, aber dafür gibt es ja DLSS und DLSS + Frame Generation.

Wäre aufjedenfall interessant, wenn wir in den nächsten Tagen und Wochen mehr dazu erfahren, wie sich die 30% bessere DLLS Nutzung tatsächlich auswirkt.

Antwort Gefällt mir

Martin Gut

Urgestein

8,494 Kommentare 4,108 Likes

Das Ziel ist eigentlich umgekehrt, möglichst viel an die GPU abzugeben. Ursprünglich war die CPU für alles zuständig. Dann baute man GPUs mit vielen sehr einfachen, aber dadurch schnellen Recheneinheiten die idiotische Fleissarbeit übernehmen können. Da es so viele sind, sind sie für stupide Rechenarbeit wie jeden Pixel durchrechnen sehr gut geeignet. Die Recheneinheiten einer GPU sind aber nicht fähig, komplexe Programme wie eine CPU auszuführen. Die CPU dagegen hat nur sehr weniger Kerne, dafür ist sie für alle möglichen Aufgaben geeignet. Darum ist das Ziel, die CPU von möglichst vielen einfachen Fleissarbeiten zu entlasten, so dass sie nur noch das macht, was sie unbedingt muss. Beispielsweise kann nur die CPU die ganze Spiellogik durchrechnen, die ganze Grafikkausgabe koordinieren und die Recheneinheiten anweisen was sie tun müssen. Die ganze Koordinationsarbeit bleibt also immer bei der CPU. Es ist eigentlich erst seit wenigen Jahren so, dass viele Games bei einer starken Grafikkarte nicht mehr im CPU-Limit hängen. Bei schlecht optimierten Games kann es aber immer noch so sein, dass immer noch die CPU beschränkt.

Ein Problem ist auch, dass sich die Arbeiten der CPU nur teilweise auf mehrere CPU-Kerne verteilen lassen. So kommt es immer noch teilweise vor, dass ein Hauptprozess nur auf einem Prozessorkern läuft und dieser die Leistung des ganzen Games begrenzt oder zumindest für Ruckler verantwortlich ist. Somit ist eine hohe Singlecoreleistung für Gaming-CPUs immer noch wichtiger als viele Kerne.

Ein einzelner Prozessorkern lässt sich aber nur beschränkt verbessern. Mehr Kerne verbauen und die Grafikkarte schneller machen ist besser machbar. So bleibt das Ziel, möglichst viele Aufgaben an die GPU abzugeben und auf der CPU auf mehr Kerne zu verteilen was möglich ist.

Antwort 1 Like

Klicke zum Ausklappem
Homerclon

Veteran

115 Kommentare 64 Likes

Ob es deutlich weniger ist, darüber ließe sich diskutieren.

So viel spart DLSS jedoch auch nicht ein, ob es ausreicht um die Mehrbelastung durch RT / PT auszugleichen, bin ich mir unsicher - wird auch vom Spiel und der Detailstufe abhängen.
Frame Generation spart allerdings nicht ein, sondern erhöht die Auslastung des Grafikspeichers.
Das FG nicht entlastend wirkt sondern erhöht, sollte eigentlich selbstverständlich sein, wo doch zwei Frames im Speicher gehalten werden müssen, um ein Zwischenbild erstellen zu können - oder mit MFG bis zu 3, und zukünftig wohl noch mehr.
Die Zwischenbilder werden auch nicht sofort ausgegeben und dann gelöscht, denn dann hätte man Mikroruckler und würde von FG nicht nennenswerten profitieren.
Auch wenn NVIDIA den Mehrbedarf an Grafikspeicher mit DLSS4 reduzieren konnte, bleibt ein Mehrbedarf ggü. dem spielen ohne FG. Mit MFG würde mich ein nochmal etwas höherer Bedarf ggü. einfachem FG auch nicht überraschen.

Dazu kommt, das auch die restlichen Effekte, sowie größer und größer werdende Auflösungen immer mehr Grafikspeicher benötigen werden. Die Knausrigkeit des Grafikspeichers sollte man nicht unterstützen.
Jedenfalls würde ich heute keine GraKa mehr mit weniger als 12 GB empfehlen, es sei denn das Budget ist arg begrenzt.

Antwort 1 Like

Klicke zum Ausklappem
Widukind

Mitglied

41 Kommentare 8 Likes

Danke Dir für die Rückmeldung!

Wie siehst Du das mit Blick auf den Vergleich der RX6800 16GB vs RTX3070 8GB oben?

Ja das sehe ich auch so. Das wird zu beobachten sein. Letztendlich hat ja die ersten Tests der 5090 gezeigt, dass zumindest bei aktuellen Titeln wie Alan Wake2/Star Wars Outlaws mit Pathtracing dank Multi Frame Generation in spielebare FPS gerückt wurde.

Antwort Gefällt mir

Widukind

Mitglied

41 Kommentare 8 Likes

Ja, die Taktfrequenz ist nach wie vor sehr wichtig.

Wie siehst Du das Beispiel oben im MSFS, wo die RX6800 deutlich mehr Speicher allokiert als die 3070, dabei nur auf knapp gleiche FPS kommt?

EDIT: Upps.., dachte die Posts werden automatisch zusammengefürht. Sorry für den Doppelpost.

Antwort Gefällt mir

Homerclon

Veteran

115 Kommentare 64 Likes

Ist (so) nicht Vergleichbar, weil:

  1. Wie bereits genannt wurde, haben AMD und NVIDIA ein Unterschiedlichen Ansatz wie der VRAM genutzt wird.
    Auch das Verhalten wenn die VRAM-Auslastung an ihre Grenze kommt, unterscheidet sich.
  2. Wenn mehr RAM verfügbar ist (und die RX hat in diesem Fall gar die doppelte Kapazität), wird in der Regel auch mehr belegt. Das machen AMD und NVIDIA, aber auch hier in unterschiedlichem Umfang.
    Warum sollte man es auch nicht machen? Im besten Fall gewinnt man dadurch ein wenig Leistung, weil Daten bereits vorhanden sind, auf die man sonst warten müsste. Zu Leistungsverlust kann es jedoch nicht kommen, wenn man den Speicher für anderes braucht, löscht & überschreibt man die nur auf Verdacht vorrätig gehaltenen Daten einfach.
    Oder anders ausgedrückt: Ungenutzter RAM, ist verschwendeter RAM.

Einfach nur die VRAM-Auslastung zu Vergleichen, greift daher zu kurz. Es eignet sich als erster Indiz, um jedoch eine verlässliche Aussage treffen zu können, bedarf es weiterer recht umfangreicher Tests.
Man muss bei diesen Tests u.a. auf folgendes Achten: Frametime-Verlauf (einer identisch ablaufenden Szene), und ob es zu optische Abweichungen kommt.
Bei modernen Spielen ist es inzwischen weit verbreitet, das wenn nicht alle Daten in den VRAM passen - oder nicht schnell genug geladen werden konnten -, das diese dynamisch nachgeladen werden. Man hat also keine Ruckler, und somit auch keine niedrigeren FPS, sondern vorübergehend eine schlechtere Grafik. Je nachdem wie viele Daten fehlen, fällt dies entweder (fast) nicht auf, oder aber es springt einem förmlich ins Gesicht.
Texturen und Modelle in einer niedrigen Auflösung, die aber in Bildbereiche sind, die einem nicht auffallen. Das wäre Ideal.
Wenn diese Texturen und Modele jedoch im Nahbereich sind, oder gar ganze Bereiche der Landschaft fehlen und dann unvermittelt vor einem Aufploppen, passen große Mengen der Daten nicht in den Grafikspeicher.
In beiden Fällen können die FPS höher ausfallen, weil eben der Aufwand zur Berechnung niedriger ausfällt. Bei Ersterem könnte es jedoch ein zu geringen Einfluss haben, so das es innerhalb der Messtoleranz liegt - hängt eben davon ab, welche und wie stark die Details dynamisch reduziert wurden.

Antwort 1 Like

Klicke zum Ausklappem
zuchti

Mitglied

65 Kommentare 27 Likes

Also soll ich mein Kollegen sagen mit seine 4060 ist er bald am arsch? er spielt 1440p xD

Antwort 1 Like

Widukind

Mitglied

41 Kommentare 8 Likes

Verstehe, aber das erklärt nicht die schlechtere Performance der RX6800.

Die Frametime sieht man ja oben gut als Linienchart.

Ja das gibt es, ist aber nur bei der Unreal Engine so bekannt.

In dem Beispiel MSFS2022 oben ist es nicht so. Die 3070 8GB performt dort besser.

Das kenne ich von Manor Lords, wenn man ganz rauszoomt und wieder reinzoomt. Allerdings scheint mir das gewollt zu sein.
Edit: Hab's gerade bei YT nachgesehen. Sieht bei der 7900XT 20GB genaus so aus.

Insgesamt sehe ich jedoch keine Hinweis, die auf ein VRAM-Volumen-Problem (zumindest nicht bei Nvidia) hindeuten.

Nvidia selbst hatte ja mal in einer Stellungnahme mitgeteilt, dass aus deren Sicht aktuell 8-12 GB für den Großteil der Spiele mehr als ausreichend seien. Bis auf Spiele die -so die Aussage- schlecht programmiert seien.

Die normale RTX 4060 ist eine Karte für 1080p. Dort macht sie ihren Job gut(mittel bis gut aufgestellt, aber nicht perfekt).

Bei 1440p muss man entsprechend die Grafikeinstellungen runterschrauben. Ist dann eher low end. Aber je nach Spiel (gerade ältere) geht das gut.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung