News AMD kontert mit der Radeon RX 6900XT, 6800X und 6800 Nvidias GeForce RTX 3070, 3080 und 3090

Bei DLSS verknüpft quasi Echtzeitrendering mit Vektorisierung, wie man sie aus dem Bereich der Videoencodierung kennt. Auch hier wird nicht jedes Pixel gespeichert, das wäre RAW und eine Blu-ray würde vielleicht für 15 Minuten Video reichen, sondern ebenfalls geschaut nach Vektoren mit gleichem Inhalt, die einfach nur die Position verändern in einer Szene.

Die Pakete, die die Geforce Experience für das jeweilige Spiel herunterladen muss, sind meines Wissens nach nicht sehr groß, 150-300MB vielleicht? Ich könnte mir vorstellen, dass dort einfach einige Bilder im Vektorformat enthalten sind (siehe auch .svg Dateien), erstellt aus den 16k Bildern, die vorher auf den Nvidia Servern berechnet wurden, welche nun von den Tensor Cores passend in das gerenderte Bild eingefügt werden, inkl. Blickwinkel- und Größenanpassung.
 
....
Und da zwischen CPU und GPU stink normaler PCIe ist, also keine proprietäre Verbindung, die etwas besonderes könnte, wenn man eine andere CPU hat, zudem auch kein neuer Befehlssatz in den CPUs angekündigt wurde, fällt es mir gerade SEHR schwer zu glauben, dass es diese suggerierte Hardwareabhängigkeit gibt. Und auch wenn es sie gibt: Dann werde ich das prinzipiell nicht gut finden.

Neue Befehlssätze sind halt nunmal Hardwareabhängig. zB. MMX2 lief auch auf keiner CPU der Generation vor Einführung.
 
Glaub ich nicht wirklich. So wie das in der Presentation aussah, konnt man die feature einfach ausschalten. Damit weiß man, wie viel % sie jeweils bringen. Das dann einfach auf die Anderen CPUs umlegen.

Um das Maximum raus zu holen wird man aber wohl eine Ryzen 5x00 CPU brauchen :(.

ja, aber aktuell muss man ja zwingend eine intel cpu nehmen um die max leistung zu kriegen. das einzige was ändert, ist der cpu hersteller mit der schnellsten cpu.
und wie du selbst sagst, die ganzen "tricks" kann man deaktivieren. und dann ist der test nicht mehr anders alls bisher.

vergleiche von amd und intel cpus gabs doch schon immer, da ändert sich nichts.
 
Eine klitzekleine Zwischenfrage zu DLSS, muss ich online sein, damit DLSS auch funktioniert, bzw. arbeiten kann oder bin ich im Offlinebetrieb "von der KI abgeschnitten"?
 
Nur damit das klar ist: man lädt für DLSS nur die mit DL erstellten MODELLE herunter, die vorher auf den großen Rechnern antrainiert wurden. Mit der kleinen Graka und im eigenen Rechner werden dann die Modelle „nur“ angewendet. Bilder sind da nirgends im Download PCN dabei.
Und deshalb funzt das natürlich auch offline (wenn man das Modell mal hat).
 
Nur damit das klar ist: man lädt für DLSS nur die mit DL erstellten MODELLE herunter, die vorher auf den großen Rechnern antrainiert wurden.

Selbst das nicht. Es wird nichts runtergeladen. Was für DLSS benötigt wird - wenn da überhaupt noch etwas von "großen Rechnern" berechnet wird, was ich eigentlich seit DLSS 2 nicht mehr glaube - ist in den Spieldaten und ggf. im Treiber enthalten. Aber wie gesagt, selbst daran zweifle ich massiv.

Ich denke, DLSS 2 ist nichts als ein Algorithmus, der aus mehreren, um Subpixel versetzt berechneten Frames und dem neuronalen Netz das Bild sehr erfolgreich rekonstruiert. Das ganze "auf Superrechnern vorberechnet" Gedöns halte ich entweder für Marketing oder für etwas, was seit DLSS 2 verworfen wurde.
 
Selbst das nicht. Es wird nichts runtergeladen. Was für DLSS benötigt wird - wenn da überhaupt noch etwas von "großen Rechnern" berechnet wird, was ich eigentlich seit DLSS 2 nicht mehr glaube - ist in den Spieldaten und ggf. im Treiber enthalten. Aber wie gesagt, selbst daran zweifle ich massiv.

Ich denke, DLSS 2 ist nichts als ein Algorithmus, der aus mehreren, um Subpixel versetzt berechneten Frames und dem neuronalen Netz das Bild sehr erfolgreich rekonstruiert. Das ganze "auf Superrechnern vorberechnet" Gedöns halte ich entweder für Marketing oder für etwas, was seit DLSS 2 verworfen wurde.

Auch wenn ich mich wiederhole; im Folgenden ein Zitat der NVidia-HP:

DLSS nutzt die Vorteile der Supercomputer von NVIDIA, um das KI-Modell zu trainieren und zu verbessern. Die aktualisierten Modelle werden über Game-Ready-Treiber für deinen GeForce RTX-PC bereitgestellt. Tensor Cores nutzen dann die Teraflops an dedizierter KI-Leistung, um das DLSS-KI-Netz in Echtzeit auszuführen. Dadurch erhältst du die Leistungsfähigkeit des DLSS-Supercomputer-Netzwerks, mit dem du Leistung und Auflösung verbessern kannst.

Ob das jetzt für Version 1 oder 2 gilt steht da vorsichtshalber nicht :p
 
Zuletzt bearbeitet :
Ja. Aber ich glaube das nicht. Aus dem einfachen Grund, dass für die Funktion von DLSS in einem Spiel keine bestimmte Treiberversion vorausgesetzt wird.

Das war vermutlich mal der Plan, aber es hat sich anders entwickelt mit DLSS 2
 
@ssj3rd
Na, da lag ich mit meiner Vermutung oben ja falsch. Aber so richtig "erklärt" wird die Funktion da auch nicht, nur die Folien von Nvidia gezeigt und ein bisschen blabla drumherum.

Nichtsdestotrotz bleibt es dabei, dass es ein 16k vorgerendertes Modell gibt, anhand dessen sich DLSS 2.0 orientiert. Und das muss ja auch irgendwo her kommen.
 
Nichtsdestotrotz bleibt es dabei, dass es ein 16k vorgerendertes Modell gibt, anhand dessen sich DLSS 2.0 orientiert.
Das bezweifle ich inzwischen. Da ich mir auch nicht vorstellen kann, wie das gehen soll. Ein Spiel ist viel zu dynamisch um da irgendwas vorzurendern.
 
Ich habe das auf der Seite von Nvidia nochmals durchgelesen und hoffe es langsam richtig zu verstehen. Das Werbegelabber ist für ein Verständnis der Vorgänge nicht besonders förderlich.
Die 16K-Bilder werden von Nvidia erstellt, um ihre Engine zu trainieren. Die Auswertung der Trainingsdaten verwendet dann der Pixelergänznungsmechanismus auf deinem PC um die Pixel sinnvoll zu ergänzen.

Also wäre der Ablauf so. Ein Gamehersteller programmiert die Grafik seines Games nach den Vorgaben von Nvidia, so dass es zusätzlich zu normalen Bildern auch 16K-Bilder und Vektordaten erstellen kann. Dann wandert das erweiterte Game in die Entwicklungsabteilung von Nvidia. Sie erstellen damit einen Haufen Bilder und trainieren mit diesen ihr neuronales Netzwerk. Die verwursteten Daten werden dann in den Game-Ready-Treiber integriert. Diese Daten können mit der Zeit auch verbessert und aktualisiert werden.

Der Nutzer lädt sich vom Hersteller das Game herunter und aktualisiert den Treiber von Nvidia. Das Game erstellt ähnlich wie früher ein Bild, aber mit tieferer Auflösung. Der Pixelergänzer im Treiber ergänzt die Pixel anhand der verwursteten Daten die man herunter geladen hat.
 
Und was passiert, wenn der Spieler den Treiber nicht aktualisiert?
 
Und was passiert, wenn der Spieler den Treiber nicht aktualisiert?
ich mutmaße mal, das es einen teil gibt, also quasie einen 'grundsätzlichen verwurstungs-algorythmus'
der schon vom spiel kommt, also dort abgelegt ist.
und den nutzt man dann wenn man den treiber nicht aktuallisiert.

was mich dabei am meisten stört:
wenn ein hersteller so eine technik nutzt und dann später keine lust mehr hat sein teures ki-berechnungs-zentrum dafür zu betreiben, hat man hardware, die brach liegt und teuer bezahlt hat und kann bestenfalls noch das nutzen, was der spielehersteller von haus aus mitbringt, es bleibt also dann letztendlich beim spielehersteller kleben und die schauen genau hin wofür sie ihr geld investieren.
 
Zuletzt bearbeitet :
Da man nie etwas davon gehört hat, dass DLSS schlechter funktioniert, wenn man keinen GameReady Treiber hat, glaube ich das nicht.

Meine Meinung: Die Folien sind allesamt zu einem Zeitpunkt entstanden, wo man das noch so geplant hatte, also DLSS1.

DLSS 2 funktioniert anders. Und zwar komplett autark. Der Algorithmus muss nicht für ein Spiel konkre trainiert werden, sondern er rechnet alleine auf Basis der Daten des Spiels selbst und verrechnet aufeinanderfolgende Frames um alle Details zu erfassen, die eigentlich zu fein wären für die Auflösung.

AI bzw. neuronales Netz wird schon zum Einsatz kommen, aber eben ein statisches, bzw. autark lernendes.

Dadurch ist es auch zunehmend einfacher für Spiele DLSS 2 zu integrieren.
 
ki-berechnungs-zentrum
Das KI-Berechnungszentrum läuft bei Nvidia. Die arbeiten mit den Gameherstellern zusammen.

Trotzdem bleibt es so wie du sagst: Es ist davon abhängig was die Gameprogrammierer intergrieren und was Nvidia auswertet. Nur was diese umsetzen, kommt am Schluss bei dir an. Wenn es von diesen nicht mehr weiter entwickelt wird, dann bleibt es bei dem, was man bereits hat.

Eine weiter Schwierigkeit zeigt sich auch bei der Entwicklung von der ersten DLSS-Version zur version 2.0. Die Mechanismen wurden nochmals grundlegend umgebaut und verbessert. Dadurch wird das Bild deutlich besser, aber für die Gamehersteller bedeutet es auch, dass sie die Grafikengine ihrer Games nochmals komplett überarbeiten und anpassen müssen. Wie schnell noch eine Version 3.0 kommt und wie grosse Veränderungen diese verursacht, wird sich zeigen. Auch wenn ich denke, dass die Technik grosses Potential hat, steckt sie noch in den Kinderschuhen und kann sich nochmals deutlich verändern. Wie gross die Lust der Hersteller ist, für jede neue DLSS-Version wieder alles neu aufzugleisen wird sich zeigen müssen. Ich verstehe jeden Hersteller, der jetzt froh ist noch nicht bei DLSS 1.0 mitgemacht zu haben und sich gut überlegt, ob er jetzt bei DLSS 2.0 den Aufwand als Versuchskanninchen betreiben will oder lieber noch etwas abwartet bis man davon ausgehen kann, dass die Technik auch ein paar Jahre bleiben wird.
 
Da man nie etwas davon gehört hat, dass DLSS schlechter funktioniert, wenn man keinen GameReady Treiber hat, glaube ich das nicht.

Meine Meinung: Die Folien sind allesamt zu einem Zeitpunkt entstanden, wo man das noch so geplant hatte, also DLSS1.

DLSS 2 funktioniert anders. Und zwar komplett autark. Der Algorithmus muss nicht für ein Spiel konkre trainiert werden, sondern er rechnet alleine auf Basis der Daten des Spiels selbst und verrechnet aufeinanderfolgende Frames um alle Details zu erfassen, die eigentlich zu fein wären für die Auflösung.

AI bzw. neuronales Netz wird schon zum Einsatz kommen, aber eben ein statisches, bzw. autark lernendes.

Dadurch ist es auch zunehmend einfacher für Spiele DLSS 2 zu integrieren.
Kann man sich so ausdenken, aber es gibt keine Anhaltspunkte dafür.
 
@Grestorn
Wenn ich das richtig verstanden habe, gibt es das Temporal Feedback erst seit DLSS 2.0 (bzw. 1.9, aber das war ein Test nur im Spiel Control), ergo ist zumindest diese eine Folie, in der das zu Sprache kommt, NICHT von DLSS 1.0. Und dort werden auch die Motion Vectors angesprochen, die mich die Brücke zur Videoencodierung schlagen ließen: Statt eine Szene komplett neu zu rendern, wird geschaut, wo etwas gleiches ist, sich aber nur bewegt hat.
 
Oben Unten