Allgemein Gaming Grafikkarten Praxis Testberichte

NVIDIA DLSS und AMD FSR im DIREKTEN Vergleich | Performance-Boost und Qualitätcheck in der Praxis

Bisher hatte man das Gefühl, AMD und NVIDIA gehen sich fast schon wie abgesprochen aus dem Weg, wenn es um die direkte Vergleichbarkeit von DLSS und FSR geht. Keines der aktuellen Spiele nutzte beide Verfahren, um einen direktenen 1:1 Vergleich zu ermöglichen. Und dann kam Necromunda Hired Gun. Gut, das Spiel ist weder ein echter AAA-Titel noch grafisch der elitäre Overkill, aber es ist spielbar und sieht auch noch akzeptabel aus. Grund genug also, hier einmal die Schere anzusetzen, und an der richtigen Stelle den Schnitt zwischen DLSS und FSR machen!

Wir erinnern uns: NVIDIA hat mit Deep Learning Super Sampling kurz DLSS 1.0 im Jahr 2018 einen für den Gamer wichtigen Schritt in die richtige Richtung gemacht. Niedriger Rendern und Upscaling für mehr Leistung in Form von Bildern pro Sekunde. Dabei war es das Ziel, möglichst keine größeren qualitativen Einbußen auf dem Monitor erleben zu müssen. Nun ja, mit der Qualität war es im ersten Step mit DLSS 1.0 eher ein Schuss in den Ofen! Aber mittlerweile gibt es ja DLSS 2.x und die Welt sieht deutlich anders bzw. besser aus.

NVIDIA hatte seinerzeit den Vorreiter gemacht und lange, gefühlt eigentlich viel zu lange, mussten AMD-Grafikkartenbesitzer warten, um ein entsprechendes Äquivalent von AMD zu erhalten. Seit einigen Wochen ist es nun endlich so weit, denn auch AMD FidelityFX Super Resolution, kurz FSR, ist endlich mit am Start. Wie diese beiden Upscaling-Techniken im Groben funktionieren und was sie leisten, das schauen wir uns heute anhand der NVIDIA GeForce RTX 3080 FE im bereits erwähnten Spiel an.

Bevor wir gleich in die Details gehen, hier wie immer mein Testsetup. Seit dem letzten Artikel hat sich hier wieder etwas verändert. Neben dem AMD Ryzen 7 5800X, hat sich auch etwas im Bereich der Monitore und der Maus getan. Der 1080p 240 Hz Monitor von MSI wurde in den Ruhestand verabschiedet. Hier hat sich ein 1440p von ASUS neben dem LG 27GL850-B gesellt. Der ASUS ROG Swift PG279QM ist ein 27 Zoll 1440p Monitor mit einem 240 Hz IPS Panel. Zudem bietet der ASUS ROG Swift PG279QM auch G-SYNC mit dem Reflex Low Latency Analyzer.

Ich kann damit also zukünftig auch erweiterten Content zum Thema Systemlatenzen anbieten. Damit der Reflex Low Latency Analyzer jedoch auch funktioniert, bedarf es einer kompatiblen Maus. Hier wird zukünftig die ASUS ROG Chakram Core zum Einsatz kommen. Diese Maus unterstützt NVIDIA Reflex in Verbindung mit dem Reflex Analyzer. Damit dient die ASUS ROG Chakram künftig als Referenz bei jeglichen Systemlatenzmessungen mit dem NVIDIA Reflex Analyzer.

Testsystem im Detail

CPU Ryzen 7 5800X (stock)
Mainboard MSI MAG X570 ACE
RAM 2×8 GB G.Skill RipJaws V 3200 MHz CL16-18-18-38 (single ranked)
SSD 1 Toshiba Transcend 110S 256 GB (System)
SSD 2 Crucial P2 1000 GB (Spiele)
SSD 3 Crucial P2 1000 GB (Spiele)
SSD 4 Samsung 512 GB 840 Pro (Backup)
CPU Kühler MSI MAG Coreliquid 360R
Netzteil Seasonic Prime Platinum 1300 Watt
GPUs NVIDIA GeForce RTX 3080 FE (GeForce Driver 471.22)
Sound SoundblasterX AE-5 Plus
Tastatur Cooler Master SK 622 (Red Taster) via USB @1000 Hz Polling Rate
Maus ASUS ROG Chakram Core @1000 Hz Polling Rate (NVIDIA Reflex Latency Analyzer Support)
Monitor 1 ASUS ROG Swift PG279QM @240 Hz via DP (Nvidia G-SYNC mit Reflex Latency Analyzer)
Monitor 2 LG 27GL850-B @144 Hz via DP (AMD FreeSync Premium, G-SYNC Kompatibel)

Die Cooler Master SK 622 habe ich aus Gründen der Bequemlichkeit gewählt, da ich zum Arbeiten ständig zwischen mehreren Rechner wechseln muss. Die Möglichkeit bis zu 4 PCs quasi gleichzeitig zu verbinden und der kleine Formfaktor (60% Tastatur), was die Mitnahme vereinfacht, waren hier die Hauptargumente für die Wahl auf die Cooler Master SK 622. So viel zur verwendeten Hardware. Dann steigen wir mal ins eigentliche Thema ein, dazu bitte auf die nächste Seite blättern!

 

Lade neue Kommentare

Case39

Urgestein

1,932 Kommentare 548 Likes

Danke für den Test. Da kann man für den nächsten Grakawechsel getrost auf AMD und FSR setzen.
Müsste es nicht MSi MEG Ace heissen und nicht MAG Ace?

Antwort 1 Like

RedF

Urgestein

1,474 Kommentare 544 Likes

Na wer hätte gedacht das die beiden Techniken so nahe aneinander liegen.
Wird stoff für viele diskussionen bieten, somal reine Zahlen da nicht alles aussagen können.

Antwort 3 Likes

Gurdi

Urgestein

1,086 Kommentare 589 Likes

Guter Artikel, sehr aufwendiger Vergleich und sauber runter gerattert.
Ich selbst bin generell kein Freund von den Upscalern, dennoch begrüße ich die Entwicklung da ich auf meinem Laptop davon profitiere und es auch allgemein für schwächere Systeme als gute Entwicklung empfinde.

Antwort 2 Likes

B
BurnOut_Student

Veteran

193 Kommentare 55 Likes

Ein interessantes Thema und sehr schöner Artikel.
Es ist erstaunlich wie nahe FSR an DLSS ist, damit und mit der einfachen Anbindung hat AMD echt gut Gas gegeben.

Allerdings muss ich sagen das ich DLSS nicht nur wegen den FPS nutze. Also in Spielen wo mir z.b. die Leistung reicht (da ich 58 fps gecapped bin), schalte ich DLSS manchmal nur ein zwecks dem Anti Aliasing. Diese temporale Geschichte von DLSS ist halt echt goldwert, flimmernde Kanten und co. verschwinden. Und soweit ich verstanden habe ist das eben bei FSR nicht möglich. Und ich weiß auch nicht ob AMD da so leicht nachbessern könnte, ich mein DLSS nutzt immerhin ausgeklügelte Software und Hardware.

Ich muss aber zugeben das ich den ganzen Umfang bei den Einstellungen noch nicht durchblicke, wenn man sich mal den NV-Inspector anschaut gibt es ja unzählige Möglichkeiten. Bestimmt hat AMD auch so was ähnliches und man könnte evtl. mit FSR und TSAA oder sowas, vergleichbare Ergebnisse erzielen ?

Antwort 1 Like

Klicke zum Ausklappem
P
Phelan

Mitglied

37 Kommentare 29 Likes

Cooler Test der das Thema mal unparteiisch abhandelt. Danke.

Ich hatte es ja schon mal geschrieben ... aber IMO hat FSR den riesen Vorteil das es auf faktisch jeder gamingtauglichen Grafikkarte geht und bei den Konsolen sicherlich in Zukunft von jedem Titel unterstützt wird. z.b. 30 FPS Nartiv, 45/60FPS mit FSR.

Und in anbetracht das die Grafikkarten nun so bei knapp dem doppelten UVP bleiben und auch bei 40xx Navi 3 die Performace Schlacht ungebremst weiter geht und damit auch die Preisrally, werd ich wohl noch lange bei der 1070 bleiben (müssen) und bin dann Dankbar wenn neue Spiele in 2022/23 FSR haben.

Antwort 3 Likes

grimm

Urgestein

1,376 Kommentare 566 Likes

Mir gefallen die FSR Bilder durch die Bank besser (teilweise deutlich besser) als die DLSS Pendants.
Das Fazit fällt für meinen Geschmack daher auch zu unkritisch aus: AMD baut hier was für alle, Nvidia im Prinzip für sich selbst (ein bisschen wie bei G-Sync). Und das AMD-Paket sieht dabei auch noch besser aus.
Davon ab: Ich hätte mir den Test lieber in 4K angesehen - 1440p kriegt man schon mit ner 1070 ganz ordentlich dargestellt. Bei diesen Technologien geht es doch aber genau darum, in Bereichen, wo die Leistung für native Darstellung nicht ausreicht, mittels "Trickkiste" trotzdem flüssig und chic spielbar zu werden. Insofern leider schade. Mitgenommen hab ich trotzdem eine Menge.
Deshalb Danke @FritzHunter01 für den umfangreichen Test.

Antwort 7 Likes

Klicke zum Ausklappem
W
Wie jetzt?

Mitglied

27 Kommentare 20 Likes

Sehr schöner Test mit einem angenehm neutralen Grundton. Beim Vergleich der Basis (also wieviele Spiele unterstützt werden) würde wohl nicht nur mich die Kurve über Zeit mal interessieren. So aus dem Bauch heraus würde ich sagen das sechs Wochen nach dem Start von DLSS auch nicht mehr Spiele unterstützt wurden als jetzt bei AMD und FSR.

Antwort 1 Like

Igor Wallossek

Format©

5,749 Kommentare 8,919 Likes

Naja, sagen wir es mal so: die 4K Gemeinde spielt im Allgemeinen andere Spiele. Man hätte es ja auch mit der 3060 Ti machen können :D
Im Übrigen habe ichs in 4K gegengetestet - das Ergebnis ist sehr ähnlich. FSR liegt dem Spiel scheinbar.

Antwort 3 Likes

g
gerTHW84

Veteran

373 Kommentare 224 Likes

Anmerkung: Dass FSR open source ist oder DLSS open source irgendwann werden könnte (oder sollte), halte ich für eine verfehlte bzw- gar irrelevante Betrachtungsweise in diesem Kontext. Das einzige, was hiervon mit Blick auf FSR bleibt ist, dass Entwickler theoretisch die gelieferte Implementation eigenständig erweitert, anpassen oder darauf basierend gar eine komplett neue Implementation vornehmen könnten. Faktisch werden das jedoch nur die allerwenigsten Entwickler überhaupt in Erwägung ziehen, geschweige den tun, denn hierbei sind am Ende Faktoren wie Kosten und Time-to-market entscheidend, und die sprechen bei heutigen, derart komplexen Entwicklungen schlicht dagegen. *)
Der wesentliche Punkt, der sich vielleich artverwandt anfühlen mag, ist, dass die Technik frei zur Verfügung steht und das gilt grundsätzlich für beide Technologien. Sowohl FSR als auch DLSS können grundsätzlich von jedem Entwickler in einen neuen Titel implementiert werden, d. h. hier gibt es keinen nennenswerten Unterschied zwischen den Techologien.

Eine weitere Anmerkung zur hardwareagnostischen Implementation von FSR. Man kann das AMD zu einem gewissen Grade sicherlich zugutehalten, sollte aber auch nicht dem Irrtum anheim fallen, dass dieses Vorgehen irgendwas mit Nettigkeit, dass man Gamer liebt oder gar in irgend einer Art altruistisch ist, verwechseln.
Die Entscheidung hierfür war schlicht marktstrategischer Natur und sieht man sich AMDs beschränkten Handlungsspielraum in diesem Kontext an, dann hatte AMD mit Blick auf den PC gar überhaupt keine andere Wahl und musste derart vorgehen, denn mit bspw. einer (künstlich**) auf Radeon-GPUs beschränkten Technologie hätte man auf dem PC nur verlieren können und FSR wäre zu einem reinen Konsolen-Feature verkommen. Die Adaption von DLSS nimmt rasant zu und es steht mittlerweile selbst in den beiden größten freien Engines nativ zur Verfügung und kann per einfachem Schalter aktiviert werden. Hinzu kommt, dass der PC-Markt auf nVidia-Hardware spielt. AMDs GPUs stellen nur einen kleinen Teil des Marktes und dessen Anteile hat nVidia selbst bereits mit RTX-Karten leicht übertroffen, sodass die Basis an DLSS-fähiger Hardware im Markt bereits recht hoch ist und absehbar auch weiter (und zudem stärker) wachsen wird, d. h. wäre FSR als reine Radeon-Technologie vermarktet worden, hätten Entwickler auf den PC im Falle eines limitierenden Kosten/Zeitbudgets immer vor der Wahl FSR oder DLSS gestanden und die Antwort währe hier wohl in den meisten Fällen zugunsten von DLSS ausgefallen, weil man damit einfach den größeren und deutlich stärker wachsenden Teil des Marktes bedient.
Mit der nun tatsächlich gewählten Vorgehensweise kann AMD nun hoffen, dass der ein oder andere Entwickler vielleicht aufgrund der hardwareagnostischen Implementation von FSR sich eine Implementation von DLSS sparen wird und man somit nVidia ein wenig den Wind aus den Segeln nehmen kann (was den vertriebstechnischen Aspekt angeht). Darüber hinaus, sollte das kaum oder gar nicht eintreten, so hat man zumindest immer noch den bisherigen Vertriebsnachteil bzgl. der eigenen Produkte weitestgehend nivelliert.

*) Eine individuelle Anpassung bei DLSS ist übrigens gleichermaßen möglich, da man nVidia's jeweils aktuelles NN als Basis für individuelle Trainingsmaßnahmen mit Content von dem gerade entwickelten Spiel nehmen kann, um die "Erkennungsleistung" im Inferencing zu verbessern. Faktisch wird auch hier kein Entwickler Gebrauch von der Möglichkeit machen, weil das out-of-the-box gelieferte Ergebnis ausreichend gut ist und die Implementation ist somit effizient und man würde sich mit einer derartigen, eigenen Optimierung von den von nVidia fortgeführten Optimierungen am NN abnabeln.

**) Dass die Beschränkung künstlich wäre, käme zudem noch hinzu, denn AMD-Hardware verfügt bisher über keinerlei Spezialhardwarefunktionalität, sodass man nicht einmal im entferntesten alibitechnisch begründen könnte, warum man die Technik anderen GPUs vorenthalten würde.
Um diesen Punkt jedoch abzurunden, muss man jedoch auch berücksichtigen, dass nVidia den Inferencing-Teil ihres DLSS auch durchaus über die ALUs implementieren könnte um ebenso hardwareunabhängig arbeiten zu können. Das würde vielleicht etwas Performance kosten, dürfte aber ebenso gehen. Dass man das nicht macht, ist wirtschaftlich ebenso leicht nachvollziehbar und mit FSR im Markt besteht mittlerweile auch kein Grund mehr dafür dem noch nachkommen zu müssen, d. h. die werden sich absehbar auf die Weiterentwicklung von DLSS konzentrieren und dieses Feature in unveränderter Art weiterverwenden, denn sie hätten andernfalls nicht (mehr) hinzuzugewinnen.

Antwort Gefällt mir

Klicke zum Ausklappem
Achill_3DC

Neuling

9 Kommentare 7 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung