Allgemein Gaming GPUs Practice Reviews

NVIDIA DLSS and AMD FSR in DIRECT comparison | Performance boost and quality check in practice

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Up until now, it felt like AMD and NVIDIA were going out of their way, almost as if they had agreed, when it came to directly comparing DLSS and FSR. None of the current games used either method to provide a head-to-head 1:1 comparison. And then came Necromunda Hired Gun. Alright, the game is neither a true AAA title nor graphically elite overkill, but it is playable and looks acceptable as well. Reason enough to use the scissors here and make the cut between DLSS and FSR at the right place!

We remember, NVIDIA took an important step in the right direction for gamers in 2018 with Deep Learning Super Sampling, or DLSS 1.0. Low rendering and upscaling for more performance in terms of frames per second. The aim was to avoid any major loss of quality on the monitor. Well, with the quality it was in the first step with DLSS 1.0 rather a shot in the oven! But in the meantime there is DLSS 2.x and the world looks much different or better.

NVIDIA had pioneered this at the time and for a long time, actually far too long it felt, AMD graphics card owners had to wait to get an equivalent from AMD. For a few weeks now, AMD FidelityFX Super Resolution, or FSR for short, has finally joined the party. We’ll take a look at how these two upscaling technologies work in general and what they can do today with the NVIDIA GeForce RTX 3080 FE in the aforementioned game.

Before we get right into the details, here’s my test setup as usual. Something has changed here again since the last article. Besides the AMD Ryzen 7 5800X, something has also happened in the area of monitors and mouse. MSI’s 1080p 240 Hz monitor has been retired. Here, a 1440p from ASUS has joined the LG 27GL850-B. The ASUS ROG Swift PG279QM is a 27-inch 1440p monitor with a 240 Hz IPS panel. In addition, the ASUS ROG Swift PG279QM also offers G-SYNC with the Reflex Low Latency Analyzer.

This means that I will be able to offer extended content on the topic of system latencies in the future. However, for the Reflex Low Latency Analyzer to work, a compatible mouse is required. The ASUS ROG Chakram Core will be used here in the future. This mouse supports NVIDIA Reflex in conjunction with the Reflex Analyzer. This means that the ASUS ROG Chakram will serve as a reference for any system latency measurements with the NVIDIA Reflex Analyzer in the future.

Test system in detail

CPU Ryzen 7 5800X (stock)
Mainboard MSI MAG X570 ACE
RAM 2×8 GB G.Skill RipJaws V 3200 MHz CL16-18-38 (single ranked)
SSD 1 Toshiba Transcend 110S 256 GB (System)
SSD 2 Crucial P2 1000 GB (Games)
SSD 3 Crucial P2 1000 GB (Games)
SSD 4 Samsung 512 GB 840 Pro (Backup)
CPU Cooler MSI MAG Coreliquid 360R
Power supply unit Seasonic Prime Platinum 1300 Watt
GPUs NVIDIA GeForce RTX 3080 FE (GeForce Driver 471.22)
Sound SoundblasterX AE-5 Plus
Keyboard Cooler Master SK 622 (Red Button) via USB @1000 Hz Polling Rate
Mouse ASUS ROG Chakram Core @1000 Hz Polling Rate (NVIDIA Reflex Latency Analyzer Support)
Monitor 1 ASUS ROG Swift PG279QM @240 Hz via DP (Nvidia G-SYNC with Reflex Latency Analyzer)
Monitor 2 LG 27GL850-B @144 Hz via DP (AMD FreeSync Premium, G-SYNC Compatible)

I chose the Cooler Master SK 622 for convenience, since I have to constantly switch between multiple computers to work. The possibility to connect up to 4 PCs quasi simultaneously and the small form factor (60% keyboard), which makes it easy to take along, were the main arguments for choosing the Cooler Master SK 622. So much for the hardware used. Let’s get into the real topic, please turn to the next page!

 

Kommentar

Lade neue Kommentare

Case39

Urgestein

2,502 Kommentare 928 Likes

Danke für den Test. Da kann man für den nächsten Grakawechsel getrost auf AMD und FSR setzen.
Müsste es nicht MSi MEG Ace heissen und nicht MAG Ace?

Antwort 1 Like

RedF

Urgestein

4,660 Kommentare 2,552 Likes

Na wer hätte gedacht das die beiden Techniken so nahe aneinander liegen.
Wird stoff für viele diskussionen bieten, somal reine Zahlen da nicht alles aussagen können.

Antwort 3 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Guter Artikel, sehr aufwendiger Vergleich und sauber runter gerattert.
Ich selbst bin generell kein Freund von den Upscalern, dennoch begrüße ich die Entwicklung da ich auf meinem Laptop davon profitiere und es auch allgemein für schwächere Systeme als gute Entwicklung empfinde.

Antwort 3 Likes

B
BurnOut_Student

Veteran

223 Kommentare 61 Likes

Ein interessantes Thema und sehr schöner Artikel.
Es ist erstaunlich wie nahe FSR an DLSS ist, damit und mit der einfachen Anbindung hat AMD echt gut Gas gegeben.

Allerdings muss ich sagen das ich DLSS nicht nur wegen den FPS nutze. Also in Spielen wo mir z.b. die Leistung reicht (da ich 58 fps gecapped bin), schalte ich DLSS manchmal nur ein zwecks dem Anti Aliasing. Diese temporale Geschichte von DLSS ist halt echt goldwert, flimmernde Kanten und co. verschwinden. Und soweit ich verstanden habe ist das eben bei FSR nicht möglich. Und ich weiß auch nicht ob AMD da so leicht nachbessern könnte, ich mein DLSS nutzt immerhin ausgeklügelte Software und Hardware.

Ich muss aber zugeben das ich den ganzen Umfang bei den Einstellungen noch nicht durchblicke, wenn man sich mal den NV-Inspector anschaut gibt es ja unzählige Möglichkeiten. Bestimmt hat AMD auch so was ähnliches und man könnte evtl. mit FSR und TSAA oder sowas, vergleichbare Ergebnisse erzielen ?

Antwort 1 Like

P
Phelan

Veteran

191 Kommentare 172 Likes

Cooler Test der das Thema mal unparteiisch abhandelt. Danke.

Ich hatte es ja schon mal geschrieben ... aber IMO hat FSR den riesen Vorteil das es auf faktisch jeder gamingtauglichen Grafikkarte geht und bei den Konsolen sicherlich in Zukunft von jedem Titel unterstützt wird. z.b. 30 FPS Nartiv, 45/60FPS mit FSR.

Und in anbetracht das die Grafikkarten nun so bei knapp dem doppelten UVP bleiben und auch bei 40xx Navi 3 die Performace Schlacht ungebremst weiter geht und damit auch die Preisrally, werd ich wohl noch lange bei der 1070 bleiben (müssen) und bin dann Dankbar wenn neue Spiele in 2022/23 FSR haben.

Antwort 3 Likes

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Mir gefallen die FSR Bilder durch die Bank besser (teilweise deutlich besser) als die DLSS Pendants.
Das Fazit fällt für meinen Geschmack daher auch zu unkritisch aus: AMD baut hier was für alle, Nvidia im Prinzip für sich selbst (ein bisschen wie bei G-Sync). Und das AMD-Paket sieht dabei auch noch besser aus.
Davon ab: Ich hätte mir den Test lieber in 4K angesehen - 1440p kriegt man schon mit ner 1070 ganz ordentlich dargestellt. Bei diesen Technologien geht es doch aber genau darum, in Bereichen, wo die Leistung für native Darstellung nicht ausreicht, mittels "Trickkiste" trotzdem flüssig und chic spielbar zu werden. Insofern leider schade. Mitgenommen hab ich trotzdem eine Menge.
Deshalb Danke @FritzHunter01 für den umfangreichen Test.

Antwort 7 Likes

Wie jetzt?

Mitglied

55 Kommentare 44 Likes

Sehr schöner Test mit einem angenehm neutralen Grundton. Beim Vergleich der Basis (also wieviele Spiele unterstützt werden) würde wohl nicht nur mich die Kurve über Zeit mal interessieren. So aus dem Bauch heraus würde ich sagen das sechs Wochen nach dem Start von DLSS auch nicht mehr Spiele unterstützt wurden als jetzt bei AMD und FSR.

Antwort 1 Like

Igor Wallossek

1

10,192 Kommentare 18,803 Likes

Naja, sagen wir es mal so: die 4K Gemeinde spielt im Allgemeinen andere Spiele. Man hätte es ja auch mit der 3060 Ti machen können :D
Im Übrigen habe ichs in 4K gegengetestet - das Ergebnis ist sehr ähnlich. FSR liegt dem Spiel scheinbar.

Antwort 3 Likes

g
gerTHW84

Veteran

409 Kommentare 248 Likes

Anmerkung: Dass FSR open source ist oder DLSS open source irgendwann werden könnte (oder sollte), halte ich für eine verfehlte bzw- gar irrelevante Betrachtungsweise in diesem Kontext. Das einzige, was hiervon mit Blick auf FSR bleibt ist, dass Entwickler theoretisch die gelieferte Implementation eigenständig erweitert, anpassen oder darauf basierend gar eine komplett neue Implementation vornehmen könnten. Faktisch werden das jedoch nur die allerwenigsten Entwickler überhaupt in Erwägung ziehen, geschweige den tun, denn hierbei sind am Ende Faktoren wie Kosten und Time-to-market entscheidend, und die sprechen bei heutigen, derart komplexen Entwicklungen schlicht dagegen. *)
Der wesentliche Punkt, der sich vielleich artverwandt anfühlen mag, ist, dass die Technik frei zur Verfügung steht und das gilt grundsätzlich für beide Technologien. Sowohl FSR als auch DLSS können grundsätzlich von jedem Entwickler in einen neuen Titel implementiert werden, d. h. hier gibt es keinen nennenswerten Unterschied zwischen den Techologien.

Eine weitere Anmerkung zur hardwareagnostischen Implementation von FSR. Man kann das AMD zu einem gewissen Grade sicherlich zugutehalten, sollte aber auch nicht dem Irrtum anheim fallen, dass dieses Vorgehen irgendwas mit Nettigkeit, dass man Gamer liebt oder gar in irgend einer Art altruistisch ist, verwechseln.
Die Entscheidung hierfür war schlicht marktstrategischer Natur und sieht man sich AMDs beschränkten Handlungsspielraum in diesem Kontext an, dann hatte AMD mit Blick auf den PC gar überhaupt keine andere Wahl und musste derart vorgehen, denn mit bspw. einer (künstlich**) auf Radeon-GPUs beschränkten Technologie hätte man auf dem PC nur verlieren können und FSR wäre zu einem reinen Konsolen-Feature verkommen. Die Adaption von DLSS nimmt rasant zu und es steht mittlerweile selbst in den beiden größten freien Engines nativ zur Verfügung und kann per einfachem Schalter aktiviert werden. Hinzu kommt, dass der PC-Markt auf nVidia-Hardware spielt. AMDs GPUs stellen nur einen kleinen Teil des Marktes und dessen Anteile hat nVidia selbst bereits mit RTX-Karten leicht übertroffen, sodass die Basis an DLSS-fähiger Hardware im Markt bereits recht hoch ist und absehbar auch weiter (und zudem stärker) wachsen wird, d. h. wäre FSR als reine Radeon-Technologie vermarktet worden, hätten Entwickler auf den PC im Falle eines limitierenden Kosten/Zeitbudgets immer vor der Wahl FSR oder DLSS gestanden und die Antwort währe hier wohl in den meisten Fällen zugunsten von DLSS ausgefallen, weil man damit einfach den größeren und deutlich stärker wachsenden Teil des Marktes bedient.
Mit der nun tatsächlich gewählten Vorgehensweise kann AMD nun hoffen, dass der ein oder andere Entwickler vielleicht aufgrund der hardwareagnostischen Implementation von FSR sich eine Implementation von DLSS sparen wird und man somit nVidia ein wenig den Wind aus den Segeln nehmen kann (was den vertriebstechnischen Aspekt angeht). Darüber hinaus, sollte das kaum oder gar nicht eintreten, so hat man zumindest immer noch den bisherigen Vertriebsnachteil bzgl. der eigenen Produkte weitestgehend nivelliert.

*) Eine individuelle Anpassung bei DLSS ist übrigens gleichermaßen möglich, da man nVidia's jeweils aktuelles NN als Basis für individuelle Trainingsmaßnahmen mit Content von dem gerade entwickelten Spiel nehmen kann, um die "Erkennungsleistung" im Inferencing zu verbessern. Faktisch wird auch hier kein Entwickler Gebrauch von der Möglichkeit machen, weil das out-of-the-box gelieferte Ergebnis ausreichend gut ist und die Implementation ist somit effizient und man würde sich mit einer derartigen, eigenen Optimierung von den von nVidia fortgeführten Optimierungen am NN abnabeln.

**) Dass die Beschränkung künstlich wäre, käme zudem noch hinzu, denn AMD-Hardware verfügt bisher über keinerlei Spezialhardwarefunktionalität, sodass man nicht einmal im entferntesten alibitechnisch begründen könnte, warum man die Technik anderen GPUs vorenthalten würde.
Um diesen Punkt jedoch abzurunden, muss man jedoch auch berücksichtigen, dass nVidia den Inferencing-Teil ihres DLSS auch durchaus über die ALUs implementieren könnte um ebenso hardwareunabhängig arbeiten zu können. Das würde vielleicht etwas Performance kosten, dürfte aber ebenso gehen. Dass man das nicht macht, ist wirtschaftlich ebenso leicht nachvollziehbar und mit FSR im Markt besteht mittlerweile auch kein Grund mehr dafür dem noch nachkommen zu müssen, d. h. die werden sich absehbar auf die Weiterentwicklung von DLSS konzentrieren und dieses Feature in unveränderter Art weiterverwenden, denn sie hätten andernfalls nicht (mehr) hinzuzugewinnen.

Antwort Gefällt mir

Klicke zum Ausklappem
Achill_3DC

Neuling

9 Kommentare 7 Likes
M
MrX1980

Mitglied

16 Kommentare 7 Likes

Danke @FritzHunter01 für diesen Artikel. (y)

Leider kann ich noch keins der beiden Funktionen mit meiner GTX 1060 nutzen, da entweder meine Spiele es noch nicht können oder die Hardware es nicht unterstützt. Bei der AMD Umfrage kann man aber selbst 3 Spiele benennen, die auch FSR bekommen sollen. So kann AMD besser entscheiden, mit welchen Spielen es weiter gehen soll.

Ich habe wie folgt gewählt:
1) Shadow of the Tomb Raider
2) MS Flight Simulator
3) The Medium

Antwort 2 Likes

Corro Dedd

Urgestein

1,812 Kommentare 672 Likes

@Achill_3DC
Hmm... Du weißt schon, wessen Website du hier besuchst, oder? :D Ich glaube, der Igor ist schon ganz firm darin, was FSR ist und wie es funktioniert :)

@FritzHunter01
Eine schwächere Karte zum testen wäre nicht schlecht gewesen, nativ eh schon über 120 FPS, da brauche ich kein DLSS oder FSR mehr :)
Ich hoffe ja noch darauf, dass Cyberpunk 2077 auch auf den FSR Zug aufspringt.

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Ja, da war ich hin und her gerissen... Aber das gute ist, wir haben jetzt für Necromunda die Qualität von FSR und DLSS mal im Groben beleuchtet. Jetzt werde ich die FPS Leistung nochmal mit anderen Karten gegenprüfen.

Folgende Karten stehen bei mir auf der Liste:

RX 590
RX 5700 XT
RX 6700 XT
RTX 3060 Ti
eventuell eine Titan XP (muss ich mir von Kollegen ausleihen)
GTX 1060 6GB

Damit sollten so ziemlicher jeder die Leistung einordenen können...

Antwort 2 Likes

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Danke für den Link... damit kann ich ein wenig was anfangen!!!!
Bau ich im nächsten Artikel mit ein

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Gute Frage, lass mich mal auf der HP nachschauen...

MEG X570 ACE sollte es lauten.... Danke für den Hinweis.... man muss nur Lesen bzw. Tippen können.... Brauch ich wohl einen Augenarzt und/oder einen Schmied... :p

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Wie Igor gereits geschieben hat, er hat es bei sich in 4k getest, ich wollte was in 1440p machen, da das bald das neue 1080p wird... Man sieht ja, dass ich selbst in Performance / Ultra Performace noch nicht ins CPU Limit gerannt bin... bzw. erst mit dem letzten Modus dort ankam!

Ich teste noch andere Karte nach, sodass man die Leistung bzgl. FPS besser einordnen kann.

Antwort 2 Likes

Igor Wallossek

1

10,192 Kommentare 18,803 Likes

Kleine Randbemerkung:
Das Spiel siehd in 4K auch nicht besser aus. :D

Antwort Gefällt mir

Case39

Urgestein

2,502 Kommentare 928 Likes

Fällt einem natürlich auf, wenn man selber das MB besitzt😉😁

Antwort 1 Like

R
Rammwurst

Neuling

2 Kommentare 2 Likes

Junge junge junge. Man kann in Necromunda auch Screenshots nach Einstellungswechseln machen ohne dass man sich im Spiel auch nur einen milimeter bewegt. Ich habe es selber getestet.

Das ist für so einen Vergleich natürlich echter Humbug.

Obendrei lassen sich die Screenshots mit Slider nichteinmal vergrößern.

FSR ist unterhalb von Qualität das Letzte. Man kann auch dank Nvidia Overlay (oder Control Panel) sharpening einstellen wenn man das so sehr liebt.

Das ist wohl das einzige Merkmal an FSR dass die Leute irgendwie blendet. Ganz ganz viel Sharpening.

Umso niedriger die Auflösung umso mehr leidet FSR. DLSS bekommt auch 1080p gut hin wenn es von 540p upscaled.

Necromunda ist auch irgendwo das Parade Spiel für FSR. Eine sehr gute TAA implementierung (gut für FSR da FSR selber 0 Anti Aliasing kann)
und hauptsächlich Levels mit vielen Gängen, kleinen Räumen und dergleichen. Nichts in der Art von Open World oder große Draw Sistances.

Wenn man wirklich sehen will wo die Vorteile von DLSS liegen und die Nachteile von FSR sollte man sich einmal Chernobylite anschauen wo DLSS dank des 8k/16k training details vorallem in der Vegetation erstellt die sonst nichtmal existieren und so für ein noch detailierteres Bild sorgen.

Während FSR hauptsächliche Äste und Stromleitungen löscht. Selbst auf Ultra Quality.

Oder man schaut sich einfach Necromunda auf nicht 4k an.

Ich habe selber eine 6900XT und bin massiv enttäuscht mit FSR. Dass jetzt die Leute versuchen FSR irgendwie soviel zu loben wie es geht macht mir sorgen.

AMD hat hier keine Lorbeeren verdient auf denen sie ruhen sollten. Das einzig tolle ist die große Kompatibilität der Technologie.

Bei einem Post-processing Shader der ohne Motion Vctors und dergleichen Arbeitet natürlich kein Wunder. Und auch genau die Achillesferse des ganzen. Ich befürchte wenig Potential nach Oben bis AMD es ähnlich angeht wie Nvidia mit DLSS. Wo dann wieder die Kompatibilität bzw. einfache Implementierung flöten geht.

Also bitte stellt DLSS nicht mit FSR gleich. Denn da ist FSR Welten von entfernt. Dass merkt man wenn man es einmal in Person mit den eigenen Augen gesehen hat sehr schnell.

Antwort 2 Likes

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung