Allgemein Grafikkarten Praxis Testberichte

Optisch gefällige Pixelbeschleunigung dank Upscaling? AMD legt mit FSR 2.0 nach! Deathloop-Praxistest mit FSR vs. DLSS und Messungen | Teil 1 Performance

Lieber spät als nie, oder wie war das? Ja, leider bin ich spät dran mit dem heutigen Thema, denn der Start von AMDs FSR 2.0 war bereits am 12.05.2022. Zu diesem Zeitpunkt war ich beruflich im Ausland unterwegs und konnte somit keine Tests machen. Vermutlich haben sich viele von euch bereits auf diversen YouTube Kanälen oder anderen Seiten mit dem Thema beschäftigt. Auch ich habe mir das natürlich angeschaut, was die anderen Kollegen so getestet haben. Manche Informationen werden also heute nicht neu sein, andere aber schon!

Was ich heute bewusst weglassen werde, ist die Erklär-Stunde wie FSR 2.0 im Detail funktioniert. Der wesentliche Unterschied zu FSR 1.0 ist, dass es sich um temporales Upscaling handelt. Somit können, ganz kurz und sehr vereinfacht gesagt, mehr Informationen über Bewegungsvektoren, künftige und bereits vergangener Pixel gewonnen werden.  Gepaart mit AMD eigenem Anti-Aliasing und mittels Algorithmus auf dem Monitor gezaubert – soll es zu deutlich qualitativerem Upscaling führen als das noch mit FSR 1.0 der Fall war. AMD will damit die Lücke zu NVIDIAs DLSS schließen.

Bevor wir uns mit der Qualität von FSR 2.0 im Vergleich zu DLSS 2.3 sowie FSR 1.0 beschäftigen können, schauen wir uns heute nur die reinen Leistungssteigerungen an, die man mit den genannten Techniken erreichen kann. Dazu habe ich 3 verschiedene Grafikkarten und 3 verschiedene Auflösungen für euch getestet. Mehr war in der Kürze der Zeit nicht drin! Warum wir heute nur die Performance sehen, ist auch der Zeit geschuldet. Denn um die wirklichen Unterschiede zwischen DLSS 2.3 und FSR 2.0 zu sehen, muss man sich Zeit lassen. AMD hat gut aufgeholt, soviel kann ich euch sagen! Ich bitte um etwas Geduld und Verständnis, denn einfach nur hinschludern ist nicht mein Ding! Siehe meinen letzten Artikel zum Thema NIS vs. RSR – klick hier. Wenn, dann richtig!

Vorab mein Testsystem und ja, ich nutze noch immer Windows 10!

CPU Ryzen 7 5800X (PBO 2, CO negativ)
Mainboard MSI MAG X570 ACE
RAM 4×8 GB Crucial Ballistix RGB 3600 MHz CL16-17-16-36 (OC)
SSD 1 Samsung 980 Pro 500 GB (System)
SSD 2 Crucial P2 1000 GB (Spiele)
SSD 3 Crucial P2 1000 GB (Spiele)
SSD 4 Samsung 512 GB 840 Pro (Backup)
CPU Kühler Aphpacool Eisbaear Aurora 360
Netzteil Seasonic Prime Platinum 1300 Watt
GPUs

MSI GeForce RTX 3080 Ti Suprim X – wassergekühlt Eisblock GPX Aurora (GeForce Driver 512.77)

MSI Radeon RX 6700 XT Gaming X (Radeon Driver 22.5.1)

MSI GeForce RTX 3060 Ti Gaming X Trio (GeForce Driver 512.77)

Sound SoundblasterX AE-5 Plus
Tastatur Cooler Master SK 622 (Red Taster) via USB @1000 Hz Polling Rate
Maus ASUS ROG Chakram Core @1000 Hz Polling Rate (NVIDIA Reflex Latency Analyzer Support)
Monitor 1 ASUS ROG Swift PG279QM @240 Hz via DP (Nvidia G-SYNC mit Reflex Latency Analyzer)
Monitor 2

LG 27GN950-B @144 Hz via DP (AMD FreeSync Premium, G-SYNC Kompatibel)

Alle Tests liefen auf dem LG 27GN950, was zum Ende hin als ich in 1080p getestet habe, schon fast an Körperverletzung meiner Augen grenzte. Denn 1080p auf einen UHD Monitor ist NICHT das Gleiche wie auf einem nativen 1080p Panel. Hinzu kam, dass man FSR 1.0 in der Performancestufe beim Upscalen auf 1080p nur schwer ertragen kann! Da muss man leider durch. Wenn das Thema FSR 1.0 interessiert, dazu hatte ich bereits ein Artikel: Klick hier!

Ihr wollt noch mehr zum Thema FSR/RSR/NIS/DLSS? Weiterführende Artikel findet ihr auf der Webseite: Unter der Suchfunktion – einfach das Schlagwort eingeben!

Ein Thema noch, solltet ihr im weiteren Verlauf 4K statt UHD lesen, dann bitte nicht kleinlich werden. Ich nutze 4K synonym für UHD! Mir ist bewusst, dass 4K und UHD im Grunde weder das Gleiche und schon gar nicht Dasselbe ist. Dann legen wir mal los…

Kommentar

Lade neue Kommentare

ipat66

Urgestein

1,352 Kommentare 1,353 Likes

Danke @Fritz Hunter

Das Ganze geht in die richtige Richtung.
Sowohl für AMD als auch Nvidea ; vor allem aber für mich und viele andere Besitzer einer Mittelklasse GPU.

Damit lässt es sich unter minimalen qualitativen Abstrichen einfach weiterspielen.
Die nächste Bitcoin-Blase kann man dann auch besser aussitzen.

Bin schon gespannt auf Teil 2....:)

Antwort 7 Likes

Corro Dedd

Urgestein

1,807 Kommentare 664 Likes

Moin, du hast auf Seite 3 die Folie für 1080p bei 4k drin und bei dem Satz tausche ein 'b' gegen ein 'g' ;)

Antwort 1 Like

Thy

Urgestein

1,843 Kommentare 744 Likes

Wenn du dabei bist, könntest du im gleichen Satz noch ein störendes t aus spatital entfernen.

Antwort 1 Like

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Danke für den wirklich erstklassigen Test. Und der kommt genau zur richtigen Zeit. Wäre schön, wenn aus der kommenden RTX 4090 eine 7900XT würde.

Antwort 2 Likes

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Test und Bild gefixt... Danke für die Hinweise!

Antwort 1 Like

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Danke, eventuell kann mir Igor eine 6950 XT ausleihen. Dann bekommt die 3080 Ti mal das Fürchten gelehrt! :cool:

Ich bin am Überlegen, ob ich die 5700 XT und die gute alte RX 590 noch nachtträglich teste... Dafür fehlen mir leider auch die Gegenspieler... mist aber auch... Ich brauche auch so ein GPU-Lager wie @Igor Wallossek 🤣

Antwort 3 Likes

My-konos

Veteran

270 Kommentare 91 Likes

Wirklich schöner Vergleich, gerade im Hinblick auf die Verbesserungen von 1.0 zu 2.0. Und es zeigt vor allem in die richtige Richtung: Was per Softwareentwicklung noch aus dieser Hardware herausgeholt werden kann, ohne dass man die neueste Technik mit der 500 Watt Brechstange prügeln muss, ist genau der richtige Weg. Die casual gamer Abteilung hat weder die Präferenz so viel Geld für die Hardware auszugeben, noch für das dazugehörige Kernkraftwerk.

Leider ist die Auswahl der unterstützten Games... Naja... Ich verstehe, dass dies natürlich vorrangig für aktuelle Games implementiert wird, allerdings sitzt man als Fan von gewissen Perlen der letzten paar Jahre dann etwas deprimiert vor dem Bildschirm: Ein Witcher 3, GTA5 oder Metro - Wer würde dies jetzt nicht gerne nochmal in min 1440p mit 100fps+ spielen wollen?

Antwort 3 Likes

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Dafür gibt es im Zweifel ja RSR bzw. NIS. In 1440p kann man das sogar noch irgendwie nutzen. Man muss nur aufpassen, dass man die Renderauflösung nicht arg reduziert.

Antwort 1 Like

ro///M3o

Veteran

340 Kommentare 239 Likes

Klasse Test wie immer, vielen Dank :)

Geil ist, dass ich FSR2.0 mit jeder belibigen Karte nutzen kann soweit im Spiel implementiert, ist das richtig? Es gibt keinerlei Einschränkung? Z.B. mit meiner GTX1650 oder Vega3 IGP vom Office Rechnerchen? Bitte nicht nach dem Sinn und Zweck fragen, ich finde es einfach nur geil, dass es möglich ist 🙃

Antwort 1 Like

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Ab Polaris (400er aufwärts über Vega bis 6000er) werden unterschützt. Bei NVIDIA geht es bis einschließlich Pascal (1000er zb. GTX 1060)

Antwort 1 Like

Thy

Urgestein

1,843 Kommentare 744 Likes

Mit Lossless Scaling soll FSR ja auch bei älteren Spielen laufen, bei denen FSR nicht integriert ist.

Antwort 1 Like

My-konos

Veteran

270 Kommentare 91 Likes

Moin, Jo, das hatte ich auch schon gesehen, allerdings setzt dies den windowed mode voraus, wodurch VRR über freesync / gsync anscheinend Probleme bereitet. Daher hatte ich mir das nicht näher angesehen. Erfahrungen damit?

@FritzHunter01 : kenne ja deinen Test dazu :) aber qualitativ ist das eben doch eine ganz andere Hausnummer, wenn ich die Bilder so Vergleiche. ;)

Antwort Gefällt mir

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Im Fenstermodus steigt die Latenz drastisch an! Siehe Link

Ob das bzgl. der VRR Probleme macht kann ich gar nicht sagen. Damit habe ich mich noch gar nicht befasst. Ich kann mir aber gerade nicht vorstellen, dass das einen Einfluss auf die Sync-Technologien hat.

Antwort Gefällt mir

Klicke zum Ausklappem
My-konos

Veteran

270 Kommentare 91 Likes

Die Latenz kommt noch obendrauf, wobei ich dass nur bei fps games für wirklich problematisch halte.

Bzgl VRR gab es haufenweise Berichte, dass es bei manchen games funktioniert, bei anderen nicht, nur teilweise mit Fehlen etc. Daher nie weiter beschäftigt. Inklusive dem Latenz Thema.

Antwort Gefällt mir

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Das mit der Latenz habe ich ja schwarz auf weiß nachgewiesen! Das mit der VRR muss ich mir anschauen. Vielleicht ist das was dran und einen Artikel wert

Antwort 2 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Die Sache mit den Latenzen finde ich durchaus interessant. Da würde ich mich über kommende investigative freuen.

Antwort 3 Likes

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Das gilt allgemein! Vollbild oder Latenzverlust… investigative Abgeschlossen! 😎

Oder meinst du, dass das die Leser nur auf das Spiel in dem Artikel bezogen haben? Das wäre unglücklich

Antwort Gefällt mir

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Ich bin nach mehrfachem Versuch leider noch immer nicht dazu gekommen,
mich im Detail in den Artikel einzulesen.
Bisher bin ich immer bis zum Bild mit dem Testsystem gekommen,
und dann in einen unkontrollierten Lachanfall geraten, aufgrund der ungewollten Komik,
daß das Sparschwein auf der Fensterbank dem Setup demonstrativ den nackten Allerwertesten entgegenstreckt 😂🤣

Danke dafür!

Ich versuche es weiter.

Antwort 1 Like

FritzHunter01

Moderator

1,150 Kommentare 1,566 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung