Grundlagenartikel AMD FSR und NVIDIA DLSS als Leistungsverstärker | Marvel’ Avengers im Praxisvergleich

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Jetzt hat es doch länger gedauert als geplant, aber heute schauen wir uns den vorerst letzten Test zum Thema NVIDIA DLSS und AMD FSR an. Wir haben uns zu diesen beiden Upscaling-Verfahren nun schon einiges angeschaut und konnten interessante Themen feststellen. Da waren im Spiel Necromunda Hired Gun (siehe Link hier oder Link da), überraschender...
Hier den ganzen Artikel lesen
 
Auf der 3060TI Seite:
Besonders überrascht war ich hier, denn zum ersten Mal gewinnt DLSS die Performance-Krone. Bisher war hier FSR immer auf dem ersten Platz.
Im Diagramm ist FSR auf Platz 1. Falsches Label im Diagramm?
 
Auf der 3060TI Seite:

Im Diagramm ist FSR auf Platz 1. Falsches Label im Diagramm?

Nein, mein Fehler… ich war von der Tatsache so überrascht, denn DLSS hat in 1440p tatsächlich die Krone auf. Somit habe ich das falsch auf 1080p übertragen! 🤦🏼‍♂️ Also irgendwie war dann bei mir im Kopf DLSS immer vorne…

Habe es im Text korrigiert! Vielen Dank für Aufmerksamkeit
 
Danke für den Test @FritzHunter01.
Beide Techniken entschärfen ja etwas den Druck zum Upgrade der Karte, wobei FSR den Vorteil hat nicht an nvidia gebunden zu sein.

PS: Keine Sorge, die 4K Gamer-Fraktion wird auch noch auf ihre Kosten kommen. Die nötige Hardware sollte bald zur Verfügung stehen!
Ich bin gespannt (y)
 
Danke auch von meiner Seite. Ich benötige zum Glück noch keine der beiden Technologien, um Spiele auch mit hohen Details darstellen zu können. Da die Grafik zum Teil wirklich sehr vermatscht, bin ich auch kein Fan der Technologien. Deshalb sieht mein persönliches Ranking immer noch aus wie folgt:

1. Grafikkarte
2. Sync-Technologie
3. Details runter schrauben
4. DLSS / FSR

Gerade von 3 zu 4 lohnt es sich ein bisschen rum zu probieren. Denn was bringen mir max. Details bei den AA oder Texturen, wenn sowieso alles wegsuppt?
 
Sehe ich auch so… man kann an den richtigen Stellen im Menu drehen und einen guten Kompromiss zwischen Details und Leistungen finden… der sieht auch nicht schlechter aus
 
>Ich gehe also davon aus, wenn AMD hier nicht noch ein Ass im Ärmel hat, dann kommen sie nicht um das Thema KI, Deep Learning usw. herum! Es bleibt also spannend.

Ich halte keine Lösung für besser nur weil "KI" draufsteht, einzig und alleine das Ergebnis muss stimmen. Wenn man dann noch an die "extra" Hardware denkt die DLSS nutzt, dann sollte DLSS hier noch DEUTLICH besser abschneiden als das "old-school" FSR.

Ungeachtet dessen ist AMD doch gearde erst mit Microsofts DirectML in den Ring gekommen -und das unerwartet heftig.
 
Auf Seite 6 beim Test der rx590 sind die Benchmark in 1440p anstatt in Fhd, soll das so sein? Die Überschrift suggeriert etwas anderes.
 
Am Ende eines Tages ist es völlig egal ob da DLSS oder FSR draufsteht. Alles was hilft, das man in der aktuellen Situation mit seiner alten Karte noch zocken kann, ist willkommen. Und es ist nur eine Zeitfrage, bis die 3090/6900 Besitzer froh sind, das sie solche Techniken nutzen können.

Hoffentlich werden die Techniken schnell für alle aktuellen Spiele nutzbar gemacht!

Das ist viel wichtiger als wer wann wo 3 Frames mehr hat oder einen Tacken besser aussschaut.
 
NVidia will doch einen Schärferegler nachliefern, bzw. hat das schon, siehe FIST (der soll in Zukunft auch für mehr Spiele kompatibel werden oder sein). Dann wird es nur noch darauf ankommen, ob eine Engine besser mit FSR oder DLSS zurecht kommt. AMD hat den Vorteil das man keine proprietären Cores braucht und damit auch auf älterer oder Konkurrenzhardware lauffähig ist. Vermutlich bedient man so den größeren Anteil, bei GSync wars nicht anders. Man muss sich mittlerweile eingestehen, dass sich Freesync (v2.0) alias Adaptive Sync behauptet und durchgesetzt hat. Zuletzt hat NVidia deshalb die Anforderungen für GSync Ultimate aufgehelbelt (HDR 1000nits).
 
Auf Seite 6 beim Test der rx590 sind die Benchmark in 1440p anstatt in Fhd, soll das so sein? Die Überschrift suggeriert etwas anderes.

Die Werte entsprechen 1080p… ich habe vergessen die Headline der Folien auf 1080p anzupassen… das korrigiere ich!

Vielen Dank für den Hinweis
 
NVidia will doch einen Schärferegler nachliefern, bzw. hat das schon, siehe FIST (der soll in Zukunft auch für mehr Spiele kompatibel werden oder sein). Dann wird es nur noch darauf ankommen, ob eine Engine besser mit FSR oder DLSS zurecht kommt. AMD hat den Vorteil das man keine proprietären Cores braucht und damit auch auf älterer oder Konkurrenzhardware lauffähig ist. Vermutlich bedient man so den größeren Anteil, bei GSync wars nicht anders. Man muss sich mittlerweile eingestehen, dass sich Freesync (v2.0) alias Adaptive Sync behauptet und durchgesetzt hat. Zuletzt hat NVidia deshalb die Anforderungen für GSync Ultimate aufgehelbelt (HDR 1000nits).
Das mit dem Schärferegler stimmt in der Tat... das muss ich mir gesondert anschauen
 
>Ich gehe also davon aus, wenn AMD hier nicht noch ein Ass im Ärmel hat, dann kommen sie nicht um das Thema KI, Deep Learning usw. herum! Es bleibt also spannend.

Ich halte keine Lösung für besser nur weil "KI" draufsteht, einzig und alleine das Ergebnis muss stimmen. Wenn man dann noch an die "extra" Hardware denkt die DLSS nutzt, dann sollte DLSS hier noch DEUTLICH besser abschneiden als das "old-school" FSR.

Ungeachtet dessen ist AMD doch gearde erst mit Microsofts DirectML in den Ring gekommen -und das unerwartet heftig.

Das sieht nach einem Ass aus… oder wie siehst du das?
 
Oben Unten