Reviews NVIDIA DLSS und AMD FSR im DIREKTEN Vergleich | Performance-Boost und Qualitätcheck in der Praxis

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.751
Bewertungspunkte
8.481
Punkte
1
Standort
Redaktion
Bisher hatte man das Gefühl, AMD und NVIDIA gehen sich fast schon wie abgesprochen aus dem Weg, wenn es um die direkte Vergleichbarkeit von DLSS und FSR geht. Keines der aktuellen Spiele nutzte beide Verfahren, um einen direktenen 1:1 Vergleich zu ermöglichen. Und dann kam Necromunda Hired Gun. Gut, das Spiel ist weder ein echter […]

Hier den ganzen Artikel lesen
 
Da kann ich @Rammwurst nur Recht geben und viele Unterschiede fallen auch erst in Bewegung auf, zum Beispiel das Anti Aliasing halt.

Es ist gut das FSR soviel FPS rausholt und es sieht auch gut aus, aber zu DLSS fehlt meiner Meinung auch noch einiges. Klar die Leute die keine RTX haben oder denen die Details nicht so wichtig sind, werden mit FSR sehr gut bedient.

Edit: Habe auch mal ein Video (4K) an dem Beispiel Rust gemacht, hier sieht man z.b. deutliche Unterschiede bei der Vegetation oder an den Kanten des Gebäudes. Sorry für die teilweise schlechte Aufnahme, aber ich denke es wird klar was ich meine.

 
Zuletzt bearbeitet :
Überall, wirklich überall wird nachgewiesen, dass FSR um einiges schlechter ist als DLSS und dann darf man sich hier sowas antun... traurig!
Aber da hier auch eine "Red Corner" dauerhaft oben angepinnt ist auf der Startseite, wundert mich das Bias nicht.
 
Folgende Karten stehen bei mir auf der Liste:

RX 590
RX 5700 XT
RX 6700 XT
RTX 3060 Ti
eventuell eine Titan XP (muss ich mir von Kollegen ausleihen)
GTX 1060 6GB

Damit sollten so ziemlicher jeder die Leistung einordenen können...

Zuerst einmal besten Dank fuer den sehr interessanten Artikel und die damit verbundene Muehe, die Du Dir gemacht hast.

Auch wenn einige das von Dir gefaellte salomonische Schlussurteil zwischen nVidias DLSS 2.0 (nicht 1.0, das gab es aber auch einmal, auch wenn einige das evt. schon vergessen haben 😏) und AMDs/RTGs FSR kritisieren anhand des gewaehlten Spiels (allen kann man es sowieso i.d.R. nicht recht machen), sieht das doch schon ziemlich vielversprechend aus, wenn es primaer darum geht, dass dem Kunden mehr geboten wird (egal ob dieser nVidia oder AMD/RTG GPUs kauft).

Abschliessend wuerde ich mir noch wuenschen, dass die RTX 3060 und die (bald wohl offiziell "erhaeltliche", evt. schon bei Igor's Lab als Testkarte sich eingefundene ;) @Igor Wallossek ) RX 6600XT als im Prinzip erschwinglichste Einsteiger-GPUs noch nachtraeglich mit in den Testreigen/auf Deine Liste auf zu nehmen.

Momentan schaue ich mir auch die RTX 3060, RTX 3060Ti und RTX 6700XT bei chinesischen Online-Haendlern an, bei denen letztere Kartenmodelle, z.T. schon deutlich guenstiger als in Deutschland ebenfalls lagernd zu haben sind (bspw. eine richtig gute Gigabyte RTX 3060 Ti Gaming OC Pro fuer 4300 RMB), auch wenn bizzarrer Weise meiner Erfahrung nach Elektronik und PC Komponenten trotz dortiger Herstellung in China eigentlich fuer eine Privatperson teurer einzukaufen sind als in Deutschland.

Nun, ca. 560 Euro fuer o.g. Modell von Gigabyte in der fuer Mining geblockten Version sind mir aber trotzdem noch zu teuer bezogen auf den 399 US$ MSRP/UVP (der wohl schwaecher ausgestatteten/limitierteren nVidia Founders Edition allerdings), aber bei ca. 100 Euro weniger koennte ich wohl doch schwach werden fuer das relativ geraeuscharme RTX 3060Ti Gaming OC Pro Custom-Modell, auch wenn mich die 8GB Speicherausbau etwas stoeren (da ich nicht glaube, dass 8GB unter Full HD ewig ausreichen werden, denn das haben 4 und 6GB vorher auch nicht, obwohl das vor einigen Jahren auch behauptet wurde) und die 12 GB bei einer RTX 3060 trotz deutlich geringerer Rohleistung (die es fuer bessere Texturen aber nicht unbedingt braucht) dahingegen nicht.
Die ebenfalls mit 12 GB bestueckte DLSS-lose RX 6700XT gibt es zwar auch schon in Sapphires spartanischer Pulse Ausgabe fuer 4550 RMB (knapp 590 Euro umgerechnet) bei chinesischen Onlinehaendlern aktuell, aber da ist die zukuenftige FSR Implementierung und Unterstuetzung durch Entwickler umso so relevanter und angesichts des hohen Takts der GPU hege ich da auch mehr Zweifel bzgl. der Nutzungs-/Lebenszeit, ob RX 6700XT Karten 5+ Jahre halten koennen.
Die RX 6600XT interessiert mich auch wegen des mickrigen Infinity Caches und der unverhaeltnismaessig hoch angesetzten UVP nicht, aber fuer andere mag diese einer RTX 3060, trotz des geringeren Speichers aber wegen der etwas hoeheren Leistung (jedoch wohl nicht auf RTX 3060 Ti -Niveau), vorzuziehen zu sein, wenn DLSS 2.0 und RT-Raytracing-Leistung und eben nur 8GB Speicher keine Rolle spielen.

Die nVidia Colorful Karten (z.B. Tomahawk/BattleAx) sind uebrigens noch guenstiger als der ausserhalb Chinas eher bekannte Rest von anderen Boardpartnern und auch wenn man davon liest/hoert, dass diese Colorful Grafikkarten qualitativ eigentlich z.T. besser als einige von den etablierteren/Legacy-Boardpartnern sein sollen, so scheinen diese gerade bei den Kuehlloesungen/der Lautstaerke wohl zu schwaecheln (was fuer mich leider ein K.O. Kriterium ist, wenn es ein gewisses Ausmass annimmt) trotz qualitativ guter Komponenten und geringem Powerlimit/hoeherem OC-Potential.
 
Zuletzt bearbeitet :
Überall, wirklich überall wird nachgewiesen, dass FSR um einiges schlechter ist als DLSS und dann darf man sich hier sowas antun... traurig!
Aber da hier auch eine "Red Corner" dauerhaft oben angepinnt ist auf der Startseite, wundert mich das Bias nicht.
Hier werden beide Techniken in einem Spiel verglichen dass beide auch anbieten, ein Vergleich bietet sich entsprechend an.
In diesem getesteten Fall ist das Fazit des Autors dann nun mal so, entsprechend hinterlegt mit Beispielen. Wo ist da jetzt genau das Problem.

Hier jetzt zu flamen weil das MPT hier angepinnt ist, ist einfach nur kindisch. Es kann niemand was dafür dass man auf den NV Karten nunmal derzeit nichts vergleichbares machen kann.
 
Zuletzt bearbeitet :
Überall, wirklich überall wird nachgewiesen, dass FSR um einiges schlechter ist als DLSS und dann darf man sich hier sowas antun... traurig!
Aber da hier auch eine "Red Corner" dauerhaft oben angepinnt ist auf der Startseite, wundert mich das Bias nicht.

Danke für deinen Kommentar, ich finde es gut, wenn es unterschiedliche Meinungen gibt. Ich empfehle dir, das Video von Tim (Hardware Unboxed) zum Thema FSR vs DLSS.

Ich habe jetzt selbst Marvel Avengers und werde das auch testen…

Godfall und Terminator kann ich leider nicht mit DLSS vergleichen, aber einen Test machen, wenn ich die direkten Vergleiche in anderen Spielen gesehen habe.

Da der Vergleich zwischen FSR 1.0 und DLSS 2.2 ziemlich hinkt und vermutlich viele bereits den Start von DLSS 1.0 vergessen haben, möchte ich nicht weiter kommentieren!

Ich verstehe, dass es hier zu einer Kontroverse kommt, die habe ich vor Monaten prophezeit.

Schade, dass es immer nur um Hass und Gefühle geht, die zu Fakten aufgebläht werden.

Wer profitiert denn davon? Was ist das Ziel, das man mit solchen Aussagen erreicht? Will man unbedingt spalten? Vermutlich hast du noch keinen meiner anderen Artikel gelesen. Ist auch nicht schlimm, aber bitte keine Beleidigungen und diskreditieren hier im Forum!

Deine Unterstellungen sind leider haltlos!

Sie es positiv… von FSR können viele Spieler profitieren und sowohl AMD als auch NVIDIA werden sich jetzt besonders reinhängen, um hier noch mehr zu verbessern.

Am Enden profitieren wir davon…bis es dann mal wieder GPUs zur UVP gibt…

Deine Meinung ist mir wichtig, versteh das bitte richtig! Es geht um den toxischen Beigeschmack
 
@Igor Du musst dringend an deinem
Image arbeiten...NV Knecht😉😁
 
Lustig ist zudem, dass man mich in anderen Foren gern als NVIDIA-Knecht bezeichnet, der DLSS als den heiligen Gral sieht. Bitte entscheidet Euch doch mal, wo die Seite nun biased ist. :D
Naja. Man liest einen Artikel und stellt fest, dass Nvidia dich in Knechtschaft hält. Dann liest man einen anderen Artikel und merkt, dass es doch AMD sein könnte. 😉
Wie soll man sich da entscheiden?!
 
So muss das sein! Hauptsache, die Kohle stimmt 😁
 
Lustig ist zudem, dass man mich in anderen Foren gern als NVIDIA-Knecht bezeichnet, der DLSS als den heiligen Gral sieht. Bitte entscheidet Euch doch mal, wo die Seite nun biased ist. :D
So lange es so bleibt, ist es doch der beste Beleg für Neutralität ;) wenn man sich dort einfach entscheiden kann, wird es eng
 
Naja. Man liest einen Artikel und stellt fest, dass Nvidia dich in Knechtschaft hält. Dann liest man einen anderen Artikel und merkt, dass es doch AMD sein könnte. 😉
Wie soll man sich da entscheiden?!
Zumal so mancher Kritiker [also derer, die Igor mal in diese oder jene Ecke stellen wollen] sich hier ja auch bewusst nicht festlegen will, wiel es ja relativ bequem ist, wenn man das je nach konkreter Sachlage und zur Unterstützung der eigenen Sichtweise mal so und mal so interpretieren/auslegen kann. ;)
Wobei zugegebenermaßen diese Art Interpretationsspielraum sich zumeist eher Forenuser einräumen, denn einem Medienvertreter würde da schnell die Reputation abhanden kommen, wenn dessen Ansichten/Meinungen wie das sprichtwortliche Fähnchen im Wind ständig wechseln würden.
 
Zuletzt bearbeitet :
@Igor Wallossek
Schöner Artikel.
Ich Frage mich, aber auch ob man FSR als „Upscaled-sampling-Anti-aliasing“ (angelehnt an Supersampling-Anti-aliasing) nutzen kann. Also ein besseres Bild bei nativer Monitorauflösung.


Also als Beispiel.
Ein 1440p Monitor.
AMD Virtual Super Resolution aktivieren.
Spielauflösung auf 4k stellen mit FSR Quality (1440p).

Ob das Bild besser ist als nativ 1440p was Kantenglättung angeht, schärfe …? Bei fast gleicher Performance? Gibt es Unterschiede wenn man ingame AA wechselt (TAA…) oder komplett deaktiviert.

Die Frage ist wie sich das Bild auf einem 1440p Monitor vergleicht. Nicht bei einem 4k Monitor.
 
Zuletzt bearbeitet :
Hmm.. ich muss aber auch sagen, dass die Vergleichsbilder recht ungünstig eingefügt sind.. zum einen weil sie halt nicht aus der komplett selben Perspektive aufgenommen wurden, zum anderen weil sie auf der Seite zu klein eingebettet sind, so dass man mit dem Slider eigentlich gar keinen richtigen Vergleich ziehen kann.

Ich hab mir mal die ersten Vergleichsbilder via Browser in der Originalgröße heruntergeladen (DLSS Quality vs. FSR High Quality und Balanced vs. Quality) und bin da der Meinung, dass FSR da qualitätsmäßig im Vergleich schon schlechter da steht. Es wird halt schlechter hochskaliert und dann versucht, übermäßig nachzuschärfen. Mit 2x - 3x Zoom sieht man es halt noch deutlicher, aber auch bei 1x sieht man da schon den Unterschied.

Zum Beispiel bei den schwarzen Abgrenzern auf den Leuchtstäben, die Umrandung der Kugeln in der oberen Bildmitte, die Bullaugen auf den Kugeln links hinten, diverse Stacheln, Bolzen, Schrauben.. dazu kommt dann dieses komische "Schärferauschen", z.B. auf dem großen Schädel an der Augenbraue bzw. Stirn oder der Spielerwaffe..

Geschmäcker sind sicherlich auch verschieden und dadurch wird ja FSR auch kein schlechtes Feature. Ich denke aber schon, dass es von der Qualität her schlechter ist, dafür aber zugänglicher.
 
Erstmal Klasse das es was für die AMD-User gibt. Noch besser, das selbst die alten Nvidia Karten hiervon noch profitieren können.

Aber ich verliere so langsam ehrlicherweise den Überblick. Aus dem Grund wäre mein persönlicher Traum ( wenn es denn die Games gibt)
ein großer Test.

AMD FSR 1444p/4K mit der AMD 6000er und 5000er Serie NIVDIA 3000er -2000er-1000er. Die 6000er sollte dann auch mal mit RT laufen. Das ganze dann gegen DLSS ebenfalls mit und ohne RT. Fände ich jedenfalls interessant.

Ich weiss, es wird nur ein Traum bleiben, aber wünschen darf man sich ja was. Die Thematik wird uns sowieso noch lange beschäftigen.

Ansonsten finde ich, gibt es keinen Grund zu streiten. Wer NVIDIA hat, kann ohnehin beides nutzen und man wird sehen, wohin die Reise geht. Bin gespannt was FSR in Verbindung mit RT leistet.

 
Zuletzt bearbeitet :
Ich hab mir mal die ersten Vergleichsbilder via Browser in der Originalgröße heruntergeladen (DLSS Quality vs. FSR High Quality und Balanced vs. Quality) und bin da der Meinung, dass FSR da qualitätsmäßig im Vergleich schon schlechter da steht. Es wird halt schlechter hochskaliert und dann versucht, übermäßig nachzuschärfen. Mit 2x - 3x Zoom sieht man es halt noch deutlicher, aber auch bei 1x sieht man da schon den Unterschied.
Mit das dümmste was man machen kann ist das Scale-up Ergebnis nochmal zu skalieren, nur damit man die Unterschiede sieht. Es ist schlicht digitale Signalverarbeitung, die macht man wenn immer möglich in einem Schritt weil jeder weitere Schritt die systematischen Schwächen der Implementierung verstärkt.
Erinnert mich hart an meine Xiph.Org Zeiten, da haben einige pappnasen 100 durchläufe (kodierert - dekodiert) um schwächen aufzuzeigen. Es ist für User offensichtlich schwerer zu verstehen als man so denkt. Aber tröste dich damit, dass du nicht der eizigste bis der das nicht versteht.

Hut ab für Herrn Hunter, offensichtlichen verstanden.
 
Mit das dümmste was man machen kann ist das Scale-up Ergebnis nochmal zu skalieren, nur damit man die Unterschiede sieht. Es ist schlicht digitale Signalverarbeitung, die macht man wenn immer möglich in einem Schritt weil jeder weitere Schritt die systematischen Schwächen der Implementierung verstärkt.
Erinnert mich hart an meine Xiph.Org Zeiten, da haben einige pappnasen 100 durchläufe (kodierert - dekodiert) um schwächen aufzuzeigen. Es ist für User offensichtlich schwerer zu verstehen als man so denkt. Aber tröste dich damit, dass du nicht der eizigste bis der das nicht versteht.

Hut ab für Herrn Hunter, offensichtlichen verstanden.

Da kann ich mich nur anschließen! Interessant, dass wir beiden uns mal auf Anhieb einig sind!!! 🤪
 
Man darf nicht vergessen, das AMD gerade mit FSR startet. Und wieso muss die Diskussion eigentlich immer NVDIA VS AMD oder Intel VS AMD laufen. Alles was kostenlos mehr Leistung bringt, wird doch gern gesehen. DLSS hat meine alte 2080 super in meinem Zweitrechner am Leben gehalten und vielleicht behalte ich sie dank FSR nun noch länger.

Ansonsten hat doch jeder ein eigenes Gehirn, welches sich durch Denken kaum abnutzt und der Prozess verursacht in der Regel auch keine Schmerzen. Wer nun zu dem Schluss kommt, NVIDIA sei die bessere Karte, soll sie kaufen und wer sich bei AMD besser aufgehoben fühlt, schlägt dazu. Für beide Varianten gibt es gute Argumente.

Wichtig ist, das beide Hersteller genug Käufer finden um weiter zu entwickeln und zu produzieren. Das schlimmste wäre doch plötzlich, sich als Kunde mit einen Monopolisten herumschlagen zu müssen. Da würden die Fanboys, egal aus welchem Lager, mit Sicherheit Bauklötze staunen.
 
Oben Unten