Reviews NVIDIA DLSS und AMD FSR im DIREKTEN Vergleich | Performance-Boost und Qualitätcheck in der Praxis

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.833
Bewertungspunkte
8.891
Punkte
1
Standort
Redaktion
Bisher hatte man das Gefühl, AMD und NVIDIA gehen sich fast schon wie abgesprochen aus dem Weg, wenn es um die direkte Vergleichbarkeit von DLSS und FSR geht. Keines der aktuellen Spiele nutzte beide Verfahren, um einen direktenen 1:1 Vergleich zu ermöglichen. Und dann kam Necromunda Hired Gun. Gut, das Spiel ist weder ein echter […]

Hier den ganzen Artikel lesen
 
Gute Frage, lass mich mal auf der HP nachschauen...

MEG X570 ACE sollte es lauten.... Danke für den Hinweis.... man muss nur Lesen bzw. Tippen können.... Brauch ich wohl einen Augenarzt und/oder einen Schmied... :p
Fällt einem natürlich auf, wenn man selber das MB besitzt😉😁
 
Da kann ich @Rammwurst nur Recht geben und viele Unterschiede fallen auch erst in Bewegung auf, zum Beispiel das Anti Aliasing halt.

Es ist gut das FSR soviel FPS rausholt und es sieht auch gut aus, aber zu DLSS fehlt meiner Meinung auch noch einiges. Klar die Leute die keine RTX haben oder denen die Details nicht so wichtig sind, werden mit FSR sehr gut bedient.

Edit: Habe auch mal ein Video (4K) an dem Beispiel Rust gemacht, hier sieht man z.b. deutliche Unterschiede bei der Vegetation oder an den Kanten des Gebäudes. Sorry für die teilweise schlechte Aufnahme, aber ich denke es wird klar was ich meine.

 
Zuletzt bearbeitet :
Folgende Karten stehen bei mir auf der Liste:

RX 590
RX 5700 XT
RX 6700 XT
RTX 3060 Ti
eventuell eine Titan XP (muss ich mir von Kollegen ausleihen)
GTX 1060 6GB

Damit sollten so ziemlicher jeder die Leistung einordenen können...

Zuerst einmal besten Dank fuer den sehr interessanten Artikel und die damit verbundene Muehe, die Du Dir gemacht hast.

Auch wenn einige das von Dir gefaellte salomonische Schlussurteil zwischen nVidias DLSS 2.0 (nicht 1.0, das gab es aber auch einmal, auch wenn einige das evt. schon vergessen haben 😏) und AMDs/RTGs FSR kritisieren anhand des gewaehlten Spiels (allen kann man es sowieso i.d.R. nicht recht machen), sieht das doch schon ziemlich vielversprechend aus, wenn es primaer darum geht, dass dem Kunden mehr geboten wird (egal ob dieser nVidia oder AMD/RTG GPUs kauft).

Abschliessend wuerde ich mir noch wuenschen, dass die RTX 3060 und die (bald wohl offiziell "erhaeltliche", evt. schon bei Igor's Lab als Testkarte sich eingefundene ;) @Igor Wallossek ) RX 6600XT als im Prinzip erschwinglichste Einsteiger-GPUs noch nachtraeglich mit in den Testreigen/auf Deine Liste auf zu nehmen.

Momentan schaue ich mir auch die RTX 3060, RTX 3060Ti und RTX 6700XT bei chinesischen Online-Haendlern an, bei denen letztere Kartenmodelle, z.T. schon deutlich guenstiger als in Deutschland ebenfalls lagernd zu haben sind (bspw. eine richtig gute Gigabyte RTX 3060 Ti Gaming OC Pro fuer 4300 RMB), auch wenn bizzarrer Weise meiner Erfahrung nach Elektronik und PC Komponenten trotz dortiger Herstellung in China eigentlich fuer eine Privatperson teurer einzukaufen sind als in Deutschland.

Nun, ca. 560 Euro fuer o.g. Modell von Gigabyte in der fuer Mining geblockten Version sind mir aber trotzdem noch zu teuer bezogen auf den 399 US$ MSRP/UVP (der wohl schwaecher ausgestatteten/limitierteren nVidia Founders Edition allerdings), aber bei ca. 100 Euro weniger koennte ich wohl doch schwach werden fuer das relativ geraeuscharme RTX 3060Ti Gaming OC Pro Custom-Modell, auch wenn mich die 8GB Speicherausbau etwas stoeren (da ich nicht glaube, dass 8GB unter Full HD ewig ausreichen werden, denn das haben 4 und 6GB vorher auch nicht, obwohl das vor einigen Jahren auch behauptet wurde) und die 12 GB bei einer RTX 3060 trotz deutlich geringerer Rohleistung (die es fuer bessere Texturen aber nicht unbedingt braucht) dahingegen nicht.
Die ebenfalls mit 12 GB bestueckte DLSS-lose RX 6700XT gibt es zwar auch schon in Sapphires spartanischer Pulse Ausgabe fuer 4550 RMB (knapp 590 Euro umgerechnet) bei chinesischen Onlinehaendlern aktuell, aber da ist die zukuenftige FSR Implementierung und Unterstuetzung durch Entwickler umso so relevanter und angesichts des hohen Takts der GPU hege ich da auch mehr Zweifel bzgl. der Nutzungs-/Lebenszeit, ob RX 6700XT Karten 5+ Jahre halten koennen.
Die RX 6600XT interessiert mich auch wegen des mickrigen Infinity Caches und der unverhaeltnismaessig hoch angesetzten UVP nicht, aber fuer andere mag diese einer RTX 3060, trotz des geringeren Speichers aber wegen der etwas hoeheren Leistung (jedoch wohl nicht auf RTX 3060 Ti -Niveau), vorzuziehen zu sein, wenn DLSS 2.0 und RT-Raytracing-Leistung und eben nur 8GB Speicher keine Rolle spielen.

Die nVidia Colorful Karten (z.B. Tomahawk/BattleAx) sind uebrigens noch guenstiger als der ausserhalb Chinas eher bekannte Rest von anderen Boardpartnern und auch wenn man davon liest/hoert, dass diese Colorful Grafikkarten qualitativ eigentlich z.T. besser als einige von den etablierteren/Legacy-Boardpartnern sein sollen, so scheinen diese gerade bei den Kuehlloesungen/der Lautstaerke wohl zu schwaecheln (was fuer mich leider ein K.O. Kriterium ist, wenn es ein gewisses Ausmass annimmt) trotz qualitativ guter Komponenten und geringem Powerlimit/hoeherem OC-Potential.
 
Zuletzt bearbeitet :
@Igor Du musst dringend an deinem
Image arbeiten...NV Knecht😉😁
 
Lustig ist zudem, dass man mich in anderen Foren gern als NVIDIA-Knecht bezeichnet, der DLSS als den heiligen Gral sieht. Bitte entscheidet Euch doch mal, wo die Seite nun biased ist. :D
Naja. Man liest einen Artikel und stellt fest, dass Nvidia dich in Knechtschaft hält. Dann liest man einen anderen Artikel und merkt, dass es doch AMD sein könnte. 😉
Wie soll man sich da entscheiden?!
 
So muss das sein! Hauptsache, die Kohle stimmt 😁
 
Lustig ist zudem, dass man mich in anderen Foren gern als NVIDIA-Knecht bezeichnet, der DLSS als den heiligen Gral sieht. Bitte entscheidet Euch doch mal, wo die Seite nun biased ist. :D
So lange es so bleibt, ist es doch der beste Beleg für Neutralität ;) wenn man sich dort einfach entscheiden kann, wird es eng
 
Naja. Man liest einen Artikel und stellt fest, dass Nvidia dich in Knechtschaft hält. Dann liest man einen anderen Artikel und merkt, dass es doch AMD sein könnte. 😉
Wie soll man sich da entscheiden?!
Zumal so mancher Kritiker [also derer, die Igor mal in diese oder jene Ecke stellen wollen] sich hier ja auch bewusst nicht festlegen will, wiel es ja relativ bequem ist, wenn man das je nach konkreter Sachlage und zur Unterstützung der eigenen Sichtweise mal so und mal so interpretieren/auslegen kann. ;)
Wobei zugegebenermaßen diese Art Interpretationsspielraum sich zumeist eher Forenuser einräumen, denn einem Medienvertreter würde da schnell die Reputation abhanden kommen, wenn dessen Ansichten/Meinungen wie das sprichtwortliche Fähnchen im Wind ständig wechseln würden.
 
Zuletzt bearbeitet :
@Igor Wallossek
Schöner Artikel.
Ich Frage mich, aber auch ob man FSR als „Upscaled-sampling-Anti-aliasing“ (angelehnt an Supersampling-Anti-aliasing) nutzen kann. Also ein besseres Bild bei nativer Monitorauflösung.


Also als Beispiel.
Ein 1440p Monitor.
AMD Virtual Super Resolution aktivieren.
Spielauflösung auf 4k stellen mit FSR Quality (1440p).

Ob das Bild besser ist als nativ 1440p was Kantenglättung angeht, schärfe …? Bei fast gleicher Performance? Gibt es Unterschiede wenn man ingame AA wechselt (TAA…) oder komplett deaktiviert.

Die Frage ist wie sich das Bild auf einem 1440p Monitor vergleicht. Nicht bei einem 4k Monitor.
 
Zuletzt bearbeitet :
Hmm.. ich muss aber auch sagen, dass die Vergleichsbilder recht ungünstig eingefügt sind.. zum einen weil sie halt nicht aus der komplett selben Perspektive aufgenommen wurden, zum anderen weil sie auf der Seite zu klein eingebettet sind, so dass man mit dem Slider eigentlich gar keinen richtigen Vergleich ziehen kann.

Ich hab mir mal die ersten Vergleichsbilder via Browser in der Originalgröße heruntergeladen (DLSS Quality vs. FSR High Quality und Balanced vs. Quality) und bin da der Meinung, dass FSR da qualitätsmäßig im Vergleich schon schlechter da steht. Es wird halt schlechter hochskaliert und dann versucht, übermäßig nachzuschärfen. Mit 2x - 3x Zoom sieht man es halt noch deutlicher, aber auch bei 1x sieht man da schon den Unterschied.

Zum Beispiel bei den schwarzen Abgrenzern auf den Leuchtstäben, die Umrandung der Kugeln in der oberen Bildmitte, die Bullaugen auf den Kugeln links hinten, diverse Stacheln, Bolzen, Schrauben.. dazu kommt dann dieses komische "Schärferauschen", z.B. auf dem großen Schädel an der Augenbraue bzw. Stirn oder der Spielerwaffe..

Geschmäcker sind sicherlich auch verschieden und dadurch wird ja FSR auch kein schlechtes Feature. Ich denke aber schon, dass es von der Qualität her schlechter ist, dafür aber zugänglicher.
 
Erstmal Klasse das es was für die AMD-User gibt. Noch besser, das selbst die alten Nvidia Karten hiervon noch profitieren können.

Aber ich verliere so langsam ehrlicherweise den Überblick. Aus dem Grund wäre mein persönlicher Traum ( wenn es denn die Games gibt)
ein großer Test.

AMD FSR 1444p/4K mit der AMD 6000er und 5000er Serie NIVDIA 3000er -2000er-1000er. Die 6000er sollte dann auch mal mit RT laufen. Das ganze dann gegen DLSS ebenfalls mit und ohne RT. Fände ich jedenfalls interessant.

Ich weiss, es wird nur ein Traum bleiben, aber wünschen darf man sich ja was. Die Thematik wird uns sowieso noch lange beschäftigen.

Ansonsten finde ich, gibt es keinen Grund zu streiten. Wer NVIDIA hat, kann ohnehin beides nutzen und man wird sehen, wohin die Reise geht. Bin gespannt was FSR in Verbindung mit RT leistet.

 
Zuletzt bearbeitet :
Ich hab mir mal die ersten Vergleichsbilder via Browser in der Originalgröße heruntergeladen (DLSS Quality vs. FSR High Quality und Balanced vs. Quality) und bin da der Meinung, dass FSR da qualitätsmäßig im Vergleich schon schlechter da steht. Es wird halt schlechter hochskaliert und dann versucht, übermäßig nachzuschärfen. Mit 2x - 3x Zoom sieht man es halt noch deutlicher, aber auch bei 1x sieht man da schon den Unterschied.
Mit das dümmste was man machen kann ist das Scale-up Ergebnis nochmal zu skalieren, nur damit man die Unterschiede sieht. Es ist schlicht digitale Signalverarbeitung, die macht man wenn immer möglich in einem Schritt weil jeder weitere Schritt die systematischen Schwächen der Implementierung verstärkt.
Erinnert mich hart an meine Xiph.Org Zeiten, da haben einige pappnasen 100 durchläufe (kodierert - dekodiert) um schwächen aufzuzeigen. Es ist für User offensichtlich schwerer zu verstehen als man so denkt. Aber tröste dich damit, dass du nicht der eizigste bis der das nicht versteht.

Hut ab für Herrn Hunter, offensichtlichen verstanden.
 
Mit das dümmste was man machen kann ist das Scale-up Ergebnis nochmal zu skalieren, nur damit man die Unterschiede sieht. Es ist schlicht digitale Signalverarbeitung, die macht man wenn immer möglich in einem Schritt weil jeder weitere Schritt die systematischen Schwächen der Implementierung verstärkt.
Erinnert mich hart an meine Xiph.Org Zeiten, da haben einige pappnasen 100 durchläufe (kodierert - dekodiert) um schwächen aufzuzeigen. Es ist für User offensichtlich schwerer zu verstehen als man so denkt. Aber tröste dich damit, dass du nicht der eizigste bis der das nicht versteht.

Hut ab für Herrn Hunter, offensichtlichen verstanden.

Da kann ich mich nur anschließen! Interessant, dass wir beiden uns mal auf Anhieb einig sind!!! 🤪
 
Man darf nicht vergessen, das AMD gerade mit FSR startet. Und wieso muss die Diskussion eigentlich immer NVDIA VS AMD oder Intel VS AMD laufen. Alles was kostenlos mehr Leistung bringt, wird doch gern gesehen. DLSS hat meine alte 2080 super in meinem Zweitrechner am Leben gehalten und vielleicht behalte ich sie dank FSR nun noch länger.

Ansonsten hat doch jeder ein eigenes Gehirn, welches sich durch Denken kaum abnutzt und der Prozess verursacht in der Regel auch keine Schmerzen. Wer nun zu dem Schluss kommt, NVIDIA sei die bessere Karte, soll sie kaufen und wer sich bei AMD besser aufgehoben fühlt, schlägt dazu. Für beide Varianten gibt es gute Argumente.

Wichtig ist, das beide Hersteller genug Käufer finden um weiter zu entwickeln und zu produzieren. Das schlimmste wäre doch plötzlich, sich als Kunde mit einen Monopolisten herumschlagen zu müssen. Da würden die Fanboys, egal aus welchem Lager, mit Sicherheit Bauklötze staunen.
 
Man darf nicht vergessen, dass ich erst ein Spiel in Bezug auf DLSS und FSR verglichen habe.

Zum einen ist Verfügbarkeit beider im selben Spiel sehr begrenzt und zum anderen ist Necromunda jetzt nicht wirklich das Spiel wo DLSS seine Vorteile ausspielen kann.

FSR steht noch ganz am Anfang und muss sich entwickeln. Das war mit DLSS nicht anders!

Warten wir es einfach ab und sehen wir es doch mal positiv. Wir bekommen eine kostenlose Mehrleistung, ob jetzt mit oder ohne kleinere grafische Einbußen. Entscheidend ist in erster Linie, dass man nicht alle zwei Jahre gleich wieder extrem viel Geld für neue Hardware ausgeben muss!

Zum Beispiel die neue RTX 4090, die in 2022 kommen könnte.

4090 steht für?

A den Preis
B das Jahr der Verfügbarkeit
C die Stückzahlen zum Release

Sollte nur eine der Möglichkeit so eintreffen, dann ist jeder froh, wenn es FSR und DLSS gibt!

Hoffentlich ist die Verfügbarkeit der beiden Technologien dann so gegeben, dass wir das aussitzen können. 😎
 
Also das ist ja schon alles richtig was ihr sagt, aber wenn der Titel hier lautet:

NVIDIA DLSS und AMD FSR im DIREKTEN Vergleich | Performance-Boost und Qualitätcheck in der Praxis​

Und sogar noch den TAG Nvidia hat, dann braucht man sich nicht beschweren/wundern wenn zu DLSS auch Stellung genommen wird. Selbstverständlich wird es mit dem aktuellen DLSS verglichen, Nvidia hat da halt ein Zeitvorteil gehabt. Wenn jetzt ein ka WOW Konkurent rauskommt muss er sich auch gegen den aktuellen Stand behaupten.

Und bevor hier wieder gehated wird, ich finde FSR sehr gut und ja im Vergleich zu DLSS 1 ist es besser. Aber ich hoffe das AMD hier noch weiter ausbaut um auch zu DLSS 2.xx aufzuschließen und da sehe ich eben die Herausforderung. Es wäre aufjedenfall wünschenswert.

P.S. Ich finde es auch interessant wenn auf die Unterschiede eingegangen wird, um die Techniken besser zu verstehen und zu erkennen. Beide Technologien sind gut und ob am Ende Nvidia oder AMD oder Intel im Rechner ist, ist mir persönlich egal.
 
Oben Unten