NVidia Ultimativer visueller Vergleich zwischen AMD RIS, NVIDIA DLSS und FreeStyle

Noch mal, was hat Raytracing mit DLSS zu tun? Und wo schaue ich in die Röhre, wenn ich eine GPU habe ohne Raytracing? Alle Spiele funktionieren auch ohne Raytracing und kein Spiel ist unspielbar ohne Raytracing.

RTX wird in genau 5 Spielen unterstützt und davon interessiert mich maximal BFV ein wenig. Und gerade in BFV ist es zum einen nur recht schmal implementiert und zum anderen hat man bei einem Teamshooter nicht gerade wirklich Zeit sich die spiegelnden Lichtstrahlen die ganze Zeit an zu gucken oder wie schön alles in Pfützen spiegelt.
Somit verpasse ich absolut nichts ohne Raytracing. Und selbst wenn mich Raytracing interessieren würde, da ich wie viele andere ein Marketingopfer wäre, müsste ich min. eine RTX2080 kaufen um das Feature ohne große Leistungseinbußen nutzen zu können. Ja nein, zu teuer und zu weniger Nutzen um den Preisaufschlag zu rechtfertigen.

Aber rede dir nur weiter brav ein, das Raytracing das Killerfeature schlecht hin ist und das man nicht mehr ohne Leben kann. Vielleicht in 2-3 Jahren, wenn AMD es implementiert und man dafür keine Zusatz Kerne benötigt und die Entwickler es vernünftig in ihre Spiele implementieren können ohne das die Grafikkarten um bis zu 50% Leistung bei RT Nutzung verlieren. Dann könnte es eventuell der neue heiße Scheiß werden. Aber im Moment, eher nicht wirklich wichtig.
 
Ich sehe in SotTR keinen wirklichen Unterschied zwischen RTX on und off, dazu müsste man wohl Screenshots studieren, um da etwas zu finden. Ich habe mit die Karte aber auch nicht wegen Raytracing gekauft, sondern weil sie als einzige Grafikkarte genug Leistung für 4K/UHD hat.

RIS sieht aber gut aus, sehr scharfe Bilder! In SotTR gefällt mir DLSS aber besser.
 
Zuletzt bearbeitet :
Natürlich kauft man sich eine GPU wegen der Leistung und nicht wegen einem Feature, was nicht einmal überall genutzt werden kann. Und die Leistung der RTX2080Ti ist auch vernünftig für 4k. Aber der Preis halt nicht, solange gerade die "Killerfeatures" nur unzureichend und teilweise schlecht implementiert sind. Ebenso wenig, wenn sie Leistung kosten, statt Leistung frei zu machen für alles andere. Und ebenso wenig ist der Preis dann gerechtfertigt wenn man sie nur bei 3-5 Spielen nutzen kann. Auch die Generation davor hatte schon einen guten Preisaufschlag. Aber der ging wenigstens mit einem wirklich großen Leistungsplus einher. Hätte es die RTX2080Ti für 899€ gegeben, so wie die GTX1080Ti zum Marktstart, hätte es absolut keine Beschwerde gegeben. Aber je nach Modell bis zu 600€ Aufschlag, äh nein, das ist einfach definitiv weit übers Ziel hinaus geschossen.
 
Dass die 2080 ti ein überteuertes Luxusspielzeug ist, darüber brauchen wir nicht zu reden und solange AMD in dem Segment keine Konkurrenz ist, werden die Preise auch so weit oben bleiben.
 
Die Ti war immer schon recht teuer, aber nVidia hat mit der 2080Ti den Vogel abgeschossen. Wäre sie auf 899 geblieben oder nicht höher wie 999 geklettert, wäre es sicher auch absolut ok gewesen und nVidia würde damit genug verdienen.
Aber nVidia ist nun einmal gierig. Und es ist halt schade, das offenbar es immer genügend User gibt, die bereit sind echt jeden Preis zu zahlen, nur um die beste Grafikkarte zu haben weil man ja die Leistung benötigt, wobei Verzicht offenbar für keinen eine Option darstellt bzw. der Zeitweise Verzicht. Denn wenn kaum einer die Karten kaufen würde, müsste nVidia die Preise senken um nicht ein Minus Geschäft zu machen.

Aber da dies nie passieren wird, brauch sich nVidia da keine Sorgen machen.
 
Mir wäre neu das DLSS selbst Leistungssteigerungen bringt. Die Leistungssteigerung entsteht aus meiner Sicht durch geringere Auflösung, die als Basis verwendet wird.

Ohne DLSS auch keine Leistungssteigerung ist doch ganz einfach , Raytracing benötigt bei niedriger Auflösung auch weniger Rechenleistung, da weniger "Rays" verschossen werden. Quasi WIN-WIN und perfekte Ergänzung! :) Je nach Spiel entscheidet der NVIDIA Treiber bzw. die NGX Runtime welche Render-Auflösung zum Einsatz kommt um zusammen mit dem KI-Algo der aufbereiteten Daten wieder auf die eigentliche Basisauflösung hochgerechnet wird. Normales Upscaling wäre weder qualitativ noch in Sachen Leistung ebenbürtig! ;)
 
@Seven
Meines Wissens nach ist es echtes Raytraicing, nur in eingeschränkter Form.

@MCC
Soweit die Theorie. In der Praxis sieht es für mich danach aus, als wenn man einbußen bei der Bildqualität (teilweise weniger Details, teilweise verschwommen)hin nimmt um diese an anderer Stelle wieder zu steigern (Raytraicing).

Dementsprechend bin ich der Meinung, dass es wohl noch etwas dauern wird, bis Raytraicing im größeren Stil bei Spielen eigesetzt werden kann. Derzeit scheint es sich auf einzelne Effekte (Beleuchtung, Spiegelungen) zu beschränken.
 
@Deridex In Metro Exodus ist die gebotene DLSS-Bildqualität großartig, neben Anthem und Shadow of the Tomb Raider DIE Ideal-Konstellation. Battlefield V ist DLSS hingegen komplett misslungen und es gehen zuviele feinere Texture-Details verloren. Der Igor wollte halt niemanden auf den Schlips treten, daher hat er sein Fazit neutral gehalten, aber für einen echten Vergleich taugt dieser halt nicht , da die wesentlicheren Unterschiede ausgeklammert wurden. In Shadow of the Tomb Raider kannst du z.T. 60-70% zugunsten DLSS messen mit Raytraced Ultra Schatten wohlgemerkt. In Metro Exodus sind es immer noch zwischen 40-50% was auch aller Ehren wert ist.
 
Erkenne denn sinn von dlss nicht. Wenn ich auf meinem 4k monitor 1800p laufen lasse, sieht das dann schlechter aus oder was? Ist nativ 4k schon sehr nahe und gibt enormen fps boost. Checks nicht
 
Im Vergleich zu was? Du meinst ganz ohne Raytracing und ganz unabhängig der Leistungskosten? AMD Karten kann man aktuell schlicht nicht bewerten, da sie kein Raytracing unterstützen. Ich nenne dir mal ein Beispiel, um in Metro Exodus unter 4K Auflösung + Raytracing "Ultra" mit einer RTX 2080Ti auf ähnliche Bildraten wie mit DLSS zu kommen, müsstest du den Upscaling Scaling-Faktor schon auf 0,5 zurückstellen, spätestens an diesem Punkt trennt sich dann sprichwörtlich die Spreu vom Weizen... da würde jeder DLSS vorziehen... ;) Wie die eigentliche Bildqualität ausfällt, ist unterschiedlich , das lässt sich pauschal nicht sagen. In dunkleren Szenen ist DLSS sichtbar schlechter als native 4K, bei helleren TOD-Szenen kommt es schon verdammt nahe an echte 4K heran, zudem bietet es z.T. bessere Glättung der Vegetation und Rekonstruktion von Details allgemein , leidet zudem weniger unter Ghosting im Vergleich zu normalen TAA welches in diesem Game zwangsaktiv und sich nicht deaktivieren lässt.
 
Garnichts. Aber das erklär mal jemanden, der stur seine RTX Missionierungsbröschüre abspult. Und wer einen 4K Monitor hat, wird sicher kein DLSS nutzen. Aber auch kein Raytracing by nVidia, außer man steht auf bis zu 50% Leistungsverlust. :)
Und wenn man keins der 5 RT Fähigen oder der 3 DLSS Fähigen Games spielt, dann gehen einem RT und DLSS sowas von am Hintern vorbei, da dann nämlich einzig die Leistung zählt und für nicht völlig verblendete sogar die P/L. :D
 
Ich finde es ja interressant, dass nur die selbe Argumentation in abgwandelter Form abgespielt wird, anstatt auf meine Argumente einzugehen. Deswegen formulier ich es mal so: Warum macht es deiner Meinung nach Sinn, die Bildqualität zu verschlechtern (DLSS ist nunmal kein natives 4K) um die Bildqualität (Raytraicing) zu erhöhen?

Versteh mich nicht falsch: Ich denke das Raytraicing langfristig die Zukunft ist und das DLSS für einen Upscaler wirklich gute Ergebnisse liefert. Aber die Kombination aus beiden halte ich für einen Kompromiss.
 
Das sind zwei unterschiedliche Arten der Bildqualität.
DLSS macht das Bild groß, RTX leuchtet es aus.
Es kann durchaus Sinn machen beides zu verwenden. HDR + Raytracing z.B. könnte, im Optimalfall, eine so viel bessere beleuchtng bieten, dass mir die paar Details die DLSS verschluckt dann auch egal sind.
Wie gesagt: Optimalfall.

Ich verstehe aber auf was du raus willst: Ich lass richtig geile Lichter/Schatten berechnen und vermatsch das nachher zu nem Pixelbrei.
Ist ein wenig wie püriertes Schnitzel.
 
Wow man darf nicht mal fragen ohne angefahren zu werden. Unglaublich.
 
Was hat Raytracing mit Dlls zu tun?

Sie ergänzen sich prima. So gut wie allen offiziellen NVIDIA DXR-Techdemos (Elevator, Justice, Atomic Heart oder auch der Port Royal-Benchmark) verwenden standardmäßig DLSS, aus gutem Grund.

Ich finde es ja interressant, dass nur die selbe Argumentation in abgwandelter Form abgespielt wird, anstatt auf meine Argumente einzugehen. Deswegen formulier ich es mal so: Warum macht es deiner Meinung nach Sinn, die Bildqualität zu verschlechtern (DLSS ist nunmal kein natives 4K) um die Bildqualität (Raytraicing) zu erhöhen?

Die Bildqualität verschlechtert sich ja nicht... Du hast mich da offenbar falsch verstanden, denn um auf eine ähnliche Bildrate wie mit DLSS zu kommen, müsstest du den Upscaling-Faktor schon auf 0,5 senken... Denn nur so kann man schließlich vergleichen. Daher hatte ich zusätzlich meine subjektive Wahrnehmung aus Metro Exodus geschildert, es gibt Stellen wo die Bildqualität dem Original sehr nahe kommt, in dunkleren Szenen nimmt die Qualität hingegen etwas ab, auch kann sich der Output vom Original unterscheiden oder sogar besser durch überarbeitete Details (Referenz-Frames) welche das Netzwerk gelernt hat. Man kann nicht hergehen und nur eine Stelle vergleichen, da wären viel mehr Proben für nötig und ist wie dieser Vergleich hier letztlich auch nur ein kratzen an der Oberfläche, man muss DLSS stets als gesamtes betrachten und bewerten! (y)Der entscheidende Punkt ist jedoch, daß DLSS selbstverständlich schlechter als die native Auflösung aussehen darf, für den Leistungsgewinn den es ermöglicht. Das Verhältnis zwischer guter Bildqualität/Performance erfüllt es in den genannten Titeln trotzdem vollends.

Versteh mich nicht falsch: Ich denke das Raytraicing langfristig die Zukunft ist und das DLSS für einen Upscaler wirklich gute Ergebnisse liefert. Aber die Kombination aus beiden halte ich für einen Kompromiss.

Es ist ein Kompromiss, aber ein sehr guter, wenn die Vorgaben erfüllt sind.
 
Wenn ich 4k zocke und res scale 80% bekomme ich pro % genau 1fps. 90% sieht man keinen Unterschied zu 100% ausser auf Standbild. 80% sieht kaum schlechter aus gibt aber 20fps. Dlss is useless
 
Auch mit Scaling-Faktor 0.8 erreichst du weder das qualitative Niveau , noch das Leistungslevel vom DLSS. :LOL: Also bitte... um da mitreden zu können, bräuchtest du freilich auch eine passende GeForce RTX Grafikkarte, aber ich fürchte daran scheitert es bereits...
 
Also dann lügen die Youtube Videos und Hardware Unboxed usw :) ?? Zumal wie gesagt es sieht fast aus wie nativ 4k da kommt dlls nicht mal ansatzweise ran. Marketing Gag das kann Nv gut. Wenn sogar ris anscheinend besser ist?achja hatte ne 2070 hier und es sah beschissen aus in BfV.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten