Strahlende Zukunft? NVIDIA DLSS 3.5 und die nächste Stufe des Raytracings

Naja.... handzahm gegenüber Nvidia (oder sonst wem) ist GN häufig genug auch nicht so richtig ;-)
Das "Dumme User" Video einen Tag vor NVs Quartalszahlen war sicher nicht ganz zufällig. Aber da schreibe ich mal besser nichts mehr dazu. Zumal es nachweislich falsch war.
 
Zunächst danke an @Igor Wallossek und @FritzHunter01! Zumindest in den Beispielen sieht Ray Reconstruction richtig gut aus. Und für AMD wird's höchste Zeit, daß sie mit FSR3 endlich kontern, denn so zieht Nvidia wieder einmal auf und davon.

Und jetzt meine Frage, die ein "er nun wieder" bei manchem auslösen wird: Wo sind denn die Arc 770 Karten von Intel jetzt angekommen? Hat sich da etwas getan mit den Treibern, sind die jetzt benutzbar? Klar daß die keine Konkurrenz zu einer 4070 sind, aber die Preise sind auch deutlich geringer. Im Moment gibt's sonst nichts mit 16 GB VRAM in der Preisklasse. Vielleicht ein Vergleich der ARC 770 mit 16 GB zur 4060 mit Clamshell 16 GB?
 
Das "Dumme User" Video einen Tag vor NVs Quartalszahlen war sicher nicht ganz zufällig. Aber da schreibe ich mal besser nichts mehr dazu. Zumal es nachweislich falsch war.
Ich sach's dir, wie es ist: Ich hab keine Ahnung. :D Kann nur sagen, wie ích es so empfinde und mitbekomme. Damit kann ich auch falsch liegen.
 
Eins muss man NV lassen, die gehen seit Jahren all-in bei der KI und profitieren extrem davon. Das ganze Gaming-Zeug ist mittlerweile fast schon ein Abfallprodukt. :D
 
Mal zum Verständnis:

Den Key hatte ich von NVIDIA zum Freitag bekommen. Da meine Tochter am Freitag Einschulung hatte, ging am Wochenende gar nix. Meine Familie hat bei mir genächtigt, somit war mein Büro belegt. (Download konnte ich machen, dauert bei mir ewig mit 3 MB/s)

Am Montag musste ich das alles nochmal runterladen (warum? Keine Ahnung) Mal antesten ging noch.

Dienstag ab 21:00 testen bis 00:00 mit Aufnahmen. Auswerten und Videos nebeneinander legen usw. 02:00 morgens…

Videos auf YouTube hochgeladen Ewigkeiten später. Mittwoch alle Videos auf YouTube bearbeiten und die Links an Igor schicken. Er muss ja schließlich das ganze noch Verstehen und einen Text schreiben.

Das war gute Zusammenarbeit, das hätte sich NVIDIA gar nicht leisten können. Wisst ihr wo mein Stundensatz liegt? 😂

Der von Igor ganz zu schweigen… ich mache alles unendlich bei IgorsLab, weil es mir Spaß, mich die Technik und die Community interessiert. Der einzige Vorteil, ab und zu bleibt mal Hardware da, die nicht zurück muss. Das ist aber auch schon alles… leider ist mein Zeit für IgorsLab aktuell etwas weniger als sonst. Aber auch das geht vorbei…

Zum Testen hätte ich genug… Latenzen in CPU Limit, Monitore… Ich will noch was zum Thema Colorimeter und Spektralfotometer machen. Zeit müsste man haben - oder im Lotto gewinnen.

Ja, unsere lieber @Gamer ich hatte meine Uhr gestellt und hätte gerne gewettet, dass er spätestens auf Seite zwei seiner verbalen Inkontinenz freien Lauf lässt. Mit sowas kann ich mittlerweile umgehen. Freie Meinungsäußerungen sind willkommen. Dass er uns mal wieder bezahlte Werbung unterstellt, das geht gar nicht. Wenn ich Zeit hätte, würde ich dich mal zu mir einladen. Dann setzen wir uns zusammen vor die Zocke. Mal mit FSR mal mit XeSS und mal mit DLSS. Ich zeige dir gerne die Unterschiede mal live!

Na ja…

Die Reviews von GN und HW Unboxed sind gut geworden. Wer unbedingt sehen will, wo die Kleinigkeiten (Fehler) bei DLSS 3.5 mit RR sind, der wird dort fündig. Unterm Strich kommen die Kollegen auf das gleiche Fazit.

Ich kann nur sagen:

Wer eine RTX Karte hat, der kann DLSS in 1440p bis einschließlich Performance nutzen. Wenn man viele FPS möchte. Ohne, dass man sofort zum Augenarzt muss. In FHD mit RR? Muss ich mir noch anschauen.

Wer das beste Bild mit etwas mehr FPS will —> DLSS Qualität.

Ray Reconstruction in CB 2077 - ein must have in meinen Augen!

Vielleicht können einige von euch mal ihr Fazit dazu hier geben. CB 2.0 und RR sollte ja verfügbar sein.

Die NVIDIA Nutzer können ja mal 1440p FSR performance vs. DLSS performance testen. Bilder und Videos hier verlinken.

In diesem Sinne… sorry für mögliche Tippfehler, ich bin müde und schreibe vom Handy aus…
 
Zuletzt bearbeitet :
DLSS balanced wobei auch performance recht gut aussieht auf dem 4k schirm :) aber da eh cpu limit bleibe ich bei balanced
 
Man kann die 4090 auf unter 300 Watt drosseln und der OLED ist immer noch partiell arg im Limit mit seinen 120 Hz. Spart mir über 150 Watt und sieht in UHD mit DLSS Qualität und RR eigentlich genauso aus bzw. sogar besser aus als nativ. Davon bitte gern mehr. :D
OLED und nur 120 Hz? :D
Da verdoppel ich doch glatt 😬 Wäre mal interessant, was da dann so geht. Meine 4090 läuft jedenfalls auf 60%, was 270W entspricht.

Die FSR NV-Apokalyptiker sind gar nicht mal so laut wie sonst. Ist aber auch heftig, wie lang AMD mal wieder auf sich warten lässt.
 
Ich kenne keinen 55" OLED mit 240 Hz. 😆
 
Vielen Dank für den "Kurztest". Wir hoffen einmal, dass diese Technologie ganz schnell auch in anderen Titeln zu finden ist...Starfield wäre doch ein idealer Kandiat...und das wäre dann der Todesstoß für AMD.
 
Wie immer ist es ratsam, verschiedene Quellen zu betrachten. Ich finde die Informationsdichte hier durchaus ordentlich, wenn man die Größe des Teams sieht.

War also ein guter Einstieg. Erste Erkenntnis: Das Bild wird stabiler und der Denoiser beerbt. Das Hintergrundwissen half schon mal.

HWUB hat den Eindruck abgerundet. Perfekt ist die Technik noch nicht ganz, aber in manchen Punkten interessant. Gelegentlich ist das Ergebnis noch etwas unrund.

Performance-Zuwachs ist okay, aber bricht AMD nicht das Genick.
 
Hoffe Lg macht das in Zukunft mehr HZ ist ja nix schlimmes obwohl am Tv schon extrem exklusiv dann haha. Wobei der unterschied von 120 hz zu 240hz jetzt nicht so groß ist imo aber nimmt man trotzdem gerne mit und zukünftige Hardware wird das auch stemmen vor allem in älteren spielen also warum nicht. Fortschritt. Die 4090 macht es ja heute schon in 4k in ältern schinken wenn es die cpu hergibt :D
 
Hmmm... heute früh mal getestet, DLAA macht großartige Arbeit, braucht bei mir (RTX 3090) aber Unmengen an Leistung. ~80 auf 45 Frames
 
DLAA kostet ja auch ein bisschen leistung(8% bei mir) mehr als nativ da mehr berechnet werden muss aber ist das beste anti aliasing auf dem Markt. TAA ist so oft schrott es glättet das Bild zwar gut aber es verschluckt viele details dafür, gerade in spielen mit komplexer und filigraner vegetation kann man taa vergessen. Deswegen wird 8k geil aber wenn man sieht wie 4k flimmert ohne TAA und vegetaion immer komplexer und filigraner wird wird es auch bei 8k ohne TAA flimmern. Aber irgendwann wird es nicht mehr benötigt. Wobei dann werden wir sowieso überall DLSS habe in der zukunftsversion^^

Übrigen ist ein bild wo taa verwendet wird nicht mehr nativ. finde die nativ fetischisten daher ziemlich lustig
 
Ein Feature wie Ray Reconstruction hat das Potential, die Luft für AMD ziemlich dünn werden zu lassen.
Man sollte aus dem Feature auch nicht mehr machen als es ist. Bisher ist es in einem Spiel und nur im Pathtracing Modus. Kann nicht mit DLAA kombiniert werden und setzt genutztes Upscaling voraus. Zudem ist es eine reine optische Verbessrung beim Einsatz von PT. Mehr nicht. Ohne RT auch kein positiver Effekt durch RR.
 
Zuletzt bearbeitet :
@Igor Wallossek Zu der Aussage im anderen Thread hab ich aber mal eine Frage,

"CPR kann nur einbauen, was man ihnen gibt, FSR2 ist drin, immerhin",

Warum hat CPR es nicht geschafft FSR 2.2 zu implementieren in all der Zeit, das SDK und alles Nötige ist ja offen auf GPUOpen verfügbar? Die Version in Update 2.0 ist weiterhin FSR 2.1 wie seit Monaten...

Mal ganz abseits von FSR3.
 
Man sollte aus dem Feature auch nicht mehr machen als es ist. Bisher ist es in einem Spiel und nur im Pathtracing Modus. Kann nicht mit DLAA kombiniert werden und setzt genutztes Upscaling voraus. Zudem ist es eine reine optische Verbessrung beim Einsatz von PT. Mehr nicht ohne RT auch kein positiver Effekt durch RR.
Ja hast Du mal im Bildvergleich geschaut, was im Performance RR Modus gegenüber reinem Quality passiert. Sieht besser aus und mehr FPS.
 
Performance-Zuwachs ist okay, aber bricht AMD nicht das Genick.
Das Problem ist nicht der Performance Zuwachs, sondern die bessere Bildqualität.

Wenn das gleiche Spiel auf AMD schlechter aussieht (ehrlicherweise ist das in vielen Spielen heute schon der Fall, wenn DLSS/FSR verwendet wird), wird das für AMD mittelfristig zu einem grossen Problem.

Das ist das gleiche wie wenn eine Nvidia Karte in VRAM Nöten einfach bei der Texturqualität spart um die FPS stabil zu halten. Die Zahl im Benchmark mag vergleichbar sein, die Qualität nicht mehr.

Man sollte aus dem Feature auch nicht mehr machen als es ist. Bisher ist es in einem Spiel und nur im Pathtracing Modus. Kann nicht mit DLAA kombiniert werden und setzt genutztes Upscaling voraus. Zudem ist es eine reine optische Verbessrung beim Einsatz von PT. Mehr nicht. Ohne RT auch kein positiver Effekt durch RR.
Ja, das Feature ist bisher (17 Stunden nach Launch ;) ) nur in einem Spiel implementiert, und ist neu der Modus mit der insgesamt besten Bildqualität.
Das ist schon mal ein ziemlicher Schuss vor den Bug für AMD.
 
Zuletzt bearbeitet :
Man sollte aus dem Feature auch nicht mehr machen als es ist. Bisher ist es in einem Spiel und nur im Pathtracing Modus. Kann nicht mit DLAA kombiniert werden und setzt genutztes Upscaling voraus. Zudem ist es eine reine optische Verbessrung beim Einsatz von PT. Mehr nicht. Ohne RT auch kein positiver Effekt durch RR.
Mann sollte auch nicht weniger daraus machen. Mit einer AMD Karte ist die RT Performance auch ohne RR weit hinten, DLAA steht auch hier nicht zu verfügung und FSR3 ist in noch gar keinem Spiel verfügbar. Auch ist FSR2.2 keine Konkurenz für DLSS2.3+ welcher mittlerweile in den meisten Spielen unterstützt wird.

Auch wenn AMD im 1080p (und etwas im 1440p) Segment mittlerweile konkurenzfähige Hardware hat, haben sie ein sehr grosses Problem sobald die Features dazu kommen.
 
Oben Unten