Strahlende Zukunft? NVIDIA DLSS 3.5 und die nächste Stufe des Raytracings

Ich will ja nicht derjenige sein der sagt "niemand braucht mehr als X von was auch immer" aber 8K ist aktuell ziemlich sinnlos. Es wäre für VR ganz nett, oder wenn es mal ganze Displaywände zu bezahlbaren Preisen gibt.
Da gibt es bei HDR noch enorm viel ungenutztes Potential für die Bildqualität. Im Gamingsektor herrscht noch immer der Wilde Westen in Sachen HDR, oftmals sehr schlecht implementiert bis hin zu schlichtweg kaputt.
Da steckt man Unmengen an Ressourcen in Raytracing und Machine-Learning um die Beleuchtung realistischer zu machen aber bei der Bildausgabe wird immer noch mit SDR als Standard gearbeitet oder mehr als SDR ist schlicht kaputt.
Microsoft hat es geschafft einen halbwegs brauchbaren Algorithmus für die SDR zu HDR Konvertierung in Xbox Series Konsolen und Windows 11 zu integrieren.
Wie wäre es wenn man die Machine-Learning Ressourcen dafür nutzt? Auch Displays mit "schlechten" HDR-Fähigkeiten profitieren sichtbar davon wenn es gut gemacht ist.
 
Du meinst, FSR 4.0 gäbe es 2025 dann auch noch für alle, wenn es genau so gut oder gar besser wäre wie das zeitgleiche DLSS?
Da steckt sicher noch ein bisschen vom früheren Gedanken "AMD ist der Robin Hood der PC-Welt" drin. Nur dass Robin Hood in dieser Welt auch nur ein verkappter Sheriff von Nottingham ist wie alle anderen. ;)
AMD ist aktuell nicht Leader und deshalb "Robin Hood", mehr liegt nicht drin. Keine Ahnung was passieren würde, wenn FSR 3 morgen kommt und ausschliesslich von RDNA 2 oder gar 3 genutzt werden kann....?
3 GPU Hersteller, 3 eigene Süppchen, das kommt für Enduser nicht gut.
 
AMD ist aktuell nicht Leader und deshalb "Robin Hood", mehr liegt nicht drin. Keine Ahnung was passieren würde, wenn FSR 3 morgen kommt und ausschliesslich von RDNA 2 oder gar 3 genutzt werden kann....?
3 GPU Hersteller, 3 eigene Süppchen, das kommt für Enduser nicht gut.
Naja, wenn FSR 3.0 kommt, dann nicht nur für RDNA. ;)

Bei HDR10+ ist es das selbe, open source 4 all.
 
Naja, wenn FSR 3.0 kommt, dann nicht nur für RDNA. ;)

Bei HDR10+ ist es das selbe, open source 4 all.

tl;dr nein


Hat man ja bei Mantle gesehen.

Dass es so viele noch immer nicht kapieren können.. Weder AMD noch Nvidia noch Intel interessieren sich für ihre Kunden sondern lediglich für deren Geld! Das sind beides rein profitorientierte Unternehmen.
Warum sollte AMD das dann für NV-Karten zugänglich machen? Simpel: Damit NV (in der Hoffnung) vorerst weniger GPUs verkauft und AMD dadurch (hoffentlich) mehr Kunden für sich gewinnen kann.

AMD hinkt halt deutlich hinterher, was Upscaling und Raytracing angeht, dazu ist alles ab 4k und aufwärts noch immer von Team grün dominiert (Danke, G6X!).
Treiber sind ja immer wieder mal in der Kritik, wobei man auch Team grün hin und wieder mal schlampige Arbeit vorwerfen muss. Wenigstens dauert ein Fix dort nicht so lang. Jedenfalls.. FSR3 ist afaik ja gerade mal raus und Tests lassen meines Wissens nach noch auf sich warten. Die Menge an Spielen lässt sich (zumindest noch) quasi auch an einer Hand abzählen.
Und Raytracing ist halt nunmal ne Technologie, die in der aktuellen NV-Gen durchaus sinnvoll nutzbar geworden ist. Da hat man bei Team rot halt hinterher gehinkt. Ist dann so. NV hat dank ihres Fokus auf AI dort die Oberhand. Ohne ne optisch und leistungstechnisch anständige Implementation von FSR3 und nen massiven Leistungsvorsprung zu NV wird AMD halt weiter bei (aktuell) knapp 15% Marktanteil oder evtl. sogar weniger liegen.


AMD ist halt im Zugzwang und man versucht krampfhaft, hinterher zu kommen. Deren CPU-Sparte dagegen wächst und gedeiht, weil die Produkte halt (bis auf einige Startschwierigkeiten, die aber auch bei der ersten D5-Implementierung bei Intel zu finden waren) wirklich gut und sogar konkurrenzfähig sind.

Eine kleine Sache dazu noch: Überlegen sind sie allerdings nicht absolut. Wer gern mal viel Youtube schaut und aufm Desktop unterwegs ist, wandelt durchaus mehr Strom in Wärme um als es bei Team blau der Fall ist. Bekommt AMD den Idleverbrauch in den Griff, haben sie das absolut überlegene Produkt. Thermisch gesehen braucht man für wirklich leisen Betrieb eigentlich eh ne Wakü, Luftkühler haben da eher ausgedient. Aber das wäre ein komplett anderes Thema, auf das ich jetzt nicht eingehen werde.
 
Auch schon mit DLSS3 sieht das native Bild in H-FW und den meisten anderen Spielen nochmal eine Ecke besser aus, was man von FSR (hier auch nur 2.2) und XESS leider nicht behaupten kann. Trotzdem bin ich auf Battlemage gespannt, wenn auch nur für den Zweitrechner, paradoxerweise mit einer AMD CPU. :D
 
Das Problem ist, um die "bessere" Qualität von DLSS 3.7 zu nutzen muss man relativ aufwendig das Profil wechseln und der Unterschied ist nicht wirklich gross. Dennoch halte ich meine DLLs in den Spielen immer aktuell und habe noch keine Nachteile festgestellt.

Ich bin sehr auf FSR 3.1 gespannt, da hier der Upscaler ja deutlich verbessert sein soll.
 
Also, mit FG werde ich noch immer nicht warm, egal ob DLSS-FG oder FSR-FG. Sogar bei HFW wo DLSS-FG gelobt wird, sehe ich starkes ghosting der UI.

Mich interessiert am meisten das Upscaling, da es tatsächlich gerade bei DLSS-Q (von 4K ausgegangen) einfach gratis Leistung ist ohne irgendwelche Nachteile und ja es sieht in den allermeisten Fällen besser aus als TAA.

Man muss aber auch sagen (hatte kürzlich hierzu ein Video gesehen), dass je mehr FPS man hat, desto besser funktioniert TAA. Sprich, kommt irgendwann eine AMD Karte, welche sagen wir mal, für die aktuellen Titel mehr ein gutes Stück mehr als 60fps in 4K mit TAA stemmen kann, so kann ich auf DLSS verzichten.

Ich sage bewusst aktuelle Titel, da ich sehr stark davon ausgehe, dass FSR3.1 in der Qualität sich DLSS stark annähert und vielleicht mit der nächsten AMD GPU Generation auch AI-Upscaling kommt.

Das Ursprungsthema hier war ja aber auch DLSS 3.5 mit dem RT-Upscaler und was soll ich hier sagen, Nvidia liefert, aber ob man es braucht, steht auf einem anderen Blatt. Spiele in denen RT wirklich gut und nützlich umgesetzt sind, sind sehr selten. Andere Spiele sehen mit ihrem RT super aus, aber hier macht meist sogar eine RTX4090 schlapp (und hier als Erinnerung, mit FG werde ich (noch) nicht warm).

Ich mache mir selbst natürlich nichts vor und plane schon in Gedanken eine RTX5080, dennoch glaube ich nicht, dass Nvidia mit ihrem hervorragenden Feature Set uneinholbar geworden ist.
 
Ich mache mir selbst natürlich nichts vor und plane schon in Gedanken eine RTX5080, dennoch glaube ich nicht, dass Nvidia mit ihrem hervorragenden Feature Set uneinholbar geworden ist.
Ich hoffe sehr, das du mit deiner Einschätzung wirklich Recht hast, aber im Moment zweifele ich sehr daran. Das AMD sich zumindest vorübergehend aus dem High-End Segment zurückkziehen will, scheint ja fest zu stehen. Ebenfalls scheint ja die kommende Serie gerade mal so schnell zu sein, wie die aktuelle. Man munkelt von 4070TI - 4080er Niveau.

Warum sollte wer diese Karten überhaupt kaufen? Als Argument bliebe ggf. der Preis und/oder der Stromverbrauch. Leistungsmäßig und Softwaretechnich sowie Umsatzmäßig ist AMD hintendran. Aktuell bedienen sie sehr gut den Massenmarkt über Konsolen und CPU`s mit integerierter Grafik. Aber im High-End Bereich bei Grakas in Summe haben sie schon längere Zeit den Anschluss verloren, wenn man mal ehrlich ist. Und ich befürchte, das der Abstand eher größer wird.

Ich hatte ehrlicherweise bei der kommenden 8000er Serie auf einen richtigen Kracher gehofft, zumal AMD ja technich mit der aktuellen GPU weiter schien.
 
Ich möchte einfach optimistisch bleiben, Intel war im CPU Bereich auch absolut überlegen und jeder (ausser vielleicht die Hardcore Fanboys) haben auch behauptet, dass wenn AMD mit etwas kommt, braucht Intel nur die Schublade zu öffnen und AMD ist wieder tot. AMD hat aber mit Ryzen gezeigt, was sie können, und Intel hat gezeigt, dass deren Schubläden ziemlich leer sind.

Wo ich einen Unterschied sehe, ist bei der Entwicklung, wo sich Intel mit mini schritten auf ihren Lorbeeren ausgeruht hat, geht es bei Nvidia richtig voran.
 
Oben Unten