NVIDIA GeForce RTX 4090 FE im DXR, DLSS, Reflex und Frame Generation Test - Wenn die CPU röchelnd im Flaschenhals steckenbleibt

Bisher hatte ich eine 3080 Ti, die sich auch in QHD gerne mal 400 Watt gegönnt hat. Das gleiche hat man jetzt mit einer 4090 in UHD und die Leistung is in Relation schon krank. Bei dem was ich bisher getestet habe war der Faktor um die 1,8 an Mehrleistung.

Bei der 3080 Ti Surpim X kann man das Powerlimit um 10% aufmachen und dann gehen 440 Watt. Bringt ähnlich viel wie bei der 4090 auf 600 Watt. Nix!

Könnte man bei der 4090 die Volt erhöhen, dann würde vermutlich die Leistung nochmal explodieren. Der Kühler schafft mehr als 450 Watt.

In dem Punkt, dass NVIDIA sich ein wenig vor AMD fürchtet gehe ich mit. Schaut man sich da den Zuwachs an Shadern an und setzt möglichen 3D Cache mit die Gleichung sowie den 5n und Höhere Leistungsaufnahme, dann kann das schon eng werden.

Bleibt spannend
 
Zuletzt bearbeitet :
Du überschätzt, wie viele derer, die sich solche Hardware kaufen sich wirklich für den Verbrauch interessieren.
Da liegst du falsch. Bei denen setz ich meine Erwartung auf 0. Gutmütig vieleicht auf 5%. Warum so niedrig werd ich nu nich erörtern ;). Is wie Porsche oder SuV Fahrer*inen. Von denen erwart ich auch kein Umweltbewußtsein.

Der Launch der 4090 prägt aber nicht nur das Bild zur 4090 sondern zur gesammten 40x0 Generation. Erster Eindruck und so du weißt? Und ab den 4070 Käufern und speziel bei den 4060 Käufern schätz ich die % der Verbrauchsbewußten schon deutlich höher ein.

Nur wenn der Ruf des Verschwenders durch die 4090 erst mal geprägt wurde ... müssen sich die 4070 und 4060 ansträngen, um das Bild zu richten.
Und lassen die Blicke möglicher Weise richtung AMD + Intel wandern.
 
In dem Punkt, dass NVIDIA sich ein wenig vor AMD fürchtet gehe ich mit.
Ich kann mir das nicht vorstellen. Nvidia ist durch die proprietäre Software so stark, dass AMD da kaum noch mithalten kann. Im Profibereich (mit der Ausnahme von Supercomputern) dominiert CUDA, da fristet AMD ein Schattendasein und wird anders als bei den CPUs im Serverbereich auch nicht wirklich aufholen können, wenn sie keine eigene Lösung entwickeln, die besser als CUDA funktioniert. Es erfordert aber viel Zeit und Geld, um sowas in den Markt zu bringen.

Gleiches passiert im Moment auch im Gamingbereich mit DLSS. Das wird von vielen Nvidiafans quer durch alle Foren als der heilige Gral angepriesen, als könne man ohne gar nicht mehr richtig zocken, Probleme werden ignoriert oder marginalisiert.

Das habe ich aber mit der 2080ti nicht genutzt und werde das auch jetzt nicht nutzen. Ich will wenn überhaupt die beste native Bildqualität haben und keine geratenen Frames einer AI. Und wenn das auch mit der 4090 bedeutet, den RT-Regler zu bedienen oder es sogar ganz abzuschalten, weil ich sonst unter die Syncgrenze meines Monitors rutsche, dann werde ich das tun.
 
Sind wir also einer Meinung.

Nur wenn der Ruf des Verschwenders durch die 4090 erst mal geprägt wurde ... müssen sich die 4070 und 4060 ansträngen, um das Bild zu richten.
Naja, "Verschwender" ist relativ. 450W für den Top-Dog ist doch okay. Die Leute werden rausfinden, dass AMD auch nur mit Wasser kocht und Intels Hauptproblem sind im Moment die unausgereiften Treiber. Selbst ich als Enthusiast würde von denen im Moment die Finger lassen.

Ich glaub derartige Probleme werden viel mehr Käufer abschrecken als der potentielle Energieverbrauch. Wenn die kleinen Karten so effizient sind wie die 4090, dann werden die echt gut im Sinne des Verbrauchs.
Gleiches passiert im Moment auch im Gamingbereich mit DLSS. Das wird von vielen Nvidiafans quer durch alle Foren als der heilige Gral angepriesen, als könne man ohne gar nicht mehr richtig zocken, Probleme werden ignoriert oder marginalisiert.
Wenn man 4K high refresh oder sogar 8K bedenkt, dann ist DLSS die Zukunft. Ich glaube nicht, dass wir in absehbarer Zeit Hardware haben, die raytracing nativ in 4K120 oder 8K stemmen kann ohne ein privates Kernkraftwerk zu benötigen.

In Sofern ist DLSS ein guter Kompromiss und kann raytraced besser aussehen als nativ ohne raytracing.

Steht und fällt natürlich alles mit der Umsetzung duch die GameDEVs.

DLSS3 scheint im Moment eher auf die FPS junkies abzuzielen, denn bei 120FPS+ fällt ein evtl. derpiges Zwischenbild dem menschlichen Auge nicht mehr auf.

Ich hab DLSS (Quality) gestern in Shadow of the Tomb Raider mal getestet. Ich kann da ohne side-by-side Vergleich beim besten Willen keinen Unterschied in der Qualität zu nativ feststellen. Bis ich durch die ganzen Menüs bei den Settings bin hab ich schon wieder halb vergessen wies vorher aussah.

Dass ich konstante 60Hz hab merk ich aber sehr wohl.
 
Zuletzt bearbeitet :
Ich will wenn überhaupt die beste native Bildqualität haben und keine geratenen Frames einer AI.
DLSS "rät" nicht. Es werden um Subpixel versetzte Frames gerendert und daraus über mehrere Frames hinweg Informationen rekonstruiert, die das nativ auf unverrückte Pixelgrenzen gerendertes Bild einfach nicht hat. Deswegen sind mit DLSS deutlich feinere Details sichtbar als bei Native.

Objektiv ist also DLSS (Quality) detailreicher als Nativ.

Natürlich gibt es auch Nachteile, gerade in Bewegung. In bestimmten Spielen nutze ich DLSS deswegen auch nicht (Spider-Man z.B.), aber es generell abzulehnen, weil es "Pixel rät" ist eher ein Dogma als rational. Ich würde es mir halt in jedem Spiel anschauen und entscheiden, ob es besser ist als Native oder nicht.

Oft genug schalte ich DLSS Q zu obwohl die Frameraten auch so ausreichend sind. Einfach weil es die beste AA Technik ist, die es gibt. Nur DLAA ist besser. Aber das wird ja leider zu selten unterstützt.
 
@FritzHunter01 aus welcher Szene stammt das Bild mit dem Geländer? Da fehlen in nativer Auflösung alle Streben, das kann ich kaum glauben.
Das ist doch ein typischer Effekt bei Native, wenn das darzustellende Detail kleiner ist als ein Pixel, dann verschwindet es komplett. Genau da hat DLSS (und FSR 2) die bekannten Vorteile.
 
DLSS 3 reizt mich schon irgendwie - und schneller Rendern wäre auch nett. Na ja, ich wollte eigentlich nicht, aber als Ersatz für meine 2080 macht es schon Sinn am 42er UHD Schirm.
Ich werde das Teil aber dann auf meine bewährte AM 4 Plattform mit 5950x aufsetzen. AM 5 lasse ich vorerst mal aus. Das ist mir dann insgesamt doch zu teuer für die gebotene Mehrleistung eines 7950x.
 
Bildschirmfoto 2022-10-18 um 11.32.32.png
 
Das kann gut sein.
Wenn der "Kopf" des Spielers noch etwas rumwackelst siehst du dann vielleicht in den nächsten beiden Frames alle Streben und dann wieder ein Frame lang gar nichts.
Im Standbild sieht's komisch aus, in Bewegung flackert's grausam.

Die erhöhte Bildstabilität bei Pixeldetails ist für mich einer der grössten Vorteile von DLSS (oder auch vielen älteren AA Verfahren)
 
Das kann gut sein.
Wenn der "Kopf" des Spielers noch etwas rumwackelst siehst du dann vielleicht in den nächsten beiden Frames alle Streben und dann wieder ein Frame lang gar nichts.
Im Standbild sieht's komisch aus, in Bewegung flackert's grausam.

Die erhöhte Bildstabilität bei Pixeldetails ist für mich einer der grössten Vorteile von DLSS (oder auch vielen älteren AA Verfahren)
Es geht mir ums Standbild in der Gegenüberstellung. Das würde ich gerne nachvollziehen. Das ist ja schon ein ziemlicher Klopper in nativer Darstellung, wenn alle Streben fehlen. Wenn es pixelt oder unscharf wird, wenn ich mit der Maus wackel, dann ist mir das relativ egal. Ich daddel ja nicht, um mir ne Dachreling reinzutun ;)
 
Wie gesagt, dieses Aliasing mit verschwindenden Details ist ganz typisch für Pixel-Rasterizing und wirklich nicht neu. Früher hat man versucht das mit Supersampling in den Griff zu bekommen, was extrem teuer ist und die Flimmergrenze auch einfach nur verschiebt.

Dadurch das DLSS / FSR 2 die Szene jeden Frame um Subpixel in verschiedene Richtungen verschoben berechnet und das Ergebnis dann als Gesamtheit über mehrere Frames temporal zusammenrechnet, kommen diese Details wieder zum Vorschein. Deswegen ist die Bildqualität von DLSS / FS3 dem nativen Bild oft, vielleicht sogar immer überlegen, zumindest wenn die tatsächliche Render-Auflösung nicht zu gering ist.

DLAA (also DLSS bei nativer Auflösung) ist mit Abstand das beste AA-Verfahren das es gibt. Nur die Ghosting-Effekte die auftreten, wenn der Spiele-Entwickler die Bewegungsvektoren falsch oder nicht gesetzt hat, oder bei Elementen wo das nicht geht (z.B. Partikel-Effekte) sind ein echtere Nachteil aller temporalen Methoden.
 
Es geht mir ums Standbild in der Gegenüberstellung. Das würde ich gerne nachvollziehen. Das ist ja schon ein ziemlicher Klopper in nativer Darstellung, wenn alle Streben fehlen. Wenn es pixelt oder unscharf wird, wenn ich mit der Maus wackel, dann ist mir das relativ egal. Ich daddel ja nicht, um mir ne Dachreling reinzutun ;)
Ja, aber das Geflacker und Gepixele kommt ja genau daher, dass beim einen Bild die Streben sichtbar sind und beim nächsten wieder nicht.

Wenn die Streben aus deiner Perspektive 0.8 Pixel breit sind, und sich die Kamera von links nach rechts bewegt, dann wird in 80% der Fälle die Strebe als 1 Pixel dargestellt und in 20% der Fälle ist die Strebe nicht sichtbar. Oder wenn die Streben 1.5 Pixel breit sind, dann flackert die Strebe zwischen 1 und 2 Pixel Breite hin und her.
 
  • Like
Bewertungen: ***
Leute, ich würde es gerne nachvollziehen. Deshalb die Frage, welche Szene das ist. Scheint ja SoTR zu sein.
 
??? Ich habe doch jetzt zweimal gefragt, welche Szene das ist, damit ich es mir anschauen kann. SoTR und dann:

Wenn du mir sagst, welche Szene das ist, dann schau ich es mir an.
Sorry nicht gleich kapiert was du meinst

SOTTR Croft Manor wo Lara ein Kind ist
 
Okay, ich hab es mir angesehen. DLSS hab ich ja nicht (--> AMD-Karte), dafür aber Intel XeSS. Ganz ehrlich: Es wird so sein, dass die Frames mit DLSS schicker sind, weil wirklich jedes Pixel an seinem Platz ist. Aber: Wenn ich da durch den Garten laufe oder gehe und den Blick schweifen lasse, kann ich in keiner der beiden Einstellungen einen Unterschied sehen, einfach, weil es in der Bewegung verschwimmt (Motion Blur ist aus).

Das soll nicht gegen DLSS oder irgendeine andere Software-seitige Lösung gehen, aber mein persönliches Fazit lautet: Wenn man ausreichend gerasterte Frames am Start hat, braucht man die genannten Features nicht. Jedenfalls nicht für "bessere" Grafik.
 
Oben Unten