Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 4080 Founders Edition 16GB Review – Faster than expected and much more frugal than feared

The bars are getting longer and longer: NVIDIA DLSS 3.0

The question is of course: What changes or improves now with DLSS 3.0? In summary, DLSS 3.0 consists of three components: 1. Super Resolution (upscaling), 2. Frame Generation and 3. NVIDIA Reflex (I’ll get to that on the next page). The special feature here is: the frame generation. If you activate this, you also get a kind of intermediate image calculation via the “Ada-Only” Optical Flow Accelerator. (all following pictures are from NVIDIA)

Thus, it should be understandable that DLSS 3.0 will only be possible with ADA GPUs. This is a great pity and somehow not exactly customer-friendly towards the buyers of an RTX 3000 card, but a kind of collateral damage in the context of technical progress. Well, at least the owners of the 2000 or 3000 cards can use DLSS 2.x and NVIDIA Reflex (goes back to Maxwell).

From now on, the inclined NVIDIA customer of an RTX 4000 with the fourth generation Tensor cores – besides the AI network (for learning the game graphics) and the previously known DLSS 2.3 features (which form the Super Resolution) – also has the new Frame Generation. This ultimately consists of four inputs: the current and previous frame, the motion vectors of the game engine and the optical flow acceleration. This analyzes two sequential frames in the game and calculates an optical motion field from them. All information (particles, light, shadows, reflections, etc.) is taken into account.

Otherwise, you would see ghosting effects again during fast movements. See picture below…

NVIDIA has extended the previously known DLSS 2.3 with DLSS 3.0 and manages to conjure up even more FPS on the monitor by means of “intermediate image calculations” – especially in the CPU limit. At least that’s how NVIDIA advertises it. But stop, doesn’t that end up affecting latencies? According to NVIDIA, the whole arithmetic is only supposed to cost 10 ms latency (depending on the game engine and resolution, even a bit more), which is why they decided to implement Reflex in all games with DLSS 3.0. Thus, Reflex has now become a fixed part of DLSS 3.0. For me, Reflex belongs in every game, but not every publisher will follow NVIDIA without bias.

DLSS 3.0 in practice

You can certainly claim a lot of things, but you can also measure them. I’ll just anticipate part of the next article and at least include the appropriate benchmarks for Cyberpunk 2077 here, so we know what it’s actually about in practice. In QHD, DLSS 3.0 achieves an amazing FPS increase compared to DLSS 2.3. We’ll talk about the latencies on the next page, because that’s less overhead than I feared. From a purely visual point of view, this is more than okay, because you can’t really see the dirt. UHD has the advantage that, for example, a suitable OLED panel like the LG’s can sync with the promised 120 Hz, which is definitely good for the eye. However, even the GeForce RTX 4080 is strong enough for QHD, so DLSS alone is sufficient.

The percentiles also show the immense FPS increase above the P1, whereby the benefit in UHD is clearly higher here as well.

The card is also clearly ahead in frame times with DLSS 3.0, which is not surprising:

DLSS 3.0 also scores well in terms of variances! If we take a look at the high UHD resolution, we see that the RTX 4090 with DLSS even has to yield to the Radeon RX 6950XT, whereas its picture quality with FSR is significantly worse. But it runs a little smoother. This question does not arise with DLSS 3.0, where everything runs smoothly. You are then about 10 ms behind in the latencies, but we will see that in a moment. purely subjectively, the image including the gradient looks much better than with only DLSS 2.3.

The GeForce RTX 4000 cards usually consume less power with DLSS than with DLSS 3.0, since the frame rate is also a bit lower and less has to be calculated (no frame generation).

Of course, this is also reflected in the efficiency, which can be increased even further with DLSS 3.0. The RTX 4090 with DLSS 3.0 always wins, before the RTX 4080 and then both cards again with DLSS and the rest

And because I am also an eye person, the optics must not be neglected. As a teaser, here is an excerpt from our special that starts the day after tomorrow. The video is of course only a small part of many, but it loosens now after so much theory also times something:


Click for full screen in a separate window

Related links

How DLSS 2.x works, we had already discussed long and wide last year. Therefore I link the article from that time again at the end of this page (on page 2 you will find the complete article).

NVIDIA DLSS und AMD FSR im DIREKTEN Vergleich | Performance-Boost und Qualitätcheck in der Praxis

 

 

168 Antworten

Kommentar

Lade neue Kommentare

R
RX Vega_1975

Urgestein

575 Kommentare 75 Likes

Da hat AMD wohl "leichtes" Spiel bei der Rasterizer Leistung
Ist wohl mindestens 10%+ über einer RTX 4080
Bei Raytracing dann wohl 30% darunter.

Effizienz ist aber Extrem Wahnsinnig Gut bei der 4080 16GB
Dann sollten heute/ Morgen wohl Benchmarks zur AMD 7900XTX kommen um den Launch etwas zu bremsen!

Antwort Gefällt mir

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ich mag den igoBOT in grün.

Beim Preis der Karte rollen sich mir leider immer noch die Zehennägel hoch :(

Antwort 4 Likes

Igor Wallossek

1

10,192 Kommentare 18,804 Likes

Genau das. Und die Infos hatten auch nur die, die auch in LA vor Ort dabei waren. Das ist halt eine Strategie :D

Antwort Gefällt mir

R
RazielNoir

Veteran

337 Kommentare 111 Likes

Ich bin mal eher auf das Duell AMD / Nvidia eine Etage darunter gespannt. Die Karte ist preislich völlig out of Range.
Eine 4070 gegen eine 7800XT sowohl was Preis, als auch Lastverbrauch angeht

Antwort Gefällt mir

~
~HazZarD~

Mitglied

45 Kommentare 34 Likes

Die Leistung/€ Stagnation ist ja absolut erschreckend. Im Grunde bekommt man bei der 4090, die ja eigentlich das Halo Produkt ist, mehr Leistung fürs Geld als bei ner 4080.

Ich bin für die Einführung eines "Christian Lindner approved" Awards. Den hätte die Karte jedenfalls verdient.

Antwort 8 Likes

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Das ist im Prinzip die Leistungssteigerung, die ich von einer neuen Gen erwarte. Bei der Karte hat es sich ja dann auch komplett mit irgendwelchen 1.000+Watt NTs. Die liegt ja noch deutlich unter meiner 6900XT. Preislich sieht das allerdings nach einem Rohrkrepierer aus.
Ich kann das Pricing sogar nachvollziehen - zum 3090 Ti Preis gibts ein ordentliches Leistungsplus - allein, ich glaube in der aktuellen Wirtschaftslage bei parallel abschmierenden Kryptos nicht an einen Ansturm auf die Karten. Ich gehe davon aus, dass wir die ab Q2 für um die 1.000 Euro sehen. Wenn nicht vorher AMD einschlägt - die sind preislich vergleichsweise moderat aufgestellt. Moderat, sofern die Leitung stimmt.

Antwort 4 Likes

P
Phelan

Veteran

191 Kommentare 172 Likes

hm weiß nicht...

60% der Recheneinheiten und 66% Ram zu 75% des Preises...
Und mit den 60% ist es eher eine 4070ti ... und es fehlen eigentlich noch komplett die 4080 und 4080TI.

Der Abstand zu 4090 ist ja quasi noch geschönt, da die aktuellen spiele die Karte garnicht ausreitzen können.
IMO ist die 4080 deutlich zu teuer oder die 4090 zu billig je nach Sichtweise.

Wenn Nvidia die Preise bekommt, machen sie ja alles richtig. Und irgendwie auch besser als wenn bei Sclapern landet.
Ich bin da halt nur komplett raus aus dieser Produktgruppe.

Antwort Gefällt mir

Alexander Brose

Moderator

819 Kommentare 573 Likes

Geiler Test, so muss das!

Die Karte ist absolut gut gelungen, keine Frage. Das Nvidia sich extra viel Platz für eine potentielle 4080ti zwischen der 4080 und 4090 lässt war anhand der Leaks ja schon abzusehen und der Preisaufschlag zur vorherigen Generation (3080 = 759€ für nen 628mm² Chip zu 4080 = 1469€ für nen 379mm² Chip) ist einfach frech - Fertigungskosten für den N4 Prozess, bisschen Speicher und "alles wird teurer"-Faktor hin oder her.

Tut mir leid, aber ich bin da einfach raus. Ich hab das alles satt... erst GPU-Apokalypse durch Mining-Boom, dann der RTX-Aufschlag mit Turing, noch ein Mining-Boom samt künstlicher Verknappung und Scalper-Preisen und jetzt Jensens Größenwahn... irgendwann ist es auch mal gut.

Grüße!

Antwort 20 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ja, leider sieht es so aus, als würde sich AMD für diese Generation gleich mal aus dem Rennen nehmen (zumindest für mich).

Nach eigenen Benchmarks schafft die 7900 XTX 21 FPS in CP2077 4k Ultra RT. Das ist 3080 Ti Niveau.
Bei einer neuen High-End Karte, die sicher die nächsten 2 Generationen (=4 Jahre) halten soll, ist das für mich leider keine Option.

Antwort Gefällt mir

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Für mich besteht absolut kein Handlungsdruck bzw. ich hab mich selbst aus dem Rennen genommen. Ich hab den UHD Monitor ans MacBook gehängt und die Daddelkiste an ein 27" WQHD-Display. Die ganzen FPS-Balken haben mich selten so kalt gelassen. Und selten konnte man beim Launch schon erahnen, dass die wirklich sehr guten Produkte zur absoluten Unzeit kommen.

Kann sein, dass ich es überlesen habe: Braucht man für die 4080 einen 12-PIN Adapter?

Antwort Gefällt mir

DorianCrafts

Mitglied

29 Kommentare 26 Likes

Besser hätte ich es auch nicht schreiben können:

Antwort 2 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ja
Und ich vermute mal das bleibt so bei allen 40er Modellen, die mindestens 2x 8 Pin benötigten.

Antwort Gefällt mir

Ghoster52

Urgestein

1,408 Kommentare 1,062 Likes

Genau aus dem Grund disqualifiziert sich die Grafikkarte für den Normalzocker. (n)
Das Leistungsplus + Effizienz ist beachtlich keine Frage, aber zu welchen Kurs...

Antwort 1 Like

G
Guest

Die Effizienz ist durchaus beeindruckend.
Allerdings brauche ich gar keine neue Grafikkarte :D. Und der Preis ist natürlich völlig verrückt. Leider.
Das macht das Ganze völlig unattraktiv.

Antwort 1 Like

H
HotteX

Veteran

110 Kommentare 79 Likes

Also die Preise die jetzt mit jeder neuen Generation aufgerufen werden, einfach nur noch lächerlich.
Vom Prinzip ist gegen die Karte nichts auszusetzen, hätte gerne nochmal ein UV Test gesehen, so auf
250W. Kommt ja vielleicht noch. Ah ich sehe grade Hardwareluxx hat die mit 250W laufen gelassen und
nur ca. 5% verloren. Sehr nice.
Aber bei mir ist bei 700€ eh Schluss was GPUs angeht, also maximal im Abverkauf.

Antwort 5 Likes

SchmoWu

Mitglied

92 Kommentare 23 Likes

Schöner Test, danke dafür.
Scheint ja ein super Stück Hardware zusein. Mir gefällt der deutlich niedriger verbrauch, zur vorgänger Generation.
Doch preislich deutlich ausserhalb von dem was ich bereit bin zu zahlen.

Antwort Gefällt mir

g
gokkel

Neuling

3 Kommentare 2 Likes

An sich ist die Karte schon ok. Dass am Ende aber das P/L-Verhältnis je nach dem teilweise sogar leicht unter dem des Topmodells liegt, ist dann aber schon abstrus.

Interessant eigentlich nur für Käufer, die genau diese Leistungsklasse und nicht mehr erreichen wollen. Wer auf den Preis schauen muss, bedient sich wohl weiter bei den älteren Karten. Wem RT egal ist (was es mir persönlich in der Preiskategorie nicht ist; bei mir kommt dann noch NVENC dazu), hat dann außerdem noch bald bei AMD eine zusätzliche mögliche Alternative.

Antwort Gefällt mir

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Völlig sinnbefreit... Aber danke für die Antwort.

Antwort 1 Like

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Man sieht ja jetzt schon, dass die Verfügbarkeit im Vergleich zum Run auf die 30XXer deutlich besser ist. Ne 4090 kriegt man bei den normalen Händlern problemlos.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung