Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4080 Founders Edition 16GB im Test – Schneller als gedacht und viel sparsamer als befürchtet

Die Balken werden immer länger: NVIDIA DLSS 3.0

Die Frage ist natürlich: Was ändert bzw. verbessert sich jetzt mit DLSS 3.0? Zusammengefasst besteht DLSS 3.0 ja aus drei Bestandteilen: 1. Super Resolution (Upscaling), 2. der Frame Generation und 3. NVIDIA Reflex (dazu komme ich auf der nächsten Seite noch). Die Besonderheit hierbei ist: die Frame Generation. Wer diese aktiviert, der erhält zusätzlich über den „Ada-Only“ Optical Flow Accelerator eine Art von Zwischenbildberechnung. (alle folgenden Bilder stammen von NVIDIA)

Somit dürfte verständlich sein, dass DLSS 3.0 nur mit ADA-GPUs möglich sein wird. Das ist sehr schade und irgendwie auch nicht gerade kundenfreundlich gegenüber den Käufern einer RTX 3000 Karte aber eine Art Kollateralschaden im Rahmen des technischen Fortschritts. Na ja, immerhin können die Besitzer der 2000er bzw. 3000er Karten DLSS 2.x und NVIDIA Reflex (geht bis Maxwell zurück) nutzen.

Ab jetzt verfügt der geneigte NVIDIA Kunde einer RTX 4000 mit den Tensor-Kernen der vierten Generation – neben dem AI-Netzwerk (zum Anlernen der Spielegrafik) und der bisher bekannten DLSS 2.3 Features (die die Super Resolution bilden) – auch noch über die neue Frame Generation. Diese besteht letztendlich aus vier Inputs: Dem aktuellen und vorhergehendem Frame, den Motion Vektoren der Game-Engine und der Optical Flow Acceleration. Diese analysiert zwei sequenzielle Frames im Spiel und berechnet daraus ein optisches Bewegungsfeld. Dabei werden sämtliche Informationen (Partikel, Licht, Schatten, Reflektionen usw.) mit berücksichtigt.

Sonst würde man bei schnellen Bewegungen wieder Ghosting-Effekte sehen. Siehe Bild unten…

NVIDIA hat mit DLSS 3.0 – das bisher bekannte DLSS 2.3 – noch erweitert und schafft es mittels „Zwischenbildberechnungen“ – insbesondere im CPU-Limit – noch mehr FPS auf den Monitor zu zaubern. So wird es zumindest von NVIDIA beworben. Doch stopp, geht das am Ende nicht auf die Latenzen? Laut NVIDIA soll das ganze Rechenwerk ja nur 10 ms Latenz kosten (je nach Spiel-Engine und Auflösung auch etwas mehr), weshalb man sich für eine Implementierung von Reflex in alle Spiele mit DLSS 3.0 entschieden hat. Somit ist Reflex jetzt ein fester Bestandteil von DLSS 3.0 geworden. Für mich gehört Reflex eigentlich grundsätzlich in jedes Spiel, aber nicht jeder Publisher wird hier NVIDIA wohl unvoreingenommen folgen.

DLSS 3.0 in der Praxis

Man kann sicher vieles behaupten, aber man kann es auch messen. Ich nehme einfach einmal einen Teil des nächsten Artikel vorweg und füge hier zumindest die passenden Benchmarks zu Cyberpunk 2077 mit ein, damit wir wissen, worum es in der Praxis eigentlich geht. In QHD erreicht man  mit DLSS 3.0 eine erstaunliche FPS-Zunahme im Vergleich zu DLSS 2.3. Über die Latenzen reden wir dann auch den nächsten Seite, denn das ist weniger Overhead als befürchtet. Rein Optisch ist das jedenfalls mehr als ok, denn man sieht den Schmu eigentlich gar nicht. In UHD hat man den Vorteil, dass z.B. ein passendes OLED-Panel wie beim LG mit den ausgelobten 120 Hz syncen kann, was dem Auge durchaus gut tut. Für QHD ist aber sogar noch die GeForce RTX 4080 stark genug, da reicht auch DLSS pur.

Auch die Perzentile zeigen den immensen FPS-Zuwachs oberhalb des P1, wobei auch hier der Benefit in UHD deutlich höher ausfällt.

Bei den Frame Times liegt die Karte mit DLSS 3.0 ebenfalls deutlich vorn, was nicht verwundert:

Auch bei den Varianzen kann DLSS 3.0 ordentlich punkten! Betrachten wir einmal die hohe UHD-Auflösung, dann sehen wir, dass sich die RTX 4090 mit DLSS sogar der Radeon RX 6950XT beugen muss, wobei deren Bildqualität mit FSR deutlich schlechter ausfällt. Aber es läuft etwas smoother. Mit DLSS 3.0 stellt sich die Frage nicht, hier läuft alles butterweich. Man liegt dann bei den Latenzen zwar in etwa 10 ms zurück, aber das sehen wir gleich noch. rein subjektiv sieht das Bild samt Verlauf deutlich besser aus als mit nur DLSS 2.3.

Die GeForce RTX 4000 Karten nehmen mit DLSS meist weniger Leistung auf als mit DLSS 3.0, da auch die Framerate etwas niedriger ausfällt und weniger berechnet werden muss (keine Frame Generation).

Das merkt man dann natürlich abschließend auch an der Effizienz, die durch DLSS 3.0 noch einmal zulegen kann. Es gewinnt immer die RTX 4090 mit DLSS 3.0, vor der RTX 4080 und dann beiden Karten noch einmal mit DLSS und dem Rest

Und weil ich ja auch ein Augenmensch bin, darf auch die Optik nicht zu kurz kommen. Hier gibt es noch als Teaser einen Ausschnitt aus unserem Special, das übermorgen beginnt. Das Video ist natürlich nur ein kleiner Teil von vielen, aber es lockert jetzt nach so viel Theorie auch mal etwas auf:


Click for full screen in a separate Window

Weiterführende Links

Wie DLSS 2.x funktioniert, dass hatten wir bereits im letzten Jahr lang und breit thematisiert. Daher verlinke ich den Artikel von damals noch einmal am Schluss dieser Seite (auf Seite 2 werdet ihr dort dann komplett fündig).

NVIDIA DLSS und AMD FSR im DIREKTEN Vergleich | Performance-Boost und Qualitätcheck in der Praxis

 

 

168 Antworten

Kommentar

Lade neue Kommentare

R
RX Vega_1975

Urgestein

575 Kommentare 75 Likes

Da hat AMD wohl "leichtes" Spiel bei der Rasterizer Leistung
Ist wohl mindestens 10%+ über einer RTX 4080
Bei Raytracing dann wohl 30% darunter.

Effizienz ist aber Extrem Wahnsinnig Gut bei der 4080 16GB
Dann sollten heute/ Morgen wohl Benchmarks zur AMD 7900XTX kommen um den Launch etwas zu bremsen!

Antwort Gefällt mir

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ich mag den igoBOT in grün.

Beim Preis der Karte rollen sich mir leider immer noch die Zehennägel hoch :(

Antwort 4 Likes

Igor Wallossek

1

10,178 Kommentare 18,761 Likes

Genau das. Und die Infos hatten auch nur die, die auch in LA vor Ort dabei waren. Das ist halt eine Strategie :D

Antwort Gefällt mir

R
RazielNoir

Veteran

331 Kommentare 108 Likes

Ich bin mal eher auf das Duell AMD / Nvidia eine Etage darunter gespannt. Die Karte ist preislich völlig out of Range.
Eine 4070 gegen eine 7800XT sowohl was Preis, als auch Lastverbrauch angeht

Antwort Gefällt mir

~
~HazZarD~

Mitglied

44 Kommentare 34 Likes

Die Leistung/€ Stagnation ist ja absolut erschreckend. Im Grunde bekommt man bei der 4090, die ja eigentlich das Halo Produkt ist, mehr Leistung fürs Geld als bei ner 4080.

Ich bin für die Einführung eines "Christian Lindner approved" Awards. Den hätte die Karte jedenfalls verdient.

Antwort 8 Likes

grimm

Urgestein

3,081 Kommentare 2,035 Likes

Das ist im Prinzip die Leistungssteigerung, die ich von einer neuen Gen erwarte. Bei der Karte hat es sich ja dann auch komplett mit irgendwelchen 1.000+Watt NTs. Die liegt ja noch deutlich unter meiner 6900XT. Preislich sieht das allerdings nach einem Rohrkrepierer aus.
Ich kann das Pricing sogar nachvollziehen - zum 3090 Ti Preis gibts ein ordentliches Leistungsplus - allein, ich glaube in der aktuellen Wirtschaftslage bei parallel abschmierenden Kryptos nicht an einen Ansturm auf die Karten. Ich gehe davon aus, dass wir die ab Q2 für um die 1.000 Euro sehen. Wenn nicht vorher AMD einschlägt - die sind preislich vergleichsweise moderat aufgestellt. Moderat, sofern die Leitung stimmt.

Antwort 4 Likes

P
Phelan

Veteran

190 Kommentare 172 Likes

hm weiß nicht...

60% der Recheneinheiten und 66% Ram zu 75% des Preises...
Und mit den 60% ist es eher eine 4070ti ... und es fehlen eigentlich noch komplett die 4080 und 4080TI.

Der Abstand zu 4090 ist ja quasi noch geschönt, da die aktuellen spiele die Karte garnicht ausreitzen können.
IMO ist die 4080 deutlich zu teuer oder die 4090 zu billig je nach Sichtweise.

Wenn Nvidia die Preise bekommt, machen sie ja alles richtig. Und irgendwie auch besser als wenn bei Sclapern landet.
Ich bin da halt nur komplett raus aus dieser Produktgruppe.

Antwort Gefällt mir

Alexander Brose

Moderator

819 Kommentare 572 Likes

Geiler Test, so muss das!

Die Karte ist absolut gut gelungen, keine Frage. Das Nvidia sich extra viel Platz für eine potentielle 4080ti zwischen der 4080 und 4090 lässt war anhand der Leaks ja schon abzusehen und der Preisaufschlag zur vorherigen Generation (3080 = 759€ für nen 628mm² Chip zu 4080 = 1469€ für nen 379mm² Chip) ist einfach frech - Fertigungskosten für den N4 Prozess, bisschen Speicher und "alles wird teurer"-Faktor hin oder her.

Tut mir leid, aber ich bin da einfach raus. Ich hab das alles satt... erst GPU-Apokalypse durch Mining-Boom, dann der RTX-Aufschlag mit Turing, noch ein Mining-Boom samt künstlicher Verknappung und Scalper-Preisen und jetzt Jensens Größenwahn... irgendwann ist es auch mal gut.

Grüße!

Antwort 20 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ja, leider sieht es so aus, als würde sich AMD für diese Generation gleich mal aus dem Rennen nehmen (zumindest für mich).

Nach eigenen Benchmarks schafft die 7900 XTX 21 FPS in CP2077 4k Ultra RT. Das ist 3080 Ti Niveau.
Bei einer neuen High-End Karte, die sicher die nächsten 2 Generationen (=4 Jahre) halten soll, ist das für mich leider keine Option.

Antwort Gefällt mir

grimm

Urgestein

3,081 Kommentare 2,035 Likes

Für mich besteht absolut kein Handlungsdruck bzw. ich hab mich selbst aus dem Rennen genommen. Ich hab den UHD Monitor ans MacBook gehängt und die Daddelkiste an ein 27" WQHD-Display. Die ganzen FPS-Balken haben mich selten so kalt gelassen. Und selten konnte man beim Launch schon erahnen, dass die wirklich sehr guten Produkte zur absoluten Unzeit kommen.

Kann sein, dass ich es überlesen habe: Braucht man für die 4080 einen 12-PIN Adapter?

Antwort Gefällt mir

DorianCrafts

Mitglied

29 Kommentare 26 Likes

Besser hätte ich es auch nicht schreiben können:

Antwort 2 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ja
Und ich vermute mal das bleibt so bei allen 40er Modellen, die mindestens 2x 8 Pin benötigten.

Antwort Gefällt mir

Ghoster52

Urgestein

1,402 Kommentare 1,060 Likes

Genau aus dem Grund disqualifiziert sich die Grafikkarte für den Normalzocker. (n)
Das Leistungsplus + Effizienz ist beachtlich keine Frage, aber zu welchen Kurs...

Antwort 1 Like

G
Guest

Die Effizienz ist durchaus beeindruckend.
Allerdings brauche ich gar keine neue Grafikkarte :D. Und der Preis ist natürlich völlig verrückt. Leider.
Das macht das Ganze völlig unattraktiv.

Antwort 1 Like

H
HotteX

Veteran

110 Kommentare 79 Likes

Also die Preise die jetzt mit jeder neuen Generation aufgerufen werden, einfach nur noch lächerlich.
Vom Prinzip ist gegen die Karte nichts auszusetzen, hätte gerne nochmal ein UV Test gesehen, so auf
250W. Kommt ja vielleicht noch. Ah ich sehe grade Hardwareluxx hat die mit 250W laufen gelassen und
nur ca. 5% verloren. Sehr nice.
Aber bei mir ist bei 700€ eh Schluss was GPUs angeht, also maximal im Abverkauf.

Antwort 5 Likes

SchmoWu

Mitglied

91 Kommentare 23 Likes

Schöner Test, danke dafür.
Scheint ja ein super Stück Hardware zusein. Mir gefällt der deutlich niedriger verbrauch, zur vorgänger Generation.
Doch preislich deutlich ausserhalb von dem was ich bereit bin zu zahlen.

Antwort Gefällt mir

g
gokkel

Neuling

3 Kommentare 2 Likes

An sich ist die Karte schon ok. Dass am Ende aber das P/L-Verhältnis je nach dem teilweise sogar leicht unter dem des Topmodells liegt, ist dann aber schon abstrus.

Interessant eigentlich nur für Käufer, die genau diese Leistungsklasse und nicht mehr erreichen wollen. Wer auf den Preis schauen muss, bedient sich wohl weiter bei den älteren Karten. Wem RT egal ist (was es mir persönlich in der Preiskategorie nicht ist; bei mir kommt dann noch NVENC dazu), hat dann außerdem noch bald bei AMD eine zusätzliche mögliche Alternative.

Antwort Gefällt mir

grimm

Urgestein

3,081 Kommentare 2,035 Likes

Völlig sinnbefreit... Aber danke für die Antwort.

Antwort 1 Like

grimm

Urgestein

3,081 Kommentare 2,035 Likes

Man sieht ja jetzt schon, dass die Verfügbarkeit im Vergleich zum Run auf die 30XXer deutlich besser ist. Ne 4090 kriegt man bei den normalen Händlern problemlos.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung