Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4090 Founders Edition 24GB im Test – Der kraftstrotzende Monolith, der abstinent aus der Kälte kam

Die Balken werden immer länger: NVIDIA DLSS 3.0

Die Frage ist natürlich: Was ändert bzw. verbessert sich jetzt mit DLSS 3.0? Zusammengefasst besteht DLSS 3.0 ja aus drei Bestandteilen: 1. Super Resolution (Upscaling), 2. der Frame Generation und 3. NVIDIA Reflex (dazu komme ich auf der nächsten Seite noch). Die Besonderheit hierbei ist: die Frame Generation. Wer diese aktiviert, der erhält zusätzlich über den „Ada-Only“ Optical Flow Accelerator eine Art von Zwischenbildberechnung. (alle folgenden Bilder stammen von NVIDIA)

Somit dürfte verständlich sein, dass DLSS 3.0 nur mit ADA-GPUs möglich sein wird. Das ist sehr schade und irgendwie auch nicht gerade kundenfreundlich gegenüber den Käufern einer RTX 3000 Karte aber eine Art Kollateralschaden im Rahmen des technischen Fortschritts. Na ja, immerhin können die Besitzer der 2000er bzw. 3000er Karten DLSS 2.x und NVIDIA Reflex (geht bis Maxwell zurück) nutzen.

Ab jetzt verfügt der geneigte NVIDIA Kunde einer RTX 4000 mit den Tensor-Kernen der vierten Generation – neben dem AI-Netzwerk (zum Anlernen der Spielegrafik) und der bisher bekannten DLSS 2.3 Features (die die Super Resolution bilden) – auch noch über die neue Frame Generation. Diese besteht letztendlich aus vier Inputs: Dem aktuellen und vorhergehendem Frame, den Motion Vektoren der Game-Engine und der Optical Flow Acceleration. Diese analysiert zwei sequenzielle Frames im Spiel und berechnet daraus ein optisches Bewegungsfeld. Dabei werden sämtliche Informationen (Partikel, Licht, Schatten, Reflektionen usw.) mit berücksichtigt.

Sonst würde man bei schnellen Bewegungen wieder Ghosting-Effekte sehen. Siehe Bild unten…

NVIDIA hat mit DLSS 3.0 – das bisher bekannte DLSS 2.3 – noch erweitert und schafft es mittels „Zwischenbildberechnungen“ – insbesondere im CPU-Limit – noch mehr FPS auf den Monitor zu zaubern. So wird es zumindest von NVIDIA beworben. Doch stopp, geht das am Ende nicht auf die Latenzen? Laut NVIDIA soll das ganze Rechenwerk ja nur 10 ms Latenz kosten (je nach Spiel-Engine und Auflösung auch etwas mehr), weshalb man sich für eine Implementierung von Reflex in alle Spiele mit DLSS 3.0 entschieden hat. Somit ist Reflex jetzt ein fester Bestandteil von DLSS 3.0 geworden. Für mich gehört Reflex eigentlich grundsätzlich in jedes Spiel, aber nicht jeder Publisher wird hier NVIDIA wohl unvoreingenommen folgen.

DLSS 3.0 in der Praxis

Man kann sicher vieles behaupten, aber man kann es auch messen. Ich nehme einfach einmal einen Teil des nächsten Artikel vorweg und füge hier zumindest die passenden Benchmarks zu Cyberpunk 2077 mit ein, damit wir wissen, worum es in der Praxis eigentlich geht. In QHD erreicht man  mit DLSS 3.0 erstaunliche 70% mehr FPS als mit DLSS 2.3. Über die Latenzen reden wir dann auch den nächsten Seite, denn das ist weniger Overhead als befürchtet. Rein Optisch ist das jedenfalls mehr als ok, denn man sieht den Schmu eigentlich gar nicht. In UHD hat man den Vorteil, dass z.B. ein passendes OLED-Panel wie beim LG mit den ausgelobten 120 Hz syncen kann, was dem Auge durchaus gut tut. Für QHD ist die GeForce RTX 4090 jedoch reichlich stark, da reicht auch DLSS pur.

Auch die Perzentile zeigen den immensen FPS-Zuwachs oberhalb des P1, wobei auch hier der Benefit in UHD deutlich höher ausfällt.

Bei den Frame Times liegt die Karte mit DLSS 3.0 ebenfalls deutlich vorn, was nicht verwundert:

Auch bei den Varianzen kann DLSS 3.0 ordentlich punkten! Betrachten wir einmal die hohe UHD-Auflösung, dann sehen wir, dass sich die RTX 4090 mit DLSS sogar der Radeon RX 6950XT beugen muss, wobei deren Bildqualität mit FSR deutlich schlechter ausfällt. Aber es läuft etwas smoother. Mit DLSS 3.0 stellt sich die Frage nicht, hier läuft alles butterweich. Man liegt dann bei den Latenzen zwar in etwa 10 ms zurück, aber das sehen wir gleich noch. rein subjektiv sieht das Bild samt Verlauf deutlich besser aus als mit nur DLSS 2.3.

Die GeForce RTX 4090 nimmt mit DLSS 3,0 generell weniger Leistung auf als mit DLSS 2.3 oder gar ohne DLSS. Dieser Faktor ist durchaus interessant, wenn auch nur ein netter Nebeneffekt. Aber gut zu wissen, dass…

Das merkt man dann natürlich abschließend auch an der Effizienz, die durch DLSS 3.0 noch einmal zulegen kann. Es gewinnt immer die RTX 4090 mit DLSS 3.9, vor der gleichen Karte mit DLSS 2.3 und dem Rest

Und weil ich ja auch ein Augenmensch bin, darf auch die Optik nicht zu kurz kommen. Hier gibt es noch als Teaser einen Ausschnitt aus unserem Special, das morgen beginnt. Das Video ist natürlich nur ein kleiner Teil von vielen, aber es lockert jetzt nach so viel Theorie auch mal etwas auf:


Click for full screen in a separate Window

Weiterführende Links

Wie DLSS 2.x funktioniert, dass hatten wir bereits im letzten Jahr lang und breit thematisiert. Daher verlinke ich den Artikel von damals noch einmal am Schluss dieser Seite (auf Seite 2 werdet ihr dort dann komplett fündig).

NVIDIA DLSS und AMD FSR im DIREKTEN Vergleich | Performance-Boost und Qualitätcheck in der Praxis

 

 

545 Antworten

Kommentar

Lade neue Kommentare

HerrRossi

Urgestein

6,771 Kommentare 2,235 Likes

Einfach nur wow, das wäre mal ein gigantischer Leistungssprung von der 2080 ti und wenn man das Ding auf 144fps in WQHD drosselt, verbraucht das Ding in manchen Spielen auch noch weniger Strom als meine alte Karte.

Antwort 1 Like

konkretor

Veteran

293 Kommentare 300 Likes

Wann gibt es die Innereien zu sehen?

Die Karte mit 320 Watt hätte auch gereicht so werden für die letzten paar FPS am meisten Stromverbraucht.

Könnten sie ja offen lassen für die Leute die es unbedingt wollen

Antwort 2 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Danke für den umfassenden Bericht. Auf der ersten Seite hat sich der Fehlerteufel verewigt: die RTX 3090 Ti hat meines Wissen 24 GB und nicht nur 12 GB RAM.

So langsam kommt flüssiges 4k-Gaming in greifbare Nähe.

Edit: Good job, Nvidia and TSMC! Ich hätte nicht gedacht, dass in nächster Zukunft noch mal so ein Wurf möglich wäre und das angesichts der diversen Krisen, die die Welt momentan belasten. Wenn man so eine Leistung abliefert, kann man eben auch die genannten Preise aufrufen. Erinnert mich ein wenig an Apple Ende der 2000er-Jahre.

Antwort Gefällt mir

HerrRossi

Urgestein

6,771 Kommentare 2,235 Likes

Ja, der Chip distanziert auch mit 300 Watt alle alten Karten um Welten, das ist wirklich mal ein großer Leistungssprung.
Wird echt schwer, sich da zurückzuhalten. Ab wann kann man kaufen? Morgen 15 Uhr?

Antwort Gefällt mir

K
Kobichief

Urgestein

671 Kommentare 202 Likes

Da hat Nvidia ja mal einen ordentlichen Burner rausgekloppt. Hey vielleicht hau ich doch mal bischen Kohlen raus für ein neues ADA Produkt, die Effizienz find ich sexy.

Antwort Gefällt mir

RedF

Urgestein

4,601 Kommentare 2,521 Likes

Endlich gibts mal wieder Sprünge in der leistung : )

Antwort Gefällt mir

thebagger

Veteran

104 Kommentare 77 Likes

Ui, da juckts mich ja im Finger. Warten wir mal auf einen schönen Wasserblock. Dann gehts rund.

Antwort 2 Likes

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Das war doch mal ein Statement zum Thema Effezienz. Hoffen wir mal, das AMD noch ein par Pfeile im Köcher hat und uns alle überrascht.

Antwort Gefällt mir

ssj3rd

Veteran

213 Kommentare 142 Likes

Bei NBB ist die 4090 FE nicht zu finden, war sowas von klar mit diesem Laden…

edit: ah wait! Morgen ist ja erst Release, Mea Culpa.

Antwort 1 Like

RedF

Urgestein

4,601 Kommentare 2,521 Likes

Aber erst mit Wasserblock wird das richtig Schick. Mag weder das FE Design noch die viel zu großen Karten vom AIB.

Antwort Gefällt mir

s
sly123

Mitglied

15 Kommentare 5 Likes

Energetische Hinrichtung. Autsch @AMD....
Mit 300-350W PT wird es noch extremer.

Antwort 1 Like

ssj3rd

Veteran

213 Kommentare 142 Likes

Also werde ich sie mit meinem süßen Seasonic TX 700W Fanless nun betreiben können?
Müsste ja klappen, oder?

Meine 3090FE läuft seit 1,5 Jahren ja völlig und absolut problemlos.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Lass den Quatsch doch einfach. Wenn du eh soviel Kohle raus haust, kommt es auf die 2 Scheine doch auch nicht mehr an. Hab mir extra das 1600i von Corsair gekauft und bin trotzdem Froh, das das Teil zur not auch im Zweitrechner mit nem 1000 Watt Corsair HX läuft. Aber darunter würde ich es echt nicht tun.

Antwort Gefällt mir

ssj3rd

Veteran

213 Kommentare 142 Likes

Geht nicht ums Geld, habe einfach kein Bock das Netzteil inkl. Kabeln etc. auszubauen, Schweine Arbeit die ich inzwischen einfach nicht mehr wirklich mit Freude ausübe.

Irgendwann kommt gleich ein vernünftiges ATX 3.0 Netzteil rein, aber erst nächstes Jahr wenn die Auswahl größer ist und auch Seasonic zb seine Modelle gezeigt hat. Bis dahin soll die 4090 aber am alten NT nuckeln.

Antwort 1 Like

BigReval

Urgestein

527 Kommentare 175 Likes

Also das ist die erste Karte in der 4k Gaming richtig Spaß macht! Aber Nvidia ist auch nicht verkehrt haben sich die Jungs dann doch noch dazu durchgerungen nicht die Karte im Vollausbau zu präsentieren sondern den heben die sich wahrscheinlich auch für die 4090 ti die vermutlich nie kommen wird weil bis die anderen aufgeholt haben sind wir bei der 50er Serie... ich finde die Leistung ist brachialbeeindruckend...

Antwort 1 Like

RedF

Urgestein

4,601 Kommentare 2,521 Likes

Kauf einfach ein dickeres Seasonic, die Kabel bleiben gleich ( wenn Modular ) .

Antwort Gefällt mir

s
shaboo

Mitglied

76 Kommentare 75 Likes

Das Erfreulichste ist für mich, dass man das Ding großzügig undervolten und damit leiser und kühler machen kann, und dennoch weiterhin Leistung im Überfluss erhält. Stabile 60+ FPS in 4k inklusive Raytracing klingt schon verlockend ...

"Bis dahin dürfen wir grübeln, warum NVIDIA zwischen der brachialen GeForce RTX 4090 24GB und der 60%-Lösung in Form der GeForce RTX 4080 16GB so eine riesige Lücke lässt. Denn Platz für eine GeForce RTX 4080 Ti wäre da wirklich mehr als genug."

Was gibt es denn da zu grübeln? Die 4080Ti wird kommen und wird diese Lücke - 10 bis 15 Prozent schneller als die 4080 und 25 bis 30 Prozent langsamer als die 4090 - genau so füllen, dass sie sich gut verkaufen wird. Halte ich für ziemlich offensichtlich.

Antwort 1 Like

W
WokeUpInANewBugatti

Mitglied

35 Kommentare 20 Likes

@Igor Wallossek wie sieht es denn mit den VRAM temps aus? Wenn NVIDIA das auch hinbekommen hat, dann sind die FE's tatsächlich meine Favorites. Bei den 3000er waren ja >100 Grad keine Seltenheit

Antwort Gefällt mir

ssj3rd

Veteran

213 Kommentare 142 Likes

Joa, welches ATX 3.0 NT von Seasonic würdest du den empfehlen? (Hint: es gibt eben noch keine von Seasonic und die Kabel lassen sich dann auch nicht weiter verwenden)

Wenn dann sollte man ja gleich vernünftig/zukunftsorientiert aufrüsten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung