Grafikkarten Praxis Testberichte VGA

NVIDIA GeForce RTX 4090 FE im DXR, DLSS, Reflex und Frame Generation Test – Wenn die CPU röchelnd im Flaschenhals steckenbleibt

Heute ist es endlich so weit, die RTX 4090 feiert ihren Verkaufsstart. Über die Preise will ich mich jetzt gar nicht unterhalten, dazu sage ich vielleicht ganz zum Schluss etwas. Igor hatte gestern bereits – wie gewohnt – die allgemeine Performance, Leistungsaufnahme, Temperaturen usw. vorgestellt. Ich selbst teste mit der RTX 4090 jetzt gut zwei Wochen und bin von der Leistung der Karte völlig überrascht worden. Man glaubt ja nicht alles, was da über das Marketing versprochen wird.

Heute liegt mein Fokus auf den NVIDIA Gimmicks. DLSS 2.3 und DLSS 3.0 dürfen zusammen mit NVIDIA Reflex und Boost mal zeigen was sie draufhaben. RTX on steht heute ausnahmslos im Vordergrund.

Die Frage, die sich mir in den vergangenen Wochen bzw. Monaten immer wieder gestellt hat: Warum bringen die Hersteller 240 Hz Monitore mit UHD Auflösung raus? QHD mit 360 Hz? Da muss doch mit den neuen GPU Generation von NVIDIA bzw. auch AMD was richtig Großes um die Ecke kommen. Den Anfang macht mal wieder NVIDIA mit der RTX 4090, dem 24 GB GDDR6X Monster. Und ja, das ist mit Abstand die dickste Founders Edition Grafikkarte, die ich je gesehen habe. Jetzt muss die Karte nur noch zeigen, dass sie nicht nur groß und schwer, sondern auch viel schneller als die RTX 3080 Ti ist. Eine RTX 3090 Ti habe ich nicht, aber Igor hat alle aktuellen Highend-GPUs bei sich im Test gehabt.

Eine Vorabbemerkung sei mir an der Stelle zugesprochen. Ich vergleiche die RTX 4090 nur gegen die RTX 3080 Ti. Natürlich hätte ich hier auch eine AMD Radeon RX 6900 XT Liquid Devil im Testangebot rumliegen. Aber wir alle wissen, dass AMDs aktuelle 6000er Generation – in Bezug auf Raytracing – nicht mit NVIDIA mithalten kann. Daher heute kein Bauchpinseln in Richtung NVIDIA – mit ganz langen DXR Balken. Ich warte auf AMDs neue 7000er GPUs, dann sehen wir weiter.

Testsystem

CPU Ryzen 7 5800X (PBO 2, CO negativ)
Mainboard MSI MAG X570 ACE
RAM 4×8 GB Crucial Ballistix RGB 3200 MHz CL16-18-18-36
SSD 1 Samsung 980 Pro 500 GB (Windows 11 Stand KW40/2022 )
SSD 2 Crucial P2 1000 GB (Spiele)
SSD 3 Crucial P2 1000 GB (Spiele)
SSD 4 Samsung 512 GB 840 Pro (Backup)
CPU Kühler Alphacool Eisbaer Aurora 360
Netzteil Seasonic Prime Platinum 1300 Watt
GPUs

MSI GeForce RTX 3080 Ti Suprim X – wassergekühlt Eisblock GPX Aurora (Treiber 521.90)

NVIDIA GeForce RTX 4090 (Treiber 521.90)

Sound SoundblasterX AE-5 Plus
Tastatur Cooler Master SK 622 (Red Taster) via USB @1000 Hz Polling Rate
Maus ASUS ROG Chakram Core X @1000 Hz Polling Rate (NVIDIA Reflex Latency Analyzer Support)
Monitor
LG UltraGear 27GN950-B
Test-Tools NVIDIA LDAT V2 mit Logitech G203 Prodigy @1.000 Hz Polling Rate

Testaufbau RTX 4090 FE

Testaufbau RTX 3080 Ti (MSI Suprim X unter Wasser)

Testmethoden

Getestet wurde heute ausschließlich in UHD Auflösung (3840 x 2160p) auf dem LG 27GN950. Bei allen von mir getesteten Spielen wurden die maximalen Grafikeinstellungen – inklusive Raytracing auf maximum – gewählt. Ich habe bei meinen Messungen keine integrierten Benchmarks genutzt, sondern eine dedizierte Spielszene ausgewählt. Diese stelle ich euch im jeweiligen Abschnitt noch genauer vor.

Latenzmessungen in Cyberpunk wurden mittels NVIDIA Frameview aufgezeichnet und später mit dem IgorsLab Interpreter ausgewertet und in Excel zusammengefasst. In CoD Black Ops Cold War habe ich die Latenzen mit NVIDIA LDAT selbst gemessen und in Excel zusammengefasst.  Alle Messungen (FPS bzw. Latenzen) wurden dreimal wiederholt, um Messungenauigkeiten vorzubeugen. Grafische Vergleiche – zum Beispiel zur Qualität von DLSS usw. – wurden mit NVIDIA Shadowplay aufgenommen, mit NVIDIA ICAT zusammengeführt und ausgewertet.

Ein paar Grundlagen zum Thema LDAT und Latenzen gibt es hier: (weitere Artikel findet ihr auf der Homepage)

NVIDIA LDAT – Latency Display Analysis Tool vorgestellt und ziemlich exklusiv getestet

So genug der Theorie, lasst uns Anfangen. Ich starte mit etwas leichter Kost zum warm werden: Call of Duty Cold War, RTX on und Reflex in UHD. Dann darf die kleine Lara Croft in Shadow of the Tomb Raider den GPUs das Fürchten lehren. Und zum Schluss gibt es das Finale Grande mit RTX on, DLSS 3.0 und Latenzen in Cyberpunk 2077. Auf die Plätze, fertig? Dann nächste Seite…

 

 

132 Antworten

Kommentar

Lade neue Kommentare

big-maec

Urgestein

919 Kommentare 544 Likes

Raytracing wird eigentlich überbewertet bei Spielen, aber nun gut ist, ist ja auch das einzige was zieht beim Leistungstest. Wäre aber trotzdem schön gewesen, die AMD Red Devil mit reinzunehmen.

Wäre cool, den Test nächsten Monat mit den neuen AMD Karten nochmal zu machen. Würde mich interessieren, wo und welche Unterschiede es gibt.

Antwort 5 Likes

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Wenn ich eine AMD Karte bekomme, dann testet ich genau das nochmal. Mir ging es im Schwerpunkt um die Mehrleistung zur RTX 3080 Ti.

Wenn es AMD gelingt, die Leistung in ähnlicher Form zu steigern, dann braucht man sogar für UHD einen neuen Prozessor. Ich bin mir da noch nicht mal sicher, ob der 13900k dann ausreichend ist. Ich vermute X3D (Ryzen 7000) wird es richten…

Wenn man mit einer RX 7900 XT in UHD max Settings (DXR off) auch ständig ins CPU Limit rennt, dann wird es langsam albern.

Wo soll das noch hinführen? 8K Monitor die auf 32 Zoll mal keinen Sinn haben! Kleiner 32“ und 8K ist wie 17“ und UHD = Sinnlos

Wenn Nvidia/AMD mit den 5000er/8000er Karten MCM bauen mit 3n, wie müssen CPUs dann aussehen? Wo soll die Leistung herkommen? Eine CPU in 3n mit 300 Watt und einer Wärmestromdichte jenseits von kühlbar?

Antwort 4 Likes

g
guillome

Neuling

7 Kommentare 4 Likes

Vielen Dank für den Test!
Für mich is RT immer noch einer der Gründe warum ich im Nvidia-Lager bin. Ich mag den Effekt und finde das optische Resultat (wenn nicht zu übertrieben implementiert) eine richtigen optischen Mehrwert.

Antwort 4 Likes

big-maec

Urgestein

919 Kommentare 544 Likes

Ich dachte in der Nvidia 4000er-Serie ist eine Funktion zum Entlasten der CPU.

Was bringt das in der Praxis?

Antwort Gefällt mir

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Bei den Spielen, die in der Regel spiele, ist DXR nicht wichtig. CoD mit DXR oder ohne, welchen Unterschied macht das schon? Da ist mir rohre Gewalt in Form von FPS wichtig… diese Art Spiele sind viel zu dynamisch, um Raytracing überhaupt wahrzunehmen… Ein Story Game wie Guardians oder Tomb Raider? DXR on aber sowas von!

Antwort 2 Likes

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Vergleiche mal die 4090 mit DLSS 2.3 und 3.0 da siehst du wo die Reise hingeht…

CPU bottleneck mit DLSS 2.3 Ultra Performance und mit DLSS 3.0 geht noch was!

Antwort Gefällt mir

ssj3rd

Veteran

225 Kommentare 156 Likes

Wie sieht es eigentlich mit Spulenfiepen aus? Hatte hier einige 3090FE die mächtig gepfiffen haben.

PS:
Wo Ich immer noch extrem geschockt bin: Selbst mit einer 4090 gibt’s bei Cyberpunk bei RT maxed out (ohne DLSS) keine 35FPS, irre 🔥

Antwort 1 Like

ipat66

Urgestein

1,430 Kommentare 1,459 Likes

Danke Fritz Hunter für diesen ausführlichen Test und Dein Fazit.
Endlich 4k mit RT auf höchsten Einstellungen, ohne Diashow!
Werde heute Nachmittag,das Ganze noch mal auf dem großen Bildschirm anschauen müssen...:)

Für den aufgerufenen Preis kannst Du ja nichts.

Alle jene,welche diesen Fortschritt nicht erkennen und nur meckern,kann ich nur sagen:
Klar ist das ein sehr teures Produkt,welches ich mir auch nicht leisten kann....
Aber, das heißt im Umkehrschluss,dass es in ein,zwei Jahren diese Leistung auch für
viel preiswerter geben wird...

Bis dahin werkelt dann weiterhin meine olle 2070 im Rechner,mit DLSS 2 …..;)

Antwort 1 Like

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Die 4090 läuft ohne DLSS mit RT Psycho bei um die 40-45 Fps im Schnitt.

Antwort 2 Likes

g
guillome

Neuling

7 Kommentare 4 Likes

Das hat sich ja mit der aktuellen 4090 geändert ;)
Mit dieser Graka kannst jetzt so ziemlich alle Spiele mit DXR fahren und hast trotzdem noch genügend Frames. Selbst das CPU entlastende DLSS3 ist für diesen Framebums der 4090 "heute" nicht unebdingt notwendig - aber man hat es in der Hinterhand falls es doch notwendig sein wird :)

Antwort Gefällt mir

P
Phoenixxl

Veteran

160 Kommentare 124 Likes

Mal schauen:
Ein ROG SWIFT PG32UQX kostet circa 3500. Die Grafikkarte mit Umbau auf Wasser 2200.
Dann ein X670 Board mit DDR 5, ein 7800X3D...
Da weiß ich für was ich nächstes Jahr arbeiten gehen könnte.

Das geht in Richtung 8000€... Vllt noch ein Fractal Design Torrent und wenn man schon dabei ist ein ATX 3.0 Netzteil....

Ich formuliere es bewusst positiv:
Man kann wieder von Hardware träumen 😇

Antwort 4 Likes

R
RX Vega_1975

Urgestein

592 Kommentare 80 Likes

AMD kommt heute,- wohl mit Einigen, wenigen Infos der 7900XT um die Ecke
Karten der Konkurrenz sind ab heute kaufbar und somit kann man langsam die Katze aus dem Sack lassen.

Antwort 1 Like

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Das gute an DLSS ist: selbst im Performance Mode hat man fast keine Bildverluste. Schade, dass es in CP2077 kein FSR 2.0 gibt. Der Vergleich, wäre echt interessant geworden…

Antwort 1 Like

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Hoffentlich kann AMD eine passende Antwort liefern. Vor allem preislich etwas den undercut machen… die 7900XT muss nur 90 % der 4090 mit RT on schaffen und schon sind alle verstummt

Antwort 2 Likes

ssj3rd

Veteran

225 Kommentare 156 Likes

Das sieht CB aber bissel anders:
„Einzig Cyberpunk 2077 krebst mit 34 FPS in 3.840 × 2.160 herum“

View image at the forums

Kommt wohl darauf an welche „Szene“ man im Spiel als Grundlage für einen Test nimmt.

Antwort Gefällt mir

Megaone

Urgestein

1,840 Kommentare 1,739 Likes

Erstmal einfach danke für den Test.

Super gemacht!

Antwort 1 Like

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Dann schau mal hier, dass hat Igor im in-game Benchmark von CP gemessen (DXR Ultra)

View image at the forums

Und das sind meine Messungen aus dem Spiel heraus (DXR Psycho) Bachte: Ich habe nur einen R7 5800X und DDR4 3200

View image at the forums

Antwort 1 Like

FritzHunter01

Moderator

1,216 Kommentare 1,651 Likes

Ja, aber deutlich weniger als bei der meine 3080 Ti (Suprim X unter Wasser). Die 4090 ist echt human dagegen.

Die schlimmste Karte ist die 6900XT Liquid Devil... das dingt pfeift so heftig, da kannst du keinen Kopfhörer aufsetzen...

Antwort Gefällt mir

ssj3rd

Veteran

225 Kommentare 156 Likes

Im Endeffekt ja egal, 35-45 FPS ist für mich eigentlich immer noch unspielbar in dem Game, DLSS bleibt hier Pflicht wenn man Raytracing Maxed out will.

Schade das Spulenfiepen überhaupt noch vorhanden ist und im Endeffekt könnt ihr halt einfach eine gute Karte erwischt haben. Da muss man wohl erst User Berichte abwarten wenn das Ding in der Masse angekommen ist,
Trotzdem natürlich danke für den Bericht 🙏

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung