Heute ist es endlich so weit, die RTX 4090 feiert ihren Verkaufsstart. Über die Preise will ich mich jetzt gar nicht unterhalten, dazu sage ich vielleicht ganz zum Schluss etwas. Igor hatte gestern bereits – wie gewohnt – die allgemeine Performance, Leistungsaufnahme, Temperaturen usw. vorgestellt. Ich selbst teste mit der RTX 4090 jetzt gut zwei Wochen und bin von der Leistung der Karte völlig überrascht worden. Man glaubt ja nicht alles, was da über das Marketing versprochen wird.
Heute liegt mein Fokus auf den NVIDIA Gimmicks. DLSS 2.3 und DLSS 3.0 dürfen zusammen mit NVIDIA Reflex und Boost mal zeigen was sie draufhaben. RTX on steht heute ausnahmslos im Vordergrund.
Die Frage, die sich mir in den vergangenen Wochen bzw. Monaten immer wieder gestellt hat: Warum bringen die Hersteller 240 Hz Monitore mit UHD Auflösung raus? QHD mit 360 Hz? Da muss doch mit den neuen GPU Generation von NVIDIA bzw. auch AMD was richtig Großes um die Ecke kommen. Den Anfang macht mal wieder NVIDIA mit der RTX 4090, dem 24 GB GDDR6X Monster. Und ja, das ist mit Abstand die dickste Founders Edition Grafikkarte, die ich je gesehen habe. Jetzt muss die Karte nur noch zeigen, dass sie nicht nur groß und schwer, sondern auch viel schneller als die RTX 3080 Ti ist. Eine RTX 3090 Ti habe ich nicht, aber Igor hat alle aktuellen Highend-GPUs bei sich im Test gehabt.
Eine Vorabbemerkung sei mir an der Stelle zugesprochen. Ich vergleiche die RTX 4090 nur gegen die RTX 3080 Ti. Natürlich hätte ich hier auch eine AMD Radeon RX 6900 XT Liquid Devil im Testangebot rumliegen. Aber wir alle wissen, dass AMDs aktuelle 6000er Generation – in Bezug auf Raytracing – nicht mit NVIDIA mithalten kann. Daher heute kein Bauchpinseln in Richtung NVIDIA – mit ganz langen DXR Balken. Ich warte auf AMDs neue 7000er GPUs, dann sehen wir weiter.
Testsystem
CPU | Ryzen 7 5800X (PBO 2, CO negativ) |
Mainboard | MSI MAG X570 ACE |
RAM | 4×8 GB Crucial Ballistix RGB 3200 MHz CL16-18-18-36 |
SSD 1 | Samsung 980 Pro 500 GB (Windows 11 Stand KW40/2022 ) |
SSD 2 | Crucial P2 1000 GB (Spiele) |
SSD 3 | Crucial P2 1000 GB (Spiele) |
SSD 4 | Samsung 512 GB 840 Pro (Backup) |
CPU Kühler | Alphacool Eisbaer Aurora 360 |
Netzteil | Seasonic Prime Platinum 1300 Watt |
GPUs |
MSI GeForce RTX 3080 Ti Suprim X – wassergekühlt Eisblock GPX Aurora (Treiber 521.90) NVIDIA GeForce RTX 4090 (Treiber 521.90) |
Sound | SoundblasterX AE-5 Plus |
Tastatur | Cooler Master SK 622 (Red Taster) via USB @1000 Hz Polling Rate |
Maus | ASUS ROG Chakram Core X @1000 Hz Polling Rate (NVIDIA Reflex Latency Analyzer Support) |
Monitor |
LG UltraGear 27GN950-B |
Test-Tools | NVIDIA LDAT V2 mit Logitech G203 Prodigy @1.000 Hz Polling Rate |
Testaufbau RTX 4090 FE
Testaufbau RTX 3080 Ti (MSI Suprim X unter Wasser)
Testmethoden
Getestet wurde heute ausschließlich in UHD Auflösung (3840 x 2160p) auf dem LG 27GN950. Bei allen von mir getesteten Spielen wurden die maximalen Grafikeinstellungen – inklusive Raytracing auf maximum – gewählt. Ich habe bei meinen Messungen keine integrierten Benchmarks genutzt, sondern eine dedizierte Spielszene ausgewählt. Diese stelle ich euch im jeweiligen Abschnitt noch genauer vor.
Latenzmessungen in Cyberpunk wurden mittels NVIDIA Frameview aufgezeichnet und später mit dem IgorsLab Interpreter ausgewertet und in Excel zusammengefasst. In CoD Black Ops Cold War habe ich die Latenzen mit NVIDIA LDAT selbst gemessen und in Excel zusammengefasst. Alle Messungen (FPS bzw. Latenzen) wurden dreimal wiederholt, um Messungenauigkeiten vorzubeugen. Grafische Vergleiche – zum Beispiel zur Qualität von DLSS usw. – wurden mit NVIDIA Shadowplay aufgenommen, mit NVIDIA ICAT zusammengeführt und ausgewertet.
Ein paar Grundlagen zum Thema LDAT und Latenzen gibt es hier: (weitere Artikel findet ihr auf der Homepage)
NVIDIA LDAT – Latency Display Analysis Tool vorgestellt und ziemlich exklusiv getestet
So genug der Theorie, lasst uns Anfangen. Ich starte mit etwas leichter Kost zum warm werden: Call of Duty Cold War, RTX on und Reflex in UHD. Dann darf die kleine Lara Croft in Shadow of the Tomb Raider den GPUs das Fürchten lehren. Und zum Schluss gibt es das Finale Grande mit RTX on, DLSS 3.0 und Latenzen in Cyberpunk 2077. Auf die Plätze, fertig? Dann nächste Seite…
- 1 - Einführung und Testsystem
- 2 - Call of Duty Black Ops Cold War RTX 3080 Ti
- 3 - Call of Duty Black Ops Cold War RTX 4090
- 4 - Lara Croft hat die Wahl: XeSS oder DLSS als FPS Booster
- 5 - Grafikvergleich NVIDIA DLSS vs. Intel XeSS
- 6 - 2160p nativ vs. DLSS Balanced vs. XeSS Quality
- 7 - 2160p nativ vs. DLSS Performance vs. XeSS Balanced
- 8 - 2160p nativ vs. DLSS Quality vs. XeSS Ultra Quality
- 9 - 2160p vs. DLSS Ultra Performance vs. XeSS Performance
- 10 - Cyberpunk 2077 eine neue Zeitrechung mit DLSS 3.0
- 11 - Cyberpunk 2077 - RTX 4090 mit DLSS 3.0
- 12 - Cyberpunk 2077 RTX 3080 Ti vs. RTX 4090
- 13 - DLSS 2.3 vs. DLSS 3.0 Bildqualität Cyberpunk 2077
- 14 - DLSS 2.3 vs. DLSS 3.0 Balanced vs. 2160p nativ
- 15 - DLSS 2.3 vs. DLSS 3.0 Performance vs. 2160p nativ
- 16 - DLSS 2.3 vs. DLSS 3.0 Ultra Performance vs. 2160p nativ
- 17 - DLSS 3.0 vs. FSR 1.0
- 18 - DLSS 3.0 Quality vs. FSR 1.0 Quality vs. 2160p nativ
- 19 - DLSS 3.0 Balanced vs. FSR 1.0 Balanced vs. 2160p nativ
- 20 - DLSS 3.0 Perfomance vs. FSR 1.0 Perfomance vs. 2160p nativ
- 21 - DLSS 3.0 Ultra Perfomance vs. FSR 1.0 Ultra Perfomance vs. 2160p nativ
- 22 - Zusammenfassung und Fazit
132 Antworten
Kommentar
Lade neue Kommentare
Urgestein
Moderator
Neuling
Urgestein
Moderator
Moderator
Veteran
Urgestein
Moderator
Neuling
Veteran
Urgestein
Moderator
Moderator
Veteran
Urgestein
Moderator
Moderator
Veteran
Alle Kommentare lesen unter igor´sLAB Community →