Grafikkarten Praxis Testberichte VGA

NVIDIA GeForce RTX 4090 FE im DXR, DLSS, Reflex und Frame Generation Test – Wenn die CPU röchelnd im Flaschenhals steckenbleibt

XeSS 1.01 vs. DLSS 2.3 erster grafische Vergleich

Intels erster Versuch sich mit NVIDIA bzgl. Upscaling zu messen – ging in Bezug auf die FPS-Steigerung voll in die Hose. Da habe ich mir deutlich mehr erhofft. Ob XeSS mit einer dedizierten Intel GPU besser skaliert, das kann ich aufgrund des fehlenden Testsamples leider nicht beantworten. Aber, was die grafischen Aspekte betrifft, können wir einen ersten Blick auf XeSS werfen. Ich stelle euch hier zuerst die Bereiche vor, auf die ihr später mal ein Auge werfen solltet. Auf den nächsten Seiten findet ihr die Videos. Doch zuerst schauen wir uns mal eine Übersicht der Upscaling-Verfahren von NVIDIA, AMD und Intel an.

Jetzt wissen wir, dass alle irgendwie ähnlich – aber nicht wirklich gleich sind. Bei NVIDIA gibt es z.B. keinen Ultra Quality Modus. Bei FSR 2.0 gibt es den auch nicht mehr. Dafür hat Intel keinen Ultra Performance Modus. Es ist also nicht immer leicht, die Sachen am Ende zu vergleichen. Vergleicht man es gemäß der Namensgebung passen die Auflösungen nicht immer zueinander. Nimmt man die Auflösungen als Vergleichsbasis, dann verwirren die Namen. Schwierig! Daher mache ich es für Intel als Neuling heute mal einfacher und benachteilige an der Stelle im Grunde NVIDIA:

DLSS Quality vs. XeSS Ultra Quality
DLSS Balanced vs. XeSS Quality
DLSS Performance vs. XeSS Balanced
DLSS Ultra Performance vs. XeSS Performance

 

Die erste Stelle, auf die ihr euer Augenmerk legen solltet, ist das Geländer auf dem Dach. Hier zeigt XeSS in allen Stufen seine Schwäche gegenüber DLSS. Mit DLSS wird das Geländer deutlich besser und flackerfrei dargestellt.

Bei dem Fahrrad kann XeSS ganz gut mithalten. Die letzte Stufe – DLSS Ultra Performance schwächelt am Ende auch. Aber in Ultra Performance kann man Abstriche schon mal verzeihen. Der Modus ist am Ende nur was für völlig FPS-Verrückte, denen die Grafik vermutlich egal ist.

Bei dem Holz-Dingens-keine-Ahnung… was auch immer das sein soll, zeigt XeSS deutlich früher Schwächen auf. Im Allgemeinen finde ich es mit DLSS grundsätzlich schärfer dargestellt. (Anmerkung: weder bei DLSS noch XeSS kann man die Schärfe regulieren)

Auch ein Blick auf die Äste und Zweige lohnt sich. Was hier sofort auffällt, dass beide (DLSS und XeSS) im Vergleich zu 2160p nativ die Farben auswaschen. Saftiges Grün wird ausgebleicht. Liegt sehr wahrscheinlich am Nachschärfen. Auch wenn DLSS hier am Ende ein Ticken besser ist, stellt sich mir die Frage für was? Dass das menschliche Auge, das Geländer auf dem Dach – auf die Entfernung noch detailliert wahrnehmen kann – ist klar. Auch das Holz-Ding (whatever) nimmt das Auge gut war. Aber die Blätter weit hinten und hoch oben?

Ein Blick auf die Hecke bestätigt bzw. verdeutlicht nochmals, dass die Farben ausgewaschen werden. Dafür werden die Blätter deutlich schärfer dargestellt. Bedenkt man die „reale“ Entfernung zur Hecke und dass ich hier stark vergrößert habe, stellt sich mir die Frage nach der Sinnhaftigkeit. Ich hätte es lieber grüner und etwas unschärfer. Wie es real auch der Fall wäre.

Mein persönliches zwischen Fazit zum heutigen Vergleich DLSS vs. XeSS

Beide Upscaling Techniken überschärfen das Bild und waschen damit die Farben massiv aus. Sieht man am besten, wenn man die Split-Screen-Vergleiche zur nativen Auflösung macht. Hier würde ein manueller Schärferegler dem Nutzer die Wahl lassen, wie scharf es denn sein soll. Bitte an Intel und NVIDIA bzw. die Spieleentwickler – sowas gehört bei jedem Spiel mit integriert. Was die grafische Performance im Allgemeinen betrifft, so muss ich feststellen, dass Intel mit XeSS in etwa auf dem Niveau von FSR 2.0 bzw. DLSS 2.0 gestartet ist. Bis auf kleinere Schwächen, die leider schon ab Ultra Quality zu Tage treten, ist das schon solide. Natürlich kommt XeSS nicht ganz an DLSS 2.3 heran. DLSS ist sowohl grafisch einen ticken besser, und wenn man die FPS-Steigerung noch mit in die Relation setzt, dann zeigt DLSS wer hier der Chef ist.

Auf den nächsten vier Seiten habe ich für euch die jeweiligen Vergleiche als Video-Datei verlinkt. Neu ist dabei, dass ihr selbst mit der Maus und dem Scroll-Rad alles interaktiv anschauen könnt. Das ist doch ein netter Kundenservice, oder nicht? Ebenso könnt ihr euch das Ganze auf einer extra Seite in groß öffnen. Via Link unter dem Video! Schaut euch die von mir beschriebenen Bereiche selbst an und wer von euch noch weitere Unterschiede zwischen XeSS und DLSS zur nativen Auflösung findet, der darf das gerne im Forum anzeigen.

Kurze Galerie bzgl. der Bedienung des Players

 

Ihr könnt vergrößern bis zum Vollbild. (Geht auch mit dem Mausrad) Ihr könnt die Positionen der Videos ändern (Links, Mitte, Rechts), je nach Belieben. Ich empfehle nativ in der Mitte. Wer gerne ein Overlay hätte, der kann sich das auch drüberlegen. Startet das Video oder lasst es in einem endlos-loop laufen. Im Split-Screen könnt ihr mit dem Slider arbeiten. Es ist alles für euch angerichtet. Die Bedienung ist echt simple. So dann viel Spaß beim Vergleichen… Weiter gehts dann mit Cyberpunk auf Seite 10.

 

 

132 Antworten

Kommentar

Lade neue Kommentare

big-maec

Urgestein

829 Kommentare 477 Likes

Raytracing wird eigentlich überbewertet bei Spielen, aber nun gut ist, ist ja auch das einzige was zieht beim Leistungstest. Wäre aber trotzdem schön gewesen, die AMD Red Devil mit reinzunehmen.

Wäre cool, den Test nächsten Monat mit den neuen AMD Karten nochmal zu machen. Würde mich interessieren, wo und welche Unterschiede es gibt.

Antwort 5 Likes

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Wenn ich eine AMD Karte bekomme, dann testet ich genau das nochmal. Mir ging es im Schwerpunkt um die Mehrleistung zur RTX 3080 Ti.

Wenn es AMD gelingt, die Leistung in ähnlicher Form zu steigern, dann braucht man sogar für UHD einen neuen Prozessor. Ich bin mir da noch nicht mal sicher, ob der 13900k dann ausreichend ist. Ich vermute X3D (Ryzen 7000) wird es richten…

Wenn man mit einer RX 7900 XT in UHD max Settings (DXR off) auch ständig ins CPU Limit rennt, dann wird es langsam albern.

Wo soll das noch hinführen? 8K Monitor die auf 32 Zoll mal keinen Sinn haben! Kleiner 32“ und 8K ist wie 17“ und UHD = Sinnlos

Wenn Nvidia/AMD mit den 5000er/8000er Karten MCM bauen mit 3n, wie müssen CPUs dann aussehen? Wo soll die Leistung herkommen? Eine CPU in 3n mit 300 Watt und einer Wärmestromdichte jenseits von kühlbar?

Antwort 4 Likes

g
guillome

Neuling

7 Kommentare 4 Likes

Vielen Dank für den Test!
Für mich is RT immer noch einer der Gründe warum ich im Nvidia-Lager bin. Ich mag den Effekt und finde das optische Resultat (wenn nicht zu übertrieben implementiert) eine richtigen optischen Mehrwert.

Antwort 4 Likes

big-maec

Urgestein

829 Kommentare 477 Likes

Ich dachte in der Nvidia 4000er-Serie ist eine Funktion zum Entlasten der CPU.

Was bringt das in der Praxis?

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Bei den Spielen, die in der Regel spiele, ist DXR nicht wichtig. CoD mit DXR oder ohne, welchen Unterschied macht das schon? Da ist mir rohre Gewalt in Form von FPS wichtig… diese Art Spiele sind viel zu dynamisch, um Raytracing überhaupt wahrzunehmen… Ein Story Game wie Guardians oder Tomb Raider? DXR on aber sowas von!

Antwort 2 Likes

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Vergleiche mal die 4090 mit DLSS 2.3 und 3.0 da siehst du wo die Reise hingeht…

CPU bottleneck mit DLSS 2.3 Ultra Performance und mit DLSS 3.0 geht noch was!

Antwort Gefällt mir

ssj3rd

Veteran

218 Kommentare 155 Likes

Wie sieht es eigentlich mit Spulenfiepen aus? Hatte hier einige 3090FE die mächtig gepfiffen haben.

PS:
Wo Ich immer noch extrem geschockt bin: Selbst mit einer 4090 gibt’s bei Cyberpunk bei RT maxed out (ohne DLSS) keine 35FPS, irre 🔥

Antwort 1 Like

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

Danke Fritz Hunter für diesen ausführlichen Test und Dein Fazit.
Endlich 4k mit RT auf höchsten Einstellungen, ohne Diashow!
Werde heute Nachmittag,das Ganze noch mal auf dem großen Bildschirm anschauen müssen...:)

Für den aufgerufenen Preis kannst Du ja nichts.

Alle jene,welche diesen Fortschritt nicht erkennen und nur meckern,kann ich nur sagen:
Klar ist das ein sehr teures Produkt,welches ich mir auch nicht leisten kann....
Aber, das heißt im Umkehrschluss,dass es in ein,zwei Jahren diese Leistung auch für
viel preiswerter geben wird...

Bis dahin werkelt dann weiterhin meine olle 2070 im Rechner,mit DLSS 2 …..;)

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Die 4090 läuft ohne DLSS mit RT Psycho bei um die 40-45 Fps im Schnitt.

Antwort 2 Likes

g
guillome

Neuling

7 Kommentare 4 Likes

Das hat sich ja mit der aktuellen 4090 geändert ;)
Mit dieser Graka kannst jetzt so ziemlich alle Spiele mit DXR fahren und hast trotzdem noch genügend Frames. Selbst das CPU entlastende DLSS3 ist für diesen Framebums der 4090 "heute" nicht unebdingt notwendig - aber man hat es in der Hinterhand falls es doch notwendig sein wird :)

Antwort Gefällt mir

P
Phoenixxl

Veteran

158 Kommentare 120 Likes

Mal schauen:
Ein ROG SWIFT PG32UQX kostet circa 3500. Die Grafikkarte mit Umbau auf Wasser 2200.
Dann ein X670 Board mit DDR 5, ein 7800X3D...
Da weiß ich für was ich nächstes Jahr arbeiten gehen könnte.

Das geht in Richtung 8000€... Vllt noch ein Fractal Design Torrent und wenn man schon dabei ist ein ATX 3.0 Netzteil....

Ich formuliere es bewusst positiv:
Man kann wieder von Hardware träumen 😇

Antwort 4 Likes

R
RX Vega_1975

Urgestein

575 Kommentare 75 Likes

AMD kommt heute,- wohl mit Einigen, wenigen Infos der 7900XT um die Ecke
Karten der Konkurrenz sind ab heute kaufbar und somit kann man langsam die Katze aus dem Sack lassen.

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Das gute an DLSS ist: selbst im Performance Mode hat man fast keine Bildverluste. Schade, dass es in CP2077 kein FSR 2.0 gibt. Der Vergleich, wäre echt interessant geworden…

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Hoffentlich kann AMD eine passende Antwort liefern. Vor allem preislich etwas den undercut machen… die 7900XT muss nur 90 % der 4090 mit RT on schaffen und schon sind alle verstummt

Antwort 2 Likes

ssj3rd

Veteran

218 Kommentare 155 Likes

Das sieht CB aber bissel anders:
„Einzig Cyberpunk 2077 krebst mit 34 FPS in 3.840 × 2.160 herum“

View image at the forums

Kommt wohl darauf an welche „Szene“ man im Spiel als Grundlage für einen Test nimmt.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Erstmal einfach danke für den Test.

Super gemacht!

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Dann schau mal hier, dass hat Igor im in-game Benchmark von CP gemessen (DXR Ultra)

View image at the forums

Und das sind meine Messungen aus dem Spiel heraus (DXR Psycho) Bachte: Ich habe nur einen R7 5800X und DDR4 3200

View image at the forums

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Ja, aber deutlich weniger als bei der meine 3080 Ti (Suprim X unter Wasser). Die 4090 ist echt human dagegen.

Die schlimmste Karte ist die 6900XT Liquid Devil... das dingt pfeift so heftig, da kannst du keinen Kopfhörer aufsetzen...

Antwort Gefällt mir

ssj3rd

Veteran

218 Kommentare 155 Likes

Im Endeffekt ja egal, 35-45 FPS ist für mich eigentlich immer noch unspielbar in dem Game, DLSS bleibt hier Pflicht wenn man Raytracing Maxed out will.

Schade das Spulenfiepen überhaupt noch vorhanden ist und im Endeffekt könnt ihr halt einfach eine gute Karte erwischt haben. Da muss man wohl erst User Berichte abwarten wenn das Ding in der Masse angekommen ist,
Trotzdem natürlich danke für den Bericht 🙏

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung