Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4080 Founders Edition 16GB im Test – Schneller als gedacht und viel sparsamer als befürchtet

RTX on! Das war ein großes Thema 2018. Die Verfügbarkeit in Spielen war anfangs noch überschaubar, aber mittlerweile hat es sich etabliert und die Spieleentwickler implementieren diese Technologien zunehmend. Da die Echtzeitberechnung (Raytracing) sehr viel Leistung kostet, hat sich Nvidia mit DLSS, das haben wir ja gerade sehen können. Doch es gibt ja nicht nur DLSS für das Mehr an FPS, sondern auch Latenzprobleme, die man lösen wollte. NVIDIA Reflex soll nun den Knoten in der Render-Pipeline auflösen, sodass sich die Latenzen (ähnlich wie bei einem Frame-Limiter) im GPU-Limit deutlich verringern. 

(www.nvidia.com)

Was NVIDIA Reflex und Boost nun in der Praxis wirklich bringen, hatten wir ja bereits sehr ausführlich thematisiert. Nachmessen im Selbstversuch war angesagt. Dazu findet ihr auf der Homepage unter dem Schlagwort „Reflex“ und hier um unten verlinkten Artikel noch weiteren Lesestoff zum Thema Latenzen, Reflex etc. Ich denke, dass das ausreichend sein sollte, um DLSS 3.0 vollumfänglich einzuordnen. Das Wesentliche sind die zusätzlichen Frames in Verbindung mit Reflex, denn die Super Resolution kennen wir ja schon.

NVIDIA Reflex und NVIDIA Boost im Praxis-Test: Skill-Verstärker oder Marketing – Was bleibt vom Versprechen übrig?

 

Reflex mit und ohne DLSS 3.0

Nachdem wir ja in der Lage sind, die system-Latenzen mittels unseres Equipments zu messen, gibt es seit Kurzem auch die Möglichkeit, zumindest die NVIDIA-Karten mittels NVIDIA FrameView auch per Software während des Benchmarks auszulesen. Genau dafür habe ich jetzt noch ein paar abschließende Benchmarks für Euch, die sowohl ohne DLSS, als auch mit DLSS 2.3 sowie DLSS 3.0 gemacht wurden. Zunächst die Latenzen ohne DLSS, wobei sich die GeForce RTX 4080 als kleine Latenzkönigin entpuppt.

Jetzt nehmen wir DLSS hinzu, wobei das Erzeugen der hochgerechneten Zwischenframes aktuell nur auf den RTX 4000 Karten funktioniert. in QHD limitiert ganz offensichtlich die CPU, so dass sich die Zeit, die für die Frame-Berechnung durch die KI benötigt wird, nicht negativ im Ergebnis niederschlägt.

Vergleich man jedoch in Ultra HD die Ergebnisse der GeForce RTX 4090 von DLSS ohne und DLSS 3.0 mit der Zwischenframe-Berechnung, dann sehen wir exakt die gewissen 10 bis 15 ms, die diese Generierung der zusätzlichen Inhalte mittels KI nun einmal dauert. Hier liegen wir also genau auf dem Wert, denn NVIDIA uns auch kommuniziert hatte.

Damit schließe ich das heutige Kapitel zu DLSS 3.0 und den weiteren neuen Features ab, verweise aber noch einmal auf die große Artikel-Reihe, die morgen beginnt. Dann gibt es nämlich Ein- und Ausblicke, die Ihr so in diesem Umfang sicher noch nicht gesehen habt. Da die Menge der Daten aber den Rahmen so eines Launchartikels wie des heutigen sprengt, musste es einfach geteilt werden. Vorteil: auch morgen gibt es einen hochinteressanten und langen Artikel zu lesen 🙂

168 Antworten

Kommentar

Lade neue Kommentare

R
RX Vega_1975

Urgestein

523 Kommentare 64 Likes

Da hat AMD wohl "leichtes" Spiel bei der Rasterizer Leistung
Ist wohl mindestens 10%+ über einer RTX 4080
Bei Raytracing dann wohl 30% darunter.

Effizienz ist aber Extrem Wahnsinnig Gut bei der 4080 16GB
Dann sollten heute/ Morgen wohl Benchmarks zur AMD 7900XTX kommen um den Launch etwas zu bremsen!

Antwort Gefällt mir

S
Staarfury

Veteran

163 Kommentare 155 Likes

Ich mag den igoBOT in grün.

Beim Preis der Karte rollen sich mir leider immer noch die Zehennägel hoch :(

Antwort 4 Likes

Igor Wallossek

Format©

7,591 Kommentare 12,647 Likes

Genau das. Und die Infos hatten auch nur die, die auch in LA vor Ort dabei waren. Das ist halt eine Strategie :D

Antwort Gefällt mir

R
RazielNoir

Mitglied

29 Kommentare 5 Likes

Ich bin mal eher auf das Duell AMD / Nvidia eine Etage darunter gespannt. Die Karte ist preislich völlig out of Range.
Eine 4070 gegen eine 7800XT sowohl was Preis, als auch Lastverbrauch angeht

Antwort Gefällt mir

~
~HazZarD~

Mitglied

14 Kommentare 14 Likes

Die Leistung/€ Stagnation ist ja absolut erschreckend. Im Grunde bekommt man bei der 4090, die ja eigentlich das Halo Produkt ist, mehr Leistung fürs Geld als bei ner 4080.

Ich bin für die Einführung eines "Christian Lindner approved" Awards. Den hätte die Karte jedenfalls verdient.

Antwort 8 Likes

grimm

Urgestein

2,233 Kommentare 1,353 Likes

Das ist im Prinzip die Leistungssteigerung, die ich von einer neuen Gen erwarte. Bei der Karte hat es sich ja dann auch komplett mit irgendwelchen 1.000+Watt NTs. Die liegt ja noch deutlich unter meiner 6900XT. Preislich sieht das allerdings nach einem Rohrkrepierer aus.
Ich kann das Pricing sogar nachvollziehen - zum 3090 Ti Preis gibts ein ordentliches Leistungsplus - allein, ich glaube in der aktuellen Wirtschaftslage bei parallel abschmierenden Kryptos nicht an einen Ansturm auf die Karten. Ich gehe davon aus, dass wir die ab Q2 für um die 1.000 Euro sehen. Wenn nicht vorher AMD einschlägt - die sind preislich vergleichsweise moderat aufgestellt. Moderat, sofern die Leitung stimmt.

Antwort 4 Likes

P
Phelan

Veteran

115 Kommentare 94 Likes

hm weiß nicht...

60% der Recheneinheiten und 66% Ram zu 75% des Preises...
Und mit den 60% ist es eher eine 4070ti ... und es fehlen eigentlich noch komplett die 4080 und 4080TI.

Der Abstand zu 4090 ist ja quasi noch geschönt, da die aktuellen spiele die Karte garnicht ausreitzen können.
IMO ist die 4080 deutlich zu teuer oder die 4090 zu billig je nach Sichtweise.

Wenn Nvidia die Preise bekommt, machen sie ja alles richtig. Und irgendwie auch besser als wenn bei Sclapern landet.
Ich bin da halt nur komplett raus aus dieser Produktgruppe.

Antwort Gefällt mir

wuchzael

Moderator

679 Kommentare 395 Likes

Geiler Test, so muss das!

Die Karte ist absolut gut gelungen, keine Frage. Das Nvidia sich extra viel Platz für eine potentielle 4080ti zwischen der 4080 und 4090 lässt war anhand der Leaks ja schon abzusehen und der Preisaufschlag zur vorherigen Generation (3080 = 759€ für nen 628mm² Chip zu 4080 = 1469€ für nen 379mm² Chip) ist einfach frech - Fertigungskosten für den N4 Prozess, bisschen Speicher und "alles wird teurer"-Faktor hin oder her.

Tut mir leid, aber ich bin da einfach raus. Ich hab das alles satt... erst GPU-Apokalypse durch Mining-Boom, dann der RTX-Aufschlag mit Turing, noch ein Mining-Boom samt künstlicher Verknappung und Scalper-Preisen und jetzt Jensens Größenwahn... irgendwann ist es auch mal gut.

Grüße!

Antwort 20 Likes

Klicke zum Ausklappem
S
Staarfury

Veteran

163 Kommentare 155 Likes

Ja, leider sieht es so aus, als würde sich AMD für diese Generation gleich mal aus dem Rennen nehmen (zumindest für mich).

Nach eigenen Benchmarks schafft die 7900 XTX 21 FPS in CP2077 4k Ultra RT. Das ist 3080 Ti Niveau.
Bei einer neuen High-End Karte, die sicher die nächsten 2 Generationen (=4 Jahre) halten soll, ist das für mich leider keine Option.

Antwort Gefällt mir

grimm

Urgestein

2,233 Kommentare 1,353 Likes

Für mich besteht absolut kein Handlungsdruck bzw. ich hab mich selbst aus dem Rennen genommen. Ich hab den UHD Monitor ans MacBook gehängt und die Daddelkiste an ein 27" WQHD-Display. Die ganzen FPS-Balken haben mich selten so kalt gelassen. Und selten konnte man beim Launch schon erahnen, dass die wirklich sehr guten Produkte zur absoluten Unzeit kommen.

Kann sein, dass ich es überlesen habe: Braucht man für die 4080 einen 12-PIN Adapter?

Antwort Gefällt mir

DorianCrafts

Mitglied

13 Kommentare 10 Likes

Besser hätte ich es auch nicht schreiben können:

Antwort 2 Likes

S
Staarfury

Veteran

163 Kommentare 155 Likes

Ja
Und ich vermute mal das bleibt so bei allen 40er Modellen, die mindestens 2x 8 Pin benötigten.

Antwort Gefällt mir

Ghoster52

Urgestein

772 Kommentare 474 Likes

Genau aus dem Grund disqualifiziert sich die Grafikkarte für den Normalzocker. (n)
Das Leistungsplus + Effizienz ist beachtlich keine Frage, aber zu welchen Kurs...

Antwort 1 Like

felixb

Mitglied

49 Kommentare 28 Likes

Die Effizienz ist durchaus beeindruckend.
Allerdings brauche ich gar keine neue Grafikkarte :D. Und der Preis ist natürlich völlig verrückt. Leider.
Das macht das Ganze völlig unattraktiv.

Antwort 1 Like

H
HotteX

Mitglied

89 Kommentare 56 Likes

Also die Preise die jetzt mit jeder neuen Generation aufgerufen werden, einfach nur noch lächerlich.
Vom Prinzip ist gegen die Karte nichts auszusetzen, hätte gerne nochmal ein UV Test gesehen, so auf
250W. Kommt ja vielleicht noch. Ah ich sehe grade Hardwareluxx hat die mit 250W laufen gelassen und
nur ca. 5% verloren. Sehr nice.
Aber bei mir ist bei 700€ eh Schluss was GPUs angeht, also maximal im Abverkauf.

Antwort 4 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung