Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4080 Founders Edition 16GB im Test – Schneller als gedacht und viel sparsamer als befürchtet

Heute können wir endlich die NVIDIA GeForce RTX 4080 Founders Edition (FE) einschließlich aller technischen Details und der lang ersehnten Benchmarks vorstellen, denn die Spannungskurve war schon reichlich groß. Auch wenn NVIDIA die Karte eigentlich als Nachfolgerin der GeForce RTX 3080 sieht, ist es doch eine Kampfansage an die RTX 3090 und vor allem auch an die GeForce RTX 3090 Ti, denn preislich wird man wohl genau dort landen, wo das alte Spitzenmodell mal lag. Auch bei der GeForce RTX 4080 gibt es wieder richtig fette Kühler, denn ich schrieb ja schon in einem Artikel zur Herkunft der mega-großen Kühler für die RTX 4090, dass man die TBP erst im Nachhinein extrem eingkürzen konnte. Hier sind die Aufbauten immerhin noch um 100 Watt überdimensioniert, denn die geplante TDP wurde von einstmals 420 Watt auf 320 Watt eingekürzt. Das macht natürlich umso neugieriger, vor allem was Temperaturen und Lautstärke betrifft.

Wichtiges Vorwort

Heute geht es erst einmal primär um die technische Übersicht einschließlich der GeForce RTX 4080 FE als Testobjekt. Natürlich wie gewohnt samt Benchmarks, Teardown, Platinen- und Kühler Analyse, sowie die Leistungsaufnahme und die Lastspitzen mit Netzteilempfehlung. Selbstverständlich haben wir auch die wichtigen Dinge wie DLSS 3.0 und Reflex mit in den Benchmarks (samt kurzer Einführungen), aber ich muss bereits jetzt auf die vielen weiteren Follow-Ups verweisen, die sich dann mit weiteren Benchmarks, Bildqualitätsvergleichen zu FSR und Xe sowie den Latenzen befassen werden.

Diese Materie ist mittlerweile nämlich so komplex geworden, dass man dem Thema mit einem kurzen Drüberfliegen einfach nicht gerecht werden würde. Wir haben dann sogar eine spezielle Video-Analyse für Euch, deren Basis ich bereits für die RTX 4090 im CMS eingebaut hatte. Es lohnt sich also auch diesmal, die NVIDIA-Woche bis zum Ende zu genießen. Und wir werden diesen ganzen Aufwand natürlich auch als Grundlage dafür nutzen, um im November dann dies alles noch einmal direkt mit der kommenden RDNA3-Grafikkarten-Generation von AMD zu vergleichen.

Der AD 103 und die neue Ada-Architektur

Die NVIDIA GeForce RTX 4080 wird ebenfalls im TSMC 4N Prozess gefertigt und verfügt über 45.9 Milliarden Transistoren und bietet, da kann ich schon einmal spoilern, ebenfalls einen ordentlichen Sprung in Sachen Leistung, Effizienz und auch KI-gestützter Grafik, selbst wenn die Lücke zur GeForce RTX 4090 nahezu riesig erscheint. Die Ada-Architektur setzt dabei auf bis zu 7 Graphic Processing Clusters (GPC) und bis zu 80 neue Streaming-Multiprozessoren (SM) mit 10.240 CUDA Cores, deren Performance und Energieeffizienz deutlich gestiegen ist.

Dazu kommen Tensor-Kerne der 4. Generation und Optical Flow, was transformative KI-Technologien, einschließlich NVIDIA DLSS und dem neuen Bildraten-Vervielfacher NVIDIA DLSS 3 ermöglicht. Die RT-Kerne der 3. Generation bieten bis zu 2-fache Raytracing-Leistung,  Shader Execution Reordering (SER) verbessert die Raytracing-Operationen zudem um das Doppelte. Außerdem nutzt nun auch NVIDIA einen dualen AV1 Encoder, wobei der NVIDIA Encoder (NVENC) der 8. Generation mit AV1 bis zu 40% effizienter als H.264 arbeiten soll.

Der AD103-300 der GeForce RTX 4080 wurde etwas beschränkt und bietet in der Summe zwar immer noch 7 GPC, von denen jedoch zwei von 12 auf 10 SM eingekürzt wurden und einer sogar auf 8 SM. Damit ergeben sich noch 76 SM einschließlich der 9728 CUDA-Cores für den Chip der neuen Consumer-Karte. Dazu kommen noch insgesamt 38 Texture Processing Clusters (TPC), 76 RT-Cores der 3. Generation, 304 Tensor-Cores der 4. Generation, 304 Texture Units (TU) und 112 ROPs. Der L2-Cache ist insgesamt 65536 KB groß und die Karte nutzt 16 GB GDDR6X mit 11200 MHz Takt an einem 256-bit Interface, was einer Datenrate von 22,4 Gbps und einer Bandbreite von 716,8 GB/s entspricht.

Die Änderungen an allen drei Kern-Typen kann man recht einfach zusammenfassen:

  • Programmierbarer Shader: Die SM von Ada umfassen eine wichtige neue Technologie namens Shader Execution Reordering (SER), die die Arbeit im laufenden Betrieb neu ordnet, was eine 2-fache Beschleunigung fürs Raytracing ermöglicht. SER ist eine ebenso große Innovation, wie es seinerzeit die Out-of-Order-Ausführung für CPUs war. 83 Shader-TFLOPS sind da schon eine Ansage
  • Tensor Cores der 4. Generation: Der neue Tensor Core in Ada umfasst die NVIDIA Hopper FP8 Transformer Engine, die in der RTX 4090 über 1,3 PetaFLOPS für KI-Inferenz-Workloads liefert. Im Vergleich zu FP16 halbiert FP8 den Datenspeicherbedarf und verdoppelt die KI-Leistung. Die GeForce RTX 4090 bietet somit mehr als das Doppelte der gesamten Tensor Core-Verarbeitungsleistung der RTX 3090 Ti.
  • RT Core der 3. Generation: Eine neue Opacity Micromap Engine beschleunigt das Raytracing von alphageprüften Geometrien um den Faktor 2. Dazu kommt eine neue Micro-Mesh Engine, die die ganze geometrische Fülle ohne weitere BVH-Erstellungs- und Speicherkosten bewältigt. Der Triangulierungs-Durchsatz beträgt 191 RT-TFLOPS, verglichen mit den 78 RTTFLOPS bei Ampere.

Die Karte setzt nach wie vor auf ein PCIe Gen. 4 Interface und nur beim externen Stromanschluss mit dem 12VHPWR-Anschluss (12+4 Pin) auf ein Element der PCIe Gen. 5 Spezifikation. Die TGP liegt bei 320 Watt und kann, je nach Boardpartner, auch auf bis zu 400 Watt angehoben werden (was eher sinnlos ist, weil die Spannung irgendwann sowieso limitiert). Die für den Chip maximal zulässigen 90 °C wird der extrem überdimensionierte Kühler ja sowieso zu verhindern wissen.

 

Die NVIDIA GeForce RTX 4080 FE 16 GB im Detail

Die FE wiegt „nur“ 2123 Gramm. Mit den 30,5 cm Länge und 12,5 cm Höhe ab Slot bis zur Oberkante und einer Dicke von genau 6 cm ist das zwar noch ein echter Kracher, aber sie ist trotzdem noch deutlich kompakter als die meisten Boardpartnerkarten. Mit drei 6+2-Pin-Anschlüssen fällt der beigelegte Adapter auf den 12+4 Pin-Anschluss ähnlich aus, wie der alte Dreier der GeForce RTX 3090 Ti. Was uns wohl in der Endkonsequenz erwartet? Ich weiß es ja schon und Ihr dürft Euch gleich überraschen lassen!

Man kann natürlich nicht nur Strom in die Karte stecken, sondern auch Videoanschlüsse. Vier, um ganz genau zu sein, als da wären: dreimal DisplayPort 1.4a und einmal HDMI 2.1a. Das ist vor allem beim DisplayPort schade, wenn es um die neuen Spezifikationen für 2.1 geht. Chance vertan, leider. Aber mal ehrlich: wann wird es bezahlbare Monitore geben. 2023? Eher kaum…

Sieht aus wie eine geschlossene Veranstaltung, doch es ist nicht der einzige magnetische Verschluss, den man entblättern kann! Doch alles zu seiner Zeit, heute ist bei der Unterwäsche erst einmal Schluss. Nackte Tatsachen gibt es gleich, versprochen!

Damit wäre die erste Seite geschafft und wir bereiten uns schon einmal langsam aufs Testgeschehen vor.

 

168 Antworten

Kommentar

Lade neue Kommentare

R
RX Vega_1975

Urgestein

524 Kommentare 64 Likes

Da hat AMD wohl "leichtes" Spiel bei der Rasterizer Leistung
Ist wohl mindestens 10%+ über einer RTX 4080
Bei Raytracing dann wohl 30% darunter.

Effizienz ist aber Extrem Wahnsinnig Gut bei der 4080 16GB
Dann sollten heute/ Morgen wohl Benchmarks zur AMD 7900XTX kommen um den Launch etwas zu bremsen!

Antwort Gefällt mir

S
Staarfury

Veteran

163 Kommentare 155 Likes

Ich mag den igoBOT in grün.

Beim Preis der Karte rollen sich mir leider immer noch die Zehennägel hoch :(

Antwort 4 Likes

Igor Wallossek

Format©

7,602 Kommentare 12,666 Likes

Genau das. Und die Infos hatten auch nur die, die auch in LA vor Ort dabei waren. Das ist halt eine Strategie :D

Antwort Gefällt mir

R
RazielNoir

Mitglied

30 Kommentare 5 Likes

Ich bin mal eher auf das Duell AMD / Nvidia eine Etage darunter gespannt. Die Karte ist preislich völlig out of Range.
Eine 4070 gegen eine 7800XT sowohl was Preis, als auch Lastverbrauch angeht

Antwort Gefällt mir

~
~HazZarD~

Mitglied

14 Kommentare 14 Likes

Die Leistung/€ Stagnation ist ja absolut erschreckend. Im Grunde bekommt man bei der 4090, die ja eigentlich das Halo Produkt ist, mehr Leistung fürs Geld als bei ner 4080.

Ich bin für die Einführung eines "Christian Lindner approved" Awards. Den hätte die Karte jedenfalls verdient.

Antwort 8 Likes

grimm

Urgestein

2,233 Kommentare 1,353 Likes

Das ist im Prinzip die Leistungssteigerung, die ich von einer neuen Gen erwarte. Bei der Karte hat es sich ja dann auch komplett mit irgendwelchen 1.000+Watt NTs. Die liegt ja noch deutlich unter meiner 6900XT. Preislich sieht das allerdings nach einem Rohrkrepierer aus.
Ich kann das Pricing sogar nachvollziehen - zum 3090 Ti Preis gibts ein ordentliches Leistungsplus - allein, ich glaube in der aktuellen Wirtschaftslage bei parallel abschmierenden Kryptos nicht an einen Ansturm auf die Karten. Ich gehe davon aus, dass wir die ab Q2 für um die 1.000 Euro sehen. Wenn nicht vorher AMD einschlägt - die sind preislich vergleichsweise moderat aufgestellt. Moderat, sofern die Leitung stimmt.

Antwort 4 Likes

P
Phelan

Veteran

115 Kommentare 94 Likes

hm weiß nicht...

60% der Recheneinheiten und 66% Ram zu 75% des Preises...
Und mit den 60% ist es eher eine 4070ti ... und es fehlen eigentlich noch komplett die 4080 und 4080TI.

Der Abstand zu 4090 ist ja quasi noch geschönt, da die aktuellen spiele die Karte garnicht ausreitzen können.
IMO ist die 4080 deutlich zu teuer oder die 4090 zu billig je nach Sichtweise.

Wenn Nvidia die Preise bekommt, machen sie ja alles richtig. Und irgendwie auch besser als wenn bei Sclapern landet.
Ich bin da halt nur komplett raus aus dieser Produktgruppe.

Antwort Gefällt mir

wuchzael

Moderator

681 Kommentare 395 Likes

Geiler Test, so muss das!

Die Karte ist absolut gut gelungen, keine Frage. Das Nvidia sich extra viel Platz für eine potentielle 4080ti zwischen der 4080 und 4090 lässt war anhand der Leaks ja schon abzusehen und der Preisaufschlag zur vorherigen Generation (3080 = 759€ für nen 628mm² Chip zu 4080 = 1469€ für nen 379mm² Chip) ist einfach frech - Fertigungskosten für den N4 Prozess, bisschen Speicher und "alles wird teurer"-Faktor hin oder her.

Tut mir leid, aber ich bin da einfach raus. Ich hab das alles satt... erst GPU-Apokalypse durch Mining-Boom, dann der RTX-Aufschlag mit Turing, noch ein Mining-Boom samt künstlicher Verknappung und Scalper-Preisen und jetzt Jensens Größenwahn... irgendwann ist es auch mal gut.

Grüße!

Antwort 20 Likes

Klicke zum Ausklappem
S
Staarfury

Veteran

163 Kommentare 155 Likes

Ja, leider sieht es so aus, als würde sich AMD für diese Generation gleich mal aus dem Rennen nehmen (zumindest für mich).

Nach eigenen Benchmarks schafft die 7900 XTX 21 FPS in CP2077 4k Ultra RT. Das ist 3080 Ti Niveau.
Bei einer neuen High-End Karte, die sicher die nächsten 2 Generationen (=4 Jahre) halten soll, ist das für mich leider keine Option.

Antwort Gefällt mir

grimm

Urgestein

2,233 Kommentare 1,353 Likes

Für mich besteht absolut kein Handlungsdruck bzw. ich hab mich selbst aus dem Rennen genommen. Ich hab den UHD Monitor ans MacBook gehängt und die Daddelkiste an ein 27" WQHD-Display. Die ganzen FPS-Balken haben mich selten so kalt gelassen. Und selten konnte man beim Launch schon erahnen, dass die wirklich sehr guten Produkte zur absoluten Unzeit kommen.

Kann sein, dass ich es überlesen habe: Braucht man für die 4080 einen 12-PIN Adapter?

Antwort Gefällt mir

DorianCrafts

Mitglied

13 Kommentare 10 Likes

Besser hätte ich es auch nicht schreiben können:

Antwort 2 Likes

S
Staarfury

Veteran

163 Kommentare 155 Likes

Ja
Und ich vermute mal das bleibt so bei allen 40er Modellen, die mindestens 2x 8 Pin benötigten.

Antwort Gefällt mir

Ghoster52

Urgestein

775 Kommentare 476 Likes

Genau aus dem Grund disqualifiziert sich die Grafikkarte für den Normalzocker. (n)
Das Leistungsplus + Effizienz ist beachtlich keine Frage, aber zu welchen Kurs...

Antwort 1 Like

felixb

Mitglied

49 Kommentare 28 Likes

Die Effizienz ist durchaus beeindruckend.
Allerdings brauche ich gar keine neue Grafikkarte :D. Und der Preis ist natürlich völlig verrückt. Leider.
Das macht das Ganze völlig unattraktiv.

Antwort 1 Like

H
HotteX

Mitglied

89 Kommentare 57 Likes

Also die Preise die jetzt mit jeder neuen Generation aufgerufen werden, einfach nur noch lächerlich.
Vom Prinzip ist gegen die Karte nichts auszusetzen, hätte gerne nochmal ein UV Test gesehen, so auf
250W. Kommt ja vielleicht noch. Ah ich sehe grade Hardwareluxx hat die mit 250W laufen gelassen und
nur ca. 5% verloren. Sehr nice.
Aber bei mir ist bei 700€ eh Schluss was GPUs angeht, also maximal im Abverkauf.

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung