Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 4080 Founders Edition 16GB Review – Faster than expected and much more frugal than feared

Today we can finally present the NVIDIA GeForce RTX 4080 Founders Edition (FE) including all technical details and the long-awaited benchmarks, because the suspense curve was already plenty big. Even though NVIDIA actually sees the card as the successor to the GeForce RTX 3080, it is still a challenge to the RTX 3090 and especially to the GeForce RTX 3090 Ti, because the price will probably be exactly where the old top model used to be. The GeForce RTX 4080 again features really fat coolers, because I already wrote in an article about the origin of the mega-sized coolers for the RTX 4090 that the TBP could only be extremely shortened afterwards. Here, the superstructures are still oversized by 100 watts, because the planned TDP was cut from once 420 watts to 320 watts. Of course, this makes it all the more curious, especially in terms of temperatures and volume.

Important preface

Today, we will first primarily focus on the technical overview including the GeForce RTX 4080 FE as a test object. Of course, as usual including benchmarks, teardown, board and cooler analysis, as well as power consumption and load peaks with power supply recommendation. Of course, we also include the important things like DLSS 3.0 and Reflex in the benchmarks (including short introductions), but I already have to refer to the many other follow-ups that will then deal with further benchmarks, image quality comparisons to FSR and Xe, and latencies.

This subject has become so complex that you simply can’t do it justice with a quick skim. We even have a special video analysis for you then, the basis of which I had already built into the CMS for the RTX 4090. So, once again, it’s worth enjoying NVIDIA week until the end. And we will of course use all this effort as a basis to then compare all this again directly with AMD’s upcoming RDNA3 graphics card generation in November.

The AD 103 and the new Ada architecture

The NVIDIA GeForce RTX 4080 is also manufactured in the TSMC 4N process and has 45.9 billion transistors and, I can already spoil, also offers a decent leap in terms of performance, efficiency and also AI-supported graphics, even if the gap to the GeForce RTX 4090 seems almost huge. The Ada architecture relies on up to 7 Graphic Processing Clusters (GPC) and up to 80 new Streaming Multiprocessors (SM) with 10,240 CUDA cores, whose performance and energy efficiency have increased significantly.

In addition, tensor cores of the 4. generation and Optical Flow, enabling transformative AI technologies including NVIDIA DLSS and the new NVIDIA DLSS 3 frame rate multiplier. The RT cores of the 3. generation offer up to 2x ray tracing performance, Shader Execution Reordering (SER) improves ray tracing operations by a factor of two. In addition, NVIDIA now also uses a dual AV1 encoder, with the NVIDIA encoder (NVENC) being the 8th generation. Generation with AV1 is said to work up to 40% more efficiently than H.264.

The AD103-300 of the GeForce RTX 4080 has been limited a bit and still offers 7 GPC in total, but two of them have been cut from 12 to 10 SM and one even to 8 SM. This still results in 76 SM including the 9728 CUDA cores for the chip of the new consumer card. In addition, there are a total of 38 Texture Processing Clusters (TPC), 76 RT cores of the 3rd generation. Generation, 304 4th generation tensor cores. Generation, 304 Texture Units (TU) and 112 ROPs. The L2 cache is 65536 KB in total and the card uses 16 GB of GDDR6X clocked at 11200 MHz on a 256-bit interface, which corresponds to a data rate of 22.4 Gbps and a bandwidth of 716.8 GB/s.

The changes to all three core types can be summarized quite simply:

  • Programmable Shader: Ada’s SM includes an important new technology called Shader Execution Reordering (SER), which reorders work on the fly, providing a 2x speedup for ray tracing. SER is as big an innovation as the out-of-order design for CPUs was at the time. 83 shader TFLOPS are quite a statement
  • Tensor Cores of the 4. Generation: The new Tensor Core in Ada includes the NVIDIA Hopper FP8 Transformer Engine, which delivers over 1.3 petaFLOPS for AI inference workloads in the RTX 4090. Compared to FP16, FP8 halves data storage requirements and doubles AI performance. The GeForce RTX 4090 thus offers more than twice the total Tensor Core processing power of the RTX 3090 Ti.
  • RT Cores of the 3. Generation: A new opacity micromap engine accelerates ray tracing of alpha-checked geometries by a factor of 2. Add to this a new micro-mesh engine that handles all the geometric richness without further BVH creation and storage costs. Triangulation throughput is 191 RT-TFLOPS, compared to Ampere’s 78 RTTFLOPS.

The card still relies on a PCIe Gen. 4 interface and only for the external power connection with the 12VHPWR connector (12+4 pin) on an element of the PCIe Gen. 5 specification. The TGP is 320 watts and can also be raised up to 400 watts, depending on the board partner (which is rather pointless because the voltage limits at some point anyway). The extremely oversized cooler will know how to prevent the chip’s maximum permissible 90 °C anyway.

 

The NVIDIA GeForce RTX 4080 FE 16 GB in detail

The FE weighs “only” 2123 grams. With the 30.5 cm length and 12.5 cm height from slot to top edge and a thickness of exactly 6 cm, this is still a real bruiser, but it is still significantly more compact than most board partner cards. With three 6+2 pin connectors, the included adapter to the 12+4 pin connector turns out similar to the old threesome of the GeForce RTX 3090 Ti. I wonder what awaits us in the final consequence? I know it already and you may be surprised right away!

Of course, you can put not only power into the card, but also video connections. Four, to be exact, as there are: three times DisplayPort 1.4a and once HDMI 2.1a. That is especially a pity for DisplayPort when it comes to the new specifications for 2.1. Chance missed, unfortunately. But let’s be honest: when will there be affordable monitors. 2023? Rather hardly…

Looks like a closed event, but it’s not the only magnetic shutter that you can unfold! But all in good time, today is the end of the underwear for now. Naked facts are coming soon, I promise!

With that, the first page is done and we are slowly preparing for the test.

 

168 Antworten

Kommentar

Lade neue Kommentare

R
RX Vega_1975

Urgestein

575 Kommentare 75 Likes

Da hat AMD wohl "leichtes" Spiel bei der Rasterizer Leistung
Ist wohl mindestens 10%+ über einer RTX 4080
Bei Raytracing dann wohl 30% darunter.

Effizienz ist aber Extrem Wahnsinnig Gut bei der 4080 16GB
Dann sollten heute/ Morgen wohl Benchmarks zur AMD 7900XTX kommen um den Launch etwas zu bremsen!

Antwort Gefällt mir

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ich mag den igoBOT in grün.

Beim Preis der Karte rollen sich mir leider immer noch die Zehennägel hoch :(

Antwort 4 Likes

Igor Wallossek

1

10,198 Kommentare 18,811 Likes

Genau das. Und die Infos hatten auch nur die, die auch in LA vor Ort dabei waren. Das ist halt eine Strategie :D

Antwort Gefällt mir

R
RazielNoir

Veteran

337 Kommentare 111 Likes

Ich bin mal eher auf das Duell AMD / Nvidia eine Etage darunter gespannt. Die Karte ist preislich völlig out of Range.
Eine 4070 gegen eine 7800XT sowohl was Preis, als auch Lastverbrauch angeht

Antwort Gefällt mir

~
~HazZarD~

Mitglied

46 Kommentare 34 Likes

Die Leistung/€ Stagnation ist ja absolut erschreckend. Im Grunde bekommt man bei der 4090, die ja eigentlich das Halo Produkt ist, mehr Leistung fürs Geld als bei ner 4080.

Ich bin für die Einführung eines "Christian Lindner approved" Awards. Den hätte die Karte jedenfalls verdient.

Antwort 8 Likes

grimm

Urgestein

3,084 Kommentare 2,038 Likes

Das ist im Prinzip die Leistungssteigerung, die ich von einer neuen Gen erwarte. Bei der Karte hat es sich ja dann auch komplett mit irgendwelchen 1.000+Watt NTs. Die liegt ja noch deutlich unter meiner 6900XT. Preislich sieht das allerdings nach einem Rohrkrepierer aus.
Ich kann das Pricing sogar nachvollziehen - zum 3090 Ti Preis gibts ein ordentliches Leistungsplus - allein, ich glaube in der aktuellen Wirtschaftslage bei parallel abschmierenden Kryptos nicht an einen Ansturm auf die Karten. Ich gehe davon aus, dass wir die ab Q2 für um die 1.000 Euro sehen. Wenn nicht vorher AMD einschlägt - die sind preislich vergleichsweise moderat aufgestellt. Moderat, sofern die Leitung stimmt.

Antwort 4 Likes

P
Phelan

Veteran

191 Kommentare 172 Likes

hm weiß nicht...

60% der Recheneinheiten und 66% Ram zu 75% des Preises...
Und mit den 60% ist es eher eine 4070ti ... und es fehlen eigentlich noch komplett die 4080 und 4080TI.

Der Abstand zu 4090 ist ja quasi noch geschönt, da die aktuellen spiele die Karte garnicht ausreitzen können.
IMO ist die 4080 deutlich zu teuer oder die 4090 zu billig je nach Sichtweise.

Wenn Nvidia die Preise bekommt, machen sie ja alles richtig. Und irgendwie auch besser als wenn bei Sclapern landet.
Ich bin da halt nur komplett raus aus dieser Produktgruppe.

Antwort Gefällt mir

Alexander Brose

Moderator

819 Kommentare 573 Likes

Geiler Test, so muss das!

Die Karte ist absolut gut gelungen, keine Frage. Das Nvidia sich extra viel Platz für eine potentielle 4080ti zwischen der 4080 und 4090 lässt war anhand der Leaks ja schon abzusehen und der Preisaufschlag zur vorherigen Generation (3080 = 759€ für nen 628mm² Chip zu 4080 = 1469€ für nen 379mm² Chip) ist einfach frech - Fertigungskosten für den N4 Prozess, bisschen Speicher und "alles wird teurer"-Faktor hin oder her.

Tut mir leid, aber ich bin da einfach raus. Ich hab das alles satt... erst GPU-Apokalypse durch Mining-Boom, dann der RTX-Aufschlag mit Turing, noch ein Mining-Boom samt künstlicher Verknappung und Scalper-Preisen und jetzt Jensens Größenwahn... irgendwann ist es auch mal gut.

Grüße!

Antwort 20 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ja, leider sieht es so aus, als würde sich AMD für diese Generation gleich mal aus dem Rennen nehmen (zumindest für mich).

Nach eigenen Benchmarks schafft die 7900 XTX 21 FPS in CP2077 4k Ultra RT. Das ist 3080 Ti Niveau.
Bei einer neuen High-End Karte, die sicher die nächsten 2 Generationen (=4 Jahre) halten soll, ist das für mich leider keine Option.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,038 Likes

Für mich besteht absolut kein Handlungsdruck bzw. ich hab mich selbst aus dem Rennen genommen. Ich hab den UHD Monitor ans MacBook gehängt und die Daddelkiste an ein 27" WQHD-Display. Die ganzen FPS-Balken haben mich selten so kalt gelassen. Und selten konnte man beim Launch schon erahnen, dass die wirklich sehr guten Produkte zur absoluten Unzeit kommen.

Kann sein, dass ich es überlesen habe: Braucht man für die 4080 einen 12-PIN Adapter?

Antwort Gefällt mir

DorianCrafts

Mitglied

29 Kommentare 26 Likes

Besser hätte ich es auch nicht schreiben können:

Antwort 2 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Ja
Und ich vermute mal das bleibt so bei allen 40er Modellen, die mindestens 2x 8 Pin benötigten.

Antwort Gefällt mir

Ghoster52

Urgestein

1,408 Kommentare 1,064 Likes

Genau aus dem Grund disqualifiziert sich die Grafikkarte für den Normalzocker. (n)
Das Leistungsplus + Effizienz ist beachtlich keine Frage, aber zu welchen Kurs...

Antwort 1 Like

G
Guest

Die Effizienz ist durchaus beeindruckend.
Allerdings brauche ich gar keine neue Grafikkarte :D. Und der Preis ist natürlich völlig verrückt. Leider.
Das macht das Ganze völlig unattraktiv.

Antwort 1 Like

H
HotteX

Veteran

110 Kommentare 79 Likes

Also die Preise die jetzt mit jeder neuen Generation aufgerufen werden, einfach nur noch lächerlich.
Vom Prinzip ist gegen die Karte nichts auszusetzen, hätte gerne nochmal ein UV Test gesehen, so auf
250W. Kommt ja vielleicht noch. Ah ich sehe grade Hardwareluxx hat die mit 250W laufen gelassen und
nur ca. 5% verloren. Sehr nice.
Aber bei mir ist bei 700€ eh Schluss was GPUs angeht, also maximal im Abverkauf.

Antwort 5 Likes

SchmoWu

Mitglied

92 Kommentare 23 Likes

Schöner Test, danke dafür.
Scheint ja ein super Stück Hardware zusein. Mir gefällt der deutlich niedriger verbrauch, zur vorgänger Generation.
Doch preislich deutlich ausserhalb von dem was ich bereit bin zu zahlen.

Antwort Gefällt mir

g
gokkel

Neuling

3 Kommentare 2 Likes

An sich ist die Karte schon ok. Dass am Ende aber das P/L-Verhältnis je nach dem teilweise sogar leicht unter dem des Topmodells liegt, ist dann aber schon abstrus.

Interessant eigentlich nur für Käufer, die genau diese Leistungsklasse und nicht mehr erreichen wollen. Wer auf den Preis schauen muss, bedient sich wohl weiter bei den älteren Karten. Wem RT egal ist (was es mir persönlich in der Preiskategorie nicht ist; bei mir kommt dann noch NVENC dazu), hat dann außerdem noch bald bei AMD eine zusätzliche mögliche Alternative.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,038 Likes

Völlig sinnbefreit... Aber danke für die Antwort.

Antwort 1 Like

grimm

Urgestein

3,084 Kommentare 2,038 Likes

Man sieht ja jetzt schon, dass die Verfügbarkeit im Vergleich zum Run auf die 30XXer deutlich besser ist. Ne 4090 kriegt man bei den normalen Händlern problemlos.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung