AI/KI Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 5090 Founders Edition im Test – Das 600 Watt-Kraftpaket im Gaming- und Labortest

Dieser heutige Artikel bietet einen umfassenden Review zur GeForce RTX 5090 und der zugrunde liegenden NVIDIA Blackwell-Architektur. Die Gliederung erfolgt, da es eine komplett neue Architektur ist,  in eine theoretische Analyse der neuen technischen Entwicklungen und eine praktische Betrachtung, die sich auf Benchmarks, reale Anwendungen und Nutzererfahrungen konzentriert. Im Mittelpunkt stehen dabei heute im ersten Teil sowohl die Leistungssteigerungen als auch die neuen Funktionen, die diese GPU-Generation mit sich bringt. Ein besonderes Augenmerk wird auf DLSS4 gelegt, das im Theorieteil eingehend erklärt und in einem separaten Abschnitt später noch anhand passender Spiele analysiert wird. Dieser Abschnitt beleuchtet die Fortschritte bei der Bildqualität, die Verbesserungen bei der Frame-Generierung und die Auswirkungen auf die Systemlatenz. Aber da möchte ich noch nicht vorgreifen oder etwas spoilern.

 

Es war, wie immer ein Kraftakt und ich habe auch die Spieleauswahl komplett angepasst und auf insgesamt 11 Spiele in jeweils fünf verschiedenen Settings erweitert. Dazu kommen ein nagelneues Testsystem und auch aktualisierte Metriken. Die in Kürze folgende GeForce RTX 5080 wird dann analog eingefügt. Ich möchte vorab auch darauf hinweisen, dass ich die GeForce RTX 5090 FE diesmal nicht wie üblich zerlegt habe und der Teardown (noch) fehlt. Das liegt daran, dass ich die Karte im Originalzustand noch für weitere Tests benötige und der Vorgang des Teardowns und der anschließenden Rekonstruktion so komplex ist, dass man nicht garantieren kann, dass die Karte hinterher im gleichen Zustand agieren kann (Flüssigmetall, das sich nur mechanisch entfernen lässt).

Zusätzlich wird zeitnah ein Spezialartikel veröffentlicht, der sich intensiv mit DLSS4, dessen Bildqualität und den Aspekten der Latenz auseinandersetzt. Leider war eine der Karten defekt, so dass zeitverzögert nachgearbeitet werden musste und der Ersatz leider erst gestern ankam. Aber der Umfang des Inhalts wird sich auf alle Fälle lohnen, auch wenn es dann eben etwas später kommt. In dieser Tiefe wird man sicher auch nächste Woche noch danach suchen müssen. Also dranbleiben, es lohnt sich.

Ein weiteres Follow-Up des Reviews wird sich auf die Workstation-Performance und die professionellen Anwendungen konzentrieren. Dieser Teil wurde als separater Artikel ausgegliedert, denn aufgrund von Treiberproblemen und weiteren zu klärenden technischen Details wurden einige Tests von mir verschoben, um eine faire und umfassende Bewertung zu gewährleisten. Denn wenn es doch noch einen geänderten Treiber gibt, spare ich mir zwar nicht das Nachtesten, wohl aber den überflüssigen Export umfangreicher Chartsgrafiken. Und so kann ich die noch folgende GeForce RTX 5080 dann gleich noch mit reinpacken und spare somit redundante Inhalte.

Das soll mich aber alles nicht daran hindern, die neue Karte heute vor allem mit der GeForce RTX 4090 im Besonderen und dem gesamten Ada-Lineup der passenden Super-Karten im Allgemeinen zu vergleichen. Ampere lasse ich auch Zeitgründen weg, aber da es genügend Vergleiche zwischen Ada und Ampere auf meiner Seite gibt, ist dies sicher locker zu verschmerzen. Dafür gehen wir diesmal etwas mehr ins Detail, auch bei der Theorie, denn es lohnt sich. Außerdem muss ich ja bereits Eingangs erklären, warum ich mich dann im Fazit einer gewissen Euphorie für das eine oder andere Feature nicht entziehen konnte und natürlich wie immer auch etwas zu meckern finde.

Die GB202 GPU im Detail

Die GB202-GPU aus der neuen NVIDIA-Blackwell-Architektur repräsentiert einen Meilenstein in der GPU-Technologie und ist das Herzstück der GeForce RTX 5090. Die Architektur der GB202-GPU basiert auf insgesamt 92,2 Milliarden Transistoren, die in einem Chip mit einer Fläche von 750 mm² integriert sind und im optimierten TSMC-4N-Prozess gefertigt werden. Mit einer Boost-Taktfrequenz von 2407 MHz bietet die GPU eine Spitzenleistung von 104,8 TFLOPS für FP32-Berechnungen, 209,5 TFLOPS für FP16-Berechnungen und beeindruckende 1676 TFLOPS für FP4-Berechnungen. Diese Leistung wird von 24.576 CUDA-Cores, 192 RT-Cores der vierten Generation und 768 Tensor-Cores der fünften Generation getragen. Im Vergleich zur Ada-Architektur, die auf 16,38 MB L1-Cache und 72 MB L2-Cache begrenzt war, bietet die GB202 mit 21,76 MB L1-Cache und 96 MB L2-Cache eine deutliche Steigerung, was die Datenzugriffszeiten erheblich verbessert.

Ein weiteres Highlight ist laut NVIDIA die Energieeffizienz der GB202-GPU. Mit einer maximalen Leistungsaufnahme von 575 Watt setzt die Architektur auf fortschrittliche Stromsparmechanismen wie separate Spannungsrails für GPU-Kerne und Speicher sowie beschleunigte Taktfrequenzumschaltung. Diese Innovationen minimieren den Energieverbrauch in Leerlaufphasen und maximieren die Reaktionsfähigkeit unter Last. Darauf werde ich in einem gesonderten Abschnitt auch mit eigenen Messungen noch genauer eingehen.

Streaming-Multiprozessor (SM)-Architektur

Die Streaming-Multiprozessoren (SMs) der GB202-GPU bilden das Kernstück ihrer Rechenleistung. Jede der 192 SMs umfasst 128 CUDA-Cores, einen RT-Core der vierten Generation und vier Tensor-Cores der fünften Generation. Während die Ada-Architektur bereits ähnliche CUDA-Core-Anzahlen bot, haben die Blackwell-RT-Cores und Tensor-Cores deutliche Fortschritte hinsichtlich Effizienz und Funktionalität gemacht. Die Blackwell Tensor-Cores der fünften Generation bieten zudem neue Funktionen wie die Unterstützung von FP4-Datenformaten, die den Speicherbedarf drastisch reduzieren und gleichzeitig die Leistung bei KI-Inferenzanwendungen verdoppeln können. Im Vergleich zur Ada-Architektur, deren Tensor-Cores in der vierten Generation keine FP4-Unterstützung boten, stellt dies eine signifikante Verbesserung dar. Diese Fortschritte ermöglichen eine effizientere Nutzung von Ressourcen in neuronalen Netzen, insbesondere bei großen Modellen, die zunehmend in Echtzeitanwendungen wie Bild- und Sprachverarbeitung eingesetzt werden.

Die Zahl der Textureinheiten wurde auf 768 erhöht, was eine Texel-Füllrate von 1636,76 Gigatexels pro Sekunde ermöglicht, eine deutliche Steigerung gegenüber den 1290,2 Gigatexels pro Sekunde der RTX 4090. Dies verbessert die Verarbeitung komplexer Texturen und neuraler Texturkompression erheblich. Der L1-Cache wurde im Vergleich zur Ada-Architektur ebenfalls erweitert, was die Effizienz und Geschwindigkeit bei speicherintensiven Aufgaben weiter optimiert.

Die RT-Cores der vierten Generation in der GB202-GPU wurden ebenfalls erheblich weiterentwickelt. Sie bieten eine doppelte Leistung bei der Ray-Triangle-Intersection-Berechnung im Vergleich zur vorherigen Generation und unterstützen neue Funktionen wie Linear Swept Spheres (LSS) zur effizienteren Darstellung von komplexen Geometrien wie Haaren oder Gras. Während die Ada-Architektur bereits erhebliche Fortschritte im Bereich des Ray-Tracings eingeführt hatte, erlauben die neuen RT-Cores in Blackwell eine noch realistischere Darstellung durch verbesserte Hardware-Implementierungen für Bounding Volume Hierarchies (BVH) und Opacity Micromaps. Diese Innovationen verbessern nicht nur die Bildqualität, sondern auch die Leistung in anspruchsvollen Ray-Tracing-Szenarien erheblich.

GDDR7-Speichersystem

Das GDDR7-Speichersystem der GB202-GPU setzt neue Standards in der Speichertechnologie. Mit einer Speicherkapazität von 32 GB und einer Bandbreite von 1,792 TB/s über eine 512-Bit-Schnittstelle bietet die Blackwell-Generation eine erhebliche Verbesserung gegenüber der Ada-Architektur, die GDDR6X mit einer Bandbreite von 1,008 TB/s nutzte. Die Verwendung von PAM3-Signalisierung anstelle der PAM4-Technologie in GDDR6X ermöglicht ein besseres Signal-Rausch-Verhältnis sowie höhere Energieeffizienz.

Die Speicherarchitektur der GB202-GPU umfasst 96 MB L2-Cache, verglichen mit den 72 MB der RTX 4090. Diese Erweiterung beschleunigt speicherintensive Anwendungen wie Ray-Tracing erheblich. Darüber hinaus bietet die Blackwell-Architektur erweiterte CRC-Funktionen, die die Zuverlässigkeit und Stabilität des Speichersystems verbessern. Diese Fortschritte machen das GDDR7-Speichersystem zu einem unverzichtbaren Bestandteil der GB202-GPU und tragen maßgeblich zur Bewältigung hochauflösender Grafik- und KI-Workloads bei.

Nach so viel Theorie und Text, fasse ich das alles noch einmal kurz zu einer übersichtlichen Tabelle zusammen und vergleiche das Ganze auch mit Ampere und Ada:

 

219 Antworten

Kommentar

Lade neue Kommentare

P
Pu244

Mitglied

33 Kommentare 32 Likes

Das ist eine gigantische Heuchelei!

Ich erinnere mich noch an den absolut bösartigen Verriss, des 12V HPWR, bei dem Igor vor dem Bild eines Kohlekraftwerks posiert hat. Da wurde dann irgendwas vom Weltklima geredet, wie schlimm 600W doch wäre, was denen doch einfällt. Dass das die völlig falsche Richtung ist und so weiter und sofort. Nun kommt sie, die erste Karte, die das (fast braucht), das übel, das pure Böse, jedenfalls aus umweltsicht.

Eigentlich dürfte man da ja einen noch viel bösartigeren Verriss erwarten. Ein seitenlanges Gepolter über diesen realitätgewordenenen Albtraum, der, außer mehr Leistungsaufnahme, effizienzmäßig nichts zu bieten hat.

Aber was ist stattdessen zu lesen?

Ja, knapp 600W durchzuheizen ist wirklich sehr beeindruckend, das muß man schon sagen.

Wo ist der große Zorn geblieben? Könnte es daran liegen, dass man über ein paar Ingenieure bei Intel deutlich leichter herziehen kann, als über den CEO von Nvidia, der einen mit Liebesentzug bestrafen kann? Die Leute haben den Stromanschluss entwickelt, der für die Karte benötigt wird oder wird die etwas ökologischer, wenn man sie mit vier 8 Pin PCIe Anschlüssen betreibt?

Ich bin echt sehr enttäuscht und finde, Igor sollte sich bei den Intelingenieuren entschuldigen.

Antwort 17 Likes

Klicke zum Ausklappem
HerrRossi

Urgestein

6,967 Kommentare 2,356 Likes

Danke für den ausführlichen Test. Für mich ist die Rohleistung enttäuschend, der Zugewinn wird durch höheren Stromverbrauch erkauft. Weder die technischen Neuerungen noch das Plus an Shadern, RAM, Bandbreite oder AI-Tops schlägt wirklich zu Buche. Das ist Stillstand auf hohem Niveau. Wir brauchen Wettbewerb!

Antwort 17 Likes

R
RazielNoir

Urgestein

556 Kommentare 264 Likes

Beim Durchlesen des Artikels kamen mir folgende Fragen in den Sinn:

Haben die Partnerkarten das gleiche Platinendesignkonzept mit der mittig liegenden Platine? Oder Klassisch? Dann wäre das Signalproblem nicht gar so stark ausgeprägt.
Eine RTX Profikarte auf dieser Chipbasis wird wohl sicher auch wieder einen DHE-Blowerkühler haben, damit auch das PCB klassisch, von der niedrigeren Wattage abgesehen. Damit wäre sie aber mehr vergleichbar zum Vorgänger RTX 6000 Ada und die Technologieunterschiede würden auch mehr (oder eben Weniger) zu sehen sein.
Durch die neue Platzierung des PWR-Anschlusses: Würde der hintere Gehäuseteil etwas höher gestaltet, könnte man damit die Anschlusskabelbiegung vorgeben (Kabelclip), dann wäre die Problematik zu geringer Biegeradien per Design vorgebeugt.
- Edit- > Und mit einem kleinen Kabelkanal an der Oberseite dann auch Stealth verbaubar...
2-Slot breit und in der Kühlung effizienter als die 4090? Das ist eine begrüssenswerte Entwicklung. Aber teuer erkauft. 600W Peak? Never ever mit mir! Ich glaube eher die 5070ti oder deren "RTX 4500 Blackwell" Pendant ist viel interessanter. In ein paar Jahren.

Antwort Gefällt mir

Igor Wallossek

1

11,714 Kommentare 22,717 Likes

Nur die FE hat das Signalproblem. Schrieb ich aber :)

Antwort 3 Likes

Rudi69

Mitglied

31 Kommentare 32 Likes

"Mehrleistung" duch "MehrStromverbauch". Von der "Rohleistung" in Verbindung mit dem "Stromverbrauch per FPS" bin ich insgesamt nicht so beeindruckt. Für den Preis erst recht nicht. Danke für den Test.👩‍🚀

Antwort 12 Likes

R
RazielNoir

Urgestein

556 Kommentare 264 Likes

Dann hab ich zu schnell gelesen und es dabei überlesen. Sorry

Antwort Gefällt mir

Igor Wallossek

1

11,714 Kommentare 22,717 Likes

Rechne mal die Watt pro FPS hoch, dann muss man sich nicht entschuldigen. Unterm Strich ist die 5090 in Ultra-HD ohne DLSS effizienter als die 4090. Dass die Karte so viel kostet und frisst, ist das typische Leuchtturmproblem. NVIDIA wird sich an der 5080 messen lassen müssen. Wenn Fritz seinen Artikel fertig hat, wird man auch sehen, dass die Qualität extrem zugelegt hat.

Privat würde ich die aber nicht ohne Grund nutzen. Zu hungrig.

Antwort 4 Likes

Ginmarr

Mitglied

69 Kommentare 38 Likes

Musste dir halt schon gefallen lassen wenn du son Polarisierendes Video zur 4090 machst und dann die 5090 in den Himmellobst, die sage und schreibe 6% besser in FPS pro Watt da steht. Bei 25% könnte man sagen okay aber so halt nicht.

Antwort 12 Likes

R
RazielNoir

Urgestein

556 Kommentare 264 Likes

Zum Thema Bildqualität bin ich gespannt. Wobei mit aufkommen der ganzen KI/AI - Techniken es mittlerweile sehr (beängstigend) beeindruckende Beispiele dieser Techniken bei YT zu bewundern gibt. die Videos von Guild of Wanderers z.Bsp. Da muss man schon genau hinschaun, um zu merken das es keine realen Personen zu sehen gibt, von der dezent übertriebenen Erotik abgesehen. Diese Qualität in Echtzeitrendering scheint nicht mehr allzuweit entfernt.

Antwort Gefällt mir

R
RX Vega_1975

Urgestein

628 Kommentare 100 Likes

Wieviel schneller ist die Karte im Raster dann im Gegensatz zur 4090 in Ultra HD im Schnitt
ohne lange lesen zu müssen,- (As auf Arbeit) --- > Dank Euch

OK - Sehe ca. 26 bis 29% bei den Perzenilen
Nicht der Rede Wert, oder zumindest kaum

Da ist AMD den 5070 bis 5080-er Karten sehr nahe/ bis nicht allzuweit entfernt an den Fersen!

Antwort Gefällt mir

P
Pu244

Mitglied

33 Kommentare 32 Likes

Erinnert mich an die Energieeffizienzberechnung die die Autoindustrie vorgeschlagen hatte. Da sollte das Gewicht die dominierende Rolle spielen. Womit dann ein SUV deutlich besser für die Umwelt wäre, als ein 3L Lupo. Logisch, 8L Verbrauch, bei 2,3t Gewicht sind einfach besser, als die 3L bei etwas über 800Kg.

Der Leuchtturm frisst aber saumäßig viel Energie. Zum Vergleich: die RTX 2080Ti, auch ein Leuchtturm, hat das noch mit 260W und damit weniger als die Hälfte hinbekommen. Die Karten der letzten 3 Generationen brauchen jeweils etwa ein Drittel mehr Strom, pro Generation. Auf diese Entwicklung hätte man sehr wohl kritisch hinweisen können.

Die Karte soll ja auch ein Achtel mehr brauchen, als der Vorgänger. Zum Vergleich: die RTX 2080 ist noch mit 225W ausgekommen und das war schon extrem, viel, da deren Vorgängerkarte sich "nur" mit 180W zufrieden gegeben hat. Nvidia heizt den Strom zum Fenster raus, darauf hätte man kritisch hinweisen können, wenn einem die Umwelt wirklich am Herzen liegt.

Antwort 4 Likes

S
Stolperstein

Mitglied

14 Kommentare 4 Likes

(Fast) überall sonst wird sie in den Tests 4090ti genannt aufgrund der (relativen) Enttäuschung und hier gibts im Fazit hauptsächlich Technologie-Enthusiasmus. Was ja schön und gut ist, aber in Summe kommt sie mir doch eher wie eine hochskalierte 4090 vor, der irgendwie fehlt was ich von einer neuen Karte erwarte: einen tatsächlichen Sprung in entweder Kosten- oder Leistungs-Effizienz.

edit: bei Gamernexus haben sie eine sehr hohe Leistungsaufnahme im Idle angesprochen. Gabs die hier auch - oder hab ich nur den passenden Chart übersehen?

Antwort 1 Like

w
wolik

Mitglied

52 Kommentare 12 Likes

Als 8K-Gamer bin ich überrascht, dass niemand 8K-Tests durchgeführt hat. Huang auch nicht.
Ich kann mich noch erinnern, dass 8K-Gaming bei 1080 Ti Präsentation gezeigt wurde.
Ok. In eine Woche, mache ich selbst.

Antwort Gefällt mir

8j0ern

Urgestein

3,414 Kommentare 1,076 Likes

Ich auch,

Da gibt es wirklich sehr viele Videos Inzwischen:

Ich denke mir halt, wenn es zu Perfekt aussieht ist es nicht Echt.
Es gibt leider immer mehr Spiele die den Komik Style übernehmen, ist auch klar ist viel weniger zu Rendern als das Echte Leben. ;)

Antwort Gefällt mir

Igor Wallossek

1

11,714 Kommentare 22,717 Likes

Dazu gibt s nicht nur einen ganzen Absatz, sondern auch Charts. Bitte erst lesen, dann meckern.

View image at the forums

Antwort 4 Likes

B
Besterino

Urgestein

7,269 Kommentare 3,816 Likes

Wenn ich Lüfterdrehzahlen von 1600-1800 sehe denke ich jedenfalls wieder "Wakü ist Pflicht".

Was den Mehrwert der ganzen tollen innovativen und bahnbrechenden neuen Technologien angeht, bin ich hingegen eher skeptisch. Muss alles erstmal von den Spielen unterstützt werden und ob mir das Ergebnis dann konkret wirklich gefällt, wenn ich so vor meinem eigenen Monitor sitze, wird sich auch erst zeigen müssen.

Antwort 2 Likes

h
heinzkarl61

Neuling

5 Kommentare 0 Likes

@Igor Wallossek
darfst du denn aber spoilern ab wann man die Karte ungefähr vorbestellen kann? Tatsächlich erst ab dem 30.01. oder schon eventuell heute im laufe des Tages?

Antwort Gefällt mir

FfFCMAD

Urgestein

847 Kommentare 302 Likes

Ich betrachte die Frame Generation eher als Cheat/ Gimmick als realen Faktor bei der Leistungsmessung. Das kann man sich geben wenn das Spiel an sich schon genug FPS hat und man es noch mal extra flutschig haben will. Wenn das Spiel nur 25FPS erreicht und man mit DLSS 100FPS draus macht fühlt es sich trotzdem an wie 25FPS, fühlt sich sich aber nicht stotternd sondern nachziehend an.

Was ich für mich sehe ist, das die Karte bei DSR punkten wird, was der Speicheranbindung zu verdanken ist. Da sind wohl augenscheinlich im Schnitt 20 - 25% mehr Performance drin, was ich gut finde, aber nicht herausragend zum Vorgänger. DSR ist meine Lieblingsoption geworden.

Beim Rest hört es sich so an, als ob man ruhig warten sollte, da mir ein Teil der Features nur sagt: Wird wohl erst per Treiberupdate bei uns reifen wo man dann wirklich den realen Leistungsunterschied zwischen der 4090 und der 5090 klar sehen wird.

Antwort 3 Likes

P
PCIE Express 6.9

Mitglied

50 Kommentare 17 Likes

Und die 600 Watt Wärme werden dann schön zu allem oberhalb der GPU befördert...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung