Artificial Intelligence Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 5090 Founders Edition Review – The 600-Watt Powerhouse in Gaming and Lab Tests

Detailed view of gaming in Ultra HD: Native vs. DLSS and MFG X4

In Cyberpunk 2077, the graphics card requires peak performance of up to 600 watts at native resolution in UHD and extreme settings. These values are caused in particular by the enormous demands on the GPU’s computing power when high resolutions and maximum details are used without the support of AI-based scaling or efficiency technologies. Such peak loads require a reliable power supply, as they not only demand the power reserves of the 12V2X6 design, but also place high demands on the stability of the power supply units.

The next two graphs offer a high-resolution analysis of a single one of the previously considered 20 ms intervals, this time resolved in 10 µs steps. This level of detail allows a precise insight into the behavior of the power supply during short-term load changes, which in practice are triggered by sudden GPU requirements, for example during render spikes or frame changes. The first graph shows the power consumption during this extremely short period. It reveals the subtle fluctuations and peaks that are typical for the operation of modern high-performance graphics cards. Such peaks can be many times higher than the average value in the short term and place high demands on the response speed and stability of the power supply unit. We measure up to 900 watts here and get a little fright.

The second graph shows the current flowing through the power supply cables at these 10 µs intervals. The abrupt changes that occur with highly dynamic loads become particularly clear here. These fine details are crucial to understanding how short-term load changes are compensated for by the power supply architecture and what impact they can have on overall system stability. These measurements also clarify the meaning of the ATX 3.1 standard, in particular the requirement for 200% power reserve at load peaks in the range of 1 millisecond. As the graphics card has very high performance requirements in peak load situations, it is essential that the power supply unit not only remains stable in the short term, but also has sufficient reserves to absorb such fluctuations without causing voltage dips.

By using DLSS 4 in conjunction with MFG x4 (Multi-Frame Generation), this energy requirement can be significantly reduced. DLSS 4 uses AI algorithms to scale the image quality efficiently, which means that the GPU has to use less raw power to simulate native UHD quality. At the same time, MFG x4 significantly increases the frame rate by generating additional frames based on previous images. In practice, this leads to a lower average power consumption while simultaneously improving the gaming experience through smoother image playback. The available measurement data illustrates this clearly. The first image shows the power consumption in intervals of 20 milliseconds, a critical period for power supply units, as supervisor chips in power supply units have to recognize and process peak loads in this time frame.

The second graph shows the currents flowing through the power supply cables. This data underlines the importance of even and stable power distribution in order to protect the hardware components and minimize efficiency losses.

The reduction in power consumption through DLSS and MFG impressively demonstrates how modern technologies can not only improve energy efficiency, but also reduce the load on the power supply components. This not only contributes to the longevity of the hardware, but also reduces operating costs and the ecological footprint of the system. But again, I have the high-resolution measurements with the 10µS intervals. First the load peaks in the power consumption…

… and now the currents:

Load behavior in the Torture Test

Furmark is often used as an extreme load test for graphics cards, as it pushes the GPU to an atypically constant and maximum load that far exceeds what occurs in most real-world applications or games. The software uses intensive computation of graphics processes that fully utilizes both the GPU’s shader and memory controllers. This creates a thermal and electrical load that serves as a worst-case scenario to test the stability and performance of the graphics card and power supply. In this test, the power consumption of the card can even exceed the specified TDP of 575 watts and reach peaks of up to 600 watts. This is because the TDP of a graphics card describes the average thermal power dissipation under normal operating conditions, while Furmark generates a maximum and sustained load that pushes the limits of power consumption. Possible short-term load peaks are also included in these values.

The test is particularly relevant for checking the power supply components of the system, such as the power supply unit and the voltage converters, for their load capacity and efficiency. Since Furmark generates an almost unrealistically high load, it is not considered representative for everyday usage scenarios, but it is extremely useful for uncovering possible weak points in the hardware or cooling. The fact that the card reaches the 600 watt mark also shows how important it is that the power supply unit is sufficiently dimensioned, as it must not only cover the nominal TDP, but also offer sufficient reserves for such peak loads. Furmark thus serves as a kind of stress test that ensures that the entire system remains stable even in extreme situations.

The high-resolution measurements during a Furmark test provide crucial insights into the behavior of the power supply and the power consumption of the graphics card in extreme situations. Furmark generates a constant thermal and electrical load through its continuous maximum utilization of the GPU, which can be analyzed with the highest precision in these measurements. Data recorded at intervals of just a few microseconds show how the power consumption and currents vary over time. Particularly noticeable are the short-term load peaks that become visible in the measurements and can significantly exceed the average power consumption. Such peaks are caused by rapid changes in the utilization of individual GPU components, such as shader arrays or memory controllers, which Furmark specifically stresses.

These measurements are particularly relevant in the context of the ATX 3.1 standard, which requires power supply units to be able to compensate for short-term peaks of up to 200% of the nominal load for a duration of up to 1 millisecond. The high-resolution data clearly shows that such peaks in Furmark are not just theoretical considerations, but actually occur and can sometimes even come critically close to the limits of the power supply designs.

Summary of the load peaks and a power supply recommendation

A power supply unit with a rated output of 1000 watts that meets the requirements of the ATX 3.1 standard is a suitable choice for reliably covering the power consumption values and load scenarios described. The maximum peak loads of the graphics card, which can reach up to 600 watts in extreme situations such as Furmark or very demanding games, make a high power reserve necessary. Together with the load of the rest of the system, such as the CPU, RAM and other components, this results in a requirement that can reach up to 900 watts at peak times.

A power supply unit with 1000 watts not only offers sufficient scope in such scenarios, but also enables short-term load peaks to be absorbed, which are covered by the ATX 3.1 standard. This standard requires the ability to cope with short-term power requirements of up to 200% of the nominal load for a duration of up to one millisecond. The selected power supply can therefore also handle peak loads of up to 2000 watts without stability problems or voltage dips.

The dimensioning to 1000 watts also ensures that the power supply works in an efficient load range in typical operating scenarios, ideally between 50 and 70 % of the nominal power. This optimizes both the energy efficiency and the longevity of the power supply unit. 80 PLUS Platinum or Titanium certification also ensures high efficiency and low heat generation. Another advantage of this choice is that it is future-proof. By supporting modern standards such as the 12V2X6 power design, the power supply is equipped for current and future high-performance graphics cards. It offers sufficient capacity for future hardware upgrades without the need for replacement and ensures long-term stability and reliability even under demanding conditions.

235 Antworten

Kommentar

Lade neue Kommentare

P
Pu244

Mitglied

34 Kommentare 33 Likes

Das ist eine gigantische Heuchelei!

Ich erinnere mich noch an den absolut bösartigen Verriss, des 12V HPWR, bei dem Igor vor dem Bild eines Kohlekraftwerks posiert hat. Da wurde dann irgendwas vom Weltklima geredet, wie schlimm 600W doch wäre, was denen doch einfällt. Dass das die völlig falsche Richtung ist und so weiter und sofort. Nun kommt sie, die erste Karte, die das (fast braucht), das übel, das pure Böse, jedenfalls aus umweltsicht.

Eigentlich dürfte man da ja einen noch viel bösartigeren Verriss erwarten. Ein seitenlanges Gepolter über diesen realitätgewordenenen Albtraum, der, außer mehr Leistungsaufnahme, effizienzmäßig nichts zu bieten hat.

Aber was ist stattdessen zu lesen?

Ja, knapp 600W durchzuheizen ist wirklich sehr beeindruckend, das muß man schon sagen.

Wo ist der große Zorn geblieben? Könnte es daran liegen, dass man über ein paar Ingenieure bei Intel deutlich leichter herziehen kann, als über den CEO von Nvidia, der einen mit Liebesentzug bestrafen kann? Die Leute haben den Stromanschluss entwickelt, der für die Karte benötigt wird oder wird die etwas ökologischer, wenn man sie mit vier 8 Pin PCIe Anschlüssen betreibt?

Ich bin echt sehr enttäuscht und finde, Igor sollte sich bei den Intelingenieuren entschuldigen.

Antwort 17 Likes

Klicke zum Ausklappem
HerrRossi

Urgestein

7,008 Kommentare 2,379 Likes

Danke für den ausführlichen Test. Für mich ist die Rohleistung enttäuschend, der Zugewinn wird durch höheren Stromverbrauch erkauft. Weder die technischen Neuerungen noch das Plus an Shadern, RAM, Bandbreite oder AI-Tops schlägt wirklich zu Buche. Das ist Stillstand auf hohem Niveau. Wir brauchen Wettbewerb!

Antwort 17 Likes

R
RazielNoir

Urgestein

677 Kommentare 316 Likes

Beim Durchlesen des Artikels kamen mir folgende Fragen in den Sinn:

Haben die Partnerkarten das gleiche Platinendesignkonzept mit der mittig liegenden Platine? Oder Klassisch? Dann wäre das Signalproblem nicht gar so stark ausgeprägt.
Eine RTX Profikarte auf dieser Chipbasis wird wohl sicher auch wieder einen DHE-Blowerkühler haben, damit auch das PCB klassisch, von der niedrigeren Wattage abgesehen. Damit wäre sie aber mehr vergleichbar zum Vorgänger RTX 6000 Ada und die Technologieunterschiede würden auch mehr (oder eben Weniger) zu sehen sein.
Durch die neue Platzierung des PWR-Anschlusses: Würde der hintere Gehäuseteil etwas höher gestaltet, könnte man damit die Anschlusskabelbiegung vorgeben (Kabelclip), dann wäre die Problematik zu geringer Biegeradien per Design vorgebeugt.
- Edit- > Und mit einem kleinen Kabelkanal an der Oberseite dann auch Stealth verbaubar...
2-Slot breit und in der Kühlung effizienter als die 4090? Das ist eine begrüssenswerte Entwicklung. Aber teuer erkauft. 600W Peak? Never ever mit mir! Ich glaube eher die 5070ti oder deren "RTX 4500 Blackwell" Pendant ist viel interessanter. In ein paar Jahren.

Antwort Gefällt mir

Igor Wallossek

1

12,413 Kommentare 24,653 Likes

Nur die FE hat das Signalproblem. Schrieb ich aber :)

Antwort 3 Likes

Rudi69

Mitglied

46 Kommentare 37 Likes

"Mehrleistung" duch "MehrStromverbauch". Von der "Rohleistung" in Verbindung mit dem "Stromverbrauch per FPS" bin ich insgesamt nicht so beeindruckt. Für den Preis erst recht nicht. Danke für den Test.👩‍🚀

Antwort 12 Likes

R
RazielNoir

Urgestein

677 Kommentare 316 Likes

Dann hab ich zu schnell gelesen und es dabei überlesen. Sorry

Antwort Gefällt mir

Igor Wallossek

1

12,413 Kommentare 24,653 Likes

Rechne mal die Watt pro FPS hoch, dann muss man sich nicht entschuldigen. Unterm Strich ist die 5090 in Ultra-HD ohne DLSS effizienter als die 4090. Dass die Karte so viel kostet und frisst, ist das typische Leuchtturmproblem. NVIDIA wird sich an der 5080 messen lassen müssen. Wenn Fritz seinen Artikel fertig hat, wird man auch sehen, dass die Qualität extrem zugelegt hat.

Privat würde ich die aber nicht ohne Grund nutzen. Zu hungrig.

Antwort 4 Likes

Ginmarr

Mitglied

69 Kommentare 38 Likes

Musste dir halt schon gefallen lassen wenn du son Polarisierendes Video zur 4090 machst und dann die 5090 in den Himmellobst, die sage und schreibe 6% besser in FPS pro Watt da steht. Bei 25% könnte man sagen okay aber so halt nicht.

Antwort 12 Likes

R
RazielNoir

Urgestein

677 Kommentare 316 Likes

Zum Thema Bildqualität bin ich gespannt. Wobei mit aufkommen der ganzen KI/AI - Techniken es mittlerweile sehr (beängstigend) beeindruckende Beispiele dieser Techniken bei YT zu bewundern gibt. die Videos von Guild of Wanderers z.Bsp. Da muss man schon genau hinschaun, um zu merken das es keine realen Personen zu sehen gibt, von der dezent übertriebenen Erotik abgesehen. Diese Qualität in Echtzeitrendering scheint nicht mehr allzuweit entfernt.

Antwort Gefällt mir

R
RX Vega_1975

Urgestein

642 Kommentare 108 Likes

Wieviel schneller ist die Karte im Raster dann im Gegensatz zur 4090 in Ultra HD im Schnitt
ohne lange lesen zu müssen,- (As auf Arbeit) --- > Dank Euch

OK - Sehe ca. 26 bis 29% bei den Perzenilen
Nicht der Rede Wert, oder zumindest kaum

Da ist AMD den 5070 bis 5080-er Karten sehr nahe/ bis nicht allzuweit entfernt an den Fersen!

Antwort Gefällt mir

P
Pu244

Mitglied

34 Kommentare 33 Likes

Erinnert mich an die Energieeffizienzberechnung die die Autoindustrie vorgeschlagen hatte. Da sollte das Gewicht die dominierende Rolle spielen. Womit dann ein SUV deutlich besser für die Umwelt wäre, als ein 3L Lupo. Logisch, 8L Verbrauch, bei 2,3t Gewicht sind einfach besser, als die 3L bei etwas über 800Kg.

Der Leuchtturm frisst aber saumäßig viel Energie. Zum Vergleich: die RTX 2080Ti, auch ein Leuchtturm, hat das noch mit 260W und damit weniger als die Hälfte hinbekommen. Die Karten der letzten 3 Generationen brauchen jeweils etwa ein Drittel mehr Strom, pro Generation. Auf diese Entwicklung hätte man sehr wohl kritisch hinweisen können.

Die Karte soll ja auch ein Achtel mehr brauchen, als der Vorgänger. Zum Vergleich: die RTX 2080 ist noch mit 225W ausgekommen und das war schon extrem, viel, da deren Vorgängerkarte sich "nur" mit 180W zufrieden gegeben hat. Nvidia heizt den Strom zum Fenster raus, darauf hätte man kritisch hinweisen können, wenn einem die Umwelt wirklich am Herzen liegt.

Antwort 4 Likes

S
Stolperstein

Mitglied

14 Kommentare 4 Likes

(Fast) überall sonst wird sie in den Tests 4090ti genannt aufgrund der (relativen) Enttäuschung und hier gibts im Fazit hauptsächlich Technologie-Enthusiasmus. Was ja schön und gut ist, aber in Summe kommt sie mir doch eher wie eine hochskalierte 4090 vor, der irgendwie fehlt was ich von einer neuen Karte erwarte: einen tatsächlichen Sprung in entweder Kosten- oder Leistungs-Effizienz.

edit: bei Gamernexus haben sie eine sehr hohe Leistungsaufnahme im Idle angesprochen. Gabs die hier auch - oder hab ich nur den passenden Chart übersehen?

Antwort 1 Like

w
wolik

Mitglied

58 Kommentare 14 Likes

Als 8K-Gamer bin ich überrascht, dass niemand 8K-Tests durchgeführt hat. Huang auch nicht.
Ich kann mich noch erinnern, dass 8K-Gaming bei 1080 Ti Präsentation gezeigt wurde.
Ok. In eine Woche, mache ich selbst.

Antwort Gefällt mir

8j0ern

Urgestein

3,787 Kommentare 1,209 Likes

Ich auch,

Da gibt es wirklich sehr viele Videos Inzwischen:

Ich denke mir halt, wenn es zu Perfekt aussieht ist es nicht Echt.
Es gibt leider immer mehr Spiele die den Komik Style übernehmen, ist auch klar ist viel weniger zu Rendern als das Echte Leben. ;)

Antwort Gefällt mir

Igor Wallossek

1

12,413 Kommentare 24,653 Likes

Dazu gibt s nicht nur einen ganzen Absatz, sondern auch Charts. Bitte erst lesen, dann meckern.

View image at the forums

Antwort 4 Likes

B
Besterino

Urgestein

7,543 Kommentare 4,045 Likes

Wenn ich Lüfterdrehzahlen von 1600-1800 sehe denke ich jedenfalls wieder "Wakü ist Pflicht".

Was den Mehrwert der ganzen tollen innovativen und bahnbrechenden neuen Technologien angeht, bin ich hingegen eher skeptisch. Muss alles erstmal von den Spielen unterstützt werden und ob mir das Ergebnis dann konkret wirklich gefällt, wenn ich so vor meinem eigenen Monitor sitze, wird sich auch erst zeigen müssen.

Antwort 2 Likes

h
heinzkarl61

Neuling

7 Kommentare 2 Likes

@Igor Wallossek
darfst du denn aber spoilern ab wann man die Karte ungefähr vorbestellen kann? Tatsächlich erst ab dem 30.01. oder schon eventuell heute im laufe des Tages?

Antwort Gefällt mir

FfFCMAD

Urgestein

944 Kommentare 360 Likes

Ich betrachte die Frame Generation eher als Cheat/ Gimmick als realen Faktor bei der Leistungsmessung. Das kann man sich geben wenn das Spiel an sich schon genug FPS hat und man es noch mal extra flutschig haben will. Wenn das Spiel nur 25FPS erreicht und man mit DLSS 100FPS draus macht fühlt es sich trotzdem an wie 25FPS, fühlt sich sich aber nicht stotternd sondern nachziehend an.

Was ich für mich sehe ist, das die Karte bei DSR punkten wird, was der Speicheranbindung zu verdanken ist. Da sind wohl augenscheinlich im Schnitt 20 - 25% mehr Performance drin, was ich gut finde, aber nicht herausragend zum Vorgänger. DSR ist meine Lieblingsoption geworden.

Beim Rest hört es sich so an, als ob man ruhig warten sollte, da mir ein Teil der Features nur sagt: Wird wohl erst per Treiberupdate bei uns reifen wo man dann wirklich den realen Leistungsunterschied zwischen der 4090 und der 5090 klar sehen wird.

Antwort 3 Likes

P
PCIE Express 6.9

Mitglied

51 Kommentare 17 Likes

Und die 600 Watt Wärme werden dann schön zu allem oberhalb der GPU befördert...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung