Artificial Intelligence Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 5090 Founders Edition Review – The 600-Watt Powerhouse in Gaming and Lab Tests

Blackwell and the theory

Power gating and the use of separate power rails play a central role in optimizing the power supply of modern GPUs, especially in demanding architectures such as the NVIDIA Blackwell series. Advanced power gating technology makes it possible to selectively switch off individual functional areas of the GPU when they are not required. This is done with a fine granularity so that even the smallest sections of the GPU can be dynamically switched on or off, which significantly reduces energy consumption without compromising performance.

The introduction of separate power rails for GPU cores and the memory system is another significant innovation. These separate power supplies allow the voltage to be specifically adapted to the requirements of the respective subsystem. For example, while memory areas require a constant supply, GPU cores can be switched off completely during idle times. This separation not only increases energy efficiency, but also reduces heat generation.

Another interesting feature of the Blackwell architecture is its ability to activate and deactivate these energy-saving modes at high speed. In this way, power-saving states can be switched on and off in time with individual frames, optimizing efficiency even in scenarios with highly variable load requirements. Accelerated Frequency Switching technology, introduced in the NVIDIA Blackwell architecture, also represents a significant advance in the dynamic power and performance management of modern GPUs. This feature enables extremely fast clock frequency adaptation to the varying demands of workloads, up to 1000 times faster than in previous GPU generations. This means that the GPU no longer has to keep its frequency stable over several milliseconds, but can react to changes within microseconds.

The main advantage of Accelerated Frequency Switching is its ability to optimize energy consumption and efficiency under dynamic working conditions. Traditionally, GPU clocks were often almost constant for the duration of a frame, as frequency adaptation was comparatively sluggish. This rigidity meant that the GPU either maintained unnecessarily high clock rates even when there was no load, or could not respond quickly enough to sudden peak loads, resulting in potential performance degradation.

With the Blackwell architecture and Accelerated Frequency Switching, clocks can now be adjusted much more precisely to the actual workloads. This happens both during the active calculation phases and in the idle times between individual workloads. For example, the GPU can immediately lower its frequency during a frame in which less computing work is required for a short time in order to save energy, and increase it again in the next clocks as soon as more power is required. This ability to adapt quickly leads to a noticeable reduction in energy consumption, especially in scenarios with variable or short-term workloads.

Another advantage of this technology is the ability to adjust the GPU voltage faster according to frequency. This helps to minimize power loss due to unnecessary voltage settings and further reduce heat generation. The result is an overall higher energy efficiency with a simultaneous improvement in peak performance.

Accelerated Frequency Switching not only offers advantages in terms of energy savings, but also increases performance under real-world conditions. As the GPU is able to mobilize free energy and performance reserves more quickly, performance peaks are handled better without any negative effects on stability or latency times. This is particularly beneficial for applications such as games or AI-supported rendering, where workloads can vary greatly. These innovations are key to meeting the performance requirements of modern GPUs while keeping energy consumption within manageable limits. But what does the practice say?

Note: On the subject of accelerated frequency switching and gating, I also have the temperature diagrams in the next chapter, because you can even measure these changes!

Power Supply

Even though I’m not doing a teardown today, I want to briefly touch on the (reference) PCB design, especially since I also have some board partner cards. The 16 voltage regulators for NVDD, which powers the GPU core, are nothing new. However, NVIDIA has now reintroduced separate voltages for GDDR7 memory (6 voltage regulators) and the frame buffer (7 voltage regulators), similar to what Intel and AMD are doing.

The frame buffer in a graphics card is a specific section of memory dedicated to storing the pixel information of the displayed image. It contains data such as color depth, transparency, and resolution, and it is continuously updated by the GPU to provide the output displayed on the monitor. The frame buffer is directly connected to the graphics memory, which operates under the MSVDD voltage. This memory serves as the physical resource accessed by the frame buffer. However, why this part, which only requires up to around 40 watts, is powered by 7 voltage regulators is somewhat unclear to me.

FBVDD ensures the stability and accuracy of data transfers between the GPU and memory, especially at high clock speeds. In contrast, the MSVDD voltage manages the operation of the memory chips themselves. This voltage directly affects the speed and stability of the memory, as it meets the electrical requirements of the memory cells and the memory controller logic. MSVDD and FBVDD work closely together, as the memory logic and frame buffer must communicate efficiently to exchange image data between the GPU and memory. The separate regulation of MSVDD and FBVDD allows precise voltage adjustments to meet the specific demands of each component.

I plan to write a dedicated foundational article on this topic when I have more time to explore it in detail.

Problems when measuring power consumption with riser cards

Nothing at first, because PCIe 5.0 poses considerable challenges to signal integrity due to its high data transfer rates, especially in conjunction with additional components such as riser cables or internal connections within the graphics card. While previous generations of PCIe were more tolerant of signal interference, PCIe 5.0 requires much more precise signal transmission due to the doubling of the data rate to 32 GT/s. Any additional connection – be it a riser cable or an internal connection cable between the graphics card’s motherboard and its PCIe connector – can cause potential signal loss, reflections or distortions that affect stability.

A common problem is that such connections change the impedance of the signal system. These changes lead to reduced signal quality, especially with longer or poorly shielded cables. Another problem arises from the potential introduction of crosstalk between parallel lines if they are not sufficiently insulated. In practice, such interference manifests itself in instabilities such as boot problems, unexpected crashes or the inability of the system to initialize the graphics card correctly.

The discussion about riser cables and adapters shows that not only users but also development teams such as NVIDIA are struggling with the complexity of this issue. The experience with boot problems with the RTX 5090 in conjunction with riser cables or even NVIDIA’s first generation PCAT adapter (the new one did it so far) illustrates how critical signal integrity is for this hardware to function correctly. The problem is exacerbated by the fact that the Founders Edition internally utilizes a cable connection between the card’s motherboard and its PCIe connector, introducing additional resistance and potential signal loss. While this design decision may be made for aesthetic reasons, it leads to increased susceptibility to interference.

This leads to a fundamental debate about prioritizing design over function. While appealing looks and innovative form factors are important, “form follows function” should be the top priority. Technically, this means that hardware must be designed to perform optimally under real-world operating conditions before aesthetic considerations are taken into account. A design that compromises on signal integrity in favor of optical or mechanical stunts is not sustainable and can significantly impact the user experience. I ended up having to solder together a new solution, but what does the average user do who might want to install their card vertically in the case and use an additional riser cable?

Workaround: Set the PCIe version in the BIOS to Gen3 or Gen 4 and use either the iGPU or an older card for the boot process. The performance losses are around 10 to 15 percent for Gen 3 (indisputable) and between 0 and 4 percent for Gen 4.

Total power consumption and compliance with standards in practice

The increased idle power consumption of 29 to just under 34 watts indicates a potential and veritable driver problem, if this is the case with the power rails, which is also directly related to the resolution and refresh rate of the monitor used. Especially at higher settings, the energy consumption seems to increase unnecessarily, which speaks for optimization possibilities. Such a deviation is particularly unusual in idle states and can possibly be remedied by future driver updates.

There are also conspicuous values under load. In some demanding games, the maximum power consumption reaches up to 600 watts, which almost exhausts the limit of the 12V2X6 power supply design. This underlines the need to carefully consider the system configuration and cooling options to avoid stability issues. Such peak loads also suggest that power requirements are operating close to the upper limit of specifications during intensive graphics calculations.

Interestingly, lower resolutions such as Full HD and QHD show a more economical behavior. This could indicate a more efficient use of resources in these modes. In addition, the use of DLSS in combination with technologies such as MFG offers an opportunity to further reduce energy requirements by specifically lowering the performance requirements of the GPU. The significance of load peaks, some of which can exceed the values mentioned, will be analyzed in more detail later on. They could provide important indications of the energy requirements in specific application scenarios and require detailed consideration.

The mainboard slot, also known as the PCIe slot (PEG: PCI Express Graphics), is designed for peak currents of up to 5.5 amps at a voltage of 12 volts in accordance with the PCI-SIG standard. This corresponds to a maximum power consumption of 66 watts, which can be supplied via this slot. The PCI-SIG standard aims to ensure a consistent and reliable power supply via the mainboard slot without compromising the stability of the system. The specified limit value of 5.5 amps takes into account peak loads that can occur briefly, for example during a load change. Such load peaks must not overload the system or affect other components due to voltage fluctuations.

A key aspect of this standard is that it sets clear limits for motherboard manufacturers and graphics card developers, ensuring interoperability and compatibility between different systems. Excessive loads on the motherboard slot could lead to thermal problems or damage to traces and connectors. The fact that the graphics card only places a moderate load on the slot not only ensures stable operation, but also preserves the longevity of the hardware components. In addition, this requirement creates scope for external power connections that can take on higher loads. In the case of the card, which already reaches the limits of the power supply due to the 12V2X6 design, the low load on the PEG slot is a positive feature. It shows that the card efficiently distributes between the different power sources and does not put unnecessary load on the mainboard. With a maximum of 1.2 amps (14.4 watts), the card in question only makes minimal use of this leeway, which makes it appear very efficient in terms of the load on the motherboard slot. The 12V2x6 has to suffer all the more for this.

 

220 Antworten

Kommentar

Lade neue Kommentare

P
Pu244

Mitglied

33 Kommentare 32 Likes

Das ist eine gigantische Heuchelei!

Ich erinnere mich noch an den absolut bösartigen Verriss, des 12V HPWR, bei dem Igor vor dem Bild eines Kohlekraftwerks posiert hat. Da wurde dann irgendwas vom Weltklima geredet, wie schlimm 600W doch wäre, was denen doch einfällt. Dass das die völlig falsche Richtung ist und so weiter und sofort. Nun kommt sie, die erste Karte, die das (fast braucht), das übel, das pure Böse, jedenfalls aus umweltsicht.

Eigentlich dürfte man da ja einen noch viel bösartigeren Verriss erwarten. Ein seitenlanges Gepolter über diesen realitätgewordenenen Albtraum, der, außer mehr Leistungsaufnahme, effizienzmäßig nichts zu bieten hat.

Aber was ist stattdessen zu lesen?

Ja, knapp 600W durchzuheizen ist wirklich sehr beeindruckend, das muß man schon sagen.

Wo ist der große Zorn geblieben? Könnte es daran liegen, dass man über ein paar Ingenieure bei Intel deutlich leichter herziehen kann, als über den CEO von Nvidia, der einen mit Liebesentzug bestrafen kann? Die Leute haben den Stromanschluss entwickelt, der für die Karte benötigt wird oder wird die etwas ökologischer, wenn man sie mit vier 8 Pin PCIe Anschlüssen betreibt?

Ich bin echt sehr enttäuscht und finde, Igor sollte sich bei den Intelingenieuren entschuldigen.

Antwort 17 Likes

Klicke zum Ausklappem
HerrRossi

Urgestein

6,983 Kommentare 2,365 Likes

Danke für den ausführlichen Test. Für mich ist die Rohleistung enttäuschend, der Zugewinn wird durch höheren Stromverbrauch erkauft. Weder die technischen Neuerungen noch das Plus an Shadern, RAM, Bandbreite oder AI-Tops schlägt wirklich zu Buche. Das ist Stillstand auf hohem Niveau. Wir brauchen Wettbewerb!

Antwort 17 Likes

R
RazielNoir

Urgestein

572 Kommentare 270 Likes

Beim Durchlesen des Artikels kamen mir folgende Fragen in den Sinn:

Haben die Partnerkarten das gleiche Platinendesignkonzept mit der mittig liegenden Platine? Oder Klassisch? Dann wäre das Signalproblem nicht gar so stark ausgeprägt.
Eine RTX Profikarte auf dieser Chipbasis wird wohl sicher auch wieder einen DHE-Blowerkühler haben, damit auch das PCB klassisch, von der niedrigeren Wattage abgesehen. Damit wäre sie aber mehr vergleichbar zum Vorgänger RTX 6000 Ada und die Technologieunterschiede würden auch mehr (oder eben Weniger) zu sehen sein.
Durch die neue Platzierung des PWR-Anschlusses: Würde der hintere Gehäuseteil etwas höher gestaltet, könnte man damit die Anschlusskabelbiegung vorgeben (Kabelclip), dann wäre die Problematik zu geringer Biegeradien per Design vorgebeugt.
- Edit- > Und mit einem kleinen Kabelkanal an der Oberseite dann auch Stealth verbaubar...
2-Slot breit und in der Kühlung effizienter als die 4090? Das ist eine begrüssenswerte Entwicklung. Aber teuer erkauft. 600W Peak? Never ever mit mir! Ich glaube eher die 5070ti oder deren "RTX 4500 Blackwell" Pendant ist viel interessanter. In ein paar Jahren.

Antwort Gefällt mir

Igor Wallossek

1

11,881 Kommentare 23,302 Likes

Nur die FE hat das Signalproblem. Schrieb ich aber :)

Antwort 3 Likes

Rudi69

Mitglied

37 Kommentare 33 Likes

"Mehrleistung" duch "MehrStromverbauch". Von der "Rohleistung" in Verbindung mit dem "Stromverbrauch per FPS" bin ich insgesamt nicht so beeindruckt. Für den Preis erst recht nicht. Danke für den Test.👩‍🚀

Antwort 12 Likes

R
RazielNoir

Urgestein

572 Kommentare 270 Likes

Dann hab ich zu schnell gelesen und es dabei überlesen. Sorry

Antwort Gefällt mir

Igor Wallossek

1

11,881 Kommentare 23,302 Likes

Rechne mal die Watt pro FPS hoch, dann muss man sich nicht entschuldigen. Unterm Strich ist die 5090 in Ultra-HD ohne DLSS effizienter als die 4090. Dass die Karte so viel kostet und frisst, ist das typische Leuchtturmproblem. NVIDIA wird sich an der 5080 messen lassen müssen. Wenn Fritz seinen Artikel fertig hat, wird man auch sehen, dass die Qualität extrem zugelegt hat.

Privat würde ich die aber nicht ohne Grund nutzen. Zu hungrig.

Antwort 4 Likes

Ginmarr

Mitglied

69 Kommentare 38 Likes

Musste dir halt schon gefallen lassen wenn du son Polarisierendes Video zur 4090 machst und dann die 5090 in den Himmellobst, die sage und schreibe 6% besser in FPS pro Watt da steht. Bei 25% könnte man sagen okay aber so halt nicht.

Antwort 12 Likes

R
RazielNoir

Urgestein

572 Kommentare 270 Likes

Zum Thema Bildqualität bin ich gespannt. Wobei mit aufkommen der ganzen KI/AI - Techniken es mittlerweile sehr (beängstigend) beeindruckende Beispiele dieser Techniken bei YT zu bewundern gibt. die Videos von Guild of Wanderers z.Bsp. Da muss man schon genau hinschaun, um zu merken das es keine realen Personen zu sehen gibt, von der dezent übertriebenen Erotik abgesehen. Diese Qualität in Echtzeitrendering scheint nicht mehr allzuweit entfernt.

Antwort Gefällt mir

R
RX Vega_1975

Urgestein

642 Kommentare 108 Likes

Wieviel schneller ist die Karte im Raster dann im Gegensatz zur 4090 in Ultra HD im Schnitt
ohne lange lesen zu müssen,- (As auf Arbeit) --- > Dank Euch

OK - Sehe ca. 26 bis 29% bei den Perzenilen
Nicht der Rede Wert, oder zumindest kaum

Da ist AMD den 5070 bis 5080-er Karten sehr nahe/ bis nicht allzuweit entfernt an den Fersen!

Antwort Gefällt mir

P
Pu244

Mitglied

33 Kommentare 32 Likes

Erinnert mich an die Energieeffizienzberechnung die die Autoindustrie vorgeschlagen hatte. Da sollte das Gewicht die dominierende Rolle spielen. Womit dann ein SUV deutlich besser für die Umwelt wäre, als ein 3L Lupo. Logisch, 8L Verbrauch, bei 2,3t Gewicht sind einfach besser, als die 3L bei etwas über 800Kg.

Der Leuchtturm frisst aber saumäßig viel Energie. Zum Vergleich: die RTX 2080Ti, auch ein Leuchtturm, hat das noch mit 260W und damit weniger als die Hälfte hinbekommen. Die Karten der letzten 3 Generationen brauchen jeweils etwa ein Drittel mehr Strom, pro Generation. Auf diese Entwicklung hätte man sehr wohl kritisch hinweisen können.

Die Karte soll ja auch ein Achtel mehr brauchen, als der Vorgänger. Zum Vergleich: die RTX 2080 ist noch mit 225W ausgekommen und das war schon extrem, viel, da deren Vorgängerkarte sich "nur" mit 180W zufrieden gegeben hat. Nvidia heizt den Strom zum Fenster raus, darauf hätte man kritisch hinweisen können, wenn einem die Umwelt wirklich am Herzen liegt.

Antwort 4 Likes

S
Stolperstein

Mitglied

14 Kommentare 4 Likes

(Fast) überall sonst wird sie in den Tests 4090ti genannt aufgrund der (relativen) Enttäuschung und hier gibts im Fazit hauptsächlich Technologie-Enthusiasmus. Was ja schön und gut ist, aber in Summe kommt sie mir doch eher wie eine hochskalierte 4090 vor, der irgendwie fehlt was ich von einer neuen Karte erwarte: einen tatsächlichen Sprung in entweder Kosten- oder Leistungs-Effizienz.

edit: bei Gamernexus haben sie eine sehr hohe Leistungsaufnahme im Idle angesprochen. Gabs die hier auch - oder hab ich nur den passenden Chart übersehen?

Antwort 1 Like

w
wolik

Mitglied

58 Kommentare 14 Likes

Als 8K-Gamer bin ich überrascht, dass niemand 8K-Tests durchgeführt hat. Huang auch nicht.
Ich kann mich noch erinnern, dass 8K-Gaming bei 1080 Ti Präsentation gezeigt wurde.
Ok. In eine Woche, mache ich selbst.

Antwort Gefällt mir

8j0ern

Urgestein

3,523 Kommentare 1,143 Likes

Ich auch,

Da gibt es wirklich sehr viele Videos Inzwischen:

Ich denke mir halt, wenn es zu Perfekt aussieht ist es nicht Echt.
Es gibt leider immer mehr Spiele die den Komik Style übernehmen, ist auch klar ist viel weniger zu Rendern als das Echte Leben. ;)

Antwort Gefällt mir

Igor Wallossek

1

11,881 Kommentare 23,302 Likes

Dazu gibt s nicht nur einen ganzen Absatz, sondern auch Charts. Bitte erst lesen, dann meckern.

View image at the forums

Antwort 4 Likes

B
Besterino

Urgestein

7,351 Kommentare 3,890 Likes

Wenn ich Lüfterdrehzahlen von 1600-1800 sehe denke ich jedenfalls wieder "Wakü ist Pflicht".

Was den Mehrwert der ganzen tollen innovativen und bahnbrechenden neuen Technologien angeht, bin ich hingegen eher skeptisch. Muss alles erstmal von den Spielen unterstützt werden und ob mir das Ergebnis dann konkret wirklich gefällt, wenn ich so vor meinem eigenen Monitor sitze, wird sich auch erst zeigen müssen.

Antwort 2 Likes

h
heinzkarl61

Neuling

7 Kommentare 2 Likes

@Igor Wallossek
darfst du denn aber spoilern ab wann man die Karte ungefähr vorbestellen kann? Tatsächlich erst ab dem 30.01. oder schon eventuell heute im laufe des Tages?

Antwort Gefällt mir

FfFCMAD

Urgestein

875 Kommentare 316 Likes

Ich betrachte die Frame Generation eher als Cheat/ Gimmick als realen Faktor bei der Leistungsmessung. Das kann man sich geben wenn das Spiel an sich schon genug FPS hat und man es noch mal extra flutschig haben will. Wenn das Spiel nur 25FPS erreicht und man mit DLSS 100FPS draus macht fühlt es sich trotzdem an wie 25FPS, fühlt sich sich aber nicht stotternd sondern nachziehend an.

Was ich für mich sehe ist, das die Karte bei DSR punkten wird, was der Speicheranbindung zu verdanken ist. Da sind wohl augenscheinlich im Schnitt 20 - 25% mehr Performance drin, was ich gut finde, aber nicht herausragend zum Vorgänger. DSR ist meine Lieblingsoption geworden.

Beim Rest hört es sich so an, als ob man ruhig warten sollte, da mir ein Teil der Features nur sagt: Wird wohl erst per Treiberupdate bei uns reifen wo man dann wirklich den realen Leistungsunterschied zwischen der 4090 und der 5090 klar sehen wird.

Antwort 3 Likes

P
PCIE Express 6.9

Mitglied

51 Kommentare 17 Likes

Und die 600 Watt Wärme werden dann schön zu allem oberhalb der GPU befördert...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung