GPUs Latest news PSU

Completely superfluous: Who (currently) needs expensive power supplies with ATX 3.0 and PCIe 5.0?

ATX 3.0 and the origin of senselessly high load peaks

Here we also have to come back to PCIe 5.0, because one also meshes with the other. In the end, it is thanks to the dear graphics card manufacturers that the PCI SIG includes this madness bindingly in the PCIe 5.0 standard for all cards with a TBP of 300 watts or more. Of course, you cannot directly compare individual load peaks in the PCIe 5.0 definition with the load cycles of the power supplies in the ATX 3.0 document, but these cycles are based in the logical continuation exactly on what was previously entered in the PCIe 5. Specification was included. This was ensured by the demands jointly brought in by AMD and NVIDIA, and it would be richly unfair to bash NVIDIA alone for this energetic nonsense.

This change allows for cards to exceed maximum power levels currently defined in the CEM spec to enable higher performance for certain work loads. This change clearly defines limits for these excursions to allow system designers to properly design power subsystems to enable these excursions….This change applies to the new class of 300-600 W cards only. Existing cards (up to 300W) are not impacted.

 

The most important thing in the current standardization up to 600 watts is first of all the so-called Combined Power, which precisely specifies that in the sum of external PCIe power supply (Aux) and the PCIe motherboard slot (PEG), no more than 600 watts may be called up as an average continuous load. It does not matter which rail delivers how much power in detail and the usual adding of the partial values of all rails is obsolete. So this also affects the power supply, but….  There is no need to go into PCI power management and power budgeting (yet), because there are simply no suitable PCIe 5.0 graphics cards and ATX 3.0 power supplies. Aha!

Furthermore, these standards listed below and called for by NVIDIA and AMD together only apply to graphics cards in the 300 to 600 watt ranges; the ranges below that remain as usual.

  1. Sustained Power – Average power in a time frame of 1 second or more
  2. TDP – Thermal Design Power is the maximum continuous power output
  3. Power Excursion – A temporary condition in which the power exceeds the maximum continuous power

In general, TDP and Sustained Power can be equated, so I will generally use the term Sustained Power here in the following. I had already mentioned on the first page that different power levels are defined for different time intervals in the individual overload ranges. Since this applies to all graphics cards in the range between 300 and 600 watts regardless of their Sustained Power (also TBP at NVIDIA or TDP at AMD), you can’t work with absolute wattages, but have to define a ratio between the average load measured in the respective interval and the Sustained Power.

The following diagram now shows very clearly where the journey is heading for the individual intervals. From one second and more, the ratio of 1 applies, which is why the average power consumption may then no longer exceed the TDP. The other limit is 100 µs, where the one ratio of 3 allows even three times. With the interval used by many power supplies for the supervisor during monitoring of 20 ms the ratio is 1.25. And now at the latest, we also notice that the tested NVIDIA RTX 4090 FE had a ratio of 1.23, which is certainly anything but a coincidence (415 watts in gaming average and 512 watts peak load, both real measurements in the picture above).

A ratio of 2.5 would even be allowed in not really rare load peaks of around 1 ms, which would result in a power consumption of 1038 watts with the 415 watts measured in the example. Interestingly, the load peaks at 10 microseconds don’t exceed 516 watts either, so the ratio of around 1.24 is still miles away from ratio 3, which specifies an insane 1245 watts here. Here, the practice proves how detached the engineering involved has planned and what nonsense the standard actually represents.

 

Power consumption and load peaks as an extreme mix

I will now show you the small excerpt of what Intel has given the manufacturers from 2022 onwards and we are still amazed by the numbers. For those who don’t know, CEM means PCI SIG Card Electromechanical, i.e. the plugged-in add-in cards. The CPU manufacturer estimates between 275 and 300 watts for the CPU, which is, however, plenty generous. However, I have also managed to squeeze far more than 350 watts into a Core i9-13900K, which quickly puts the generous rating into perspective again.

The power consumption values of the graphics cards are also anything but utopian, because the new flagships can call up around 500 to 600 watts of real board power with maximum OC. But that should then already be the “vomit limit”. The estimation for the rest of the system is rather inconsistent, as the 100 watt approach is already a bit tight with motherboard power consumption of up to 50 watts even at the low end, while the 300 watts is a bit excessive for the largest system. In spite of everything, however, this should somehow work out in total, because much of what I have already written about the ratio coincides. The table shown here is also not my invention, but originates from internal briefing documents from Intel:

The estimated values for the PSU measurement (“PSU Size”) are thus clarified, but what is the Total Power all about? This is exactly what we need to talk about now, because it is exactly the part that worries me (and the power supply manufacturers) the most! Intel also has a defined idea for this and at the same time an announcement to the producers of the power suppliers. Let’s take a look at it now and get wide-eyed. Even if the length of the highest load peak intervals is limited to 100 μS each, the permissible total share of up to 10% of the total volume is downright abstruse. This means that the power supply must actually deliver 200% of the power over 10% of the operating time!

This actually turns the 1.2 kW power supply into a 2.4 kW power supply in disguise. This is because it is also defined in this way that normal operation can be at just 50% without a surcharge and the rest of the time can be blithely overloaded. Of course, this will all more or less amount to a pure single-rail solution as well, but from a purely electrotechnical point of view, this is outright madness. Which supervisor chip should still be able to realize a reliable protection circuit for OCP/OPP in a fixed defined interval here? What then is still an allowable load and where does the emergency begin?

And in case one or the other eye remained dry now: NVIDIA originally even worked towards a whopping 235% and also gave this to the power supply manufacturers as a “recommendation” and “advice”. This statement still stands even today and companies like be quiet! and Corsair silently comply, while they more qualified PSU testers always rub their eyes in wonder. However, after all the measurements from my daily practice, the question must be allowed as to what the whole thing is actually intended for. For the NVIDIA cards with Ada architecture, these specifications are demonstrably obsolete, for RDNA3 as well, by the way, if I can trust the measurements of my sources (even though I cannot give exact numbers at the moment due to NDA reasons).

 

ATX v3.0 – Soften limits, close eyes and somehow through!

Even though some of the manufacturers might be able to produce such power supplies under the currently valid ATX specifications with the corresponding costs, the bar for the quality of the power supplies and the limits to be met is much too high for most of the cheap manufacturers. Or the products would then at least be so expensive again that acceptance would be completely zero. So you bend the whole thing a bit and even risk backwards compatibility. But let’s start again at the PCI SIG and see what they specify:

So far, so clear. And now the circle of the energetic show is closed, if we still include the transients. I know it was a lot of theory again, but I hope it still came across well despite, or rather because of, the deliberate breaking down to more generally understandable formulations. As already written several times, it refers to the upper performance class, which is of course also particularly thirsty. Whether you will really play the game as an end customer is up to you. In the end, it is also a matter of conscience.

Summary and conclusion

Do we even need such an extremely oversized ATX 3.0 power supply at this point? For the moment, I would really answer this question with a clear no, if you follow certain basic rules when sizing the power supply when buying a new one. On the one hand, such power supplies can cause problems with older systems (voltage) and on the other hand it complicates the production (and costs) of really efficient power supplies and complete systems unnecessarily. Expensive instead of sensible, what a farce for the customer…

If you are planning a NEW system with a high-end graphics card, you can of course rely on a new ATX 3.0 power supply, especially since you won’t have to search for the 12VHPWR cable. But buying such a usually more expensive power adapter just because you only want to replace the included 12VHPWR adapter is complete nonsense. As long as the current power supply is still good and not too old. Here, it is first worth taking a look at the optional accessories on the third-party market.

The good power supplies come with at least 5 years warranty to the customer, some even up to 10 years. If you now think you can’t go wrong with a new, expensive ATX 3.0 power supply and are making a sensible investment in the more distant future, you are unknowingly making a fundamental mistake! Because what has currently been announced as ATX 3.0 or has just come onto the market does not yet offer anything that older power supplies can’t, at least in terms of the graphics card connection and the smart power management. With a bit of bad luck, the great 400-euro PSU will be back to the technical stone age in two years when all four sense pins are finally used.

 

Kommentar

Lade neue Kommentare

Lucky Luke

Veteran

405 Kommentare 181 Likes

Danke für die ausführliche Erläuterung.
Spannender Artikel. Werde wohl meine Kaufentscheidung in Bezug auf ATX 3.0 überdenken und lieber ein effizientes NT der aktuellen Spezifikationen zurückgreifen zum halben Preis der ATX 3.0

Antwort 4 Likes

grimm

Urgestein

3,081 Kommentare 2,035 Likes

Danke für die klaren Worte, ich dachte es mir. Möge dein Artikel die ein oder andere Kaufentscheidung beeinflussen und uns einen großen Haufen unnötig ausgemusterter Netzteile ersparen!

Antwort 3 Likes

big-maec

Urgestein

827 Kommentare 475 Likes

Schön zu lesen, dass mein Netzteil noch weiter im Rechner werkeln kann.
Aber ab wann werden die Grafikkarten, die smarte Kommunikation implementiert haben, dass man um ein neues NT nicht mehr herumkommt.
Gibt es da schon eine Roadmap?

Antwort 1 Like

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Ich denke, dass eine Roadmap immo sinnlos ist. Zu viele Baustellen und Umleitungen.

Antwort 1 Like

Martin Gut

Urgestein

7,759 Kommentare 3,562 Likes

Die Frage ist nicht, ab wann es die Kommunikation (optional) gibt, sondern ab wann man ohne die Kommunikation Leistungseinschränkungen hat.

Bis jetzt ist ja noch nicht mal etwas erfunden oder spezifiziert was nicht optional wäre. Somit fliesst auch nichts solches in die Entwicklung der nächsten Generation an Grafikkarten und Netzteilen ein die momentan in der Entwicklung sind.

Über etwas zu spekulieren, was erst noch entwickelt wird (werden könnte) und dann vielleicht mal in die Entwicklung einfliessen und umgesetzt werden könnte, halte ich für wenig sinnvoll.

Antwort 1 Like

ssj3rd

Veteran

214 Kommentare 142 Likes

Habe hier auch ein süßes Seasonic 700 Watt Netzteil und sogar Fanless mit:
4090 Strix OC + AIO + 5900X + 7 Lüfter + zig RGB‘s ohne jegliche Probleme am laufen.

Selbst mit 133% unter AB konnte ich keine Abstürze provozieren und ich habe es echt hart darauf angelegt - rock stable!

Wollte trotzdem im nächsten Jahr wegen Zukunftssicherheit und so auf ein ATX 3.0 wechseln, aber das kann ich mir wohl definitiv sparen… dann warte ich jetzt mal geduldig auf Seasonic‘s 90 Grad Kabel:

Bis dahin behalte ich das 4 köpfige Krakenmonster:

View image at the forums

Antwort 3 Likes

Klicke zum Ausklappem
Igor Wallossek

1

10,178 Kommentare 18,761 Likes

Der Adapater.... Meh! :D

Antwort 5 Likes

big-maec

Urgestein

827 Kommentare 475 Likes

R2D2 kann dann löschen.🤣

Antwort Gefällt mir

Igor Wallossek

1

10,178 Kommentare 18,761 Likes

Das schmilzt doch nur. Ich würde einen Tropfenfänger drunterpacken. Meine Oma hatte sowas für die Kaffeekanne :P

Antwort 4 Likes

F
Furda

Urgestein

663 Kommentare 370 Likes

Ist ja wie bei HDMI, ein Standard der keiner ist, weil optional, und der überteuert zahlende Kunde schaut in die Röhre.

Habs schon vor Monaten gesagt, WENN die neuen Grafikkarten den Standard nutzen und brauchen, dann funktionieren die Grafikkarten NICHT vollständig mit alten Netzteilen, weil eben die Sense Pins FEHLEN bei Adaptern, ebenso die Überlast-Tauglichkeit. Nun lässt man es einfach als "optional" ganz weg. Toller "Standard", tolle Hersteller...

Antwort 2 Likes

Lagavulin

Veteran

226 Kommentare 181 Likes

Vielen Dank für die Bewertung der aktuellen Situation, und die klaren Worte zu Sinn und Unsinn eines „ATX 3.0 ready“ Netzteils für die aktuellen Grafikkarten mit 12VHPWR-Buchse.
Das ist für mich sehr wertvoll, weil ich momentan den Bau einen neuen PC mit einer RTX 4090 plane und bisher nach einem ATX 3.0 Netzteil Ausschau gehalten habe. Das werde ich auch weiterhin tun, aber die Kaufentscheidung alter vs. neuer Netzteil-Standard werde ich vom Preis-/Leistungsverhältnis abhängig machen, ATX 3.0 ist für mich nicht länger gesetzt.

Antwort 3 Likes

Lagavulin

Veteran

226 Kommentare 181 Likes

@Igor Wallossek
Zitat: "In bei nicht wirklich so seltenen Lastspitzen um die 1 ms wäre dann sogar eine Ratio von 2.5 erlaubt, was bei den exemplarisch gemessenen 415 Watt Leistungsaufnahme auf 830 Watt herausliefe"
Hat sich da ein kleiner Rechenfehler eingeschlichen, oder habe ich die Berechnung nicht verstanden?

Antwort 1 Like

Serandi

Mitglied

33 Kommentare 9 Likes

Hoffentlich niemals :)

Antwort 1 Like

Serandi

Mitglied

33 Kommentare 9 Likes

Habe mir noch letztes Jahr VORSORGLICH ein Seasonic Prime Ultra 1300 Watt Platinum Netzteil für die als schier unersättlich gefräßig angekündigten next Gen GPU's besorgt und mir dann voll unnötig Sorgen wegen einem neuen ATX 3.0 Standart gemacht. Bleibe bei diesem schönen Netzteil noch viele weitere Jahre und hab es lediglich für 255€ besorgt und bin extrem happy darüber!

Antwort 1 Like

SchmoWu

Mitglied

91 Kommentare 23 Likes

Bei mir steht in den nächsten halben Jahr ein komplett neues System an, da ist das brauchbares Wissen, Danke dafür.

Antwort Gefällt mir

D
Don Omerta

Mitglied

47 Kommentare 34 Likes

Klasse Bericht, hier vorbeizuschauen lohnt sich immer ;)
Ich wechsle meine Netzteile alle 7-8 Jahre. Habe hier drei NT (BitFenix, Seasonic, Corsair), von sieben bis 10 Jahre Grantie, alles dabei.
Die würden sicherlich auch länger halten aber ich mag keine Überraschungen. Vor ein paar Jahren dachte ich noch "Klasse, alles braucht immer weniger Saft und wird effizienter" aber wir sehen ja, das es nicht so ist.....

Antwort Gefällt mir

Chismon

Veteran

131 Kommentare 93 Likes

Ich hoffe die Nachricht/der Artikel hier macht auch anderweitig die Runde im Internet (vielleicht auch per YT-Video), denn das kommt potentiellen Kunden nur zugute, sich nicht von dem ATX 3.0 Standard Angst machen zu lassen beim Netzteilkauf.

Positiver Seiteneffekt ist die Ersparnis (denn ATX Netzteile sind dann doch schon spuerbar teurer angesetzt von den Herstellern/Boardpartnern) und es kommt auch der Umwelt zugute (Stichwort: Ressourcenverschwendung), wenn die alten ATX 2.X Marken-Netzteile erst einmal noch locker reichen sollten fuer den Betrieb von High End GPUs.

Nach dem Kauf meiner RDNA2 Grafikkarte hatte ich auch noch einmal auf die Boardpartner-Empfehlung bzgl. der PSUs geschaut und ja, demnach gerade noch die Empfehlung (850W) abgedeckt (bei anderen Modellen wurden 750W als ausreichend empfohlen).

Allerdings werde ich auch kein High-End Mainboard und keine K-CPU damit im Verbund betreiben und habe daher gar keine Sorge, dass ich da irgendwie in Schwierigkeiten geraten werde (ich rechne mit maximal 550-600W Nennleistung), zumal man alle Komponenten im Regelfall ja auch maechtig treiben muss, um evt. einen Absturz beim Netzteil provozieren zu koennen.

Mich wird dann eher interessieren, was sich in 4-6 Jahren als neuer Standard hoffentlich heraus kristallisieren wird (dass man als Verbraucher/Kaeufer dann auch mehr Durchblick auf Anhieb hat und die Hersteller sich via PC SIG besser einigen und neue Standards bessser planen/umsetzen) und man nicht solche Klarstellungen - fuer die man m.E. nur dankbar sein kann - wie in diesem Artikel mehr braucht, denn das erspart dann doch einigen Stress, Sorgen und Zusatzarbeit.

Antwort 2 Likes

Klicke zum Ausklappem
Wie jetzt?

Mitglied

55 Kommentare 44 Likes

Sehr schön das hier endlich einmal jemand den Erklärbären gibt, danke dafür!

Antwort 1 Like

garfield36

Urgestein

1,272 Kommentare 333 Likes

Da ich mir erst heuer ein be quiet! 800W gekauft habe, werde ich sicher nicht auf ein neues NT umsteigen. Auch wenn ich die Absicht hab mir eine RTX 4080 zuzulegen.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung