Basics Editor's Desk GPUs Graphics Reviews

NVIDIA’s and AMD’s demands on the PCI SIG for the new 600 Watt VGA cards – limits, allowed overruns and transients | Exclusive

Is the 600 watts really the upper end or where are the tolerance ranges for exceeding the standards for a short bursts? And why does the GeForce RTX 3090 Ti suddenly show a completely different behavior under full load? I will answer exactly these questions today, because the review of the GeForce RTX 3090 Ti has (probably not only) made me curious and no, it is NOT an April Fool’s joke. In order to understand the whole thing including the internal information at all, we of course also need high-resolution measurements in the microsecond range and the appropriate before/after comparison. Only then will we also understand the new standards for the expansion cards between 300 and 600 watts of power consumption, in which both GPU manufacturers were already very intensively involved a year ago. Interestingly, there is nothing in the standardization of the 12VHPWR connector from Intel.

Board of the MSI RTX 3090 Ti SUPRIM with PCIe 5.0 compliant power supply

Comparison of the high-resolution measurements and NVIDIA’s Boost

Let’s start with a typical 320 watt card in the form of the GeForce RTX 3080. And we remember that my investigations and technical submissions had also led NVIDIA to de facto “defuse” the driver in order to eliminate at least the biggest load peaks. With an initial power of up to almost 600 watts, this card was of course already a real load for the system and also the power supply. The largest ratio between the measured average power of 320 watts (2 minutes) and the relevant intervals around 100 µs was a maximum of 1.875. I will write something more about the ratio on the next page, because we need it for compliance with the standard.

Then NVIDIA counteracted with a “miracle driver”, but also had to let up a bit in performance. But even here we are still at up to 520 watts in the peak. The ratio between the average board power and the largest spikes (100 µs) was now a maximum of 1.625. But again, you don’t see any capping by the firmware, only a reduction of the load differences (“smoothing”), which is most likely achieved by a slightly lower voltage change curve.

And then came the GeForce RTX 3090 Ti. What I have always called the “playground” for NVIDIA’s new cards with the Ada chip starting in the fall is quite interesting, although it is not only limited to NVIDIA, but also includes AMD, which both sit on the PCI SIG board and can bring in their own demands and suggestions. So, the GeForce RTX 3090 Ti is actually the first graphics card ever that has to submit to the new standards of the PCIe 5.0 specification in terms of power consumption and supply.

 

Let’s now take a look at the measurement at just under 480 watts on average, where the load peaks are usually only at a maximum of 580 watts. The ratio of the relevant load peaks in the 100 µs interval is only 1.2, although the card is significantly thirstier! We also see a much more balanced curve and much fewer voltage dips.

If you now also compare the full load scenarios, such as a stress test, you can see the completely changed control behavior of the card. NVIDIA has improved the boost in the entire power supply. First, I analyzed the previous behavior using the GeForce RTX 3090 FE under constant steady load. After a short “transient phase”, we see a longer increase up to a capping limit, after which a complete power collapse occurs after it is reached and exceeded over time, before the whole thing repeats identically over and over again:

With the new card, we first see a somewhat slower increase (also in the GPU clock) over a very short period of time and then a very balanced, straight load curve until the usual downclocking. The intervals between the individual load sections have also become somewhat shorter, including the “pauses”. So we can see very well that NVIDIA’s control reacts significantly differently when all sensors and input monitoring of all 12-volt rails are included.

The lower “rule frenzy” will possibly have a somewhat negative impact on the achievable performance, but it also creates fewer stability problems in the surroundings. This is also absolutely necessary for the safe operation of such bolides with up to 600 watts of board power. What this now has to do with the PCI SIG and the standards for the 12VHPWR connector, which is also used for the first time, and what influence AMD and NVIDIA have equally had on this standardization, we’ll read on the next page.

Kommentar

Lade neue Kommentare

D
Denniss

Urgestein

1,525 Kommentare 551 Likes

Hmm, also ist die 3090Ti konform mit dem High-Power Standard oder nicht?
Die Beschreibung liest sich irgendwie als Bastellösung.

Antwort 1 Like

Martin Gut

Urgestein

7,814 Kommentare 3,591 Likes

Danke Igor für den tollen Artikel. Erst wenn man die Spezifikationen kennt, kann man auch darüber diskutieren. (y)

Wie man so ein Netzteil sinnvoll absichern soll, ist mir auch ein Rätsel. Ein kleiner Kurzschluss irgendwo im PC reicht nicht unbedingt um auszulösen, kann aber schon ein rechtes Gebrutzel veranstalten.

Ich vermute, da wird auch manche Wohnungssicherung vorher aussteigen. Der PC ist ja nicht das einzige, was in einer Wohnung Strom brauchen kann. Damit können sich dann die Elektriker herum schlagen. "Ihre Sicherung fällt dauernd raus? Ach, Sie haben einen PC. Na dann müssen Sie sich nicht wundern." :p

Antwort 3 Likes

grimm

Urgestein

3,085 Kommentare 2,040 Likes

@Igor Wallossek Der Part "Jetzt könnte man sich natürlich die Gegenfrage stellen, was eigentlich passiert, wenn man in zwei Jahren diese Karte dann an ein spezifiziertes Netzteil anschließt, dass die Grafikkarte nur noch als 450-Watt-Modell erkennen könnte. Wobei der Pin 1 für CARD_PWR_STABLE auch nicht belegt ist, so dass eine smarte Kommunikation mit einem Netzteil über das Power Budget gar nicht möglich wäre. So richtig endgültig ist der aktuelle Zustand also nicht, was wiederum eher auf die bereits so oft erwähnte Spielwiese hindeutet."
macht mir Sorgen. Das ist nämlich eine durchaus interessante Frage auf die wir ggf. in 1-2 Jahren nochmal zurück kommen.
Davon ab: Bevor du diese NT/GraKa Kombis nicht auf Herz und Nieren getestet hast, wird hier sowieso nix verändert.

Antwort Gefällt mir

grimm

Urgestein

3,085 Kommentare 2,040 Likes

Wir haben so Power Link Adapter - die reagieren aus Last im System relativ sensibel. Derlei Werte gehen damit garnicht konform.

Antwort Gefällt mir

Martin Gut

Urgestein

7,814 Kommentare 3,591 Likes

Seltsam, was heute noch als "smarte Kommunikation" verkauft wird. Da hat die Werbeabteilung wieder mal tolle Begriffe für veraltete Technik verwendet. Unter Kommunikation versteht man heute doch irgend eine Datenleitung wie USB mit der das Mainboard mit den Geräten Daten austauschen kann. 4 Leitungen um dann mit jeder Leitung nur eine Information zu schalten (fest verdrahtet) ist für mich Technik von vor hundert Jahren, aber sicher nicht aus der aktuellen PC-Technik. Stumpf einen Draht anlöten ist doch keine Kommunikation. Smart wäre beispielsweise wenn das Mainboard dem Netzteil im Voraus ankündigen würde, dass es bald mehr Leistung braucht und das Netzteil schon voraus darauf reagieren kann. Auf der anderen Seite könnte das Netzteil dem Mainboard mitteilen, wenn es Mühe hat die Spannung sauber zu halten. Dann könnte das Mainboard CPU und GPU etwas weniger aggressiv takten lassen und der PC würde stabiler laufen. Jedes Smarthome-Gerät und andere Elektrogeräte sind heute smarter, auch wenn es oft nicht nötig ist.

Antwort 2 Likes

ApolloX

Urgestein

1,674 Kommentare 951 Likes

Du kannst ohne Bedeutungsverluste heute jedes 'Smart' ersatzlos streichen.
Dieses Wort hat keine Bedeutung mehr.

Antwort Gefällt mir

Martin Gut

Urgestein

7,814 Kommentare 3,591 Likes

Ist eben ein Wort wie "Gaming"-Hardware. :)

Schon ein Lichtschalter ist smarter als diese Netzteilanschlüsse. Den kann man wenigstens schalten.

Antwort 2 Likes

RX480

Urgestein

1,881 Kommentare 873 Likes

Abwarten und Tee trinken,
wenn die neuen Grakas so gut regeln ist die 10ms-Spike-Last auf dem NT gar net so schlimm. (die Kondensatoren müssen +60% puffern können)
... wäre natürlich wünschenswert, wenn die CPU`s langfristig sparsamer würden, damits insgesamt net so viel wird
Glücklicherweise hat man beim Gamen meist net GPU+CPU maxed im Verbrauch.
(ein berufsmäßiger Contentkreator kann sich eeh ein großes NT leisten)

hatte Gestern schonmal ein Bsp von nem User aus dem Luxx gepostet
3090Ti FE + 5950X an nem Seasonic 700W

Antwort Gefällt mir

Megaone

Urgestein

1,747 Kommentare 1,646 Likes

Top Artikel. Sowas liest nur bei Igorslab. Danke.

Antwort 2 Likes

grimm

Urgestein

3,085 Kommentare 2,040 Likes

Die 300 Watt für die CPU waren für mich auch der größte "Aufreger" - so als Standard definiert...

Antwort Gefällt mir

Perdakles

Mitglied

43 Kommentare 20 Likes

Danke für den interessanten Artikel. Ich kann dem Trend "Immer mehr Kraft durch mehr Kraftstoff" auch nichts abgewinnen. Daran erkennt man wohl, dass die neuen Fertigungsprozesse nicht mehr genug Effizienzsteigerung liefern, um ausreichend große Leistungssprünge zu ermöglichen und die Kunden so zum Neukauf zu bewegen. Die erstarkte Konkurrenzsituation ist sicher ebenfalls ein Grund.
Btw.: Ich erkenne da eine dezente Sympathiebekundung mit der Ukraine in den Diagrammen 😁(y). Oder ist das reiner Zufall @Igor Wallossek?

Antwort Gefällt mir

Martin Gut

Urgestein

7,814 Kommentare 3,591 Likes

Die Grafiken sind teilweise schon 2 Jahre alt und haben schon immer so ausgesehen. Einer sinnvollen Neudeutung steht aber vielleicht nichts im Weg. ;)

Antwort Gefällt mir

A
Arcbound

Veteran

138 Kommentare 105 Likes

Kann es sein, dass hier die Netzteilhersteller die Quadratur des Kreises schaffen sollen? Auf der einen Seite die Überlastanforderungen, auf der anderen Seite Effizienzanforderungen, wie z.B. 80 Plus YYYY usw.? Ich bin (zum Glück) kein Elektrotechniker, aber in meinem Kopf stehen sich diese beiden Forderungen diametral gegenüber.

Antwort Gefällt mir

Martin Gut

Urgestein

7,814 Kommentare 3,591 Likes

Das sehe ich auch so. Um die geforderten Überlastspitzen abzudecken muss das Netzteil grosszügiger ausgelegt werden. Grössere Bauteile haben einen höheren Grundverbrauch. Ein Vorteil sind die hohen Ansprüche auf keinen Fall. Auch der Herstellungsaufwand ist grösser (aber bei der Effizienz nicht eingerechnet).

Etwas seltsam ist, so hohe Reserven zu verlangen und gleichzeitig die Lastspitzen der Karten zu beschränken. Bei den RTX 3080 und 3090 wären so hohe Spitzenabdeckungen wichtiger gewesen als mit den neuen Karten. Es ist ja möglich, die Lastspitzen der Grafikkarten und CPUs zu begrenzen. Das ist der sinnvollere Weg als grössere Netzteile zu verlangen.

Antwort Gefällt mir

Göran

Veteran

154 Kommentare 63 Likes

Na ja, schau dir mal die PL2-Werte bei aktuellen Intel CPU's an. Die Dauer die Intel dafür veranschlagt ist auch mehr als eine Lastspitze. TDP kannste unter diesen Umständen als Basis für die Netzteil-Kalkulation vergessen.
Bisher haben ja Leute wie Igor auf Basis von Messungen Empfehlungen für die Dimensionierung eines Netzteils gegeben. Das hat Intel jetzt selbst gemacht und noch ein bisschen Luft nach oben eingebaut für zukünftige Hitzköpfe.
Krass ist halt welche Intervalle (Duty Cycles) die für die "Spitzen" veranschlagen ... das ist schon eine Mogelpackung, wenn eine CPU wirklich über längere Zeit alles gibt (oder nimmt), was sie darf.
Bin gespannt wie sich das auch auf die zukünftige Kühlung auswirkt.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung