Grafikkarten Grundlagenartikel Redaktion Testberichte VGA

NVIDIAs und AMDs Forderungen an die PCI SIG für die neuen 600 Watt Grafikkarten – Grenzen, erlaubte Überschreitung und Lastspitzen | Exklusiv

Sind die 600 Watt wirklich das obere Ende oder wo liegen die Toleranzbereiche für die kurzzeitige Überschreitung der Normen? Und warum zeigt die GeForce RTX 3090 Ti plötzlich ein völlig anderes Verhalten unter Volllast? Genau diese Fragen werde ich heute beantworten, denn spätestens der Test der GeForce RTX 3090 Ti hat (wohl nicht nur) mich neugierig gemacht und nein, es ist KEIN Aprilscherz. Um das Ganze samt der internen Informationen überhaupt zu zu verstehen, benötigen wir natürlich auch hochauflösende Messungen im Mikrosekundenbereich und den passenden Vorher-Nachher-Vergleich. Erst danach werden wir auch die neuen Normen für die Erweiterungskarten zwischen 300 und 600 Watt Leistungsaufnahme verstehen, bei denen sich beide GPU-Hersteller bereits vor einem Jahr sehr intensiv eingebracht haben. Interessanterweise ist bei der Normierung des 12VHPWR-Anschlusses von Intel nichts zu lesen.

Platine der MSI RTX 3090 Ti SUPRIM mit PCIe 5.0 konformer Spannungsversorgung

Vergleich der hochauflösenden Messungen und NVIDIAs Boost

Beginnen wir zunächst mit einer typischen 320-Watt-Karte in Form der GeForce RTX 3080. Und wir erinnern uns, dass auch meine Untersuchungen und technischen Einlassungen dazu geführt hatten, dass NVIDIA den Treiber de facto „entschärft“ hat, um wenigstens die größten Lastspitzen zu beseitigen. Mit anfänglich bis zu knapp 600 Watt war diese Karte natürlich schon eine echte Belastung für das System und auch das Netzteil, die größte Ratio zwischen der gemessenen Durchschnittsleistung von 320 Watt (2 Minuten) und den relevanten Intervallen um die 100 µs lag bei maximal 1.875. Zur Ratio schreibe ich auf der nächsten Seite noch etwas, denn die benötigen wir für die Normeinhaltung.

Dann hatte NVIDIA mit einem „Wundertreiber“ gegengesteuert, musst aber auch etwas an Performance liegen lassen. Aber auch hier sind wir in der Spitze noch bei bis zu 520 Watt. Die Ratio zwischen der durchschnittlichen Board-Power den größten Spikes (100 µs) lag nun bei maximal 1.625. Aber auch hier sieht man keine Kappung durch die Firmware, sondern nur eine Reduzierung der Lastunterschiede („Glättung“), die man höchstwahrscheinlich durch eine etwas geringere Spannungswechsel-Kurve erreicht.

Und dann kam die GeForce RTX 3090 Ti. Das, was ich im Vorfeld immer als „Spielwiese“ für NVIDIAs neue Karten mit dem Ada-Chip ab Herbst bezeichnet habe, ist durchaus interessant, wobei es sich ja nicht nur auf NVIDIA beschränkt, sondern auch AMD mit einbezieht, die beide im Gremium der PCI SIG sitzen und ihre eigenen Forderungen und Vorschläge einbringen können. Die GeForce RTX 3090 Ti ist also eigentlich die erste Grafikkarte überhaupt, die sich in Bezug auf die Leistungsaufnahme und Versorgung den neuen Normen der PCIe 5.0 Spezifikation unterwerfen muss.

 

Werfen wir nun noch einen Blick auf die Messung bei knapp 480 Watt im Durchschnitt, wo die Lastspitzen meist nur bei maximal 580 Watt liegen. Die Ratio der relevanten Lastspitzen im 100 µs Intervall liegt nur noch bei  1.2, obwohl die Karte deutlich durstiger ist! Wir sehen auch einen deutlich ausgeglicheneren Kurvenverlauf und viel weniger Spannungseinbrüche.

Vergleicht man nun noch die Volllast-Szenarien wie z.B. einen Stresstest, dann erkennt man das komplett geänderte Regelverhalten der Karte. Hier hat NVIDIA am Boost in der gesamten Spannungsversorgung ordentlich gefeilt. Zunächst habe ich das bisherige Verhalten anhand der GeForce RTX 3090 FE unter konstanter Dauerlast analysiert. Wir sehen nach einer kurzen „Einschwingphase“ einen längeren Anstieg bis zu einer Kappungsgrenze, nach deren Erreichen und zeitlichen Überschreitung ein kompletter Leistungseinbruch erfolgt, bevor sich das Ganze immer und immer wieder identisch wiederholt:

Bei der neuen Karte sehen wir, auf einem sehr kurzen Zeitabschnitt, erst einmal einen etwas langsameren Anstieg (auch beim GPU-Takt) und danach jedoch einen sehr ausgeglichenen, geraden Lastverlauf bis zum üblichen Heruntertakten. Auch die Intervalle zwischen den einzelnen Lastabschnitten sind etwas kürzer geworden, einschließlich der „Pausen“. Wir sehen also sehr gut, dass NVIDIAs Regelung unter Einbeziehung aller Sensoren und der Eingangsüberwachung aller 12-Volt-Rails deutlich anders reagiert.

Die geringere „Regelwut“ wird sich unter Umständen etwas negativ auf die erreichbare Performance auswirken, schafft aber im Umfeld dafür auch weniger Stabilitätsprobleme. Das ist wiederum für den sicheren Betrieb solcher Boliden mit bis zu 600 Watt Board-Power auch zwingend notwendig. Was das jetzt mit der PCI SIG und den Normen für den erstmals auch benutzten 12VHPWR-Stecker zu tun hat und welchen Einfluss AMD und NVIDIA gleichermaßen auf diese Normierung genommen haben, das lesen wir auf der nächsten Seite.

Lade neue Kommentare

D
Denniss

Urgestein

1,036 Kommentare 291 Likes

Hmm, also ist die 3090Ti konform mit dem High-Power Standard oder nicht?
Die Beschreibung liest sich irgendwie als Bastellösung.

Antwort 1 Like

M
Martin Gut

Urgestein

5,325 Kommentare 2,053 Likes

Danke Igor für den tollen Artikel. Erst wenn man die Spezifikationen kennt, kann man auch darüber diskutieren. (y)

Wie man so ein Netzteil sinnvoll absichern soll, ist mir auch ein Rätsel. Ein kleiner Kurzschluss irgendwo im PC reicht nicht unbedingt um auszulösen, kann aber schon ein rechtes Gebrutzel veranstalten.

Ich vermute, da wird auch manche Wohnungssicherung vorher aussteigen. Der PC ist ja nicht das einzige, was in einer Wohnung Strom brauchen kann. Damit können sich dann die Elektriker herum schlagen. "Ihre Sicherung fällt dauernd raus? Ach, Sie haben einen PC. Na dann müssen Sie sich nicht wundern." :p

Antwort 3 Likes

grimm

Urgestein

1,931 Kommentare 1,069 Likes

@Igor Wallossek Der Part "Jetzt könnte man sich natürlich die Gegenfrage stellen, was eigentlich passiert, wenn man in zwei Jahren diese Karte dann an ein spezifiziertes Netzteil anschließt, dass die Grafikkarte nur noch als 450-Watt-Modell erkennen könnte. Wobei der Pin 1 für CARD_PWR_STABLE auch nicht belegt ist, so dass eine smarte Kommunikation mit einem Netzteil über das Power Budget gar nicht möglich wäre. So richtig endgültig ist der aktuelle Zustand also nicht, was wiederum eher auf die bereits so oft erwähnte Spielwiese hindeutet."
macht mir Sorgen. Das ist nämlich eine durchaus interessante Frage auf die wir ggf. in 1-2 Jahren nochmal zurück kommen.
Davon ab: Bevor du diese NT/GraKa Kombis nicht auf Herz und Nieren getestet hast, wird hier sowieso nix verändert.

Antwort Gefällt mir

Klicke zum Ausklappem
grimm

Urgestein

1,931 Kommentare 1,069 Likes

Wir haben so Power Link Adapter - die reagieren aus Last im System relativ sensibel. Derlei Werte gehen damit garnicht konform.

Antwort Gefällt mir

M
Martin Gut

Urgestein

5,325 Kommentare 2,053 Likes

Seltsam, was heute noch als "smarte Kommunikation" verkauft wird. Da hat die Werbeabteilung wieder mal tolle Begriffe für veraltete Technik verwendet. Unter Kommunikation versteht man heute doch irgend eine Datenleitung wie USB mit der das Mainboard mit den Geräten Daten austauschen kann. 4 Leitungen um dann mit jeder Leitung nur eine Information zu schalten (fest verdrahtet) ist für mich Technik von vor hundert Jahren, aber sicher nicht aus der aktuellen PC-Technik. Stumpf einen Draht anlöten ist doch keine Kommunikation. Smart wäre beispielsweise wenn das Mainboard dem Netzteil im Voraus ankündigen würde, dass es bald mehr Leistung braucht und das Netzteil schon voraus darauf reagieren kann. Auf der anderen Seite könnte das Netzteil dem Mainboard mitteilen, wenn es Mühe hat die Spannung sauber zu halten. Dann könnte das Mainboard CPU und GPU etwas weniger aggressiv takten lassen und der PC würde stabiler laufen. Jedes Smarthome-Gerät und andere Elektrogeräte sind heute smarter, auch wenn es oft nicht nötig ist.

Antwort 2 Likes

Klicke zum Ausklappem
ApolloX

Urgestein

706 Kommentare 339 Likes

Du kannst ohne Bedeutungsverluste heute jedes 'Smart' ersatzlos streichen.
Dieses Wort hat keine Bedeutung mehr.

Antwort Gefällt mir

M
Martin Gut

Urgestein

5,325 Kommentare 2,053 Likes

Ist eben ein Wort wie "Gaming"-Hardware. :)

Schon ein Lichtschalter ist smarter als diese Netzteilanschlüsse. Den kann man wenigstens schalten.

Antwort 2 Likes

RX480

Urgestein

894 Kommentare 477 Likes

Abwarten und Tee trinken,
wenn die neuen Grakas so gut regeln ist die 10ms-Spike-Last auf dem NT gar net so schlimm. (die Kondensatoren müssen +60% puffern können)
... wäre natürlich wünschenswert, wenn die CPU`s langfristig sparsamer würden, damits insgesamt net so viel wird
Glücklicherweise hat man beim Gamen meist net GPU+CPU maxed im Verbrauch.
(ein berufsmäßiger Contentkreator kann sich eeh ein großes NT leisten)

hatte Gestern schonmal ein Bsp von nem User aus dem Luxx gepostet
3090Ti FE + 5950X an nem Seasonic 700W

Antwort Gefällt mir

Megaone

Veteran

495 Kommentare 394 Likes

Top Artikel. Sowas liest nur bei Igorslab. Danke.

Antwort 2 Likes

grimm

Urgestein

1,931 Kommentare 1,069 Likes

Die 300 Watt für die CPU waren für mich auch der größte "Aufreger" - so als Standard definiert...

Antwort Gefällt mir

P
Perdakles

Mitglied

19 Kommentare 6 Likes

Danke für den interessanten Artikel. Ich kann dem Trend "Immer mehr Kraft durch mehr Kraftstoff" auch nichts abgewinnen. Daran erkennt man wohl, dass die neuen Fertigungsprozesse nicht mehr genug Effizienzsteigerung liefern, um ausreichend große Leistungssprünge zu ermöglichen und die Kunden so zum Neukauf zu bewegen. Die erstarkte Konkurrenzsituation ist sicher ebenfalls ein Grund.
Btw.: Ich erkenne da eine dezente Sympathiebekundung mit der Ukraine in den Diagrammen 😁(y). Oder ist das reiner Zufall @Igor Wallossek?

Antwort Gefällt mir

M
Martin Gut

Urgestein

5,325 Kommentare 2,053 Likes

Die Grafiken sind teilweise schon 2 Jahre alt und haben schon immer so ausgesehen. Einer sinnvollen Neudeutung steht aber vielleicht nichts im Weg. ;)

Antwort Gefällt mir

A
Arcbound

Mitglied

35 Kommentare 17 Likes

Kann es sein, dass hier die Netzteilhersteller die Quadratur des Kreises schaffen sollen? Auf der einen Seite die Überlastanforderungen, auf der anderen Seite Effizienzanforderungen, wie z.B. 80 Plus YYYY usw.? Ich bin (zum Glück) kein Elektrotechniker, aber in meinem Kopf stehen sich diese beiden Forderungen diametral gegenüber.

Antwort Gefällt mir

M
Martin Gut

Urgestein

5,325 Kommentare 2,053 Likes

Das sehe ich auch so. Um die geforderten Überlastspitzen abzudecken muss das Netzteil grosszügiger ausgelegt werden. Grössere Bauteile haben einen höheren Grundverbrauch. Ein Vorteil sind die hohen Ansprüche auf keinen Fall. Auch der Herstellungsaufwand ist grösser (aber bei der Effizienz nicht eingerechnet).

Etwas seltsam ist, so hohe Reserven zu verlangen und gleichzeitig die Lastspitzen der Karten zu beschränken. Bei den RTX 3080 und 3090 wären so hohe Spitzenabdeckungen wichtiger gewesen als mit den neuen Karten. Es ist ja möglich, die Lastspitzen der Grafikkarten und CPUs zu begrenzen. Das ist der sinnvollere Weg als grössere Netzteile zu verlangen.

Antwort Gefällt mir

Göran

Veteran

116 Kommentare 43 Likes

Na ja, schau dir mal die PL2-Werte bei aktuellen Intel CPU's an. Die Dauer die Intel dafür veranschlagt ist auch mehr als eine Lastspitze. TDP kannste unter diesen Umständen als Basis für die Netzteil-Kalkulation vergessen.
Bisher haben ja Leute wie Igor auf Basis von Messungen Empfehlungen für die Dimensionierung eines Netzteils gegeben. Das hat Intel jetzt selbst gemacht und noch ein bisschen Luft nach oben eingebaut für zukünftige Hitzköpfe.
Krass ist halt welche Intervalle (Duty Cycles) die für die "Spitzen" veranschlagen ... das ist schon eine Mogelpackung, wenn eine CPU wirklich über längere Zeit alles gibt (oder nimmt), was sie darf.
Bin gespannt wie sich das auch auf die zukünftige Kühlung auswirkt.

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung