Grundlagenartikel Praxis Testberichte

NVIDIA GeForce RTX 5080 und mögliche Hotspot-Probleme auf der Platine – Ursachen und Workaround

Es ist wichtig zu betonen, dass dieser Bericht keine Sensationsdarstellung anstrebt, sondern als Anregung für Hersteller verstanden werden soll, der thermischen Belastung von Platinen mehr Aufmerksamkeit zu widmen. Namentliche Nennungen einzelner Boardpartner erfolgen nicht, da dieses Problem bei nahezu allen Einstiegskarten aller Hersteller in ähnlicher Form auftritt. Die Ausprägung des Hotspots kann durch ein gut abgestimmtes aktives Kühlsystem zwar abgemildert werden, lässt sich jedoch nicht vollständig eliminieren. Ziel ist es daher, aufzuzeigen, wie durch konstruktive Anpassungen die thermische Effizienz verbessert und die Belastung der Bauteile langfristig reduziert werden kann.

In diesem Artikel wird ein thermischer Hotspot thematisiert, der durch die kompakte Anordnung von zehn Spannungswandlern für NVVDD entsteht. Diese Spannungswandler sind auf der Platine sehr dicht beieinander positioniert, wodurch die Leiterbahnen mit der erzeugten Spannung auf engstem Raum zur GPU geführt werden müssen. Besonders betroffen sind Platinen, die stark an das Referenzdesign angelehnt sind und auf eine elfte Phase für NVVDD verzichten. In solchen Fällen kann eine nicht optimal ausgelegte Kühlung der Spannungswandler (VRM) sowie der Verzicht auf eine passive Kühlung der Platinenrückseite zu einer unerwünschten thermischen Belastung führen. Der Fokus dieses Artikels liegt darauf, die technischen Hintergründe dieses Problems zu erläutern und mögliche Optimierungsansätze aufzuzeigen. Vor allem für die “günstigeren” Karten (wenn man von der Preisen der RTX 5080 ausgeht) bis hin zu den Karten, die die Hersteller auf Weisung NVIDIAs maximal zur UVP anbieten müssen.

Ausgangspunkt der Untersuchung

Betrachten wir nun eine Platine, die sich stark an das Referenzdesign anlehnt und mit insgesamt 17 Phasen ausgestattet ist: 10 Phasen für NVVDD, 4 Phasen für MSVDD und 3 Phasen für FBVDD. Ein Großteil des maximalen Power Limits von 400 Watt entfällt dabei auf die 10 Phasen für NVVDD. Zur Veranschaulichung dieses Sachverhalts zeige ich eine Projektion des gemessenen Hotspots samt Topologie. Diese wird im weiteren Verlauf durch Superpositions-Bilder der Thermografie der Platinenrückseite ergänzt, um die gemessenen Daten zu belegen. Diese Einführung ist wichtig, um das thermische Verhalten und die zugrunde liegenden Ursachen besser zu verstehen.

NVVDD ist die Spannungsversorgung für die GPU-Kerne selbst und stellt somit den Hauptstromverbraucher dar. MSVDD versorgt die Speicherchips der GPU, während FBVDD für die Versorgung der Framebuffer (Videospeicher) verantwortlich ist. Da NVVDD den größten Anteil der Leistungsaufnahme hat, ist dieser Bereich besonders anfällig für thermische Probleme. Eng zusammenliegende Leiterbahnen (Tracks) in der Platine können zu erhöhten Temperaturen führen, insbesondere wenn hohe Ströme fließen. Der elektrische Widerstand der Leiterbahnen erzeugt Wärme, wenn Strom hindurchfließt. In kompakten Designs, in denen wenig Platz für eine ausreichende Verteilung der Ströme vorhanden ist, kann sich diese Wärme an bestimmten Punkten konzentrieren und zu Hotspots führen. Diese Hotspots beeinträchtigen nicht nur die Effizienz der Spannungswandler, sondern können auch langfristig die Lebensdauer der Komponenten negativ beeinflussen. Eine optimierte Verteilung der Leiterbahnen und eine verbesserte Kühlung sind daher entscheidend, um solche thermischen Probleme zu minimieren.

Ein kurzes Vorwort zur Kühlung der Spannungswandler und der betroffenen Flächen

Die effiziente Kühlung von Spannungswandlern (VRM) und Spulen ist ein zentraler Aspekt im Design moderner Platinen, insbesondere bei Hochleistungs-Grafikkarten, vor allem dann, wenn man wie bei NVIDIA versucht, alles auf engstem Raum zusammen zu quetschen. Mir gefällt dieser Trend übrigens überhaupt nicht und es ist schade, dass sich die Boardpartner hier so hündisch unterwerfen. VRMs sind dafür verantwortlich, die Spannung aus der Stromquelle in die für die GPU oder CPU erforderlichen Werte umzuwandeln. Diese Spannungswandlung erzeugt durch ihre Verluste natürlich auch Wärme, die, wenn sie nicht effektiv abgeführt wird, im Gegenzug wiederum die Effizienz der Bauteile beeinträchtigt (und für noch mehr Wärme sorgt) und die Lebensdauer der Komponenten (auch im direkten räumlichen Umfeld) verkürzen kann. Spulen, die als Teil der VRM-Schaltung fungieren, sind ebenfalls von thermischen Belastungen betroffen, da sie bei hohen Strömen ebenfalls erhebliche Wärmemengen erzeugen.

Ein häufig verwendetes Mittel zur Kühlung dieser Bauteile sind Wärmeleitpads, die die Wärme von den VRMs und Spulen auf die Kühlkörper übertragen. Aber nicht nur die Wahl des richtigen Wärmeleitpads ist hierbei entscheidend, sondern in erster Linie die Spaltmaße. Wärmeleitpads mit einer Stärke von 3 mm werden oft und gern verwendet, können jedoch aufgrund ihres erhöhten Wärmewiderstands kontraproduktiv sein. Der Wärmewiderstand eines Wärmeleitmaterials hängt ja nicht nur von der thermischen Leitfähigkeit des Materials selbst ab, sondern eben auch von der Dicke des Pads. Dickere Pads führen zu einem längeren Weg, den die Wärme zur Ableitung zurücklegen muss, was die Effizienz der Wärmeübertragung erheblich reduziert.

Ein weiterer Faktor, den ich gerade ansprach, ist das Design der Kühlung selbst. Hersteller verwenden oft große Spaltmaße zwischen den Bauteilen und den Kühlkörpern, auch um die Produktion kostengünstiger zu gestalten. Diese größeren Abstände ermöglichen es den Herstellern neben einer großzügigen Toleranzgrenze zudem, bei Bedarf flexibel auf andere Modelle von Kondensatoren oder Spulen auszuweichen, ohne das Design grundlegend ändern zu müssen. Dies kann zwar die Fertigungskosten senken und die Flexibilität erhöhen, führt jedoch zu suboptimalen thermischen Bedingungen. Und dann kommt dazu noch die Wahl unzweckmäßiger Pads. Betrachten wir hierfür einmal die exemplarische Messung so eines 3-mm-Pads:

Weiche Wärmeleitpads erreichen ihre optimale Performance erst, wenn sie beim Zusammenpressen auf mindestens zwei Drittel ihrer ursprünglichen Ausgangsstärke verdichtet werden. Im Beispiel oben sind es sogar weniger als 60 Prozent! Der Grund dafür liegt in der physikalischen Struktur dieser Pads, die aus einem weichen, kompressiblen Material bestehen, das sich an die Oberflächenunregelmäßigkeiten der Bauteile und Kühlkörper anpasst. Durch das Zusammendrücken wird der Kontaktwiderstand zwischen den Flächen reduziert, da Lufttaschen und Unebenheiten minimiert werden. Diese Verdichtung fördert eine bessere Wärmeleitung, da das Material dichter wird und der direkte Kontakt zwischen den Oberflächen verbessert wird.

Oftmals werden jedoch Wärmeleitpads verwendet, die für geringere Anpressdrücke nicht geeignet sind. Diese Pads entfalten bei unzureichendem Druck nicht ihre volle Leitfähigkeit, was zu einem deutlich erhöhten Wärmewiderstand führt. In vielen Messungen zeigt sich, dass der Wärmewiderstand bei zu wenig Druck stark ansteigt, was die Kühlleistung erheblich beeinträchtigt. Dies ist besonders problematisch, wenn Hersteller Pads einsetzen, die zwar eine hohe nominelle Wärmeleitfähigkeit aufweisen, jedoch nicht für die tatsächlichen mechanischen Gegebenheiten geeignet sind. Die Auswahl des richtigen Pads muss daher nicht nur die Materialeigenschaften, sondern auch die Anpressbedingungen berücksichtigen, um eine effektive Wärmeübertragung sicherzustellen. Genau da sind aber die Hersteller gefragt, die sich nicht vom OEM solcher Materialien das Ohr abkauen lassen dürfen, sondern zielgereichtet und gnadenlos selektieren müssen, was einen Sinn ergibt.

Ein Hotspot, der eigentlich überflüssig ist

In vielen Fällen wären deutlich dünnere Pads oder Wärmeleitpasten, die einen dann geringeren Spalt zwischen Bauteil und Kühlkörper füllen, eine effektivere Lösung. Eine unzureichende Wärmeableitung kann zu Überhitzung, Drosselung der Leistung (Thermal Throttling) und letztlich zu einem frühzeitigen Ausfall der Bauteile führen. Daher ist es für Hersteller und Endnutzer gleichermaßen wichtig, die Kühlung der VRMs und Spulen nicht nur hinsichtlich der Materialqualität, sondern auch der physikalischen Eigenschaften der eingesetzten Kühllösungen zu optimieren. Macht man das nicht, dann passiert genau das hier:

Jetzt sind 80 °C natürlich noch nicht der Weltuntergang, deshalb auch meine bewusste Relativierung in der Einleitung des heutigen Artikels, aber: Ich habe das in einem vollklimatisieren Raum (21 °C) im offenen Aufbau gemessen und NICHT im geschlossenen Gehäuse. Genau das habe ich mittels einen angeklebten K-Widerstandes in einem kleinerem Gehäuse in Form des Thermaltake Tower 300  kurz überprüft. Mal abgesehen davon, das hängend montierte Grafikkarten in so einem Gehäuse eh schon mit der Materie und sich selbst zu kämpfen haben, sind dann rund 100 °C auf Dauer bereits deutlich zu viel und kein positiver Faktor für das Erreichen der gewünschten Lebenserwartung der Komponenten. Das darf einfach nicht sein!

Dass viele Hersteller thermisch scheinbar keinen richtigen Plan haben, wo es heiß wird, zeigt das nächste Beispiel einer unlängst getesteten GeForce RTX 5080 aus dem teureren Regal, deren VRMs dann natürlich perfekt gekühlt werden, aber wo man das Pad ohne echte Tests einfach dorthin positioniert hat, wo man es seit Jahren schon hinklebt. Hinterfragt hat das offensichtlich niemand, auch wenn es bei der aktuellen Karte im wahrsten Sinne des Wortes deplatziert wirkt (denn dann hätte man es auch gleich weglassen können):

Zwischenfazit

In vielen Fällen lassen sich thermische Hotspots weiter entzerren und abmildern, wenn die betroffenen Bereiche zusätzlich passiv über die Platinenrückseite mitgekühlt werden. Durch das Anbringen von Wärmeleitpads auf der Rückseite kann die Wärme gleichmäßiger verteilt und auch effizienter über die Backplate abgeführt werden. Diese Methode nutzt somit die zusätzliche Fläche der Platinenrückseite, um die Wärmeableitung zu verbessern und die Temperaturbelastung der VRMs und Spulen zu reduzieren. Insbesondere bei kompakten Designs, in denen die Vorderseite der Platine bereits stark ausgelastet ist, kann die Rückseitenkühlung einen entscheidenden Beitrag zur thermischen Stabilität leisten. Genau das wird dann heute auch noch einmal thematisiert und Teil meiner Untersuchungen sein. Nach dem Umblättern!

120 Antworten

Kommentar

Lade neue Kommentare

Feen-Schubser

Veteran

197 Kommentare 104 Likes

Das gute HT10000 da wäre sogar Angus neidisch.
Aber ist nur geraten. 🫣

Ich habe eine 5080 bekommen.
MSI GeForce RTX™ 5080 16G VENTUS 3X OC PLUS
Da ist der Kühler schon nicht so dick und jetzt das.

Da ist man fast geneigt sie zurück zuschicken (ist ungeöffnet) und auf die 5070 oder so zu warten.

Dankeschön für den Artikel.

Antwort Gefällt mir

Igor Wallossek

1

11,880 Kommentare 23,302 Likes

Hunan Feihongda LTP81, ist aber auch gut :)

Antwort 2 Likes

Hans Yolo

Veteran

141 Kommentare 44 Likes

Gut nach dem Bericht vom 8auer, hatten die Partner gar keine Möglichkeit das Ding mit richtigen Treibern und effektive Abwärme richtig zu testen….

Die verlassen sich wihl darauf dass Nvidia schon weiss was die tun, darum heisst es Referenzdesign, da müsste ja die Anweisung kommen, dass man die sicherstellen sollte dass die Backplate richtig angebunden ist, oder es ist denen einfCh egal 😅

Antwort 2 Likes

Widukind

Urgestein

614 Kommentare 282 Likes

Verstehe nicht, dass diese Probleme nicht schon in den hauseigenen Tests auffallen.

Und warum werden da eigentlich kein Kupferheatpipes verbaut -löst jetzt nicht das Problem, wo gar keine Kühlkontakt war, aber ist auch unnötig.

Antwort Gefällt mir

Igor Wallossek

1

11,880 Kommentare 23,302 Likes

Naja. das ist so auch nicht ganz korrekt.

Die Boardpartner bekommen bereits zusammen mit den ersten Engineering Samples einen Rumpftreiber, mit dem z.B. Furmark und ein spezieller 3DMark laufen. Testen können die also schon ewig. Außerdem gibts zum Referenzdesign bereits in der Planungsphase einen Thermal Design Guide, in dem jedes Bauteil samt zu erwartender Verlustleistung aufgelistet ist. Dazu kommt sogar eine Aufstellung der Verluste in den Leiterplatten samt Abwärme. Bitte nicht immer alles glauben, was auf YT gesagt wird. :)

Ich habe bereits mehrere Male über NVIDIAs internes Greenlight Program zur Qualitätssicherung (und Gängelung) geschrieben. Da wird NICHTS dem Zufalll überlassen. Eigentlich... :D

Allerdings muss man auch klar sehen, dass die R&D macher Grafikkartenhersteller nicht wirklich zweckmäßig ausgerüstet sind. Ich habe seinerzeit meinem guten Bekannten (Gigabyte R&D und Chef der RMA) die Thermografie erklärt, nähergebracht und gezeigt wie man das richtig nutzt (bis hin zum Lack für die Tropikalisierung). Die haben sich dann was von Zeiss gekauft, was auf meinem Standard war, weil meine Kamera auf der Embargo-Liste steht. Im R&D von PC-Partner (u.a. Zotac) war das hingegen noch wie im Mitelalter. Angeklebte Widerstände und maximal ein FLIR-Handheld für 1500 Euro und dazu noch komplett falsch bedient. Aber sie hatten dort wenigstens schon Hotboxen für thermal tests. :D

Antwort 7 Likes

Klicke zum Ausklappem
F
Falcon

Veteran

149 Kommentare 161 Likes

War positiv überrascht als ich bei den Jungs von Techpowerup das Review zur Gigabyte RTX 5080 Gaming OC gelesen habe.
Die Verwenden auf der Karte auch Putty.

View image at the forums

Meines Wissens nach hat bisher nur EVGA Putty auf den Karten ab Werk eingesetzt.

@Igor Wallossek

Würde Thermal Putty auf der Vorderseite, direkt auf den VRM´s die Temperatur nochmal deutlich verbessern?

Antwort Gefällt mir

Igor Wallossek

1

11,880 Kommentare 23,302 Likes

Zufälle gibts.... siehe Post oben ;)

Putty ist nicht gleich Putty. Intel nimmt z.B. eine Art Semi-Putty, also leicht gepresstes, etwas trockeneres Material. Da ist haltbarer und ölt nicht aus. Die Karte von Gigabyte würde ich gern noch einmal als Retail-Karte sehen. Mir haben sie immer handmontierte Golden Samples aus der PVT-Phase geschickt. Solche Tests mache ich nicht mehr, nachdem ich das mal mitbekommen habe. :D

Honeywell hat auch Putty in Pad-Form, das keine Fäden zieht. Kostet halt ein paar Cent mehr :D

Antwort 4 Likes

B
Berny

Mitglied

38 Kommentare 16 Likes

Wurden die elektrischen Leitungen eventuell benachbart geführt um die elektromagnetische Verträglichkeit zu verbessern? Bzw. die elektromagnetische Störung lokal zu begrenzen?

Antwort Gefällt mir

d
daddler

Neuling

8 Kommentare 2 Likes

Am Vergleichsfoto scheint es so, als wäre die Temperatur "Connector" um 6 Grad gestiegen... ??? Von moderaten 44 Grad auf reichlich 50 Grad. WIe kann das sein? Oder wurde tatsächlich nicht die Temp am Connector gemessen sondern an der Backplate, die ja nun quasi als Kühlkörper dient?

Antwort Gefällt mir

M
MGFirewater

Veteran

210 Kommentare 86 Likes

@Igor Wallossek auch wenn du keine hersteller/modelle nennen willst, was ich verstehe. kannst du den spies nicht umdrehen und sagen welche modelle 11 spannungwandler haben.

Antwort Gefällt mir

Igor Wallossek

1

11,880 Kommentare 23,302 Likes

Backplate. Unterm Connector ist auch Putty, alte Gewohnheit. Vergessen zu erwähnen. 🤦

Antwort Gefällt mir

Igor Wallossek

1

11,880 Kommentare 23,302 Likes
M
MGFirewater

Veteran

210 Kommentare 86 Likes

ich wollte mir die msi inspire holen, die ist noch gar nicht im handel gewesen,
die uvp liegt laut cb mit 1399€ über den 1169€, in den Spezifikationen wird aber leider gar nicht auf das thema spannungsversorgung eingegangen

ergänzung: ich frage mich z.B., ob der usvp aufpreis von 200€ für die ventus PLUS vs ventus (ohne) plus, wirklich einen Unterschied bei der Spannungsversorgung bedeutet, oder ob nur der kühler verfeinert ist.

ergänzung 2: laut reddit hat die plus 6 heatpipes, die non plus nur 4. Das tdp-limit des kühler soll 400w betragen.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

1

11,880 Kommentare 23,302 Likes

Die Karten mit 10 Wandlern gehen auch, wenn der Kühler taugt. 🙂

Antwort 1 Like

R
RazielNoir

Urgestein

571 Kommentare 270 Likes

@Igor Wallossek

Einen wichtigen Punkt, der auch eine Rolle spielt, hast du vergessen zu erwähnen:

- Würde die CPU nicht diese Menge an Energie benötigen, sind alle nachgelagerten Problemstellungen weniger stark relevant.

Es darf durchaus mal wieder Richtung AMD, Intel & Co. das Bewusstsein dafür geweckt werden, das nicht nur die Energieeffizienz, sondern auch die Energiegesamtbedarfsmenge reduziert werden darf! Und gerade bei Intels neuen Ultra CPU's finde ich es einen wichtigen Schritt in die richtige Richtung, wenn eine annähernd gleiche Leistung zu jeweiligen Vormodell erreicht wird, bei weniger Gesamtenergieaufnahme. Das ist auch Fortschritt, nur eben nicht Leistungsmäßig.

Um mal wieder einen Autovergleich zu bemühen:
- Mein ZX von 1990 hat mit 163 PS aus 2.0L Hubraum mehr Benzin benötigt als mein aktueller Ford Focus Turnier BJ. 2014 mit 150PS bei annähernd gleichen Fahrleistungen (Beschleunigung 0-100/60-100), bei mehr Fahrzeuggewicht, besserer Ausstattung und Sicherheit. Brauch ich mehr Leistung? Nein. Will ich mehr Leistung? Ja, aber da schlägt die Emotion die Vernunft.

Wir finden Mining wegen der sinnlosen Ernergieverschwendung doof, kaufen aber fleissig PC-Technik, die mittlerweile ein vielfaches an Energie braucht, als noch vor ein paar Jahren....

Antwort 1 Like

Klicke zum Ausklappem
big-maec

Urgestein

1,001 Kommentare 596 Likes

NVIDIAs Minimierungswahn wird die Kompromisslösung zu immer höheren Geschwindigkeiten auf den Leiterbahnen sein und lange Leiterbahnen verursachen wieder andere Probleme.

Antwort Gefällt mir

d
daddler

Neuling

8 Kommentare 2 Likes

OMG...
Die Anforderung an ein Fahrzeug ist aber noch immer die gleiche wie 1990: Von A nach B kommen.
Das schaffst du heute in derselben Zeit mit dem 11 Jahre alten Focus, wie vor 35 Jahren mit dem ZX. Nur mit weniger Treibstoff.
Ich bin überzeugt, dass die 1990 komplexesten Rechenaufgaben für PCs die heutigen CPUs mit einem Bruchteil der Energie in ebenfalls einem Bruchteil der Zeit erledigen können. Also da hat sich bestimmt mehr getan als auf dem Motor-Sektor.
Was deinen Vergleich unfair macht ist nämlich die Tatsache, dass sich die Anforderungen an heutige Rechner vervielfacht haben, während die simple Aufgabe eines PKWs seit Erfindung sich nur marginal verändert hat.
Auf einem Rechner von 1990 bekommst du ein aktuelles Windows System gar nicht erst zum Laufen.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,331 Kommentare 1,512 Likes

Wie gut oder schlecht ist denn die Wärmeabfuhr über das Substrat der Platine bei den heutigen Karten? Durch geeignete Beimengungen kann ja zB Epoxidharz zum einigermaßen brauchbaren Wärmeleiter werden, ohne daß es elektrisch leitend wird oder auch die mechanische Festigkeit beeinträchtigt wird. Wird das beim Design dieser GPUs einbezogen, oder hat sich da nicht viel getan? Bei bis über 500 Wh in diesen Karten wär die Elektronik doch für jedes extra Joule dankbar, daß rückseitig entsorgt werden kann.

Antwort Gefällt mir

FfFCMAD

Urgestein

873 Kommentare 316 Likes

Und selbst wenn man es zum Laufen bekommt, wären die CPUs mit den zigtausend Layern von APIs und Speicherschutz überfordert und das Wort "Race condition" bekäme ein Paradebeispiel.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung