Basics GPUs Graphics Reviews

The NVIDIA GeForce RTX 3000 series also has a Hotspot Temperature! First measurements and the comparison with AMD

Let’s put it this way: it would have actually surprised all of us if NVIDIA didn’t use this hotspot reading as well. The only thing is that the usable interface for common third-party software is somewhat sparsely documented. It is only a question of time that sooner or later we will succeed in uncovering this little “secret”. But what is actually behind the GPU temperature and this ominous hotspot? Today I will try to simplify this and also compare it.

Sensors on a Radeon VII (picture AMD)

The difference between Average and Peak

In the meantime, there is not only one single temperature sensor (“GPU diode”) in every chip, but there are many, many sensors, whose exact positioning is of course a well-kept secret. The firmware in turn contains a very specific algorithm, which weights all these single values and then forms a kind of average value, which can also be read out. AMD internally calls this “Edge” temperature, NVIDIA simply writes GPU temperature. That both variants nevertheless differ in details is quite likely, but the principle is at least very similar.

And the hotspot? Up to now, at least with AMD graphics cards, it was also possible to read out the so-called “hotspot” temperature, which then represents the hottest part of the chip. Here, too, it is not entirely clear exactly how the value is arrived at and how many sensors are used to determine the value. AMD uses this “hotspot” value for telemetry, because large parts of the fan control and safety or shutdown functions are based solely on this limit and not the average. Let’s take a look at a Radeon RX 6800XT with GDDR6 memory:

Depending on the cooler and the applied load, the difference between the edge temperature and the hotspot is between 12 and 20 degrees. It can be much more, but then exactly this difference is also a very good indicator that the cooler is not optimally applied! Up to now, AMD cards depended on an absolutely clean support and mounting, but GeForce cards also want to be mounted properly. You could often observe that the GPU temperature was actually still below the temperature limit in air-cooled cards, but it still came to a slight throttling or the excessive rotation of the fans.

Now let’s look at the hotspot temperature curve I read on a GeForce RTX 3090 compared to the other two temperatures, analogous to the Radeon graphics from a moment ago. What is striking again: The green curve for the GPU temperature is much more balanced than the yellow curve of the hotspot temperature. The fact that decimal places are also read out here with the Hotspot is unimportant, because the gradations are nevertheless finer. In the end, of course, this confirms the thesis that the hotspot contains only the hottest sensor, or at least a few sensors, while the average effectively smooths out and downright swallows up the outliers.

With NVIDIA cards, I’ve measured between 11 and 14 degrees difference between the temperature readings so far, which is significantly less than the difference with the Radeon cards, even though the GPU along with the package is significantly flatter on the Radeons. Either NVIDIA uses completely different sensor positions here, or the chip itself has fewer real hotspots. So far, this could not be clarified exactly (and probably won’t be). Nevertheless, a significantly higher hotspot value compared to the GPU temperature is also a very reliable indicator for a non-optimal cooler mounting at NVIDIA.

Hotspot for all!

In the next beta version of HWINFO the hotsport value will be displayed after several verifications and plausibility tests. Just below the GDDR6X temperature, which has also been hidden for a long time. Hobbyists and enthusiasts will certainly appreciate this service, because you can check the quality of the radiator assembly pretty well based on the hotspot compared to the average temperature. That can also give you a good amount of confidence at the end of the day.

The video for this news on YouTube:

Kommentar

Lade neue Kommentare

Case39

Urgestein

2,498 Kommentare 928 Likes

Schön zu wissen. Danke für den Hinweis und die Erklärung, Igor (...jeder sollte einen Igor haben😉).

Antwort 4 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Da hast du ja mal wieder ein heißes Eisen im Feuer @Igor Wallossek (y)

Antwort 1 Like

B
Besterino

Urgestein

6,707 Kommentare 3,306 Likes

Habe das Video noch nicht geschaut, aber woran erkenne ich denn eine gute bzw. schlechte Kühlermontage bei Nvidia? An einem Differenzwert aus GPU und Hotspot von >12°?

Antwort Gefällt mir

E
Eller

Mitglied

17 Kommentare 21 Likes

@Igor Wallossek Wieso testest du nicht unter gleichen Bedingungen?
Also bei der 6800XT hast du Wichter 3 in UHD am laufen und bei der 3090 Furmark in unbekannter Auflösung :unsure:

Antwort 1 Like

W
WokeUpInANewBugatti

Mitglied

35 Kommentare 20 Likes

Kommt da auch was für die 3070 FE? Wäre mal ganz interessant zu sehen wie die Memory / VRM Temepraturen aussehen (im Vergleich zu Igors eigenen Messungen)

Antwort 1 Like

Igor Wallossek

1

10,173 Kommentare 18,758 Likes

Es geht doch nicht um den Endwert im direkten Vergleich. Bei Furmark kommt bei NV die Lüfterkurve (und Temperaturkurve) deutlich besser :)
Das ist exemplarisch. Sonst hätte ich ja auch eine 6900XT nehmen müssen

Antwort 3 Likes

Alkbert

Urgestein

930 Kommentare 705 Likes

Trotzdem würde mir die GDDR 6x Temperatur die Schweißperlen auf die Stirn treiben - und ich bin üblicherweise definitiv kein "Schisser".

Antwort 2 Likes

D
Deridex

Urgestein

2,212 Kommentare 846 Likes

Yap, wenn diese Werte stimmen wäre mir das auch nicht ganz geheuer.

Antwort 1 Like

m
markus_ke

Mitglied

17 Kommentare 4 Likes

Danke für den Beitrag Igor.

Mit bissel Google wurde die neue Version bereits von den HWInfo im Forum gepostet.

Ka obs erlaubt ist.
Sonst einfach bitte löschen.

Danke
Gruß
Markus

Antwort 1 Like

L
Logo55

Neuling

6 Kommentare 0 Likes

Auch für die 3060ti? Bisher gabs ja nur die GDDR6x Temperaturen ab 3080 aufwärts. Kann ich bei meiner 3060ti nun auch endlich bald die Speichertemp. auslesen?

Antwort Gefällt mir

O
ORL0K

Neuling

2 Kommentare 3 Likes

Hallo Zusammen,

habe die Beta von HWiNFO heruntergeladen. Als Vergleich für euch folgende Temp.:
ASUS TUF RTX 3080 OC 10 GB
GPU Temp.: 65,9°C
GPU Memory Junction Temp.: 86,0°C
GPU HotSpot Temp.: 76,9°C

Edit: Habe die Temperaturen an das Standard-Lüfterprofil & GPU BIOS Performance angepasst.
Test durch 3dmark TimeSpy Belastungstest (10 min)

Antwort 2 Likes

Case39

Urgestein

2,498 Kommentare 928 Likes

Was lief währendessen?

Antwort Gefällt mir

O
ORL0K

Neuling

2 Kommentare 3 Likes

3dmark TimeSpy Belastungstest (10min) - habe die Temperaturen anpassen müssen wegen personalisierter Lüftersteuerung.

Antwort 1 Like

K
Klippi313

Neuling

3 Kommentare 0 Likes

Mal wieder ein sehr interessanter Artikel. Schön, dass solche Geheimnisse dann doch gelüftet werden können ;)

Antwort Gefällt mir

EyRaptor

Veteran

144 Kommentare 48 Likes

Sau nice dass man da endlich Werte auslesen kann.

Wirklich 100% glauben tu ich die aber nicht.
Ein Freund von mir hat das mit seiner Problem-3090-Strix ausprobiert.
Die Karte taktet auf 1,45 Ghz runter und haut die Lüfter auf max, Hotspot Temp soll angeblich bei 102C° sein.
So wie sich die Karte verhält hätte ich da eher mit ca. 110+ C° gerechnet.
102 C° sollten für die Chips ja noch halbwegs sicher sein, solange es wirklich der reale Hotspot ist.

Antwort Gefällt mir

Stadtreiter

Veteran

210 Kommentare 170 Likes

Ohje, falls ich noch mal irgendwann eine 3080 bekommen sollte..., will ich das lieber garnicht so genau wissen. Wenn ich anfange daran herumzubasteln, wird es eh nur noch schlimmer ;-)
Trotzdem sehr spannend! Vor allem für die Pimper und für die Fehlersuche bei Problemen.

Antwort Gefällt mir

DocAngelo

Mitglied

37 Kommentare 23 Likes

Übrigens: auch GPU-Z zeigt jetzt die HotSpot und MemTemp an (hoffentlich den heißesten Wert der GDDR6X Chips? Vielleicht kann unser Hardware-Weiser dazu etwas sagen ? TechPowerUp GPU-Z v2.37.0 vom 22.2.2021). Das läuft bei mir am Desktop seit jeher zur Orientierung mit (ROG-Edition) und ist angenehmer abzulesen als HWInfo.

Beim kombinierten OPTIX/CPU-Rendern (GPU/CPU am Anschlag bei 100%/Frame) einer Animation in Blender 2.92 über 6 Stunden waren die Maximalwerte auf meiner ROG STRIX RTX 3090 OC (keine WaKü, Backplate-Modding mit Kühlkörpern s.u.) bei konstant 2.075 - 2.130 MHz und avg. 456 W Board Power Draw (max: 484 W):

GPU Temp: 68°
HotSpot: 80°
MemTemp: 78°
Raumtemp: 20°

(alle Werte gerundet, ist kein Igor-Präzisions-Test)

(CPU TR 2950X, PBO, WaKü Silverstone Icegem 360: 290W, 4.092 MHz allcore, Temp: 68°C)

Was ich allerdings so gar nicht verstehe: In ASUS GPU-Tweak II ist Memory Clock(MhZ) mit 19850 angegeben (+348 Taktanhebung durch mich), GPU-Z liefert jedoch den Wert 1240,8 MHz während des Renderns. Kann mich da jemand erhellen was da eingestellt und dort dann ausgelesen wird? Das mit den Memory-Taktraten krieg ich irgendwie intellektuell nicht auf die Reihe ....................

(Anmerkung: bei OCs meiner RTX mit laufendem HWInfo-Fenster (neue Version) hat sich regelmässig die Lüftersteuerung der ASUS STRIX 3090 und des ASUS STRIX X399 MoBo aufgehängt (entweder Lüfter auf Max steckengeblieben oder im Idle-Modus). Der Fehler war reproduzierbar und trat auch bei OCCT 7.3.2 - Stresstests auf. OCCT hat jetzt HWInfo integriert. Sollte das jemandem passieren: HWInfo hat da einen Bug)

View image at the forums

Antwort 2 Likes

Klicke zum Ausklappem
G
Guest

Das eine ist die Übertragungsrate, das andere die Taktrate.

19850 / 8 Bit = 2480, da 2 Bit pro Takt übertragen werden, kommt man auf 1240 MHz.

Antwort 1 Like

Martin Gut

Urgestein

7,753 Kommentare 3,559 Likes

Ich habe bei Hotspot immer nur von der heissesten Temperatur innerhalb der GPU gelesen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung