Asus GeForce RTX 4080 TUF Gaming mit Serienfehler? Eingebauter Hotspot ab Werk, Materialanalyse und die Rettung

Bisher dachte ich immer, das der NV-Treiber schon viel eher auf "zu warm" reagiert und stufenweise runtertaktet.
Das hast du schon richtig im Kopf. Es ist nicht bei allen Karten gleich. Meist reduziert sich der Boosttakt schon ab einer gewissen Temperatur um einzelne Schritte. Das macht aber noch nicht viel aus, da man den Leistungsunterschied von ein bisschen weniger Takt kaum merkt.

Ab 105 oder 110 Grad kommt dann die Notbremse. Da wird der Takt so weit reduziert, dass die Temperatur nicht mehr weiter ansteigt. Manchmal reicht wenig, es kann aber auch die Karte massiv ausbremsen. Daneben werden dann meist die Lüfter auf 100 % hochgefahren, so dass die Karte unerträglich laut wird. Kaputt geht die Karte dadurch nicht, denn sie ist ja für die Temperatur gebaut. Abstürze gibt es, ich sage mal "meist" auch keine. Schön ist es aber auf keinen Fall. Man verliert Leistung und es wird sehr laut. Das will man definitiv verhindern auch wenn ein Hersteller sagt das sei in Ordnung.
 
Das hast du schon richtig im Kopf. Es ist nicht bei allen Karten gleich. Meist reduziert sich der Boosttakt schon ab einer gewissen Temperatur um einzelne Schritte. Das macht aber noch nicht viel aus, da man den Leistungsunterschied von ein bisschen weniger Takt kaum merkt.

Ab 105 oder 110 Grad kommt dann die Notbremse. Da wird der Takt so weit reduziert, dass die Temperatur nicht mehr weiter ansteigt. Manchmal reicht wenig, es kann aber auch die Karte massiv ausbremsen. Daneben werden dann meist die Lüfter auf 100 % hochgefahren, so dass die Karte unerträglich laut wird. Kaputt geht die Karte dadurch nicht, denn sie ist ja für die Temperatur gebaut. Abstürze gibt es, ich sage mal "meist" auch keine. Schön ist es aber auf keinen Fall. Man verliert Leistung und es wird sehr laut. Das will man definitiv verhindern auch wenn ein Hersteller sagt das sei in Ordnung.
Das war aus meiner Sicht bei den 30xx ern aber noch deutlich schlimmer als es bei den 40xxern ist, seit den 30xx ern lasse ich die Finger von jeglicher Gigabyte Karte, weil da auch das Kühler, Backplate und Gehäusedesign eher Höhere Temps begünstigt hat.
Bei den ich habe gerade letzte Woche wieder ein paar 4080 ( KFA2 4080 SG, Inno3D iChill X3 und Palit Gamerock ) unter den Fingern gehabt, die allesamt kühler und leiser laufen, als es meine ( leider noch vorhandene 3080ti Gigabyte Vision OC ) auch nur im Ansatz kann.
Und bei der 3080ti reden wir von 350 Watt, bei den 4080 von ca 320 Watt, also eigentlich kein größerer Unterschied, trotzdem wird die 3080ti ab ca. 80% Last um ein Vielfaches lauter und heißer als die 4080 bei 80-90% Last.
Und bei gleicher FPS Leistung ( Sync ) läuft die 4080 parallel auf viel niedrigerer Last als es die 3080ti tut.
 
Nein, das sind Putty-Pads. NVIDIA nimmt die auch. Putty muss ja keine Creme sein ;)

Wenn das neue Equipment läuft, kann ich dann auch bestimmen, mit welchem Druck welches Pad bei welcher Temperatur von wo bis wo (Dicke, Pressung) und wie performt :D

Da wird dann die Community auch wenig wenig mithelfen müssen und Dinge schicken, um hier möglichst viele Muster testen zu können. Man gibt ja keine fast 80K für neues Equip aus (inklusive Laborchiller), wenn man es dann nicht auch breit nutzt :D
 
Da bin ich aber mal gespannt, im Moment habe ich das Gefühl, dass man Preis-Leistung am besten Richtung Arctic TP-3 kauft
 
TP-3 Arctic sind die Preiskracher 👍🏻
 
Lieben Dank Igor,

ich habe damals nie damit gerechnet das ich eine Antwort erhalte und doch bekam ich sie sogar sehr schnell.

Dank dir macht die Karte endlich Spass und man sitzt nicht mehr neben einen Kochenden Staubsauger und ich schaue nicht immer Panisch auf meine Temperaturen und Frage mich was ich falsch gemacht habe.

Ich hoffe dieser Artikel wird den Leuten helfen die ein Temperatur Problem mit der Karte haben.

Ich kann meine Dankbarkeit kaum in Worte fassen.
 
Danke @Igor Wallossek - das war mal wieder hochinteressant ...
Frage: wenn also die Differenztemperatur zwischen GPU und GPU-HotSpot nicht zu groß wird und der GPU Grenzwert nicht erreicht wird, kann man davon ausgehen, die angedachte Kühllösung macht ihren Job? Bei mir beträgt das Delta exakt 13 Grad bei beiden Grafikkarten des Systems. Ausgelesen mit Hardwareinfo 8.0...

Vielen Dank
 
Hi,

wie kann man diese HotSpot Temperatur bei der eigenen Karte messen? Kann man die per Tool auslesen oder wird dazu Hardware Messwerkzeug benötigt?
 
Ich habe dem Kunden den Tipp gegeben, dir mal zu schreiben. Cool, dass du die Karte repariert hast.
 
Kann man die per Tool auslesen
GPU-z oder HWinfo64 oder andere Tools zeigen die Hotspot-Temperatur an. In der GPU sind mehrere Temperatursensoren eingebaut (im Chip selbst). Der heisseste dieser Sensoren ist der Hotspot, die GPU-Temperatur ist der Durchschnitt dieser Sensoren. Wenn der Maximalwert mehr als 20 Grad über dem Durchschnitt liegt, ist ein Bereich der GPU nicht richtig gekühlt.
 
Mir ist vor Schreck mein Herz in die Hose gerutscht!
Exakt diese GraKa nenne ich mein Eigen, ebenso dasselbe Model als 4090.
Beide GraKas werden in der Hauptsache zum Rechnen eingesetzt und nicht zum Spielen. (Berechnung von Primzahlen, Medikamentensuche und so weiter) Die Karten sind stundenlang, gar tagelang für diese Berechnungen im Einsatz, wie auch jetzt.
Meine 4080 erreicht bei Vollauslastung im Dauerbetrieb in etwa 75 °C Hotspottemperatur bei der Primzahlsuche und zieht dabei 310 Watt aus der Steckdose.
Somit könnte ich mir gut vorstellen, dass Igors Karte eventuell ein „Ausreißer“ ist und nicht die Regel.
Aber Danke für den aufschlussreichen Test.
 
Oben Unten