NVIDIA GeForce RTX 5080 und mögliche Hotspot-Probleme auf der Platine – Ursachen und Workaround

Wenn ich die Nvidia-Systemsteuerung, gibt es unter Surround, PhysiX konfigurieren ein Feld um den Grafikprozessor zu wählen. Da erscheint bei mir die GTX und die CPU.

Was dadurch genau verlagert wird, weiss ich nicht. Es zeigt aber, dass so etwas möglich ist.
Da stellst du nur die Physix-Berechnung um, aber nicht die Grafikberechnung. Ich wüsste keinen Weg, wie die iGPU im Desktop die Signalausgabe auf einer dedizierten AMD oder Nvidia-Karte zuwege bringt. Im Notebookbereich macht das so eine Technik wie Optimus an dem einzigen Grafikausgang, der übers MoBo bereitgestellt wird. Die Grafikkarte ist ja entweder auf dem MoBo aufgelötet oder per MXM oder Proprietäre Kartenform verbaut, hat aber keinen eigenen Grafikausgang. Im Desktopbereich fehlt wohl nach dem was ich bisher ergooglen konnte ein entsprechender separater Chip auf den Grafikkarten, der das Signal von der iGPU über die PCIe-Signalleitung in die Karte einschleift bzw. zwischen iGPU und dGPU switcht.
 
Zumindest bei den besseren ASUS Mainboards für Arrow Lake ("Creator" Linie - schön, und schön teuer) kann man wohl genau das machen; DP 2.x mit sehr kurzem Patchkabel aus der dGPU raus in DP "IN" ins Board, dann Ausgabe über TB 5 an den Monitor. Andere neue und gute/teure Mainboards können das wahrscheinlich auch. Setzt natürlich voraus, daß der Monitor auch eine TB 4 oder 5 oder entsprechende USB 4 Schnittstelle hat, damit das geht.
Oder bei Gigabyte Vision D...

Wobei es auffällig ist, das gerade bei den MoBo's mit TB4 von Haus aus keinen DPalt-Modus über die iGPU gibt, sondern immer ein Signal extern eingespeist werden muss. Sparen am falschen Ende und das bei Preisen von 300+x....

So gut wie jeder Laptop mit TB kann das, aber im Desktopbereich Fehlanzeige?!
 
Jeder der bei Verstand ist kauft keine FE.
Flachbandkabel bei einer PCI-E 5.0 Karte.

Hey Nvidia, wie störanfällig kann man eine Grafikkarte bauen ?

"hold my beer"

Selten sowas bescheuertes gesehen.
Die Prio auf den Kühler etwas zu hoch gelegt.
Das es keine Hotspot Temp mehr gibt lässt ebenfalls tief blicken.

Und nein, ich bin eigentlich Team Nvidia & DLSS.

Aber jetzt wird abseits des blöden 12VHPWR Stecker noch mehr Pfusch gebaut. Gut, die FE Karten waren immer hübsch anzusehen aber nie kühl & leise.
Quatsch. Das Problem betrifft 1. nicht jede Karte und zweitens auch nicht nur die FE sondern Boardpartnerkarten. Wir wissen aktuell überhaupt noch nicht was konkret das Problem ist.

Und meine 4080 S FE war absolut kühl und leise. Auch die 5080 FE macht da keine Ausnahme und funktioniert bei mir unter PCIE 5.0 absolut problemlos.

Vielleicht sollte man, bevor man anfängt irgendwelchen Quatsch nachzuplappern einfach mal abwarten und es diejenigen untersuchen lassen, die Ahnung davon haben.
 
Quatsch. Das Problem betrifft 1. nicht jede Karte und zweitens auch nicht nur die FE sondern Boardpartnerkarten. Wir wissen aktuell überhaupt noch nicht was konkret das Problem ist.

Und meine 4080 S FE war absolut kühl und leise. Auch die 5080 FE macht da keine Ausnahme und funktioniert bei mir unter PCIE 5.0 absolut problemlos.

Vielleicht sollte man, bevor man anfängt irgendwelchen Quatsch nachzuplappern einfach mal abwarten und es diejenigen untersuchen lassen, die Ahnung davon haben.
Polemik hin oder her, es ist auch nicht primär wichtig was das Problem ist oder welche Ursachen es hat.

Es mutet natürlich erstmal sonderbar an, wenn da ein winziges Flachbandkabel und ein MCPCB die Verbindung zum PCIe-Slot darstellt. Das kann nicht besser sein als ohne winzige Klemmverbinder, ein Kabel das womöglich noch schlechtere Eigenschaften als ein PCB mit Traces mitbringt, und was ein MCPCB für Konsequenzen hat, dessen Eigenschaften wegen der Wärmeableitung und Temperaturbeständigkeit geschätzt wird, aber eben aus keinem anderen Grund.. also das alles bleibt natürlich erstmal im Dunkeln.

Wenn es dann zu Problemen mit dem Produkt kommt, für das offenbar auch hohe Preise mit sehr hohen Margen abgerufen werden, nun dann muss sich niemand mehr zurückhalten. Nvidia und glücklichere Käufer dürfen da gerne mal nicht die Opferrolle einnehmen. Wo dann wissenschaftlich die Gründe für die gefundenen Probleme liegen, ist für den Kunden eigentlich so egal wie schon beim 12VHPWR, unserem geliebten Pömpel.

Nvidia muss ich fragen, muss sich die Frage gefallen lassen.. das sind dann durchaus berechtigte Formulierungen. Das kann man diesmal sicher nicht einfach so auf ein paar User reduzieren, die Ihre Grafikkarten offenbar nicht richtig einstecken konnten. Ich bin allerdings fast sicher, das dies auch versucht wird.

Also ist die Kritik (mal wieder) nicht einfach so abzuschmettern. Natürlich, Internet, Youtube, da wird man wieder alles besser wissen und am Ende auf Igor schimpfen, weil er als einer der wenigen (verbliebenen) der Schreiberzunft die Sache wissenschaftlich aufarbeitet. Dann wurden wieder Gefühle verletzt, die Diskussion geht wieder von rational zu emotional, wie es so üblich ist, in der postfaktischen Zeit.
Die wütenden Gegenkommentare mit empirischen Daten aus der "runs on my system"-Ecke sind allerdings genauso wenig zielführend wie Schadenfreude oder Häme.

Das ist eben die Liebe, die Nvidia gerade für uns hat. Wir sind kein Kundenstamm, auf den man sich bei Nvidia verlassen muss. Absolut nicht.
 
habe mir heute ne zotac solid gesichert, laut englischen reviews ist es ne msrp karte, aber irgendwie auch nicht. habt ihr infos ob die xxl backplate bei zotac die spannugnswandler kühlt oder nicht.
 
Ich arbeite in der Entwicklung. Bin kein Hardwerker. Bin überdisziplinär unterwegs. Den Ärger mit zB FPCs (flexible Leiterplatten) bekomme ich mit.

Die Schirmung, die Frequenz.
Und da geht es nur um eine Kamera und deren Bilder.

Bei der Graka reden wir von viel mehr Daten die durch das Kabel geprügelt werden müssen.

Eigentlich unverantwortlich. Aber wie gesagt, das Thema Kühlung/Abmaße wurden wohl etwas zu stark forciert.

Ich bin nicht strickt gegen Ideen oder generell "Neues" aber Nvidia schafft es wirklich jedes Mal mich aufs neue zu enttäuschen.

Die 4000er Ada Lovelace ist auch eine wirklich gelungene Generation (Effizient!)

Da nervt mich eigentlich nur der popelige Stecker. Der Grund warum ich nur eine 4070 habe. Gut, das Geld für eine 4090 hätte ich sowieso nicht in die Hand genommen. Egal wie viel Mehrleistung.

Man kann ja mit Midrange Hardware zocken 😅 Halt auf "High" mit "nur" 100 Bilder.

Komm ich mit klar. Gleicher Spaß für viel weniger Geld und weniger genervt sein/Probleme haben.

Ich wünsche jedem Spaß mit den Karten.
Mich wundern aber kommende Probleme bei den FE Karten "gar nicht"
 
Zuletzt bearbeitet :
Immer wieder interessant wie die ganzen Experten aus den Löchern kommen, wenn es irgendwelche Probleme gibt wo nicht einmal im Ansatz klar ist, was genau das Problem ist.

Am besten ihr fangt bei Nvidia an, dann würde sowas (ja was eigentlich?) nicht passieren.

Ich habe jedenfalls noch keine Erklärung gelesen, warum es auch Boardpartnerkarten betrifft.

Das kann so viele Ursachen haben von Windows oder veraltete Treiber, nicht sauber deinstalliert, Monitorfirmware, Mainboard-BIOS etc. Das hat doch nicht alles Nvidia zu verantworten.

Vielleicht benötigt die FE oder die Boardpartner auch ein neues Grafikkarten-BIOS. Gabs doch alles schon…

Etwas mehr objektiv zu sein würde manchem gut tun.
 
Ob das nun ist, weil man bei der Qualitätskontrolle etwas übersehen hat, aus versehen das schlechtere Flachband gekauft hat, was auch immer das Problem dann war, grundsätzlich stellt es solche Designentscheidungen natürlich in Frage. Menschen, die sich mit der Materie auskennen, wundern sich da tatsächlich nicht. Weil es eben von Anfang an gewagt war, die negativen Aspekte so einer Lösung wurden offenbar nicht ausreichend behandelt, und wenn es Fehler bei der Quali-Prüfung waren. Das wurde schon klar, als der erste Reviewer negative Erfahrungen machte.

Ohne jetzt Meldungen mit gebrickten Karten oder sonstwas da überhaupt zuviel Bedeutung geben zu wollen. Da kann es Hintergründe geben, aber BIOS kann man wohl knicken. Das wäre ein allgemeines Fehlerbild. Wenn es mit PCIeGen 4 dann läuft, das kann man im BIOS so setzten, aber dann kann die Karte eben kein Gen 5 mehr.

Zu der ursprünglichen Entscheidung das so zu bauen, ja, man könnte argumentieren, dass am Ende ja nur eine Null und eine Eins unterschieden werden müssen. Serielle Datenübertragung halt.

Wenn da genug Spielraum ist, dann können vielleicht vereinzelte Riser-Aufbauten problematisch werden, kann man aber so verkaufen. Steht ja nirgends, das die Karte mit 1m Riserkabel auf PCIe Gen 5 laufen muss.

Wenn es dann allerdings Probleme mit Karten gibt, die direkt über den Slot angebunden werden, dann ist etwas schief gelaufen. Und am Ende war dann eben nicht genug Spielraum, es werden keine 1er und keine Nuller mehr ausreichend unterschieden.

Natürlich wird das aber niemand aufarbeiten. Höchstens intern nach Ursachen geforscht. Was dann auch immer dabei rauskommt, ob nun Bug oder ein prinzipiell idiotisches Design, es wird totgeschwiegen werden. Entweder mit Maßnahmen, es bei noch nicht ausgelieferten Modellen besser zu lösen, oder ohne. Wir werden davon nix erfahren.

Aber "Objektivität" von jemandem zu verlangen, dem Aufgrund seiner Expertise das gesamte Konstrukt schon mehr als suspekt ist, nun ja. Vielleicht ist es gerade der rationale Teil des Expertengehirns, der dann schreit. Das geht sicher auch mal etwas emotional, der Stein des Anstoßes ist es nicht. Da braucht dann auch niemand überempfindlich reagieren, da ist auch Polemik eher im kundensinne als nicht. Denn Ball flach zu haltne und brav zur Kundenbank, zur Kasse zu gehen, hilft jedenfalls nicht.
 
Da stellst du nur die Physix-Berechnung um, aber nicht die Grafikberechnung.
Das habe ich vermutet. Es ging bei unserer Diskussion ja auch nicht darum, was es bereits genau gibt, sondern darum, dass es sinnvoll sein könnte, wenn das Betriebssystem automatisch die Berechnungen auf den für die aktuelle Aufgabe effizientesten Bereich legen würde und die anderen Bereiche zum Energiesparen soweit wie möglich deaktivieren würde. Dadurch kamen wir dann auf Ansätze, die bereits in diese Richtung gehen.

Ich würde sagen, dass es durchaus möglich wäre, bei kleiner Last alles auf der iGPU zu berechnen, dann die Daten zur Grafikkarte zu übertragen und von dieser ausgeben zu lassen. Auch wenn dafür keine besondere Hardware vorgesehen ist, könnte man das per Treiber so organisieren.

Die andere Möglichkeit wäre auch, dass die Grafikkarte bei sehr tiefer Last von einigen Prozent oder wenn sie nur die Bildausgabe eines stehenden Bildes macht auch auf den tiefsten Takt herunter schraubt und dadurch keine 30 bis 50 Watt sondern 6 bis 15 Watt verbraucht. Dass so etwas möglich ist, sieht man ja je nach Situation und Karte. Oft taktet die Karte aber dann doch nicht runter obwohl sie praktisch nichts zu tun hat. Da sehe ich nicht ganz ein, warum man das nicht einmal richtig einstellt und dann die Karte auch als sparsam und leise bewirbt.
 
Ich habe mal bei Techpowerup geschaut.
Viele Hersteller haben keine Kühlpads auf der Backplate.

@Igor Wallossek
Wird bei der Zotac oder Asus der Bereich gekühlt den du bemängelst?

Besonders spannend Zotac
cooler4.jpg


Die Asus hat auf der Backplate eine Kühlung.
Ist das ungefähr der Bereich?

cooler7.jpg
 
Ich würde ja jetzt eigentlich vorschlagen, für den genervten Kunden der nicht 3 Stunden recherchieren will welche 1400 Euro GPU er jetzt nehmen soll. pfeift auf das Theater für 10 FPS +/- mit dem Bus und den Hotspots und kauft euch um ~100 Euro billiger eine 4080(s)...
Aber die sind ja sooo schnell aus den Shops verschwunden oder überteuert... da wird einem Angst und Bange.
 
Die auch, aber die Konstruktion ist meh
 
Immer wieder interessant wie die ganzen Experten aus den Löchern kommen, wenn es irgendwelche Probleme gibt wo nicht einmal im Ansatz klar ist, was genau das Problem ist.
Ich kann nicht gemeint sein. Ich bin definitiv kein Experte.
Aus einem Loch kann ich auch nicht gekrochen kommen.
Bin schon länger hier und hab mehr Beiträge, als der Beschuldigende selbst.

Nur wenn es baulich unbedingt nötig ist, setzt man Flachbandkabel ein.
Übergangswiderstände, Schirmung, Überlagerung/Interferenzen durch unnötig längere Wege, ...

Alles Dinge die man einfach vermeidet, wenn möglich.

Selbst wenn das Problem gefixt wird, was wünschenswert ist.
Habe ich in meinem vorherigen Beitrag über kommende Probleme geschrieben.
Ich würde freiwillig keine FE nutzen wollen.

Jetzt mal abgesehen davon, das die Karten für ihre zu geringe Leistungssteigerung viel zu viel Saft brauchen (völlig falsche Entwicklung) kann man speziell bei den FE Karten kein Deshroud machen.

Um eben bessere Lüfter drauf zu packen und die Karte leise zu bekommen.
Selbst die RTX 5080 ist mit 360W TDP einfach eine E-Heizung im Rechner.

Einmal hatte ich so eine Karte (3080 Ti mit 350W TDP)
Niemals nicht wieder. Einfach abartig die Temps, selbst mit UV.

Bin echt gespannt ob wir bei der nächsten oder übernächsten Gen wieder effizientere Karten sehen werden.
 
Die Karten sind ja durchaus effizient. Spätestens wenn man Hand anlegt sowieso. Es muss ja keiner 600W durch seine 5090 jagen.
Es ist aber durchaus ok das man das auch kann, wenn man denn möchte. Frei nach Perscheid - ich will einen Staubsauger mit Leistungsregelung, damit ich ihn volle Pulle aufdrehen kann :)
Aber die Schludrigkeiten häufen sich halt, in Kombination mit Preisschildern wo das eigentlich nicht akzeptabel ist.
Das man dann eventuell auch noch mit besonderer Sorgfalt die Vorgängerkarten aus dem Regal räumt und so die ohnehin knappe Neuware und deren Preise noch weiter anheizt finde ich auch nja... nicht schön.
Aber natürlich verständlich, denn wie gesagt, eine 4080 die vielleicht um 1000 Euro herum kostet wird bei dem ganzen Kasperltheater schon fast wieder zum attraktiven Produkt. Zumal AMD da ja auch noch das Scheunentor weit offen gelassen hat mit seiner abstrakten Launchvorstellung.
 
Wenn ich das Thermobild richtig interpretiere, liegt da das Zentrum des Hotspots nicht mal über einem wärmeverlustreichen Bauelement, sondern entsteht in der Leiterplatte selbst.

sketch-1738978943953.jpgsketch-1738979140055.jpg

Das würde ich als einen Defekt in der Leiterplatte selbst deuten, also einen zu geringen Querschnitt in den stromführenden Leiterbahnen zwischen VRM und GPU.
 
wie kommst du darauf die ist sogar viel kälter als meine 7900xt davor xD klar sie ist bissl laut aber mehr als 63 grad wird die 5080 nicht.
 
Die Karten sind ja durchaus effizient. Spätestens wenn man Hand anlegt sowieso
Also seit Pascal betreibe ich UV via Curve (MSI AB)

Meine 4070 ist meist irgendwo bei 160W (wenn die Karte mal weniger Bilder schafft als das Framelimit)
Was die Karte noch max. ziehen kann, hab ich gerade gar nicht im Kopf.

Mit 2x 120mm Lüftern drauf einfach ein Segen. Kühl & leise sowie moderate Leistung. So muss das.
 
Immer wieder interessant wie die ganzen Experten aus den Löchern kommen, wenn es irgendwelche Probleme gibt wo nicht einmal im Ansatz klar ist, was genau das Problem ist.

Am besten ihr fangt bei Nvidia an, dann würde sowas (ja was eigentlich?) nicht passieren.

Ich habe jedenfalls noch keine Erklärung gelesen, warum es auch Boardpartnerkarten betrifft.

Das kann so viele Ursachen haben von Windows oder veraltete Treiber, nicht sauber deinstalliert, Monitorfirmware, Mainboard-BIOS etc. Das hat doch nicht alles Nvidia zu verantworten.

Vielleicht benötigt die FE oder die Boardpartner auch ein neues Grafikkarten-BIOS. Gabs doch alles schon…

Etwas mehr objektiv zu sein würde manchem gut tun.
finde ich auch lustig, oder man sagt man hat keine probleme nix und die so na es werden welche noch kommen... was soll kommen wenn die karte keine probleme macht ! das einzige was meine karte jetze versauen kann sind nur treiber updates xD
 
Oben Unten