NVidia Was wirklich hinter den Abstürzen und Instabilitäten der GeForce RTX 3080 und RTX 3090 stecken könnte | Investigativ

nach diesem Hardwaredisaster werden auch bei Nvidia die Köpfe von den Verantwortlichen rollen. Das Qualitätsmanagement hat total versagt. Zuerst Fertigungsprobleme und Lieferprobleme. Dann wird der Onlineshop wird von Bots kaputtgespamt. Dann werden noch Daten von Hacker gestohlen. Derzeit hat Nvidia nur schlechte Presse. Ich könnte mir gut vorstellen das Jensen persönlich nicht mehr lange im Amt ist. Hier haben die Aktionäre das sagen.
 
Das Einkauf oder Produktionsleiter auf eigene Faust frei nach Lager/Verfügbarkeit kaufen/bestücken, wäre ein sofortiger Kündigungsgrund, da wäre selbst eine Schadensersatzklage des Unternehmens gegen die Führungskraft nicht auszuschließen. Das kann man getrost vergessen. Die Bestückungsmaschinen arbeiten vollautomatisch nach Plan der Entwicklungsabteilung. Ohne ausdrückliche Anweisung und mit Absegnung der Entwicklung wird nichts an der Bestückung geändert. Wahrscheinlich wurde in der Vorserie getestet, ob man auch mit den preiswerteren Kondensatoren arbeiten kann, zwei Bestückungsvarianten realisiert, anschließend blieb zu wenig Zeit, ausgiebig zu testen, also überlebte die Schwachstelle bis zur ersten Großserie. Aufgrund der hohen Stückzahlen fallen spätestens hier alle Fehler auf. Das versucht jedes Unternehmen von vornherein aus Kostengründen zu vermeiden. Je höher der Zeit- und Kostendruck, desto Wahrscheinlicher sind solche Fehler.
Mit "frei Schnauze" war nicht gemeint, dass ein Einkäufer irgendwas eigenmächtig entschieden hat, sondern, dass keine großen Tests gelaufen sind, da nVidia als eigentlicher Entwickler der GPU und der Platine eine Alternativbestückung erlaubt. Wenn mir der Entwickler sagt, dass das ok ist, dann gehe ich davon aus, dass das okay ist. Nun muss ich als nächstes möglichst schnell Bauteile ranschaffen und da kann es natürlich vorkommen, dass MLCCs gerade eine ewig lange Lieferzeit haben, wie es in den letzten Jahren tatsächlich häufiger der Fall war.
Der Kostenfaktor spielt da sicherlich auch mit rein, das möchte ich nicht abstreiten.

Meiner Meinung nach liegt der Fehler hier aber eindeutig bei nVidia als führendem Entwickler des Referenzdesigns, der offenbar explizit beide Bestückungsvarianten erlaubt hat.
 
In Ihrem Video zeigen Sie ein Bild der Asus TUF RTX 3080-Spielkarte mit 6 Sätzen MLCC-Kondensatoren und ohne POSCAPS. Die ASUS-Website zeigt jedoch, dass das Board nur POSCAPS enthält. Sind die ASUS-Bilder falsch? Können Sie bestätigen, dass die Karte, die Sie mit allen MLCCs gezeigt haben, die TUF-Karte oder die ROG-Karte ist? Wenn es sich um die TUF-Karte handelt, haben Sie etwas darüber gehört, ob die ROG-Karten auch nur MLCCs verwenden?
Clearsighted
 
Tja was machen? Bisher ist meine 3090 Strix noch nicht versendet, ich hab also noch Zeit und hoffentlich ist dann klar was die eigentliche root cause ist.
 
In Ihrem Video zeigen Sie ein Bild der Asus TUF RTX 3080-Spielkarte mit 6 Sätzen MLCC-Kondensatoren und ohne POSCAPS. Die ASUS-Website zeigt jedoch, dass das Board nur POSCAPS enthält. Sind die ASUS-Bilder falsch? Können Sie bestätigen, dass die Karte, die Sie mit allen MLCCs gezeigt haben, die TUF-Karte oder die ROG-Karte ist? Wenn es sich um die TUF-Karte handelt, haben Sie etwas darüber gehört, ob die ROG-Karten auch nur MLCCs verwenden?
Clearsighted

ASUS verwendet bei seinen Grafikkarten ausschliesslich 6 Sätze MLCC-Kondensatoren. Alle anderen Hersteller verwenden Teilbestückungen aus MLCC-Kondensatoren und POSCAPS oder wie ZOTAC ausschliesslich nur POSCAPS.
 
..und wie Buildzoid und andere schon angemahnt haben, es geht hier um Taktraten die jenseits dessen sind was auf der Packungsbeilage garantiert wird. Keine Garantie für 2GHz+.
Wenn die Karte out of the box so hoch boostet, ist es trotzdem stock behavior und somit Herstellerproblem, egal was auf der Packung steht.

Und mag sein, dass es ein Softwareproblem ist, aka man durch den Treiber das boostverhalten verändern kann. Das klingt aber für mich weniger nach einem anderen Problem, sondern mehr nach einer anderen Ansichtsweise. Klar ist es für alle Beteiligten angenehmer, die Karten im Treiber zu drosseln, anstatt einen Rückruf zu machen und die hardware zu fixen.

Die Ursache bleibt die selbe, der Boost Algorithmus verlangt von der Hardware mehr als sie kann.
 
..und wie Buildzoid und andere schon angemahnt haben, es geht hier um Taktraten die jenseits dessen sind was auf der Packungsbeilage garantiert wird. Keine Garantie für 2GHz+.
Das ist quatsch, der Kunde kann nichts dafür dass die Boosttables derart bescheuert gemacht sind auf der Karte. Hab die 80 und 90er getestet. Die Dinger laufen einfach weiter solange die Spannung angelegt werden kann und die Boosttable geht halb weit genug, da kann nur so ein Quatsch bei raus kommen.
 
@ActiveRage
Stimme in allem zu, es gibt viele Möglichkeiten. Nur dein Fazit ist spekulativ.

Meiner Meinung nach liegt der Fehler hier aber eindeutig bei nVidia als führendem Entwickler des Referenzdesigns, der offenbar explizit beide Bestückungsvarianten erlaubt hat.
Eine eindeutige Schuldzuweisung sollte nicht auf einer Vermutung beruhen. Wie weit man den Takt der eigenen Karten hochfährt, ist die Eigenverantwortung der Boardpartner. Diese hätten das besser austesten müssen, bevor sie die Karten ausliefern. Diese Arbeit kann ihnen keiner abnehmen.
 
Zuletzt bearbeitet :
Eine eindeutige Schuldzuweisung sollte nicht auf einer Vermutung beruhen. nVidia hat korrekt bestückt. Eindeutig verantwortlich sind die Boardpartner, von der Bestückung der FE abzuweichen, diese haben nun auch den Schaden. Boardpartner, die sich an die FE gehalten haben, haben es besser gemacht.

Warum gibst du den Boardpartnenrn die Schuld wenn Nvidia verschiedene Bestückungsmöglichkeiten angegeben hat, aber den Partnern keine brauchbaren Treiber gegeben und keine Zeit gelassen hat, eigene Tests zu machen. Nvidia hat keine klaren Vorgaben gemacht.
 
@Martin Gut
Wenn man andere Bestückungsmöglichkeiten wählt, muss man die Boost-Tabellen anpassen. Wenn man vom Layout abweicht, muss man die Boost-Tabellen anpassen. Die Zeit war knapp, die Werkzeuge waren vorhanden, die guten Entwicklerteams/Produktion haben es geschafft, die schlechten nicht. Das nennt man Konkurrenzdruck. Wer den nicht aushält, wird auf Dauer nicht am Markt bestehen.

Absolut klare Vorgaben ließen nichts anderes zu, als für nVidia als Auftragsfertiger zu arbeiten. Dann haben alle das gleiche Produkt und es gibt keine Customs, die sich unterscheiden. Dann hätte nVidia die alleinige Verantwortung.
 
Zuletzt bearbeitet :
@ActiveRage
Stimme in allem zu, es gibt viele Möglichkeiten. Nur dein Fazit ist spekulativ.


Eine eindeutige Schuldzuweisung sollte nicht auf einer Vermutung beruhen. Wie weit man den Takt der eigenen Karten hochfährt, ist die Eigenverantwortung der Boardpartner. Diese hätten das besser austesten müssen, bevor sie die Karten ausliefern. Diese Arbeit kann ihnen keiner abnehmen.
Okay, da muss ich dir Recht geben. Wobei auch gesagt sein muss, dass der Boost Takt der meisten Boardpartnerkarten sehr dicht an den FE_Karten liegt. Wenn da schon 10% Takt reichen, dann ist aus meiner Sicht keine ausreichende Toleranz mehr für Alterungsprozesse und Schwankungen in der Chipqualität.

Außerdem muss ich an dieser Stelle auch Martin Gut zustimmen, denn nVidia hat nunmal ein Referenzdesign vorgegeben und nach meinem Kenntnisstand haben die Partner nur die Kühlung erstellt, das PCB aber übernommen und dann eigene Komponenten im Rahmen der vorgegebenen Spezifikationen verbaut. Man korrigiere mich, wenn ich hier falsch liege! Sollte es also die Möglichkeit geben sich innerhalb der Spezifikationen zu bewegen und gleichzeitig Instabilitäten zu erzeugen, dann hat nVidia nicht richtig entwickelt, denn die Partner hatten noch keine Zeit wirklich was eigenes auf die Beine zu stellen.
 
In Ihrem Video zeigen Sie ein Bild der Asus TUF RTX 3080-Spielkarte mit 6 Sätzen MLCC-Kondensatoren und ohne POSCAPS. Die ASUS-Website zeigt jedoch, dass das Board nur POSCAPS enthält. Sind die ASUS-Bilder falsch? Können Sie bestätigen, dass die Karte, die Sie mit allen MLCCs gezeigt haben, die TUF-Karte oder die ROG-Karte ist? Wenn es sich um die TUF-Karte handelt, haben Sie etwas darüber gehört, ob die ROG-Karten auch nur MLCCs verwenden?
Clearsighted

ASUS hat die Bestückung noch einmal geändert als die Fotos schon gemacht waren. Nach den schlechten News hat ASUS inzwischen auch neue Fotos gemacht.

Zu dem ganzen Thema gibt es einiges, was ich in dieser Diskussion etwas fragwürdig finde. Igor selber sagt, dass die Bestückung 4+2 perfekt ist. Die Hardware-Profis im Forum schließen aber trotzdem messerscharf, dass die ASUS-Modelle die besten sein müssen weil die ja 6 Blöcke der teureren Kondensatoren haben. Wenn die "großen" tatsächlich besser für starke Stromversorgung (weniger für Hochfrequenzglättung) sind würde ein Mix schon Sinn ergeben.

Das Problem ist aber eher ein Luxusproblem: Die Karten garantieren einen bestimmten Boosttakt, die Probleme treten aber erst bei 15% (!) höherem Takt auf. Dass dank automatischem Boost einige Karten anfangs instabil waren ist ärgerlich – ein neuer Treiber mit geänderten Boostverhalten behebt sowas schnell. Insofern könnte man auch von einem Treiberproblem sprechen. Auf jeden Fall sind die 2 (mehr waren es nicht, zwei Custom Designs!) Karten nicht "Müll" sondern können durch geeigneteren Betrieb stabiler werden. Dass einige Karten dann nunmal schneller sind als andere ist doch der Sinn von verschiedenen Partner-Designs oder?

Die Schuld liegt zwar hauptsächlich bei nVidia, die diesen Launch offensichtlich total überstürzt haben anstatt doch mal zu verschieben.
Wenn sich jetzt so beschwert wird, wird nVidia das nächste Mal alle Karten bei 1710 MHz absägen und jeder kann seine Clock/Voltage-Kurve schön selber anlegen und jede Stufe auf Stabilität testen.
 
Interessant zu sehen, wie der Hypetrain erst in die eine, dann in die andere Richtung fährt.

Besonders interssant finde ich das Wissen darüber, wer wann wo versagt hat, und welche Konsequenzen das haben wird.
 
Ich glaub, es ist nur Neid, weil fast alle FE-Karten in Botswana gelandet sind bzw landen werden.
 
@COLDFusion
Ich persönlich glaube nicht das Jensens Posten in Gefahr ist. Aber der ein oder andere innerhalb Nvidia könnte eventuell Ärger bekommen. Da ist dann natürlich die Frage, ob es wirklich die Verantwortlichen trifft. Erfahrungsgemäß ist da aber eher so: Je größer die Firma ist, desto unwahrscheinlicherist es, dass es die richtigen trifft.
 
Wenn die "großen" tatsächlich besser für starke Stromversorgung (weniger für Hochfrequenzglättung) sind würde ein Mix schon Sinn ergeben.
Die "großen" Kondensatoren haben einen höheren Innenwiderstand und einen höheren inneren Verlustwiderstand. Und das insbesondere in höheren Frequenzbereichen. Der höhere Innenwiderstand führt dazu, dass sie langsamer ge- und entladen werden können. Die kleineren Kondensatoren puffern also gerade bei hohen Schaltfrequenzen schneller und somit besser. Um die gleiche Kapazität zu erreichen braucht man aber mehr davon - deshalb sind 10 Stück verlötet worden, damit die Kapazität gleich dem einen Aluminium-Polymer-Kondensator ist. (Weiterer Vorteil der 10 Stück: Durch die Parallelschaltung von 10 Kondensatoren hat man nur noch 1/10 des inneren Verlustwiderstands.)
Warum verbaut man nicht nur "die kleinen"? 10 Stück davon kosten mehr als 1 großer. Vermutlich viel mehr macht aber die begrenzte Verfügbarkeit der Bestückungsmaschinen aus. 10 mal soviele Kondensatoren brauchen etwas platt gesagt 10 mal so lange. Und Maschinenzeit ist richtig teuer.

Auf jeden Fall sind die 2 (mehr waren es nicht, zwei Custom Designs!) Karten
In der weiter oben verlinkten Liste sind nicht alle vertriebenen Custommodelle aufgeführt.
 
Köpfe können übrigens nicht rollen. Wegen der Ohren. Jeder Halsabschneider weiß das. Und n paar Schlitzohren.
 
Ich fände mal ein "Erklärbär-Video" von Igor ganz gut, falls irgendwann mal Luft sein sollte, bezüglich dieser ganzen Cops, Schropps, Caps, MLLCCDS usw. ;)
Was das damit zu tun hat, ob da 200er 300er 400er oder was weiß ich für Teile drauf sind. Wozu da von der Steckdose aus, was gefiltert werden muss und wo da noch Zwischenschritte sind, auf den Kärtchen.

So eine einfache Erklärung auf Igor-Art, dass einfache Zocker wie ich das auch ein klein wenig kapieren. :)

Also so wie ich das verstanden habe, sind da irgendwelche Stördinger irgendwie im Strom, oder sonst wo und falls die Karten höher boosten als gedacht und dort hohe Frequenzen(was heist das eigentlich? :D) anliegen, die über 2GHz gehen, können die Stördinger da irgendwas anrichten, so dass es "Fehler" gibt. Und falls die Stördinger nicht vorher rausgefiltert wurden, is das schlecht, da unstabil.

Frage mich, wie die Hersteller ihre Nobelkarten, mit selektierten chips hinkriegen wollen, da die ja auch ebenfalls höheren Takt stabil hinkriegen sollen.
Könnte diesmal ja ne besondere Herausforderung werden, falls die da irgendwelche falschen Kappen verlötet haben, die da nicht richtig die Stördinger aussortieren/filtern.

Also speziell die Aorus und die Strix interessieren mich da, was die da verbastelt haben, um stabil höhere Leistung hinzubekommen.
Zu den karten gibt es ja auch noch keine Testberichte, so weit ich weiß. Also richtig mit Teardown, und ausgiebige Tests inkl. OC Benchmarks usw. .

Vielleicht lohnen die Karten diesmal ja auch gar nicht, weil die eh sofort bei knapp über 2GHz abschmieren, wie jedes 08/15 Modell auch. ;)

Aber die sind doch nicht blöd. Die werden durch ihre jahrelange Erfahrung da schon irgendwelche Lösungen haben.
Bin gespannt wie diese Karten ausfallen werden.

Auch mit den 3x 8Pin für noch mehr Saft.
Mal gucken, wie die das stabil, für den einfachen Software Overclocker, auf die Straße kriegen.
Die meisten(wie ich z.B.) drehen ja eben doch nur etwas an den Reglern, im Afterburner, anstatt gleich auf den Karten herumzulöten und da mit -200 Grad C° zu kühlen usw. ;)

PS: Und warum is kälter dann eigentlich überhaupt stabiler ?

Ich glaub ich muss mich doch mal mit Grundsätzen des OC beschäftigen, anstatt einfach los zu probieren, wie man da die Regler noch hinkriegen kann, so dass es läuft.
 
Zuletzt bearbeitet :
Unterschiedliche Kondensatoren können besser sein als nur die besseren. Die Eigenschaften der Typen sind recht unterschiedlich. Wenn man nun lauter gute/teure nimmt, haben die aber wieder alle genau die selbe Schwäche, was auch schlecht sein kann. Wenn man unterschiedliche nimmt, verteilen sich die Schwachpunkte und die Glättung wird gleichmässiger. Ob das bei den aktuell von diesen Grafikkarten erzeugten Schwankungen so ist, müssen ausgiebigere Tests zeigen. Es kann auch sein, dass eine Filterung mit verschiedenen anderen Typen und Grössen idealer wäre.
Das wird in dem bereits von jemandem verlinkten englischen Video gut erklärt.
Auch wenn man als Laie nicht alles versteht, bekommt man doch etwas einen Eindruck, wie komplex die Filterung mit Kondensatoren sein kann. Da versteht man auch, dass man für noch unbekannte Spannungsschwankungen nicht unbedingt in 1 bis 2 Wochen die ideale Lösung gefunden hat. Ich denke, dass darum vor allem der Zeitdruck dazu geführt hat, dass die ersten Modelle mit nicht idealen Bestückungen raus gegangen sind.
 
das ist auch genau der Grund warum man bei NVIDIA auch die unterschiedliche CAPs einsetzt! Das gehört bei jedem Elektrotechnikstudium zur Standardkost. Dazu gehört auch, dass man z.B. 10x 10pF Kondensatoren einsetzen sollte als 1x 100pF! Je größer die Kapazität des Kondensators desto schlechter sind seine parasitäre (unerwünschte: Widerstand und Induktivität) Eigenschaften!
 
Oben Unten