Grundlagenartikel NVIDIA GeForce RTX 3080 und RTX 3090 und die Crashs - Warum die Kondensatoren so wichtig sind und was eigentlich dahinter steckt

@Igor Wallossek ne lustige Unterhaltung unter seinem Video xD

_D mal zu dem thema einhaken :D Kompletter Kommentarverlauf : aus seinem Video : https://www.youtube.com/watch?v=S-Kq7sMCncE&lc=UgwRmakI6rKzi8BaRh54AaABAg.9EBW9mulPhB9EBcE4HaDy-

allesNorris @der8auer . Dann haben Sie die Analyse von IgorsLabs aber auch nicht ganz verstanden. Wie Sie sehen ist ihr Statment fernab Ihrer beobachtung , aber dennoch richtig getroffen . Jaa und deine Bilder zeigen das Problem gerade zu auf. Igors Labs hat nämlich Festgestellt aufgrund dessen, dass welche von der Hersteller seite ihm ein Problem gemeldet haben, er solle das mal untersuchen. Und welche Karten waren als erstes problembehaftet. die die 100 mhz selbst automatisch übertakten bei schlechtem chip sind da mlccs ein muss bei guten chips reicht auch der standard an caps. die karten die nicht wirklich hoch übertakten sind nicht betroffen.

der8auer der8auer vor 2 Stunden Öhm genau das habe ich doch im Video gesagt oder habe ich dich jetzt falsch verstanden?

allesNorris allesNorris vor 1 Stunde @der8auer xD jaa ich habe auch die Englische Variante geschaut. Da wurden viele genannt unter anderem auch IgorsLabs. ) IgorsLabs hat in einem Follow Up Video dann erklärt . : " Er freue sich , dass seine Analysen genommen werden - Aber Kinder dann auch richtig Wiedergeben. * IgorsLabs hat das Problem richtig analysiert. Das Problem liegt dann eher bei denen die es weiter Interpretierien . IgorsLabs hat auch nie gesagt, dass die Karten schlecht sind. Sondern da liegt das Problem (also Caps) und da (Treiber zu spät geliefert) und GPU Güte. Es wurde ja nie behauptet die Karten sind schlecht. Sondern NVIDIA für sein Verhalten gerügt . Aber alle karten sind verwendbar. Treiberupdate, firmwareupdate sollte doch helfen. Man muss also keine Karte wirklich einschicken. Die Karten sind schon technisch in Ordnung. Jaa man kann pech haben in der gpu güte. Ich hatte halt son bisschen den Eindruck du redest davon, man hätte nun bei den Techlaboren die Mistgabel ausgepackt :D Aber das lag eher an denen die die Informationen Interpretiert haben und weiterverbreitet haben. Und da kritisiere ich son bisschen die Aussage derer die dann sagen: " Man könne die Karte dann 200 -300 MHZ übertakten allein durch die MLCs. " Davon war aber nie bei der Problembeschreibung die Rede. Sondern von Karten die ab Werk automatisch hoch übertakten und dann das Problem haben. Da wurde wohl viel dazugedichtet bei der Problematik

der8auer der8auer vor 1 Stunde @allesNorris
naja "wenn man MLCCs nimmt sind die 2 oder auch 2.1 GHz überhaupt kein Problem"....

allesNorris allesNorris vor 41 Minuten @der8auer Nun muss man den gesamten Zusammenhang sehen. Er spricht an der Stelle von 2,1 GHZ da unten überhaupt kein Problem sei, er spricht hier von einem ! theoretischen Technischen Maximum! da unten kein Problem sei . Die Aussage ist auch richtig in dem Zusammenhang mit den Karten die Automatisch in den Bereich takten. Es wird auch gesagt, dass es auch GPU güte abhängig sei . Und es da ein Zusammenhang gäbe. Man muss schon genau hinhören. Am besten man liest die ausführlichen Berichte dazu durch. Das Thema ist eben sehr Komplex und schwierig anschaulich zu erklären. Bericht1: https://www.igorslab.de/was-wirklich-hinter-den-abstuerzen-und-instabilitaeten-der-geforce-rtx-3080-und-rtx-3090-stecken-koennte-investigativ/
Bericht2: https://www.igorslab.de/nvidia-geforce-rtx-3080-und-rtx-3090-und-die-crashs-warum-die-kondensatoren-so-wichtig-sind-und-was-eigentlich-dahinter-steckt/
 
Spekulatius Alarm!
Also Nvidia konzeptioniert Ampere für TSMC 7nm, bekommt aber keine Produktions-Kapazität, weil AMD mit Ryzen der neue beste Freund von TSMC ist. Nvidia muss mal eben auf Samsung 8nm switchen, was weitaus mehr Leistungsaufnahme mit sich bringt und die ganze Stromversorgung einer Karte mehr beansprucht. Nvidia bekommt Wind, dass AMD RDNA2 eine Gefahr sein könnte und hetzt den Launch von Ampere ohne zu testen, ob auch wirklich alles so mit dem neuen Koreanischen Silizium funktioniert. Hauptsache irgendwie schnell, schnell auf den Markt werfen und hypen, hypen, hypen - "3080 2x the performance of 2080", "3090 built for 8K Gaming", und noch möglichst viel Geld damit machen, bevor RDNA2 und die neuen Konsolen auf den Markt kommen.

Den Founders Edition Kühler haben Sie ja gerade noch umdesignt und größer gemacht, damit er auch mit den 70W extra Abwärme der 3090 klarkommt, verglichen mit wenn die auf TSMC gebaut worden wäre. Hauptsache die eigene Founders Edition Karte funktioniert einwandfrei und bekommt die guten Bin 1 Dies. Aber zum Testen der Refenenz PCB für die Boardpartner war jetzt wirklich keine Zeit mehr, die werden schon wissen was sie tun. Ob das dann mit den Bin 0 Chips auch stabil läuft, werden die schon selber testen.
Ich tauch den Spekulatios mal in den Tee damit er weich wird.

Wenn man 7nm TSMC wollte ( also auch eingepreist hat ) aber aus Kontingentgründen nicht bekommen hat ( was ich recht logisch finde wenn man sieht wie selbst AMD mit ihrem Portfolio zusammengesetzt aus vergleichsweise viel kleineren Chips schwitzen muss das es gerade so oder eben garnicht reicht wie bei den neuen mobile Ryzens die auch ganz durch Zufall eine größere Chipfläche verlangen ) hätte man bei Samsung auch 7nm EUV mit allen vor und Nachtielen haben können welcher seit 2018 in Production ist .

Der recht alte 8nm Prozess ist mM eher eine betriebswirtschaftliche Entscheidung anlog zu den verwendeten 12nm bei Turing wo man auch schon 10nm nehmen hätte können.
Man hat absehbar einfach keinerlei Kapazitätskonkurenz , und sicherlich sehr sehr gute Konditionen bekommen .
Das stellt die Investoren zufrieden ,lässt sehr viel Luft zum Atmen falls AMDs neues Produkt aussergewöhnlich wird und Handlungspielraum bei den Preisen gefragt ist.
 
Äh... man darf aber auch nicht vergessen, dass es durchaus eine Rolle spielt, WAS ich in einem bestimmten Prozess backe. 7nm RAM-Zellen oder 7nm CPU/GPU-Chips macht schon einen Unterschied... nur weil man das eine seit 2018 macht, heißt das noch lange nicht, dass man von jetzt auf gleich das andere hinbekommen würde...
 
Zitat aus dem Artikel:
"[AMD und nVidia scheinen die] Lagerbestände an CPU- und GPU-Silizium aufstockem um sicherzustellen, dass sie zu gegebener Zeit dann auch wirklich in der Lage sind, die Nachfrage der Kunden in vollem Umfang zu befriedigen [...]"
 
Spekulatius Alarm!
Also Nvidia konzeptioniert Ampere für TSMC 7nm, bekommt aber keine Produktions-Kapazität, weil AMD mit Ryzen der neue beste Freund von TSMC ist. Nvidia muss mal eben auf Samsung 8nm switchen, was weitaus mehr Leistungsaufnahme mit sich bringt und die ganze Stromversorgung einer Karte mehr beansprucht. Nvidia bekommt Wind, dass AMD RDNA2 eine Gefahr sein könnte und hetzt den Launch von Ampere ohne zu testen, ob auch wirklich alles so mit dem neuen Koreanischen Silizium funktioniert. Hauptsache irgendwie schnell, schnell auf den Markt werfen und hypen, hypen, hypen - "3080 2x the performance of 2080", "3090 built for 8K Gaming", und noch möglichst viel Geld damit machen, bevor RDNA2 und die neuen Konsolen auf den Markt kommen.

Den Founders Edition Kühler haben Sie ja gerade noch umdesignt und größer gemacht, damit er auch mit den 70W extra Abwärme der 3090 klarkommt, verglichen mit wenn die auf TSMC gebaut worden wäre. Hauptsache die eigene Founders Edition Karte funktioniert einwandfrei und bekommt die guten Bin 1 Dies. Aber zum Testen der Refenenz PCB für die Boardpartner war jetzt wirklich keine Zeit mehr, die werden schon wissen was sie tun. Ob das dann mit den Bin 0 Chips auch stabil läuft, werden die schon selber testen.

So eben switched man nicht auf nen anderen Fertigungsprozess, man legt sich normalerweise am Anfang des Designprozesses darauf fest.
Anderseits, wenn es so gewesen wäre (während der fortgeschrittenen Anfangsphase der Entwicklung) , würde es die Vorgehensweise von NV bei Gaming Ampere und das Durcheinander bei den AIBs, bisschen erklären...
Man wird es womöglich nie erfahren...
 
Insgesamt sieht für mich der Ampere Lunch nach einem Schnellschuss aus, als wollte man unbedingt noch schnell mit paar *Muster* vor AMD auf den Markt.

Und ich dachte erst Ampere ist schon seit April/Mai fertig und Nvidia hält Ampere nur zurück um die Turing alle loszuwerden.
 
Der 8auer hat durch sein "Experiment" meiner Ansicht nach bestätigt, was Igor gesagt hat.
Das Ersetzen von 2 oder mehr der Polymerkondensatoren macht die Karte stabiler bei hohen Taktraten.
Interessant fand ich auch, dass die Karte mit nur 4 Kondensatoren so gut wie gar nicht lauffähig ist.
@Igor Wallossek
Würde die Karte mit 8 Kondensatoren dann "besser" laufen?

Da hat er echt mal ne richtige gute Aktion gemacht, das kann auch nicht jeder. Hut ab.
 
Ich hätte dann da noch einmal eine Frage an die Experten (und das meine ist ernst, nicht ironisch): Wir reden/schreiben hier die ganze Zeit über die Art der Kondensatoren aber selten bis gar nicht über die Gesamtkapazität die je nach Hersteller zur verfügung steht. So sieht es für mich danach aus:

Zotac
6x SP-CAP
1980uF

FE
4x SP-CAP
2x MLCC Gruppe
2320uF

Gigabybte Gaming OC
6x SP-CAP
2820uF

Palit
5x SP-CAP
1x MLCC
1570uF

Was sollte denn in der Therorie besser sein wenn es ein entweder oder ist; Entweder mehr Kapazität oder mehr MLCC? Asus mal wieder außen vor, die alten Streber. ;-)
 
du musst genug Kapazität haben, UND diese schnell genug zum Chip bringen (und nachher wieder nachfüllen).
 
Zuletzt bearbeitet :
du musst genug Kapazität haben, UND diese schnell genug zum Chip bringen.
Das dies der Idealfall ist, ist mir klar, nun können/wollen aber nicht alle ASUS kaufen und dann ist eben die Frage, auf was sollte man mehr achten. Ein konkreter Vergleich wenn mann die Graka nur darauf reduziert: Ist die Gigabyte besser als die Palit?
 
Ich halte zumindest eine MLCC Gruppe für sinnvoll. Die Lösung von Gigabyte schau ich mir morgen mal genauer an.
 
Das dies der Idealfall ist, ist mir klar, nun können/wollen aber nicht alle ASUS kaufen und dann ist eben die Frage, auf was sollte man mehr achten. Ein konkreter Vergleich wenn mann die Graka nur darauf reduziert: Ist die Gigabyte besser als die Palit?

Abgesehen von der Glättung des Stromflusses ist das nicht der Idealfall, das ist der einzige Fall wo du keine Crashes kriegst. Je nach Chipgüte reicht eine Variante oder eben nicht.
 
Das war die Zusammenfassung meines Verständnisses von Igors und den in diversen Threads verlinkten Artikeln, nur weiß offiziell keiner was genau reicht bei einem Potato-Chip.

Vor einer Entscheidung würde ich aber mindestens noch abwarten was jetzt mit dem neuen Treiber wirklich gemacht wurde; Igor zB hat angedeutet, dass er dazu noch was sagen wird.
 
Ich würde sagen ein 4+2 Design mit hoher Kapazitätwie bei Giga und ASUS.
 
Das Thema Kondensatoren scheint ja wohl mit dem Treiber Update für die Hersteller erledigt zu sein. Nacharbeit oder Bios Update gibt es wohl nicht. Der neue Treiber überschreibt die Spannungs-/Frequenz Curve im Bios, dadurch sind alle Karten ein bischen gezähmt worden. Thema ist dann wohl erledigt ?
 
Ich glaube nicht dass der Treiber Werte im Bios überschreiben (flashen) kann, aber natürlich kann er, wenn er geladen ist, über die Nvidia API "Dinge" direkt verändern.
 
Ich denke eher der Treiber setzt beim Abitrator an,nicht an der Boosttable.
 
hab gestern ein Video von einem Tester gesehen, dem noch etwas anderes aufgefallen war:

er hatte die Abstürze nur unter Windows aber nicht unter Linux

obwohl die Karte mit Linux sogar auch mal höher geboostet hat
 
Oben Unten