News Die Ampere-Launch Nachwirkungen – Über die Verkettung von Umständen und schuld sind am Ende eh wieder alle und niemand | Community-Editorial

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.107
Bewertungspunkte
18.596
Punkte
114
Alter
59
Standort
Labor
Da Ihr wisst, dass auf unserer Seite die Community eine nicht unwesentliche Rolle spielt, haben auch die Forenmitglieder natürlich nicht nur eine eigene, private Meinung, sondern hier auch die Möglichkeit, sich in Form eines Editorials nach inhaltlicher Absprache der Grundregeln öffentlich zu äußern. Somit sind diese Artikel unabhängige Gastbeiträge unserer aktiven Foren-Mitglieder, die eine persönliche Meinung wiederspiegeln, die nicht zwangsläufig das gesamte Forum repräsentieren kann, es in gewissenn Teilen aber mit Sicherheit tut. Der heutige Gastbeitrag kommt von skullbringer, der sich sehr viel Mühe gegeben hat, um die letzten turbulanten Wochen rund um NVIDIAs Ampere-Launch noch einmal zusammenzufassen. Es ist seine Sicht der Dinge, die ich auch nicht weiter zu kommentieren habe.


>>> Hier das Editorial lesen <<<
 
Sehr schöner Erklärbar Beitrag der hoffentlich bei allen ankommt. (y)
Als Praktiker in Sachen Elektronik sei auch noch erwähnt das MLCC nicht gleich MLCC ist. Diese kleinen fiesen Dinger haben mich hin und wieder mal geärgert. Wer sich hier noch weiter Informieren möchte, sollte mal nach den Unterschieden zwischen Standard und Open-Mode Varianten in Automotive Anwendungen Googeln.


EDIT: Hätte mir vorher ein Kaffee machen sollen, stellte sich als Fehler heraus, da der Beitrag recht Umfangreich ist.:D
 
Zuletzt bearbeitet :
Vielen Dank für den Artikel, schön unaufgeregt und detailliert!

Die Zusammenhänge bezüglich der Launchprobleme sehe ich genauso – über die Beweggründe von nVidia kann man aber nur spekulieren. Irgendwas muss dort eigentlich anders als geplant gelaufen sein.

Viel Spaß mit dem Popcorn während einige im Forum wieder Diskussionen über der Temperatur von GDDR6X führen. 😂 🔥

Für meinen Hauptanwendungszweck 3D-Rendering sind die Karten allerdings ein No-Brainer. Werden eh gedrosselt um 24/7 kühl zu laufen und bieten um Längen bessere Performance als Turing. AMD kommt wegen der APIs nicht in Frage.
 
Perfekt analysiert und wiedergegeben.
Viele "Kleinigkeiten" führen letztendlich zum Resultat.
Schuld hat keiner, dazu beigetragen aber jeder.

Wir hatten bei uns vor ein paar Jahren ein Ähnliches Problem.
Unser Produkt hatte am Markt ein paar eigenartige Aussetzer die wir uns anfangs nicht erklären konnten.
Bis wir Rausfanden dass unsere Spannungsvorgaben nicht eingehalten wurden. Warum?
Nun: die Spannung die Anliegen sollte, dufte eine maximale Schwankungsbreite von +/-5% haben.
Jetzt kam es aber dass es interne Widerstände in der Batterie gab.
Dazu kam es, dass das Batteriefach, das aufgesteckt wird, Bauelemente verbaut hatte die ebenfalls +/- 3% toleranz aufwiesen (also innerhalb der vorgaben).
Kurzum: Am ende gab es am Chip eine Schwankung von +/-11,2% je nachdem wie man die einzelnen Sachen zusammengemixt hat.
Jeder hat sich an die vorgaben gehalten. Am Ende haben sich die Toleranzen aber summiert und ein ungewünschtes Resultat abgeliefert.

Die Kernfrage: Was wäre hier jetzt eine gute Lösung?

Neue Power Limits? Man könnte im ATX Standart ein Limit setzen. Denn: 400W is schon eine ordentliche Ansage(ohne spikes).
Muss eine GraKa wirklich so viel Strom verbrauchen?

Ein neuer ATX Standard? Um den neuen Anforderungen gerecht zu werden?

Was mein ihr?
 
Ja, danke für die plausible und nachvollziehbare Zusammenfassung. Allerdings bin ich nicht ganz so entspannt bei der Schuldfrage. Ich bin mir sicher, dass viele Pre-order Kunden nicht geordert hätten, wenn sie gewusst hätten, dass die AIBs ihre Produkte nicht testen konnten. Lesen ja nicht alle hier im Forum mit ;)
Und in Bezug auf die Binnings lohnt es sich wohl, noch ein paar Wochen verstreichen zu lassen. Mannmannmann - was ne Hysterie jedesmal!
 
Zweitens, Gigabyte sagt uns direkt wie viel Kapazität die Nvidia Spezifikation verlangt, nämlich 2820 uF, und dass alle Gigabyte Designs diese Vorgabe sogar übertreffen.

Ähm, nein.
Gigabyte sagt, dass ihre Caps die Specs einhalten, und AUSSERDEM noch mehr Kapazität haben als Standard ist.

zB.:
Palit hat hier 5x 220er Caps drauf, und das ging so sicher auch durch die NV-Abnahme.
3080 FE hat hier 2x 470er und unten 2x 220er Caps.
 
sehr gute Zusammenfassung, perfekt zusammengefasst. danke
 
Danke! Schöner und ausführlicher Beitrag -> vielmehr als mit Popkorn zu warten bleibt uns allen ja nicht übrig :D solange schnurrt die 1060 dann noch weiter
 
Toller Gastbeitrag! Vielen Dank dafür!

Nicht zu viel, nicht zu wenig. Ausreichende Tiefe locker, aber nicht zu salopp ausformuliert. R&G sehr gut (ein kleiner und/uns Dreher im Fazit).

Diplomatisch versucht alle Seiten zu beleuchten und mit einzubeziehen, ohne dabei scharf zu schießen.

(y)(y)(y)
 
Wie immer bewährt: Nicht sofort bestellen, erst mal abwarten.
Auf Ergebnisse, auf eventuelle Bugs die nicht sofort sichtbar sind, treibernachbesserungen und dann kann man zuschlagen.
Die konkurrenz hat bis dahin evtl. auch schon was am markt und der preis ist dann auch wieder günstiger :)
 
Sehr schöne Zusammenfassung. Die Schuldfrage sehe ich aber definitiv anders - wen nNvidia keine Treiber zur Verfügung stellt und einen überhasteten Launch hinlegt, ist mir persönlich klar, wem ich die Schuld gebe. Aber das darf ja jeder sehen, wie er will.

Ein Verbesserungsvorschlag noch: Abkürzungen einführen (oder noch besser, unnötige Abkürzungen weglassen). Es behindert den Lesefluss, wenn man alle drei Zeilen eine Abkürzung googeln muss. CPU, GPU und PCB muss man auf igor´SLAB sicher nicht erklären. Aber viele anderen Abkürzungen sind weniger gebräuchlich und unnötig. Und was POS/SP/MLCC eigentlich bedutet, kann man auch mal erwähnen.

Nachfolgend noch eine kurze Liste der Begriffe, die ich gegoogelt habe.
MLCC - "Multilayer Ceramic Capacitor"; MLLC-Kondensator ist also so sinnvoll wie ein LCD-Display ;-)
POSCAP - Marken-Bezeichnung, wird leider nirgends erwähnt, aber aufgrund der Bauweise wahrscheinlich "POlymer Solid CAPacitor"; Tantal-Kondensatoren mit Festelektrolyt
SP-CAP - Marken-Bezeichnung (Panasonic), wird leider nirgends erwähnt, aber aufgrund der Bauweise wahrscheinlich "Solid Polymer Capacitor"; Aluminium-Kondensatoren mit Festelektrolyt
OCD - Zwangsstörung (obsessive-compulsive disorder)
e-peen - Laut Internet ein kurzer online-Penis... (https://www.urbandictionary.com/define.php?term=e-peen)

Die UVP ist für viele sicherlich eine unverbindliche Preisempfehlung, wurde hier aber schön bei erster Verwendung deifniert (genau wie CTD). Bitte bei den anderen Abkürzungen genauso, dann liest es sich leichter!
 
Kurz: Klasse Artikel. Danke @skullbringer

Fair, gut recherchiert und beleuchtet alle Punkte.

Sehr schöne Zusammenfassung. Die Schuldfrage sehe ich aber definitiv anders - wen nNvidia keine Treiber zur Verfügung stellt und einen überhasteten Launch hinlegt, ist mir persönlich klar, wem ich die Schuld gebe. Aber das darf ja jeder sehen, wie er will.

Man kann das so sehen, aber letztlich hat NVidia die Treiber ja nicht zurückgehalten, weil man Leute ärgern wollte, sondern weil man sich genötigt sah, anhand der in der Vergangenheit überboardenden Leakerei.

Also auch hier: Die Schuld ist nicht einfach an einer Stelle zu suchen. Alles ist Aktion und Reaktion.
 
Den Beitrag hab sogar ich verstanden ... glaub ich ... vieleicht.

Wobei ... für mich ist NVidia nicht wirklich raus aus dem Schlamassel. Selber over-hypen (die ganzen leeks von "kimi"-irgendwas ... zu oft zu genau und immer, wenn die Konkurenz grad im Gespräch ist *verschwörungstheorie basteln*) und Treiber quasi erst am Release Tag liefern? Nop, wirklich, totales no-go!
Wer gezielt so hypt sollte wissen was nötig ist um den hype auch halten zu können!

Die AIB's (haste vergessen @TRX ;) ) müssen ihre Karten planen, Bauteile ordern, Platinen designen, das ganze drum rum designen, dann auch alles fein zusammen kleben UND verschiffen. Ich mein die Dinger beamen ja nicht von Singapur nach Deutschland oder den rest der Welt. Und so nen Transport peer Schiff dauert numal nen paar Tage/Wochen. Selbst peer Luftpost sind die mindigens 3 Tage unterwegs einmal rund um den Globus.
Hat NVidia sich gedacht: "hey, wir ham 6 Jahre für die Planung gebraucht, die AIBs machen das bestimmt von heute abend auf morgen früh"??

Das GigaByte "NUR" den Vorgaben entspechend bzw leicht drüber entwickelt kann man ihnen nicht wirklich vorwerfen. Wenn BMW mir sagt ich kann 250km/h fahren und ich dass dann auch mache ... dann MUSS das klappen OHNE, dass mir dabei alle Räder abfallen!! Und Crash-To-Desctop oder gar Panik-Shutdown from Netzteil IST wie alle Räder bei Tempo 250 abwerfen und gleichzeitig noch den Motor aus der Haube ballern.
Und alles nur, weil ich eine Gaming Karte zum ... um Gottes willen wie kann ich nur ... Gamen benutze?? Also gemacht habe, was mir versprochen und zugesichert wurde?
Und das nicht bei den "Abfallprodukten" wie 050 oder 030 (ka wie weit das runter geht) sondern bei den 900,- bis 1500,- SuperDuperTopModellen. Also Quasi BMW 850i und nicht 3er ProlloKiste.

PS: Kann sich noch wer an den F1 RedBull erinnern, der auf der Graden bei tempo 320+ beide Vorderräder abwirft? SO ist das grad mit den 3080/3090 ;). Nur hat RedBull dann instant den zweiten aus dem Rennen genommen um zu prüfen wodran es lag. NVidia macht? *hust* Rückruf Aktion wie bei Autos? Nen Entschuldigungsschreiben an alle AIBs und Endkunden? Irgend was mit Umtauschrecht?
Ich seh nix ...

Am Ende bleibt mir nur ein Fazit:
Die gesammte Elektro und IT Branche ist nach wie vor ein Sauhaufen, der macht was er will ohne Konsequenzen fürchten zu müssen :(. Das war vor 30 Jahren so, das wird auch in 30 Jahren noch so sein.
 
Zuletzt bearbeitet :
Als Ursache der Probleme wird ja immer die Leistungsschwankungen durch Taktanpassungen der neuen Chips erwähnt. Da diese unerwartet gross sind, überfordert es die Kondensatoren der Grafikkarten und der Netzteile. Das wird einfach so erwähnt, aber weiss eigentlich einer, warum Nvidia seine Karten genau so regelt und ob es nicht anders auch gehen würde? Es ist ja jedem verständlich, dass sich eine solche Karte je nach Temperatur und anderen Umständen höher oder tiefer Takten kann. Aber wer ausser Nvidia weiss genau, warum der Verlauf nun so stark schwankend heraus gekommen ist? Hat dazu jemand genauere Informationen.
Der kurzfristig etwas hoch angesetzte Boost ist ja nur die eine Schwanktung. Dass eine Karte in sehr kurzen Zyklen immer etwas hoch regelt und dann wieder kurz pausiert ist das andere schwierige Verhalten. Warum merkt eine solche Karte mit der Zeit nicht, welchen Takt sie über die ganze Zeit stabil halten kann und hällt diesen dann durchgehend ohne Spikes von 200 Watt im Millisekundenbereich zu erzeugen?
Mit dem neuen Treiber scheint da einiges verbessert worden zu sein. Ohne Informationen eines Insiders kann man über diese Technik eigentlich nicht mit diskutieren. Man weiss ja nicht, welche Gründe Nvidia zu dieser Regelung wie wir sie sehen veranlasst hat.
 
Generell: Je feiner und schneller die Regelung reagiert, desto mehr Performance bekommt man denn desto besser wird die Kapazität der Rahmenparameter ausgenutzt (PowerTarget, Chip-Güte, Temperatur...).

Aber wenn ich mir die Diagramme von Igor so ansehe, muss ich mich schon wundern, warum NVidia das so auf die Spitze treibt. Eine etwas glattere Kurve mit weniger Spitzen nach oben UND unten müsste doch am Ende eine ähnliche Performance bringen, ohne die Regelung und damit verbundenen physikalischen Probleme so auf die Spitze zu treiben...

Als Laie wundert man sich. Aber ich maße mir auch nicht an, das besser zu verstehen, als die Ingenieure von NVidia.
 
Super Beitrag, danke dafür 👏
Eine Verkettung unglücklicher Umstände. Aber diese Kette hat ja irgendwo anfangen müssen. Sehe es auch so, wer sich so unter Druck setzen lässt, hat womöglich richtig "Angst".
 
@ Ähnliche Performance: sieht man doch am neuen Treiber; 4W weniger im Schnitt, also bisschen mehr als 1%, und Performance fällt auch um ca. 1%.

Aber eine Regelung/Limitierung von max. +200W (Hausnummer) innerhalb von 5ms wäre mMn nett.
 
Sehr schöne Zusammenfassung. Die Schuldfrage sehe ich aber definitiv anders - wen nNvidia keine Treiber zur Verfügung stellt und einen überhasteten Launch hinlegt, ist mir persönlich klar, wem ich die Schuld gebe. Aber das darf ja jeder sehen, wie er will.

Ein Verbesserungsvorschlag noch: Abkürzungen einführen (oder noch besser, unnötige Abkürzungen weglassen). Es behindert den Lesefluss, wenn man alle drei Zeilen eine Abkürzung googeln muss. CPU, GPU und PCB muss man auf igor´SLAB sicher nicht erklären. Aber viele anderen Abkürzungen sind weniger gebräuchlich und unnötig. Und was POS/SP/MLCC eigentlich bedutet, kann man auch mal erwähnen.

Nachfolgend noch eine kurze Liste der Begriffe, die ich gegoogelt habe.
MLCC - "Multilayer Ceramic Capacitor"; MLLC-Kondensator ist also so sinnvoll wie ein LCD-Display ;-)
POSCAP - Marken-Bezeichnung, wird leider nirgends erwähnt, aber aufgrund der Bauweise wahrscheinlich "POlymer Solid CAPacitor"; Tantal-Kondensatoren mit Festelektrolyt
SP-CAP - Marken-Bezeichnung (Panasonic), wird leider nirgends erwähnt, aber aufgrund der Bauweise wahrscheinlich "Solid Polymer Capacitor"; Aluminium-Kondensatoren mit Festelektrolyt
OCD - Zwangsstörung (obsessive-compulsive disorder)
e-peen - Laut Internet ein kurzer online-Penis... (https://www.urbandictionary.com/define.php?term=e-peen)

Die UVP ist für viele sicherlich eine unverbindliche Preisempfehlung, wurde hier aber schön bei erster Verwendung deifniert (genau wie CTD). Bitte bei den anderen Abkürzungen genauso, dann liest es sich leichter!

Waren POSCAPs nicht auch SP-CAPs ? POS = Peace of shit... ?
 
Das liest sich wie ein Thriller👌 Ich bin für ne Verfilmung a la Michael Moore...Bowling for Ampere😉
Ich sehe aber durchaus Nvidia in einer großen Verantwortung, um ihr Produkt geht es ja im Grunde.
 
Oben Unten