Einfacher Bug statt Feature: Warum der AD103-301 auf der NVIDIA GeForce RTX 4080 nur einen Fehler behebt und der AD104-251 der kommenden RTX 4070 auch

Unabhängig von meiner grundsätzlichen Begriffsstutzigkeit - das was die da treiben ist mindestens interessant. Ich habe also in meiner "noch älteren" 4090 einen Bug nicht, der in der neueren "4080" drin ist ? Oder verstehe ich da was komplett falsch ?
Der "Bug" ist erst durch die Teildeaktivierung des 4080 eingetreten. Der 4090 ist zwar auch teildeaktiviert, aber dabei scheint das Problem nicht aufgetreten zu sein.
 
Unabhängig von meiner grundsätzlichen Begriffsstutzigkeit - das was die da treiben ist mindestens interessant. Ich habe also in meiner "noch älteren" 4090 einen Bug nicht, der in der neueren "4080" drin ist ? Oder verstehe ich da was komplett falsch ?
Die alte 4080 (bug) und die alte 4090 (kein Bug) sind prinzipiell eigentlich gleich alt, Werden aber in der Fertigung halt anders behandelt (abhängig von dem was der Chip am Ende sein soll) und das hat wohl zum Fehler geführt.... Dieser wurde jetzt eben in der neuen Revision der 4080 und 4070 ausgemerzt.
 
Was mich auch noch interessiert: Wer beschneidet denn die teildeaktivierten GPU Chips? Wird das direkt in der Foundry, also (in diesem Fall) bei TSMC gemacht, oder wird da "im Auftrag" gelasert? Da teildeaktivierte Chips ja auch wichtig für die Ausbeute (yield)* sind, würde die Foundry selbst zwar Sinn machen, aber ich weiß es eben nicht.
 
Danke. Macht auch am meisten Sinn. Und (denke ich mir) heißt dann wohl, daß die paar Cent Mehrkosten für den externen Komparator doch irgendwie zwischen TSMC und NVIDIA aufgeteilt wurden. Wobei es bei den Preisen auch kaum ins Gewicht fallen würde wenn es NVIDIA einfach mit trägt; denen geht's zumindest bis jetzt ja sehr gut. Man wird sehen, wie lange das noch anhält; der PC Markt insgesamt ist ja ziemlich eingebrochen.
 
Danke. Macht auch am meisten Sinn. Und (denke ich mir) heißt dann wohl, daß die paar Cent Mehrkosten für den externen Komparator doch irgendwie zwischen TSMC und NVIDIA aufgeteilt wurden. Wobei es bei den Preisen auch kaum ins Gewicht fallen würde wenn es NVIDIA einfach mit trägt; denen geht's zumindest bis jetzt ja sehr gut. Man wird sehen, wie lange das noch anhält; der PC Markt insgesamt ist ja ziemlich eingebrochen.
Wer weiß.. TSMC wird ja auch nicht einfach irgendwas zerschießen... Also da muss es ja auch eine "Maske" geben für diesen Vorgang bzw einen Plan. Wenn sich TSMC an die gehalten hat werden die auch nichts zahlen. Wenn das TSMC "verbrochen" hat dann werden die vermutlich auch irgendwie auf den Kosten sitzen bleiben.
 
Unabhängig von meiner grundsätzlichen Begriffsstutzigkeit - das was die da treiben ist mindestens interessant. Ich habe also in meiner "noch älteren" 4090 einen Bug nicht, der in der neueren "4080" drin ist ? Oder verstehe ich da was komplett falsch ?
4080 und 4070 sind quasi beschnittene Chips. Die 4090 hat halt zwar keinen Vollausbau, ist allerdings auch nicht beschnitten.

Bei den "kleineren" Karten wurde wohl die Lüfterfunktionalität beim Beschneiden derartig verändert, dass so ein Komparator notwendig wurde.
 
Man muss ja auch wissen, wie so ein "Beschneiden" funktioniert. Beim AD102-300 kann man einen kompletten GPC per Hardware-Strap einfach per Außenbeschaltung deaktivieren und das Power-Gating dafür ggf. auch, wenn es so implementiert ist . Das Kastrieren von gleich drei GPCs auf der 4080 um eine bestimmte Anzahl von SM ist schon etwas grenzwertiger, weil man ja auch das Power Gating von gleich drei SMs physikalisch anfassen muss, um hintenraus effizient zu bleiben. Die 4070 Ti hat nur ein paar Decodereinheiten weniger, die lassen sich wieder per Strap einfach deaktivieren, die 4070 kommt wieder mit massig teildeaktivierten Einheiten daher.
 
Vermutlich wird denk ich Nvidia auf den Cents sitzen bleiben.. weil wäre ursächlich ein abstellbares Problem in der Foundry für das Hoppala verantworlich hätte man wohl kaum eine neue Revision der GPU aufgelegt !?
Aber sie werden das wohl überleben ;)
 
Man muss ja auch wissen, wie so ein "Beschneiden" funktioniert. Beim AD102-300 kann man einen kompletten GPC per Hardware-Strap einfach per Außenbeschaltung deaktivieren und das Power-Gating dafür ggf. auch, wenn es so implementiert ist . Das Kastrieren von gleich drei GPCs auf der 4080 um eine bestimmte Anzahl von SM ist schon etwas grenzwertiger, weil man ja auch das Power Gating von gleich drei SMs physikalisch anfassen muss, um hintenraus effizient zu bleiben. Die 4070 Ti hat nur ein paar Decodereinheiten weniger, die lassen sich wieder per Strap einfach deaktivieren, die 4070 kommt wieder mit massig teildeaktivierten Einheiten daher.
Wobei das "Zunageln" von Funktionen/Funktionseinheiten auch ohne Weglasern ja schon länger (leider) sehr irreversibel ist, zumindest für Endverbraucher wie mich. War ja nicht immer so. Ich kann mich noch dumpf an eine GeForce erinnern (vor langer Zeit), aus der man wohl mit Mut, Lötkunst und sehr ruhiger Hand eine Quadro machen konnte. Sehr ruhige Hand, denn eine falsche Bewegung, und die Karte war wohl futsch. Die Garantie war natürlich auf jeden Fall weg, aber - wenn erfolgreich - liefen die Quadro-only Funktionen ohne Probleme, und die Quadro Prämie die NVIDIA aufruft (vs. GeForce) bei sonst ähnlicher Leistung ist schon enorm. Ich brauchte das auch damals nicht, und hätte mich da auch nicht getraut. Denn die GeForce war auch nicht gerade billig.
 
Oben Unten