@rockys82:
Mit 4 HBM2-Stacks wäre ein Chipdesign mit Dual-Speichersupport bereits hinfällig, weil das pauschal noch deutlich mehr Wafer-Fläche verschwenden würde, d. h. man bräuchte zwei dedizierte Chipdesigns, eines mit einem GDDR6- und eines mit einem HBM2-Speicherinterface. Das ist, wie ich schon schrieb, noch einmal zusätzlich teuerer, da die Entwicklung und auch Fertigung eines komplett separaten Designs noch einmal beträchtliche Mehrkosten verursacht (und die vertriebstechnische Flexibilität einschränkt).
nVidia könnte sich so etwas weitaus eher als AMD leisten, denn die haben deutlich größere Marktanteile und damit gesichertere Absatzvolumina.
Da viele Details für eine Betrachtung der Wirtschaftlichkeit fehlen, lässt sich das schwer bewerten, außer grobe "Wahrscheinlichkeiten" anzugeben. Wenn es jedoch HBM-Unterstützung geben sollte, dann würde ich ein Dual-Interface für den optionalen Anschluss von zwei Stacks für wahrscheinlicher halten, aber selbst hier bin ich mir nicht sicher, ob AMD einen solchen Weg einschlagen wird. AMDs kleinere Marktanteile beschränken ihren Handlungsspielraum wenn es wirtschaftlich sein soll und genau darum dreht sich am Ende schlussendlich alles.
Anmerkung am Rande: Du bist mit deinem "
mir wäre der Aufpreis völlig schnuppe" für den Markt und für die Hersteller weitestgehend irrelevant, weil du mit einer derartigen Einstellung nur eine kleine Randgruppe darstellst. AMD und nVidia fertigen dagegen Produkte für den Massenmarkt und keine Individualprodukte. ;-)
"
Ich bleib dabei, aufrüsten erst mit einer AMD Karte im Vollausbau und HBM". Wie ich schon schrieb, so etwas wie einen "
Vollausbau" gibt es hier nicht, da es kein festdefiniertes, oberes Limit gibt.
Abgesehen davon steht mit deiner Aussage die Chance nicht schlecht, dass du in den nächsten 18 Monaten keine neue GPU kaufen wirst. ;-)
@Oberst:
Als kleine Korrektur: Die Peak-Leistung, die auch Microsoft angab, wird erreicht, wenn sämtliche TMUs für Ray-Intersection-Berechnungen verwendet (und maximal ausgelastet) werden. Das ist jedoch nicht mehr als ein theoretisches Szenario. Begleitend dazu wird man weitaus weniger SPs parallel benötigen, d. h. die übrigen SPs können sonst was machen, nur ist die Frage wie weit diese kämen, wenn die TMUs gar nicht für Textur-Operationen zur Verfügung stehen, d. h. hier würde man schnell Workload-Stages stockpilen bis es nicht mehr weiter geht, weil die fehlenden Textur-Operationen weitere "Vorausarbeiten" der freien SPs blockieren würde.
Das externe Multi-GPU-Szenario ist ja bereits hinfällig. Alle drei großen PC-Hersteller arbeiten an MCM-Designs (Intel wird hier wahrscheinlich als Erster Produkte in den Markt bringen; Xe-HPG, möglicherweise auch in einer 2-Tile-Variante) und selbst bspw. Imagination Technologies könnte ggf. in den PC-Mark zurückkehren. Mit ihrer B-Series haben sie ein hocheffizientes MCM-Design vorgestellt, dass bis zu vier GPUs kombiniert, die in Richtung Grafik-API völlig transparent als eine GPU in Erscheinung treten (BXT 32-1024 MC4, 6 TFlops FP32, durchaus beachtlich für ein Mobile-Design und angeblich weitaus effizienter als alles derzeit Verfügbare von AMD und nVidia).
Für ihre kommende C-Series stellen sie vollumfänglichen Raytracing-Support in Aussicht und wollen dabei gar noch etwas weitergehen als derzeit nVidia und AMD. Es könnte also durchaus sein, dass man Ende 2021 bzw. in 2022 vielleicht gar vier GPU-Hersteller auf dem PC zur Auswahl haben wird, wer weiß ...