Also Multi Chiplet Designe hat rein gar nichts mit Multi GPU zu tun und auch kann man dies nicht mit den CPU Kernen vergleichen.
Grafikkarten sind super parallelisiert und kein Softwareentwickler muss sich hier um mehr oder weniger "Kerne" kümmern, absolut kein Vergleich zu Aufteilung auf mehrere CPU Kerne.
Multi GPU hat man 2 GPUs welche beide ihr eigenes "Ding" machen und sich die Arbeit aufteilen müssen. Zum Beispiel, dass sie sich bei den Frames rendern abwechseln. Die gängigste Methode und ja das bedeutet Arbeitet für die Treiberentwickler und Softwareentwickler. Hat massig Nachteile (Habe SLI über 2 Generationen ausgiebig betrieben), weshalb es auch ziemlich von der Bildfläche verschwunden ist.
Multi Chiplet Designe gibt es für das System nur 1ne GPU, eine einzige und für die Software ändert sich rein gar nichts zu einer heutigen single Die GPU. Durch die Kommunikationswege, wie die Chiplets mit einander kommunizieren, kann höhere Latenzen bedeuten, was die Leistung in den Keller drückt und sogar vielleicht der Effizienz schadet. Vorteil sind Kostenreduktion, da bei der Produktion weniger Ausschuss entsteht und die GPU Modelle innerhalb einer Generation, leichter zu Skalieren sind.
Rein für den User ist es ganz einfach schlecht. Von den Hardware Entwicklern aber ein Muss. Wie schon erwähnt Kosten sparen, durch weniger Ausschuss auch Umweltfreundlicher (wenn man das in diesem Bereich überhaupt behaupten kann) und "leichter" zu Entwickeln, da ein Chiplet weniger Komplex ist als ein Single-Die (Natürlich ist ein Chiplet der next-gen sicher Komplexer als ein GPU Die der vorletzten Generation)
Etwas mehr zum Thema selbst; ich glaube nicht dass Nvidia in der Lage ist den grossen Boardpartner wie Asus, MSI, Gigabyte zu verweigern Intel Grafikkarten zu vermarkten.
Ich bin aber auch Beeindruckt, wie Intel, nach dem katastrophalen Arc Release, die Karre aus dem Dreck zieht und in vielleicht Bereichen bereits jetzt AMD überlegen ist. Intel Arc hat bessere RT Cores als AMD, XMX Cores für AI Applikationen (wie HW beschleunigtes Upscaling), bessere Decoder...
Bringt Intel es fertig, ihre Rohleistung der Hardware zu verbessern und natürlich auch die Effizienz, werden sie sicher als starke Konkurrenz ernst genommen. Und hier kann ich mir Vorstellen, dass Nvidia schon plant wie sie ihre aktuelle Position stärken können.
Aus Sicht einer Firma ist es doch ganz Normal, zu versuchen die Konkurrenz "aus zu schalten".
Es ist nur so, ist man in der Position von Nvidia oder bei den CPU bei Intel, vor Ryzen, wird sofort mit dem Finger gezeigt.
Bringt es aber z.b. AMD fertig Nvidia einen Boardpartner aus zu spannen, wird dies gefeiert. Je besser AMD aber da steht, gerade im CPU Bereich, desto mehr sieht man, dass sie sich eigentlich genau gleich, wie die anderen grossen verhalten und nur an Gewinnmaximierung interessiert sind.