Große Technologieunternehmen treiben Nachfrage nach KI-GPUs von NVIDIA an

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.821
Bewertungspunkte
8.833
Punkte
1
Standort
Redaktion
Im dritten Quartal 2023 hat das Forschungsunternehmen Omdia detaillierte Einblicke in die Aktivitäten von Team Green gewonnen und dabei erstaunliche Ergebnisse festgestellt. NVIDIA hat im Quartal fast unglaubliche „eine halbe Million“ KI-GPUs verkauft, hauptsächlich bestehend aus dem Hopper H100 und dem Ampere A100. Diese Verkaufszahlen sind beeindruckend und haben NVIDIA in eine dominierende Position auf den Märkten gebracht. Das Unternehmen plant, im Jahr 2024 Millionen von GPUs zu verkaufen, was angesichts der Quartalsleistung durchaus erreichbar zu sein scheint und das Engagement von NVIDIA unterstreicht. Die erzielten Ergebnisse sind eine echte Überraschung und werden sicherlich für Aufsehen in der Branche sorgen. […] (read full article...)
 
Im Moment wird die Anzahl der lieferbaren H und GH Beschleuniger v.a. durch den Engpass beim Packaging beschränkt. Das passiert auch bei TSMC, und obwohl TSMC mit Hochdruck an dem Bau weiterer Packaging Anlagen arbeitet, wird's wohl noch mindestens ein Jahr dauern, bevor die neuen Anlagen in Großserie fertigen können. Diese SoCs so zusammen zu fügen daß die Wege sehr kurz und die Datenübertragungen sehr schnell sind ist fast genauso kompliziert wie die Chipfertigung selbst, und es gibt im Moment wohl nur zwei große Firmen, die sowas beherrschen: TSMC ist eine, und Intel die andere. Ich warte schon darauf, daß Nvidia hier Intel als Auftragsfertiger zum Packaging engagiert, würde im Moment beiden helfen, und Intels KI Beschleuniger sind bis dato auch keine große Konkurrenz für die H und GH 200, man käme sich also nicht ins Gehege. Jensen Huang hatte ja schon vor Monaten öffentlich einige nette Worte über Intels neue EUV Knoten gesagt, das wird er nicht nur aus Gefälligkeit getan haben. Ich spekuliere einfach mal, da ging's auch darum, schönes Wetter zu machen während man über Geschäftliches redet. Aber, alles nur Spekulatius, direkten Draht hab ich da (leider) keinen.
 
NVIDIA scheint bestens gerüstet zu sein, um die wachsenden Märkte vollständig auszuschöpfen. Bis zum Jahr 2027 wird ein Umsatz von rund 200 Milliarden US-Dollar in der Serverbranche erwartet. Das Unternehmen hat bereits angekündigt, seine KI-Angebote durch die Übernahme neuester Standards für Halbleiter und Speicher sowie signifikante Verbesserungen in den Softwareressourcen wettbewerbsfähiger zu gestalten.

Gottlob gibt es ja auch noch andere Unternehmen, und dadurch soetwas wie Wettbewerb.

Habe mir eben beim Eisenbiegen den AMD-Stream zum Thema AI angesehen, bzw. angehört. Natürlich ist das zunächst eine Werbeveranstaltung, noch dazu im amerikanischen Hurra-Stil. Aber trotz allem habe ich schon den Eindruck, AMD ist auf diesem Gebeit selbstbewusst und gut aufgestellt. Im Gegensatz zur Präsentation der RDNA3-Architektur hat man sich hier direkt mit "dem Wettbewerb" verglichen, und behauptet, mit der neuen Plattform MI300X um Faktor 1,6 bis 1,8 schneller zu sein, und dabei noch mehr Speicher zu bieten, sodass mehr LLMs auf einem Server laufen können.

Und AMD hat die Veranstaltung im Gegensatz zu den Single-Leather-Jacket-Veranstaltungen des Wettbewerbs zusammen mit Partnern (Microsoft, Meta, IBM, Oracle, Cisco, Dell, Broadcom, Microstar,...) absolviert. Man setzt auf offene Standards, weil "der Rest" der Industrie offensichtlich echt keinen Bock hat, den Kuchen einem einzigen Vielfraß zu überlassen.

Diverse Redner dieser Partner haben - mal mehr oder weniger deutlich, teils sehr humorvoll - anklingen lassen, dass sie nach diesen Chips dürsten, weil der MArkt danach dürstet. Und AMD hat angedeutet, dass sie diese bereits seit Anfang des Quartals in Massenproduktion herstellen und ab nun auch ausliefern. Ein Teil der Partner hat bereits fertige Produkte.

Sprich: es könnte sein, dass die Formulierung "bestens gerüstet zu sein, um die wachsenden Märkte vollständig auszuschöpfen" an der Realität vorbeigeht
 
Oben Unten