Artificial Intelligence GPUs Latest news

Major technology companies drive demand for AI GPUs from NVIDIA

In the third quarter of 2023, the research company Omdia gained detailed insights into Team Green’s activities and discovered astonishing results. NVIDIA sold an almost unbelievable “half a million” AI GPUs in the quarter, mainly consisting of the Hopper H100 and the Ampere A100. These sales figures are impressive and have put NVIDIA in a dominant position in the markets. The company plans to sell millions of GPUs in 2024, which seems quite achievable given the quarterly performance and underlines NVIDIA’s commitment. The results achieved are a real surprise and will certainly cause a stir in the industry.

Omdia also analyzed which companies actually purchased NVIDIA’s AI GPUs during the specified period. It turns out that Meta and Microsoft are at the top of the list, having purchased a total of 150,000 units of NVIDIA’s current AI GPU models. Both companies are heavily involved in the competition to develop generative AI technologies, especially when it comes to integrating AI functions into mainstream applications. Therefore, they have a high demand for computing power, which NVIDIA can fulfill with its GPUs. Other notable companies using NVIDIA’s AI GPUs in their CSP departments include Google, Oracle and Tencent.

Source: Omdia

NVIDIA is also seeing a significant share of orders from the Chinese market, accounting for approximately 30% of the company’s orders in the third quarter of 2023. This underlines the importance of satisfying the customer base in the region. However, the new US regulations may make it difficult for NVIDIA to fulfill orders, especially as the company is subject to new export restrictions. Although NVIDIA is looking for solutions, it is predicted that the company may see a decline in revenue from Chinese markets, which could present an opportunity for emerging competitors such as Huawei.

Omdia’s analysis states that NVIDIA is off to a strong start in 2024 and that quarterly sales could even continue to rise as demand for H100/A100 is rapidly increasing. Orders have already exceeded a 52-week lead time. Even TSMC has stated that NVIDIA is on track to become the world’s largest company in the industry in 2024.

NVIDIA seems to be well equipped to take full advantage of the growing markets. By 2027, sales in the server industry are expected to reach around 200 billion US dollars. The company has already announced plans to make its AI offerings more competitive by adopting the latest standards for semiconductors and memory as well as significant improvements in software resources.

Source: Omdia

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

1,475 Kommentare 832 Likes

Im Moment wird die Anzahl der lieferbaren H und GH Beschleuniger v.a. durch den Engpass beim Packaging beschränkt. Das passiert auch bei TSMC, und obwohl TSMC mit Hochdruck an dem Bau weiterer Packaging Anlagen arbeitet, wird's wohl noch mindestens ein Jahr dauern, bevor die neuen Anlagen in Großserie fertigen können. Diese SoCs so zusammen zu fügen daß die Wege sehr kurz und die Datenübertragungen sehr schnell sind ist fast genauso kompliziert wie die Chipfertigung selbst, und es gibt im Moment wohl nur zwei große Firmen, die sowas beherrschen: TSMC ist eine, und Intel die andere. Ich warte schon darauf, daß Nvidia hier Intel als Auftragsfertiger zum Packaging engagiert, würde im Moment beiden helfen, und Intels KI Beschleuniger sind bis dato auch keine große Konkurrenz für die H und GH 200, man käme sich also nicht ins Gehege. Jensen Huang hatte ja schon vor Monaten öffentlich einige nette Worte über Intels neue EUV Knoten gesagt, das wird er nicht nur aus Gefälligkeit getan haben. Ich spekuliere einfach mal, da ging's auch darum, schönes Wetter zu machen während man über Geschäftliches redet. Aber, alles nur Spekulatius, direkten Draht hab ich da (leider) keinen.

Antwort Gefällt mir

Klicke zum Ausklappem
P
ParrotHH

Veteran

178 Kommentare 191 Likes

Gottlob gibt es ja auch noch andere Unternehmen, und dadurch soetwas wie Wettbewerb.

Habe mir eben beim Eisenbiegen den AMD-Stream zum Thema AI angesehen, bzw. angehört. Natürlich ist das zunächst eine Werbeveranstaltung, noch dazu im amerikanischen Hurra-Stil. Aber trotz allem habe ich schon den Eindruck, AMD ist auf diesem Gebeit selbstbewusst und gut aufgestellt. Im Gegensatz zur Präsentation der RDNA3-Architektur hat man sich hier direkt mit "dem Wettbewerb" verglichen, und behauptet, mit der neuen Plattform MI300X um Faktor 1,6 bis 1,8 schneller zu sein, und dabei noch mehr Speicher zu bieten, sodass mehr LLMs auf einem Server laufen können.

Und AMD hat die Veranstaltung im Gegensatz zu den Single-Leather-Jacket-Veranstaltungen des Wettbewerbs zusammen mit Partnern (Microsoft, Meta, IBM, Oracle, Cisco, Dell, Broadcom, Microstar,...) absolviert. Man setzt auf offene Standards, weil "der Rest" der Industrie offensichtlich echt keinen Bock hat, den Kuchen einem einzigen Vielfraß zu überlassen.

Diverse Redner dieser Partner haben - mal mehr oder weniger deutlich, teils sehr humorvoll - anklingen lassen, dass sie nach diesen Chips dürsten, weil der MArkt danach dürstet. Und AMD hat angedeutet, dass sie diese bereits seit Anfang des Quartals in Massenproduktion herstellen und ab nun auch ausliefern. Ein Teil der Partner hat bereits fertige Produkte.

Sprich: es könnte sein, dass die Formulierung "bestens gerüstet zu sein, um die wachsenden Märkte vollständig auszuschöpfen" an der Realität vorbeigeht

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung