Huawei liefert seit kurzem seine neuen CloudMatrix 384 AI-Cluster an chinesische Kunden aus – und macht dabei keinen Hehl daraus, was das Ziel ist: die technologische Unabhängigkeit von westlichen Zulieferern, insbesondere NVIDIA. Mit einem Preis von rund acht Millionen US-Dollar pro System ist Huaweis Eigenentwicklung allerdings alles andere als ein Sparmodell. Dafür verspricht sie rohe Rechenleistung in Petaflops, gefertigt ausschließlich mit hauseigener Hardware.
Chinesische Antwort auf NVIDIA GB200: mehr Chips, mehr Leistung, mehr Stromverbrauch
Herzstück des Clusters sind 384 Ascend 910C-Chips, die in einer „all-to-all“-Topologie zusammengeschaltet sind. Das System firmiert intern unter dem Kürzel CM384. Laut Huawei erreicht die Konfiguration bis zu 300 PetaFLOPS bei BF16-Berechnungen. Zum Vergleich: NVIDIAs GB200 NVL72, das derzeit leistungsstärkste KI-System aus Santa Clara, bringt es „nur“ auf etwa die Hälfte. Diese Dominanz erkauft sich Huawei allerdings durch brute force. Während das GB200 NVL72 auf 72 GPU-Einheiten setzt, skaliert Huawei sein System auf die fünffache Chipanzahl – was zwangsläufig nicht nur den Platzbedarf, sondern auch die Leistungsaufnahme in die Höhe treibt. Laut Angaben aus Industriekreisen liegt der Stromverbrauch des CM384 bei rund 3,9-mal so viel wie beim NVIDIA-System. Auch die Effizienz in Perf/Watt fällt im direkten Vergleich klar ab – ein Umstand, den Huawei wohl billigend in Kauf nimmt.
Unabhängigkeit hat ihren Preis: 8 Millionen Dollar pro System
Der Preis für ein vollständiges CloudMatrix 384-System liegt laut Brancheninformationen bei etwa acht Millionen US-Dollar, also etwa dem dreifachen Preis eines NVIDIA GB200 NVL72. Das deutet klar auf eine strategische Zielsetzung hin: Huawei will keine günstige Alternative bieten, sondern eine eigenständige, exportunabhängige Hochleistungsplattform für den chinesischen Markt etablieren. Bereits zehn chinesische Großkunden sollen das System übernommen und in bestehende Rechenzentrumsinfrastrukturen integriert haben. Namen werden nicht genannt, es handelt sich laut Berichten jedoch um langjährige Huawei-Partner – darunter vermutlich auch staatlich geförderte Cloud-Anbieter, Telekomkonzerne und Forschungseinrichtungen.
Technologische Einschätzung: Effizienzproblem bleibt bestehen
Die Skalierung über die reine Chipanzahl hinweg erlaubt Huawei zwar beeindruckende Rechenleistungen, löst aber nicht das Grundproblem der Energieeffizienz. Der Ascend 910C mag mit Tensor-Berechnungen glänzen, doch im direkten Vergleich zu NVIDIAs Hopper- oder Blackwell-GPUs hinkt der Chip in modernen Workloads spürbar hinterher – sowohl was die Speicherkohärenz als auch die softwareseitige Integration betrifft. Ein weiteres Manko: Während NVIDIA mit CUDA und einem tiefen Software-Stack auf ein ausgereiftes Ökosystem setzt, bleibt Huaweis AI-Software weitgehend proprietär und weniger verbreitet. Ob sich das langfristig durchsetzen kann, bleibt abzuwarten. In China jedoch dürfte der geopolitische Faktor entscheidender sein als offene Standards.
Fazit: Ein politisch getriebenes System mit technischer Kompromissbereitschaft
Huawei zeigt mit dem CloudMatrix 384, dass China willens und in der Lage ist, komplexe KI-Infrastrukturen unabhängig vom Westen zu entwickeln. Die Wahl fiel dabei ganz bewusst auf maximale Eigenständigkeit – mit allen Vor- und Nachteilen. Technisch ist das System keineswegs effizient oder modular im westlichen Sinne, aber in seiner Rohleistung durchaus konkurrenzfähig – sofern Stromverbrauch und Anschaffungskosten zweitrangig sind. Das Ziel ist klar, in einem Markt, in dem US-Sanktionen den Zugang zu NVIDIA-GPUs erschweren oder unmöglich machen, soll Huawei die nationale Rechenbasis für KI-Anwendungen sichern. Für kleinere Unternehmen dürfte das Angebot jedoch zu teuer und zu stromhungrig sein – weshalb CloudMatrix 384 vorerst ein Prestigeprodukt für die ganz großen Akteure bleibt.
Source: Financial Times
[the_ad_group id=”7834″
1 Antwort
Kommentar
Lade neue Kommentare
Urgestein
Alle Kommentare lesen unter igor´sLAB Community →