Am heutigen Tag hat AMD ein Keynote aufgehabt auf der diesjährigen Computex. Auf dieser Messe hat AMD seinen neuen AI-Chip vorgestellt. Den AMD Instinct MI325X.
Werfen wir doch erstmal einen kurzen Blick auf die Geschichte von AMDs Accelarator und auch dessen Zukunftspläne. 2020 ging es los mit seinem AMD CDNA MI100 Accelerator los. Der ersten speziall gebauten Beschleuniger für FP64 und FP32 HPC Workloads. Ein Jahr später folgte schon der Nachfolger. Den CDNA MI200 Accelerator. Hier gibt es eine dichtere Rechenarchitektur mit höherer Speicherkapazität und Bandbreite. 2022 ist dann der CDNA 3 erschienen. Hier hat man seinen Fokus auf einen einheitlichen Speicher gelegt mit AI Data format performance und in-node networking.
Dann erschien der bis uns vor kurzem aktuellen CDNA 3 MI300X mit generative AI-Leadership und dann folgte für dieses Jahr der neuste Accelerator von AMD. Der AMD Instinct MI325X Platform mit HBM3E-Speicher und höherer Rechenleistung. Aber hier soll der Plan noch nicht enden, denn bereits im nächsten Jahr geht es weiter mit einer neuen Version des CDNA. Den CDNA 4, der eine noch höhere Rechenleistung bieten soll und eine Speicherführung sein soll. 2026 wird dann eine Next-Gen Architektur des Beschleunigers vorgestellt werden.
Aber genug ein Einblick in dieser Geschichte. Kommen wir genauer zu den Details des neuen Beschleunigers. Wie zuvor erwähnt, wird ein HBM3-Speicher eingebaut. Der Speicher soll doppelt so groß sein als sein Vorgänger. Genauer gesagt bis zu 288 GB. Auch die Bandbreite wird sich um ein 1.3x faches vergrößern auf 6 TB/s. Hier setzt AMD auch ein Zeichen gegen NVIDIAs H200-Accelerators. Man ist überlegen gegenüber seinem H200-Chip um ein Vielfaches. Auf einer AMD Instinct MI325X Platform sind hierbei 8 AMD Instinct MI325X GPUs verbaut. Hier soll der theoretische Peak von PF auf etwa 10.4 liegen. AN HBM3E-Speicher kommt auf ganze stolze 2.3 TB, die erreicht werden können. Die Infinity Fabric Bandbreite ist auf etwa 896 GB/s angesetzt.
Der Instinct unterstützt die beliebtesten Gen-AI-Models wie GPT-4, LLAMA 2 oder auch Stable Diffusion. Auch wird hierbei AMD ROCm-Technologie mit verwendet. So können z.B. über 700.000 Models genutzt werden bei Hugging Face durch ROCm. Aber auch mit OpenAIs Triton ist ein voller Support mit ROCm möglich. Man will die Grenzen von Data Center AI Performance pushen. Für AMDs Partner Microsoft erwähnt Satya Nadella, dass die MI300X eine Führung an Preis-Leistung-Verhältnis bietet und auch optimiert ist für Microsoft Azure Workloads.
“MI300X offers leading price/performance on GPT4 inference. Optimized for Microsoft Azure workloads”
Zudem hat man einen kleinen Ausblick für sein Modell im nächsten Jahr vorgestellt. Dieser soll ein 3 nm Proces Node werden mit ebenfalls 288 GB HBME3-Speicher und FP4/FP6 Datatype support. Mehr erfährt man wohl erst im nächsten Jahr.
Die Informationen wurden von AMD vorab zur Verfügung gestellt. Einzige Bedingung war die Einhaltung der Sperrfrist am 03.06.2024 um 5.00 Uhr.
Quelle: AMD
1 Antwort
Kommentar
Lade neue Kommentare
Mitglied
Alle Kommentare lesen unter igor´sLAB Community →