AI/KI News

AMD wagt sich mit Instinct MI450 an Rack-Scale-Architektur – Angriff auf NVIDIAs Vormachtstellung im KI-Rechenzentrum

Mit der Ankündigung seiner ersten Rack-Scale-Infrastruktur will AMD offenbar ernsthaft ins Rennen um die großen KI-Rechenzentren einsteigen. Die neue Instinct-MI450-Serie, deren erste Vertreter im Jahr 2026 auf den Markt kommen sollen, zielt darauf ab, NVIDIA im lukrativen Segment der skalierbaren KI-Cluster Paroli zu bieten – zumindest auf dem Papier. Erste Details zeigen, dass AMD gewillt ist, bei Bandbreite und Netzwerkarchitektur neue Maßstäbe zu setzen, wenngleich nicht ohne technische Fallstricke.

128 GPUs in einem Rack – AMDs neuer Maßstab für Rechenzentren

Laut Informationen von SemiAnalysis plant AMD zwei Hauptvarianten seiner MI450-Cluster: das IF128 mit 128 GPUs sowie ein reduziertes IF64 mit 64 GPUs. Während NVIDIA mit seiner „Vera Rubin“-Architektur (VR200 NVL144) derzeit den Takt vorgibt, will AMD nun mit einer eigenen Antwort kontern – inklusive eigener Netzwerkphilosophie. Herzstück dabei ist die Integration des firmeneigenen Infinity Fabric-Protokolls über Ethernet, das pro GPU eine unidirektionale Bandbreite von bis zu 1,8 TByte/s ermöglichen soll.

Kommunikation ist alles – und AMD dreht an der Netzwerkschraube

In Sachen Scale-Out-Netzwerk geht AMD einen nicht ganz konventionellen Weg: Jede GPU soll über drei Pensando-800GbE-Karten verfügen, was eine theoretische Netzwerkbandbreite von 2,4 Tbit/s ergibt – etwa das 1,5-Fache dessen, was NVIDIA mit seiner aktuellen Lösung bietet. Alternativ plant AMD auch eine Variante mit zwei Ethernet-Karten pro GPU via PCIe-Schnittstelle – vermutlich für jene Szenarien, in denen Energieeffizienz oder Kostenfaktoren im Vordergrund stehen. Diese Entscheidungen zeigen deutlich, dass AMD die Kommunikation innerhalb großer Rechenzentren nicht dem Zufall überlassen will. Dennoch bleibt offen, ob dieser Ansatz in realen Workloads die gewünschte Wirkung zeigt oder lediglich auf dem Datenblatt gut aussieht.

Viel Komplexität, wenig Erfahrung – die Herausforderungen der MI450-Architektur

Die IF128-Konfiguration gilt bereits im Vorfeld als technisch aufwendig. Die hohen thermischen Anforderungen, das komplexe Netzwerkdesign und die noch fehlende Serienerfahrung AMDs im Rack-Scale-Segment werfen Fragen zur Produktionsfähigkeit und Zuverlässigkeit auf. Gerade in Zeiten knapper Lieferketten und anspruchsvoller Validierung könnte sich dies als Stolperstein erweisen. Deshalb scheint AMD vorausschauend zu handeln: Die kleinere IF64-Variante setzt auf ein weniger komplexes Layout und dürfte als Einstiegsversion für Partner dienen, die sich an das neue Ökosystem herantasten möchten. Hier dürfte es auch einfacher sein, Erfahrungen im praktischen Einsatz zu sammeln und potenzielle Fehlerquellen auszumerzen.

Wirkung und Strategie – ein langer Weg zur NVIDIA-Konkurrenz

Dass AMD die große Bühne der KI-Cluster betritt, ist keine Überraschung – wohl aber, dass man sich direkt an NVIDIA messen will, und das mit einer bislang unerprobten Architektur. Der Rückstand gegenüber Blackwell und der kommenden GB300-Generation ist nicht trivial. Insbesondere da NVIDIA in Kürze vollflüssigkeitsgekühlte Systeme mit nochmals gesteigerter Leistung auf den Markt bringen will. Für AMD ist der MI450 somit ein doppeltes Wagnis: Einerseits will man mit hoher Bandbreite, innovativer Netzwerkarchitektur und eigenen Interconnects punkten, andererseits fehlen bislang noch Erfahrungswerte im Betrieb solcher Systeme. Ob die ambitionierten Pläne in der Realität standhalten, bleibt abzuwarten – vor allem in einem Markt, der auf Stabilität und Skalierbarkeit setzt.

Potenzial vorhanden – aber auch viele Unbekannte

Mit dem Einstieg in den Rack-Scale-Bereich geht AMD einen folgerichtigen Schritt, der allerdings mit erheblichen Risiken behaftet ist. Die technischen Konzepte wirken vielversprechend, doch bleibt offen, ob sie in der Praxis die notwendige Reife und Effizienz erreichen. Sollte AMD allerdings die Herausforderungen in Produktion, Integration und Support meistern, könnte der MI450 durchaus zum Wendepunkt werden – zumindest als Beweis, dass es Alternativen zur dominanten NVIDIA-Lösung gibt.

Bleibt festzuhalten: Konkurrenz belebt das Geschäft, doch bis zum Gleichstand ist es noch ein weiter Weg.

Source: SemiAnalysis via X

 

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

2,541 Kommentare 1,676 Likes

Na gut, der Post von Semi-Analysis (vom April) bringt zwar schon einige wichtige Punkte, allerdings wird viel davon abhängen, ob:
- AMD hier wirklich einige "wins" by Hyperscalern landen kann (zB in KI: OpenAI, AWS, Microsoft, u.a.m.)
- AMD wirklich etwas ähnliches wie Nvidias Software Ökosystem aufbauen kann
- Nvidia ihnen den Gefallen tut und bis 2026 keine eigenen großen Fortschritte macht.

Vor allem letzteres ist die Variable, die schwer abzuschätzen ist.

Antwort Gefällt mir

O
Oberst

Veteran

380 Kommentare 168 Likes

NVidia's Roadmap ist doch bekannt. Und auch die anderen Themen sind klar, OpenAI, MS und Meta nutzen AMD neben NVidia schon länger, weil deren Karten kostengünstig viel Rechenleistung bieten. Und AMD arbeitet auch schon länger mit den großen AI Framework Anbietern zusammen, sonst könnten die Kunden ja nicht so einfach wechseln.
Allerdings hat NVidia aktuell klar den Vorteil, dass sie ihre neuen Chips schon auf dem Markt haben, während AMD noch braucht. Bis MI4xx da ist, wird AMD nicht viele Kunden gewinnen (höchstens über den Preis), weil MI350X lediglich ein verbesserter MI300X mit mehr Speicher ist, aber weit von einer neuen Architektur weg ist.

Antwort 1 Like

e
eastcoast_pete

Urgestein

2,541 Kommentare 1,676 Likes

Das Hauptproblem, daß AMD hier hat (und das sie auch wissen) ist nach wie vor die Software, die IMHO zentral für Nvidias Burggraben (moat) ist. Die Rechenleistung der Instinct KI Beschleuniger ist eigentlich schon heute sehr kompetitiv, v.a. wenn man Preis/Leistung ansieht. AMD weiß daß dies ihre Achillesferse ist, und macht durchaus Anstrengungen, hier aufzuholen. Allerdings bleibt Nvidia eben auch nicht stehen.

Auch um die nächste Generation von Entwicklern, KI und angewandter KI, auf sich einzustimmen, wäre es wirklich wichtig, daß AMD ihre "Baby Instincts" (mein Name dafür, nicht AMDs), also die Strix Halos, mit mehr deutlich mehr als 128 GB RAM anbieten würden. Und auch trotzdem deutlich billiger zu halten als Nvidias DGX Spark.
Denn die nächste Welle von KI wird ziemlich sicher von Distills der großen Modelle geprägt sein.

Antwort 1 Like

O
Oberst

Veteran

380 Kommentare 168 Likes

Aktuell ist das Limit angeblich bei 128GB. Ob das am Speicher liegt (keine größeren Speichermodule) oder am Speichercontroller, wird man wohl erst mit der Zeit sehen. Beim Preis muss man schauen, Halo ist nicht gerade billig, aber aktuell scheinbar merklich billiger als DGX Spark, welche man wohl nur über NVidia bekommt (für 3999$). Halo ist da wohl grob nen Tausender billiger, aber aktuell gibt's auch noch sehr wenige Geräte, könnte noch mehr werden.

Bezüglich Software hat AMD durchaus schon einiges gemacht, aber auch noch einiges vor sich. Je nach Anwendung kann man sich auch mit ZLuda helfen, aber native AMD Lösungen wären da wünschenswert. Und das funktioniert auch nicht überall. Für RDNA4 hatte AMD ja auch viel Tamtam bezüglich KI gemacht. Ich hoffe, da kommt noch was. Sonst wäre das ziemlich ernüchternd.

Antwort 1 Like

8j0ern

Urgestein

3,716 Kommentare 1,194 Likes

Advanced Mühlen Mahlen Langsam aber Beständig. ;)

@Oberst
Was erwarten wir bei KI ?

- Einen Lebensberater ?
- Eine erweiterte Google Suche ?
- Jemand der meinen Befehlen gehorcht ?
- Oder einfach ein einfacheres Leben ?

Im Grunde sehen wir nur das Ergebnis der KI, aber nicht das was wir erwarten würden.

Antwort Gefällt mir

O
Oberst

Veteran

380 Kommentare 168 Likes

Breiteren Software Support. Und AMD hatte auch ein paar eigene KI Tools angekündigt, wenn ich mich recht erinnere. Wird sicher nichts weltbewegendes sein, aber bisher war es da leider auch sehr ruhig, weshalb man da nichts sagen kann.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung