NVIDIA hat mit der Blackwell Ultra-Serie eine weitere Evolutionsstufe seiner KI-Beschleuniger vorgestellt. Die B300-Chips sollen eine spürbare Leistungssteigerung gegenüber den bisherigen Blackwell-Varianten bieten und setzen auf eine massiv erhöhte Speicherbandbreite mit HBM3e. Dabei handelt es sich um eine klare Antwort auf den wachsenden Bedarf an Rechenleistung für KI-Modelle und datenintensive Anwendungen.

Mehr Speicher, mehr Bandbreite, mehr Skalierung
Mit der Ultra-Variante der Blackwell-Architektur wird das Leistungsspektrum um rund 50 % erweitert. Die neuen Chips setzen auf bis zu 288 GB HBM3e, verteilt auf 12-Hi-Stacks, was sowohl die Speicherkapazität als auch die Bandbreite erheblich steigert. Damit kann NVIDIA den steigenden Speicheranforderungen von KI-Modellen Rechnung tragen, die mit immer größeren Datensätzen arbeiten. Auch das Netzwerk bekommt ein Upgrade: Die neuen Spectrum Ultra X800 Ethernet-Switches mit 512-Radix sollen für eine effizientere Kommunikation zwischen den GPU-Clustern sorgen. Damit lässt sich die Skalierung weiter optimieren – ein Aspekt, der für den Einsatz in KI-Rechenzentren von zentraler Bedeutung ist.
GB300 NVL72 – 72 GPUs in einem einzigen System
Die neue GB300 NVL72-Plattform kombiniert 72 Blackwell Ultra GPUs mit 36 NVIDIA Grace CPUs auf einer Rack-Skala. Damit entsteht eine Infrastruktur, die sich als ein einziger, massiver GPU-Cluster verhält. Dieses Konzept soll insbesondere für Inference-Optimierungen in KI-Modellen Vorteile bringen, da es eine verbesserte Lastverteilung und Effizienz beim Testzeit-Skalieren ermöglicht. Für Unternehmen, die auf Cloud-Lösungen setzen, wird das System auch über die NVIDIA DGX Cloud verfügbar sein. NVIDIA positioniert sich damit noch stärker als Komplettanbieter für hochskalierbare KI-Infrastrukturen, insbesondere im Bereich DGX SuperPOD, wo der neue B300-Stack in bestehenden NVIDIA-Systemen integriert werden kann.

B300 HGX NVL16 – Mehr Inferenzleistung für große Sprachmodelle
Während die NVL72-Variante auf maximale Skalierung setzt, konzentriert sich das HGX B300 NVL16 auf eine optimierte Rechenleistung für Large Language Models (LLMs). Laut NVIDIA bringt diese Variante 11-fache Inferenzgeschwindigkeit im Vergleich zur Hopper-Generation und bietet 7-mal mehr Rechenleistung sowie 4-mal mehr Speicher. Besonders bei Anwendungen im Bereich KI-Reasoning – also der Fähigkeit von Modellen, komplexe Anfragen in einzelne Schritte zu zerlegen und durchzuführen – sollen diese Leistungssteigerungen zum Tragen kommen.
NVIDIA baut das KI-Monopol aus
Mit der Blackwell Ultra-Serie setzt NVIDIA erneut auf eine Strategie, die sowohl Leistungssteigerung als auch Skalierbarkeit kombiniert. Die Investitionen in Speicherbandbreite und Netzwerkarchitektur zeigen klar, dass der Fokus auf groß angelegte KI-Infrastrukturen liegt. Die Konkurrenz wird es schwer haben, mit diesen Neuerungen mitzuhalten – insbesondere, da NVIDIA mit seinen bestehenden Software-Stacks und Cloud-Angeboten eine nahezu unantastbare Marktmacht aufgebaut hat. Der Markt für KI-Beschleuniger bleibt also fest in der Hand von NVIDIA, zumindest bis 2025 und darüber hinaus.
Source: NVIDIA
5 Antworten
Kommentar
Lade neue Kommentare
Veteran
Urgestein
Urgestein
Urgestein
Urgestein
Alle Kommentare lesen unter igor´sLAB Community →