AI/KI News

NVIDIA Blackwell Ultra B300: Mehr Leistung, mehr Speicher, mehr Skalierung

NVIDIA hat mit der Blackwell Ultra-Serie eine weitere Evolutionsstufe seiner KI-Beschleuniger vorgestellt. Die B300-Chips sollen eine spürbare Leistungssteigerung gegenüber den bisherigen Blackwell-Varianten bieten und setzen auf eine massiv erhöhte Speicherbandbreite mit HBM3e. Dabei handelt es sich um eine klare Antwort auf den wachsenden Bedarf an Rechenleistung für KI-Modelle und datenintensive Anwendungen.

Source: NVIDIA

Mehr Speicher, mehr Bandbreite, mehr Skalierung

Mit der Ultra-Variante der Blackwell-Architektur wird das Leistungsspektrum um rund 50 % erweitert. Die neuen Chips setzen auf bis zu 288 GB HBM3e, verteilt auf 12-Hi-Stacks, was sowohl die Speicherkapazität als auch die Bandbreite erheblich steigert. Damit kann NVIDIA den steigenden Speicheranforderungen von KI-Modellen Rechnung tragen, die mit immer größeren Datensätzen arbeiten. Auch das Netzwerk bekommt ein Upgrade: Die neuen Spectrum Ultra X800 Ethernet-Switches mit 512-Radix sollen für eine effizientere Kommunikation zwischen den GPU-Clustern sorgen. Damit lässt sich die Skalierung weiter optimieren – ein Aspekt, der für den Einsatz in KI-Rechenzentren von zentraler Bedeutung ist.

GB300 NVL72 – 72 GPUs in einem einzigen System

Die neue GB300 NVL72-Plattform kombiniert 72 Blackwell Ultra GPUs mit 36 NVIDIA Grace CPUs auf einer Rack-Skala. Damit entsteht eine Infrastruktur, die sich als ein einziger, massiver GPU-Cluster verhält. Dieses Konzept soll insbesondere für Inference-Optimierungen in KI-Modellen Vorteile bringen, da es eine verbesserte Lastverteilung und Effizienz beim Testzeit-Skalieren ermöglicht. Für Unternehmen, die auf Cloud-Lösungen setzen, wird das System auch über die NVIDIA DGX Cloud verfügbar sein. NVIDIA positioniert sich damit noch stärker als Komplettanbieter für hochskalierbare KI-Infrastrukturen, insbesondere im Bereich DGX SuperPOD, wo der neue B300-Stack in bestehenden NVIDIA-Systemen integriert werden kann.

Source: NVIDIA

B300 HGX NVL16 – Mehr Inferenzleistung für große Sprachmodelle

Während die NVL72-Variante auf maximale Skalierung setzt, konzentriert sich das HGX B300 NVL16 auf eine optimierte Rechenleistung für Large Language Models (LLMs). Laut NVIDIA bringt diese Variante 11-fache Inferenzgeschwindigkeit im Vergleich zur Hopper-Generation und bietet 7-mal mehr Rechenleistung sowie 4-mal mehr Speicher. Besonders bei Anwendungen im Bereich KI-Reasoning – also der Fähigkeit von Modellen, komplexe Anfragen in einzelne Schritte zu zerlegen und durchzuführen – sollen diese Leistungssteigerungen zum Tragen kommen.

NVIDIA baut das KI-Monopol aus

Mit der Blackwell Ultra-Serie setzt NVIDIA erneut auf eine Strategie, die sowohl Leistungssteigerung als auch Skalierbarkeit kombiniert. Die Investitionen in Speicherbandbreite und Netzwerkarchitektur zeigen klar, dass der Fokus auf groß angelegte KI-Infrastrukturen liegt. Die Konkurrenz wird es schwer haben, mit diesen Neuerungen mitzuhalten – insbesondere, da NVIDIA mit seinen bestehenden Software-Stacks und Cloud-Angeboten eine nahezu unantastbare Marktmacht aufgebaut hat. Der Markt für KI-Beschleuniger bleibt also fest in der Hand von NVIDIA, zumindest bis 2025 und darüber hinaus.

Source: NVIDIA

Kommentar

Lade neue Kommentare

OldMan

Veteran

419 Kommentare 189 Likes

Und neue Rechenzentren bauen wir dann auch gleich mit. Die B300 hat eine TDP von 1400W (1,4KW). Dann rechnen wir das doch mal hoch auf ein Rack und haben am Schluß brennende Verteilkästen aber keine Stromstecker. Der Preis wird bestimmt auch spannend. Die B200 kostet 30 - 40K bei der B300 schauen wir mal.

Antwort 1 Like

T
TheSmart

Urgestein

543 Kommentare 301 Likes

Nicht umsonst werden mittlerweile die Rechenzentren in Röhren gesteckt und dann zur Kühlung im Meer versenkt..
Oder mit manchen Rechenzentren kannst du schon so manchen Ort heizen^^

Aber ich denke bei den horrenden Preisen wird Nvidia auf kurz oder lang auf die Schnauze mit fliegen..
Die großen Anbieter von KI´s und den Clouds sind schon dran eigene Chips zu erforschen..weil sie nicht mehr bereit sind die Preise zu bezahlen..

Antwort 1 Like

e
eastcoast_pete

Urgestein

2,392 Kommentare 1,562 Likes

Und was DeepSeek R1 auch gezeigt hat ist, daß man mit gezielten Optimierungen den Bedarf an roher Rechenleistung zT deutlich reduzieren kann. Damit meine ich nicht die Behauptung, DeepSeek hätten das mit ein paar Millionen Dollar hinbekommen (stimmt ja so nicht), sondern den Einsatz von scheinbar sehr raffiniertem low-level Coding, das die Modellentwicklung deutlich effizienter machte.

Antwort Gefällt mir

T
TheSmart

Urgestein

543 Kommentare 301 Likes

Ja Konkurrenz und Druck verhilft zu Innovationen.
Da die KI-Anbieter bisher ziemlich ausschließlich aus den USA kamen wurden sie auch sdementsprechend sehr bequem.. und haben überhaupt nciht an Optimierungen gedacht.. und die Politik auch nicht.. ganz im Gegenteil..dort werden schon längst abgeschaltete Kradtwerke wieder ans Netz gehängt, damit es weiter passt..
Obwohl echte gute,nutzbringendwe und vor allem wirtschafgtlich lukrative KI-Anwednungen immer noch auf sich warten lassen.

Antwort Gefällt mir

8j0ern

Urgestein

3,577 Kommentare 1,161 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung