NVIDIA Blackwell Ultra B300: Mehr Leistung, mehr Speicher, mehr Skalierung

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
2.657
Bewertungspunkte
12.555
Punkte
1
Standort
Redaktion
NVIDIA hat mit der Blackwell Ultra-Serie eine weitere Evolutionsstufe seiner KI-Beschleuniger vorgestellt. Die B300-Chips sollen eine spürbare Leistungssteigerung gegenüber den bisherigen Blackwell-Varianten bieten und setzen auf eine massiv erhöhte Speicherbandbreite mit HBM3e. Dabei handelt es sich um eine klare Antwort auf den wachsenden Bedarf an Rechenleistung für KI-Modelle und datenintensive Anwendungen. Mehr Speicher, mehr Bandbreite, […] (read full article...)
 
Und neue Rechenzentren bauen wir dann auch gleich mit. Die B300 hat eine TDP von 1400W (1,4KW). Dann rechnen wir das doch mal hoch auf ein Rack und haben am Schluß brennende Verteilkästen aber keine Stromstecker. Der Preis wird bestimmt auch spannend. Die B200 kostet 30 - 40K bei der B300 schauen wir mal.
 
Und neue Rechenzentren bauen wir dann auch gleich mit. Die B300 hat eine TDP von 1400W (1,4KW). Dann rechnen wir das doch mal hoch auf ein Rack und haben am Schluß brennende Verteilkästen aber keine Stromstecker. Der Preis wird bestimmt auch spannend. Die B200 kostet 30 - 40K bei der B300 schauen wir mal.

Nicht umsonst werden mittlerweile die Rechenzentren in Röhren gesteckt und dann zur Kühlung im Meer versenkt..
Oder mit manchen Rechenzentren kannst du schon so manchen Ort heizen^^

Aber ich denke bei den horrenden Preisen wird Nvidia auf kurz oder lang auf die Schnauze mit fliegen..
Die großen Anbieter von KI´s und den Clouds sind schon dran eigene Chips zu erforschen..weil sie nicht mehr bereit sind die Preise zu bezahlen..
 
Und was DeepSeek R1 auch gezeigt hat ist, daß man mit gezielten Optimierungen den Bedarf an roher Rechenleistung zT deutlich reduzieren kann. Damit meine ich nicht die Behauptung, DeepSeek hätten das mit ein paar Millionen Dollar hinbekommen (stimmt ja so nicht), sondern den Einsatz von scheinbar sehr raffiniertem low-level Coding, das die Modellentwicklung deutlich effizienter machte.
 
Und was DeepSeek R1 auch gezeigt hat ist, daß man mit gezielten Optimierungen den Bedarf an roher Rechenleistung zT deutlich reduzieren kann. Damit meine ich nicht die Behauptung, DeepSeek hätten das mit ein paar Millionen Dollar hinbekommen (stimmt ja so nicht), sondern den Einsatz von scheinbar sehr raffiniertem low-level Coding, das die Modellentwicklung deutlich effizienter machte.

Ja Konkurrenz und Druck verhilft zu Innovationen.
Da die KI-Anbieter bisher ziemlich ausschließlich aus den USA kamen wurden sie auch sdementsprechend sehr bequem.. und haben überhaupt nciht an Optimierungen gedacht.. und die Politik auch nicht.. ganz im Gegenteil..dort werden schon längst abgeschaltete Kradtwerke wieder ans Netz gehängt, damit es weiter passt..
Obwohl echte gute,nutzbringendwe und vor allem wirtschafgtlich lukrative KI-Anwednungen immer noch auf sich warten lassen.
 
Oben Unten