AMD bringt die GPU-Leistung mit der Instinct MI300X GPU etwas näher an die 1KW-Marke.

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.868
Bewertungspunkte
9.044
Punkte
1
Standort
Redaktion
Bislang war NVIDIAs H100 GPU seit ihrer Markteinführung der energieintensivste Chip für Rechenzentren, da er eine maximale Nennleistung von 700 W aufwies. Diese Situation wird sich jedoch mit der Einführung der Instinct MI300X ändern, da diese noch höhere Stromverbrauchswerte aufweisen s0ll. Die AMD Instinct MI300X GPU wird in den Fußnoten zur Präsentation mit einem Stromverbrauch (read full article...)
 
Der Verbrauch wird erhöht, weil die Architektur effizienter ist?
 
Im Verhältnis zur Rechenleistung 🙈
 
Oh Boy! Das muss dieser Fortschritt sein, von dem alle reden...
 
Seit wann wird die GPU-Leistung in kW angegeben?
 
"+38% Rechenleistung" >>> "+34-50% Energiebedarf"
So stehts im Artikel. Der Artikel thematisiert nicht ausschließlich die Leistungssteigerung, sondern setzt diesen in Zusammenhang mit dem gesteigerten Energiebedarf.
 
Über eine gestiegene Leistung bei gesunkenem Verbrauch kann man schwerlich meckern. Aber das hier?
 
Scheint mir eine Medienkompetenzübung zu sein ^^

Mit LN2 schafft man bestimmt auch die 2,5kW. Rolling Coal war gestern ;)
 
Seit wann wird die GPU-Leistung in kW angegeben?
Das ist wie früher mit den Glühlampen, deren Helligkeit man auch nicht in Lumen angegeben hat, sondern gesagt hat: "schraub doch mal ´ne 100 W Birne rein". Das begreift auch der tumbe Otto-Normalverbraucher besser, der ja auch seine HiFi-Anlage nach dem gleichen Kriterium ausgewählt hat: "Mein Receiver hat 4 X 1000W PMPO".
 
Ein bisschen Luft nach oben is ja noch, bis man bei den 3600 W für Hausstrom angekommen ist. Und es gibt ja auch noch Herdsteckdosen, die man sich unter seinen Schreibtisch anschliessen lassen kann. Also alles (noch) nicht so schlimm, wenn man sich mal ne schnelle Karte für´s Gaming leisten möchte.;):p
 
"+38% Rechenleistung" >>> "+34-50% Energiebedarf"
So stehts im Artikel. Der Artikel thematisiert nicht ausschließlich die Leistungssteigerung, sondern setzt diesen in Zusammenhang mit dem gesteigerten Energiebedarf.
Entweder wurde der Artikel geändert, oder du hast nicht richtig gelesen. Aktuell steht da "Diese Steigerung von 38% in der Anzahl der Recheneinheiten". Also wurde die Anzahl der Compute Units um 38% erhöht. Was da nicht steht: Ist die Anzahl Shader pro CU gleich geblieben, oder vielleicht erhöht worden?
Was noch drin steht:
"MI300X bietet eine beeindruckende 8-fache Leistungssteigerung bei KI-Workloads im Vergleich zu seinen Vorgängern"
Von 38% mehr Leistung ist da also nicht ansatzweise die Rede, sondern von bis zu (wichtig: Hersteller geben immer "bis zu" an, klingt besser) 800% mehr Leistung.
Und 800% mehr Leistung bei 50% mehr Verbrauch bringt auch eine nicht unerhebliche Effizienzsteigerung mit sich, wie der Artikel ja auch behauptet.
So ganz nebenbei würde ein tatsächlicher Faktor 8 bei FP16 bedeuten, dass AMD fast 60% vor NVidia's H100 wäre. Der wäre nur noch bei FP8 grob 20% vorne. Das wäre schon sehr verwunderlich und eine bittere Pille für NVidia. Aber wo der Faktor 8 erreicht wird, ist aktuell ja noch nicht klar. Insofern kann das auch nur ein unangenehmer Rempler für NVidia werden und nicht ein blaues Auge.

AMD scheint im Data Center Bereich jedenfalls fest entschlossen Richtung Wachstum zu laufen. Wenn man mal schaut, wie schnell man von MI100 über MI250X jetzt zu MI300X gegangen ist. Da muss NVidia wohl auch mal den Takt erhöhen, wenn sie nicht bald überholt werden wollen.
 
"+38% Rechenleistung" >>> "+34-50% Energiebedarf"
So stehts im Artikel. Der Artikel thematisiert nicht ausschließlich die Leistungssteigerung, sondern setzt diesen in Zusammenhang mit dem gesteigerten Energiebedarf.
Es gibt einen Unterschied zwischen Rechenleistung (Leistungssteigerung) und Energiebedarf. Letzteres kann man in Watt (W oder hier kW) angeben, bei der Rechenleistung ergibt das keinen Sinn.

Aus dem Satz ("MI300X bietet eine beeindruckende 8-fache Leistungssteigerung bei KI-Workloads im Vergleich zu seinen Vorgängern") ließe sich sonst nur folgern, dass das Vorgängermodell 1000W/8=125 Watt bei gleicher Rechenleistung benötigt hat. Ist natürlich quatsch, weil (Rechen-)Leistung ungleich Energiebedarf.

Einfach noch mal die Überschrift lesen "AMD bringt die GPU-Leistung mit der Instinct MI300X GPU etwas näher an die 1KW-Marke"
 
@ Oberst
Ich wäre da bei dir.
Welche Rechnleistungs Einheit spielt vorerst mal keine Rolle. Immerhin wird FP16 gennant.
Evt. auch um der Konkurrenz keine Möglichkeit zu geben, selbst noch was zu tricksen. ;)
 
GPU wie in Grafikkarte? Hat die MI300x überhaupt Anschlüsse dafür? Das Ding ist doch als KI Beschleuniger gedacht und eingesetzt. Und die haben meistens überhaupt keinen Display Port Anschluss (oder HDMI, oder sonstige Video-Outs). Ansonsten wäre es schon die Karte für Leute mit extremen Ansprüchen und noch extremeren Bankkonto. Die MI300 sind nämlich richtig teuer (das Gegenstück von NVIDIA auch).
 
[...]
Was noch drin steht:
"MI300X bietet eine beeindruckende 8-fache Leistungssteigerung bei KI-Workloads im Vergleich zu seinen Vorgängern"
Von 38% mehr Leistung ist da also nicht ansatzweise die Rede, sondern von bis zu (wichtig: Hersteller geben immer "bis zu" an, klingt besser) 800% mehr Leistung.
Und 800% mehr Leistung bei 50% mehr Verbrauch bringt auch eine nicht unerhebliche Effizienzsteigerung mit sich, wie der Artikel ja auch behauptet.
[...]
Ich finde die Formulierung der Überschrift auch etwas ungewöhnlich, aber die deutsche Sprache ist bisweilen eine Herausforderung.

8fache Leistung ist ungleich 8facher Leistungssteigerung. 800 % mehr Leistung ist in meinem Sprachempfinden auch falsch, wenn es 700 % mehr Leistung sind, also 800 % der Performance.
 
danke für den artikel. ich denke, dass es der zeit nicht anders geht, überhaupt an leistung zu gewinnen.
kleiner witz/ off topic...das ist ein schneller computer, der zu viel strom kostet. :-/
nichts für ungut.

GeForce-RTX-3080-Mining-Rig-pcgh.jpg
 
GPU wie in Grafikkarte? Hat die MI300x überhaupt Anschlüsse dafür? Das Ding ist doch als KI Beschleuniger gedacht und eingesetzt. Und die haben meistens überhaupt keinen Display Port Anschluss (oder HDMI, oder sonstige Video-Outs). Ansonsten wäre es schon die Karte für Leute mit extremen Ansprüchen und noch extremeren Bankkonto. Die MI300 sind nämlich richtig teuer (das Gegenstück von NVIDIA auch).
Ja, die MI300X ist eine reine CDNA3 Karte für AI Arbeitslasten.
Die MI300A ist ein eigenständiges System, mit CPU, GPU und HMB3 auf einer Platine: (APU)

danke für den artikel. ich denke, dass es der zeit nicht anders geht, überhaupt an leistung zu gewinnen.
kleiner witz/ off topic...das ist ein schneller computer, der zu viel strom kostet. :-/
nichts für ungut.
Genau das Bild verdeutlich es nochmal, jede GPU benötigt ein extra Mainboard und RAM und CPU.

Mit der MI300A kann man jede Karte im Server eine eigene Aufgabe geben ohne das die Server CPU belastet wird, welche dann für hohe Datentransferraten genutzt werden können.
.
 
Oben Unten