AI/KI News Professional

10 Millionen NVIDIA-GPUS bilden das neue KI-Modell von OpenAI

Es wird berichtet, dass OpenAI mit NVIDIA zusammenarbeitet, um eine beträchtliche Anzahl von KI-GPUs für das neueste GPT-4-Modell von ChatGPT zusammenzustellen. Es wird auch berichtet, dass die Unternehmen gemeinsam daran arbeiten, 10 Millionen KI-GPUs von NVIDIA für das Advanced AI-Modell zu sichern. ChatGPT nutzt derzeit eine große Anzahl der neuesten KI-fokussierten Grafikprozessoren von NVIDIA und plant, in Zukunft weitere Modelle zu entwickeln. Laut Wang Xiaochuan, einem Geschäftsmann und Gründer der chinesischen Suchmaschine Sogou, verfügt ChatGPT über ein KI-Computing-Modell, das fortschrittliche Trainingsmethoden einsetzt. Diese Methode wird als essenziell angesehen, um das Streben von OpenAI nach KI-Dominanz voranzutreiben.

Wang hat in ein neues KI-Unternehmen namens Baichuan Intelligence for China investiert, das sich als Hauptkonkurrent von OpenAI in China positioniert. Das Unternehmen hat kürzlich sein Sprachmodell Baichuan 13B vorgestellt, das auf Consumer-Hardware wie NVIDIA-Grafikkarten der GeForce RTX-Serie läuft. Die Idee von 10 Millionen KI-GPUs von NVIDIA, die die Zukunft des Sprachmodells von OpenAI vorantreiben, ist beeindruckend. Die Vorstellung, Tausende von GPUs zusammenarbeiten zu sehen, ist schon faszinierend, aber 10 Millionen zusammen sind einfach unglaublich.

Wenn diese Anlage fertiggestellt ist, wäre es sicherlich interessant, sie zu besichtigen und darüber zu sprechen. Es ist zu beachten, dass NVIDIA ungefähr 1 Million KI-GPUs pro Jahr produziert. Die Anfrage von OpenAI nach 10 Millionen KI-GPUs ist daher nicht nur eine gewaltige Menge an KI-Rechenleistung, sondern auch eine enorme Herausforderung für die Produktion von GPUs bei NVIDIA. OpenAI würde zweifellos zu einem maßgeblichen Akteur auf dem KI-Markt werden, wenn diese Pläne umgesetzt werden.

Quelle: AlliedGamingPC

Kommentar

Lade neue Kommentare

echolot

Urgestein

1,077 Kommentare 825 Likes

Erschreckend, aber nicht mehr aufzuhalten. Hoffentlich kann die menscheit die Bestie bändigen.

Antwort Gefällt mir

T
TheSmart

Veteran

431 Kommentare 216 Likes

Erstmal abwarten..
KI´s sind (meistens) super.. aber immer nur auf einem Fachgebiet.
Außerdem habe ich eben erst gelesen, das ChatGPI nicht bis 4 zählen kann.

Da wird so viel hineininterpretiert von den (Berufs-)Apokalyptikern..

Antwort Gefällt mir

ipat66

Urgestein

1,404 Kommentare 1,413 Likes

Das lässt doch aber in Bezug auf fallende GPU Preise nichts Gutes erwarten :(

In Nvideas Umsatzprognosen, erwartet selbst Nvidea eher fallende Umsätzebei den Gaming-CPU's.

Lässt sich ja auch locker verkraften, wenn solche Aufträge ins Haus stehen.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Und am besten gleich noch 2 Kohlekraftwerke daneben geklatscht. Im Winter können die bestimmt auch super zum heizen verwendet werden.
Und bei 10mio Stück .... klappts sicher auch mit dem Zählen bis 10 oder so ^^

Antwort Gefällt mir

komatös

Veteran

113 Kommentare 90 Likes

[ironie]Da kommt bei mir die ultimativ wichtigste Frage auf: "Can it run Crysis?". [ironie/]

Antwort 1 Like

g
goch

Veteran

486 Kommentare 181 Likes

Der Quellenlink funktionier leider nicht

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,654 Kommentare 985 Likes

Etwas Suche nach der Quelle des Gerüchts führt immer zu "Wang Xiaochuan, einem Geschäftsmann und Gründer der chinesischen Suchmaschine Sogou" , der wohl auch eine Firma gegründet hat, die mit OpenAI konkurriert. Was schon etwas verwundert, denn warum würde er als einziger über eine derartig enorme Partnerschaft zwischen OpenAI und Nvidia wissen? Wenn die Pläne wahr wären, müsste Nvidia das ja auch ihreb Anleger (Aktieninhaber) offenlegen, da es sich um einen sogenannte "material event" handelt: ein KI Einheit (Beschleuniger) kostet ja zig-tausende Dollar, d.h. es ginge hier um eine zig Milliarden Investition wenn's die "10 Millionen" Beschleuniger News war wäre. Also, bis jetzt eher Gerücht, und ich frage mich "Que bono " - wem nützt es?

Antwort Gefällt mir

ArcusX

Urgestein

892 Kommentare 515 Likes

Ich fürchte, dass die Zahl 10.000.000 nVidia GPUs im Sinne von 10mio Karten eher ein Gerücht ist. Aber was ist denn mit 10mio Kernen/Recheneinheiten. Der AD 102 hat 144 bzw 18432 ALUs. Dann wären wir bei deutlich kleineren und vielleicht realistischeren Zahlen. 543 Vollausbaukarten ist immer noch eine Menge, wäre für mich aber denkbar.

Antwort Gefällt mir

g
goch

Veteran

486 Kommentare 181 Likes

Genau davon gehe ich auch aus und wollte mal die Quelle checken - geht aber leider nicht.

Man kalkuliere mal vorsichtig mit 1k€ pro Datacenter GPU ...

Antwort Gefällt mir

Martin Gut

Urgestein

7,900 Kommentare 3,663 Likes

Das geht mir bei jedem Artikel dieses Autor so, dass ich nicht weiss was gemeint ist. Irgendwelche zusammenhanglose Informationen die vielleicht sein könnten und dazu wirkt es sehr schlecht übersetzt. Da lese ich schon gar nicht mehr weiter.

Antwort 1 Like

K
KalleWirsch

Veteran

187 Kommentare 91 Likes

Großer Aufreger!

View image at the forums

hier ist die echte Story

  • According to the latest reports, the graphics card giant has supplied OpenAI with 20,000 graphics cards more recently, and this number will grow in recent months….
  • “The acceleration is really quite broad,” Hood said of capex expectations. “It’s on both the data centers and a physical basis, plus CPUs and GPUs and networking equipment. Think of it in a broad sense as opposed to a narrow sense.”

Fazit
Es ist eine Verknappung an A100 und H100 GPUs zu erwarten. Microsoft investiert einen Haufen Kohle in GPU Virtualisierung auf seiner Azure Cloud, wo auch die OpenAI Modelle trainiert werden, und andere wie Google tun das ja auch. Das die Chinesen RTX-Karten nehmen. Hmm, das ist technisch nicht einfach und Suboptimal weil zu wenig und langsames VRAM, und auch da werden es keine Millionen sein.

10 Millionen KI GPU ist im Moment gar nicht darstellbar. Das wäre ein Datenzentrum mir 3GW. Da müssten die 3 mittelgroße Atomkraftwerke daneben stellen.

Antwort Gefällt mir

Klicke zum Ausklappem
a
adi0815

Neuling

4 Kommentare 1 Likes

"Wenn diese Anlage fertiggestellt ist, wäre es sicherlich interessant, sie zu besichtigen und darüber zu sprechen."
Ist das mit ChatGPT4 übersetzt? Wirkt auf mich eher belustigend als eine ernsthafte Nachricht.
Ich empfehle dem Autor, vor Veröffentlichung seinen Beitrag wenigstens einmal durchzulesen!

Antwort Gefällt mir

Roland83

Urgestein

706 Kommentare 548 Likes

Könnte daran liegen das der Autor ist worüber er schreibt ( meine Meinung ) aber immerhin hat man dann hier auch gebündelt die daily News oder Gerüchte und erspart sich das abklappern div. Anderer Seiten wenn man gerade Lust auf Klatsch und Tratsch hat. Man darf nicht vergessen IgorsL ist halt keine 100 Personen Redaktion und eigentlich von der Monetarisierung auch zwanglos. Irgendwo muss man dann halt Kompromisse machen.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,654 Kommentare 985 Likes

Vielleicht läuft die KI, die die Meldung schrieb, auf AMD Beschleunigern, und mag deshalb nichts was auf Nvidia läuft 😁 ?
Oder umgekehrt ; aber, egal wie, diese "Meldung" war schon von den Grundlagen her unmöglich. Und wenn irgendjemand Nvidia einen Auftrag für 10 Millionen KI Beschleunigern erteilt hätte, wäre dies auch von Jensen Huang sehr lautstark angekündigt worden.
Bei solchen Dingen aus fragwürdigen Quellen bin ich einfach auch mißtrauisch, das hier jemand den (hier) Nvidia Aktienpreis beeinflussen will.

Antwort Gefällt mir

N
Nemesis

Mitglied

23 Kommentare 4 Likes

Erklärtes Ziel von Open Ai ist dir Artificial General Intelligence. Der erklärte Weg darüber sind Large Language Model (LLMs) Transformers (Decepticon oder Autobot wissen sie noch nicht, hab die Ki schon gefragt). Jedenfalls das was uns die jüngsten Erfolge in Sachen Ki beschert hat (Stichwort "emergent ablilities") war upscaling (GPT unter anderem). Das wird jetzt drastisch vorangetrieben. Microsoft hatte 10 Milliarden US Dollar gesponsert, das überschreitet das Budget bei weitem, aber bei 23 Euro im Monat und erklärten 100 Millionen Nutzern (macht so 2.3 Milliarden pro Monat) geht das vermutlich schon. Also man kann wohl in etwa 6000 Euro pro GPU rechnen, Vorzugspreis versteht sich. 60 milliarden (achtung, Englisch spaltet es sich bei Milliarden, das sind dann schon "Billions", aka 60 billion) USD?

Antwort Gefällt mir

g
goch

Veteran

486 Kommentare 181 Likes

Fair enough. Aber wenigstens ein funktionierender Quellenlink ist das mindesteste, dafür braucht man auch kein Fachwissen. Und wenn das nicht mehr machbar ist, dann einfach weglassen sowas - Clickbait.

Mit einem Link dahinter kann man sich ja selbst das original anschauen und gegenlesen. Aber das scheint den "Autor" hier auch nicht zu interessieren.

Antwort Gefällt mir

O
Oberst

Veteran

343 Kommentare 132 Likes

Und was sollen die 2 Kohlekraftwerke machen? Den Strom für die Beleuchtung des Gebäudes liefern?
10 Millionen H100 brauchen alleine mindestens 3 GW an elektrischer Leistung. Und da ist noch keine CPU und kein Board, kein Netzteil kein Netzwerk mit eingerechnet. Gehen wir mal von 4 GPUs pro Board aus, braucht ein Blade vermutlich grob 1,7kW. Das wären dann nur für die Rechner schon 4,25 GW, immer noch ohne Netzwerk. Und die Leistungsaufnahme des Rechenzentrums liegt dann locker beim doppelten, wenn nicht beim dreifachen, weil die Kühlung so viel Strom frisst. Im Endeffekt wären das dann grob 9 GW, also locker 9 große Kohlekraftwerke, vermutlich eher 15 durchschnittliche.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Jo und wenn deine 10mio H100 nicht stimmen und es sich lediglich um Kerne oder Recheneinheiten handelt, dann kommst mit 2 Kohlekraftwerken mehr als ausreichend hin.

Große Kohlekraftwerke erzeugen bis zu 2000MW=2GW ...

Antwort Gefällt mir

O
Oberst

Veteran

343 Kommentare 132 Likes

Es steht explizit im Text: "10 Millionen KI-GPUs". Da steht nichts von Recheneinheiten oder Kerne, da steht explizit "GPUs". Und NVidia's kleinste H100 hat dann 300-350W (konfigurierbar).

Bezüglich der Kraftwerksleistung: Für mich ist ein Kraftwerk ein Block. War da etwas unklar. Wenn man viele Blöcke zusammen als ein Kraftwerk betrachtet, dann geht natürlich mehr.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung