Artificial Intelligence Latest news Pro

10 million NVIDIA GPUS form the new AI model of OpenAI

It is reported that OpenAI is working with NVIDIA to assemble a significant number of AI GPUs for ChatGPT’s latest GPT-4 model. It is also reported that the companies are working together to secure 10 million AI GPUs from NVIDIA for the Advanced AI model. ChatGPT is currently using a large number of NVIDIA’s latest AI-focused GPUs and plans to develop more models in the future. According to Wang Xiaochuan, a businessman and founder of Chinese search engine Sogou, ChatGPT has an AI computing model that uses advanced training methods. This method is seen as essential to advancing OpenAI’s quest for AI dominance.

Wang has invested in a new AI company called Baichuan Intelligence for China, which is positioning itself as OpenAI’s main competitor in China. The company recently unveiled its Baichuan 13B language model, which runs on consumer hardware such as NVIDIA GeForce RTX series graphics cards. The idea of 10 million AI GPUs from NVIDIA driving the future of OpenAI’s language model is impressive. The idea of seeing thousands of GPUs working together is already intriguing, but 10 million together is just incredible.

When this facility is completed, it would certainly be interesting to tour it and talk about it. It should be noted that NVIDIA produces about 1 million AI GPUs per year. OpenAI’s request for 10 million AI GPUs is therefore not only a massive amount of AI computing power, but also a huge challenge for NVIDIA’s GPU production. OpenAI would undoubtedly become an authoritative player in the AI market if these plans come to fruition.

Source: AlliedGamingPC

Kommentar

Lade neue Kommentare

echolot

Urgestein

932 Kommentare 723 Likes

Erschreckend, aber nicht mehr aufzuhalten. Hoffentlich kann die menscheit die Bestie bändigen.

Antwort Gefällt mir

T
TheSmart

Veteran

418 Kommentare 209 Likes

Erstmal abwarten..
KI´s sind (meistens) super.. aber immer nur auf einem Fachgebiet.
Außerdem habe ich eben erst gelesen, das ChatGPI nicht bis 4 zählen kann.

Da wird so viel hineininterpretiert von den (Berufs-)Apokalyptikern..

Antwort Gefällt mir

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

Das lässt doch aber in Bezug auf fallende GPU Preise nichts Gutes erwarten :(

In Nvideas Umsatzprognosen, erwartet selbst Nvidea eher fallende Umsätzebei den Gaming-CPU's.

Lässt sich ja auch locker verkraften, wenn solche Aufträge ins Haus stehen.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Und am besten gleich noch 2 Kohlekraftwerke daneben geklatscht. Im Winter können die bestimmt auch super zum heizen verwendet werden.
Und bei 10mio Stück .... klappts sicher auch mit dem Zählen bis 10 oder so ^^

Antwort Gefällt mir

komatös

Mitglied

97 Kommentare 60 Likes

[ironie]Da kommt bei mir die ultimativ wichtigste Frage auf: "Can it run Crysis?". [ironie/]

Antwort 1 Like

g
goch

Veteran

475 Kommentare 181 Likes

Der Quellenlink funktionier leider nicht

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,475 Kommentare 832 Likes

Etwas Suche nach der Quelle des Gerüchts führt immer zu "Wang Xiaochuan, einem Geschäftsmann und Gründer der chinesischen Suchmaschine Sogou" , der wohl auch eine Firma gegründet hat, die mit OpenAI konkurriert. Was schon etwas verwundert, denn warum würde er als einziger über eine derartig enorme Partnerschaft zwischen OpenAI und Nvidia wissen? Wenn die Pläne wahr wären, müsste Nvidia das ja auch ihreb Anleger (Aktieninhaber) offenlegen, da es sich um einen sogenannte "material event" handelt: ein KI Einheit (Beschleuniger) kostet ja zig-tausende Dollar, d.h. es ginge hier um eine zig Milliarden Investition wenn's die "10 Millionen" Beschleuniger News war wäre. Also, bis jetzt eher Gerücht, und ich frage mich "Que bono " - wem nützt es?

Antwort Gefällt mir

ArcusX

Urgestein

867 Kommentare 501 Likes

Ich fürchte, dass die Zahl 10.000.000 nVidia GPUs im Sinne von 10mio Karten eher ein Gerücht ist. Aber was ist denn mit 10mio Kernen/Recheneinheiten. Der AD 102 hat 144 bzw 18432 ALUs. Dann wären wir bei deutlich kleineren und vielleicht realistischeren Zahlen. 543 Vollausbaukarten ist immer noch eine Menge, wäre für mich aber denkbar.

Antwort Gefällt mir

g
goch

Veteran

475 Kommentare 181 Likes

Genau davon gehe ich auch aus und wollte mal die Quelle checken - geht aber leider nicht.

Man kalkuliere mal vorsichtig mit 1k€ pro Datacenter GPU ...

Antwort Gefällt mir

Martin Gut

Urgestein

7,780 Kommentare 3,576 Likes

Das geht mir bei jedem Artikel dieses Autor so, dass ich nicht weiss was gemeint ist. Irgendwelche zusammenhanglose Informationen die vielleicht sein könnten und dazu wirkt es sehr schlecht übersetzt. Da lese ich schon gar nicht mehr weiter.

Antwort 1 Like

K
KalleWirsch

Veteran

186 Kommentare 91 Likes

Großer Aufreger!

View image at the forums

hier ist die echte Story

  • According to the latest reports, the graphics card giant has supplied OpenAI with 20,000 graphics cards more recently, and this number will grow in recent months….
  • “The acceleration is really quite broad,” Hood said of capex expectations. “It’s on both the data centers and a physical basis, plus CPUs and GPUs and networking equipment. Think of it in a broad sense as opposed to a narrow sense.”

Fazit
Es ist eine Verknappung an A100 und H100 GPUs zu erwarten. Microsoft investiert einen Haufen Kohle in GPU Virtualisierung auf seiner Azure Cloud, wo auch die OpenAI Modelle trainiert werden, und andere wie Google tun das ja auch. Das die Chinesen RTX-Karten nehmen. Hmm, das ist technisch nicht einfach und Suboptimal weil zu wenig und langsames VRAM, und auch da werden es keine Millionen sein.

10 Millionen KI GPU ist im Moment gar nicht darstellbar. Das wäre ein Datenzentrum mir 3GW. Da müssten die 3 mittelgroße Atomkraftwerke daneben stellen.

Antwort Gefällt mir

Klicke zum Ausklappem
a
adi0815

Neuling

4 Kommentare 1 Likes

"Wenn diese Anlage fertiggestellt ist, wäre es sicherlich interessant, sie zu besichtigen und darüber zu sprechen."
Ist das mit ChatGPT4 übersetzt? Wirkt auf mich eher belustigend als eine ernsthafte Nachricht.
Ich empfehle dem Autor, vor Veröffentlichung seinen Beitrag wenigstens einmal durchzulesen!

Antwort Gefällt mir

Roland83

Urgestein

682 Kommentare 526 Likes

Könnte daran liegen das der Autor ist worüber er schreibt ( meine Meinung ) aber immerhin hat man dann hier auch gebündelt die daily News oder Gerüchte und erspart sich das abklappern div. Anderer Seiten wenn man gerade Lust auf Klatsch und Tratsch hat. Man darf nicht vergessen IgorsL ist halt keine 100 Personen Redaktion und eigentlich von der Monetarisierung auch zwanglos. Irgendwo muss man dann halt Kompromisse machen.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,475 Kommentare 832 Likes

Vielleicht läuft die KI, die die Meldung schrieb, auf AMD Beschleunigern, und mag deshalb nichts was auf Nvidia läuft 😁 ?
Oder umgekehrt ; aber, egal wie, diese "Meldung" war schon von den Grundlagen her unmöglich. Und wenn irgendjemand Nvidia einen Auftrag für 10 Millionen KI Beschleunigern erteilt hätte, wäre dies auch von Jensen Huang sehr lautstark angekündigt worden.
Bei solchen Dingen aus fragwürdigen Quellen bin ich einfach auch mißtrauisch, das hier jemand den (hier) Nvidia Aktienpreis beeinflussen will.

Antwort Gefällt mir

N
Nemesis

Mitglied

22 Kommentare 4 Likes

Erklärtes Ziel von Open Ai ist dir Artificial General Intelligence. Der erklärte Weg darüber sind Large Language Model (LLMs) Transformers (Decepticon oder Autobot wissen sie noch nicht, hab die Ki schon gefragt). Jedenfalls das was uns die jüngsten Erfolge in Sachen Ki beschert hat (Stichwort "emergent ablilities") war upscaling (GPT unter anderem). Das wird jetzt drastisch vorangetrieben. Microsoft hatte 10 Milliarden US Dollar gesponsert, das überschreitet das Budget bei weitem, aber bei 23 Euro im Monat und erklärten 100 Millionen Nutzern (macht so 2.3 Milliarden pro Monat) geht das vermutlich schon. Also man kann wohl in etwa 6000 Euro pro GPU rechnen, Vorzugspreis versteht sich. 60 milliarden (achtung, Englisch spaltet es sich bei Milliarden, das sind dann schon "Billions", aka 60 billion) USD?

Antwort Gefällt mir

g
goch

Veteran

475 Kommentare 181 Likes

Fair enough. Aber wenigstens ein funktionierender Quellenlink ist das mindesteste, dafür braucht man auch kein Fachwissen. Und wenn das nicht mehr machbar ist, dann einfach weglassen sowas - Clickbait.

Mit einem Link dahinter kann man sich ja selbst das original anschauen und gegenlesen. Aber das scheint den "Autor" hier auch nicht zu interessieren.

Antwort Gefällt mir

O
Oberst

Veteran

337 Kommentare 131 Likes

Und was sollen die 2 Kohlekraftwerke machen? Den Strom für die Beleuchtung des Gebäudes liefern?
10 Millionen H100 brauchen alleine mindestens 3 GW an elektrischer Leistung. Und da ist noch keine CPU und kein Board, kein Netzteil kein Netzwerk mit eingerechnet. Gehen wir mal von 4 GPUs pro Board aus, braucht ein Blade vermutlich grob 1,7kW. Das wären dann nur für die Rechner schon 4,25 GW, immer noch ohne Netzwerk. Und die Leistungsaufnahme des Rechenzentrums liegt dann locker beim doppelten, wenn nicht beim dreifachen, weil die Kühlung so viel Strom frisst. Im Endeffekt wären das dann grob 9 GW, also locker 9 große Kohlekraftwerke, vermutlich eher 15 durchschnittliche.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Jo und wenn deine 10mio H100 nicht stimmen und es sich lediglich um Kerne oder Recheneinheiten handelt, dann kommst mit 2 Kohlekraftwerken mehr als ausreichend hin.

Große Kohlekraftwerke erzeugen bis zu 2000MW=2GW ...

Antwort Gefällt mir

O
Oberst

Veteran

337 Kommentare 131 Likes

Es steht explizit im Text: "10 Millionen KI-GPUs". Da steht nichts von Recheneinheiten oder Kerne, da steht explizit "GPUs". Und NVidia's kleinste H100 hat dann 300-350W (konfigurierbar).

Bezüglich der Kraftwerksleistung: Für mich ist ein Kraftwerk ein Block. War da etwas unklar. Wenn man viele Blöcke zusammen als ein Kraftwerk betrachtet, dann geht natürlich mehr.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung