News Interne Dokumente offenbaren eine 500W Intel Xe MCM-Flaggschiff-GPU | 4 gestapelte Xe Chips in einem Foveros 3D-Packaging

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
Hier sind sie also, die lang ersehnten Infohäppchen zu der „Xe“ High-End-GPU von Intel. Die Kollegen von DigitalTrends sind irgendwie an die interne Präsentationen des Intel-GPU-Designteams gekommen und bestätigen mit diesen was in der Community schon länger vermutet wurde: Intel zielt auf die Marktanteile von AMD im Grafikkartensegment und arbeitet an einer MCM-basierten Grafikkarte. In den Dokumenten wird ein wahres Monstrum an Karte erwähnt: Eine Grafikkarte mit 4 separaten Dies, die bis zu 500W zieht!

Intel-Xe-DG1-SDV-Graphics-Card-71.jpg



Intel hat sich bei seinen Xe-GPU-Präsentationen ziemlich zurückhaltend verhalten – der Konzern äußert sich kaum bis gar nicht zu den geplanten Zielmärkte, greift mehrere Märkte in einem Oberbegriff zusammen und veröffentlicht Updates zu den Entwicklungen nur sporadisch. Die Dokumente, die DigitalTrends erhalten hat, zeigen auf, dass das Unternehmen nicht nur am Aufbau seiner SDV- und DG1-Proof-of-Concept-GPUs arbeitet. Intel möchte das Zen-Konzept von AMD auf die GPUs zu übertragen. Eine Grafikkarte, mehrere GPU-Kerne: Zusammengeschlossen in einem Package aus vier Dies und aufgebaut wie ein Würfel, können mehrere dieser Chips zu einer GPU zusammengeschlossen werden. AMD selbst hat MCM noch nicht für seine GPU-Produkte implementiert. Intel hätte hier also sowohl die Vorzüge, als auch Nachteile eines Early Adopters. Ob der Konzern diesen Schritt nach dem 10nm-Debakel wagen wird, ist nicht vorherzusehen.

Zur News: https://www.igorslab.de/interne-dok...pelte-xe-chips-in-einem-foveros-3d-packaging/
 
„Full hardware virtualisation required by all segments“ - interesting!
 
Die Tabelle sagt aber auch, dass bei den 500W die Eingangsspannung bei 48V liegt. Also scheint die höchste Stufe eher für Rack-Server und Co. gedacht zu sein, woanders her hab ich von 48V noch nicht gehört.
 
4 12V rails?

Stell ich mir trotzdem abenteuerlich vor; wenn doch dann kommt vermutlich wieder ne Welle "Hilfe mein Netzteil hat abgeschaltet/ist abgebrannt" Themen auf.

oder die 12V input wieder auf 48V umspannen, aber 42A auf einer Leitung vom Netzteil?
 
Zuletzt bearbeitet :
Ich kann mir nicht vorstellen, dass das 500W/48V-Gerät für den Enduser gedacht ist.
 
naja, n 4 chipper für Enduser war ja schon mal geplant. (3DFX Voodoo5 6000)
 
naja, n 4 chipper für Enduser war ja schon mal geplant. (3DFX Voodoo5 6000)
Geplant war da noch viel mehr, die V5 6000 gab es wirklich, aber nicht viele.

Ansonsten lässt sich das schwierig vergleichen. Andere Zielstellung und andere Probleme als heute. Aber was 3dfx falsch gemacht hat, sollte man schon wissen bei Intel. Immerhin ist der Hersteller mit dem Konzept, das 3dfx maßgeblich die Tour vermasselt hat, heute noch "ziemlich" erfolgreich im Geschäft. Andererseits hat Intel auch schon viele interessante Projekte an die Wand gefahren, und im Kerngeschäft auch scheinbar total vergessen, wie gefährlich der Mitbewerber werden kann.
Also was kann schon schiefgehen? :cool:
 
Nicht zu vergessen, das SLI auch eine 3dfx-Technologie ist/war.
 
Ich kann mir nicht vorstellen, dass das 500W/48V-Gerät für den Enduser gedacht ist.

48 V sind für's Datacenter, mehr dazu bspw. hier:
48V: An Improved Power Delivery System for Data Centers [PDF]

Abseits dessen ist die abschließende Frage des Artikels merkwürdig. Warum sollte es eine Frage sein, "wo Intel die 500 W her nimmt". Gemäß Folie kann bereits ein Tile bis zu 150 W erreichen, d. h. vier würden in unveränderter Form gar bis zu 600 W ziehen. Offensichtlich taktet man das Vier-Tiles-Design aber niedriger oder schaltet ein paar Funktionseinheiten/Cores ab, sodass man nur auf 400 - 500 W kommt.

Zudem auch die Frage was das ganze mit dem PCIe-Power-Limit zu tun haben soll? Das hat in der Vergangenheit schon kein hartes Limit impliziert. Über den PCIe-Slot können aktuell maximal 75 W geliefert werden, der Rest ist extern zuzuführen. Beispielsweise die Nutzung von zwei 8-poligen Steckern (aktuell 150 W x 2) ist in der aktuellen PCIe- und ATX-Spezifikation nicht definiert, wurde in der Vergangenheit jedoch schon von mehren GPUs genutzt (so u. a. die Radeon HD 7990 mit zwei Tahiti-Chips und beispielsweise nVidia's aktualisierte DGX-2H bindet 16 Tesla V100 zu jeweils 450 W pro Karte an).
Für PCIe 4.0 wird die direkte zuführung über den Slot bei 75 W bleiben, jedoch legen die Veröffentlichungen nahe, dass man hier bzgl. der zusätzlichen, externen Versorgung weiter greifen wird, so bspw. vielleicht die zwei 8-poligen Stecker validiert. (Die Spec kann leider nicht frei von der PCI-SIG heruntergeladen werden und die meisten Veröffentlichungen beschränken sich auf die bandbreitenrelevanten Änderungen.)
 
PCIe liefert max. 5.5 Ampere auf 12 Volt. Macht 66 Watt laut PCI SIG. Die 75 Watt resultieren aus diesen 5.5 Ampere und dem, was die ATX Norm als Obergrenze fürs Übervolten der Netzteile festlegt. Bis zu, aber nur bei Übervoltung. Standard sind 66 Watt. Außerdem wird man das kaum auslasten, denn man muss den Slot ja noch einzelnen Phasen zuweisen. Je nach VR-Design hängen dann eine oder zwei Phasen am PCIe-Slot. oder man baut einen aufwändigen Load-Balancer, der PCIe-Slot und Aux vermittelt. Sinnlos teuer. :)
 
Ich hatte mir hierzu mal anno dazumal vermerkt:
Gemäß PCIE CEM revision 2.0 kann ein 16x-Slot für reguläre Karten max. 25 W liefern und als high power device ausgewiesene Karten können maximal mit 75 W versorgt werden, die kombiniert über die +12 V und +3,3 V Schienen zur Verfügung gestellt werden. Die 1x, 4x und 8x-Slots sind grundsätzlich auf 25 W beschränkt.
Würde ergänzt mit Deiner Angabe bedeuten, dass max. 9 W via 3,3 V geliefert werden können.
Und wenn die Spannungstoleranzen von +/- 8 % für den 16x-Slot immer noch aktuell sind, könnte der Slot auf ~12 V auch gar nur 61 W liefern und wäre noch innerhalb der Spec (aber das würden Kartenhersteller ja schon implizit berücksichtigen).
 
Ohne relativieren zu wollen, die werden die Stromversorgung schon gebacken bekommen, auch wenn man wortwörtlich darauf was backen kann. ;) Ich finde es eher bedenklich, dass die anderen Informationen so schwammig ausfallen.
 
Geplant war da noch viel mehr, die V5 6000 gab es wirklich, aber nicht viele.

Ansonsten lässt sich das schwierig vergleichen. Andere Zielstellung und andere Probleme als heute. Aber was 3dfx falsch gemacht hat, sollte man schon wissen bei Intel. Immerhin ist der Hersteller mit dem Konzept, das 3dfx maßgeblich die Tour vermasselt hat, heute noch "ziemlich" erfolgreich im Geschäft. Andererseits hat Intel auch schon viele interessante Projekte an die Wand gefahren, und im Kerngeschäft auch scheinbar total vergessen, wie gefährlich der Mitbewerber werden kann.
Also was kann schon schiefgehen? :cool:

Wiki:
Voodoo5 6000 (nie erschienen, ca. 1400 Prototypen existierten, ca. 80 heute noch bekannt); ok gab es^^

Ob 3Dfx Intel wirklich tangiert hat? NVidia ist ihnen sicher negativer aufgefallen mit dem Versuch die Mainboardchipsätze auch zu machen.
 
Wiki:
Voodoo5 6000 (nie erschienen, ca. 1400 Prototypen existierten, ca. 80 heute noch bekannt); ok gab es^^

Ob 3Dfx Intel wirklich tangiert hat? NVidia ist ihnen sicher negativer aufgefallen mit dem Versuch die Mainboardchipsätze auch zu machen.

Ja, so ein Teil hätte ich mir anfang/mitte 2000 fast ersteigert, war mir aber angesichts der Nutzlosigkeit dann doch zu teuer geworden.

Natürlich hatten Intel und 3dfx nichts mit- oder gegeneinander zu schaffen, Intel hatte derzeit gar keine GPUs. Die Voodoo 5 ist einfach nur ein gutes Beispiel, wie man es nicht machen sollte, wenn man irgendwas mit Beschleunigern entwickeln und sinnvoll gegen Nvidia im Markt platzieren will.

Aber 300 bzw. 500W sind schon recht gewaltige Ansagen, keine Ahnung was da "hinten rauskommen" müsste, damit man die Fachpresse und relevante Zielgruppen (wer auch immer das sein soll) vom Hocker hauen kann.
 
Wollte meine Zweifel, dass Intel damals gut aufgepasst hat, was genau da schief gelaufen ist, zum Ausdruck bringen.
Angesichts der $$$ Reserven kann man aber davon ausgehen, dass Intel auch eine exakte Wiederholung der Fehler überleben wird.


@ Output: RTX für jeden Pixel@4k@>200Hz? So als Optimalfall^^
 
Ein Threadripper 2990 WX, der fast 500 Watt wegnuckeln kann, ist auch für den 'Enduser' (wer immer das nun genau sein soll) gedacht. Ich seh grad das Problem nicht, was da merkwürdigerweise aufgeworfen wurde.
Mal ganz davon abgesehen, dass eine 450 Watt-Karte ja auch schon mal einen 'Einhell'igen Eiertanz bewirkte ;)
 
Die Leistung muss in einem brauchbaren Verhältnis zum Stromverbrauch stehen. Derzeit haben wir nur Gerüchte (oder gibt es eine Bestätigung seitens Intel, dass die Dokumente echt sind?) bezüglich der Stromaufnahme und keine mir bekannten Informationen bezüglich der Leistung. Also kann man das aus meiner Sicht kaum beurteilen.
 
Mal ganz davon abgesehen, dass eine 450 Watt-Karte ja auch schon mal einen 'Einhell'igen Eiertanz bewirkte ;)

Haben die damals auch schon so nervös mit der Stromversorgung herumgespielt wie heute üblich? Prinzipiell scheinen die 375W der Einzelkarte ja gegangen zu sein, die 2x450W im OC mal außen vor gelassen, da Intel wohl kaum die Grenzbereiche der Komponenten ausnutzen wird.
 
Frag Igor, der hat den Kochku- ääh, Test ja damals gemacht :)
 
Oben Unten