Intels ARC Grafikkarten auf der Kippe? Über resignierende Boardpartner, genervte Systemintegratoren und skeptische Händler

Irgendwie schade, dass wegen rein finanzieller Aspekte ein Rückzieher gemacht wird, anstatt dem Ganzen eine Chance zu geben, auch wenns aktuell nicht gut aussieht. Fortschritte gibt es schliesslich nur wenn man dran bleibt, auch wenns mal nicht sehr rosig aussieht. Alles andere ist Stillstand. Ein Dritter würde dem GPU Markt gut tun! Aber nur die Kohle und Steaks-Halter sind halt mit Abstand Prio 1.
 
Zitat aus dem Text:
Ich würde das jetzt nicht gleich Arroganz nennen wollen, aber man muss den Risiko-Trägern von Seiten Intels schon etwas entgegen kommen (und was anbieten) und nicht nur darauf pochen, dass sich alles, wo Intel draufsteht, auch als Selbstläufer verkauft.
Irgendwie drängt sich mir das Zitat "Nach dem Hochmut kommt der Fall" auf.
Im Fall von Intel ohnehin nicht ganz abwegig. Wobei ich den Fall jetzt mal auf den Grafikkartenmarkt beschränken möchte.

Zusammen mit den letzten Intel Jahresberichten der Geschäftszahlen könnte Intels Ausflug in Grafikkarten schnell vorbei sein.
Alles in allem eine schlechte Entwicklung. Wir hätten uns alle einen dritten großen Player gewünscht.
Aber allein dass Intel die Arc nicht offensiv bewirbt, bestärkt ja das mangelnde Vertrauen in das eigene Produkt.
Insgesamt hätte ich zwar auch nicht mit einem runden Start ab Tag 1 gerechnet, aber so eine Katastrophe hätte ich dann nicht erwartet.
Vor allem die Instabilitäten der Treiber sind schlimm. Wenn eine Forma wie Intel mit ihrer Manpower das nicht hinbekommt, fürchtet man doch automatisch auch ein Zusammenspiel zwischen fehlerhafter Hardware und Software. Nicht nur Software allein.

Ist zwar nicht direkt zum Thema, aber Meteor Lake 2023 ist wohl auch gefährdet:
 
Zuletzt bearbeitet :
Ich glaube ja nach wie vor, dass Intel irgendwie ihre fähigsten Software bzw. Treiber-Entwickler verloren oder mundtot gemacht hat. Die Open Source Treiber im Linux-Kernel waren meiner Meinung nach jahrelang DAS Beispiel, wie man es richtig machen sollte. In jüngerer Vergangenheit kamen aber auch dort immer mehr Schnitzer dazu und das ganze "gipfelte" dann darin, dass zum Ende der Entwicklung von Kernel 5.19 noch schnell eine Firmware-Änderung reingedrückt werden sollte, die weitreichende Auswirkungen gehabt hätte, wenn man "linux-firmware" nicht auch auf aktuellsten Stand hält.

Das ist schlechter Stil, eigentlich seit Jahrzehnten ein ungeschriebenes Gesetz ("Kernel doesn't break user-space"), dass man so etwas nicht macht, aber irgendwer bei Intel hielt das für eine tolle Idee. Gab Stunk, die Maintainer haben Intel die Pistole auf die Brust gesetzt, es wurde geändert. Aber sowas hätte es "früher" nie gegeben... In wie weit die Open Source Treiberleute auch mit Windows-Treibern zu tun haben, weiß ich natürlich nicht, aber es zieht sich doch wie ein roter Faden durch die Firma.

Hab es jetzt gerade nicht genau auf dem Schirm, aber hat man vor einiger Zeit nicht erst groß ein Software-Entwicklungscenter eröffnet? 500 Berufseinsteiger-Entwickler für nen Hungerlohn ersetzen dann wohl doch keine 50 Profi-Entwickler. Aber auch die Erkenntnis hätte man als Konzern durchaus selbst haben können.

Das sind Mutmaßungen an Hand von realen Ereignissen, ob's wirklich so ist, weiß wohl nur Herr Gelsinger selbst. Aber irgendwas läuft schief, scheinbar in mehreren Abteilungen.
 
Feine Sache das Intel nix auf die Kette bekommt.
Konkurrenz belebt das Geschäft , bei Intel bedeutet es aus dem Geschäft drängen.
 
Ein Senior Patent Anwalt...
das Bild macht eher den Eindruck eines Trainees, da wundert einen nix mehr in der heutigen Welt.
 
Ein Senior Patent Anwalt...
das Bild macht eher den Eindruck eines Trainees, da wundert einen nix mehr in der heutigen Welt.
Das mit den Titeln ist schon cool. Heute hat doch jeder Blumentopf schon einen Magister. Ma gießt er, und ma nich. :p
 
Ich verstehe aber auch nach wie vor nicht, warum die Treiber für die dGPUs so fehlerhaft sind, während die iGPUs mittlerweile nahezu fehlerfrei arbeiten.
Ja gut genau weiß ich das auch nicht. Aber ich vermute mit der IGPU zockt ja auch keiner, deshalb fällt es nicht auf. Bei diesen Treibern passiert sicher nicht mehr viel. Genauso ist es ja auch den APUs von AMD. Oder die Archiktetur ist doch anders und bedarf neue Treiber.

Also um mal etwas positives zu sagen. Die A380 Karten sind nicht schlecht, die Leistung ist ja da. Etwas Strom hungrig, aber ok. Sofern der Treiber mit spielt und noch optimiert wird. An der Hardware liegt es bestimmt nicht.

Ich habe jetzt die letzten Wochen alles schön verfolgt. Ich glaube Intel hat sich das völlig anders vorgestellt und man müsste nur genug Geld in die Hand nehmen oder hat in den Fall zu wenig in die Software gesteckt. Dem ist aber nicht, Software sells Hardware, in dem Fall der Treiber.

Ich denke entweder hat Intel sich einfach verzockt, mal wieder. Oder es dauert noch ein paar Monate, Jahre bis die Software soweit ist. Wenn das so bescheiden läuft, hätte man vielleicht wirklich kleine Chips fertigen sollen und kleinere Stückzahlen planen. Keine vermutlichen RTX 3070 Konkurenten. Diese Karten lassen sich auch leichter subventionieren.
 
und man müsste nur genug Geld in die Hand nehmen
Und das jetzt wo Intel gerade das erste selbstverschuldete Minus-Quartal in diesem Jahrtausend gemacht hat. Die Verzögerungen bei Sapphire Rapids machen es auch nicht besser.
Oder es dauert noch ein paar Monate, Jahre bis die Software soweit ist.
Aber genau das kann sich Intel derzeit nicht leisten. AMD und Nvidia schlafen nicht und arbeiten fleißig daran, besser zu werden und die neue Generation steht bei beiden Herstellern schon fast vor der Tür. Intel müsste also weiterhin die Hardware schneller als die Konkurrenz verbessern um zu AMD und Nvidia aufzuschließen, und gleichzeitig enorme Sprünge bei den Treibern machen.

Dazu kommt dann noch das Image nach dieser enttäuschenden ersten Generation, was nicht unbedingt das Vertrauen der Kunden stärkt.

Meldung von Heute Mittag auf Heise: https://www.heise.de/news/Intel-Met...00-angeblich-auf-2024-verschoben-7202116.html - läuft bei Intel ... NICHT!
 
but Intel is said to have cancelled most of its orders with TSMC for the 3 nm tGPU that Intel will have made at TSMC, for 2023
evtl. triffts ja auch den Nachfolger, ... oder auf wundersame Weise kann Intel nächstes Jahr selber GPU-Chips herstellen

 
Vielleicht kann Intel ja demonstrieren, daß ihre dGPUs einigermaßen gut Ether minen können. Ja, Crypto ist in der Krise, aber so könnten sie uU noch einige Karten billig verkloppen. Ansonsten sieht es sehr düster aus.
 
Man könnte ja jetzt gehässig sein und sagen: die halbe Welt schippert ihren Elektroschrott nach Afrika, hat sich Intel wohl gedacht, nach China kann auch mal was gehen..... bzw wird ja sowieso dort gefertigt, spart man sich schon die "um die Welt-Schipperei".

Finde ich aber schon langsam peinlich, was Intel da alles vergeigt in letzter Zeit. Konkurrenz wäre schon gut für den Kunden, aber da sehe ich Intel leider im dGPU-Markt auf Dauer nicht.
Das kommt davon, wenn man nur noch in seiner eigenen Bubble verweilt, da kann es leider keine großen Innovationen mehr geben.
 
Sehr interessant, danke. Es wird wohl auch darauf ankommen, wie die noch folgenden (und leistungsfähigeren) Arc-Produkte dann in Tests abschneiden. Irritiert bin ich aber schon - eine grosse Firma wie Intel wird doch sicher gewusst haben, wie ihre eigenen Produkte im Vergleich zur etablierten Konkurrenz in Punkto Grafikleistung, Effizienz usw. abschneiden (werden), zumindest ungefähr. Da muss doch irgendein Plan dahinterstecken? Bedeutet der Release zunächst nur in Asien, dass die dortigen Partner und Kunden das Produkt anders sehen? Ich verstehe es nicht, aber vielleicht klärt sich das noch irgendwann. Es ist ja auch nicht unmöglich, dass ein ranghoher Intel-Manager seine eigenen Chefs über die Daten der Produkte schlichtweg belogen hat; auch (und gerade?) Top-Manager machen manchmal ganz schön Mist.
Ein verrückter Einwand - bitte tackert mich nicht vorschnell kopfüber an die Kellerwand - die ARC GPU sind und waren als strategisches Produkt ausschließlich für Desktopbetrieb und Kryptomining auf dem asiatischen Markt bestimmt, um kurzfristig praktisch garantierte Umsätze neuer Marksegmente mitzunehmen um zukünftig auf vielfachen Beinen stehen zu können. Effizienz, Grafikleistung, Stabilität, Umweltlasten und Ressourceneinsatz interessieren den Massenmarkt für Kryptomining nicht. Solch einen Markt bedienen Hersteller sicher gerne - kann man hier doch auf beiden Seiten mit überschaubarem Aufwand große Gewinne erzielen. Jedoch erscheint INTEL - absichtlich oder unabsichtlich wer weiß das schon - nunmehr reichlich verspätet auf der Bildfläche. Der hier unvergessene Titel "Too Little Too Late" von Jojo erscheint passend.

 
Zuletzt bearbeitet :
Ein verrückter Einwand - bitte tackert mich nicht vorschnell kopfüber an die Kellerwand - die ARC GPU sind und waren als strategisches Produkt ausschließlich für Desktopbetrieb und Kryptomining auf dem asiatischen Markt bestimmt, um kurzfristig praktisch garantierte Umsätze neuer Marksegmente mitzunehmen um zukünftig auf vielfachen Beinen stehen zu können. Effizienz, Grafikleistung, Stabilität, Umweltlasten und Ressourceneinsatz interessieren den Massenmarkt für Kryptomining nicht. Solch einen Markt bedienen Hersteller sicher gerne - kann man hier doch auf beiden Seiten mit überschaubarem Aufwand große Gewinne erzielen. Jedoch erscheint INTEL - absichtlich oder unabsichtlich wer weiß das schon - nunmehr reichlich verspätet auf der Bildfläche. Der hier unvergessene Titel "Too Little Too Late" von Jojo erscheint passend.

Bin kein Miner aber glaube Effizienz ist für die schon wichtig, desto mehr Strom das kostet bei gleicher Leistung desto weniger Gewinn oder es lohnt sich garnicht.
 
kein Miner aber glaube Effizienz ist für die schon wichtig, desto mehr Strom das kostet bei gleicher Leistung desto weniger Gewinn oder es lohnt sich garnicht.
Das kommt ganz darauf an.. bisher hab ich noch kein Mining Benchmark zu den Intel Karten gesehen. (Wäre aber interessant)
Eventuell sind sie dort aussergewöhnlich stark und effizient.

Ich hab mir auch schon vor Monaten gedacht das Intel nur auf den Crypto Zug aufspringen will.. weil dort mehr Geld zu holen war als bei den gamern
 
Auch wenn ich das nach den bisherigen Benchmarks bezweifel, hätte die karte dann ihre nische gefunden.

Ich glaube nicht das die Miner so auf gute Treiber Software angewiesen sind, sind ja wohl auch nicht die Typischen Otto-normal-User.
 
Ich tippe mal darauf, dass bei so einer Zuverlässigkeit den Komplett PC Herstellern dieLust gründlich vergeht. Wo wird denn ein Normalo seine Unzufriedenheit abkippen, wenn diverse Spiele nicht laufen? Natürlich beim Hersteller der Kiste. Mit Nvidia und AMD hat man zwei Hersteller an der Hand, auf deren Produkten zumindest mal alles läuft und man sich keine Sorgen machen muß-.

Eingestellt wird da wohl nichts, Intel hat jetzt noch zwei Generationen an der Hand und vermutlich weitere in Planung. Da muß man jetzt durch.

Trost für Intel: der NV1 war auch ein recht großer Flop und über die ersten 5 Jahre der ATI 3D Beschleuniger breiten die AMD Fanboys gerne den Mantel des Schweigens aus.

Ich hab mir auch schon vor Monaten gedacht das Intel nur auf den Crypto Zug aufspringen will.. weil dort mehr Geld zu holen war als bei den gamern

Der Kryptozug ist schon abgefahren, bzw. soll bald verschrottet werden. Im September soll Ethereum umgestellt werden, ich drücke die Daumen, dass es klappt.
 
Im September soll Ethereum umgestellt werden, ich drücke die Daumen, dass es klappt.
Sowas in die Richtung habe ich auch im Kopf.

Zum Thema Mining:

Der (letzte) große Einsturz bei Bitcoins war "erst" Anfang des Jahres, da hätte Intel bereits längst auf dem Markt sein wollen, also vielleicht genau rechtzeitig. Bei AMD und Nvidia laufen sowieso nicht die originalen Treiber, bei Intel hätten die Miner theoretisch auch selbst etwas basteln können, wahrscheinlich hätte sich nur der Aufwand nicht gelohnt.

Andererseits ist bei den Minern die Effizienz am wichtigsten. Ob man Intel hier so effizient bekommen hätte und auf ein Niveau der unter Minern beliebten AMD und Nvidia GPUs gedrückt hätte, kann ich nicht beurteilen. Fakt ist, dass bei den Minern der Einkaufspreis nur eine untergeordnete Rolle spielt und diese nur auf Effizienz achten, denn auch in anderen Ländern gibts den Strom nicht gratis. So wurden teilweise Gaming-Notebooks fürs Mining genutzt. Andererseits kann man gamingtaugliche Karten nach 1 bis 2 Jahren Mining auch wieder verkaufen, ob man in dem Fall Intel loswerden würde ... keine Ahnung.
 
Oben Unten