News Auflösungserscheinungen? Der Personalwechsel bei Intels diskreter Grafik geht weiter – auch Darren McPhee wechselt von Intel zurück zu AMD

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Darren McPhee, den wir noch aus früheren AMD -Zeiten als “Director, Product Marketing and Content Strategy” kannten (bis 2015) und der dann von der RTG über diverse Umwege zu Intel kam, um dort als “Director of Product Marketing, Discrete Graphics” bis Februar 2021 zu arbeiten, ist ebenfalls zu AMD zurückgekehrt. Als “Director, Gaming Product Marketing” […]

Hier den ganzen Artikel lesen
 
Sehe ich auch so, aber da ist gerade der Wurm drin, zumal Pat kein Freund der Ganming-Karten ist. Selbst Raja wackelt schon arg, HPC läuft auch nicht wirklich, wenn man den Gerüchten glaubt. Mit Folien allein bekommt man keine Design-Wins.
 
Wobei ich bei Intel auch durch die CEO-Wechsel Probleme sehe.
 
Sehe ich auch so, aber da ist gerade der Wurm drin, zumal Pat kein Freund der Ganming-Karten ist. Selbst Raja wackelt schon arg, HPC läuft auch nicht wirklich, wenn man den Gerüchten glaubt. Mit Folien allein bekommt man keine Design-Wins.
Eine simple Office/ Media-Center Karte fuer HTPCs & Co wuerde aus meienr Sicht bereits einen guten Einstieg bringen, danach kann Intel ja noch nach groeßeren Ausschau halten. Waere so meine Idee.

Immer gleich den großen Wurf landen zu wollen kann nur im Desaster enden. Ich wuerde mich jedoch freuen. Denn fuer HTPCs gibts von Nvidia und AMD nichts Brauchbares als Erweiterungskarte. Entweder zu wenig Speicher/ zu langsam oder eben dann schon wieder zu groß. Die 1050 von Nvidia waere ein gutes Negativbeispiel. Die 1030 kanns nicht mit 4K und HDR, ist aber klein genug. Die 1050 kanns, ist aber zu fett und laut -_-
 
Ich hätte mich ebenfalls auf einen dritten großen Player und, dank Konkurrenz, mehr Angebot und (hoffentlich endlich wieder) niedrigere Preise gefreut. Intels Rückstand, insbesondere auch im Hinblick auf die Treiber, war/ist noch groß. Und es ist nicht der erste Anlauf, die früheren Versuche waren allesamt mehr oder weniger efolglos.

Eine simple Office/ Media-Center Karte fuer HTPCs & Co wuerde aus meienr Sicht bereits einen guten Einstieg bringen, danach kann Intel ja noch nach groeßeren Ausschau halten.
Dazu müsste man "einfach nur" die iGPU auf eine Platine schnallen, ihr einen Speichercontroller spendieren und ein paar RAM-Chips daneben setzen. Aber dafür sehe ich nur einen vergleichsweise kleinen Markt von alten PCs, die für moderne Codecs und hochauflösende Bildschirme fit gemacht werden sollen. Für neue Systeme ist das uninteressant, wenn der Mehrwert gegenüber integrierten Lösungen fehlt und ältere Office-PCs in Firmen werden meines Wissens nach nicht aufgerüstet, sondern höchstens ausgetauscht. Das anscheinend schrumpfende Angebot von Nvidia und AMD, bzw. das Fehlen von GT1010/GT1610/GT3010 o.ä. bzw. RX410/RX510/... zumindest im Endkundenmarkt würde ich als Folge einer zu geringen Nachfrage (und zu kleinen Margen) sehen. Außerdem dürften die meisten eher die Platzhirsche bevorzugen, ein Newcomer wird es dadurch noch schwieriger haben oder müsste über den Preis gehen, was den Gewinn noch weiter schmälert.

Soweit meine Meinung/Einschätzung. Man korrigiere mich, wenn ich komplett daneben liege.
 
Sehe ich auch so, aber da ist gerade der Wurm drin, zumal Pat kein Freund der Ganming-Karten ist. Selbst Raja wackelt schon arg, HPC läuft auch nicht wirklich, wenn man den Gerüchten glaubt. Mit Folien allein bekommt man keine Design-Wins.
Reicht doch eigentlich, wenn man die HPC Karten ans laufen bekommt, und dann als dedizierte PC Karte einfach was in der 150€ Mittelklasse brächte? 80% der PC Kunden tummeln sich doch sicher nicht in der High End klasse Rum, oder?
Mit den Design Wins haste Recht, aber Intel hat eben auch nichts wirklich brauchbares vorzuzeigen..
 
Ein GPU anbieter würde mir schon vollkommen reichen!
Theoretisch würde ich dir da Recht geben, aber nur solange dieser einzelne Anbieter aus Nächstenliebe handeln würde. Real würde dieser aber vermutlich eher kapitalistisch handeln, also beliebig hohe Preise für marginale jährliche Fortschritte verlangen. Fehler in Treiber oder Hardware müssen nicht mal ausgebessert werden, solange die Kunden nicht die Wahl haben zur Konkurrenz zu gehen.

Dieser einzelne Anbieter wäre wahscheinlich noch schlimmer als es Intel zumindest gefühlt von Sandy Bridge bis Kaby Lake bereits war: 4 Kerne warem im Mainstream das Maximum und die Leistung stieg jährlich im einstelligen Prozentbereich. Und dann kam die "Krönung" mit Kaby Lake X, wo Intel 200€ für einen 2-Kern-Prozessor haben wollte, der nur auf der teuren Highend-Plattform lief. Und nachdem AMD mit Ryzen wieder eine ernsthafte Konkurrenz war, ging es bei Intel dann Schlag auf Schlag voran, erst 6 Kerne, dann 8, dann 10 mit immer höheren Taktfrequenzen ab Werk (und leider auch rasant steigender Leistungsaufnahme). Und dank Threadripper gab es im HEDT-Bereich nach mehreren Stufen mit jeweils 2 Kernen mehr plötzlich 8 zusätzliche Kerne und man lag bei Coffee Lake und Skylake-X auch mal 3 bis 5 Monate vor dem Zeitplan.

Ein anderes Beispiel ist die Durststrecke zwischen der R9 Fury und der 6000er Serie, in der AMD ganz oben keine Argumente hatte, nachdem Nvidia die 1080 präsentiert hat. Anschließend konnte Nvidia die Preise der RTX20X0-Karten massiv anziehen, weil AMD nichts entgegenzusetzen hatte. Die 30X0er-Serie war dann gemessen am direkten Vorgänger geradezu günstig, denn es war abzusehen, dass AMD wieder im Highend-Segment zurück sein würde und tatsächlich konnte AMD dann auch wieder ganz oben mitspielen, hat leider aber ihrerseits auch das Preisniveau an den Konkurrenten mit dem Typ in der Lederjacke angeglichen.

Bei GPUs haben wir mit dem Doupol aus AMD und Nvidia immerhin ein bisschen Konkurrenzdruck. Wenn man selbst keinen Fortschritt hat, wandern die Kunden zur Konkurrenz. Wenn die Treiber dort Müll sind, kommen sie wieder zurück. So gab es die letzten Jahre kontinuierliche Fortschritte in beiden Lagern mit dem Ergebnis, dass man beide Hersteller derzeit kaufen kann (wenn sie denn zu realistischen Preisen liefern könnten ...).
 
Die groeßte Marge durfte fuer die Hersteller immer in der Mitte liegen. Habe ja auch nicht gesagt, das nur kleine Karten kommen sollen. Natuerlich ist die Mittelklasse das interessantere Feld insgesamt. Jedoch versteift man sich hier bei Intel stark auf Highend und zuendet die Erwartungen. Das endet garantiert im Desaster.

Was die kleinen Karten angeht glaube ich nicht mal, das die zu wenig Absatz haben. Es wird wohl eher daran liegen, das man da nicht mehr so viel rauf schlagen kann wie bei der Mittelklasse und Highend, wo nun seit der GTX7xx die preise weitab von dem sind, was man von der Preis Leistung her als annehmbar verbuchen kann. Angeblich sind auf einmal Platinendesigns, die eigentlich schon zu dem Zeitpunkt 8 Jahre moeglich waren, ganz doll boese teuer in der Highend Version der Karte und kosten dann gerne ueber 1k €, was man 5 Jahre zuvor fuer die Haelfte als Kunde kaufen konnte. (Trotz identischem, marginal schnelleren GDDR6) > 384Bit Speicheranbindung ist so ein Thema

Nvidia ist genau genommen seit ueber 10 Jahren ohne echte Konkurrenz. Im Steam Survey konnte man das gut beobachten. AMD macht da bisher maximal kleine Ausreißer. Und das toetet den Markt an kleinen Karten.
 
Sehe ich auch so, aber da ist gerade der Wurm drin, zumal Pat kein Freund der Ganming-Karten ist. Selbst Raja wackelt schon arg, HPC läuft auch nicht wirklich, wenn man den Gerüchten glaubt. Mit Folien allein bekommt man keine Design-Wins.
Das mit Raja wundert mich jetzt nicht so sehr. So richtige Erfolge hat er auch bei AMD nicht aufzeigen können. Der Fokus lag eher auf MI und die Architektur krankte daran nicht richtig ausgelastet zu werden. Mir war klar, wenn Intel erstmal raft was sie sich da ins Haus geholt haben wird das nicht lange dauern bis sein Stuhl wackelt.

Wenn man den Berichten glauben schenken kann, wurde an Navi ja hinter Rajas rücken entwickelt und man wartete nur bis er sein letzten hacken auf seinem Zettel setzte...dann hin ja auf einmal alles ganz schnell.
 
Ich bin hier ziemlich sicher in der Minderheit, sehe diesen Move aber eher als Zeichen, daß da jetzt doch was von Intel kommt. Hier mein Grund: die besten Zeiten den Arbeitsplatz in der F&E zu wechseln sind entweder kurz vor oder gleich nach einem Launch. Denn, selbst wenn das Produkt hervorragend geworden ist und alles glatt geht, wird danach immer noch mehr erwartet - toll, euer Ding verkauft sich wie warme Semmeln, was macht ihr um im nächsten Jahr/Quartal nochmal 30, 40, 50 % draufzulegen? Besser schon vorher umsteigen, und dann nach mir die Sintflut!
Wir werden ja bald wissen, wie Intel's dGPU Geschichte weitergeht, aber zu Ende ist die glaube ich noch nicht.
 
Wollte das noch anhängen: Ich denke, daß das Hauptproblem das Intel auch (und immer noch) bei dGPUs in den Hintern beißt ist der Engpass in der Fertigung. Zur Zeit haben die ja weder 10 nm noch 14 nm (die mit den vielen +) Kapazität frei, um wirtschaftlich sinnvoll größere Zahlen an GPUs zu fertigen; wenn sie das jetzt schon machen würden, ginge es zu Lasten ihrer CPU Fertigung, und die bringt wohl im Moment noch mehr $ pro Wafer. Wenn Intel jetzt aber tatsächlich ihre größeren fabs in Arizona und Oregon (und Israel?) erfolgreich mit 10 nm DUV Superfin zum Laufen bringt, lohnt sich die dGPU Fertigung dann auch.
 
die besten Zeiten den Arbeitsplatz in der F&E zu wechseln sind entweder kurz vor oder gleich nach einem Launch.
Das kann man auch anders deuten: Wenn man ein sehr gutes Produkt gelauncht hat, kann das die Eintrittskarte in einen guten/gut bezahlten neuen Job bedeuten, sodass ein Wechsel kurz nach dem Launch lukrativ ist. Wenn man vorher weiß, dass das Produkt eine herbe Enttäuschung wird, wäre ein Wechsel (deutlich) vor dem Launch vielleicht taktisch klüger.

Die Probleme mit der 10 nm-Fertigung sowie die volle Auslastung der 14 nm-Fertigung spricht sicherlich gegen eine Fertigung von GPUs in großen Stückzahlen im eigenen Haus. Aber ich habe auch gelesen, dass Intel die Fertigung der GPUs deswegen erstmal auslagern wollte. Oder war das nur ein Gerücht?
 
Wollte das noch anhängen: Ich denke, daß das Hauptproblem das Intel auch (und immer noch) bei dGPUs in den Hintern beißt ist der Engpass in der Fertigung. Zur Zeit haben die ja weder 10 nm noch 14 nm (die mit den vielen +) Kapazität frei, um wirtschaftlich sinnvoll größere Zahlen an GPUs zu fertigen; wenn sie das jetzt schon machen würden, ginge es zu Lasten ihrer CPU Fertigung, und die bringt wohl im Moment noch mehr $ pro Wafer. Wenn Intel jetzt aber tatsächlich ihre größeren fabs in Arizona und Oregon (und Israel?) erfolgreich mit 10 nm DUV Superfin zum Laufen bringt, lohnt sich die dGPU Fertigung dann auch.
Ein vermeintliches Fertigungsproblem scheint es in diesem Kontext nicht zu geben, da Intel unlängst erklärte, dass Xe-HPG extern gefertigt werden soll, also höchstwahrscheinlich (wenn auch nicht gesichert) bei TSMC. Darüber hinaus muss Intel von den Produkten vorerst keine so gigantischen (Intel-typischen) Stückzahlen abliefern können. Die sind hier der "Newcomer" in diesem Markt, d. h. die müssen sich erst mal etablieren (wenn das denn noch geschehen sollte?) und schrittweise Marktanteile gewinnen. Nimmt man Igors "Berichterstattung" hinzu, dann scheint hier jedoch aktuell sehr viel im Fluss zu sein und man darf gespannt sein, ob bspw. etwas wie HPG überhaupt noch in der vormals projizierten Form erscheinen wird ... ?

@Dezor: Nein, kein Gerücht, Intel wies eine externe Fertigung zu HPG explizit auf einer Folie im Aug. 2020 aus.
 
In diesem Zusammenhang ist es übrigens auch interessant, dass der einzige dedizierte DG2-Chip, der bei den OEM bereits für 2022 angekündigt wurde, allein für Notebooks genannt wird. Im Zusammenspiel mit einer Intel-CPU. Da braucht man dann auch die aufwändige Odyssee mit den Treibern nicht mehr, die seit 2 Jahren vor sich hin dümpelte und nie wieder gesehen wurde. Das gibt schon ein Bild, auch zusammen mit den aktuellen Leaks. Ich schrieb es ja immer wieder, dass eine dedizierte Notebook-Grafik kommt. :)
 
Ein vermeintliches Fertigungsproblem scheint es in diesem Kontext nicht zu geben, da Intel unlängst erklärte, dass Xe-HPG extern gefertigt werden soll, also höchstwahrscheinlich (wenn auch nicht gesichert) bei TSMC. Darüber hinaus muss Intel von den Produkten vorerst keine so gigantischen (Intel-typischen) Stückzahlen abliefern können. Die sind hier der "Newcomer" in diesem Markt, d. h. die müssen sich erst mal etablieren (wenn das denn noch geschehen sollte?) und schrittweise Marktanteile gewinnen. Nimmt man Igors "Berichterstattung" hinzu, dann scheint hier jedoch aktuell sehr viel im Fluss zu sein und man darf gespannt sein, ob bspw. etwas wie HPG überhaupt noch in der vormals projizierten Form erscheinen wird ... ?

@Dezor: Nein, kein Gerücht, Intel wies eine externe Fertigung zu HPG explizit auf einer Folie im Aug. 2020 aus.
Ich erinnere mich auch, daß Intel die Beschleuniger Karten (HPC) im Auftrag bei TSMC bauen wird (wollte zunächst "will" schreiben, aber so freiwillig war das wohl nicht). Der TSMC 7 nm Prozess ist mittlerweile eben sehr ausgereift, und kann auch bei großen Monolithischen Dies eine beeindruckende Ausbeutung erreichen. Ich dachte aber auch, daß Intel die dGPUs (also 1-2 Nummern kleinere Dies) selbst fertigen will, wenn (!) ihre Fertigung Kapazität hat. Und, wie auch von Igor hier geschrieben, würde es mich auch nicht wundern, wenn Intel's erste dGPU Welle erst mal für Mobile kommt. Denn da haben NVIDIA und AMD ein ziemliches Loch im Markt (Einstieg - Mittelklasse) gelassen, und damit sind die Margen auch fetter. Von den Treiber Problemen mit Desktop Betrieb (viele, heterogene CPUs) ganz zu schweigen.
 
xe_arch_aug20.jpg
Freiwillig nein, da die ja immer noch mehr oder weniger mitten in der Umstellung begriffen sind. Beispielsweise das HPC-Compute-Tile wird min. TSMCs N5 benötigen, denn das ist für Intels 7nm konzipiert, was weit über TSMCs 7nm-Prozesse hinausgeht. Hier hält man sich beide Optionen offen und wird, wenn man mit den eigenen 7nm doch noch zeitnah durch die Tür kommt, vermutlich primär intern fertigen (... wobei s. u.).
Das Hauptproblem ist jedoch ... damit man für alle Eventualitäten vorbereitet ist, muss man die Kapazitäten bei TSMC frühzeitig buchen und das haben sie schon in 2020 getan, denn man kann nicht mal eben bei irgend einem x-beliebigen Dienstleister anklopfen und erwarten, dass der morgen gleich die Produktion für einen aufnehmen kann. Und das bedeutet, dass Intel die Kapazitäten dort nun so oder so hat und die lässt sich TSMC auch bezahlen und wenn Intel davon Abstand nehmen wollen würde, dann wären Kompensationszahlungen fällig. Man kann also grundlegend davon ausgehen, dass schon dieses Jahr so oder so einige Produkte extern gefertigt werden, denn die Kapazitäten sind bereits eingekauft worden. *)
Den letzten Meldungen zufolge hat Intel angeblich beträchtliche Kapazitäten des N6 für 2021 bei TSMC eingekauft. Ob das so stimmt, wird sich zeigen müssen, wäre aber nicht abwegig für bspw. HPG-Produkte. (Und wie schon angerissen, werden da wahrs. auch kleine Volumina des N5(P?) im Vertrag mitinkludiert sein, denn die würde man für das HPC-Compute-Tile benötigen. Das HPC-I/O-Tile dagegen könnte vermutlich auch den N6 mitnutzen.)

Zusätzliche Anmerkung: Intel hat seine ersten dGPUs schon längst im Markt, die jedoch noch auf der Xe-LP-Subarchitektur basieren. In Verbindung mit Tiger Lake als Iris Xe MAX als dedizierter Chip, ebenfalls mit 96 EUs und höherem Takt i. V. z. iGPU und einem als Deep Link bezeichneten Feature, dass es ermöglicht zumindest bei einigen Compute-Workloads die iGPU und dGPU zusammenarbeiten zu lassen (bspw. beim Videoencoding).
Darüber hinaus hat man einige DG1/LP-Chips auch auf eine PCIe-Karte gepackt und an OEMs verkauft. Bei diesem Produkt scheint es sich jedoch voraussichtlich nur um eine Art Resteverwertung zu handeln, denn die Chips haben gar nur 80 EUs (und 4 GiB LPDDR4X) und sind an die OEMs gebunden, da die in ihrem MB-BIOS entsprechende Firmware-Bestandteile für die dGPU mitliefern müssen, d. h. eine solche Karte wird in einem x-beliebigen PC nicht booten können.

Aus Gamer-Sicht wird die Frage wohl sein wann HPG (inkl. HW-Raytracing) kommt und ob es überhaupt noch so kommen wird, wie ursprünglich mal in Aussicht gestellt ...
 
Zuletzt bearbeitet :
Bei Intel hat das Management über lange Zeit auf breiter Front versagt.
Klar solange die iGPU nur dafür sorgen musste ein Bild auf Display zu bringen war alles gut. Für die meisten Anwendungsfälle (Office) war das auch kein Problem, die anderen benötigten eh eine dGPU. Diesen Bereich überlies man den Anderen. Die meiste Arbeit wurde von der CPU erledigt.
Da jedoch immer mehr multimedialer Inhalt selbst auf einfachen Office Rechnern Einzug hielt, sich der Markt nicht mehr Intels Vorgaben beugte und dieser Konntet effizienter auf GPUs verarbeitet wird, war man mit der iGPU am Ende. Gleichzeitig winkte AMD mit Zen von der Seitenlinie, später dann noch mit einer ordentlichen iGPU in Form von APUs. Dazu kam, AMDs Architektur war kein One-day-Hit sondern erkennbar auf die Zukunft ausgelegt. Mehr CPU-Cores ordentliche iGPU.
Intel konnte bei den Cores nicht mehr mithalten, geschweige denn noch eine zeitgemäße iGPU liefern. Hektisch hat man sich neue Experten besorgt die das GPU Dilema richten sollten, blöd nur, dass Intels gesamtes Ökosystem keines mehr war. Überall nur Megabaustellen. Intels Architektur läßt sich nicht mit mehr Cores und ordentlicher iGPU fertigen. Damit man die Gesamtherrschaft über das System im mobilen Sektor behält, gab es nur den Weg über eine dGPU. Wie das bzgl. Verbrauch ausgeht wird sich zeigen.
Nach meiner Meinung kann Intel auch den Plan ins Rechenzentrum zu kommen beerdigen.
 
Intels Architektur läßt sich nicht mit mehr Cores und ordentlicher iGPU fertigen.
Soweit ich weiß ist das Hauptproblem nicht die Architektur sondern die 10 nm Fertigung, die noch keine ausreichenden Yieldraten bei großen CPUs bietet. Intel wollte eigentlich längst bei 10 nm sein (und eigentlich sogar langsam mal bei 7 nm ankommen ...) und hat deswegen umfangreiche Kerne entwickelt, die aus sehr vielen Transistoren bestehen, die bei 10 nm aber eine akzeptable Fläche einnehmen. Für die 14 nm-Fertigung sind die Kerne eigentlich "zu groß". Daher muss Intel bei der Anzahl der Kerne Kompromisse eingehen, damit das Die nicht zu groß, zu teuer und zu energiehungrig wird.

Das zweite Problem ist, dass Intel monolithische Dies verbauen möchte im Gegensatz zu den "zusammengeklebten CPUs" von AMD. Dafür benötigt man aber relativ große "fehlerfreie" Flächen, was das 10 nm Verfahren noch nicht liefern kann. Daher wird Rocket Lake nur 8 Kerne bieten.
 
Oben Unten