News Prozessor

Intel bestellt 2nm bei TSMC: Nova Lake kommt vom Band des Wettbewerbers – Foundry bleibt Zuschauer

Es kommt, wie es kommen musste – oder zumindest, wie es sich seit Monaten angedeutet hat: Intel lässt seine Nova-Lake-Prozessoren, zumindest deren Compute-Tiles, nicht etwa in der hauseigenen Foundry auf 18A backen, sondern beauftragt laut Berichten der Taiwan Economic Daily kurzerhand TSMC mit der Produktion im 2nm-Prozess. Damit reiht sich Intel ein in die mittlerweile recht prominent besetzte Warteschlange am Eingangstor von TSMC – gleich neben Apple und AMD, die sich dort bekanntlich schon länger tummeln. Eine gewisse Ironie liegt in der Tatsache, dass ein Konzern, der sich als Vollsortimenter inklusive eigener Fertigung versteht, nun genau das Kernstück seiner Desktop-Pläne auslagert. Aber gut, man hat wohl erkannt, dass Realitäten mitunter härter sind als Visionen.

TSMC statt IFS: Wenn der Anspruch auf die Wand der Realität trifft

Schaut man sich die Roadmaps, Ankündigungen und Vorträge der letzten Jahre an, sollte Intels 18A-Prozess doch eigentlich das Maß aller Dinge sein. Höhere Transistordichte, bessere Effizienz, fortschrittliche Techniken wie PowerVia und RibbonFET – kurz: das ganz große Kino. Und jetzt? Nova Lake, als zentrale Hoffnung für die nächste Generation im Desktop-Segment, wird nicht auf 18A gefertigt, sondern bei einem Unternehmen, das Intel in der Theorie technologisch überflügelt haben sollte – zumindest wenn man den PR-Folien glauben schenken will. Michelle Johnston Holthaus, ihres Zeichens Produktsparte-Chefin bei Intel, hatte bereits angedeutet, dass man auf IFS verzichten würde, wenn nötig. Nun scheint es nötig zu sein. Die Compute-Tiles wandern zu TSMC, während möglicherweise andere Chiplets intern bleiben – die klassische Dual-Sourcing-Strategie also. Doch wenn das wichtigste Teil ausgelagert wird, bleibt von „dual“ am Ende nicht mehr viel übrig.

Nova Lake: Viele Kerne, viele Fragen

Technisch betrachtet will man bei Nova Lake aufrüsten: Die Rede ist von bis zu 16 Performance- und 32 Effizienz-Kernen. Ob sich diese Zahlen bewahrheiten, bleibt abzuwarten, aber die Marschrichtung ist klar: Mehr Kerne, mehr Threads, mehr parallele Performance. Das alles will man im 2nm-Prozess unterbringen – ein Schritt, der in Sachen Energieeffizienz und Dichte durchaus Sinn ergibt, vorausgesetzt, man bekommt ausreichend Waferkontingent und der Yield macht keinen Strich durch die Rechnung. Mit AMDs Venice (EPYC Gen 6), Apples A20 und nun auch Intel drängen sich immer mehr Schwergewichte auf TSMCs fortschrittlichstem Knoten. Die Stückzahlen dürften dabei eine nicht zu vernachlässigende Rolle spielen – ob Intel seine gewohnte Marge auch bei ausgelagerter Fertigung halten kann, wird sich zeigen. Die Tatsache, dass man diesen Schritt trotz aller Kosten geht, lässt zumindest darauf schließen, dass die Alternativen entweder nicht fertig, nicht konkurrenzfähig oder schlicht zu riskant sind.

18A: Panther Lake als Versuchskaninchen

Ganz lässt man 18A natürlich nicht fallen. Die Roadmaps listen Panther Lake und Clearwater Forest weiterhin als 18A-Produkte. Offenbar will man intern zumindest den Beweis antreten, dass die Technik grundsätzlich funktioniert. Dass man jedoch das Prestigeprojekt Nova Lake davon abkoppelt, ist ein klarer Fingerzeig. Entweder fehlen Vertrauen, Kapazität oder schlichtweg die Zeit. Es bleibt dabei: Man kann einen Fertigungsprozess nicht nur auf Folien bejubeln, man muss auch liefern. Und wenn man eben nicht liefern kann, lässt man liefern – durch TSMC.

Dual-Sourcing als Deckmantel für Auslagerung

Offiziell ist von Dual-Sourcing die Rede, doch die Realität sieht eher nach einer schleichenden Auslagerung aus. Dass Intel damit auch ein Stück Kontrolle abgibt, liegt auf der Hand. Gleichzeitig zeigt man sich flexibel – man nimmt in Kauf, dass das Kerngeschäft zumindest teilweise fremdgefertigt wird, um technologisch Schritt zu halten. Für den Verbraucher wird das mittelfristig kaum eine Rolle spielen. Wo „Intel“ draufsteht, interessiert selten, ob es in Oregon oder Taiwan gefertigt wurde. Für die internen Ambitionen von IFS ist dieser Schritt hingegen ein kleiner Dämpfer – und ein klarer Hinweis darauf, dass es zwischen Anspruch und Wirklichkeit mitunter ein paar Nanometer Unterschied gibt. Und in diesem Fall sind es exakt zwei davon.

Source:  Money

 

Kommentar

Lade neue Kommentare

Y
Yumiko

Urgestein

1,044 Kommentare 477 Likes

Na, da wird sich der amerikanische Zoll aber freuen :rolleyes: ;)

Antwort 1 Like

RX480

Urgestein

2,106 Kommentare 1,021 Likes

Ist das nicht derzeit vom Zoll befreit?

Antwort 1 Like

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Es ist noch gar nicht soooo lang her , da wurden die Intel Foundrys als die (bezogen auf den Fertigungsprozess) technologisch führenden beschrieben. Zumindest gegenüber AMD.
Und spätestens seit dem Wechsel auf 22nm bzw. 14nm dann war TSMC besser. Und Intels 10nm Desaster zusammen mit der weiterhin Leistung über Verbrauch-Auslegung unter Beibehaltung des Grund Core i Designs waren dann wohl nicht der erste schritt nach unten. Dabei hatte Intel bei Netburst schon Lehrgeld bezahlen müssen. Geschichte wiederholt sich eben doch...

Antwort Gefällt mir

Ifalna

Urgestein

614 Kommentare 536 Likes

Es ist leicht als Laie von seinem Armchair aus zu urteilen aber wir sollten alle nicht vergessen, dass es bei cutting edge tech & R&D nunmal keine Garantien gibt und Ansätze manchesmal eben nicht so funktionieren wie gewünscht.

Antwort 1 Like

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Da hast du Recht. Aber gleichzeitig sind wir auch Kunden. Und von einem Monopol profitiert leider nur der Monopolist. Es freut mich, das AMD mit seiner Zen-Architektur nicht nur aufgeschlossen hat und seit dem mehr als nur eine günstige Alternative im Einsteiger und Mittelklassebereich ist.
Wettbewerb und so...

Aber gerade das Thema Energiebedarf war ja schon bei Netburst das Thema, während AMD beim Athlon64 deutlich besser war. Wie gesagt, Intel war schon mal in der Situation. Und bereits bei den Test zu den Core i 7 bzw. 9der Gen. 8/9 wurde der im Vergleich zum Ryzen hohe Energiebedarf festgestellt. 4 auf 6 auf 8 auf 10 Kerne von 7700 bis 10900 auf gleicher Sockelfläche. Und dann der "Rückschritt" auf 8 Kerne im 11900, weil ein 10900k mit ungebremsten PL1/PL2 unter Volllast fast 50w mehr braucht als ein Ryzen 9 3900X mit 2 Kernen mehr (Siehe Test hier auf IgorsLab) bei schlechteren Renderzeiten.

Dafür hat Intel dann noch Gen. 11, 12, 13, 14 nachgeschoben. Im Falle der K-CPUs immer mit der Energetischen Brechstange. Und damit dann auch entsprechend vorzeitigem Ableben diverser CPU's.

Unter den Gesichtspunkten sind die Ergebnisse eines Core Ultra 9 285k für mich sogar als Positiv zu werten. Klar, langsamer als ein 14900k. Aber auch 40-50w weniger Energiebedarf unter Volllast. Und deutlich Effizienter bei Gaming und Workstation-Anwendungen. Und wieder einfacher zu kühlen. Trotz verschobenen Hotspot.
Auch wenn man dem Busenfreund von Donald nix abgewinnen kann, aber seine letzte Aussage in Bezug auf der Energieversorgungssicherheit auf der Bosch Connected World Konferenz ist nicht von der Hand zu weisen. Energieeffizienz ist eine nette und wichtige Eigenschaft in Bezug auf PC-Technik. Aber die Gesamtenergieaufnahme kennt seit einigen Jahren leider meist nur den steilen weg nach oben. Energie ist offensichtlich selbst in Deutschland noch zu billig, wenndie dicken Dinger wie RTX 4090/5090 so oft nachgefragt werden. Im Gesamten ist zwar der Private IT-Sektor in Bezug auf Energiebedarf sicherlich weit geringer als vieles andere. Aber würden auf den PC's Energielabels wie bei Kühlschrank und Co drauf stehen, wäre vielleicht das Konsumverhalten etwas anders...

Antwort Gefällt mir

Klicke zum Ausklappem
Ifalna

Urgestein

614 Kommentare 536 Likes

Nö, warum?
Ich mein früher hatten die Leute triple SLI Setups drin die mehr geschluckt haben.

Die wirklichen Hardcores untervolten / limitieren ihre Karte eh. Eine 5090 könnte man sogar easy mit 400W betreiben und verliert nur ca 12% Leistung. Mit sinnvoller UV / OC Konstellation vermutlich mit deutlich geringerer Performanceeinbuße.

Das Problem ist halt, das die "Factory defaults" heutzutage oft sehr suboptimal sind aber garantiert funktionieren und es dem user überlassen wird, ob der den Punkt maximaler Effizienz finden will.

Die sind auch gut, vor allem für produktives. Halt beim Gaming nicht die Besten aber das liegt eher am 3D cache von AMD der von vielen Games (nicht allen) bevorzugt wird. Ich hoffe das Intel da mal etwas nachliefert.

Absolut dafür das Konkurrenz da ist und sich keiner auf seinen Lorbeeren ausruhen kann.

Antwort 1 Like

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Deswegen wünschte ich mir ja gerade bei den Consumerkarten auch eine stärkere Wirkung bei den kleinen Schaltern zwischen OC und Silent-Mode. Warum im Silentmode für eine 4090 nicht die Werte einer RTX 6000 Ada als Setting? Wie Igor hier ja schon beschrieben hat, lässt diese sich aug gut zum Gaming verwenden..

Antwort Gefällt mir

matmartin

Mitglied

72 Kommentare 26 Likes

Eigentlich ließ sich seit Gelsingers Abgang erahnen, dass es so kommen musste. Man entlässt seinen CEO schließlich nicht, wenn die internen Projektionen für den neuen 18A Herstellungsprozess so rosig gewesen wären, wie man es nach außen kommuniziert hat.

Antwort 2 Likes

Y
Yumiko

Urgestein

1,044 Kommentare 477 Likes

Oder es hat einen "persönlicheren" Grund, wie bei seinem Vorgänger.

Antwort Gefällt mir

Ifalna

Urgestein

614 Kommentare 536 Likes

Hmm das wär natürlich eine user-freundliche Idee für Leute die keine Lust aufs Testen und finden des Optimums haben.
Aber ich glaube NVidia hat da auch nicht so Lust drauf, also klatscht man einfach Settings rein die garantiert funktionieren und das wars. :'D

Wobei ich glaube, das die meisten User das nicht sonderlich juckt. Vor allem in Ländern die nicht DE sind, in denen der Saft nur nen Bruchteil kostet.

Antwort Gefällt mir

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Ich mag Userfreundliche Sachen. Das die kleinen Schalter oft nicht mehr bewirken als die Lüfterkurve zuungunsten der Abführung thermischer Energie zu beeinflussen hat Igor ja schon öfters hier im Test gezeigt. Einen echten Switch, der zwischen dem Sweet Spot aus Energieaufnahme/Leistung und der maximal Stabilen OC-Leistung wechselt wäre mal was. Und am besten als Druckschalter am I/O-Shield. So ala Turboschalter der alten i386er PC

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung