CPU Latest news

Griffin Cove and the farewell to the monolith: Intel is now trying common sense

While others are still trying to conceal the lack of real innovation with AI logos and colorful bars, Intel is apparently currently relying on an old-fashioned virtue: learning from mistakes. This is new. Ori Lempel, Senior Principal Engineer in the Core Design team at Intel, has confirmed to KitGuru that they are now well beyond Cougar Cove and are working on something that is – get this – three generations ahead. Griffin Cove is the codename, and it certainly doesn’t come from a marketing department.

Of panthers, lions and other predators

As usual, the naming follows the zoo principle. After Lion Cove comes Cougar Cove, which is to make its debut in Panther Lake. What then follows – at least according to logic – is Griffin Cove, presumably as part of Razer Lake. This would also be the birth of another buzzword that can be backed up with bold letters and even bolder promises in films. But beyond the zoological playground, there is actually something substantial to report. Because: Intel has apparently understood that by consistently using its own production, i.e. IFS (Intel Foundry Services), it has tripped itself up. The admission may come late, but at least it is public. According to Lempel, the core design team is now “99% process node agnostic”. In other words: They now also take a look at what their neighbor can do. And if it works better, you just take that.

Agnostic instead of dogmatic: the reality check at Intel

What sounds like technical sophistication is actually a return to common engineering sense. Why commit to a process node that may sound good in theory, but in practice offers neither yield nor clock rates? Right, it makes no sense. This is precisely what Intel has now apparently recognized. And so future designs such as Griffin Cove will no longer be optimized exclusively for a single production node, but will remain flexible. Sometimes TSMC, sometimes IFS, depending on who is currently delivering – or at least not failing. In concrete terms, this means that CPU designs are simulated and synthesized on several nodes at the same time. Then they look to see where there is the least amount of noise – in terms of performance, efficiency or simply the schedule. The decisive factor is no longer whether it is the in-house node, but whether it works at all. This is new at Intel and could – if they are serious about it – actually make a difference.

Cougar Cove is through – now comes the future

According to Lempel, Cougar Cove is already finished and will be used in Panther Lake – planned for the second half of 2025. So anyone toying with a desktop upgrade should be patient. What will follow is the ominous Griffin Cove, which is far enough away to leave plenty of room for optimization (or excuses). There is one interesting rumor that is better handled with gloves at the moment: Razer Lake – presumably with Griffin Cove – could do away with e-cores completely. In other words, a purebred P-core architecture. Sounds reasonable, especially in view of the fact that many applications would prefer a fast core instead of many small would-be computing units anyway. But as I said: as long as nothing is official, it’s just coffee grounds.

Less faith, more physics

If Intel has finally understood that progress cannot be forced through marketing and in-house production alone, then this is not a technological leap, but a step towards reality. The process-node-agnostic approach is – soberly considered – not an innovation, but an overdue reaction to years of overconfidence. It remains to be seen whether Griffin Cove will really be the big hit or just another code name on the road to the unknown. But the approach of no longer forcing designs onto its own nodes at all costs is at least a realistic one. Intel is to be congratulated: not on a milestone, but on the realization that physics, yield and clock speed are non-negotiable – no matter how many times you try. Until then, everything will remain as it is: AMD continues to push, Apple calculates consistently, and Intel hopes that the future really will be better this time. They are already working on it. Allegedly.

Source: Youtube

Kommentar

Lade neue Kommentare

RX480

Urgestein

2,093 Kommentare 1,013 Likes

???
Das die e-cores ganz wegfallen sollen finde ich nicht ideal.
Das Hintergrundrauschen könnte man ruhig weiterhin mit 4x e-cores abrubeln.

für Gaming-Midrange 8p+4e, .... wäre sicherlich net schlechter als der 235 6p+8e derzeit

die 8p-cores ohne SMT, ... mehr Takt rules
und bitte wieder bessere Latenzen

das man zukünftig 8p braucht scheint durch RT in manchen Games das Minimum zu sein

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,472 Kommentare 1,614 Likes

Diese Umorientierung würde auch im Zusammenhang mit dem neuen Intel CEO Sinn machen. Lip Bu-Tan war ja vorher viele Jahre CEO von Cadence, und die Firma ist mit führend in VLSI Design Software. Wenn man Chips zunächst unabhängig von dem am Ende genutzten Knoten zu entwickeln will, geht ohne solche Lösungen gar nichts.

Antwort Gefällt mir

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Ich liebe Kaffee . Und in dem Fall sogar Kaffeesatz aus P-Cores...

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,039 Kommentare 476 Likes

Leider kann das System nicht verlässlich kontrollieren was auf welchem Core läuft. Immer wieder gelangen bei Spielen der Haupt-Thread oder ein Rendering-Thread auf einen e-Core. Ebenso auch bei Single-Thread lastigen Apps.

Antwort 2 Likes

RX480

Urgestein

2,093 Kommentare 1,013 Likes

klingt nicht gut

Könnte Intel nicht die Threadzuweisung für AAA-Games whitelisten?
unter W11 gibts doch schon spezielles Zeugs für einige Games von Intel

bei unsicheren Kandidaten dann irgendwie die e-cores gar nicht nutzen
auch wenns den Verbrauch hochtreibt

Antwort Gefällt mir

R
Rantanplan

Mitglied

44 Kommentare 41 Likes

Nur P-Cores - vielleicht wird ja auch weiter verbessert, wie die starken Kerne mit niedrigerem Verbrauch genutzt werden können? Und so eine Aufteilung dann nicht mehr lohnt?
Ähnlich dem dicken 8-Zylinder mit Zylinderabschaltung, so dass er meist nur mit 4 Zylindern rumzuckelt. Also eine E-Core Funktion im P-Core berücksichtigen?
"Geringer Idle-Verbrauch" wird sicher sukzessive mit jeder neuen Version mehr Stellenwert erhalten haben, nach all' den Jahren, in welchen hauptsächlich das Volllastergebnis ein Verkaufsargument war. So wollten wir es mehrheitlich ja auch lange Zeit.

Antwort Gefällt mir

RX480

Urgestein

2,093 Kommentare 1,013 Likes

praktisch laufen in Games maximal 4 Threads mit vollem Takt, weitere 4 Threads reichen mit 80%
insofern war die Idee mit e-cores@2/3 Takt gar nicht so verkehrt

die e-cores auf ne getrennte GCD setzen, damit die nicht ausversehen genommen wird (x)
kann dann auch ein anderer preiswerter Fertigungsprocess sein

(x) wenns AMD beim 9950x3D hinbekommt, sollte doch auch Intel in der Lage sein
Games auf der Main-GCD laufen zu lassen

Antwort Gefällt mir

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Es steht und fällt mit dem MS Scheduler und seine Sicht auf die Hardware. E-Cores für kleine, sparsame NAS bis hin zu Miniservern find ich gut. Ein ATOM C3578 ist/war für seinen Zielgruppenbereich und dem Strombedarf top. Ich hatte mal so einen auf einem Supermicro ITX-Board. Und hab es nahezu ohne Wertverlust verkauft, weil diese SoC-Boards preislich völlig daneben sind aktuell. Aber in einem PC mit den Task-Scheduling-Problemen möchte ich lieber wenige, dafür bei Bedarf hochtaktende vollwertige Kerne. Fürs Gaming reichen doch normal 8-12, für andere Sachen meinetwegen 16-32 Kerne, wenn es die Software hergibt. Für alles andere sind wir beim Server und/oder Workstation-Bereich.

Aber diese BIGLittle-Technik aus der Linux/Android-Sparte bringt IMHO unter Windows nix, solange der Scheduler Hardware und Software nicht besser managen kann. Oder auf welchem Tile der 3D-Cache ist.

Ich wäre eher aufgeschlossen einer Idee, die in zukünftigen Architekturen einen oder zwei Sparsame Kerne oder Co-Prozessoren als fix reservierten Bereich fürs OS vorhält, welche die Apps gar nicht erst sehen. Ähnlich der integrierten eigenen Schaltungen für die Encodierung von H264/265 in den Core i ...

Antwort 1 Like

Y
Yumiko

Urgestein

1,039 Kommentare 476 Likes

Ja, es gibt bei Intel entsprechende Features - da geht es aber eigentlich nur um Benchmarks. Generell kann eine Applikationen sich aber "leistungsstarke" Kerne wünschen.
Bringt aber nichts, wenn die P-Cores schon recht voll sind - denn inzwischen wünschen sich viele Apps/Tools diese - sie wollen ja nicht als lahm oder ruckelnd bewertet werden.
Manuell per Registry oder Process Lasso (kostenpflichtig) kann man das natürlich mit entsprechendem Aufwand managen.
Benchmarks werden auf entsprechend Konfigurierten und "leeren" PCs durchgeführt, da tritt das kaum auf, wenn überhaupt.
CIG hat mit Intel geredet (Star Citizen ist extrem CPU lastig), aber kritische Threads auf e-Cores kommt dort leider auch noch vor.
Im häufigen Ernstfall hilft nur die e-Cores im Bios auszuschalten - dann braucht man die aber auch nicht einbauen hat sich Intel wohl gedacht 😁

Antwort 1 Like

P
Pheenox

Veteran

116 Kommentare 72 Likes

Was würde ich mir wünschen, dass Intel endlich wieder in die Spur findet und nicht so einen, sorry, Schrott abliefert wie die letzten Generationen. Ich bin seit jeher eigentlich Intel-Kind gewesen, aber das war irgendwann nicht mehr trag- und vertretbar viel mehr Geld für weniger Leistung und deutlich mehr Stromverbrauch zu bezahlen.
Hoffentlich lesen wir bald mal wieder: AMD muss sich strecken um die Krone zurück zu erobern.
Oder
Intel schlägt AMD und NVIDIA ein Schnippchen in der gehobenen GPU Mittel- und Oberklasse.
Das wäre schön. 😅

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,472 Kommentare 1,614 Likes

Zumindest bei Arrow Lake ist das mit der Kombination - neueste Versionen von Firmware+Windows und Treiber Updates hat sich da scheinbar einiges getan. Zumindest sind die E-Core Cluster nicht mehr so "klebrig" wenn's um das Zuweisen von Threads geht, welches ja davor die Leistung in Spielen oft deutlich schlechter als die der Raptor Lakes machte.

Antwort Gefällt mir

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Wofür sind die E-Cores gedacht. Fürs Grundrauschen vom OS im IDLE. Warum braucht es dann 8-16 E-Cores in Arrow Lake
Apple hat das beim M4 erkannt und die E-Cores auf 4 reduziert, dafür mehr P-Cores implementiert. Auch beim Snapdragon X Elite sind es nur 4 E-Kerne. Wenn schon der Ansatz mit kleinen Kernen, dann doch OS-Exklusiv und die P-Cores für die Applikationen.

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,039 Kommentare 476 Likes

Naja, AMD hat gerade den 2nm Deal mit TSMC unterschrieben. Vielleicht wenn Intel auch mal eine Ingenieurin an der Spitze hat, statt Zahlen- oder Penisschieber, wird wieder Fokus auf die Technik gelegt. Momentan wird in den Medien abgefeiert, das Intel in 3 ( ! ) Generationen sich offen hält möglicherweise auch woanders zu produzieren - wow :rolleyes:

Antwort 1 Like

R
Rooter

Veteran

229 Kommentare 81 Likes

Ein paar Korrekturen muss ich hier mal anbringen.

Nach Cougar Cove folgt Coyote/Panther Cove, der in Nova Lake-S auch für den Desktop kommt.

Razer Lake ist ein Chip mit P+E Kernen. Die E-Kerne nennen sich Golden Eagle. Richtig interessant wird es nach Razer Lake.

Griffin Cove ist nach aktueller Planung der letzte Cove von der Core Architektur aus Israel. Danach übernimmt Intels Austin Team, die derzeit die E-Kerne mit großen Fortschritten designen. Das Austin Team arbeitet unter Leitung von Stephen Robinson an einem unified Kern auf Atom (E-core) Basis, der ab Titan Lake zum Einsatz kommen soll (wenn alles planmäßig verläuft).

Antwort Gefällt mir

R
RazielNoir

Urgestein

618 Kommentare 292 Likes

Unified Kern klingt allerdings sehr nach einer Abkehr von P+E….

Dann wirds wieder spannend

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung