CPU Editor's Desk Latest news System

Exclusive info about Intel’s Alder Lake-S – Will the Intel Core-1800 be a threat to AMD?

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Intel wants and needs to set with Alder Lake as 12th generation a big mark in the mainstream market for desktop CPUs this year, if they don’t want to lose the connection (also from their target group’s point of view). And it is not only a repainted and further upgraded 14 nm CPU, but in addition to the smaller structure width of 10 nm (according to Intel’s reading), it is finally also a completely new architecture with a completely different solution approach. Can certainly work out, but the outcome is a bit uncertain, at least for now, looking at AMD’s Warhol. Now, however, an engineering sample (ES) of an Intel Core-1800 has surfaced, which already tells me and thus us a bit more in so many respects.

But what are Intel’s plans? For the first time, the Big Little approach, which has already been used for many years in the ARM SoCs of mobile devices such as smartphones and tablets, is being used. The principle is actually as simple as it is efficient, because large and small processing cores cleverly divide the work between themselves, depending on the load. The less demanding tasks are outsourced to power-saving, small Atom cores, while the larger cores are then assigned the more computationally intensive tasks and are of course allowed to consume more power in return. This is all already known.

In the ES of the Core-1800 in the (not final) B0-stepping presented today, there are 8 large Golden Cove cores (Core) and 8 small Gracemont cores (Atom) on the die. While the big cores are also capable of hyperthreading, this is not the case with the Atom cores. In total, you’ll find 16 cores that can process a maximum of 24 threads. According to various leaks, Intel quantifies the performance leap compared to a conventional solution (unfortunately not specified) with up to 20 percent in pure single-thread scenarios and a doubling of the multi-thread performance in the ideal case, which seems quite optimistic when you consider a current 8-core of the 11th generation.

The processor, internally called Intel Core-1800, sits in the new Socket V (LGA 1700) and has a TDP of 125 watts. The screenshot below, which I modified slightly to protect the source, shows a time of 56 seconds for the PL1 and a peak time of 2.44 ms for the PL2 of a whopping 228 watts. That this up- and down-switching is well suited to aggravate the already nervous load change behavior of the current Intel CPUs even more doesn’t even have to be mentioned. This is where the voltage converters of the mainboards come into play.

The revision B0 of this ES is still quite early and the base clock is also still quite low with only 1800 MHz. More interesting are the Turbo Boost limits of the big cores, where 1-2 cores are already supposed to reach 4.6 GHz, with 3-4 cores it’s still 4.4 GHz, with 5-6 cores 4.2 GHz and with all 8 cores then 4 GHz. The small Atom cores clock with up to 3.4 GHz with <=4 used cores, otherwise only with 3 GHz. The image above also shows a voltage value that Intel locates at 1.3147 V. The rest is self-explanatory.

According to the initial information, the new desktop CPUs will support up to dual-channel DDR5-4800 memory and the DDR4-enabled motherboards will support modules up to 3200-MHz. Supposedly, only the high-end Z690 motherboards will offer DDR5 support, while all cheaper variants will still rely on DDR4. This would then give Intel and also the motherboard manufacturers much more flexibility and security when it comes to the still unclear DDR5 mass production.

Another big upgrade coming with Alder Lake-S is support for PCIe Gen5. The CPU will have 16 PCIe Gen5 capable lanes and in addition 4 lanes in PCIe Gen4 standard. The 600 chipset itself will then support Gen4 and even still Gen3. In addition, the Direct Media Interface (DMI) has been upgraded to Gen4. If there is any further information, I will of course not withhold it from you.

Kommentar

Lade neue Kommentare

A
Axelcio

Mitglied

15 Kommentare 6 Likes

Guten Morgen, vielen Dank für den interessanten Artikel.
Im Text direkt über dem Bild fehlt ein "j" bei: ...muss man a noch...
Wobei es so einen bayerischen Hauch hat, finde ich auch nett. Liebe Grüße aus dem Süden:-)

Antwort Gefällt mir

B
Besterino

Urgestein

6,730 Kommentare 3,326 Likes

Manno. Können die nicht mal ein paar PCIE-Lanes mehr mitgeben?

Schnellere Lanes sind ja nett, aber mehr Steckkarten als eine GPU sind trotzdem nicht drin.

Antwort 1 Like

j
just_f

Mitglied

50 Kommentare 15 Likes

228W - lol
Solange der relativ niedrige Energieverbrauch im Idle wieder zurückkommt...

Antwort Gefällt mir

Perdakles

Mitglied

43 Kommentare 20 Likes

Der Multiplikator bei 5-6 Kernen in dem Bild (42x) deutet doch eher auf 4.2 statt 4.3 GHz hin oder?

Müsste es in diesem Satz sowie in dem gesamten Abschnitt nicht PCIe statt PCI heißen?

Nun aber genug gemeckert. Ich liebe es hier morgens mit einem :coffee: den neuesten Gerüchten auf den Grund zu gehen. Danke Igor für diesen Einblick :)(y)

Antwort Gefällt mir

T
Tarkin77

Mitglied

18 Kommentare 6 Likes

Geht ein B0 Stepping nicht eher schon in Richtung QS/Retail?

RKL ist auch B0 (https://www.guru3d.com/articles-pages/intel-core-i9-11900k-processor-review,4.html)

Antwort 2 Likes

S
Stele77

Mitglied

10 Kommentare 2 Likes

Cool, Igor the leaker ist wieder am Werk!
Was mich aber noch 1000X mehr interessieren würde: Was zur Hölle ist jetzt bei AMD auf der Roadmap?
Zen 3+ auf 6NM, auf 7NM, gar kein Zen3+ und Zen4 erst ende 2022??
Da scheint sich ja keiner mehr auch nur halbwegs einig zu sein!
Ich denke, Ich bin nicht alleine mit der Frage.. :)

Antwort 2 Likes

B
Besterino

Urgestein

6,730 Kommentare 3,326 Likes

...ist aber hier eine Intel News... ;) Bin sicher, Igor bringt eine AMD News, sobald er AMD News hat. :D

EDIT & Nachtrag: wobei 16+8 ja schonmal eine Verbesserung sind. Da bekäme ich ja einen Port meiner Dual-100gbit-Netzwerkkarte mit ca. 60% ausgereizt (die NIC kann leider nur PCIe 3). :D

Antwort Gefällt mir

Zer0Strat

Veteran

162 Kommentare 138 Likes

Weiß man schon was über die Caches?

Antwort Gefällt mir

konkretor

Veteran

297 Kommentare 300 Likes

Ich finde den Ansatz sehr spannend. Mal sehen was die 10 nm Fertigung so reißen kann. Wenn jetzt alle Jammern wegen der hohen TDP. Das muss im endgültigen Produkt ja nicht so sein. Wir reden hier über eine ES CPU. Da gibt es oft mehr Freiheiten um diverses zu testen.

Ist Big-Little nicht ein geschützter Markenname von Arm?

Antwort Gefällt mir

Case39

Urgestein

2,502 Kommentare 928 Likes

Bin mal wegen den Lastwechselspitzen gespannt. Wird wohl eine sehr stressige Angelegenheit für die Spannungsversorgung des Boards und Netzteil.

Antwort Gefällt mir

Corro Dedd

Urgestein

1,813 Kommentare 673 Likes

Das wäre durchaus interessant, wenn man damit Windows und seine tausend Dienste auf die Atom Kerne verbannen könnte, damit mehr Power für die wirklich wichtigen Sachen zur Verfügung steht :D

Antwort 1 Like

O
Oberst

Veteran

337 Kommentare 131 Likes

Ich bin eher gespannt, wie "schnell" die neuen Atoms sind. Bisher konnten die mich nicht wirklich überzeugen. Daher vermute ich eher, dass Intel mit seinem 8+8 Kerner gegen AMDs 12 Kerner antreten wird. Ob man den wirklich erreicht/übertrifft, hängt da massiv von den Atom Kernen ab. Und ich frage mich, ob die Atoms tatsächlich effizienter als die Core Kerne sind, oder ob es Intel nicht in erster Linie um die eingesparte Fläche geht.

Antwort Gefällt mir

Martin Gut

Urgestein

7,776 Kommentare 3,572 Likes

Windows verwaltet die Prozesse normalerwiese so, dass sie nur laufen wenn es die aktuellen Anwendungen nicht stört. Die tausend Windowsprozesse brauchen während ein anderes Programm läuft weniger als 1 % Leistung, so dass man die ruhig vergessen kann. Wenn wirklich mal etwas mehr braucht, dann ist es ein Prozess, der vom laufenden Programm benötigt und angefordert wird. Beispielsweise ist es ein Windowsprozess, der Daten in die Auslagerungsdatei verschiebt, wenn der Platz knapp wird. Daran ist aber nicht Windows schuld sondern die Programme die den Speicher belegen. Eine hohe Hintergrundbelastung auf dem Prozessor ist eher auf installierte Tools und Programme zurück zu führen.

Antwort 2 Likes

E
Eddy Stoiber

Mitglied

24 Kommentare 11 Likes

Was mir immer noch nicht so richtig einleuchtet ist wofür die Gracemont Kerne überhaupt sein sollen 🤨?

  • Stromsparen?
    • Das kann es im Desktopsegment ja kaum sein (für Notebooks natürlich schon); da braucht man sich nur die Leistungsaufnahme aktueller Intel CPUs im Idle oder unter mittlerer Last, also abseits von AVX, Prime95 und Cinebench R15 anschauen.
  • Multicoreleistung erhöhen?
    • Das dürfte aufgrund des abgespeckten Gracemont-Befehlssatzes ja auch eher nur eingeschränkt zutreffen. Da hätten 16 Cove-Kerne natürlich viel mehr gebracht, wobei dann bei gleichen Taktraten das PL2 vermutlich auf 450 Watt hätte angehoben werden müssen 🤣
  • Gaming
    • Vielleicht handelt es sich hierbei tatsächlich um eine gute "Gaming-Architektur", wo in den Cove-Cores die Gaming-Threads laufen und der restliche Windows-Overhead in den Gracemont-Cores läuft. Aktuell sind 16 Threads für's Gaming ja oft optimal.
    • Dann müsste man allerdings sicherstellen, dass die Threads aber tatsächlich so intelligent verteilt werden, da heute ja meist die physischen Cores alle halbwegs gleichwertig sind und nur die "logischen" Kerne nennenswert schwächer sind...

Also, wie man es dreht und wendet, so richtig gut leuchtet dass hier sicherlich Niemandem ein, oder bin ich einfach zu ahnungslos?

Antwort Gefällt mir

Klicke zum Ausklappem
Corro Dedd

Urgestein

1,813 Kommentare 673 Likes

@Martin Gut
Danke für die Erklärung, aber ich glaube, du hast meinen leicht sarkastischen Unterton verpasst ;)

Antwort Gefällt mir

S
Stele77

Mitglied

10 Kommentare 2 Likes

;) Konnte nicht wiederstehen in der Hoffnung, das Igor mich erhört. ;) Zumal die Bewertung von Alder Lake ja auch entscheidend davon abhängen wird, ob und was AMD anbietet.
Ich bleibe eh skeptisch, ob Intel dieses Jahr Alder Lake überhaupt mit mehr als einem Q4 semi-paper launch anbietet. Befürchte es eher wie mit den letzten vergangenen launches: Q4 semi-paper launch, ein paar Anfangs verfügbar, und dann breite Verfügbarkeit Q1 22.
Aber ich lasse mich gerne eines besseren belehren. Um AMDs Preise zu drücken, für mein homelab (einen neuen ZFS-storage-server und als Proxmox-box) bin ich selber mehr als interessiert an einem zeitnahen launch. Auf Linux sollte der scheduler auch nicht das Problem sein mit BigLittle.
Und meine neue OpnSense box wartet mit ihrem AM4 board schon sehnsüchtig auf einen günstigen Ryzen 3/5 der bezahlbar ist.
Mal schauen!

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

Wenn die bisherigen Leaks korrekt sind, sind an der CPU 16x5.0 und 4x4.0, d. h. man kann noch problemlos eine NVMe anschließen (wie bei RKL). Für den Massenmarkt ausreichend und genau darauf zielen diese Produkte ab.
Darüber hinaus, mit PCIe 4.0 am Chipsatz und dem verbreiterten DMI kann man bspw. NVMe's auch problemlos dort anschließen.
Aktuell weiß man nichts genaues. Leaks aus 2020 zufolge soll Zen4 jedoch von einer Art Zen3+-APUs begleitet werden, d. h. einen Refrehs oder gar direkt etwas wie einen Zen3+-Core wird es allem Anschein nach durchaus geben (zumal den AMD auch brauchen wird mit Blick auf ADL, sofern Zen4 nicht gleich Anfang 2022 erscheinen wird).
Wann die Zen4-Ryzen's in 2022 kommen, weiß man aktuell nicht. Aktuell sieht es dem allgemeinen Vernehmen nach lediglich danach aus, dass Genoa, also der neue Epyc, erst im 2HJ22 erscheinen wird (d. h. auch Sapphire Rapids SP wird hier einen Vorsprung haben, bis dann AMD reagiert).
Auch bleibt die Frage im Raum stehen, ob AMD mit einem möglichem Refresh in diesem Jahr (zumindest ein teilweises?) Plattformupgrade vornimmt. Käme Zen4 erst sehr spät und keinerlei Update, dann wäre Intel einige Zeit lang mit konkurrenzfägigen CPUs und der deutlich moderneren Plattform unterwegs; man darf gespannt sein.
Denke nicht, würde aber min. vom Willow Cove-Layout ausgehen. Eine weitere Vergrößerung erscheint nicht unbedingt zwingend und ob man am L3 noch mal bzgl. der Größe schrauben wird, ist für Consumer-Produkte auch nicht unbedingt zwingend. Zen2/3 hat seinen großen L3 ja hauptsächlich auch nur wegen der gemeinsamen Fertigung, weil der Cache für den Epyc gebraucht wird. Könnte AMD sich separate Entwicklungs/Fertigungslinien leisten, würde man die Consuumer-CPUs wohl auch auf 16 MiB zusammenstauchen.
Denkbar, aber irrelevant. Intel nennt es "Hybrid Technology", Schreibweise übrigens "big.LITTLE".
Ergänzend: Letzten Gerüchten zufolge soll auch AMD mit Zen5 auf den Zug aufspringen, also irgendwan 2023/24.
"Stromsparen, Desktop, kann es nicht sein" ... denke mal an die Abermillionen Office/Büro-PCs. Nicht nur das die selten im maximalen Lastzustand unterwegs sind, hier ist es gar genau anders herum. Und wenn ich programmiere, langweilt sich mein System auch den Groißteil der Zeit über, auch wenn da im HG noch ein, zwei VMs laufen habe und diverses andere. Selbst die Kontext/Autovervollständigung der IDE ist da kein Grund für voll ausgelastete große Kerne.
"Multicore, abgespeckter Gracemont-Befehlssatz" ... ist übrigens falsch. In ADL haben die Core- und Atom-Kerne beide den gleichen Support nach bisherigem Kenntnisstand (Unterschiede sind weitestgehend nur für System-Entwickler relevant). Beide Kerntypen unterstützen bis zu AVX2/256bit inkl. dem neuen AVX-VNNI für AI-Workloads bzw. Intels Fortsetzung ihres "DL Boost" ohne AVX-512. Der Punkt ist hierbei, dass die Gracemont-Kerne offensichtlich auch zur Multicore-Leistung beitragen können, d. h. ein ADL 8+8 wird auf jeden Fall gesichert deutlich über einem einfachen 8-Kerner rangieren und eher auf dem Niveau von AMDs 12-Kernern liegen (odrer gar schon leicht darüber).
"Gaming" ... es spricht auch nichts dagegen, dass eine Game-Engine auch zusätzlich Gracemont-Kerne einbindet (abgesehen davon, dass man OS-Prozesse dort parken und die großen Kerne damit freihalten kann). Wie relevant das in nächster Zeit ist, bleibt jedoch abzuwarten, da Game-Engines nicht so massiv parallel ausgelegt sind, weil Parallelität in diesem Kontext schwierig ist. (Zudem bremst hier der Mainstream und selbst die neuesten Konsolen wirken als Bremsklötze mit Blick auf 12- und 16-Kern-CPUs, da hier bestenfalls langsame acht Zen2-Kerne mit 3,6/3,8 GHz geboten werden (und bei der PS5 gar noch im Bereich der FPU beschnitten).)
Erwähnenswert aber in dem Kontext, dass Intel bspw. eine Kooperation mit IO Interactive (Hitman 3) erklärte bzgl. der Entwicklung von besserem Multithreading. Dabei geht es einerseits sicherlich um eine Werbemaßnahme, andererseits aber voraussichtlich auch darum einige Learnings mitzunehmen und in diesem Punkt näher an der Industrie und einer realen Game-Engine zu sein.
Man wird sehen, wie sich das weiterentwickelt.

Antwort 1 Like

Klicke zum Ausklappem
B
Besterino

Urgestein

6,730 Kommentare 3,326 Likes

Wohl und Wehe des big/little (oder 8+8 oder wie auch immer bezeichneten) Konzepts dürfte m.E. in erster Linie vom OS abhängen. Von mir aus mag das OS Schnittstellen bereitstellen, wonach Anwendungen signalisieren können "ich will gerne auf 1+n großen Kernen laufen", aber nur das OS kennt die Gesamtlast auf dem System und ist am Ende dafür verantwortlich, die Last insgesamt optimal zu verteilen.

Den Hauptvorteil beim Gaming sehe ich tatsächlich nur dort, wo bisher nicht genug Kerne vorhanden waren, um den Game-Engines "genug möglichst von anderen Aufgaben unbehelligten CPU-Bumms" zur Verfügung zu stellen. Das dürfte aber schon bei den heutigen 8-Kernern wohl eher selten der Fall sein. Bei einem 16 Kerner halte ich das aus Gaming-Sicht bereits für ausgeschlossen (natürlich nur, wenn man nicht gerade nebenher ein Video rendert o.ä. - daher "aus Gaming Sicht): Games wollen immer noch primär IPC und TAKT - für irgendwas zwischen 4-8 Kernen bzw. Threads. Ja, Ausnahmen bestätigen die Regel, sind aber immer noch genau das: Ausnahmen bzw. Einzelfälle.

Vielleicht führt ein solches Konzept als Nebeneffekt dazu, dass das mit dem Verteilen der Aufgaben etwas besser funktioniert / einfacher wird als bisher und dadurch ggf. Overhead z.B. beim Scheduler sinkt. Beispiel: Thread XYZ / Anwendung / OS läuft immer auf den kleinen Kernen und wird auch nur dort zwischen Kernen hin-und-her geschoben (bzw. bekommt mehr von denen etc.). Thread 123 läuft dagegen immer entsprechend auf einem großen Kern. Je nachdem kann man evtl. auch noch positive thermische Effekte mitnehmen, weil sich durch die logische Trennung vielleicht auch räumlich bestimmte Teile kühler halten lassen (länger/höher boosten usw.).

Einen Performance-Schub im bisherigen Perforrmance-Bottleneck erwarte ich also durch das neue Design allein eher nicht. Sowas kann nur von unter'm Strich mehr Takt, mehr Kernen, mehr IPC kommen. Aber ich nehme natürlich trotzdem gerne einen geringeren Stromverbrauch bzw. mehr "Schwuppdizität" (Zitat Igor) zum gleichen Preis mit. :D Der Rest hängt vom Einsatzgebiet / spezifischen Bottleneck ab und da ich primär mit dem PC spiele, wäre mir ein 8+8 bei dem vor allem die 8 großen Kerne mit 6GHz takten lieber, als ein echter 16, 24, 48, 64, 128 oderwasweissich Kerner mit max. 4,5, 4,8, 5, oder 5,3 GHz (...natürlich gleiche IPC unterstellt...).

Spannend würde es vielleicht nochmal, wenn die kleinen Kerne irgendwas wirklich schneller (nicht effizienter!) könnten, als heutige bzw. die zukünftigen großen Kerne, so im Stile eines spezialisierten "co-Prozessors". Mir fehlt aber irgendwie die Fantasie, was das sein sollte - gerade bei Intel ist ja auch gerne noch eine iGPU an Board, die im Prinzip eben genau sowas für Video-Gedöns ist. Und für Sound/Kompression & Co. lohnt sich das vermutlich nicht. Bleibt vielleicht noch AI - aber Moment, das ist ja auch regelmäßig in der GPU verortet...

Und nochmal zum Thema Lanes: Eine CPU kann heute eine GPU und eine NVMe direkt befeuern. Toll. Wer das noch für zeitgemäß hält, dem ist m.E. nicht zu helfen. Das ist m.E. inzwischen unterer Mainstream beim Custom-Build (nicht billo-Discounter-FertigPC-Budget). Ja, der Chipsatz bringt auch noch Lanes mit, aber das ist m.E. eine Krücke (ähnlich wie ein USB-Hub), die nicht sein muss und wenn's doof läuft nur einen Bottleneck an anderer Stelle (DMI) offenbart.

Natürlich geht es nicht darum und kann nicht Maßstab sein, eine 100, 200, 400Gbit Netzwerkkarte im HeimPC befeuern zu können. Aber wer mehr will als nur eine GPU und eine schnelle NVME, muss bereits Kompromisse eingehen. Und das ist - meiner bescheidenen Meinung nach - einfach albern.

Antwort Gefällt mir

Klicke zum Ausklappem
V
VelleX

Mitglied

17 Kommentare 2 Likes

Das stimmt 100 pro eh nicht.
Das sind ja die Angaben von AIDA64, und die stimmen auch jetzt schon bei den 10th und 11th Gen nicht. Kann ja hier jeder mal prüfen der einen hat (ich leider nicht)

@Zer0Strat

Laut Geekbench bei den ES

L1 Instruction Cache 32.0 KB x 12
L1 Data Cache 48.0 KB x 12
L2 Cache 1.25 MB x 3
L3 Cache 30.0 MB x 1

Aber muss natürlich nix heißen

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung