Enterprise Solutions News Professional Prozessor Redaktion Server Workstation

4th Gen Intel Xeon and Max Series – Sapphire Rapids materialisiert und skaliert sich

Was lange währt, wird gut? Zumindest materialisiert sich Sapphire Rapids (SPR) nun endlich und man wirbt bei Intel, trotz fast zweijähriger Anlaufzeit, mit eine Reihe neuer Features, die AMDs Ansatz bei Genoa ziemlich konträr gegenüberstehen. Allein über nur die Anzahl der Kerne und die tatsächliche „Rohleistung“ wird Sapphire Rapids mit so viel Anlauf kaum Land sehen, aber wir wollen auch mal emotionslos schauen, wo welcher Hersteller seine Vorteile sieht. In diesem Fall ist das heute mal Intel und es gibt durchaus auch Dinge, wo man sich im blauen Lager ganz vorn sieht und neue Chancen entdeckt.

Ich schrieb ja letztes Jahr bereits über eine möglicherweise sehr geringe Ausbeute, extrem viele Steppings und ein sehr weit auseinander gezogenes Release-Fenster, welches zunächst die High-End-Varianten (XCC-Modelle) vorsieht, während die HBM-Versionen und vor allem die sehr wichtigen MCC-Chips als Mainstream-Lösungen noch hinten anstehen, obwohl sich gerade hier ja der hohe Markanteil Intels begründet. Denn wir dürfen bei aller Launch-Euphorie ja auch nicht vergessen, dass SPR bereist für 2021 avisiert war und Granite Rapids, also der ehemalige Nachfolger bereits für 2022. Und nun haben wir 2023 und es ist endlich so weit.

Das variable Chiplet-Design

Sapphire Rapids wird auf einem Chiplet-Design mit vier 15-Core-Dies/Tiles basieren, die über Intels modernes EMIB-Interconnect verbunden sind. Man kolportierte bereits 2019 eine Gesamtkernzahl von bis zu 60 Kernen, was zwar eine Premiere für die Serverangebote Intels ist, jedoch auch einen bemerkenswerten Schritt nach vorn darstellt, wenn man es mit Ice Lake-SP vergleicht. Sapphire Rapids ist damit zwar eines der innovativsten Serverdesigns von Intel, aber die sich wiederholenden Verzögerungen haben der CPU durchaus schon geschadet. Sapphire Rapids sollte ja ursprünglich gegen AMDs Epyc Milan Prozessoren antreten, aber aufgrund der Verspätung muss man nun gegen die neuere AMD Genoa-Reihe antreten, was den Wettbewerb sicher nicht einfacher macht.

Dank des MCM-Designs wird Sapphire Rapids endlich wieder größere Margen und höhere ASPs aufweisen, was für Intel und seine Partner in der Lieferkette nominell natürlich auch endlich wieder höhere Gewinne bedeutet. AMDs Epyc Genoa-Prozessoren der 4. Generation bieten mittlerweile sowohl im Single- als auch im Multi-Thread-Betrieb Spitzenleistungen, so dass Intel für direkte, competitive Benchmarks eigentlich nur die teurere HBM-Variante bleibt, die sich ihrerseits aber dann mit Genoa-X, der 3D-V-Cache-Variante von Genoa, messen muss. Auch nicht einfach.

Source: Intel

Außerdem ist da ja auch noch ARM, denn die schiere Masse an guten ARM-Designs auf dem Servermarkt ist ein weiterer Grund zur Besorgnis für Intel, da diese Chip-Hersteller oft zu viel niedrigeren Preisen und mit viel höherer Rechendichte verkaufen. Denn Emerald Rapids als Nachfolger war eigentlich für 2023 avisiert und könnte ein ähnliches Schicksal teilen, wenn nichts so perfekt läuft, wie es laufen sollte. Aber da sollte man die Hoffnung nicht aufgeben oder Intel vorschnell abschreiben.

Skalierung als wichtigstes Instrument

Die Leistung pro Kern ist da natürlich so eine Sache, die Skalierbarkeit eine andere. Bei beidem sieht man sich gegenüber AMD aktuell im Vorsprung und man setzt zudem auf ein doch sehr breites breites Einsatzgebiet, welches die vielen Modelle abdecken sollen. Egal, ob mit oder ohne HBM. Und so wird Intel auch nicht verlegen, wenn man das Ganze dann mit „most built-in accelerators in the market“ bewirbt. Es sei Ihnen ja gegönnt. Man muss jedoch Intel in diesem Punkt zugutehalten, dass das Portfolio geradezu von den unterschiedlichsten Modellen überquillt. Doch dazu gleich mehr.

Xeon Slides

 

Intel sieht sich mehr denn je als Vorreiter eines angepassten und maßgeschneiderten – also fein skalierten – Portfolios, was die tatsächlichen Ansprüche eines Unternehmens erfüllen soll und dabei ökonomisch noch sinnvoll bleibt. So viel zur Theorie von den am schnellsten wachsenden Arbeitslasten in den Bereichen künstliche Intelligenz (KI), Datenanalyse, Netzwerke, Speicher und High-Performance-Computing (HPC). Intel wirbt hier ebenfalls mit seinen vielen integrierten Beschleunigern und einer Zero-Trust-Sicherheitsstrategie.

Man soll leichter und sicherer über mehrere Clouds und Edge-Umgebungen skalieren können und trotzdem flexibel bei der Cloud-Auswahl bleiben und eine reibungslose Anwendungsportabilität geboten bekommen. Die integrierte Beschleunigung ist aus der Sicht Intels also eine alternative, effizientere Methode, um eine höhere Leistung zu erzielen als die reine Erhöhung der CPU-Kernzahl, so wie sie AMD gerade mit Genoa zeigt. Und dann wirbt man in diesem Zusammenhang auch mit mehr Nachhaltigkeit. Intel wirbt zudem auch mit der sehr effizienten Verbindung von CPU Max und GPU Max.

Wie sich das Ganze dann in den Bereichen KI, HPC, Datenanalyse, Netzwerk und Speicher, Verschlüselung und Sicherheit im Detail darstellt, kann man in Intels Folie auch gern noch einmal nachlesen:

01 4th-gen-xeon-scalable-processors-brief

 

Kommentar

Lade neue Kommentare

Epistolarius

Mitglied

33 Kommentare 5 Likes

Wohl eher "Intel seit Jahren abgehängt", was die reine Performance im Server-Bereich angeht.

Erste Tests fallen ja ganz gut aus, auch wenn es nicht nach Dominanz auf ganzer Breite aussieht.

Antwort Gefällt mir

Alkbert

Urgestein

931 Kommentare 707 Likes

Nachdem ich mit meinen alten HEDT Systemen super zufrieden bin und sowohl von der Stabilität als auch von der Leistung her diese sofort jedem AMD Desktop System unterhalb der Threadripper Maschinen vorziehe, warte ich natürlich schon darauf, dass sich hier auch im Desktop und Workstation Bereich was Brauchbares mit einer vernünftigen Anzahl von PCIe Lanes materialisiert, was kein derartiges Loch ins Budget reißt wie ein sTRX (+aufwärts) System. Ich hoffe Intel denkt da auch ein bischen an die x299 User.

Antwort Gefällt mir

g
gedi

Mitglied

33 Kommentare 5 Likes

Sorry Igor, aber so langsam reichts. Klar, dass du dich und deine Family durchdringen willst. Aber: Warum kein Sterbenswörtchen aufgrund der gelöschten Reddit-Posts? Warum keine Antwort darüber, dass es sehr viel mehr als die 50 Karten sind, wo die User zu dumm waren, einen Stecker korrekt einzustecken? Es ist doch vielmehr so, der Grund warum die 4090 ausverkauft war, exakt diesem Problem zur Grunde ging! Sorry, aber dass was du betreibst ist gekaufter Journalismus!

Antwort Gefällt mir

Oryzen

Veteran

306 Kommentare 181 Likes
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Hoffentlich. Korrekturlesen wär n Plan vor dem 2. Versuch. Das schreib ich - aufpassen, kleiner Hinweis! - nicht ohne Grund.

Antwort Gefällt mir

p
passivecool

Mitglied

54 Kommentare 29 Likes

sorry gedi, aber was du treibst ist zu dumm, um in richtigen Faden zu erscheinen. Vielleicht sterbenswörtchenest Du dich ganz Troll zum richtigen Thema, wenn auch Du deine Family durchdringen musst?

Antwort 1 Like

Alkbert

Urgestein

931 Kommentare 707 Likes

Man lässt ja gerne jedem seine Meinung, schlicht weil es so enorm befreit und entlastet, aber dass es hier um Sapphire Rapids von INTEL geht hast Du schon gemerkt, oder ?

Antwort 2 Likes

B
Besterino

Urgestein

6,727 Kommentare 3,321 Likes

Danke Igor für das Update. Links zu etwaigen ersten Benchmarks der neuen Xeons (auch von Dritten) fänd ich hilfreich.

Ansonsten bin ich bei @Alkbert - mehr Lanes im Consumer-Regal (oder von mir aus HEDT, gibts ja bei Intel gar nicht mehr) bitte!

Antwort 1 Like

R
RazielNoir

Veteran

335 Kommentare 111 Likes

Mal sehen wenn die ersten fertigen Produkte (Server, MB usw.) am Markt sind. Besonders im Mainstream-Segment. Und dann ist mal ein Vergleich interessant.

Antwort Gefällt mir

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

Sorry,du da!
Igor gekauften Journalismus vorzuwerfen,finde ich unterste Schublade!!!!
Vielleicht solltest du erst überlegen,bevor du schreibst oder einfach das Forum wechseln?

Dazu bist du OT; im falschem Thread

Antwort Gefällt mir

R
RazielNoir

Veteran

335 Kommentare 111 Likes

Und volle Lanesbestückung auf den Mainboards zum entsprechenden Slot. Mechanisch x16, elektrisch x4? Danke für nix, MB-Hersteller!

Antwort 1 Like

B
Besterino

Urgestein

6,727 Kommentare 3,321 Likes

@RazielNoir Naja, das ist schon nicht ganz verkehrt. x16-Karten funktionieren ja auch mit nur 4 Lanes - blöd ist halt, wenn die dann noch nicht einmal physisch passen. Alternativ gibt's ja auch die hinten offenen PCIE x4/x8 Slots, die sieht man aber eher auf echten Server- oder Workstation-Mainboards.

Antwort Gefällt mir

R
RazielNoir

Veteran

335 Kommentare 111 Likes

Das es geht, ist ja im PCIe-Standard so festgelegt. Aber ehrlicher wäre es, wenn man einen PCIe-Slot elektrisch nur mit x1/x4 anbindet, diesen auch nur so auszuführen. Meinetwegen mit nach hinten offenem Slot. Und Lanesharing mit SATA ist auch eine Unsitte.
am Beispiel meines MB:

Physisch 2mal PCIe x16, 1mal x1
Elektrisch: 1mal PCIe x16, 1mal x1, 1mal x4 (unter Verlust von SATA5&6)

Aber auf der Produktseite wird zwar auf den x4 Modus des zweiten Slot hingewiesen, aber kein Wort vom Verlust des letzten SATA-Paares. Das steht erst im Handbuch. Genauso das unsägliche SATA-Sharing zwischen M.2-Steckplatz 2 und den nominalen SATA-Ports.

Und das bei einem MB der gehobeneren Ausstattung und dem Top-Chipsatz von Intel für diese Generation!

Das Traurige ist dabei: bei fast Namensgleichheit hat die i9 10900er Reihe auf Sockel 1200 nur 16 Lanes von der CPU, der ältere 10900x aber 48(!) auf Sockel 2066. Und ich hab damals noch überlegt. Bei Mindfactory gab es beide CPU zum fast gleichen Preis. Aber die teurere (ältere) Plattform war der Abschrecker. Die TDP von 165w sowieso.

Der Rest wird auf dem Z490G vom Chipsatz realisiert. Wie gesagt vom "TOP"-Chipsatz der Baureihe. 🧐

Der Ryzen 9 3900x hat schonmal von Haus aus 4 mehr Lanes von der CPU, da ist der Chipsatz noch nicht mal im Spiel.

Effektiv ist alles an MB mit mehr als einem physischen x16 Slot eine gewisse Kundenverarschung! SLI und CrossFire mögen Tot sein, aber es gibt einige PCIe-Karten (z. Bsp. Qnap QM2-Reihe) mit x8 oder x16, die dann nur mit halber bzw. viertel Bandbreite laufen.

Vor allem wenn man z.Bsp. ein MB aus dem Serverbereich kennt (A2SDi-8C-HLN4F), die einen M.2 3.0x2 Slot, einen PCIe 3.0x4 Slot und ganze 12x SATA bieten. Ohne Lane-Sharing. Das was auf dem MB physisch zu sehen ist, wird auch geboten. Mit einem ATOM C3758, der auch nur 16 PCIe-Lanes bietet. Aber das MB ist im Layout halt ehrlicher.

Antwort 1 Like

Klicke zum Ausklappem
B
Besterino

Urgestein

6,727 Kommentare 3,321 Likes

I know... Ich hab hier diverse x16-Karten, weswegen ich leider für den Desktop zu einem Threadripper (den kleinsten, selbst die Kerne brauch ich gar nicht) greifen musste und im Homeserver zu Epyc.

AMD hat mich aber auch verarscht: dass für TRX40 bei den 3000ern Schluss war, nehme ich langfristig übel.

Antwort Gefällt mir

R
RazielNoir

Veteran

335 Kommentare 111 Likes

Du hast aber einen beachtlichen Hardwarepark. Nur Hobby oder auch Professionell genutzt?

Antwort Gefällt mir

B
Besterino

Urgestein

6,727 Kommentare 3,321 Likes

Zum Glück nur Hobby, Friends & Family. ;)

Meine allerersten beruflichen Anfänge liegen aber immerhin in der IT, hab vor ca. 30 Jahren als Schüler nebenbei Server zusammengeschraubt und Netze gebaut (Novell). Hach ja. Die guten alten BNC-Netze.

Heute reicht für meine "professionellen Zwecke" 'n popeliger Dell-Laptop. Den Hardwarepark müsste ich eigentlich auch mal ausmisten - aber man bekommt ja auch quasi nix mehr für das Zeug...

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,472 Kommentare 828 Likes

SR ist schon wichtig, aus mehreren Gründen. Zwar betreibe ich selbst keinen Server, zumindest im Moment, aber was hier auch wichtig ist, daß viele Shops die Server haben eben auf Xeon eingestellt sind, und schon alleine deswegen auf den nächsten Xeon gewartet haben. Da sind die berüchtigten TCOs, bei denen die Hardware oft der kleinste Posten sind, auch mit im Spiel.
Und, für mich als Desktop und Laptop User ist auch wichtig, daß einige der neuen Xeons ja Intel's Wiedereinstieg in Chiplet Designs darstellen; und da bin ich Mal gespannt, wie gut oder schlecht Intel das hinbekommen hat.
Abschließend eine Frage und ein Kommentar, die bei Intel wohl keiner lesen wird:
Warum kein Xeon mit sehr vielen Gracemont Kernen und vielen PCIe Lanes? So etwas gibt's ja im Kleinen, aber scheinbar nur für 5G Basestations und nicht so zum Kaufen. Ein großer Cove Kern nimmt ja ebenso viel Platz auf dem Chip ein wie 4 Gracemont Kerne, und manchmal sind viele Kerne die jeweils 1 Thread bearbeiten können wichtiger als sehr hohe Leistung pro Kern oder Thread.

Und, wenn's das jetzt gibt und ich's in den Intel Folien übersehen habe, dann bitte darauf hinweisen - danke!

Antwort Gefällt mir

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

1,472 Kommentare 828 Likes

Liegt das jetzt nur an den MB Herstellern, oder auch an den Chipsätzen, die es hier gibt? Wobei ich schon weiß, das viele MB Hersteller gerne bei solchen Geschichten sparen. "Braucht ja keiner" oder was da gedacht wird; allerdings sind mehrere tausend Kunden eben nicht "keiner".

Antwort Gefällt mir

B
Besterino

Urgestein

6,727 Kommentare 3,321 Likes

Liegt vor allem an CPU + Chipsatz. Und an den Kosten für einen echten PLX-Chip ("PCIe-Lane-Switch"), der quasi dynamisch vorhandene Lanes noch besser auf mehrere Slots aufteilen könnte. Ein PLX-Chip könnte aus z.B. "nur" 16 echten CPU-Lanes statt einem auch 2 Slots elektrisch mit 16 Lanes versorgen. Der PLX-Chip switcht dann die elektrischen Lanes der CPU je nach Bedarf im laufenden Betrieb zu Slot 1 oder Slot 2, ist aber natürlich bei der Brutto-Kapazität insgesamt auf die "echten" 16 CPU-Lanes als verbleibender elektrischer Flaschenhals beschränkt.

In der Regel nutzt aber keine Steckkarte die elektrischen Lanes über längeren Zeitraum komplett, so dass das unter'm Strich durchaus Sinn machen kann und die Lanes besser genutzt werden.

Hat man früher vor allem auf Mainboards mit Mulit-SLI / -Crossfire Support gesehen, wenn mehrere GPUs in 16/16er oder sogar bis zu 16/16/16/16er Konfigs betrieben werden konnten. Mit dem Aussterben von SLI und Crossfire verbaut das aber heute k(aum noch )einer auf dem Mainboard direkt.

Man sieht PLX-Chips noch manchmal auf Adapter-Steckkarten für m.2 NVME SSDs, die kein Bifurcation benötigen (und deutlich, z.T. Faktor 10x, teurer sind als die HyperX Dinger über Bifurcation). Wobei das auch absolute Nische ist: wer viele NVME-SSDs anbinden will, greift dann meist eh gleich zu einem echten HBA mit NVME-Fähigkeiten, kostet nicht wirklich mehr und da kann man dann auch gleich zusätzlich noch SAS, SATA und U.2/3 Storage mit betreiben...

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung