CPU Editor's Desk Latest news System

Intel’s official slides attest Core i9-11900K up to 14% lead over Core i9-10900K in gaming, lineup confirmed

The official slides of Intel’s Rocket Lake, the 11th generation of Intels desktop CPU family was leaked now and at the same time the specifications and the lineup were confirmed, which I already published a few days ago. These new slides are meant to show the gaming potential of the Core i9 CPU compared to the last-gen flagship. According to Intel, the Core i9-11900K is up to 14% faster than the Core i9-10900K CPU – in games mind you.

The following information comes from XHL and I allow myself now at this point a small, personal side note to the German Intel PR. The argument to exclude editorial offices from sampling because they might leak information in advance is completely illogical and also a contradiction in terms. Anyone who is officially supplied with information must first agree to an embargo/NDA. That would be an elegant solution to this problem.

Nevertheless, I will provide my readers also this time with the usual deeper measurements, especially also to clock, power consumption, cooling and of course to the performance, because the CPUs are long here. The fact that I have not published any of my own content to date and will not do so until March 30, 2021 is thus not even due to a signed embargo against Intel, but simply due to respect for the work of my colleagues who are bound by this NDA. You don’t just charge ahead, even if the odds are in your favor.

11th Gen Intel Core desktop processors (code-named “Rocket Lake-S”) will deliver inceased performance and speeds. They will launch in the first quarter of 2021. (Credit: Intel Corporation)

The now leaked performance slides show the Intel Core i9-11900K as the new 8-core flagship compared to the previous generation Intel Core i9-10900K with 10 cores. Both CPUs use the same maximum boost clock of 5.30 GHz, but the Core i9-11900K boasts the brand new Cypress Cove cores, which should deliver double-digit performance gains, at least on paper.

All of the games Intel selected were tested at 1080p with the “High Settings” preset. Intel’s own benchmarks show that the Core i9-11900K is up to 14% faster than the Core i9-10900K. The average performance gain over these four games compared to the previous generation is around 11% and that’s quite a decent increase over the last generation, but at the cost of much higher power consumption and power consumption, which of course piques my curiosity and will definitely be part of my own test (spikes and power supply relevance!).

On the topic: Intel Rocket Lake Core i7, Core i9 – The complete CPU lineup including specifications and final boost

The official slide from Intel confirms the specifications already published recently also here and you even more detailed information about the respective CPUs of the “K” series:

The Intel Core i9-11900K will be the flagship of the 11th generation. Generation with 8 cores and 16 threads. This results in 16 MB L3 cache (2 MB per core) and 4 MB L2 cache (512 KB per core). The base clock of the CPU will be 3.5 GHz and as far as the boost clock is concerned, it will have a clock speed of 5.2 GHz (1-core) while the boost frequency for all cores is expected to be kept at 4.8 GHz.  The chip will also feature Thermal Velocity Boost, which should bring another 100 MHz jump in maximum clock speed.

This trick should result in a single-core boost clock of 5.3 GHz maximum on a busy core, which also makes the Core i9-11900K the first CPU to ever reach such a high frequency right out of the box, but it’s also important to remember that regardless of the use of the Cypress Cove cores ,the Core i9-11900K will have fewer cores and threads than the Intel Core i9-10900K. This is partly due to Cypress Cove’s backporting to the more refined 14nm process, and the otherwise exploding power consumption.

The CPU is said to have a power consumption of 125 W, which is currently standard for an Intel flagship, while the power limit of the second stage (PL2) is designed for a whopping 250 W. This means that when the CPU reaches its maximum clock speeds, it could actually pull the aforementioned amount of power from the PSU, making it one of the most power-hungry 8-core chips ever produced. This could also explain why Intel is not a major player in the 11. It’s a good thing that the 3rd generation didn’t go for 10 cores and 20 threads, as that would have been a power-hungry monster of a chip that would have easily surpassed even the 250-watt limit.

With the Core i7, you can see that Intel doesn’t position the core/thread count to a step below the Core i9. The Core i7-11700K thus has the same core configuration as the Core i9-11900K, but comes with slightly reduced clock rates. The chip is said to have a maximum boost clock of 5.0 GHz on a single core and 4.6 GHz across all of its 8 cores. The CPU will even carry the same amount of cache, but the main difference should come from the clocks and performance limits. This lower clocked chip will be around 225-250 W for the PL2 limit, while 125 W for PL1 remains standard. It will also be interesting to see how the Rocket Lake CPUs can be overclocked, as the tiny difference between the Core i9 and Core i7 chips could be overcome with a little overclocking.

The Core i5-11600K is a 6-core chip with 12 threads and should compete against the AMD Ryzen 5 5600X, boasting a clock speed of 4.9 GHz on a single core and 4.6 GHz across all cores, with 12 MB of L3 cache and 3 MB of L2 cache. Thus, this chip will have to prove itself against the AMD Ryzen 5 5600X mainly through its price-performance ratio. Here, of course, the development of street prices and availability must also be taken into account for an evaluation.

Kommentar

Lade neue Kommentare

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

So zu sagen hat Intel die Wahl gehabt, entweder wir opfern 2 Kerne/4Threads um mehr Leistung zu bekommen für den selben Energieaufwand. Oder man opfert keine 2 Kerne/4Threads und die CPU genehmigt sich sogar 275-300W wenn sie voll ausgenutzt wird.

An sich bin ich beeindruckt, dass Intel noch immer noch etwas mehr aus der Architektur quetschen kann an Leistung durch eben noch weitere Optimierung. Auch wenn dies halt dann dadurch geschieht, dass die CPU säuft wie ein Loch, wenn man sie lässt, so bleibt es doch interessant zu sehen.
Für reine Gamer, die Leistung wollen, egal was es kostet an Strom, sicher noch immer interessant. Für alle anderen, die mehr machen wie reines Gaming und eben auch teils produktiv damit arbeiten, eher weiterhin keine Alternative.

Man kann nur hoffen, dass dies wirklich endlich der letzte Desktop CPU Launch ist von Intel in 14nm.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

1,375 Kommentare 749 Likes

Danke Igor! Hast Du uU Informationen (die Du auch teilen darfst) um wie viel größer die neuen Kerne (in mm2) sind vs. die von Comet Lake? Und wie viel größer (Fläche) ist der Rocket Lake i9 verglichen mit dem 10 Kern Comet Lake? Hat Intel hier einfach auch mehr Oberfläche pro Kern eingeräumt damit sich die Hitze noch einigermaßen abführen lässt?
Und, leider, leider hat AMD sich wohl bei der Kapazitätsplanung wohl vertan, und lässt jetzt viel Absatz stehen. Schade eigentlich!

Antwort 1 Like

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Da die Kapazitäten sicher schon teils 1 Jahr oder möglicherweise sogar noch früher gebucht werden müssen und sicher auch keiner mit einer dermaßen riesigen Nachfrage hat rechnen können. Plus dass es ebenso schwierig ist voraus zu sagen ob der Konkurrent seine Produkte nicht so entwickelt bekommt bzw. Produktionstechnisch verschätzt (Mengenmäßig). Auch Engpässe bei den Materialien bzw. bei den Teilen spielen dabei rein.

So wird AMD ja wie alle anderen auch eben Menge X an Wafern bei TSMC gebucht haben und eine Erhöhung ist eben nicht so einfach möglich bzw. aktuell sicher unmöglich.
Hinzu kommt ja, dass AMD ja nicht nur GPU Chips produzieren lässt bei TSMC (anders als nVidia nur GPUs bei Samsung fertigen lässt [bitte korrigieren falls falsch] und somit seine komplette Bestellung in GPUs auch umsetzen kann), sondern eben auch noch CPUs und SoCs für PS5 und X-Box Series X/S.

Besser wäre es, wenn eben dies alles entzerrt wäre. Wenigstens die GPUs und SoCs der Konsolen nicht zur selben Zeit zu launchen, hätte zumindest etwas Abhilfe geschaffen. Je nachdem was halt zuerst gelaunched wäre, hätte dann eine höhere Verkaufsmenge gebracht.

Intel hat es da mit den eigenen Fabs dahingehend einfacher, da man sich diese nicht mit anderen teilen muss. Auch wenn ein verfrühtes Umstellen auf den neuen Prozess (was ja auch teils Monate dauert), sicher ebenso für Probleme sorgen kann. So wie wir es ja mitbekommen haben.

Antwort Gefällt mir

Klicke zum Ausklappem
M
MoGas

Mitglied

24 Kommentare 13 Likes

Für mich als Gamer stellt sich das in der Realität noch etwas anders da. Mein 9900KS zieht unter Prime95 so bummelig 220 Watt, das stimmt. In Cyberpunk 2077 allerdings nur ca. 90-100 Watt, weil ich da im Grafikkarten-Limit hänge. Und mit Raytracing komme ich da auch so schnell nicht raus, auch die nächste nVidia Generation wird das nicht ändern.

Antwort Gefällt mir

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Richtig, es kommt immer darauf an, was man macht. Je mehr die GPU gefordert ist, desto weniger saugt meistens die CPU. Aber dies ist nicht bei jedem Spiel so, gerade wo viele Dinge berechnet werden müssen, steigt die Last der CPU eben auch wieder an. Ebenso wenn man noch andere Programme im Hintergrund laufen lässt, kann die CPU auch wieder mehr Strom benötigen, da mehr zu berechnen ist.

Ist halt immer ein abwägen was einem wichtiger ist. Wobei halt für die letzten paar % an Leistungsplus eben auch mehr Strom benötigt wird. Gerade Intel erkauft dieses Leistungsplus, in der aktuellen Architektur, halt zum Teil eben mit einem erhöhten Strombedarf.

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

AMD wird voraussichtlich genau die Kapazitäten haben, die sie gemäß Projektplan vorsahen und die Kapazitäten für die Konsolen-SoCs haben sie gar extra hinzugebucht und diese sind unabhängig von ihren "eigenen" Kapazitäten zu betrachten.
Das Problem wird vielmehr sein, dass TSMC voraussichtlich diese gebuchte Menge nicht in der vorgesehenen Art prozessieren können wird, d. h. anstatt 100 % Wafer-Output gemessen an der relativ gebuchten Kapazität wird TSMC vielleicht nur 85 % (?) fertigen können aufgrund von Materiallieferengpässen. Und in der fortschreitenden Fertigungskette verschärft sich das Problem dann zunehmend, da man einerseits weniger belichtete Chips als gewünscht liefern kann, dann werden vielleicht davon ausgehend noch weniger fertige Chips im Packaging erstellt, weil es bei den anderen Dienstleistern auch an Package-Substrat fehlt und kommen die wenigen, fertigen Chips bspw. bei den GPU-Herstellern an, fehlt es hier und da an diversen elektronischen Komponenten und teilweise auch Speichermodulen, sodass nur wenige Karten gefertigt werden können.
Würde es Covid19 und diese industrieweiten Lieferengpässe nicht geben, würde bei AMD voraussichtlich alles "normal" laufen; die fertigen nun einmal deutlich weniger als bspw. Intel und nVidia, was schlicht deren Größe und deren kleinerem Markt zuzuschreiben ist.

AMD scheint bei TSMC aktuell der Fertigung des 7nm-CCDs eine höhere Priorität einzuräumen als den GPUs, schlicht weil die CPUs (insb. mit Blick auf den verspäteten Epyc/Milan) für AMD wichtiger sind als der vergleichsweise kleine GPU-Markt. Und die Konsolen-SoCs haben damit gar nichts zu tun, weil AMD hier nichts shiften kann, da man hier vertraglich gebunden ist, d. h. die gesondert für Sony und Microsoft hinzugebuchten Kapazitäten werden auch entsprechend nur für deren Produkte genutzt.
Und beim Packaging scheint man bemüht zu sein beim Ryzen die "Butter-und-Brot"-CPUs 5600X und 5800X zu priorisieren, schlicht weil die volumentechnisch wichtiger sind und weil man sehen musste, dass man trotz der Krise die CPUs zeitnah in Richtung UVP bekommt, denn andernfalls hätte man ein handfestes Problem i. V. z. Rocket Lake gehabt, denn Intel wird hier mit seiner eigenen Fertigung voraussichtlich etwas besser wegkommen und hätte daher zusätzlich auch noch einen Preisdruck aufbauen können.

Ergänzend zum Gaming: Hier spielt der 14nm-Prozess aufgrund der geringen CPU-Auslastung nur eine untergeordnete Rolle. Igor schrieb nicht umsonst, dass stellenweise ein 5900X im Gaming gar geringfügig mehr als ein 10900K zieht. Und selbst wenn man die (bisherigen) Intel-CPUs deutlich übertaktet, hielt sich der Verbrauch in Grenzen und zumeist gar unterhalb der offiziellen TDP (teilweise gar deutlich). Beispielsweise SotTRaider mit einem 9900K auf 5,0 GHz AllCore läuft gemittelt mit unter 80 W und durch den hohen Takt kann man hier bestmögliche Fps erzielen.
Über den "horrenden Verbrauch" der Intel-CPUs muss man nicht wirklich diskutieren, solange man hier nicht Workloads mit hoher Auslastung betrachtet und die sind zumeist für Consumer (im Marktmittel wohlgemerkt **) nicht relevant.

*) Anmerkung: nVidia fertigt auch bei TSMC und der GA100 wird sicherlich schon ein vergleichsweise hohes Volumen haben, denn die bedienen hier den regulären Beschleunigermarkt quasi alleine. Zudem fertigt man dort auch weiterhin kleinere Turing-Chips und hat voraussichtlich gar die Fertigung des TU106 wieder aufgenommen (?) um den Druck etwas besser kanalisieren zu können.

**) Bevor jetzt wieder einer ums Eck kommt und schreit: "Aber ich rendere mit Blender ..." oder "Ich transkodiere regelmäßig Videos ..." Natürlich gibt es solche Consumer, nur machen die anteilig nur einen kleinen Prozentteil aus und sind daher schlicht kaum relevant und dementsprechend lassen sich davon ausgehend auch keine Pauschalaussagen ableiten. Und wenn die sich sinnvoll eindecken wollen, greifen die halt aktuell zu einer 7nm-Zen-CPU und alle könnten glücklich sein ... gäbe es da nicht diese verrückten (markt)psychologischen Effekte ...

Antwort Gefällt mir

Klicke zum Ausklappem
Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Okay, SoCs also getrennt vom Rest. Wieder was gelernt. Wobei die Priorisierung der CPUs logisch klingt und selbst wenn AMD mehr GPUs produzieren ließe, würden diese ja ebenso eher bei den Minern landen, als in den Stores und bei den Spielern.

Ist alles nicht so einfach und es sind schon sehr viele Dinge die noch immer bremsen.

Wobei ich bei einer Sache nicht ganz zustimmen kann. Es mag sein, dass ein SoTRaider mit einem 9900K nur 80W gemittelt benötigt. Aber das ist halt nur ein Spiel von einer doch recht großen Auswahl und es kommt ja noch dazu, dass von Spiel zu Spiel die Anzahl der genutzten Kerne unterschiedlich ist. Ebenso kommt es ja auch darauf an wieviel berechnet werden muss im Spiel. So ein Strategiespiel wo hunderte gar tausende von NPCs etc. berechnet werden müssen, wird sicher stärker ausgelastet sein, als beim genannten Beispiel von dir und dementsprechend auch mehr Strom für die CPU verbrauchen gemittelt. Und je mehr Kerne ein Spiel auch effektiv nutzt, desto höher eben die Auslastung als auch der Verbrauch.

Deswegen ist es ja auch grundsätzlich wichtig, zu schauen was man eben für Anwendungszwecke hat.

Antwort Gefällt mir

Klicke zum Ausklappem
g
gerTHW84

Veteran

409 Kommentare 248 Likes

Naja, unter Vorbehalt natürlich, denn selbstredend habe ich keine Einsichten in AMDs Projektplanung oder Verträge mit TSMC oder bspw. Sony oder Microsoft. Hier muss man die verfügbaren Puzzelstück zusammensetzen und an der ein oder anderen Stelle mit einer gewissen Skepsis und Unsicherheit lesen und die Lücken mit (markt)wirtschaftlichen Erfahrungswerten füllen.
Dem allgemeinen Vernehmen nach waren AMDs 7nm-Kontingente in 2019 relativ gering und sind jetzt, in 2020 beträchtlich gestiegen, vorrangig aber aufgrund der Anteile, die sie explizit für Sony/Microsoft hinzugebucht haben um die SoCs zu fertigen. Und das diese Kontingente exklusiv sind, resultiert einfach aus der absehbaren Vertragsgestaltung. Die beiden Hersteller werden sich feste Lieferzusagen von AMD haben geben lassen, d. h. AMD ist hier vertraglich gebunden um muss diese Verträge nach besten Kräften erfüllen und diese Bindung ermöglichte es ihnen auch relativ risikofrei diese beträchtlichen, zusätzlichen Kontingente bei TSMC hinzuzubuchen, denn die Abnahme dieser Produkte ist ja schließlich vertraglich zugesichert. (Darüber hiaus gibt es aber natürlich auch bei TSMC Grenzen bzgl. der Kapazitäten und AMD konkurriert hier mit nahezu dem gesamten übrigen Markt um diese, d. h. wie du schon gesagt hast, ist es i. d. R. eher ausgeschlossen, dass man da noch kurzfristig Kapazitäten erhöhen kann, wenn sich den markttechnisch kurzfristig eine Gelegenheit ergäbe.)

Gaming: Natürlich gibt es da Schwankungen und die drücken sich auch in Watt aus, aber hier gibt es kein Game, das selbst im (regulären ;)) OC 150 W auf einer Intel-CPU zieht, was schlicht an der geringen Auslastrung liegt, die GameEngines an den Tag legen, was wiederum daran liegt, das ein nennenswerter Teil des Workloads auf der GPU liegt.
Und bzgl. Physik und Co wärst du vermutlich überrascht, aber deren Anteil an der CPU-seitigen Rechenlast einer GameEngine liegt i. d. R. im niedrigen, zweistelligen Prozentbereich. (Infos von einige Engine-TechTalks, wobei es natürlich auch hier Schwankungen gibt, aber die Hauptlast liegt hier klar in anderen Bereichen der Engine.)

Übrigens bzgl. der Kernzahlen: GameEngines nutzen hier überschaubar wenig und werden sich absehbar nur sehr langsam steigern, schlicht weil hier die Konsolen schon wieder beschränkend wirken werden. Sieht man sich bspw. einen aktuellen Titel auf einem 5900X oder gar 5950X an, dann langweilt sich die CPU regelrecht. Die CPU-seitigen Fps-Limitierungen treten lediglich dadurch auf, dass die hauptsächlichen Primärthreads nicht schnell genug abgearbeitet werden können, weil bei um die 5 GHz herum aktuell das Ende erreicht ist (und die neuen Konsolen limitieren das gar auch im besten Fall 3,8 GHz).
Es hatte durchaus seinen Grund, dass AMD damals die Kernzahl mit Zen in 2017 erhöhte und nicht etwa schon zuvor Intel, denn effektiv gab es schlicht keinen echten Bedarf im Consumer-Markt dafür. *) AMD musste damals 8 Kerne als vertriebstechnisch/absatzförderndes Argument bringen, nicht etwa weil der Markt das dringend benötigte und man musste diese Maßnahme gar noch mit einem niedrigenren Preis flankieren. Mit dem Ende der Altkonsolen-Generation kann nun der nächste Schritt bzgl. Parallelisierung eingeläutet werden, aber der ist ebenso schon wieder klar beschränkt. Und mit den beträchtlich gesteigerten Leistungsreservern der Konsolen ist es zudem heute gar noch wahrscheinlicher, dass die Konsolen weitaus mehr Berücksichtigung (als zusätzlicher Absatzmarkt) finden werden, als noch die Last-Gen, d. h. das Limit für Computerspiele darf man im Mittel als durchaus "bindend" ansehen. Die Ressourcen eines 12- oder 16-Kerners werden auch absehbar in den nächste Jahren nur für optionales Grafik-BlinkBlink genutzt werden aber keinesfalls fester bestandteil der GameMechanik werden, denn würde man bereits das Leistungsäquivalent eines sehr schnellen 8-Kerners als Grundvoraussetzung annehmen, müsste man sich vom Konolenmarkt direkt verabschieden und der wird in einigen Jahren auch wieder Millionen von Geräten/Kunden umfassen. (Sony und Microsoft haben ja schon im letzten Jahr gut 8 Mio. Konsolen abgesetzt trotz der Krise.)

*) Mal ausgenommen von Prod.-Workloads natürlich. / Entsprechend unsinnig sind auch immer solche gernzitierten Aussagen wie "Ohne AMD würden 'wir' heute noch auf 4 Kernen festsitzen", aber das ist letzten Endes ein anderes Thema. ;)

**) Beispielsweise die Cry-Engine ist ein "Negativbeispiel", das sehr stark durch den Main-Thread limitiert wird.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

11,810 Kommentare 2,298 Likes

Da ändert sich dennoch nix dran das die Intel auch in Spiel zum größten Teil Stromfresser sind.

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

Du hast recht, auch das Video ändert nichts an den Gegebenheiten bzgl. dem Gaming, wenn man mit derart polarisierenden Begriffen um sich wirft.
Vielleicht solltest du dir mal anschauen, was du da verlinkst: (Fps als 1 Percentile)

  • RDR2: 5800X 80W, 105 Fps, 10700K 96 W, 106 Fps
  • Cyperpunk: 5800X 74 W, 66 Fps, 10700K 102 W, 86 Fps
  • Death Stranding: 5800X 74 W, 155 Fps, 10700K 99 W, 159 Fps
  • BF5: 5800X 83 W, 126 Fps, 10700K 111 W, 150 Fps
  • Rainbow Six: 5800X 81 W, 392 Fps, 10700K 94 W, 348 Fps
  • Mafia DefEd: 5800X 66W, 95 Fps, 10700K 79 W, 111 Fps
  • Flight Sim: 5800X 59 W, 40 Fps, 10700K 66 W, 46 Fps

Der Mehrverbrauch ist offensichtlich und den bestreitet auch niemand, den "Stromfresser" kann man sich hier zweifellos ersparen, denn die Unterschiede sind nicht groß. Wer hier tatächlich Wert darauf legt "grün" unterwegs zu sein, wird sich eine deutlich genügsamere GPU einbauen oder sich gar mit einer iGPU zufrieden geben und vielleicht mal seinen Monitor aktualisieren.
Bei massivparallelen Productivity-Wokloads ist die Sachlage eindeutig, im Gaming dagegen war Intel bis vor kurzem immer noch eine vollkommen legitime (und abseits des Preises gar die bessere) Wahl. Mit Zen3 kann AMD nun erstmals (nach immerhin 4 oder gar 8 Jahren, je nachdem wie man zählen will) ein klein wenig davonziehen.

Den größten Vorteil kann AMD seit Zen2 mit der Kernskalierung für sich verbuchen, die zum Großteil auf TSMC und der Verwendung des 7nm-Prozesses zurückzuführen ist, nur bedarf dies auch entsprechender Workloads und da gehört der Großteil der Consumer-Workloads nach wie vor nicht dazu (insbesondere nicht das Gaming) und so, wie es sich bisher in der Vergangenheit abzeichnete, wird sich daran im Consumer-Markt auch in den nächten Jahren absehbar nichts ändern. Die gemittelten Kernzahlen werden nur langsam steigen und es wird noch sehr viele Jahre dauern, bis bspw. 16-Kerner zum Mainstream werden (der aktuell eher bei 6 bis 8 Kernen liegt). Interessanterweise wird AMD mit Zen4 möglicherweise auch das größte Ryzen-Modell kerntechnisch aufwerten, voraussichtlich schlicht, weil man ein neues Halo-Produkt braucht, denn 16-Kerner sind mittlerweile schon ein "alter Hut", aber ein 20- oder gar 24-Kerner wird umso mehr nur eine sehr kleine Nische bedienen und wird abermals mehr ein vertriebstechnisches Argument sein. Über das Modell werden sich einige wenige Con/prosumer zweifellos sehr freuen können, den Großteil des Consumer-Marktes wird eine solche CPU jedoch ebensowenig interessieren wie auktuell bspw. der 16-Kerner.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

11,810 Kommentare 2,298 Likes

Stromfresser ist noch ein Begriff aus der Bulldozer Zeit.....heute ist es anders rum,warum darf man es also Heut nicht mehr Verwenden?!

Antwort Gefällt mir

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Naja auf der anderen Seite kann man aber trotzdem schon sagen, wenn Intel früher die Kernzahl erhöht hätte anstatt über mehrere Generationen bei 4 Kernen im Consumer Markt zu verharren, hätten sicher schon Eher Entwickler ihre Spiele/Programme angepasst um die erhöhte Kernzahl zu nutzen. Aber das ist wieder so ein Henne Ei Problem. ;)

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

"Stromfresser": Ist halt immer die Frage wie man Sprache verwendet und mit welcher Intention man im konkreten Fall unterwegs ist, denn das hat natürlich auch Einfluss auf die Formulierungsweise und Begriffswahl. Ich für meinen Teil würde diesen Begriff im Kontext Gaming jedenfalls vermeiden.
Bei Productivity-Workloads würde ich in dem Falle jedoch ohne Zweifel auch leicht zu diesem greifen, denn hier sind die Unterschiede einfach eklatant, was schlicht in der Natur der Sache begründet ist (7nm ggü. 14nm).

"Henne-Ei": Im Wesentlichen wirkte auch hier die Alt-Konsolen-Gen als limitierender Faktor, die bestenfalls das Äquivalent eines mäßig schnellen Intel-4-Kerners hatte (2016/17) und zweifellos schon nicht mehr mit den schnelleren Topmodellen mitkam. Selbst wenn es Zen nicht gegeben hätte, hätte Intel absehbar die Kernzahl dennoch erhöht, denn die Steigerungsmöglichkeiten rein architekturbedingt sind natürlich deutlich beschränkter, wie man auch heute bei beiden Herstellern sieht.
Unterm Strich darf man aber durchaus gespannt sein auf erste Titel, die die neuen Konsolen und ihre Zen2/3,8GHz-Kerne vollständig auslasten werden und insbesondere die Kompatibilität mit den Alt-Konsolen und langsameren PCs fallen lassen werden, denn da könnte man so einiges an den GameMechnaiken erweitern. Das Problem ist, dass das jedoch wohl noch einige Zeit dauern wird, denn die Alt-Konsolen wird man nur schrittweise "absägen" und auf den PCs ist man ebenfalls noch längst nicht so weit.
Die aktuelle Steam-Statistik weist gerade mal ~ 13,5 % der Systeme mit 8+ CPU-Kernen aus. Und falls man jetzt meint, dass das an den Laptops liegt, nein, tut es nicht, denn in den GPU-Statistiken haben GPUs in Form von PCIe-Karten einen Anteil von > 70 %. Ergänzend dazu sehen auch die MF-Zahlen aus, denn hier werden nur innerhalb der abgesetzten AMD-CPUs mehr CPUs <= 6 Kerne als 8-Kerner verkauft und der Anteil der höherkernigen CPUs ist relativ gering, d. h. bei den aktuellen Verkäufen bei MF, bei denen tendenziell gar eher computeraffine Nutzer unterwegs sein werden, wird noch grob ein Anteil von um die 50 % AMD-CPUs mit <= 6 Kernen verkauft. Der Markt insgesamt sieht also keinen übermäßigen Bedarf für sehr hohe Kernzahlen.
Engt man seinen Blick auf die Enthusiast-Gamer ein (wo fängt der Bereich an?), dann werden diese tendenziell eher zu etwas höherkernigen CPUs greifen, aber auch hier geht es nur in sehr wenigen Fällen über 10 bzw. 12 Kerne hinaus. Übrigens 10-Kerner haben auf Steam in den letzten Monaten mit dem Preisverfall signifikant zugelegt in der Statistik (was dahingehend interessant ist, weil man das unmittelnbar auf Comet Lake zurückführen kann, da AMD keine 10-Kerner anbietet). Beispielsweise in Steam:
Mai 2020 vs. Feb. 2021

  • 6 C : 22,1 % => 28,8 %
  • 8 C : 7,0 % => 12,0 %
  • 10 C : 0,08 % => 0,47 %
  • 12 C : 0,37 % => 0,86 %
  • 16 C : 0,10 % => 0,20 %

Konkret bewegen wir uns also gerade erst mal in die Richtung, dass so langsam 6 bis 8 Kerne zum Mainstream werden. Das Viertel der 6-Kerner könnte man zumindest schon eher als eine Art Mainstream ansehen als die 8-Kerner, die zweifelsfrei noch längst keinen Mainstream darstellen. Hierbei ist halt immer zu unterscheiden zwischen dem, was kaufbar ist und dem was tatsächlich im Markt vorliegt bzw. genutzt wird, ein Punkt, den viele (Fans) immer gerne durcheinanderbringen oder gar wissentlich ignorieren (nicht auf dich bezogen).

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Es gab mal vor wirklich vielen Jahren einen Artikel zu dem Thema, wie viele Kerne im Schnitt von Spielen bzw in Spielen genutzt werden. Das Ergebnis war - soweit ich mich richtig erinnere - bei 2 1/2. Nun mag Igor wissen, wie lange das schon her ist, vielleicht hat er den sogar selber geschrieben, weiß ich nicht mehr, jedenfalls entsprach das Ergebnis nicht unbedingt den Erwartungen. Zu dem Zeitpunkt präferierten viele noch hoch taktende CPUs mit 2 Kernen /Core 2 Duo E8400, sowas) und denen wurde so klargemacht, dass sich die Dinge allmählich Richtung Quads verschieben, soweit ich das noch richtig im Kopf habe. Wenn man dann noch bedenkt, wie lange selbst ein 2500K von 2011 gereicht hat als Spiele-CPU, dann habe ich so meine Zweifel an der Theorie, dass mehr Kerne mehr oder weniger erzwungen waren, zumal es die ja auch gab, allerdings nur für die teureren Sockel, zB 1366. Und die wurden eher 'produktiv' genutzt.

Antwort Gefällt mir

Casi030

Urgestein

11,810 Kommentare 2,298 Likes

Liegt aber immer noch alles an Intels Monopol.
OS,Compiller,Programme,Spiele wurden Jahrzehnte auf Intel Optimiert,im Grunde sogar bis Ryzen erschienen ist.
Es gab mal nen Test FX 3xxx vs i7 3770.
Im Spiel war der i7 schneller.
Im Spiel + Anwendung..... und der FX 3xxx brachte auf einmal mehr FPS und der i7 ist total eingebrochen.
BF4 lief in der Anfangszeit auf allen Kernen selbst mit dem FX 3xxx @ 2,8GHz schneller als ein i7 3770.
Nach dem Extremen Aufschrei wurde die Kernaufteilung zurück genommen und die AMD wurden auf einmal immer langsamer damit Intel wieder Deutlich schneller war.
Mehr Kerne wären schon vor 10 Jahren kein Problem gewesen in vielen Spielen und Anwendungen,man darf sich dafür also bei Intel bedanken für diese Bescheidene Lage.

Antwort Gefällt mir

Martin Gut

Urgestein

7,697 Kommentare 3,529 Likes

Das hat einen ganz anderen Grund. Seit gut 10 Jahren ist jedem Programmierer klar, dass die Entwicklung in Richtung mehr Kerne geht, aber die Leistung pro Kern keine grossen Sprünge mehr macht. Für ein Game hat man somit genug Leistung zur Verfügung, wenn es alle Kerne nutzen kann.

Dass sich die Games trotzdem nur langsam in Richtung Multicore entwickeln hat den einfachen Grund, dass der Aufwand zur Programmierung grösser ist als man denkt. Erst braucht man eine Programmierumgebung, die dafür ausgelegt ist. Dann muss man die ganze Programmstruktur so aufbauen, dass einzelne Prozesse unabhängig abreiten können. Dazu braucht es definierte Schnittstellen zwischen den Prozessen und Datenstrukturen für die Übergabe an andere Prozesse. Dann braucht es eine Koordinierung aller Abläufe. Das lässt sich nicht einfach noch schnell zu einem Programm dazu fügen.

Eine Softwarefirma interessiert das relativ wenig, ob Intel oder AMD nun gerade etwas mehr oder weniger Kerne auf die eine oder andere CPU packen. Viel wichtiger ist, wie hoch man den zusätzlichen Ausbildungs- und Programmieraufwand einschätzt und ob man die nötigen Programmierer zur Verfügung hat oder anstellen kann. Somit ist es auch eine Kostenfrage, ob man für ein etwas schneller laufendes Programm so viel investieren möchte oder ob man lieber in neue Features investiert, die man gut vermarkten kann.

Antwort Gefällt mir

Klicke zum Ausklappem
g
gerTHW84

Veteran

409 Kommentare 248 Likes

a) Das auf Intel optimiert wurde ist vollkommen natürlich, rational und wirtschaftlich, denn der Großteil der CPUs basierte nun einmal auf Intel-Produkten. Daran ist nichts verwerflich und Entwickler wären dumm gewesen, wenn sie ihre Ressourcen nicht entsprechend ausgerichtet hätten. Wenn ich als Entwickler 1000 Arbeitsstunden für Optimierungen habe, werde ich den Großteil davon natürlich dort aufwenden, wo sie am meisten bringen und das zielt natürlich auf die bedeutendere, im Markt deutlich verbreitetere Architektur ab.

b) Die "FX 3xxx"-Geschichte solltes du mal aufbereiten und mit Quellen ausstatten und auch mal die CPU bestimmen, denn bspw. zu dieser Bezeichnung kann ich mir vorerst nichts zusammenreimen. Andernfalls bleibt es eher eine Anekdote mit fragwürdigem Inhalt. Zudem die von dir gewählte Formulierung "der FX 3xxx brachte auf einmal mehr FPS und der i7 ist total eingebrochen" ist bereits merkwürdig. Wenn die Intel-CPU "eingebrochen" ist, heißt das nun, dass der FX "schneller wurde", weil man die Intel-CPU absichtlich verkrüppelt hatte? Warum sollte letztere "einbrechen", also gar langsamer als zuvor sein und war der FX im Endzustand überhaupt schneller als es die Intel-CPU im Ausgangszustand war? Wie gesagt, in der Form nicht nachvollziehbar. *)
Darüber hinaus aber kam bspw. ein FX-8350 (2nd Gen CMT alias Piledriver) nicht mit einem i7-3770K mit, der zudem gar noch mit weniger Takt lief und deutlich effizienter war.
Um mal AnandTech zum Piledriver-Launch zu zitieren: "Last year's launch of AMD's FX processors was honestly disappointing. The Bulldozer CPU cores that were bundled into each Zambezi chip were hardly power efficient and in many areas couldn't significantly outperform AMD's previous generation platform. Look beyond the direct AMD comparison and the situation looked even worse." (Selbst für den Cinebench reichte es nicht trotz leicht höherem Takt im Vergleich zwischen FX-8350 und i7-3770K.) **)

c) Mehr Kerne waren schon immer "kein Problem", das ist schlicht eine Frage der Wirtschaftlichkeit, denn am Ende will das alles bezahlt werden und bspw. AMD hat sich Anfang des letzten Jahrzehnts nicht umsonst für dieses CMT-Sparbrötchen entschieden und damit dem Markt echte 8-Kerner vorenthalten, auch schlicht aus wirtschaftlichen Gründen heraus, also gibt es hier keinen Grund Intel an den Pranger zu stellen. Der Markt insgesamt war für derartige Kernzahlen im Consumer-Segment schlicht noch nicht bereit und AMD hätte per se nichts anderes bringen können, denn sie waren mit ihren 32 nm auch so schon deutlich unterlegen. Letzten Endes könnte man, wenn man es in gleichwertig simplifizierender Sichtweise provokativ zurückspielen will, auch alternativ schlicht AMDs Unfähigkeit zuschreiben, einen ernstzunehmenden Konkurrenten im CPU-Markt darzustellen. Die haben halt noch ein ganzes Jahrzehnt gebraucht, bis man wieder etwas mit ihnen anfangen konnte. [Ironie aus].

*) Unabhängig davon gab es, wie grundsätzlich in der SW-Welt natürlich einige Games, die etwas besser und andere die schlechter (bis teilweise deutlich schlechter) auf Bulldozer & Co performten, jedoch im Mittel war das klar schlechter und nur das ist das, was am Ende zählt. AMD hat es über die Jahre an vielen Stellen verschlafen auf dem SW-Stack mitzuziehen oder gar vorauszuarbeiten, bzw. grundsätzlich diesem die nötige Aufmerksamkeit zu schenken, teilweise aus Mangel an Ressourcen, teilweise aber auch sicherlich schlicht als Versäumnis, denn die umfangreichen SW-Arbeiten von Intel sind auch nicht magisch vom Baum gefallen und waren einfach da und ebensowenig die von nVidia. Auch hier hat man ein CUDA-Äquivalent vollkommen verschlafen und kommt nun seit gut einem Jahrzehnt nicht mehr im professionellen Segment gegen nVidia an und muss immer über die Preisschiene fahren. Man kann den anderen hier natürlich pauschalisierend immer unlauteren Wettbewerb unterstellen und AMD als Unschuldslamm darstellen, aber das wird zweifellos nicht die ganze/wahre Geschichte sein.

**) Heute dagegen (wohlgemerkt heute, denn mit Zen2 konnte man vorrangig nur bei der Auslastung aller Kerne deutlich punkten) ist die Situation umgekehrt, jedoch ist diese hier auch etwas anders gelagert, den architektonisch ist Intel weiterhin am Ball geblieben, wird/wurde jedoch durch seine Fertigungsproblematik ausgebremst, was mittelfristig bedeutet, dass das Pendel hier auch leicht wieder zurückschwingen kann x) und wenn Intel gar tatsächlich gebrauch von TSMCs Kapazitäten macht, wird sich das Fertigungsthema bald auch so oder so grundsätzlich erledigt haben, d. h. es wird in Zukunft wieder deutlich interessanter werden (entweder mit TSMCs 5nm oder Intel's eigenen 7nm).

x) Btw, bevor ich jetzt wieder in eine Ecke gestellt werde: Ob und wann das Pendel vielleicht zurückschwingt, ist mir vollkommen egal, da ich hier lediglich den Marktbeobachter mime und mich um Objektivität bemühe. Wenn bei mir eine konkrete Kaufsituation ansteht, wird das gekauft, was zu dem jeweiligen Zeitpunkt meinen (gewichteten) Anforderungen am ehesten gerecht wird und da ist es mir reichlich egal welches Brand da drauf steht, denn der Schriftzug verschwindet eh nach den Einbau in einem geschlossenen Gehäuse und interessiert mich nicht mehr (solange alles wie gewünscht funktioniert und man nachfolgend auch nicht durch fehlende Updates etc. "behindert" wird).

Antwort 1 Like

Klicke zum Ausklappem
Casi030

Urgestein

11,810 Kommentare 2,298 Likes

Finde mal 10 Jahre alte Testberichte wieder......
AnandTech ist doch eine der Intel Seiten wenn ich mich recht erinnere.....
Absichtliche Manipulation seitens Intel ist aber nicht Legitim.....

Hier kannst viel von mir lesen.

Hmmm die 2,8GHz hab ich jetzt nicht gefunden,nur mit 2,3GHz,könnt auch BF3 gewesen sein........

Antwort Gefällt mir

Klicke zum Ausklappem
g
gerTHW84

Veteran

409 Kommentare 248 Likes

Eine sehr schwache Begründung, wenn das das einzige Argument sein soll. Und zum allg. Tenor vor 10 Jahren habe ich da nichts mehr im Hinterkopf zu dieser Seite, sondern müsste erst mal aufwändig querlesen, in den letzten Jahre ist es dagegen m. M. n. eher eine recht neutrale Seite, denn die kritisieren oftmals und gerne, wo es angebracht ist und da bekommt Intel regelmäßig sein Portion ab.
Die Bewertung von Bulldozer & Co ist aber vollkommen unabhängig von diesem einen Zitat recht ähnlich über die Presse verteilt:
TomsHardware: "Last year, AMD launched its Bulldozer architecture to disappointed enthusiasts who were hoping to see the company rise to its former glory. Today, we get an FX processor based on the Piledriver update. Does it give power users something to celebrate? ... Would FX-8350 be my first choice in a new build, though? Probably not. Although I’m impressed by the work AMD’s architects have done in the last year, performance remains too workload-dependent. And, inexpensive energy aside, I’m going to go with the more efficient implementation when all else is close to equal."
Und AMD hat ja auch nicht ohne Grund dann recht schnell den Stecker aus dieser fehlgeleiteten Entwicklung gezogen. Den Höhepunkt erreichte man mit dem FX-9590 Mitte 2014 mit bis zu 5 GHz mit offiziellen 220 W TDP und der unterlag dennoch zumeist einem i7-4770K mit nur 4 Kernen (selbst im Cinebench und auf den Verbrauch schaute man dann besser nicht). Danach überbrückte AMD die folgenden Jahre mit "APU-Designs" mit und ohne iGPU, schlicht weil man abgehängt war (und zu allem Ungemach kam anscheinend auch noch Globalfoundries nicht mehr wirklich mit bzw. hinterher).

Nachtrag zum Link: Mit solchen Problemen sieht sich ein Quasi-Monopolist grundsätzlich immer konfrontiert. Das ist nichts Ungewöhnliches und man kann schlecht von einer Firma erwarten, dass die, um nicht noch mehr Makrtanteile zu gewinnen, an so mancher Stelle gar bewusst zu ihrem Nachteil handelt. Und wie auch schon am Marketing zu sehen, verhalten sich solche Firmen in vergleichbaren Situationen grundsätzlich ähnlich, was schlicht in der (makt)wirtschaftlichen Mechanik begründet liegt.
Darüber hinaus, nur als Randnotiz: Die dort zitierte Strafzahlung aus dem EU-Verfahren wurde vom EuGH aufgehoben, d. h. die rund 1 Mrd. Strafzahlung sind für nichtig erklärt worden. Die Begründung war hier, dass das Verfahren nicht darlegen konnte, dass die Maßnahmen eine signifikante Wettbewerbsverzerrung herbeiführten.
Darüber hinaus mussten Größen wie Goole/Alphabet, Facebook, Apple in den letzten Jahren weitaus größere Summen zahlen, während es hier um Intel auffallend still wurde und zuletzt wurde AMD wegen unlauterem Wettbewerb bzgl. Bulldozer & Co verklagt und entging einem drohendem (und absehbar deutlich teueren) Urteil durch einen Vergleich.
Als nette Anekdote: AMD-Fans müssten Intel zumindest zum Teil gar dankbar sein, denn ohne die gäbe es AMD heute möglicherweise schon gar nicht mehr, denn das regelmäßig zwischen den beiden Firmen erneuerte Cross-Lizenz-Abkommen sieht im Falle eines Eigentümerwechsels vor, dass dieses erlischt, d. h. ein Aufkauf von AMD, insbesondere Mitte des letzten Jahrzehnts (was bspw. ein Apple mal eben aus der Portokasse bezahlt hätte), wäre wenig zielführend gewesen, da man danach ein komplett neues Lizenzabkommen mit Intel hätte aushandel müssen und hierbei hätte man sich absehbar auf unschöne Verhandelungen einstellen dürfen, denn warum sollte Intel hier übermäßiges Entgegenkommen zeigen.
Btw., das ist hier nicht als Rechtfertigung für fragwürdiges Verhalten zu verstehen (über mehr brauchen wir uns nicht zu unterhalten, da das die Strafgesetzbücher und Gerichte bereits behandeln), aber ein Quasi-Monopolist zu sein hat nicht nur Vorteile, alleine schon was das Thema Aufmerksamkeit angeht (und das AMD in einer vergleichbaren Situation nicht ähnlich handeln würde ist bisher nur der verklärte Traum von Fans, die viel zu sehr dazu neigen einem milliargenschweren Konzernen fragwürdige Attrubute zuzuordnen).

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung