News Prozessor Redaktion System

Intels offizielle Folien bescheinigen dem Core i9-11900K bis zu 14% Vorsprung gegenüber dem Core i9-10900K im Gaming, Lineup bestätigt

Die offiziellen Folien zu Intels Intel Rocket Lake, also der 11. Generation der Desktop-CPU-Familie, wurden jetzt geleakt und gleichzeitig auch die Spezifikationen und das Lineup bestätigt, das ich ja bereits vor einigen Tagen ebenfalls veröffentlicht habe. Diese neuen Folien sollen das Gaming-Potenzial der Core-i9-CPU im Vergleich zum Flaggschiff der letzten Generation zeigen. laut Intel ist der Intel Core i9-11900K bis zu 14% schneller als Core i9-10900K CPU – in Spielen wohlgemerkt.

Die nachfolgenden Informationen stammen von XHL und ich gestatte mir jetzt an dieser Stelle noch eine kleine, persönliche Randbemerkung an die deutsche Intel-PR. Das Argument, Redaktionen vom Sampling auszuschließen, weil diese ja vielleicht Informationen vorab leaken könnten, ist komplett unlogisch und zudem ein Widerspruch in sich. Wer offiziell mit Informationen versorgt wird, muss vorher einem Embargo/NDA zustimmen. Damit ließe sich dieses Problem ja elegant lösen.

Trotzdem werde ich meine Leser auch dieses Mal mit den gewohnten tiefergehenden Messungen, vor allem auch zu Takt, Leistungsaufnahme, Kühlung und natürlich auch zur Performance versorgen, denn die CPUs liegen längst hier. Dass ich bisher keine eigenen Inhalte veröffentlicht habe und dies bis zum 30.03.2021 auch nicht tun werde, liegt somit noch nicht einmal an einem unterzeichneten Embargo gegenüber Intel, sondern einfach nur an der Achtung vor der Arbeit meiner Kollegen, die an dieses NDA gebunden sind. Da prescht man nicht einfach vor, auch wenn die Quote winkt.

11th Gen Intel Core desktop processors (code-named „Rocket Lake-S“) will deliver inceased performance and speeds. They will launch in the first quarter of 2021. (Credit: Intel Corporation)

Die nun geleakten Performance-Folien zeigen den Intel Core i9-11900K als neues 8-Kern-Flaggschiff im Vergleich zum Intel Core i9-10900K mit 10 Kernen der vorhergehenden Generation. Beide CPUs nutzen den gleichen, maximalen Boost-Takt von 5,30 GHz, jedoch kann der Core i9-11900K mit den brandneuen Cypress-Cove-Kernen aufwarten, die zumindest auf dem Papier zweistellige Leistungssteigerungen liefern sollen.

Alle von Intel ausgewählten Spiele Spiele wurden bei 1080p mit der Voreinstellung „High Settings“ getestet. Intels eigene Benchmarks zeigen, dass der Core i9-11900K bis zu 14 % schneller ist als der Core i9-10900K. Der durchschnittliche Leistungszuwachs über diese vier Spiele gegenüber der vorherigen Generation liegt bei etwa 11 % und das ist durchaus eine ordentliche Steigerung gegenüber der letzten Generation, allerdings auf Kosten einer viel höheren Leistungsaufnahme und eines höheren Stromverbrauchs, was natürlich meine Neugier weckt und garantiert Bestandteil meines eigenen Tests sein wird (Spikes und Netzteil-Relevanz!).

Zum Thema:  Intel Rocket Lake Core i7, Core i9 – Das komplette CPU-Lineup samt Spezifikationen und finalem Boost

Die offizielle Folie von Intel bestätigt die bereits vor kurzem auch hier veröffentlichten Spezifikationen und Sie noch weitere detaillierte Informationen zu den jeweiligen CPUs der „K“-Serie:

Der Intel Core i9-11900K wird das Flaggschiff der 11. Generation mit 8 Kernen und 16 Threads. Daraus resultieren 16 MB L3-Cache (2 MB pro Kern) und 4 MB L2-Cache (512 KB pro Kern). Der Basistakt der CPU wird bei 3.5 GHz liegen und was den Boost-Takt angeht, so wird sie einen Takt von 5,2 GHz (1-Kern) aufweisen, während die Boost-Frequenz für alle Kerne bei 4,8 GHz gehalten werden soll.  Der Chip wird außerdem über Thermal Velocity Boost verfügen, was einen weiteren Sprung von 100 MHz in der maximalen Taktfrequenz bringen soll.

Dieser Trick sollte zu einem Single-Core-Boost-Takt von maximal 5,3 GHz bei einem ausgelasteten Kern führen, was den Core i9-11900K auch zur ersten CPU macht, die jemals eine so hohe Frequenz direkt out of the box erreicht hat. Man darf aber auch nicht vergessen, dass der Core i9-11900K, unabhängig von der Verwendung der Cypress Cove-Kerne ,weniger Kerne und Threads als der Intel Core i9-10900K aufweisen wird. Dies ist teilweise auf die Rückportierung von Cypress Cove auf den verfeinerten 14-nm-Prozess zurückzuführen und die sonst explodierende Leistungsaufnahme.

Die CPU soll eine Leistungsaufnahme von 125 W aufweisen, was aktuell ja Standard für ein Intel-Flaggschiff ist, während die Leistungsbegrenzung der zweiten Stufe (PL2) auf satte 250 W ausgelegt ist. Das bedeutet, dass die CPU beim Erreichen ihrer maximalen Taktraten tatsächlich die genannte Menge an Energie aus dem Netzteil ziehen könnte, was sie zu einem der stromhungrigsten 8-Kern-Chips macht, die je produziert wurden. Dies könnte auch erklären, warum Intel bei der 11. Generation nicht auf 10 Kerne und 20 Threads gesetzt hat, da dies ein stromhungriges Monster von einem Chip geworden wäre, der sogar die 250-Watt-Grenze locker übersprungen hätte.

Beim Core i7 ist zu erkennen, dass Intel die Kern-/Thread-Anzahl nicht auf eine Stufe unterhalb des Core i9 positioniert. Der Core i7-11700K verfügt somit über die gleiche Kernkonfiguration wie der Core i9-11900K, kommt aber mit leicht reduzierten Taktraten in den Handel. Der Chip soll einen Boost-Takt von maximal 5,0 GHz auf einem einzelnen und 4,6 GHz über alle seine 8 Kerne aufweisen. Die CPU wird sogar die gleiche Menge an Cache tragen, aber der Hauptunterschied sollte von den Takten und Leistungsgrenzen kommen. Dieser niedriger getaktete Chip wird bei etwa 225-250 W für das PL2-Limit liegen, während 125 W für PL1 Standard bleibt. Es wird zudem interessant sein zu sehen, wie sich die Rocket Lake CPUs übertakten lassen, da der winzige Unterschied zwischen den Core i9 und Core i7 Chips durch eine kleine Übertaktung überwunden werden könnten.

Der Core i5-11600K ist ein 6-Kern-Chip mit 12 Threads und sollte gegen den AMD Ryzen 5 5600X antreten und eine Taktrate von 4,9 GHz auf einem einzelnen und 4,6 GHz über alle Kerne aufweisen und über 12 MB L3-Cache und 3 MB L2-Cache verfügen. Damit wird sich dieser Chip gegenüber dem AMD Ryzen 5 5600X vor allem durch sein Preis-Leistungs-Verhältnis beweisen müssen. Hier müssen für eine Bewertung natürlich auch die Entwicklung der Straßenpreise und die Verfügbarkeit mit einbezogen werden.

Kommentar

Lade neue Kommentare

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

So zu sagen hat Intel die Wahl gehabt, entweder wir opfern 2 Kerne/4Threads um mehr Leistung zu bekommen für den selben Energieaufwand. Oder man opfert keine 2 Kerne/4Threads und die CPU genehmigt sich sogar 275-300W wenn sie voll ausgenutzt wird.

An sich bin ich beeindruckt, dass Intel noch immer noch etwas mehr aus der Architektur quetschen kann an Leistung durch eben noch weitere Optimierung. Auch wenn dies halt dann dadurch geschieht, dass die CPU säuft wie ein Loch, wenn man sie lässt, so bleibt es doch interessant zu sehen.
Für reine Gamer, die Leistung wollen, egal was es kostet an Strom, sicher noch immer interessant. Für alle anderen, die mehr machen wie reines Gaming und eben auch teils produktiv damit arbeiten, eher weiterhin keine Alternative.

Man kann nur hoffen, dass dies wirklich endlich der letzte Desktop CPU Launch ist von Intel in 14nm.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

1,423 Kommentare 783 Likes

Danke Igor! Hast Du uU Informationen (die Du auch teilen darfst) um wie viel größer die neuen Kerne (in mm2) sind vs. die von Comet Lake? Und wie viel größer (Fläche) ist der Rocket Lake i9 verglichen mit dem 10 Kern Comet Lake? Hat Intel hier einfach auch mehr Oberfläche pro Kern eingeräumt damit sich die Hitze noch einigermaßen abführen lässt?
Und, leider, leider hat AMD sich wohl bei der Kapazitätsplanung wohl vertan, und lässt jetzt viel Absatz stehen. Schade eigentlich!

Antwort 1 Like

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Da die Kapazitäten sicher schon teils 1 Jahr oder möglicherweise sogar noch früher gebucht werden müssen und sicher auch keiner mit einer dermaßen riesigen Nachfrage hat rechnen können. Plus dass es ebenso schwierig ist voraus zu sagen ob der Konkurrent seine Produkte nicht so entwickelt bekommt bzw. Produktionstechnisch verschätzt (Mengenmäßig). Auch Engpässe bei den Materialien bzw. bei den Teilen spielen dabei rein.

So wird AMD ja wie alle anderen auch eben Menge X an Wafern bei TSMC gebucht haben und eine Erhöhung ist eben nicht so einfach möglich bzw. aktuell sicher unmöglich.
Hinzu kommt ja, dass AMD ja nicht nur GPU Chips produzieren lässt bei TSMC (anders als nVidia nur GPUs bei Samsung fertigen lässt [bitte korrigieren falls falsch] und somit seine komplette Bestellung in GPUs auch umsetzen kann), sondern eben auch noch CPUs und SoCs für PS5 und X-Box Series X/S.

Besser wäre es, wenn eben dies alles entzerrt wäre. Wenigstens die GPUs und SoCs der Konsolen nicht zur selben Zeit zu launchen, hätte zumindest etwas Abhilfe geschaffen. Je nachdem was halt zuerst gelaunched wäre, hätte dann eine höhere Verkaufsmenge gebracht.

Intel hat es da mit den eigenen Fabs dahingehend einfacher, da man sich diese nicht mit anderen teilen muss. Auch wenn ein verfrühtes Umstellen auf den neuen Prozess (was ja auch teils Monate dauert), sicher ebenso für Probleme sorgen kann. So wie wir es ja mitbekommen haben.

Antwort Gefällt mir

Klicke zum Ausklappem
M
MoGas

Mitglied

24 Kommentare 13 Likes

Für mich als Gamer stellt sich das in der Realität noch etwas anders da. Mein 9900KS zieht unter Prime95 so bummelig 220 Watt, das stimmt. In Cyberpunk 2077 allerdings nur ca. 90-100 Watt, weil ich da im Grafikkarten-Limit hänge. Und mit Raytracing komme ich da auch so schnell nicht raus, auch die nächste nVidia Generation wird das nicht ändern.

Antwort Gefällt mir

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Richtig, es kommt immer darauf an, was man macht. Je mehr die GPU gefordert ist, desto weniger saugt meistens die CPU. Aber dies ist nicht bei jedem Spiel so, gerade wo viele Dinge berechnet werden müssen, steigt die Last der CPU eben auch wieder an. Ebenso wenn man noch andere Programme im Hintergrund laufen lässt, kann die CPU auch wieder mehr Strom benötigen, da mehr zu berechnen ist.

Ist halt immer ein abwägen was einem wichtiger ist. Wobei halt für die letzten paar % an Leistungsplus eben auch mehr Strom benötigt wird. Gerade Intel erkauft dieses Leistungsplus, in der aktuellen Architektur, halt zum Teil eben mit einem erhöhten Strombedarf.

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

AMD wird voraussichtlich genau die Kapazitäten haben, die sie gemäß Projektplan vorsahen und die Kapazitäten für die Konsolen-SoCs haben sie gar extra hinzugebucht und diese sind unabhängig von ihren "eigenen" Kapazitäten zu betrachten.
Das Problem wird vielmehr sein, dass TSMC voraussichtlich diese gebuchte Menge nicht in der vorgesehenen Art prozessieren können wird, d. h. anstatt 100 % Wafer-Output gemessen an der relativ gebuchten Kapazität wird TSMC vielleicht nur 85 % (?) fertigen können aufgrund von Materiallieferengpässen. Und in der fortschreitenden Fertigungskette verschärft sich das Problem dann zunehmend, da man einerseits weniger belichtete Chips als gewünscht liefern kann, dann werden vielleicht davon ausgehend noch weniger fertige Chips im Packaging erstellt, weil es bei den anderen Dienstleistern auch an Package-Substrat fehlt und kommen die wenigen, fertigen Chips bspw. bei den GPU-Herstellern an, fehlt es hier und da an diversen elektronischen Komponenten und teilweise auch Speichermodulen, sodass nur wenige Karten gefertigt werden können.
Würde es Covid19 und diese industrieweiten Lieferengpässe nicht geben, würde bei AMD voraussichtlich alles "normal" laufen; die fertigen nun einmal deutlich weniger als bspw. Intel und nVidia, was schlicht deren Größe und deren kleinerem Markt zuzuschreiben ist.

AMD scheint bei TSMC aktuell der Fertigung des 7nm-CCDs eine höhere Priorität einzuräumen als den GPUs, schlicht weil die CPUs (insb. mit Blick auf den verspäteten Epyc/Milan) für AMD wichtiger sind als der vergleichsweise kleine GPU-Markt. Und die Konsolen-SoCs haben damit gar nichts zu tun, weil AMD hier nichts shiften kann, da man hier vertraglich gebunden ist, d. h. die gesondert für Sony und Microsoft hinzugebuchten Kapazitäten werden auch entsprechend nur für deren Produkte genutzt.
Und beim Packaging scheint man bemüht zu sein beim Ryzen die "Butter-und-Brot"-CPUs 5600X und 5800X zu priorisieren, schlicht weil die volumentechnisch wichtiger sind und weil man sehen musste, dass man trotz der Krise die CPUs zeitnah in Richtung UVP bekommt, denn andernfalls hätte man ein handfestes Problem i. V. z. Rocket Lake gehabt, denn Intel wird hier mit seiner eigenen Fertigung voraussichtlich etwas besser wegkommen und hätte daher zusätzlich auch noch einen Preisdruck aufbauen können.

Ergänzend zum Gaming: Hier spielt der 14nm-Prozess aufgrund der geringen CPU-Auslastung nur eine untergeordnete Rolle. Igor schrieb nicht umsonst, dass stellenweise ein 5900X im Gaming gar geringfügig mehr als ein 10900K zieht. Und selbst wenn man die (bisherigen) Intel-CPUs deutlich übertaktet, hielt sich der Verbrauch in Grenzen und zumeist gar unterhalb der offiziellen TDP (teilweise gar deutlich). Beispielsweise SotTRaider mit einem 9900K auf 5,0 GHz AllCore läuft gemittelt mit unter 80 W und durch den hohen Takt kann man hier bestmögliche Fps erzielen.
Über den "horrenden Verbrauch" der Intel-CPUs muss man nicht wirklich diskutieren, solange man hier nicht Workloads mit hoher Auslastung betrachtet und die sind zumeist für Consumer (im Marktmittel wohlgemerkt **) nicht relevant.

*) Anmerkung: nVidia fertigt auch bei TSMC und der GA100 wird sicherlich schon ein vergleichsweise hohes Volumen haben, denn die bedienen hier den regulären Beschleunigermarkt quasi alleine. Zudem fertigt man dort auch weiterhin kleinere Turing-Chips und hat voraussichtlich gar die Fertigung des TU106 wieder aufgenommen (?) um den Druck etwas besser kanalisieren zu können.

**) Bevor jetzt wieder einer ums Eck kommt und schreit: "Aber ich rendere mit Blender ..." oder "Ich transkodiere regelmäßig Videos ..." Natürlich gibt es solche Consumer, nur machen die anteilig nur einen kleinen Prozentteil aus und sind daher schlicht kaum relevant und dementsprechend lassen sich davon ausgehend auch keine Pauschalaussagen ableiten. Und wenn die sich sinnvoll eindecken wollen, greifen die halt aktuell zu einer 7nm-Zen-CPU und alle könnten glücklich sein ... gäbe es da nicht diese verrückten (markt)psychologischen Effekte ...

Antwort Gefällt mir

Klicke zum Ausklappem
Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Okay, SoCs also getrennt vom Rest. Wieder was gelernt. Wobei die Priorisierung der CPUs logisch klingt und selbst wenn AMD mehr GPUs produzieren ließe, würden diese ja ebenso eher bei den Minern landen, als in den Stores und bei den Spielern.

Ist alles nicht so einfach und es sind schon sehr viele Dinge die noch immer bremsen.

Wobei ich bei einer Sache nicht ganz zustimmen kann. Es mag sein, dass ein SoTRaider mit einem 9900K nur 80W gemittelt benötigt. Aber das ist halt nur ein Spiel von einer doch recht großen Auswahl und es kommt ja noch dazu, dass von Spiel zu Spiel die Anzahl der genutzten Kerne unterschiedlich ist. Ebenso kommt es ja auch darauf an wieviel berechnet werden muss im Spiel. So ein Strategiespiel wo hunderte gar tausende von NPCs etc. berechnet werden müssen, wird sicher stärker ausgelastet sein, als beim genannten Beispiel von dir und dementsprechend auch mehr Strom für die CPU verbrauchen gemittelt. Und je mehr Kerne ein Spiel auch effektiv nutzt, desto höher eben die Auslastung als auch der Verbrauch.

Deswegen ist es ja auch grundsätzlich wichtig, zu schauen was man eben für Anwendungszwecke hat.

Antwort Gefällt mir

Klicke zum Ausklappem
g
gerTHW84

Veteran

409 Kommentare 248 Likes

Naja, unter Vorbehalt natürlich, denn selbstredend habe ich keine Einsichten in AMDs Projektplanung oder Verträge mit TSMC oder bspw. Sony oder Microsoft. Hier muss man die verfügbaren Puzzelstück zusammensetzen und an der ein oder anderen Stelle mit einer gewissen Skepsis und Unsicherheit lesen und die Lücken mit (markt)wirtschaftlichen Erfahrungswerten füllen.
Dem allgemeinen Vernehmen nach waren AMDs 7nm-Kontingente in 2019 relativ gering und sind jetzt, in 2020 beträchtlich gestiegen, vorrangig aber aufgrund der Anteile, die sie explizit für Sony/Microsoft hinzugebucht haben um die SoCs zu fertigen. Und das diese Kontingente exklusiv sind, resultiert einfach aus der absehbaren Vertragsgestaltung. Die beiden Hersteller werden sich feste Lieferzusagen von AMD haben geben lassen, d. h. AMD ist hier vertraglich gebunden um muss diese Verträge nach besten Kräften erfüllen und diese Bindung ermöglichte es ihnen auch relativ risikofrei diese beträchtlichen, zusätzlichen Kontingente bei TSMC hinzuzubuchen, denn die Abnahme dieser Produkte ist ja schließlich vertraglich zugesichert. (Darüber hiaus gibt es aber natürlich auch bei TSMC Grenzen bzgl. der Kapazitäten und AMD konkurriert hier mit nahezu dem gesamten übrigen Markt um diese, d. h. wie du schon gesagt hast, ist es i. d. R. eher ausgeschlossen, dass man da noch kurzfristig Kapazitäten erhöhen kann, wenn sich den markttechnisch kurzfristig eine Gelegenheit ergäbe.)

Gaming: Natürlich gibt es da Schwankungen und die drücken sich auch in Watt aus, aber hier gibt es kein Game, das selbst im (regulären ;)) OC 150 W auf einer Intel-CPU zieht, was schlicht an der geringen Auslastrung liegt, die GameEngines an den Tag legen, was wiederum daran liegt, das ein nennenswerter Teil des Workloads auf der GPU liegt.
Und bzgl. Physik und Co wärst du vermutlich überrascht, aber deren Anteil an der CPU-seitigen Rechenlast einer GameEngine liegt i. d. R. im niedrigen, zweistelligen Prozentbereich. (Infos von einige Engine-TechTalks, wobei es natürlich auch hier Schwankungen gibt, aber die Hauptlast liegt hier klar in anderen Bereichen der Engine.)

Übrigens bzgl. der Kernzahlen: GameEngines nutzen hier überschaubar wenig und werden sich absehbar nur sehr langsam steigern, schlicht weil hier die Konsolen schon wieder beschränkend wirken werden. Sieht man sich bspw. einen aktuellen Titel auf einem 5900X oder gar 5950X an, dann langweilt sich die CPU regelrecht. Die CPU-seitigen Fps-Limitierungen treten lediglich dadurch auf, dass die hauptsächlichen Primärthreads nicht schnell genug abgearbeitet werden können, weil bei um die 5 GHz herum aktuell das Ende erreicht ist (und die neuen Konsolen limitieren das gar auch im besten Fall 3,8 GHz).
Es hatte durchaus seinen Grund, dass AMD damals die Kernzahl mit Zen in 2017 erhöhte und nicht etwa schon zuvor Intel, denn effektiv gab es schlicht keinen echten Bedarf im Consumer-Markt dafür. *) AMD musste damals 8 Kerne als vertriebstechnisch/absatzförderndes Argument bringen, nicht etwa weil der Markt das dringend benötigte und man musste diese Maßnahme gar noch mit einem niedrigenren Preis flankieren. Mit dem Ende der Altkonsolen-Generation kann nun der nächste Schritt bzgl. Parallelisierung eingeläutet werden, aber der ist ebenso schon wieder klar beschränkt. Und mit den beträchtlich gesteigerten Leistungsreservern der Konsolen ist es zudem heute gar noch wahrscheinlicher, dass die Konsolen weitaus mehr Berücksichtigung (als zusätzlicher Absatzmarkt) finden werden, als noch die Last-Gen, d. h. das Limit für Computerspiele darf man im Mittel als durchaus "bindend" ansehen. Die Ressourcen eines 12- oder 16-Kerners werden auch absehbar in den nächste Jahren nur für optionales Grafik-BlinkBlink genutzt werden aber keinesfalls fester bestandteil der GameMechanik werden, denn würde man bereits das Leistungsäquivalent eines sehr schnellen 8-Kerners als Grundvoraussetzung annehmen, müsste man sich vom Konolenmarkt direkt verabschieden und der wird in einigen Jahren auch wieder Millionen von Geräten/Kunden umfassen. (Sony und Microsoft haben ja schon im letzten Jahr gut 8 Mio. Konsolen abgesetzt trotz der Krise.)

*) Mal ausgenommen von Prod.-Workloads natürlich. / Entsprechend unsinnig sind auch immer solche gernzitierten Aussagen wie "Ohne AMD würden 'wir' heute noch auf 4 Kernen festsitzen", aber das ist letzten Endes ein anderes Thema. ;)

**) Beispielsweise die Cry-Engine ist ein "Negativbeispiel", das sehr stark durch den Main-Thread limitiert wird.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

11,917 Kommentare 2,334 Likes

Da ändert sich dennoch nix dran das die Intel auch in Spiel zum größten Teil Stromfresser sind.

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

Du hast recht, auch das Video ändert nichts an den Gegebenheiten bzgl. dem Gaming, wenn man mit derart polarisierenden Begriffen um sich wirft.
Vielleicht solltest du dir mal anschauen, was du da verlinkst: (Fps als 1 Percentile)

  • RDR2: 5800X 80W, 105 Fps, 10700K 96 W, 106 Fps
  • Cyperpunk: 5800X 74 W, 66 Fps, 10700K 102 W, 86 Fps
  • Death Stranding: 5800X 74 W, 155 Fps, 10700K 99 W, 159 Fps
  • BF5: 5800X 83 W, 126 Fps, 10700K 111 W, 150 Fps
  • Rainbow Six: 5800X 81 W, 392 Fps, 10700K 94 W, 348 Fps
  • Mafia DefEd: 5800X 66W, 95 Fps, 10700K 79 W, 111 Fps
  • Flight Sim: 5800X 59 W, 40 Fps, 10700K 66 W, 46 Fps

Der Mehrverbrauch ist offensichtlich und den bestreitet auch niemand, den "Stromfresser" kann man sich hier zweifellos ersparen, denn die Unterschiede sind nicht groß. Wer hier tatächlich Wert darauf legt "grün" unterwegs zu sein, wird sich eine deutlich genügsamere GPU einbauen oder sich gar mit einer iGPU zufrieden geben und vielleicht mal seinen Monitor aktualisieren.
Bei massivparallelen Productivity-Wokloads ist die Sachlage eindeutig, im Gaming dagegen war Intel bis vor kurzem immer noch eine vollkommen legitime (und abseits des Preises gar die bessere) Wahl. Mit Zen3 kann AMD nun erstmals (nach immerhin 4 oder gar 8 Jahren, je nachdem wie man zählen will) ein klein wenig davonziehen.

Den größten Vorteil kann AMD seit Zen2 mit der Kernskalierung für sich verbuchen, die zum Großteil auf TSMC und der Verwendung des 7nm-Prozesses zurückzuführen ist, nur bedarf dies auch entsprechender Workloads und da gehört der Großteil der Consumer-Workloads nach wie vor nicht dazu (insbesondere nicht das Gaming) und so, wie es sich bisher in der Vergangenheit abzeichnete, wird sich daran im Consumer-Markt auch in den nächten Jahren absehbar nichts ändern. Die gemittelten Kernzahlen werden nur langsam steigen und es wird noch sehr viele Jahre dauern, bis bspw. 16-Kerner zum Mainstream werden (der aktuell eher bei 6 bis 8 Kernen liegt). Interessanterweise wird AMD mit Zen4 möglicherweise auch das größte Ryzen-Modell kerntechnisch aufwerten, voraussichtlich schlicht, weil man ein neues Halo-Produkt braucht, denn 16-Kerner sind mittlerweile schon ein "alter Hut", aber ein 20- oder gar 24-Kerner wird umso mehr nur eine sehr kleine Nische bedienen und wird abermals mehr ein vertriebstechnisches Argument sein. Über das Modell werden sich einige wenige Con/prosumer zweifellos sehr freuen können, den Großteil des Consumer-Marktes wird eine solche CPU jedoch ebensowenig interessieren wie auktuell bspw. der 16-Kerner.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

11,917 Kommentare 2,334 Likes

Stromfresser ist noch ein Begriff aus der Bulldozer Zeit.....heute ist es anders rum,warum darf man es also Heut nicht mehr Verwenden?!

Antwort Gefällt mir

Dark_Knight

Urgestein

1,008 Kommentare 380 Likes

Naja auf der anderen Seite kann man aber trotzdem schon sagen, wenn Intel früher die Kernzahl erhöht hätte anstatt über mehrere Generationen bei 4 Kernen im Consumer Markt zu verharren, hätten sicher schon Eher Entwickler ihre Spiele/Programme angepasst um die erhöhte Kernzahl zu nutzen. Aber das ist wieder so ein Henne Ei Problem. ;)

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

"Stromfresser": Ist halt immer die Frage wie man Sprache verwendet und mit welcher Intention man im konkreten Fall unterwegs ist, denn das hat natürlich auch Einfluss auf die Formulierungsweise und Begriffswahl. Ich für meinen Teil würde diesen Begriff im Kontext Gaming jedenfalls vermeiden.
Bei Productivity-Workloads würde ich in dem Falle jedoch ohne Zweifel auch leicht zu diesem greifen, denn hier sind die Unterschiede einfach eklatant, was schlicht in der Natur der Sache begründet ist (7nm ggü. 14nm).

"Henne-Ei": Im Wesentlichen wirkte auch hier die Alt-Konsolen-Gen als limitierender Faktor, die bestenfalls das Äquivalent eines mäßig schnellen Intel-4-Kerners hatte (2016/17) und zweifellos schon nicht mehr mit den schnelleren Topmodellen mitkam. Selbst wenn es Zen nicht gegeben hätte, hätte Intel absehbar die Kernzahl dennoch erhöht, denn die Steigerungsmöglichkeiten rein architekturbedingt sind natürlich deutlich beschränkter, wie man auch heute bei beiden Herstellern sieht.
Unterm Strich darf man aber durchaus gespannt sein auf erste Titel, die die neuen Konsolen und ihre Zen2/3,8GHz-Kerne vollständig auslasten werden und insbesondere die Kompatibilität mit den Alt-Konsolen und langsameren PCs fallen lassen werden, denn da könnte man so einiges an den GameMechnaiken erweitern. Das Problem ist, dass das jedoch wohl noch einige Zeit dauern wird, denn die Alt-Konsolen wird man nur schrittweise "absägen" und auf den PCs ist man ebenfalls noch längst nicht so weit.
Die aktuelle Steam-Statistik weist gerade mal ~ 13,5 % der Systeme mit 8+ CPU-Kernen aus. Und falls man jetzt meint, dass das an den Laptops liegt, nein, tut es nicht, denn in den GPU-Statistiken haben GPUs in Form von PCIe-Karten einen Anteil von > 70 %. Ergänzend dazu sehen auch die MF-Zahlen aus, denn hier werden nur innerhalb der abgesetzten AMD-CPUs mehr CPUs <= 6 Kerne als 8-Kerner verkauft und der Anteil der höherkernigen CPUs ist relativ gering, d. h. bei den aktuellen Verkäufen bei MF, bei denen tendenziell gar eher computeraffine Nutzer unterwegs sein werden, wird noch grob ein Anteil von um die 50 % AMD-CPUs mit <= 6 Kernen verkauft. Der Markt insgesamt sieht also keinen übermäßigen Bedarf für sehr hohe Kernzahlen.
Engt man seinen Blick auf die Enthusiast-Gamer ein (wo fängt der Bereich an?), dann werden diese tendenziell eher zu etwas höherkernigen CPUs greifen, aber auch hier geht es nur in sehr wenigen Fällen über 10 bzw. 12 Kerne hinaus. Übrigens 10-Kerner haben auf Steam in den letzten Monaten mit dem Preisverfall signifikant zugelegt in der Statistik (was dahingehend interessant ist, weil man das unmittelnbar auf Comet Lake zurückführen kann, da AMD keine 10-Kerner anbietet). Beispielsweise in Steam:
Mai 2020 vs. Feb. 2021

  • 6 C : 22,1 % => 28,8 %
  • 8 C : 7,0 % => 12,0 %
  • 10 C : 0,08 % => 0,47 %
  • 12 C : 0,37 % => 0,86 %
  • 16 C : 0,10 % => 0,20 %

Konkret bewegen wir uns also gerade erst mal in die Richtung, dass so langsam 6 bis 8 Kerne zum Mainstream werden. Das Viertel der 6-Kerner könnte man zumindest schon eher als eine Art Mainstream ansehen als die 8-Kerner, die zweifelsfrei noch längst keinen Mainstream darstellen. Hierbei ist halt immer zu unterscheiden zwischen dem, was kaufbar ist und dem was tatsächlich im Markt vorliegt bzw. genutzt wird, ein Punkt, den viele (Fans) immer gerne durcheinanderbringen oder gar wissentlich ignorieren (nicht auf dich bezogen).

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Es gab mal vor wirklich vielen Jahren einen Artikel zu dem Thema, wie viele Kerne im Schnitt von Spielen bzw in Spielen genutzt werden. Das Ergebnis war - soweit ich mich richtig erinnere - bei 2 1/2. Nun mag Igor wissen, wie lange das schon her ist, vielleicht hat er den sogar selber geschrieben, weiß ich nicht mehr, jedenfalls entsprach das Ergebnis nicht unbedingt den Erwartungen. Zu dem Zeitpunkt präferierten viele noch hoch taktende CPUs mit 2 Kernen /Core 2 Duo E8400, sowas) und denen wurde so klargemacht, dass sich die Dinge allmählich Richtung Quads verschieben, soweit ich das noch richtig im Kopf habe. Wenn man dann noch bedenkt, wie lange selbst ein 2500K von 2011 gereicht hat als Spiele-CPU, dann habe ich so meine Zweifel an der Theorie, dass mehr Kerne mehr oder weniger erzwungen waren, zumal es die ja auch gab, allerdings nur für die teureren Sockel, zB 1366. Und die wurden eher 'produktiv' genutzt.

Antwort Gefällt mir

Casi030

Urgestein

11,917 Kommentare 2,334 Likes

Liegt aber immer noch alles an Intels Monopol.
OS,Compiller,Programme,Spiele wurden Jahrzehnte auf Intel Optimiert,im Grunde sogar bis Ryzen erschienen ist.
Es gab mal nen Test FX 3xxx vs i7 3770.
Im Spiel war der i7 schneller.
Im Spiel + Anwendung..... und der FX 3xxx brachte auf einmal mehr FPS und der i7 ist total eingebrochen.
BF4 lief in der Anfangszeit auf allen Kernen selbst mit dem FX 3xxx @ 2,8GHz schneller als ein i7 3770.
Nach dem Extremen Aufschrei wurde die Kernaufteilung zurück genommen und die AMD wurden auf einmal immer langsamer damit Intel wieder Deutlich schneller war.
Mehr Kerne wären schon vor 10 Jahren kein Problem gewesen in vielen Spielen und Anwendungen,man darf sich dafür also bei Intel bedanken für diese Bescheidene Lage.

Antwort Gefällt mir

Martin Gut

Urgestein

7,731 Kommentare 3,545 Likes

Das hat einen ganz anderen Grund. Seit gut 10 Jahren ist jedem Programmierer klar, dass die Entwicklung in Richtung mehr Kerne geht, aber die Leistung pro Kern keine grossen Sprünge mehr macht. Für ein Game hat man somit genug Leistung zur Verfügung, wenn es alle Kerne nutzen kann.

Dass sich die Games trotzdem nur langsam in Richtung Multicore entwickeln hat den einfachen Grund, dass der Aufwand zur Programmierung grösser ist als man denkt. Erst braucht man eine Programmierumgebung, die dafür ausgelegt ist. Dann muss man die ganze Programmstruktur so aufbauen, dass einzelne Prozesse unabhängig abreiten können. Dazu braucht es definierte Schnittstellen zwischen den Prozessen und Datenstrukturen für die Übergabe an andere Prozesse. Dann braucht es eine Koordinierung aller Abläufe. Das lässt sich nicht einfach noch schnell zu einem Programm dazu fügen.

Eine Softwarefirma interessiert das relativ wenig, ob Intel oder AMD nun gerade etwas mehr oder weniger Kerne auf die eine oder andere CPU packen. Viel wichtiger ist, wie hoch man den zusätzlichen Ausbildungs- und Programmieraufwand einschätzt und ob man die nötigen Programmierer zur Verfügung hat oder anstellen kann. Somit ist es auch eine Kostenfrage, ob man für ein etwas schneller laufendes Programm so viel investieren möchte oder ob man lieber in neue Features investiert, die man gut vermarkten kann.

Antwort Gefällt mir

Klicke zum Ausklappem
g
gerTHW84

Veteran

409 Kommentare 248 Likes

a) Das auf Intel optimiert wurde ist vollkommen natürlich, rational und wirtschaftlich, denn der Großteil der CPUs basierte nun einmal auf Intel-Produkten. Daran ist nichts verwerflich und Entwickler wären dumm gewesen, wenn sie ihre Ressourcen nicht entsprechend ausgerichtet hätten. Wenn ich als Entwickler 1000 Arbeitsstunden für Optimierungen habe, werde ich den Großteil davon natürlich dort aufwenden, wo sie am meisten bringen und das zielt natürlich auf die bedeutendere, im Markt deutlich verbreitetere Architektur ab.

b) Die "FX 3xxx"-Geschichte solltes du mal aufbereiten und mit Quellen ausstatten und auch mal die CPU bestimmen, denn bspw. zu dieser Bezeichnung kann ich mir vorerst nichts zusammenreimen. Andernfalls bleibt es eher eine Anekdote mit fragwürdigem Inhalt. Zudem die von dir gewählte Formulierung "der FX 3xxx brachte auf einmal mehr FPS und der i7 ist total eingebrochen" ist bereits merkwürdig. Wenn die Intel-CPU "eingebrochen" ist, heißt das nun, dass der FX "schneller wurde", weil man die Intel-CPU absichtlich verkrüppelt hatte? Warum sollte letztere "einbrechen", also gar langsamer als zuvor sein und war der FX im Endzustand überhaupt schneller als es die Intel-CPU im Ausgangszustand war? Wie gesagt, in der Form nicht nachvollziehbar. *)
Darüber hinaus aber kam bspw. ein FX-8350 (2nd Gen CMT alias Piledriver) nicht mit einem i7-3770K mit, der zudem gar noch mit weniger Takt lief und deutlich effizienter war.
Um mal AnandTech zum Piledriver-Launch zu zitieren: "Last year's launch of AMD's FX processors was honestly disappointing. The Bulldozer CPU cores that were bundled into each Zambezi chip were hardly power efficient and in many areas couldn't significantly outperform AMD's previous generation platform. Look beyond the direct AMD comparison and the situation looked even worse." (Selbst für den Cinebench reichte es nicht trotz leicht höherem Takt im Vergleich zwischen FX-8350 und i7-3770K.) **)

c) Mehr Kerne waren schon immer "kein Problem", das ist schlicht eine Frage der Wirtschaftlichkeit, denn am Ende will das alles bezahlt werden und bspw. AMD hat sich Anfang des letzten Jahrzehnts nicht umsonst für dieses CMT-Sparbrötchen entschieden und damit dem Markt echte 8-Kerner vorenthalten, auch schlicht aus wirtschaftlichen Gründen heraus, also gibt es hier keinen Grund Intel an den Pranger zu stellen. Der Markt insgesamt war für derartige Kernzahlen im Consumer-Segment schlicht noch nicht bereit und AMD hätte per se nichts anderes bringen können, denn sie waren mit ihren 32 nm auch so schon deutlich unterlegen. Letzten Endes könnte man, wenn man es in gleichwertig simplifizierender Sichtweise provokativ zurückspielen will, auch alternativ schlicht AMDs Unfähigkeit zuschreiben, einen ernstzunehmenden Konkurrenten im CPU-Markt darzustellen. Die haben halt noch ein ganzes Jahrzehnt gebraucht, bis man wieder etwas mit ihnen anfangen konnte. [Ironie aus].

*) Unabhängig davon gab es, wie grundsätzlich in der SW-Welt natürlich einige Games, die etwas besser und andere die schlechter (bis teilweise deutlich schlechter) auf Bulldozer & Co performten, jedoch im Mittel war das klar schlechter und nur das ist das, was am Ende zählt. AMD hat es über die Jahre an vielen Stellen verschlafen auf dem SW-Stack mitzuziehen oder gar vorauszuarbeiten, bzw. grundsätzlich diesem die nötige Aufmerksamkeit zu schenken, teilweise aus Mangel an Ressourcen, teilweise aber auch sicherlich schlicht als Versäumnis, denn die umfangreichen SW-Arbeiten von Intel sind auch nicht magisch vom Baum gefallen und waren einfach da und ebensowenig die von nVidia. Auch hier hat man ein CUDA-Äquivalent vollkommen verschlafen und kommt nun seit gut einem Jahrzehnt nicht mehr im professionellen Segment gegen nVidia an und muss immer über die Preisschiene fahren. Man kann den anderen hier natürlich pauschalisierend immer unlauteren Wettbewerb unterstellen und AMD als Unschuldslamm darstellen, aber das wird zweifellos nicht die ganze/wahre Geschichte sein.

**) Heute dagegen (wohlgemerkt heute, denn mit Zen2 konnte man vorrangig nur bei der Auslastung aller Kerne deutlich punkten) ist die Situation umgekehrt, jedoch ist diese hier auch etwas anders gelagert, den architektonisch ist Intel weiterhin am Ball geblieben, wird/wurde jedoch durch seine Fertigungsproblematik ausgebremst, was mittelfristig bedeutet, dass das Pendel hier auch leicht wieder zurückschwingen kann x) und wenn Intel gar tatsächlich gebrauch von TSMCs Kapazitäten macht, wird sich das Fertigungsthema bald auch so oder so grundsätzlich erledigt haben, d. h. es wird in Zukunft wieder deutlich interessanter werden (entweder mit TSMCs 5nm oder Intel's eigenen 7nm).

x) Btw, bevor ich jetzt wieder in eine Ecke gestellt werde: Ob und wann das Pendel vielleicht zurückschwingt, ist mir vollkommen egal, da ich hier lediglich den Marktbeobachter mime und mich um Objektivität bemühe. Wenn bei mir eine konkrete Kaufsituation ansteht, wird das gekauft, was zu dem jeweiligen Zeitpunkt meinen (gewichteten) Anforderungen am ehesten gerecht wird und da ist es mir reichlich egal welches Brand da drauf steht, denn der Schriftzug verschwindet eh nach den Einbau in einem geschlossenen Gehäuse und interessiert mich nicht mehr (solange alles wie gewünscht funktioniert und man nachfolgend auch nicht durch fehlende Updates etc. "behindert" wird).

Antwort 1 Like

Klicke zum Ausklappem
Casi030

Urgestein

11,917 Kommentare 2,334 Likes

Finde mal 10 Jahre alte Testberichte wieder......
AnandTech ist doch eine der Intel Seiten wenn ich mich recht erinnere.....
Absichtliche Manipulation seitens Intel ist aber nicht Legitim.....

Hier kannst viel von mir lesen.

Hmmm die 2,8GHz hab ich jetzt nicht gefunden,nur mit 2,3GHz,könnt auch BF3 gewesen sein........

Antwort Gefällt mir

Klicke zum Ausklappem
g
gerTHW84

Veteran

409 Kommentare 248 Likes

Eine sehr schwache Begründung, wenn das das einzige Argument sein soll. Und zum allg. Tenor vor 10 Jahren habe ich da nichts mehr im Hinterkopf zu dieser Seite, sondern müsste erst mal aufwändig querlesen, in den letzten Jahre ist es dagegen m. M. n. eher eine recht neutrale Seite, denn die kritisieren oftmals und gerne, wo es angebracht ist und da bekommt Intel regelmäßig sein Portion ab.
Die Bewertung von Bulldozer & Co ist aber vollkommen unabhängig von diesem einen Zitat recht ähnlich über die Presse verteilt:
TomsHardware: "Last year, AMD launched its Bulldozer architecture to disappointed enthusiasts who were hoping to see the company rise to its former glory. Today, we get an FX processor based on the Piledriver update. Does it give power users something to celebrate? ... Would FX-8350 be my first choice in a new build, though? Probably not. Although I’m impressed by the work AMD’s architects have done in the last year, performance remains too workload-dependent. And, inexpensive energy aside, I’m going to go with the more efficient implementation when all else is close to equal."
Und AMD hat ja auch nicht ohne Grund dann recht schnell den Stecker aus dieser fehlgeleiteten Entwicklung gezogen. Den Höhepunkt erreichte man mit dem FX-9590 Mitte 2014 mit bis zu 5 GHz mit offiziellen 220 W TDP und der unterlag dennoch zumeist einem i7-4770K mit nur 4 Kernen (selbst im Cinebench und auf den Verbrauch schaute man dann besser nicht). Danach überbrückte AMD die folgenden Jahre mit "APU-Designs" mit und ohne iGPU, schlicht weil man abgehängt war (und zu allem Ungemach kam anscheinend auch noch Globalfoundries nicht mehr wirklich mit bzw. hinterher).

Nachtrag zum Link: Mit solchen Problemen sieht sich ein Quasi-Monopolist grundsätzlich immer konfrontiert. Das ist nichts Ungewöhnliches und man kann schlecht von einer Firma erwarten, dass die, um nicht noch mehr Makrtanteile zu gewinnen, an so mancher Stelle gar bewusst zu ihrem Nachteil handelt. Und wie auch schon am Marketing zu sehen, verhalten sich solche Firmen in vergleichbaren Situationen grundsätzlich ähnlich, was schlicht in der (makt)wirtschaftlichen Mechanik begründet liegt.
Darüber hinaus, nur als Randnotiz: Die dort zitierte Strafzahlung aus dem EU-Verfahren wurde vom EuGH aufgehoben, d. h. die rund 1 Mrd. Strafzahlung sind für nichtig erklärt worden. Die Begründung war hier, dass das Verfahren nicht darlegen konnte, dass die Maßnahmen eine signifikante Wettbewerbsverzerrung herbeiführten.
Darüber hinaus mussten Größen wie Goole/Alphabet, Facebook, Apple in den letzten Jahren weitaus größere Summen zahlen, während es hier um Intel auffallend still wurde und zuletzt wurde AMD wegen unlauterem Wettbewerb bzgl. Bulldozer & Co verklagt und entging einem drohendem (und absehbar deutlich teueren) Urteil durch einen Vergleich.
Als nette Anekdote: AMD-Fans müssten Intel zumindest zum Teil gar dankbar sein, denn ohne die gäbe es AMD heute möglicherweise schon gar nicht mehr, denn das regelmäßig zwischen den beiden Firmen erneuerte Cross-Lizenz-Abkommen sieht im Falle eines Eigentümerwechsels vor, dass dieses erlischt, d. h. ein Aufkauf von AMD, insbesondere Mitte des letzten Jahrzehnts (was bspw. ein Apple mal eben aus der Portokasse bezahlt hätte), wäre wenig zielführend gewesen, da man danach ein komplett neues Lizenzabkommen mit Intel hätte aushandel müssen und hierbei hätte man sich absehbar auf unschöne Verhandelungen einstellen dürfen, denn warum sollte Intel hier übermäßiges Entgegenkommen zeigen.
Btw., das ist hier nicht als Rechtfertigung für fragwürdiges Verhalten zu verstehen (über mehr brauchen wir uns nicht zu unterhalten, da das die Strafgesetzbücher und Gerichte bereits behandeln), aber ein Quasi-Monopolist zu sein hat nicht nur Vorteile, alleine schon was das Thema Aufmerksamkeit angeht (und das AMD in einer vergleichbaren Situation nicht ähnlich handeln würde ist bisher nur der verklärte Traum von Fans, die viel zu sehr dazu neigen einem milliargenschweren Konzernen fragwürdige Attrubute zuzuordnen).

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung