News Intels offizielle Folien bescheinigen dem Core i9-11900K bis zu 14% Vorsprung gegenüber dem Core i9-10900K im Gaming, Lineup bestätigt

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Die offiziellen Folien zu Intels Intel Rocket Lake, also der 11. Generation der Desktop-CPU-Familie wurden geleakt und gleichzeitig auch die Spezifikationen und das Lineup bestätigt, dass ich ja bereits vor einigen Tagen ebenfalls veröffentlicht habe. Diese neuen Folien sollen das Gaming-Potenzial der Core-i9-CPU im Vergleich zum Flaggschiff der letzten Generation zeigen. laut Intel ist der […]

Hier den ganzen Artikel lesen
 
So zu sagen hat Intel die Wahl gehabt, entweder wir opfern 2 Kerne/4Threads um mehr Leistung zu bekommen für den selben Energieaufwand. Oder man opfert keine 2 Kerne/4Threads und die CPU genehmigt sich sogar 275-300W wenn sie voll ausgenutzt wird.

An sich bin ich beeindruckt, dass Intel noch immer noch etwas mehr aus der Architektur quetschen kann an Leistung durch eben noch weitere Optimierung. Auch wenn dies halt dann dadurch geschieht, dass die CPU säuft wie ein Loch, wenn man sie lässt, so bleibt es doch interessant zu sehen.
Für reine Gamer, die Leistung wollen, egal was es kostet an Strom, sicher noch immer interessant. Für alle anderen, die mehr machen wie reines Gaming und eben auch teils produktiv damit arbeiten, eher weiterhin keine Alternative.

Man kann nur hoffen, dass dies wirklich endlich der letzte Desktop CPU Launch ist von Intel in 14nm.
 
Danke Igor! Hast Du uU Informationen (die Du auch teilen darfst) um wie viel größer die neuen Kerne (in mm2) sind vs. die von Comet Lake? Und wie viel größer (Fläche) ist der Rocket Lake i9 verglichen mit dem 10 Kern Comet Lake? Hat Intel hier einfach auch mehr Oberfläche pro Kern eingeräumt damit sich die Hitze noch einigermaßen abführen lässt?
Und, leider, leider hat AMD sich wohl bei der Kapazitätsplanung wohl vertan, und lässt jetzt viel Absatz stehen. Schade eigentlich!
 
Da die Kapazitäten sicher schon teils 1 Jahr oder möglicherweise sogar noch früher gebucht werden müssen und sicher auch keiner mit einer dermaßen riesigen Nachfrage hat rechnen können. Plus dass es ebenso schwierig ist voraus zu sagen ob der Konkurrent seine Produkte nicht so entwickelt bekommt bzw. Produktionstechnisch verschätzt (Mengenmäßig). Auch Engpässe bei den Materialien bzw. bei den Teilen spielen dabei rein.

So wird AMD ja wie alle anderen auch eben Menge X an Wafern bei TSMC gebucht haben und eine Erhöhung ist eben nicht so einfach möglich bzw. aktuell sicher unmöglich.
Hinzu kommt ja, dass AMD ja nicht nur GPU Chips produzieren lässt bei TSMC (anders als nVidia nur GPUs bei Samsung fertigen lässt [bitte korrigieren falls falsch] und somit seine komplette Bestellung in GPUs auch umsetzen kann), sondern eben auch noch CPUs und SoCs für PS5 und X-Box Series X/S.

Besser wäre es, wenn eben dies alles entzerrt wäre. Wenigstens die GPUs und SoCs der Konsolen nicht zur selben Zeit zu launchen, hätte zumindest etwas Abhilfe geschaffen. Je nachdem was halt zuerst gelaunched wäre, hätte dann eine höhere Verkaufsmenge gebracht.

Intel hat es da mit den eigenen Fabs dahingehend einfacher, da man sich diese nicht mit anderen teilen muss. Auch wenn ein verfrühtes Umstellen auf den neuen Prozess (was ja auch teils Monate dauert), sicher ebenso für Probleme sorgen kann. So wie wir es ja mitbekommen haben.
 
Für reine Gamer, die Leistung wollen, egal was es kostet an Strom, sicher noch immer interessant. Für alle anderen, die mehr machen wie reines Gaming und eben auch teils produktiv damit arbeiten, eher weiterhin keine Alternative.

Für mich als Gamer stellt sich das in der Realität noch etwas anders da. Mein 9900KS zieht unter Prime95 so bummelig 220 Watt, das stimmt. In Cyberpunk 2077 allerdings nur ca. 90-100 Watt, weil ich da im Grafikkarten-Limit hänge. Und mit Raytracing komme ich da auch so schnell nicht raus, auch die nächste nVidia Generation wird das nicht ändern.
 
Richtig, es kommt immer darauf an, was man macht. Je mehr die GPU gefordert ist, desto weniger saugt meistens die CPU. Aber dies ist nicht bei jedem Spiel so, gerade wo viele Dinge berechnet werden müssen, steigt die Last der CPU eben auch wieder an. Ebenso wenn man noch andere Programme im Hintergrund laufen lässt, kann die CPU auch wieder mehr Strom benötigen, da mehr zu berechnen ist.

Ist halt immer ein abwägen was einem wichtiger ist. Wobei halt für die letzten paar % an Leistungsplus eben auch mehr Strom benötigt wird. Gerade Intel erkauft dieses Leistungsplus, in der aktuellen Architektur, halt zum Teil eben mit einem erhöhten Strombedarf.
 
[....] So wird AMD ja wie alle anderen auch eben Menge X an Wafern bei TSMC gebucht haben und eine Erhöhung ist eben nicht so einfach möglich bzw. aktuell sicher unmöglich.
Hinzu kommt ja, dass AMD ja nicht nur GPU Chips produzieren lässt bei TSMC (anders als nVidia nur GPUs bei Samsung fertigen lässt [bitte korrigieren falls falsch] und somit seine komplette Bestellung in GPUs auch umsetzen kann), sondern eben auch noch CPUs und SoCs für PS5 und X-Box Series X/S. [...]
AMD wird voraussichtlich genau die Kapazitäten haben, die sie gemäß Projektplan vorsahen und die Kapazitäten für die Konsolen-SoCs haben sie gar extra hinzugebucht und diese sind unabhängig von ihren "eigenen" Kapazitäten zu betrachten.
Das Problem wird vielmehr sein, dass TSMC voraussichtlich diese gebuchte Menge nicht in der vorgesehenen Art prozessieren können wird, d. h. anstatt 100 % Wafer-Output gemessen an der relativ gebuchten Kapazität wird TSMC vielleicht nur 85 % (?) fertigen können aufgrund von Materiallieferengpässen. Und in der fortschreitenden Fertigungskette verschärft sich das Problem dann zunehmend, da man einerseits weniger belichtete Chips als gewünscht liefern kann, dann werden vielleicht davon ausgehend noch weniger fertige Chips im Packaging erstellt, weil es bei den anderen Dienstleistern auch an Package-Substrat fehlt und kommen die wenigen, fertigen Chips bspw. bei den GPU-Herstellern an, fehlt es hier und da an diversen elektronischen Komponenten und teilweise auch Speichermodulen, sodass nur wenige Karten gefertigt werden können.
Würde es Covid19 und diese industrieweiten Lieferengpässe nicht geben, würde bei AMD voraussichtlich alles "normal" laufen; die fertigen nun einmal deutlich weniger als bspw. Intel und nVidia, was schlicht deren Größe und deren kleinerem Markt zuzuschreiben ist.

AMD scheint bei TSMC aktuell der Fertigung des 7nm-CCDs eine höhere Priorität einzuräumen als den GPUs, schlicht weil die CPUs (insb. mit Blick auf den verspäteten Epyc/Milan) für AMD wichtiger sind als der vergleichsweise kleine GPU-Markt. Und die Konsolen-SoCs haben damit gar nichts zu tun, weil AMD hier nichts shiften kann, da man hier vertraglich gebunden ist, d. h. die gesondert für Sony und Microsoft hinzugebuchten Kapazitäten werden auch entsprechend nur für deren Produkte genutzt.
Und beim Packaging scheint man bemüht zu sein beim Ryzen die "Butter-und-Brot"-CPUs 5600X und 5800X zu priorisieren, schlicht weil die volumentechnisch wichtiger sind und weil man sehen musste, dass man trotz der Krise die CPUs zeitnah in Richtung UVP bekommt, denn andernfalls hätte man ein handfestes Problem i. V. z. Rocket Lake gehabt, denn Intel wird hier mit seiner eigenen Fertigung voraussichtlich etwas besser wegkommen und hätte daher zusätzlich auch noch einen Preisdruck aufbauen können.

Ergänzend zum Gaming: Hier spielt der 14nm-Prozess aufgrund der geringen CPU-Auslastung nur eine untergeordnete Rolle. Igor schrieb nicht umsonst, dass stellenweise ein 5900X im Gaming gar geringfügig mehr als ein 10900K zieht. Und selbst wenn man die (bisherigen) Intel-CPUs deutlich übertaktet, hielt sich der Verbrauch in Grenzen und zumeist gar unterhalb der offiziellen TDP (teilweise gar deutlich). Beispielsweise SotTRaider mit einem 9900K auf 5,0 GHz AllCore läuft gemittelt mit unter 80 W und durch den hohen Takt kann man hier bestmögliche Fps erzielen.
Über den "horrenden Verbrauch" der Intel-CPUs muss man nicht wirklich diskutieren, solange man hier nicht Workloads mit hoher Auslastung betrachtet und die sind zumeist für Consumer (im Marktmittel wohlgemerkt **) nicht relevant.

*) Anmerkung: nVidia fertigt auch bei TSMC und der GA100 wird sicherlich schon ein vergleichsweise hohes Volumen haben, denn die bedienen hier den regulären Beschleunigermarkt quasi alleine. Zudem fertigt man dort auch weiterhin kleinere Turing-Chips und hat voraussichtlich gar die Fertigung des TU106 wieder aufgenommen (?) um den Druck etwas besser kanalisieren zu können.

**) Bevor jetzt wieder einer ums Eck kommt und schreit: "Aber ich rendere mit Blender ..." oder "Ich transkodiere regelmäßig Videos ..." Natürlich gibt es solche Consumer, nur machen die anteilig nur einen kleinen Prozentteil aus und sind daher schlicht kaum relevant und dementsprechend lassen sich davon ausgehend auch keine Pauschalaussagen ableiten. Und wenn die sich sinnvoll eindecken wollen, greifen die halt aktuell zu einer 7nm-Zen-CPU und alle könnten glücklich sein ... gäbe es da nicht diese verrückten (markt)psychologischen Effekte ...
 
Zuletzt bearbeitet :
Okay, SoCs also getrennt vom Rest. Wieder was gelernt. Wobei die Priorisierung der CPUs logisch klingt und selbst wenn AMD mehr GPUs produzieren ließe, würden diese ja ebenso eher bei den Minern landen, als in den Stores und bei den Spielern.

Ist alles nicht so einfach und es sind schon sehr viele Dinge die noch immer bremsen.

Wobei ich bei einer Sache nicht ganz zustimmen kann. Es mag sein, dass ein SoTRaider mit einem 9900K nur 80W gemittelt benötigt. Aber das ist halt nur ein Spiel von einer doch recht großen Auswahl und es kommt ja noch dazu, dass von Spiel zu Spiel die Anzahl der genutzten Kerne unterschiedlich ist. Ebenso kommt es ja auch darauf an wieviel berechnet werden muss im Spiel. So ein Strategiespiel wo hunderte gar tausende von NPCs etc. berechnet werden müssen, wird sicher stärker ausgelastet sein, als beim genannten Beispiel von dir und dementsprechend auch mehr Strom für die CPU verbrauchen gemittelt. Und je mehr Kerne ein Spiel auch effektiv nutzt, desto höher eben die Auslastung als auch der Verbrauch.

Deswegen ist es ja auch grundsätzlich wichtig, zu schauen was man eben für Anwendungszwecke hat.
 
Naja, unter Vorbehalt natürlich, denn selbstredend habe ich keine Einsichten in AMDs Projektplanung oder Verträge mit TSMC oder bspw. Sony oder Microsoft. Hier muss man die verfügbaren Puzzelstück zusammensetzen und an der ein oder anderen Stelle mit einer gewissen Skepsis und Unsicherheit lesen und die Lücken mit (markt)wirtschaftlichen Erfahrungswerten füllen.
Dem allgemeinen Vernehmen nach waren AMDs 7nm-Kontingente in 2019 relativ gering und sind jetzt, in 2020 beträchtlich gestiegen, vorrangig aber aufgrund der Anteile, die sie explizit für Sony/Microsoft hinzugebucht haben um die SoCs zu fertigen. Und das diese Kontingente exklusiv sind, resultiert einfach aus der absehbaren Vertragsgestaltung. Die beiden Hersteller werden sich feste Lieferzusagen von AMD haben geben lassen, d. h. AMD ist hier vertraglich gebunden um muss diese Verträge nach besten Kräften erfüllen und diese Bindung ermöglichte es ihnen auch relativ risikofrei diese beträchtlichen, zusätzlichen Kontingente bei TSMC hinzuzubuchen, denn die Abnahme dieser Produkte ist ja schließlich vertraglich zugesichert. (Darüber hiaus gibt es aber natürlich auch bei TSMC Grenzen bzgl. der Kapazitäten und AMD konkurriert hier mit nahezu dem gesamten übrigen Markt um diese, d. h. wie du schon gesagt hast, ist es i. d. R. eher ausgeschlossen, dass man da noch kurzfristig Kapazitäten erhöhen kann, wenn sich den markttechnisch kurzfristig eine Gelegenheit ergäbe.)

Gaming: Natürlich gibt es da Schwankungen und die drücken sich auch in Watt aus, aber hier gibt es kein Game, das selbst im (regulären ;)) OC 150 W auf einer Intel-CPU zieht, was schlicht an der geringen Auslastrung liegt, die GameEngines an den Tag legen, was wiederum daran liegt, das ein nennenswerter Teil des Workloads auf der GPU liegt.
Und bzgl. Physik und Co wärst du vermutlich überrascht, aber deren Anteil an der CPU-seitigen Rechenlast einer GameEngine liegt i. d. R. im niedrigen, zweistelligen Prozentbereich. (Infos von einige Engine-TechTalks, wobei es natürlich auch hier Schwankungen gibt, aber die Hauptlast liegt hier klar in anderen Bereichen der Engine.)

Übrigens bzgl. der Kernzahlen: GameEngines nutzen hier überschaubar wenig und werden sich absehbar nur sehr langsam steigern, schlicht weil hier die Konsolen schon wieder beschränkend wirken werden. Sieht man sich bspw. einen aktuellen Titel auf einem 5900X oder gar 5950X an, dann langweilt sich die CPU regelrecht. Die CPU-seitigen Fps-Limitierungen treten lediglich dadurch auf, dass die hauptsächlichen Primärthreads nicht schnell genug abgearbeitet werden können, weil bei um die 5 GHz herum aktuell das Ende erreicht ist (und die neuen Konsolen limitieren das gar auch im besten Fall 3,8 GHz).
Es hatte durchaus seinen Grund, dass AMD damals die Kernzahl mit Zen in 2017 erhöhte und nicht etwa schon zuvor Intel, denn effektiv gab es schlicht keinen echten Bedarf im Consumer-Markt dafür. *) AMD musste damals 8 Kerne als vertriebstechnisch/absatzförderndes Argument bringen, nicht etwa weil der Markt das dringend benötigte und man musste diese Maßnahme gar noch mit einem niedrigenren Preis flankieren. Mit dem Ende der Altkonsolen-Generation kann nun der nächste Schritt bzgl. Parallelisierung eingeläutet werden, aber der ist ebenso schon wieder klar beschränkt. Und mit den beträchtlich gesteigerten Leistungsreservern der Konsolen ist es zudem heute gar noch wahrscheinlicher, dass die Konsolen weitaus mehr Berücksichtigung (als zusätzlicher Absatzmarkt) finden werden, als noch die Last-Gen, d. h. das Limit für Computerspiele darf man im Mittel als durchaus "bindend" ansehen. Die Ressourcen eines 12- oder 16-Kerners werden auch absehbar in den nächste Jahren nur für optionales Grafik-BlinkBlink genutzt werden aber keinesfalls fester bestandteil der GameMechanik werden, denn würde man bereits das Leistungsäquivalent eines sehr schnellen 8-Kerners als Grundvoraussetzung annehmen, müsste man sich vom Konolenmarkt direkt verabschieden und der wird in einigen Jahren auch wieder Millionen von Geräten/Kunden umfassen. (Sony und Microsoft haben ja schon im letzten Jahr gut 8 Mio. Konsolen abgesetzt trotz der Krise.)

*) Mal ausgenommen von Prod.-Workloads natürlich. / Entsprechend unsinnig sind auch immer solche gernzitierten Aussagen wie "Ohne AMD würden 'wir' heute noch auf 4 Kernen festsitzen", aber das ist letzten Endes ein anderes Thema. ;)

**) Beispielsweise die Cry-Engine ist ein "Negativbeispiel", das sehr stark durch den Main-Thread limitiert wird.
 
Zuletzt bearbeitet :
Da ändert sich dennoch nix dran das die Intel auch in Spiel zum größten Teil Stromfresser sind.
 
Du hast recht, auch das Video ändert nichts an den Gegebenheiten bzgl. dem Gaming, wenn man mit derart polarisierenden Begriffen um sich wirft.
Vielleicht solltest du dir mal anschauen, was du da verlinkst: (Fps als 1 Percentile)
  • RDR2: 5800X 80W, 105 Fps, 10700K 96 W, 106 Fps
  • Cyperpunk: 5800X 74 W, 66 Fps, 10700K 102 W, 86 Fps
  • Death Stranding: 5800X 74 W, 155 Fps, 10700K 99 W, 159 Fps
  • BF5: 5800X 83 W, 126 Fps, 10700K 111 W, 150 Fps
  • Rainbow Six: 5800X 81 W, 392 Fps, 10700K 94 W, 348 Fps
  • Mafia DefEd: 5800X 66W, 95 Fps, 10700K 79 W, 111 Fps
  • Flight Sim: 5800X 59 W, 40 Fps, 10700K 66 W, 46 Fps
Der Mehrverbrauch ist offensichtlich und den bestreitet auch niemand, den "Stromfresser" kann man sich hier zweifellos ersparen, denn die Unterschiede sind nicht groß. Wer hier tatächlich Wert darauf legt "grün" unterwegs zu sein, wird sich eine deutlich genügsamere GPU einbauen oder sich gar mit einer iGPU zufrieden geben und vielleicht mal seinen Monitor aktualisieren.
Bei massivparallelen Productivity-Wokloads ist die Sachlage eindeutig, im Gaming dagegen war Intel bis vor kurzem immer noch eine vollkommen legitime (und abseits des Preises gar die bessere) Wahl. Mit Zen3 kann AMD nun erstmals (nach immerhin 4 oder gar 8 Jahren, je nachdem wie man zählen will) ein klein wenig davonziehen.

Den größten Vorteil kann AMD seit Zen2 mit der Kernskalierung für sich verbuchen, die zum Großteil auf TSMC und der Verwendung des 7nm-Prozesses zurückzuführen ist, nur bedarf dies auch entsprechender Workloads und da gehört der Großteil der Consumer-Workloads nach wie vor nicht dazu (insbesondere nicht das Gaming) und so, wie es sich bisher in der Vergangenheit abzeichnete, wird sich daran im Consumer-Markt auch in den nächten Jahren absehbar nichts ändern. Die gemittelten Kernzahlen werden nur langsam steigen und es wird noch sehr viele Jahre dauern, bis bspw. 16-Kerner zum Mainstream werden (der aktuell eher bei 6 bis 8 Kernen liegt). Interessanterweise wird AMD mit Zen4 möglicherweise auch das größte Ryzen-Modell kerntechnisch aufwerten, voraussichtlich schlicht, weil man ein neues Halo-Produkt braucht, denn 16-Kerner sind mittlerweile schon ein "alter Hut", aber ein 20- oder gar 24-Kerner wird umso mehr nur eine sehr kleine Nische bedienen und wird abermals mehr ein vertriebstechnisches Argument sein. Über das Modell werden sich einige wenige Con/prosumer zweifellos sehr freuen können, den Großteil des Consumer-Marktes wird eine solche CPU jedoch ebensowenig interessieren wie auktuell bspw. der 16-Kerner.
 
Zuletzt bearbeitet :
Stromfresser ist noch ein Begriff aus der Bulldozer Zeit.....heute ist es anders rum,warum darf man es also Heut nicht mehr Verwenden?!
 
Naja auf der anderen Seite kann man aber trotzdem schon sagen, wenn Intel früher die Kernzahl erhöht hätte anstatt über mehrere Generationen bei 4 Kernen im Consumer Markt zu verharren, hätten sicher schon Eher Entwickler ihre Spiele/Programme angepasst um die erhöhte Kernzahl zu nutzen. Aber das ist wieder so ein Henne Ei Problem. ;)
 
"Stromfresser": Ist halt immer die Frage wie man Sprache verwendet und mit welcher Intention man im konkreten Fall unterwegs ist, denn das hat natürlich auch Einfluss auf die Formulierungsweise und Begriffswahl. Ich für meinen Teil würde diesen Begriff im Kontext Gaming jedenfalls vermeiden.
Bei Productivity-Workloads würde ich in dem Falle jedoch ohne Zweifel auch leicht zu diesem greifen, denn hier sind die Unterschiede einfach eklatant, was schlicht in der Natur der Sache begründet ist (7nm ggü. 14nm).

"Henne-Ei": Im Wesentlichen wirkte auch hier die Alt-Konsolen-Gen als limitierender Faktor, die bestenfalls das Äquivalent eines mäßig schnellen Intel-4-Kerners hatte (2016/17) und zweifellos schon nicht mehr mit den schnelleren Topmodellen mitkam. Selbst wenn es Zen nicht gegeben hätte, hätte Intel absehbar die Kernzahl dennoch erhöht, denn die Steigerungsmöglichkeiten rein architekturbedingt sind natürlich deutlich beschränkter, wie man auch heute bei beiden Herstellern sieht.
Unterm Strich darf man aber durchaus gespannt sein auf erste Titel, die die neuen Konsolen und ihre Zen2/3,8GHz-Kerne vollständig auslasten werden und insbesondere die Kompatibilität mit den Alt-Konsolen und langsameren PCs fallen lassen werden, denn da könnte man so einiges an den GameMechnaiken erweitern. Das Problem ist, dass das jedoch wohl noch einige Zeit dauern wird, denn die Alt-Konsolen wird man nur schrittweise "absägen" und auf den PCs ist man ebenfalls noch längst nicht so weit.
Die aktuelle Steam-Statistik weist gerade mal ~ 13,5 % der Systeme mit 8+ CPU-Kernen aus. Und falls man jetzt meint, dass das an den Laptops liegt, nein, tut es nicht, denn in den GPU-Statistiken haben GPUs in Form von PCIe-Karten einen Anteil von > 70 %. Ergänzend dazu sehen auch die MF-Zahlen aus, denn hier werden nur innerhalb der abgesetzten AMD-CPUs mehr CPUs <= 6 Kerne als 8-Kerner verkauft und der Anteil der höherkernigen CPUs ist relativ gering, d. h. bei den aktuellen Verkäufen bei MF, bei denen tendenziell gar eher computeraffine Nutzer unterwegs sein werden, wird noch grob ein Anteil von um die 50 % AMD-CPUs mit <= 6 Kernen verkauft. Der Markt insgesamt sieht also keinen übermäßigen Bedarf für sehr hohe Kernzahlen.
Engt man seinen Blick auf die Enthusiast-Gamer ein (wo fängt der Bereich an?), dann werden diese tendenziell eher zu etwas höherkernigen CPUs greifen, aber auch hier geht es nur in sehr wenigen Fällen über 10 bzw. 12 Kerne hinaus. Übrigens 10-Kerner haben auf Steam in den letzten Monaten mit dem Preisverfall signifikant zugelegt in der Statistik (was dahingehend interessant ist, weil man das unmittelnbar auf Comet Lake zurückführen kann, da AMD keine 10-Kerner anbietet). Beispielsweise in Steam:
Mai 2020 vs. Feb. 2021
  • 6 C : 22,1 % => 28,8 %
  • 8 C : 7,0 % => 12,0 %
  • 10 C : 0,08 % => 0,47 %
  • 12 C : 0,37 % => 0,86 %
  • 16 C : 0,10 % => 0,20 %
Konkret bewegen wir uns also gerade erst mal in die Richtung, dass so langsam 6 bis 8 Kerne zum Mainstream werden. Das Viertel der 6-Kerner könnte man zumindest schon eher als eine Art Mainstream ansehen als die 8-Kerner, die zweifelsfrei noch längst keinen Mainstream darstellen. Hierbei ist halt immer zu unterscheiden zwischen dem, was kaufbar ist und dem was tatsächlich im Markt vorliegt bzw. genutzt wird, ein Punkt, den viele (Fans) immer gerne durcheinanderbringen oder gar wissentlich ignorieren (nicht auf dich bezogen).
 
Zuletzt bearbeitet :
Es gab mal vor wirklich vielen Jahren einen Artikel zu dem Thema, wie viele Kerne im Schnitt von Spielen bzw in Spielen genutzt werden. Das Ergebnis war - soweit ich mich richtig erinnere - bei 2 1/2. Nun mag Igor wissen, wie lange das schon her ist, vielleicht hat er den sogar selber geschrieben, weiß ich nicht mehr, jedenfalls entsprach das Ergebnis nicht unbedingt den Erwartungen. Zu dem Zeitpunkt präferierten viele noch hoch taktende CPUs mit 2 Kernen /Core 2 Duo E8400, sowas) und denen wurde so klargemacht, dass sich die Dinge allmählich Richtung Quads verschieben, soweit ich das noch richtig im Kopf habe. Wenn man dann noch bedenkt, wie lange selbst ein 2500K von 2011 gereicht hat als Spiele-CPU, dann habe ich so meine Zweifel an der Theorie, dass mehr Kerne mehr oder weniger erzwungen waren, zumal es die ja auch gab, allerdings nur für die teureren Sockel, zB 1366. Und die wurden eher 'produktiv' genutzt.
 
Liegt aber immer noch alles an Intels Monopol.
OS,Compiller,Programme,Spiele wurden Jahrzehnte auf Intel Optimiert,im Grunde sogar bis Ryzen erschienen ist.
Es gab mal nen Test FX 3xxx vs i7 3770.
Im Spiel war der i7 schneller.
Im Spiel + Anwendung..... und der FX 3xxx brachte auf einmal mehr FPS und der i7 ist total eingebrochen.
BF4 lief in der Anfangszeit auf allen Kernen selbst mit dem FX 3xxx @ 2,8GHz schneller als ein i7 3770.
Nach dem Extremen Aufschrei wurde die Kernaufteilung zurück genommen und die AMD wurden auf einmal immer langsamer damit Intel wieder Deutlich schneller war.
Mehr Kerne wären schon vor 10 Jahren kein Problem gewesen in vielen Spielen und Anwendungen,man darf sich dafür also bei Intel bedanken für diese Bescheidene Lage.
 
Das hat einen ganz anderen Grund. Seit gut 10 Jahren ist jedem Programmierer klar, dass die Entwicklung in Richtung mehr Kerne geht, aber die Leistung pro Kern keine grossen Sprünge mehr macht. Für ein Game hat man somit genug Leistung zur Verfügung, wenn es alle Kerne nutzen kann.

Dass sich die Games trotzdem nur langsam in Richtung Multicore entwickeln hat den einfachen Grund, dass der Aufwand zur Programmierung grösser ist als man denkt. Erst braucht man eine Programmierumgebung, die dafür ausgelegt ist. Dann muss man die ganze Programmstruktur so aufbauen, dass einzelne Prozesse unabhängig abreiten können. Dazu braucht es definierte Schnittstellen zwischen den Prozessen und Datenstrukturen für die Übergabe an andere Prozesse. Dann braucht es eine Koordinierung aller Abläufe. Das lässt sich nicht einfach noch schnell zu einem Programm dazu fügen.

Eine Softwarefirma interessiert das relativ wenig, ob Intel oder AMD nun gerade etwas mehr oder weniger Kerne auf die eine oder andere CPU packen. Viel wichtiger ist, wie hoch man den zusätzlichen Ausbildungs- und Programmieraufwand einschätzt und ob man die nötigen Programmierer zur Verfügung hat oder anstellen kann. Somit ist es auch eine Kostenfrage, ob man für ein etwas schneller laufendes Programm so viel investieren möchte oder ob man lieber in neue Features investiert, die man gut vermarkten kann.
 
Liegt aber immer noch alles an Intels Monopol.
OS,Compiller,Programme,Spiele wurden Jahrzehnte auf Intel Optimiert,im Grunde sogar bis Ryzen erschienen ist.
Es gab mal nen Test FX 3xxx vs i7 3770.
Im Spiel war der i7 schneller.
Im Spiel + Anwendung..... und der FX 3xxx brachte auf einmal mehr FPS und der i7 ist total eingebrochen.
BF4 lief in der Anfangszeit auf allen Kernen selbst mit dem FX 3xxx @ 2,8GHz schneller als ein i7 3770.
Nach dem Extremen Aufschrei wurde die Kernaufteilung zurück genommen und die AMD wurden auf einmal immer langsamer damit Intel wieder Deutlich schneller war.
Mehr Kerne wären schon vor 10 Jahren kein Problem gewesen in vielen Spielen und Anwendungen,man darf sich dafür also bei Intel bedanken für diese Bescheidene Lage.

a) Das auf Intel optimiert wurde ist vollkommen natürlich, rational und wirtschaftlich, denn der Großteil der CPUs basierte nun einmal auf Intel-Produkten. Daran ist nichts verwerflich und Entwickler wären dumm gewesen, wenn sie ihre Ressourcen nicht entsprechend ausgerichtet hätten. Wenn ich als Entwickler 1000 Arbeitsstunden für Optimierungen habe, werde ich den Großteil davon natürlich dort aufwenden, wo sie am meisten bringen und das zielt natürlich auf die bedeutendere, im Markt deutlich verbreitetere Architektur ab.

b) Die "FX 3xxx"-Geschichte solltes du mal aufbereiten und mit Quellen ausstatten und auch mal die CPU bestimmen, denn bspw. zu dieser Bezeichnung kann ich mir vorerst nichts zusammenreimen. Andernfalls bleibt es eher eine Anekdote mit fragwürdigem Inhalt. Zudem die von dir gewählte Formulierung "der FX 3xxx brachte auf einmal mehr FPS und der i7 ist total eingebrochen" ist bereits merkwürdig. Wenn die Intel-CPU "eingebrochen" ist, heißt das nun, dass der FX "schneller wurde", weil man die Intel-CPU absichtlich verkrüppelt hatte? Warum sollte letztere "einbrechen", also gar langsamer als zuvor sein und war der FX im Endzustand überhaupt schneller als es die Intel-CPU im Ausgangszustand war? Wie gesagt, in der Form nicht nachvollziehbar. *)
Darüber hinaus aber kam bspw. ein FX-8350 (2nd Gen CMT alias Piledriver) nicht mit einem i7-3770K mit, der zudem gar noch mit weniger Takt lief und deutlich effizienter war.
Um mal AnandTech zum Piledriver-Launch zu zitieren: "Last year's launch of AMD's FX processors was honestly disappointing. The Bulldozer CPU cores that were bundled into each Zambezi chip were hardly power efficient and in many areas couldn't significantly outperform AMD's previous generation platform. Look beyond the direct AMD comparison and the situation looked even worse." (Selbst für den Cinebench reichte es nicht trotz leicht höherem Takt im Vergleich zwischen FX-8350 und i7-3770K.) **)

c) Mehr Kerne waren schon immer "kein Problem", das ist schlicht eine Frage der Wirtschaftlichkeit, denn am Ende will das alles bezahlt werden und bspw. AMD hat sich Anfang des letzten Jahrzehnts nicht umsonst für dieses CMT-Sparbrötchen entschieden und damit dem Markt echte 8-Kerner vorenthalten, auch schlicht aus wirtschaftlichen Gründen heraus, also gibt es hier keinen Grund Intel an den Pranger zu stellen. Der Markt insgesamt war für derartige Kernzahlen im Consumer-Segment schlicht noch nicht bereit und AMD hätte per se nichts anderes bringen können, denn sie waren mit ihren 32 nm auch so schon deutlich unterlegen. Letzten Endes könnte man, wenn man es in gleichwertig simplifizierender Sichtweise provokativ zurückspielen will, auch alternativ schlicht AMDs Unfähigkeit zuschreiben, einen ernstzunehmenden Konkurrenten im CPU-Markt darzustellen. Die haben halt noch ein ganzes Jahrzehnt gebraucht, bis man wieder etwas mit ihnen anfangen konnte. [Ironie aus].

*) Unabhängig davon gab es, wie grundsätzlich in der SW-Welt natürlich einige Games, die etwas besser und andere die schlechter (bis teilweise deutlich schlechter) auf Bulldozer & Co performten, jedoch im Mittel war das klar schlechter und nur das ist das, was am Ende zählt. AMD hat es über die Jahre an vielen Stellen verschlafen auf dem SW-Stack mitzuziehen oder gar vorauszuarbeiten, bzw. grundsätzlich diesem die nötige Aufmerksamkeit zu schenken, teilweise aus Mangel an Ressourcen, teilweise aber auch sicherlich schlicht als Versäumnis, denn die umfangreichen SW-Arbeiten von Intel sind auch nicht magisch vom Baum gefallen und waren einfach da und ebensowenig die von nVidia. Auch hier hat man ein CUDA-Äquivalent vollkommen verschlafen und kommt nun seit gut einem Jahrzehnt nicht mehr im professionellen Segment gegen nVidia an und muss immer über die Preisschiene fahren. Man kann den anderen hier natürlich pauschalisierend immer unlauteren Wettbewerb unterstellen und AMD als Unschuldslamm darstellen, aber das wird zweifellos nicht die ganze/wahre Geschichte sein.

**) Heute dagegen (wohlgemerkt heute, denn mit Zen2 konnte man vorrangig nur bei der Auslastung aller Kerne deutlich punkten) ist die Situation umgekehrt, jedoch ist diese hier auch etwas anders gelagert, den architektonisch ist Intel weiterhin am Ball geblieben, wird/wurde jedoch durch seine Fertigungsproblematik ausgebremst, was mittelfristig bedeutet, dass das Pendel hier auch leicht wieder zurückschwingen kann x) und wenn Intel gar tatsächlich gebrauch von TSMCs Kapazitäten macht, wird sich das Fertigungsthema bald auch so oder so grundsätzlich erledigt haben, d. h. es wird in Zukunft wieder deutlich interessanter werden (entweder mit TSMCs 5nm oder Intel's eigenen 7nm).

x) Btw, bevor ich jetzt wieder in eine Ecke gestellt werde: Ob und wann das Pendel vielleicht zurückschwingt, ist mir vollkommen egal, da ich hier lediglich den Marktbeobachter mime und mich um Objektivität bemühe. Wenn bei mir eine konkrete Kaufsituation ansteht, wird das gekauft, was zu dem jeweiligen Zeitpunkt meinen (gewichteten) Anforderungen am ehesten gerecht wird und da ist es mir reichlich egal welches Brand da drauf steht, denn der Schriftzug verschwindet eh nach den Einbau in einem geschlossenen Gehäuse und interessiert mich nicht mehr (solange alles wie gewünscht funktioniert und man nachfolgend auch nicht durch fehlende Updates etc. "behindert" wird).
 
Zuletzt bearbeitet :
Finde mal 10 Jahre alte Testberichte wieder......
AnandTech ist doch eine der Intel Seiten wenn ich mich recht erinnere.....
Absichtliche Manipulation seitens Intel ist aber nicht Legitim.....
Hier kannst viel von mir lesen.
Hmmm die 2,8GHz hab ich jetzt nicht gefunden,nur mit 2,3GHz,könnt auch BF3 gewesen sein........
 
Zuletzt bearbeitet :
[...] AnandTech ist doch eine der Intel Seiten wenn ich mich recht erinnere.....
Eine sehr schwache Begründung, wenn das das einzige Argument sein soll. Und zum allg. Tenor vor 10 Jahren habe ich da nichts mehr im Hinterkopf zu dieser Seite, sondern müsste erst mal aufwändig querlesen, in den letzten Jahre ist es dagegen m. M. n. eher eine recht neutrale Seite, denn die kritisieren oftmals und gerne, wo es angebracht ist und da bekommt Intel regelmäßig sein Portion ab.
Die Bewertung von Bulldozer & Co ist aber vollkommen unabhängig von diesem einen Zitat recht ähnlich über die Presse verteilt:
TomsHardware: "Last year, AMD launched its Bulldozer architecture to disappointed enthusiasts who were hoping to see the company rise to its former glory. Today, we get an FX processor based on the Piledriver update. Does it give power users something to celebrate? ... Would FX-8350 be my first choice in a new build, though? Probably not. Although I’m impressed by the work AMD’s architects have done in the last year, performance remains too workload-dependent. And, inexpensive energy aside, I’m going to go with the more efficient implementation when all else is close to equal."
Und AMD hat ja auch nicht ohne Grund dann recht schnell den Stecker aus dieser fehlgeleiteten Entwicklung gezogen. Den Höhepunkt erreichte man mit dem FX-9590 Mitte 2014 mit bis zu 5 GHz mit offiziellen 220 W TDP und der unterlag dennoch zumeist einem i7-4770K mit nur 4 Kernen (selbst im Cinebench und auf den Verbrauch schaute man dann besser nicht). Danach überbrückte AMD die folgenden Jahre mit "APU-Designs" mit und ohne iGPU, schlicht weil man abgehängt war (und zu allem Ungemach kam anscheinend auch noch Globalfoundries nicht mehr wirklich mit bzw. hinterher).

Nachtrag zum Link: Mit solchen Problemen sieht sich ein Quasi-Monopolist grundsätzlich immer konfrontiert. Das ist nichts Ungewöhnliches und man kann schlecht von einer Firma erwarten, dass die, um nicht noch mehr Makrtanteile zu gewinnen, an so mancher Stelle gar bewusst zu ihrem Nachteil handelt. Und wie auch schon am Marketing zu sehen, verhalten sich solche Firmen in vergleichbaren Situationen grundsätzlich ähnlich, was schlicht in der (makt)wirtschaftlichen Mechanik begründet liegt.
Darüber hinaus, nur als Randnotiz: Die dort zitierte Strafzahlung aus dem EU-Verfahren wurde vom EuGH aufgehoben, d. h. die rund 1 Mrd. Strafzahlung sind für nichtig erklärt worden. Die Begründung war hier, dass das Verfahren nicht darlegen konnte, dass die Maßnahmen eine signifikante Wettbewerbsverzerrung herbeiführten.
Darüber hinaus mussten Größen wie Goole/Alphabet, Facebook, Apple in den letzten Jahren weitaus größere Summen zahlen, während es hier um Intel auffallend still wurde und zuletzt wurde AMD wegen unlauterem Wettbewerb bzgl. Bulldozer & Co verklagt und entging einem drohendem (und absehbar deutlich teueren) Urteil durch einen Vergleich.
Als nette Anekdote: AMD-Fans müssten Intel zumindest zum Teil gar dankbar sein, denn ohne die gäbe es AMD heute möglicherweise schon gar nicht mehr, denn das regelmäßig zwischen den beiden Firmen erneuerte Cross-Lizenz-Abkommen sieht im Falle eines Eigentümerwechsels vor, dass dieses erlischt, d. h. ein Aufkauf von AMD, insbesondere Mitte des letzten Jahrzehnts (was bspw. ein Apple mal eben aus der Portokasse bezahlt hätte), wäre wenig zielführend gewesen, da man danach ein komplett neues Lizenzabkommen mit Intel hätte aushandel müssen und hierbei hätte man sich absehbar auf unschöne Verhandelungen einstellen dürfen, denn warum sollte Intel hier übermäßiges Entgegenkommen zeigen.
Btw., das ist hier nicht als Rechtfertigung für fragwürdiges Verhalten zu verstehen (über mehr brauchen wir uns nicht zu unterhalten, da das die Strafgesetzbücher und Gerichte bereits behandeln), aber ein Quasi-Monopolist zu sein hat nicht nur Vorteile, alleine schon was das Thema Aufmerksamkeit angeht (und das AMD in einer vergleichbaren Situation nicht ähnlich handeln würde ist bisher nur der verklärte Traum von Fans, die viel zu sehr dazu neigen einem milliargenschweren Konzernen fragwürdige Attrubute zuzuordnen).
 
Zuletzt bearbeitet :
Oben Unten