Grundlagenartikel Warum Apples M1 Single "Core" Vergleiche grundlegend fehlerhaft sind (mit Benchmarks) | Gastbeitrag

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.197
Bewertungspunkte
18.810
Punkte
114
Alter
59
Standort
Labor
Ich habe heute etwas ziemlich Aufregendes für Eure Leser; etwas, das fast jeder bei großen Getöse um die Apple M1-Benchmark-Vergleiche verpasst zu haben scheint. Was wäre, wenn ich Euch sagen würde, dass so ziemlich alle Single-Core-Benchmark-Vergleiche zwischen dem Apple M1 und modernen x86-Prozessoren, die Ihr online sehen könnt, grundlegend fehlerhaft sind (vorausgesetzt, Ihr wollt sehen, welcher Kern der schnellste ist)? Denn wie Ihr seht, nutzen die meisten Einzelkern-Benchmarks, die im Umlauf sind, einen modernen x86-Kern nicht einmal vollständig aus - aber wahrscheinlich die des M1.




>>> Hier den gesamten Artikel lesen <<<
 
>L1,L2,Lx hier gibt es sehr viele wissenschaftliche auswertungen im netz, die besagen, das bei x86 code eine verdoppelung der caches nur noch mit unteren 1 stelligen performance zuwächsen zu rechnen ist - basis sind hier meistens die spec benchmarks.
Habe ich auch so gelesen, weiss jetzt aber nicht, ob das so auch für x64 durchgehend so gilt, v.a. bei Anwendungen, die gerne viel Compute haben.
Wenn dem so ist, haben AMD und Intel hier ein signifikantes Problem das die RISC Seite (ARM, custom ARM) so nicht hat. Interessant wird sein, was rauskommt wenn Apple die großen Brüder und Schwestern von M1 bringt; 8 oder 16 Performance Cores wären da schon eine Ansage.
 
Was hier überhaupt noch nicht bemerkt wurde: Im Desktop-Umfeld hat man heute nahezu überhaupt nie nur SingleThread. Weil nie nur eine Anwendung läuft.
 
Ist interessant. Apfelsaft und Birnensaft schmeckt mir sehr gut. Trink ich gerne...


Für mich ausschlaggebend wäre, die Unterschiede der CPUs derselben Preisklasse, derselben "Verbrauchsklasse" bzw. ein Mix aus allem.
Was bringt mir die SMT CPU wenn sie bei gleicher Performance wesentlich teurer und hungriger ist oder anders betrachtet die ARM CPU für mein Anliegen einfach viel zu langsam ist und mir bei der Arbeit meine Zeit nicht einsparen kann? Usw.

Wie auch viele meiner Vorthreadner schon geschrieben haben, ist das wirklich eine Sache des Betrachtungswinkels ABER für eine ungefähre Abschätzung der Leistung in einem bestimmten Benchmark wo alle CPUs teilnehmen, finde ich das schon richtig, dass alle denselben Bedingungen unterliegen. Sprich Will man "Coreleistung" = Core 100% Last egal wie viele Threads.
Soll ermittelt werden wie schnell ein einziger Thread abgearbeitet wird dann eben nur ein Thread.

Man muss allerdings dazu sagen, dass man die Leistungsfähigkeit einer CPU nicht nur mit einem einzigen Bench beurteilen sollte. Es müssen einfach alle Szenarien aufgezeigt werden und dann aber je nach realworld Anforderungen diese ordentlich, dem aktuellen Stand nach gewichtet werden und zusammengefast werden. Ist halt nimmer so, dass eine CPU nur noch eine einzige Aufgabe machen kann/soll. Das ist ein Multitool und sollte auch entsprechend Multikulti getestet werden. Der User kann dann selber auswählen, welche CPU für seine Bedürfnisse die passendste ist.
Das fehlt leider vollkommen. Da gehört auch der Preis der CPU sowie auch die Anschaffungskosten des Unterbaus, das Softwareuniversum dazu wie eben auch der Stromhunger bzw. Leistung pro Watt pro Euro usw. Einfach ein Gesamtbild und keine einzelne Szene.
Klar ist das Arbeit aber nur so kann man wirklich sehen wie die Gesamtleistung ausfällt und was eher zum User später passt.

Nebenbei, Parallelisierung ist nun mal die Zukunft. Apple wird da, mit der ARM Technologie, nachziehen (müssen) dass pro Kern mehr Threads verarbeitet werden kann.
Würde mich nicht wundern, wenn später ein Kern dann 4 Threads bearbeiten kann um einfach Kerne einsparen zu können und somit Strom/Hitze usw. weil das wird noch ein ganz "heißes" Thema, wenn wir dann bei kleiner 3nm Fertigung angekommen sind mit der Hitzeabführung.

Meine Meinung...
 
Apple wird da, mit der ARM Technologie, nachziehen (müssen) dass pro Kern mehr Threads verarbeitet werden können.
Apple und andere ARM Designs machen das einfacher/anders: wenn mehr Threads bearbeitet werden sollen, werden die CPUs mit mehr Kernen konzipiert. Bei x86/x64 Kernen ist es eher so, daß da genug Idle Zeit da ist um mehr als einen Thread laufen zu lassen. Das Problem mit vielen Threads pro Kern ist daß sich das nur für bestimmte Anwendungen wie Datenbasen lohnt; SPARC und Power sind Beispiele für viele Threads pro Kern, und die werden/wurden auch entsprechend eingesetzt.
 
Und wenn es schon Auto-Vergleiche sein müssen:
Wer lässt beim Vergleich zwischen Motorrad und Auto das Auto auf zwei Rädern fahren, damit das Motorrad sicher gewinnt? Maximal das Privatfernsehen. :D
Und wenn der M1 nun doch Videos schneller exportiert und dabei noch effizienter ist, ist es das was den Kunden interessiert.
 
Nachdem ich den Ansatz richtig gut finde, hoffe ich jetzt mal, dass Apple mit einem neuerlichen RISC Ansatz im klassischen PC Bereich mehr Erfolg beschieden sein wird als seinerzeit DEC (Alpha) oder NEXT oder Sun (Sparc Stations) vor gefühlten 25 Jahren.
 
Apropos Autovergleich: so einen BMW M1 würd ich auch nehmen ;)

@Alkbert RISC CPUs sind heutzutage ja schon nicht mehr wegzudenken, aber in der Windows-Welt werden sie sich wohl eher nicht durchsetzen.
 
Mit den IBM bzw. Motorola-Prozessoren war Apple ja schonmal auf RISC...damals.
Ich finde eben auch, man sollte das passende Werkzeug für eine entsprechende Aufgabe haben. Leider gibt es keine vernünftigen Real-World Tests. Bspw. Photoshop-Filter auf M1 und AMD und Intel, oder ähnliches. Das ist doch für die Käufer das eigentliche was interessiert und relevant ist.
Im betrieblichen Umfeld (also die ich so kenne) ist der Preis ebenfalls untergeordnet. Wenn eine Renderstation 10.000,- kostet, eine um 20% schnellere aber 18.000,-, dann wird die für 18.000,- gekauft. Man kann dann nämlich 20% "eher" den nächsten Job anfangen der Geld bringt.
Und das rentiert sich relativ schnell.

@HerrRossi MacMini interessiert mich auch, aber die limitierung des ARM (128bit <->max. 16 GB) stören mich noch zu sehr. Mal sehen was M2 oder so bringen.
 
Zuletzt bearbeitet :
@HerrRossi MacMini interessiert mich auch, aber die limitierung des ARM (128bit <->max. 16 GB) stören mich noch zu sehr. Mal sehen was M2 oder so bringen.
Ich persönlich würde das Teil eh nicht für Videobearbeitung einsetzen, daher würde mir das kleinste Gerät mit 8GB reichen, in einem Video wurde das auch getestet und es gab bis auf eine Ausnahme keine sehr großen Unterschiede. Im Profieinsatz dürfte die fehlende 10Gb NIC schwerer wiegen.
 
@HerrRossi :
Bei mir gehts eher um Musik :) Aber die Software ist da eh noch nicht soweit...muss also noch meine Urne (MacPro 6,1) weiter nutzen. Der Xeon verballert mir aber eigentlich zuviel....
War auch einer der Gründe warum ich meine 5,1er ausgemustert habe, da waren ja gleich 2 Xeons drin.

10Gb wäre was ich noch ins NAS verbasteln könnte...aber anderes Thema, anderer Thread.
 
Für mich klingt der ganze Artikel sehr nach „ja aber so großartig ist das ja gar nicht“ konträr um des konträr sein wollens. Haare werden immer dann bevorzugt gespalten wenn man ansonsten wenig anzubieten hat und ansonsten dem geliebten Hassobjekt auch mal ein Lob aussprechen müsste.

man hat ja immerhin technisch gesehen recht und wie schon Hermes Conrad aus Futurama wusste ist das ‚the best kind of correct‘

Ausgerechnet dem Marketing von Apple gegenüber jetzt orthodox zu werden und päpstlicher als der Papst sein zu wollen halte ich auch für mehr blinder Fleck und Beissreflex. Schließlich sind da NVIDIA , Intel und Qualcomm z.B. auch keine Kinder von Traurigkeit aber dort wird wesentlich seltener jedes Wort auf die Goldwaage gelegt

Die 30% „nur in ganz selektiven speziellen Anwendungsdällen“ Zusatzperformance von SMT (und das ist best case) darf sich Intel meinetwegen gerne an die Wand hängen.

Es ändert trotzdem nichts daran, dass der M1 ein ziemlich guter Wurf geworden ist dafür das es im Desktop - oder wenigstens Notebook-Bereich - der erste Schuss war den Apple da abgegeben hat.

Intel hat zwei Dekaden und eine zweistellige Anzahl Milliarden mit diversen CPU Architekturen verbrannt. von i960 über Netburst, Itanium, XScale, Atom bis hin zum sehr enttäuschenden Hybrid-Lakefield und noch ein halbes Dutzend Versuche mehr und hat trotzdem überwiegend nur Rohrkrepierer produziert. Sie wurden zu Pentium 4 Zeiten schon mal mit viel Glück vor sich selbst gerettet und mussten sich den Intel Core von externen Entwicklern designen lassen während sie in der Netburst Sackgasse festsaßen. Daneben haben sie jeden Trend verschlafen und immer strategisch alle die Geschäftsteile verkauft mit denen heute andere Milliarden verdienen.

Jetzt sitzen sie auf einem alten Fertigungsprozess und einem ausgereiztem CPU Design fest und haben außer FUD und dem Microsoftschen ‚wir bringen aber ganz sicher nächstes Jahr was total großartiges raus, bloß in der Zwischenzeit nicht bei der Konkurrenz kaufen, gell‘ wenig anzubieten während sie von der Konkurrenz rechts überholt werden.

Da dürft ihr dann auch meinetwegen die 30% Performance Advantage fürs SMT gerne als Erfolg verbuchen wenn es dann weniger weh tut dass Intel aus dem Stand von einem Desktop-CPU Novizen der erst seit 2010 überhaupt SoCs designt ziemlich vorgeführt wurde. (PA Semi ist auch so was was Intel hätte kaufen können aber nicht wollte)

Das könnte man würdigen, aber es ist halt Apple und da haut man halt gerne drauf und wenn es nichts gibt dann erfindet man eben halt mal schnell eine neue Klasse von Benchmarks die man sich so zurecht ziseliert hat das man am Ende doch wieder den blauen Platzhirsch vor alle anderen setzen kann.

Auf Intel kommen jedenfalls schwere Zeiten zu.

Aber es ist auch schön zu sehen mit welcher Detailverliebtheit und Pedanterie hier getestet und analysiert wird. Wir werden das sicher auch bei den Marketing-Versprechen anderer Hersteller als Massstab angelegt sehen Ich warte gespannt
 
Typischer WCTech Post , Perspektive leicht so verzerren das man schön Lärmmachen kann um Klicks und Reichweite zu generieren .

natürlich benutzt man im Beispiel auch Software die nahezu perfekt mit Threads skaliert um diesen effektschwangeren Standpunkt zu untermauern.
 
Anwendung=|=Benchmark WTF
Joo dafür wurden Benchmarks halt erfunden. Um die Leistung von Anwendungen synthetisch dazulegen.
Wie Igor immer sagt wer viel misst, misst oft Mist.
Von daher finde ich die Klarstellung der tatsächlichen Leistung TOP!
Auch wenn wir die Leistung von Apple nicht klein machen sollten.
Diese einseitige sture Sichtweise und Unfähigkeit aus seiner beschränkten Denkweise rauszukommen...
Hier wird alles auf den Tisch gepackt.
Mann muss nur noch begreifen, verstehen und akzeptieren!

Wer das ned kann, kann abtreten wie Trump!

Mfg
 
Oben Unten