News Intel vs. AMD: Der CPU-Markt im Umbruch

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
intel-amd-cross-licensing-gpu-technology-893x484.jpg


Jakob Ginzburg submitted a new blog post

Continue reading the Original Blog Post.
 
@Derfnam Ich versuchs mal, habe vor 2 Wochen erfahren dass ich meine Statistikklausur mit 2.0 bestanden habe.

Quantile (und damit auch Perzentile) sind statistische Lagemaße. Sie sind "robuster" als das arithmetische Mittel, weil Ausreißer kaum ins Gewicht fallen.
Das einfachste Quantil ist der Median (oder auch 50% Quantil) Der besagt, das 50% der Daten über diesem und die anderen 50% der Daten unter diesem Median-Wert liegen.
Dann gibt es noch die üblichen 25% und 75% Quantile. 25% der Daten liegen da unterhalb des 25er-Quantils, 50% der Daten zw. dem 25er und der 75er Quantil und 25% der Daten liegen über dem 75er Quantil.
99% Perzentil? Du wirst es ahnen, 99% der Daten liegen über diesem Wert und nur 1% darunter

Warum macht man das?
Nun, nehmen wir an wir haben einen 300Sekunden langen Benchmark und jede Sekunde werden die FPS erfasst. Dann haben wir also 300 Messwerte. Der Mittelwert der Messwerte liegt bei 50 fps. Da spielen die Ausreißer aber eine recht große Rolle. Eventuell waren Szenen im Benchmark wo es die Graka auf über 200fps geschafft hat, das zieht den Mittelwert halt gehörig nach oben. Ein 99% Perzentil ist davon aber völlig unbeeindruckt, selbst wenn es kurzeitig 20000fps gewesen wären. Wir schauen uns nämlich nur das schlechteste 1% der Messwerte an. Also bei unseren 300 Messwerten sind das 3 Werte. Und die sind beispielsweise 17fps, 19fps, 20 fps. Jetzt schauen wir uns noch den viertschlechtesten Wert an (22fps) und können unser 99% Perzentil auf 21fps legen.
Obwohl unser Game im Schnitt 50fps macht, knallen wir recht häufig (also in einem Prozent der "Spielzeit") runter auf 21fps oder schlechter.
Liegt der Mittelwert und das 99%Perzentil sehr weit auseinander, kann man davon ausgehen, dass das Spiel (oder die Graka, je nachdem was man testet) enorm schwankende Performance zeigt. Mit dem einfachen arithmetischen Mittel hätten wir das so nicht herausfinden können.

Graphisch lässt sich das sehr schön mit sogenannten "Boxplots" darstellen. Einfach mal googlen
 
Ich habe nun auch hinzugelernt. Da kann sich FormatC ja die Haelfte der Arbeit sparen :D
 
Sind die Grafiken von MF nicht schon ein Jahr alt ? Da vermisse ich die neuen CPU´s beider Hersteller und die aktuellen Zahlen.


Hier mal die korrekten Zahlen: hXXps://www.pcgamesn.com/wp-content/uploads/2018/09/Mindfactory-AMD-vs-Intel.jpg

Vielen Dank, leider hat noch niemand gezuckt... eine Aktualisierung des Artikels mit dem korrekten Diagramm + die korrekte Darstellung der Digitimes Quelle* würde den Artikel deutlich aufwerten :)

EDIT * Es geht nur um 30% Marktanteil bei Desktop CPUs + 5% Marktanteil bei Server CPUs nicht um "einen Marktanteil von 30% bei Endverbraucher-CPUs"
 
Okay, Bonusfrage: worin besteht der Unterschied zu den minimalen Bildraten?
Wenn man - wie in dem 300 Sekunden-Beispiel - die 17 BpS nimmt, dann hat man ja den realen Wert und nicht nur ein - korrigier mich, wenn ich das falsch wiedergebe - 'schlechtes Mittel'.
 
@Eragoss
Die 5Ghz beziehen sich klar auf 1 Kern. Nie auf alle. Der Allcore Turbo lag bei 4,3Ghz. Vielleicht wenn man wie bei der Silicon-Lottery noch die Spannung erhöht bei 4,5Ghz. Einzelne Modelle schaffen es vielleicht auf 4,6. Aber sicher nicht einen Allcore Takt von 5Ghz ohne das Ding mit so etwas wie Stickstoff zu kühlen.
 
Zur Bonusfrage:
Das wäre ja dann nur der eine extremste Ausreißer nach unten hin. Kann man machen, aber was sagt das aus? Erstens würdest du das bei nur einem Wert wahrscheinlich garnicht merken und zweitens kann so ein Ausreißer nach unten bei einer Messung immer mal wieder vorkommen. Das System hat nen kurzen Aussetzer weil Windows gerade rumtrollt oder so. Kann ja immer mal passieren. Nur den untersten Ausreißer zu nehmen würde bedeuten dass man Quasi den "Messfehler" zum Referenzwert macht. Also den Bock zum Gärtner. Die statistische Unsicherheit wäre riesig und es könnte vorkommen, dass ne 2080ti schlechter abschneidet als ne gammelige 1050ti. Einfach nur, weil das System bei der 2080ti irgendwann mal für nen minikurzen Zeitpunkt mit sich selbst beschäftigt war. Du kennst doch bestimmt auch das "stottern" eines Spiels wenn man es gerade gestartet hat und anfängt loszuzocken. Diese Werte möchte ich zwar mit drin haben, aber halt verrechnet. Den schlechtesten dieser Werte zu nehmen (wahrscheinlich 3 fps oder so) und nur den anzugeben halte ich eher für nicht sinnvoll. Aussagekraft ist halt 0.
Ein Prozent der Daten ist da schon deutlich besser. In meinem Beispiel mit 300 Werten nimmt sich dass natürlich nicht viel, aber ich gehe davon aus, dass die Abtastrate deutlich höher ist als 1x die Sekunde. Und da kommst du auf tausende Messwerte. 99% ist natürlich auch willkürlich gewählt, es hätten auch 98% oder 99,95% sein können.
Vllt ist das auch ein subjektiver Erfahrungswert. Wenn man in 99% der Zeit mehr als x fps hat, dann lässt sich das Spiel ruckelfrei spielen denn die schlechten 1% gehen im Rauschen unter. Ist aber nur ne Vermutung.
Edit: Dein "schlechtes Mittel" trifft es eigentlich ganz gut. Verstehe bloß das "nur" darin nicht. Unter dem schlechten "Mittel" kann man sich nämlich ganz gut was vorstellen und ist daher sehr praxisrelevant.
 
Zuletzt bearbeitet :
Der Witz ist - selbst minimum FPS sind nicht genau aussagekräftig - die Frage ist ja, wie verteilen die sich innerhalb dieser einen Sekunde... Das was Igor schon mal ausführlich in Sachen Eveness untersucht hat - das ist was zählt...

also letzlich wie gleichmäßgi liefert die Karte die Bilder aus... was wir als mikroruckler wahrnehmen ist ja eine Anhäufung von mindestens 2 Delays - sprich eine Vergrößerung der Zeiten zwischen den Frames... Wobei das Hirn natürlich einzelne Pausen ausblendet, solange die nicht zu häufig kommen und eine KArte die von 120 auf 60 FPS abfällt imemr noch gleichmäßger arbeiten dürfte als eine die von 60 auf 30 abfällt...
 
Ich fragte, weil man ja vorher die minimale Bildrate als Wert in den Diagrammen vorfand. Und wenn hier der Umzug denn mal durch sein sollte verlink ich auch nix mehr von der Überseeseite^^:
https://www.tomshardware.com/reviews/msi-geforce-gtx-1080-ti-gaming-x-11g,5036-3.html
Der Wert wurde irgendwann durchs 99ste Perzentil ersetzt:
https://www.igorslab.de/2018/09/19/...ng-turing-benchmarks-und-neue-erkenntnisse/8/
Der Minimalwert ist im 1. Diagramm 94, der 99ste hingegen im 2. bei 76.
Und genau da hakt es bei mir.
Ist die minimale Rate zu hoch, war sie das immer, ist dies Perzentilmessen genauer und - klar - somit die bessere Methode?
Was mir fehlt ist ein Vergleich für ein und dieselbe Karte im gleichen Test unter gleichen Bedingungen, in dem mir mittels der - hoffentlich - unterschiedlichen Ergebnisse für beide Methoden dann vielleicht klar wird, warum nun auf einmal das 99. Perzentil so viel besser ist als die voherige minimale Bildrate.
Ich gebe hiermit also zu: ich verstehe es nicht. Aber Mathe war nie meine Stärke, ab Kurvendiskussion habe ich abgeschaltet, Vektorrechnung und was da noch so kam kenn ich also nur dem Namen nach.
 
@Dark_Knight - Danke für den Hinweis - war da ziemlich auf dem Holzweg, hab meinen post mal aktualisiert.
 
@Eragoss
Die 5Ghz beziehen sich klar auf 1 Kern. Nie auf alle. Der Allcore Turbo lag bei 4,3Ghz. Vielleicht wenn man wie bei der Silicon-Lottery noch die Spannung erhöht bei 4,5Ghz. Einzelne Modelle schaffen es vielleicht auf 4,6. Aber sicher nicht einen Allcore Takt von 5Ghz ohne das Ding mit so etwas wie Stickstoff zu kühlen.

Wenn man bedenkt, dass der 7820X ohne preselecting und unter Custom-Wasserkühlung sogar 5 GHz auf allen Kernen schafft, halte ich diese Aussage doch für sehr fragwürdig.
 
Intel will die leistungskrone in Spielen weiter ausbauen, soviel ist sicher. Denke auch, dass sich der neue I9 mit moderatem Kühlaufwand (wakü) auf 5GHz allcore hochprügeln lässt.
 
@Derfnam
Manchmal hast du einfach ein kurzes Stottern im Spiel, wie @Jean Luc Bizarre ja schon andeutete. Vielleicht sind nur seine Zahlen nicht hilfreich gewesen, um für mehr Verständnis zu sorgen.

Nehmen wir also mal 22FPS als Minimum, 66FPS als Durchschnitt und als 99. Perzentil 44FPS. Wenn man jetzt hergeht und nur Durchschnitt und Minimum notiert, könnte man als normaldenkender Mensch in Versuchung geraten und sagen "Hey, wenn 66FPS schon der Durchschnitt sind, dann sind die 22FPS bestimmt nur Ausreißer nach unten!"
Das Problem hieran: Es gibt offensichtlich immer weniger normaldenkende Menschen und immer mehr Horst-Kevins Menschen, die mit weniger Denkmasse ausgestattetet sind und einem IQ, der dem Speicherplatz von RTL2 auf ihrem Receiver entspricht.

So, nun sagt man halt: 99% aller FPS in dem Benchmarkparkours liegen gleich oder über 44FPS. Was nichts anderes bedeutet als: Der (sehr große) Großteil der Zeit läuft das Spiel mit mehr als 44FPS.

Manchmal ist es eben nur ein Schluckauf im System, manchmal lässt sich mit dem Treiber gegensteuern oder einem Patch. Aber um diesen Schluckauf herauszufiltern, dafür gibt's neuerdings das 99th percentile.

//Nachtrag
Bei der Szene mit Battlefield 1, ist es die gleiche Benchmarksequenz? Kann ich bei unserer Seite (also diesseits des großen Teichs) nicht sehen. Das Mittel liegt auf jeden Fall höher als im älteren Test.
 
Zuletzt bearbeitet :
Und genau deswegen wünsch ich mir ja, dass beide Werte mal angegeben werden.
Igor hat beide Tests gemacht, also gehe ich erstmal davon aus, dass es sich um die gleiche Sequenz handelt.
Und die beiden Werte krieg ich nicht unter den Erklärhut, verstehst?
Wenn ich die beiden Erklärungen von JLB so leidlich kapiert habe, dann sollte der Wert im 1. Test doch kleiner sein und nicht größer. Oder?
Ich PN mal den Tester, der hat ja nix zu tun^^.
 
Also wie gesagt, ich glaube da nicht so dran, das der 8 Kerner es dann Allcore auf 5Ghz schafft. Selbst mit Wakü. Immerhin sind es 2 Kerne mehr, also mehr Wärme auf derselben Fläche wie bei dem 6 Kerner. Auch wenn jetzt wieder verlötet. Schätze ich mal, das es trotzdem bei 4,3Ghz Allcore bleibt und dann halt durch Spannungserhöhung auch wieder bis max. 4,6Ghz geht. Und mit Wakü bei einem richtig guten Chip vielleicht bis 4,8Ghz. Aber das wäre dann schon eins unter Tausenden.

Aber lassen wir uns überraschen. Vielleicht liege ich auch komplett daneben und die neuen 8 Kerner von Intel fegen AMD mit 5Ghz Allcore vom Feld.
 
Ich warte noch bis Zen 2 und dann lege ich mir ein Threadripper System zu.
Bis dahin tut´s mein 5820k noch, aber ich freue mich schon auf mehr Kerne :D.

AMD hat mit Zen wirklich alles richtig gemacht. Vllt. sehen wir dadurch ein einigen Jahren etwas ausgeglichenere Marktanteile.

Edit: Ich rechne schon damit, dass beim neuen intel 8 Kerner die 5Ghz mit Wakü möglich ein werden.
 
@Derfnam Jetzt verstehe ich wass du meinst. Man müsste wissen wie die "minimum fps" genau definiert ist.
Eins ist aber klar, es wird nicht die eine Aussreisser-Sekunde mit dem niedrigsten FPS-Wert sein. Dazu sind die Werte einfach zu hoch.
Ich hoffe mal Igor kann da in Kürze für eine Klarstellung sorgen was damals mit "minimum fps" genau gemeint war
 
Ne?
Und alles nur, weil die Migration der alten Inhalte dazu führte, dass ich mir den Test auf der .com-Seite angucken mußte.
 
Oben Unten