Gaming Praxis Prozessor System Testberichte VGA

Intel Alder Lake: Gaming Performance Benchmarks – Warum ich in 720p erneut mit einer AMD Radeon RX 6900XT statt einer NVIDIA RTX A6000 messe

Sicher, der Vollausbau des GA102 ist, vor allem übertaktet und gut gekühlt, ein gewaltiges Brett. Es ist eine Karte, die einer normalen GeForce RTX 3090 auch bei der Gaming-Performance in nichts nachsteht, dafür aber deutlich effizienter zu Werke geht. Doch für CPU-Tests im CPU-Bound („Flaschenhals“) mit Auflösungen ab 1080p abwärts sind nicht nur der Chip und die theoretische Leistung zu betrachten, sondern alle Umstände bis hin zum Treiber. Falls Intels Alder Lake CPUs, vor allem das Flaggschiff in Form des Core i9-12900K(F), wirklich so schnell sein sollten, wie es kolportiert wird (ich stelle mich hier mal bewusst dumm, obwohl ich es nicht müsste), dann wäre die in der Summe aus Hard- und Software absolut schnellste Grafikkarte gerade mal gut genug.

Über den Praxiswert von Tests mit einer Bildschirmauflösung von 1280 x 720 Pixel („720p“) ließe es sich zwar trefflich streiten, aber es gibt durchaus auch plausible Argumente, dies doch zu tun, selbst wenn wohl niemand mit High-End- oder Enthusiasten-Hardware jemals solche Briefmarken-Auflösungen ernsthaft nutzen wird. Nur ist es mittlerweile ja so, dass die CPU in höheren Auflösungen und besseren Settings fast immer von der Grafikkarte (GPU-Bound) limitiert wird und daher nicht die wichtigste Rolle spielt. Aber die meisten Anwender hängen auch heute noch bei 1440p und 1080p, auch wegen der so wichtigen hohen FPS-Zahlen in den üblichen Shootern. Und außerdem ist ja das 720p von heute vielleicht auch die CPU-Messlatte für das 1080p von morgen.

Intel hat sich in den eigenen Herstellerfolien genau deshalb natürlich auch die kleinste, noch Sinn ergebende Auflösung von 1920 x 1080 Pixeln („1080p“) herausgesucht, was der Logik des zu überprüfenden CPU-Bounds durchaus entspricht. Im Gegensatz dazu werde ich allerdings 10 gegeneinander gut abgewogene Spiele in insgesamt vier Auflösungen von Ultra-HD („2160p“) bis hinab zu 720p sehr ausführlich testen, denn es geht ja letztendlich darum, beide Teile der Leserschaft zu befriedigen, auch diejenigen, die mit 720p erst einmal nichts anfangen können. Dass es nicht 11 Spiele (wie angedacht) waren, liegt am leidigen Problem der DRM-Mechanismen, die mit der neuen CPU so ihre Probleme haben. Da wird Intel möglichst schnell nachbessern müssen (was sie aktuell ja auch hektisch tun). Denuvo entpuppt sich hier einmal mehr als Seuche, die mit der Trennung in E- und P-Cores nicht klarkommt.

Apropos Intel-Folien, man muss auch hier noch eine wichtige Randbemerkung zur Testmethodik einfügen, die mir etwas sauer aufgestoßen ist. Ja, auch ich werde aus guten Gründen ausschließlich unter Windows 11 testen, denn der Einsatz von ADL macht unter Windows 10 weder Spaß, noch könnte man das Potential der CPUs voll ausnutzen. Nur wenn man als Kunde Intel schon soweit entgegen kommen soll und will, sich neben der CPU auch noch ein neues Betriebssystem zu besorgen, dann sollten auch die verglichenen CPUs nicht mit stumpfen Waffen kämpfen müssen.

Es ist aus meiner Sicht zwar nicht unverantwortlich, solche Benchmarks in einem sehr frühen Stadium zu erstellen und auch als internen Vergleich und zur Orientierung zu nutzen, nur ist es ja bekannt, dass die Ryzen-CPUs unter Windows 11 im Vergleich zu Windows 10 bis zu 15% Performance-Einbußen hinnehmen mussten. Dann aber ist eine bewusste Veröffentlichung falscher Benchmarkergebnisse umso bedenklicher. Ich habe manche Dinge mit einem komplett aktualisieren System (Windows Patches, AMD Chipsatz-Treiber, Motherboard-BIOS) nachgemessen und kann eigentlich nur mit dem Kopf schütteln.

Zahlen werde ich hier jetzt aus Gründen zwar keine nennen, aber es ist durchaus so, dass sich das Bild zum Teil doch sichtbar verändert hat. Um so eine alberne Folie einigermaßen aktuell zu produzieren braucht man noch nicht einmal einen ganzen Arbeitstag fürs Benchmarken einer einzelnen CPU und die notwenige Korrektur im PowerPoint. Das alles ist für ein Unternehmen mit den Ressourcen Intels eigentlich ein Klacks, aber ganz offensichtlich vom Marketing so nicht gewollt.

 

NVIDIA oder AMD – Auf der Suche nach der richtigen Karte

Doch ich will nicht zu weit abschweifen, sondern komme nun auf das Testsystem und die zweckmäßigste Grafikkarte zurück. Dass Intel im Kampf gegen AMDs Ryzen lieber eine Grafikkarte von NVIDIA in Form der GeForce RTX 3090 nutzt, ist durchaus verständlich, wenn auch nicht zu 100% zielführend. Während ich alle Tests im professionellen Bereich (auch im Hinblick auf die zertifizierte Hardware) mit einer sehr schnellen RTX A6000 erstellt habe, sieht es beim Gaming in den niedrigeren Auflösungen stellenweise nicht ganz so rosig aus, weil hier der Overhead aus NVIDIAs Treibern stellenweise gnadenlos zuschlägt. Wie stark und in welchem Spiel, das werde ich gleich noch zeigen, denn es ist ja auch nicht permanent.

Die RTX A6000 lässt sich mit etwas OC als Vollausbau des GA102 durchaus auf das Level der RTX 3090 bringen, nur nützt einem das Ganze eigentlich nur in Ultra-HD, wo die Radeon-Karte ihre bekannten Schwächen zeigt. Nur ist in diesem Fall sogar auf der GeForce ein absolutes GPU-Bound zu verzeíchnen, was den vermeintlichen Nachteil eher relativiert. Ja, es sind teilweise bis zu 12% Performanceunterschied zwischen beiden Karten zu verzeichnen, nur spielt dieser keine Rolle mehr. Der größte Performance-Unterschied lag hier bei weniger als 2% zwischen der langsamsten und der schnellsten CPU, also waren die Ergebnisse, wenn wann sie pro Karte verglich, wieder nahezu identisch.

Wichtiger ist hingegen, die echten Unterschiede im CPU-Bound herauszufinden, was uns in die niedrigen Auflösungen zwingt. Genau da aber deklassiert die von mir verwendete MSI RX 6900XT Gaming X die große RTX A6000 zum Teil erschreckend deutlich. Und genau so, wie bei Intel einige Spiele extrem aus dem Raster fallen, ist es auch bei meinem Test, wo es im Durchschnitt aller Spiele zwar „nur“ reichlich 9 Prozentpunkte Unterschied sind, aber manche Spiele bis zu 20 Prozentpunkte schneller agieren. Ich habe diese Benchmarks sehr bewusst auch nur mit der zweitschnellsten Intel-CPU erstellt, werde aber vor dem Launch natürlich nur die Prozente und nicht die realen Messwerte in FPS nutzen.

Das Ganze sieht in Full-HD übrigens kaum anders aus, wenn auch nicht mehr ganz so krass. Aber Nachteile hat die RX 6900XT definitiv keine und nur darauf kam es mir an. Hier spielen also weder die Vorlieben für Hersteller noch irgendwelche Emotionen eine Rolle, sondern der gesunde Menschenverstand. Sicher, es ist ein Mehraufwand, Gaming- und Workstation-Benchmarks getrennt vorzunehmen, aber damit lässt sich die Arbeit sogar etwas parallelisieren, wenn man sich den Aufwand redundanter Hardware antun kann. Und um es abschließend klarzustellen: Natürlich sind auch Benchmarks mit der GeForce RTX 3090 (oder der RTX A6000) definitiv nicht falsch, im Gegenteil, aber Nuancen werden bei dem Test mit der Radeon sicher eher sichtbar und deutlicher. Und nur darum ging es mir.

Womit wir auch schon wieder durch wären. Die 720p sind bei meinen Tests also gesetzt, die hohen Auflösungen auch. Denn selbst wenn in diesen die FPS-Balken für alle CPUs leider sehr ähnlich ausfallen, biete ich Euch ja weitere Details wie Leistungsaufnahme für jedes Spiel, die Frame Times und Varianzen und damit letztendlich auch eine sehr gut aufgeschlüsselte Effizienzbetrachtung. Dann ergeben auch solche Benchmarks wieder einen praktischen Mehrwert bis hin zur Überlegung, ob man ab WQHD („1440p“) überhaupt eine neue Plattform samt CPU braucht oder ob man vielleicht doch lieber erst einmal bei Windows 10 bleibt. Alder Lake gibts nur mit Zwangsheirat als WIntel-Couple, das muss man natürlich am Ende auch bedenken.

 

Kommentar

Lade neue Kommentare

Smartengine

Veteran

143 Kommentare 130 Likes

Was mir sauer kommt ist die Folie von Intel.
Die haben die Messungen unter Win11 gemacht noch bevor der AMD Patch draussen war der die Latenzprobleme des Caches löste.
Da dann einen Vorsprung anzudeuten ist einfach.
Wie viel es in Real-Life sein wird, da freu ich mich schon auf die fachlichen Auswertungen von Igor :giggle:

Antwort 5 Likes

S
Staarfury

Veteran

257 Kommentare 206 Likes

Irgendwie habe ich den Verdacht, dass Alder Lake beim Stromverbrauch nicht annähernd so schlecht dasteht, wie allgemein angenommen wird.

Aus Igors bisherigen Andeutungen lässt sich vermuten, dass der Gaming Vorsprung ja nicht allzu gross sein dürfte. Gleichzeitig scheint er dem Produkt nicht abgeneigt zu sein. Das lässt für mich eigentlich nur noch zwei Optionen. Sehr gute Multicore Leistung und/oder Effizienz.

Antwort 1 Like

ro///M3o

Veteran

334 Kommentare 233 Likes

“WIntel“ 🤣🤣🤣👌🏼 genial!!! Aber mich nervt das auch tierisch. Steam, gib Gas Junge… Linux for Games!

Antwort 1 Like

LEIV

Urgestein

1,540 Kommentare 619 Likes

Kann ich mir auch vorstellen, das die Effizienz im gaming Betrieb gut ist, aber in Anwendungen wo alle Kerne voll belastet werden sieht es wahrscheinlich nicht mehr so toll aus.

Antwort Gefällt mir

Igor Wallossek

1

9,953 Kommentare 18,237 Likes

Ich vestehe bis heute nicht, warum Intel das alles so aufs Gaming fokussiert. Das Marketing gehört eigentlich gebrainwasht. Geile CPU, falsche Zielgruppe. Mehr dann am Freitag. Donnerstag gibts Games. :D

Antwort 3 Likes

Martin Gut

Urgestein

7,662 Kommentare 3,492 Likes

Bei gewissen Gamern kann man am besten einen Hype auslösen. 🤪🥳

Antwort Gefällt mir

Igor Wallossek

1

9,953 Kommentare 18,237 Likes

Ja, aber die sind doch nur ein Teil der Käufer, die Marge fällt woanders ab. Gamer ist doch keine Berufsgruppe. Das ist fast schon eine Sozialprognose :D

Antwort 1 Like

noir.

Veteran

233 Kommentare 139 Likes

Hm, hat Intel zB beim erscheinen des 9900KS nicht ganz entschieden festgestellt, das synthetische Benchmarks eh vollkommen irrelevant sind und nur die "Real World Performance" zählt? Irgendwie sind sie ja putzig, die Jungs. Aber die Vergangenheit hat ja gezeigt, das Intels Balkendiagramme öfter mal etwas künstlerische Freiheit beinhalten.

Ich bin da vollkommen schmerzlos, ich kauf das was mir am meisten Leistung fürs Geld bringt. Aber Intels Marketing ist schon seit Ankündigung der Ryzen 1000er Serie vollkommen lächerlich geworden.

Antwort 2 Likes

RAZORLIGHT

Veteran

351 Kommentare 259 Likes

Typischer Intel Move bzgl. Ryzen und den Benchmarkfolien.
Dass Denuvo mal wieder Ärger macht ist auch keine Überraschung den Dreck braucht keiner.
Es gibt sogar eine EU Studie die belegt, dass Raubmordkopiererrei bei Spielen sogar einen positiven Trend auf die Verkaufszahlen hat.
Auch wird ein Raubmordkopierer nicht automatisch zu einem Käufer, wenn das Spiel nicht "kostenlos" verfügbar ist.
Früher war der Anteil an "Piraten* natürlich deutlich größer, im Verhältnis zu allen Spielern, aber Gaming ist enorm gewachsen und die meisten wissen noch nicht mal was ein Crack ist, Casuals eben. Dementsprechend ist dieses Thema immer unwichtiger was die Verkaufszahlen angeht.

Naja ein leidiges Thema.

Immerhin nimmt sich Igor dem Thema "welche GPU für CPU Tests an" während der Großteil wieder mit Nvidia testen wird.

Antwort 3 Likes

Zer0Strat

Veteran

162 Kommentare 138 Likes

Man kann es auch noch simpler formulieren: 720p, einfach weil man die CPU und eben nicht die GPU testen will.

Antwort 7 Likes

Igor Wallossek

1

9,953 Kommentare 18,237 Likes

Genau das. Und deshalb verwischt die GeForce eigentlich zu viele Details. Bis zu 20% sind echt ein Brett.

Antwort 4 Likes

konkretor

Veteran

291 Kommentare 292 Likes

Ich freue mich schon auf die benches von Igor nächste Woche

Antwort Gefällt mir

Igor Wallossek

1

9,953 Kommentare 18,237 Likes

Bin fast durch. Workstation dauert am längsten, vor allem bei den kleineren SKUs. Gaming ist fertig. :)

Antwort 3 Likes

W
Waldmeista

Mitglied

13 Kommentare 2 Likes

Bis inkl. des 9900KS der 127W TDP/PL1 und 159W PL2 hat, hat sich Intel ja an ihr selbstauferlegtes PL2=PL1x1,25 gehalten.
Danach kam die komplette Duldung für die Einfälle der Mainboardhersteller, mit wenigen Ausnahmen z.B. falls non-Z Bretter zu viel konnten.

Jetzt die Intelfolie mit diesem Hinweis, der für mit heißt: Default für unlocked 12th Gen ist PL1=PL2 ohne Zeiteinschränkung
Die Bewertung der unlocked 12th Gen Desktopprozessoren in der Standardkonfiguration wird die beste maximale Leistungsfähigkeit ermitteln.
https://www.igorslab.de/wp-content/uploads/2021/10/Intel-12th-Gen_Seite_27.jpg
der i7-K wird um 51W kastriert
der i5-K wird um 91W kastriert

Ich bin sehr gespannt welche PL2 aka MTP für wie lange Intel den non-K zugesteht ... wird wohl bis März dauern.

Kerne /Threads
Max Turbo
PL1
PL2
i9-12900K
8C+8c/24T​
5,2 GHz​
125 W​
241 W​
i9-11900K
8C/16T​
5,3 GHz​
125 W​
251 W​
i9-10900K
10C/20T​
5,3 GHz​
125 W​
250 W​
i9-10900
10C/20T​
5,2 GHz​
65 W​
224 W​
i9-9900KS
8C/16T​
5,0 GHz​
127 W​
159 W​
i9-9900K
8C/16T​
5,0 GHz​
95 W​
119 W​
i7-12700K
8C+4c/20T​
5,0 GHz​
125 W​
190 W​
i7-11700K
8C/16T​
5,0 GHz​
125 W​
251 W​
i7-10700K
8C/16T​
5,1 GHz​
125 W​
229 W​
i7-10700
8C/16T​
4,8 GHz​
65 W​
224 W​
i5-12600K
6C+4c/16T​
4,9 GHz​
125 W​
150 W​
i5-11600K
6C/12T​
4,9 GHz​
125 W​
251 W​
i5-10600K
6C/12T​
4,8 GHz​
125 W​
182 W​
i5-10600
6C/12T​
4,8 GHz​
65 W​
134 W​
i5-10500
6C/12T​
4,5 GHz​
65 W​
134 W​
i5-12400
6C/12T​
4,4 GHz​
65 W​
i5-11400
6C/12T​
4,4 GHz​
65 W​
154 W​
i5-10400
6C/12T​
4,3 GHz​
65 W​
134 W​
i3-10320
4C/8T​
4,6 GHz​
65 W​
90 W​
i3-10300
4C/8T​
4,4 GHz​
65 W​
90 W​
i3-10100
4C/8T​
4,3 GHz​
65 W​
90 W​

Antwort 1 Like

Klicke zum Ausklappem
Igor Wallossek

1

9,953 Kommentare 18,237 Likes

Das Lustige ist ja, dass diese Marketingfolien den Whitepapers und Specs widersprechen. Natürlich kann man das machen, aber bitte nicht so :D

Antwort 1 Like

g
gedi

Mitglied

33 Kommentare 5 Likes

Gut, aber ist das nicht praxisfremd? Ich finde die Percentile in 1440p und 4k interessanter. Wenn hier die min. Frames soweit steigen, dass wenigstens Gsync/Freesync immer greift .... Ich denke, dass sind Dinge, welche Anwender mit einer besseren Hardware interessieren würden.

Antwort Gefällt mir

D
Denniss

Urgestein

1,480 Kommentare 532 Likes

in 720p giert die GPU nach Daten und hier muß eine CPU zeigen wie schnell sie diese leifern kann. Insofern ist das keinesfalls praxisfern wenn man die Leisungsfähigkeit einer CPU messen will.
Die min frames in höheren Auflösungen werden natürlich auch rangezogen aber die können auch durch die GPU beeinflusst sein

Antwort 2 Likes

DrWandel

Mitglied

77 Kommentare 60 Likes

Guter Punkt. Was sind denn die größten Märkte für CPUs? Das sind ganz oben die Server in den Rechenzentren großer Firmen, für Cloud, Webservices, numerische Berechnungen und vieles mehr; das läuft oft unter LINUX, und da werden viele Cores pro Server gebraucht; in dem Bereich ist AMD EPYC gut positioniert, aber Alder Lake und Ryzen haben da nichts verloren.

Da sind natürlich die Millionen von Office-PCs, aber viele Firmen setzen inzwischen auf Notebook-PCs, und auch da hat eine CPU die bis zu mehreren hundert Watt schluckt nichts verloren. Kleinere Firmen, man denke auch an mittelständische Unternehmen und Handwerkerbetriebe, brauchen zuverlässige und günstige PCs und keine CPU-Spitzenmodelle.

Was bleibt dann? Gaming und Enthusiasten, Video-Bearbeitung und so was in der Richtung. Wenn man sich ansieht wie viele Nutzer auf Steam aktiv sind und bei den neuesten MMORPGs, dann ist Gaming ein recht ordentlicher Markt. Spieler mit WQHD und UHD stecken da vermutlich oft im GPU-Limit, vor allem dann wenn sie eigentlich eine neue Grafikkarte bräuchten, aber beim aktuellen Preisniveau zögern, und da tut dann auch eine Mittelklasse-CPU, bei den meisten Spielen zumindest. E-Sport-Spieler, die gerne eine dreistellige FPS-Zahl bei FHD haben, profitieren vielleicht am ehesten von einer Top-CPU, so meine Vermutung.

Was gibt es denn sonst noch für große Absatzmärkte für CPUs?

Antwort 1 Like

Klicke zum Ausklappem
Igor Wallossek

1

9,953 Kommentare 18,237 Likes

Ihr seht es immer aus der Sicht der Selberbauer und gut informierten, technik-affinen Leser, was natürlich legitim ist. Allerdings sollte man die Umsätz bei den SI und den großen Fertig-PC Anbietern (Dell u.a.) nicht unterschätzen, denn gerade dort werden echte Stückzahlen umgesetzt. Da sind Mindfactory & Co nur kleine Tröpfchen im Wind. Deutschland ist, auch was die Selberbauer betrifft, eine echte Ausnahme. So einen SI muss man allerdings schon anders überzeugen, denn da geht es am Ende nur um Stückzahlen, Margen und Absätze. Aktuell ist es allerdings so, dass sich die einfacheren Fertig-PCs vor allem über den Preis und die Datenträgerkapazität definieren, die teureren "Gaming"-PCs fast immer nur über die Grafikkarte und den RAM. Die Anzahl der Kerne bei den verbauten CPUs nicht zu vergessen. E-Sport ist im Wachsen, aber es ist noch lange kein Massenphänomen. Ich habe öfters Kontakt zur Branche und weiß auch, wo aktuell die Trends hingehen.

Intels Vorteil ist die integrierte Grafik, die es quasi für lau dazu gibt. In diesen Bereichen generiert man Umsätze, die auch durch die Homeoffice-Geschichten nicht so stark in Richtung Laptop gekippt sind, wie allgemein befürchtet. Denn produktiv an einem 15"- oder 17"-Display kann man auf Dauer nun mal nicht arbeiten. Und dann kommt die Content-Creation dazu, denn auch das funktioniert ja nicht nur über Grafikkarten.

Meine ganz private Meinung ist, dass CPUs wie ein 5950X oder 12900K eigentlich nur etwas für eine kleine Randgruppe sind. Enthusiasten, die so etwas einfach haben wollen oder glauben, ohne die Teile zu sterben. Ich zocke und arbeite hier im Büro noch an einem PC mit einem alten 9900K, was für mich als UHD-Gelegenheitszocker mehr als ausreicht, weil es ja eh die Grafikkarte richtet. Nachteile gibt es partiell, aber dafür gibts die Workstation mit dem Threadripper im "Gaming"-Table (an dem ich aber nie zocke). Aber da war so schön viel Platz für die Wakü, die bis zu 900 Watt wegschaffen muss. Den Rest verbuche ich unter Bequemlichkeit, Zufriedenheit und auch Nachhaltigkeit. Die CPU hat schon 3 SSDs überlebt, auch eine Erkenntnis. :D

Dieser Wahn, alles auf der letzten Rille fahren zu müssen, ist mittlerweile echt absurd. Da brüstet man sich bei einer Gaming-CPU mit Cinebench-Werten, die weder Gamer noch Creators in der Praxis jemals interessieren werden. Wozu dann eigentlich? Künstlich kontruierte Best-Cases, mehr nicht. Ich habe den 12900K sowohl mit PL1 auf 125 Watt als auch auf 241 Watt gebenchmarkt und festgestellt, dass das kleinere PL1 im Durchschnitt der Produktivanwendungen sogar höhere Werte lieferte. Klingt erst einmal paradox, ist es aber nicht, wenn man den Einsatz der E-Cores überwacht. So perfekt ist Intels Thread-Director nämlich auch nicht und es schwächelt meist dann, wenn man sich im Mittelfeld zwischen Full-Load oder Idle befindet und Applikationen verschiedene Load-Szenarien gleichzeitig generieren, z.B. Simulationsberechnung zusammen mit 3D-Realtime und dem Schreiben von Daten. Man kann sich nämlich auch zu Tode saufen. :D

Antwort 8 Likes

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung