Intel Alder Lake: Gaming Performance Benchmarks – Warum ich in 720p erneut mit einer AMD Radeon RX 6900XT statt einer NVIDIA RTX A6000 messe

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.803
Bewertungspunkte
8.710
Punkte
1
Standort
Redaktion
Sicher, der Vollausbau des GA102 ist, vor allem übertaktet und gut gekühlt, ein gewaltiges Brett. Es ist eine Karte, die einer normalen GeForce RTX 3090 auch bei der Gaming-Performance in nichts nachsteht, dafür aber deutlich effizienter zu Werke geht. Doch für CPU-Tests im CPU-Bound (“Flaschenhals”) mit Auflösungen ab 1080p abwärts sind nicht nur der Chip...
Hier den ganzen Artikel lesen
 
...

Intels Vorteil ist die integrierte Grafik, die es quasi für lau dazu gibt. In diesen Bereichen generiert man Umsätze, die auch durch die Homeoffice-Geschichten nicht so stark in Richtung Laptop gekippt sind, wie allgemein befürchtet. Denn produktiv an einem 15"- oder 17"-Display kann man auf Dauer nun mal nicht arbeiten. Und dann kommt die Content-Creation dazu, denn auch das funktioniert ja nicht nur über Grafikkarten.

...
Also, da bin ich nicht ganz der gleichen Meinung. Viele Firmen legen Wert darauf, dass die Daten gut geschützt sind, und das ist einfacher und besser zu machen wenn man auf das Firmen-Netzwerk von unterwegs oder im Home-Office mit einem Firmen-Laptop zugreift statt mit einem privaten PC. Ich selbst bin im Home-Office mit einem MacBook Pro meines Arbeitgebers 'unterwegs', und ich habe eine externe Maus und den großen Bildschirm meines Spiele-PCs angebunden (32 Zoll, WQHD). Soweit ich weiß wird das von vielen Firmen so gehandhabt, wenn auch die meisten Windows-PCs/-Laptops bevorzugen.

Kleine persönliche Randbemerkung an dieser Stelle: Wenn man so wie ich hauptsächlich mit LINUX arbeitet (auch MacOS ist im Kern ein LINUX-Derivat), dann ärgert man sich immer wieder wenn man zum Spielen Windows verwenden muss. :-(
 
Es geht nicht um private PCs, sondern um kleinere PCs, die den SI aktuell aus den Händen gerissen werden und NICHT als Privateigentum durchgehen. Die Erneuerungs- und RMA-quote bei den viel empfindlicheren Notebooks ist erschreckend, dazu kommen noch die meist höheren Anschaffungskosten. Ich rede hier auch nicht von einem Unternehmen mit 10 Leuten, sondern sehe, dass ganze Abteilungen ausgelagert wurden.
 
Bei uns werkeln ca. 300 kleine Würfel mit i5 und 8 GB RAM als Office-Arbeitstiere. Am besten alle genau gleich konfiguriert, damit möglichst wenig Treiberärger vorkommen kann. In der Vergangenheit war da Intel immer gebucht, eben wegen der integrierten Grafik. Wenn das dann über Jahre funktioniert und dann eine Neuanschaffung ansteht, wird nicht lange überlegt und wieder zu Intel geriffen, selbst wenn AMD auf einmal Ähnliches liefern kann. Seit Win 10 ist das echt easy, Betriebssystem drauf, manchmal ist eine nachgelagerte Treiberinstallation für die integrierte Grafik nötig, fertig ist der Lack. Kein umständliches Treibergerickel wie bei Win 7.
Da interessiert der Selbstbau null. Maximale Performance auch nicht, sogar die Lautstärke steht nicht ganz oben auf der Liste - ist aber gut bei den kleinen Würfeln - kaum zu hören die Dinger.
Ich kann mir gut vorstellen, dass das bei vielen Firmen so ist. Da werden massig fertig konfigurierte Mini-Desktops gekauft. Die Verwaltung ist teurer wie das Kaufen der Computer. Leider wird sogar manchmal überlegt, ob so ein kleiner defekter Würfel nicht einfach ersetzt wird, bevor nachgeschaut wird, was eigentlich kaputt ist. Arbeitszeit ist teurer...
Ich sehe es so: Maximale Performance ist wichtig fürs Marketing und das sich Brüsten als Nr. 1. Geld gemacht wird mit den einfachen Arbeitstieren. Da ist der Markt dann aber auch echt träge, ohne Not wird niemand die Plattform wechseln, nur wegen ein paar Benchmarkpunkten.
 
Igor, zum Thema „einen 5950 oder 12900 braucht keiner“ bzw. kauft nur eine spezielle Käuferschicht darfst Du aber auch nicht vergessen, dass dein so nachhaltiger 9900 damals genau aus dieser Schublade kam. ;) Das heißt, bei einer Neuanschaffung hast auch Du ganz oben ins Regal gegriffen. :D

Am Ende ist das quasi nur die Logik, wer oben einsteigt, ist länger schnell. Oder bekommt mehr auf dem Gebrauchtmarkt.

Die Frage ist also eher, WANN / wie oft kauft man neuen Krempel, weniger WAS kauft man.

Fairerweise stehe ich bei so einer Betrachtung sehr schlecht da und reiße es nur auf über die Nutzungsdauer raus, wenn man Family & Friends mit einbeziehen darf.

Spannender als diese kastrierten CPUs finde ich aber, was im HEDT Bereich passiert: mehr als die paar kümmerlichen Lanes gibts ja nur beim TR (Intels Pendents sind ja de facto tot) und selbst AMD hält sich da momentan leider schwer bedeckt. Dabei könne man die ja sogar mit ein paar der kleinen Stromsparkerne im Huckepack richtig officetauglich machen…
 
Igor, zum Thema „einen 5950 oder 12900 braucht keiner“ bzw. kauft nur eine spezielle Käuferschicht darfst Du aber auch nicht vergessen, dass dein so nachhaltiger 9900 damals genau aus dieser Schublade kam. ;) Das heißt, bei einer Neuanschaffung hast auch Du ganz oben ins Regal gegriffen. :D

Am Ende ist das quasi nur die Logik, wer oben einsteigt, ist länger schnell. Oder bekommt mehr auf dem Gebrauchtmarkt.

Die Frage ist also eher, WANN / wie oft kauft man neuen Krempel, weniger WAS kauft man.

...
Das kommt aber auch sehr darauf an was man macht und was man braucht. Jemand der unbedingt immer die neuesten und besten Titel auf UHD spielt hat andere Anforderungen als jemand der weniger anspruchsvolle Spiele auf FHD oder WQHD nutzt. Ich gehöre eher zur zweiten Gruppe und bin noch ganz zufrieden mit Ryzen 1600X und GTX 1080, jetzt seit mehr als vier Jahren. Gut, die GPU war damals die zweitbeste, aber die CPU 'nur' obere Mittelklasse.
 
Zuletzt bearbeitet :
Das kommt aber auch sehr darauf an was man macht und was man braucht. Jemand der unbedingt immer die neusten und besten Titel auf UHD spielt hat andere Anforderungen als jemand der weniger anspruchsvolle Spiele auf FHD oder WQHD nutzt. Ich gehöre eher zur zweiten Gruppe und bin noch ganz zufrieden mit Ryzen 1600X und GTX 1080, jetzt seit mehr als vier Jahren. Gut, die GPU was damals die zweitbeste, aber die CPU 'nur' obere Mittelklasse.
Ich kann dir aus eigener Erfahrung sagen, dass in FHD ein CPU-Upgrade ordentlich FPS bringt. Bei WQHD kommt es auf deine Einstellungen an.
Ansonsten geht es mir ähnlich: Ich fahre immer in der CPU-Mittelklasse und investiere in die GPU. Legendär waren bei mir 980 Ti ROG STRIX in Kombination mit ner 2500er Sandy Bridge. Die CPU lief 7(!) Jahre und die GraKa hat 3 Jahre lang auch WQHD ordentlich befeuert.
An Igors Kommentar ist aber interessant, dass es aktuell keine Highend-CPU braucht, um in WQHD oder drüber mit max. Details zu zocken. Selbst nach dem Upgrade von 1600X auf 3700X sind die FPS bei mir zwar mess- aber nicht spürbar angestiegen.
 
Ihr habt alle Recht 😁✌🏼

Ich glaube, dass es den “perfekten“ PC in diesem Sinne “noch“ garnicht gibt. Weswegen auch die Hersteller versuchen möglichst viele Szenarien mit einer HW ab zu decken wie jetzt Intel mit dem Big Little Prinzip oder allgemein alle mit dem Energiemanagement, deep sleep und Boost etc.
Ich denke, dass je Anwendungsfall und tatsächlicher Gebrauch / Notwendigkeit unterschiedliche Aussagen auf unterschiedlichster Weise “zutreffend“ sind.
Die Fälle, um den längsten Balken zu haben oder um die Signatur zu Tunen ohne nur im Ansatz die HW zu brauchen / zu verstehen (was gibt es Verschwenderisches und schlimmeres als sie nicht benutzen zu können weil man absolut keine Ahnung davon hat!) klammere ich mal aus. Das kann man auch so für andere HW nehmen wie Smartphones, Uhren, Hifi, Autos usw… Wobei das trotz “Moralfrage“ ebenso zu den (persönlichen) “Bedürfnissen“ gezählt werden muss wenn man es eben aus diesem (Besitzen) Grund kauft. Wie ist Moral, Ethik und Vernunft aktuell denn schon zu bewerten? 🥴

Bei mir treffen jedenfalls mit meinem Geschäftsnotebook, meinem Office, Nachschlage und Surf Einplatinen PC, meinem in Retro Emulator PC umfunktionierter EX Allrounder PC mit dem auch Youtube und Twitch benutzt wird und zuletzt mein aktueller Video und Foto Edit / Gaming PC alle Aussagen zu.
Meine Retro Kiste hätte sogar heute noch das Zeug dazu anspruchsvollere Aufgaben und die meisten Games ordentlich zu bewältigen, nicht zuletzt wegen dem riesigen L3 der CPU und zusammen mit der ehemaligen Vega64 die nun in den aktuellen Build gewandert ist. Der Einplatinencomputer von DFI verbraucht unter Vollast inkl. Peripheri gerade einmal 20-25W und ist passiv gekühlt was für mich für seinen Einsatzzweck mit ca. 20h Betriebszeit pro Tag sehr wichtig war. Das aktuelle Eddit/Gaming PC mit 5800X entstand eher durch Basteltrieb wegen ITX Fanatismus und wegen der beachtlichen Multithread Leistung was echt Spaß macht. Er wird durch div. Optimierungen wie UV-OC sicher mindestens so lange wie mein Retro PC durchhalten. Da hätte ich jetzt auch ganz oben beim 5900X oder 5950X zugreifen können aber hätte ich niemals ausnutzen können. Schade ums Geld und verpuffte (blinde) Energie.

Natürlich wurden nicht alle auf einmal zu gelegt sondern je nach Bedürfnissen mit der Zeit bzw. wurden die Aufgaben einfach umgestaltet und ältere HW weiter “verwertet“ anstatt in die Tonne zu wandern. Inzwischen deckt das Portfolio jedoch so ziemlich alle Szenarien für mich in optimaler Form ab womit ich wieder bei meiner Aussage wäre. Der ideale PC ist der, der für die aktuelle Aufgabe der geeignetste ist. Preis/Leistung/Effizienz sollte man nicht unbeachtet lassen auch wenn Die Rechnung “finanziell“ von anderen getragen wird. Spaß gehört definitiv dazu wenn es das Hobby darstellt aber bei den Preisen macht es schon lange keinen Spaß mehr.
 
Zuletzt bearbeitet :
Du sagst es: Da ich auf Gaming fixiert bin, ist Grafikleistung alles. Der Leistungszuwachs rechtfertigt aber den Invest in keinster Weise.
Bei mir "ruht" deshalb der eine Teil des Hobbys (Bastelei). Gaming geht ja zum Glück noch.
Ich hab halt auch Glück gehabt, konnte das X370 Board mit nem UEFI-Flash 3700X-kompatibel machen, mittels NVMe die Ladezeiten beschleunigen und kann dank 2080S und G-Sync Monitor in WQHD mit hohen Einstellungen daddeln. Ich mach selten ein Plattform-Update, einfach, weil ich es nicht brauche.

Als anspruchslos würde ich mich aber auf keinen Fall bezeichnen. Ich bin nur bei der FPS-Hechelei nicht dabei. Insofern ist Alder Lake nach aktuellem Informationsstand für mich total uninteressant. Von dem Wattzahl-Wettrennen will ich garnicht anfangen...
 
Bei mir ist’s ganz einfach: wenn ich ein gutes Spiel habe, muss ich nicht Basteln - jedenfalls wenn das Spiel bei Release halbwegs vernünftig läuft, was bei mir sehr oft der Fall ist. Kommt aber leider zu selten vor, dass ich so ein Spiel hab.

Hab ich KEIN solches Spiel, muss ich die Zeit halt mit der Vorbereitung der Hardware verplempern - und das auf „gut Glück“ (=teuer), denn die Specs eines unbekannten Spiels sind ja auch unbekannt…. :D
 
Bin auf jedenfall gespannt auf die "echten" Benchmarks und realen Verbrauch :)

Ich hab mich entschlossen doch erstmal nur neues MB + CPU zu kaufen ... mein i4590k hat bei aktuellen Spielen schwer zu kämpfen.
Geht noch alles aber ich habe immer öfters derbe hakler in den Spielen. Oder doch noch auf Zen 3D warten ?

PS: waum Spieleleistung beworben wird ... naja oft ist es so wenns zum Daddeln reicht geht alles andere auch ... Also Gaming ist die Maximalanforderung beim normalen Heim-PC
 
Zuletzt bearbeitet :
Einmal blöde Frage:

Die Nvidia Karten brechen auf 720p ja deswegen so ein, da Nvidia einen höheren Driver Overhead hat.
Sollte deshalb nicht erst recht eine 3090 oder ähnliches eingesetzt werden, da hier die CPU eben schon viel früher limitiert.

Man könnte das sogar so argumentieren, dass gerade Nvidia Spieler eine starke CPU brauchen, während es mit einer AMD GPU auch die Vorgängergeneration tut.
 
Nein. Warum? Es geht darum, herauszufinden, mit welcher CPU die meisten Frames erzeugt werden. Das misst du doch nicht, indem du ne Grafikkarte nimmst, die bei 720p komplett einbricht.
Der Anwendungsfall ist doch auch nicht vorhanden: Mit welcher CPU kriege ich aus meiner 3090 in 720p noch mehr Frames rausgequetscht?!?
 
Die 3090 bricht ja nicht ein, weil sie langsamer ist. Die 3090 bricht ein weil es einen höheren Treiber Overhead gibt und dadurch die CPU pro Frame mehr Rechenaufwand hat und deshalb früher bremst.
 
Es geht letztendlich darum, dass in 720p mit einer 6900 CPU1 400 fps erreicht und CPU2 360 fps. Mit der 3090 stecken beide bei 330 fps fest. Welche GPU ist denn nun sinnvoller für den Test?

Bei den Nvidia Karten ist ja nicht einfach die CPU Auslastung linear um x% höher. Vielmehr gibt es 2 Phänomene:
Mit einer schwachen CPU ist man schneller im CPU Limit.
Die maximal erreichbaren FPS bei geringer GPU Auslastung sind tiefer.
 
Streitet Ihr jetzt echt, welches lebensfremde Testsetup weniger lebensfremd ist?

Wegen mir kann man auch linpack nehmen oder sonst irgendwas - überhaupt ein CPU-Test mit GPU-Bezug (selbst bei 720p) ist m.E. auch im Hinblick auf jedwede „Gaming-Aussagekraft in der realen Welt“ völlig Banane - da kann ich auch Crypto minen lassen.

Und wer jetzt daher kommt „aber ist doch immerhin die gleiche Engine“, verkennt, dass auch die Engines nicht auf maxFPS bei minRes optimiert werden, sondern genau umgekehrt auf MIN-FPS bei MAX-RES. Das sich das Ergebnis nicht 1:1 skalieren lässt und wie witzlos die Aussagekraft am Ende ist, sieht man ja schon genau daran, dass die Ergebnisse außerhalb dieses konkreten Settings keine Rolle spielt und eben genau auf das Zusammenspiel mehrerer Komponenten ankommt.

Kann man machen - ich werde da jedenfalls bei meiner Kaufentscheidung einen Furz drauf geben wie toll eine CPU auf einer Mäusekino-Auflösung performed, egal mit welcher Graka.

Igor nimmt halt vermutlich die Graka und Auflösung, damit man überhaupt noch nen nennenswerten Unterschied sieht.
 
Es geht letztendlich darum, dass in 720p mit einer 6900 CPU1 400 fps erreicht und CPU2 360 fps. Mit der 3090 stecken beide bei 330 fps fest. Welche GPU ist denn nun sinnvoller für den Test?

Bei den Nvidia Karten ist ja nicht einfach die CPU Auslastung linear um x% höher. Vielmehr gibt es 2 Phänomene:
Mit einer schwachen CPU ist man schneller im CPU Limit.
Die maximal erreichbaren FPS bei geringer GPU Auslastung sind tiefer.
Genau das ist eben nicht der Fall da die 330fps kein GPU Limit sondern ein CPU Limit sind. Wenn CPU1 330fps mit der 3090 schafft, dann schafft CPU2 nur mehr 290fps.

Ein gutes Beispiel für den Effekt sieht man z.B. hier:

Während bei starken CPUs Nvidia und AMD gleich stark sind bricht Nvidia bei schwachen CPUs stärker weg (7% bei 2 Kernen)

Etwas anderes wäre es wenn man statt der 3090 eine 3070 nehmen würde.
Streitet Ihr jetzt echt, welches lebensfremde Testsetup weniger lebensfremd ist?

Wegen mir kann man auch linpack nehmen oder sonst irgendwas - überhaupt ein CPU-Test mit GPU-Bezug (selbst bei 720p) ist m.E. auch im Hinblick auf jedwede „Gaming-Aussagekraft in der realen Welt“ völlig Banane - da kann ich auch Crypto minen lassen.

Und wer jetzt daher kommt „aber ist doch immerhin die gleiche Engine“, verkennt, dass auch die Engines nicht auf maxFPS bei minRes optimiert werden, sondern genau umgekehrt auf MIN-FPS bei MAX-RES. Das sich das Ergebnis nicht 1:1 skalieren lässt und wie witzlos die Aussagekraft am Ende ist, sieht man ja schon genau daran, dass die Ergebnisse außerhalb dieses konkreten Settings keine Rolle spielt und eben genau auf das Zusammenspiel mehrerer Komponenten ankommt.

Kann man machen - ich werde da jedenfalls bei meiner Kaufentscheidung einen Furz drauf geben wie toll eine CPU auf einer Mäusekino-Auflösung performed, egal mit welcher Graka.

Igor nimmt halt vermutlich die Graka und Auflösung, damit man überhaupt noch nen nennenswerten Unterschied sieht.
Wenn du dir heute eine CPU kaufst so wirst du mit jeder aktuelle Spiele problemslos spielen können und wirst durchgehend GPU limitiert sein egal ob mit einem 11400F oder einem 12900K. Da braucht man gar keine Reviews machen.

Die Frage ist nur wie sieht es in 1-2 Jahren aus wenn Navi31 kommt mit angeblich 2.5x Performance. Was ist in 3-5 Jahren mit RDNA4 oder Hopper in 3nm oder kleiner. Dann verhält sich 4K in etwa so wie jetzt 720p.

In einem CPU Review will man wissen wie schnell die CPU ist und nicht ob die aktuell komplett überteuerten GPUs am Markt mehr oder weniger bremsen.
 
Richtig. Und deshalb testet man möglichst viele Anwendungen. Dann hat man spezifische Leistung und jeder kann die für ihn passende raussuchen.
Gaming gehört für mich nicht dazu. Die Erfahrung lehrt, dass von Mittelklasse CPU zu Highend CPU (was ist das in dem Zusammenhang überhaupt? Einige Games skalieren mit Kernen, die meisten mit Takt/Kern) die Unterschiede <10% sind. Daran ändern auch 1-2 Jahre nix. Mein Spielerlebnis wurde noch nie auf ein neues Level gehoben, weil ich statt 80 plötzlich 90 FPS hatte. Dafür sind GraKa, Display und Sync-Technologie zuständig.
 
Die Frage ist was soll ein CPU Test dann beinhalten?
Nur mehr Cinebench und Blender, die mir sagen, dass ich unbedingt einen 5950X brauche obwohl ich solche Anwendungen nie nutze?
Vielleicht mal Word/Excel/Outlook/Browser usw. testen? Ach ne das war ja eine Intel Idee mit Sysmark.

Natürlich ist die GPU auch eine wichtige Komponente aber im Zweifelsfall investiere ich lieber zu viel in die CPU als in die GPU, denn wenn die GPU zu schwach ist braucht man nur die Details/Renderauflösung ein Stück runter stellen und alles flutscht wieder dahin mit minimalen optischen Einbußen. Ist die CPU zu lahm, dann kann man die Framerate vergessen und mittlerweile will ich mir unter 60fps einfach nicht mehr antun.

Klar die 60 FPS macht derzeit jede CPU, auch die nächsten 2-3 Jahre aber mit einem guten Händchen für den richtigen Aufrüstzeitpunkt eben noch deutlich länger. Meinen 2600K hatte ich z.B. von Anfang 2011 bis Ende 2018. Mit einem 12700K oder 5900X mit VCache bin ich optimistisch, dass man wieder 7-8 Jahre seine Freude haben wird. Mit einem 5600X oder 11600K ist das vermutlich eher eine Investition für die nächsten 3-4 Jahre (wenn auch ein Stück günstiger).
 
Damit hast Du doch gerade alle Argumente geliefert, warum beim Spieletest die Grafik so weit heruntergedreht wird. Eben um die CPU-Frames zu ermitteln und nicht die der dicken Grafikkarte. Softwarebdingte Limitierungen über CPUs zu lösen ist doch kein Test.
 
Oben Unten