Intel Core Ultra 9 285K, Core Ultra 7 265K und Core Ultra 5 245K im Gaming- und Workstation-Test: Wenn aus mehr plötzlich weniger wird

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
2.344
Bewertungspunkte
11.359
Punkte
1
Standort
Redaktion
Endlich ist es soweit und die Ergebnisse für Intels neue Core Ultra 200-Serie liegen auf dem Tisch. Ich kann schon einmal spoilern, dass wir heute im Vergleich zu AMDs Ryzen 9000-Serie sehr interessante, aber teils gemischte Ergebnisse sehen werden, insbesondere im Bereich Gaming. Die Spannungskurve war auch bei mir extrem angespannt und so kam es am Ende dann auch, wie es unter solchen Umständen wohl kommen musste: Ratlosigkeit, Erstaunen, Freude und Enttäuschung als Quartetto Infernale in trauter Runde. Man war so ziemlich hin und her gerissen. Doch zurück zum Thema Intel. In synthetischen Benchmarks un der Workstation wissen die neuen […] (read full article...)
 
In WQHD wird nun alles schon etwas gleicher und in Ultra-HD wäre de facto kaum noch ein Unterschied zu sehen. Deshalb werde ich diesmal bei WQHD aufhören, denn in fast allen Spielen greift bereits auch das GPU-Limit immer stärker.
In einem Rechner mit AutoCAD, Solidworks oder Inventor Pro könnte ich mir Arrow Lake S gut vorstellen, aber in einem Gaming PC? Wohl eher nicht.
Interessante Schlussfolgerung - wenn ich mal etwas polemisieren darf, liest sich das ein bisschen wie "wir haben den Bohrhammer zwar nicht mit einer Betonwand getestet, aber beim Vergleichstest an einer Sperrholzplatte schnitt er schlechter ab als das Vorgängermodell." :unsure:
 
Interessante Schlussfolgerung - wenn ich mal etwas polemisieren darf, liest sich das ein bisschen wie "wir haben den Bohrhammer zwar nicht mit einer Betonwand getestet, aber beim Vergleichstest an einer Sperrholzplatte schnitt er schlechter ab als das Vorgängermodell." :unsure:
Eigentlich nicht, wenn ist es eher: "wir haben den Bohrhammer zwar nicht an einer Sperrholzplatte getestet aber an der Betonwand schnitt er schlechter ab als der Vorgänger"

Bei CPUs skaliert Auflösung ja eher andersrum, also je höher die Auflösung desto weniger muss die CPU leisten.
Deswegen suche ich ja auch jetzt erst nach einem Ersatz für meinen i5 9600K, bis Anfang dieses Jahres hat der für 2160×3440 noch gereicht.
 
mein StepIn in 1851 wird sicher Beast Lake, ob nun mit oder ohne RoyalCore.
Köchelt die Gerüchteküche nicht, dass nach Arrow Lake (und evtl nen Refresh) wieder nen neue Sockel kommen soll?

Grundsätzlich finde ich den Ansatz gut: Nahezu gleiche Leistung in Spielen bei besserer Effizienz + deutlich mehr in Produktivanwendungen.

Wenn man ein reiner hardcore Gamer ist, führt eh kein Weg am X3D voebei.
 
Köchelt die Gerüchteküche nicht, dass nach Arrow Lake (und evtl nen Refresh) wieder nen neue Sockel kommen soll?

Grundsätzlich finde ich den Ansatz gut: Nahezu gleiche Leistung in Spielen bei besserer Effizienz + deutlich mehr in Produktivanwendungen.

Wenn man ein reiner hardcore Gamer ist, führt eh kein Weg am X3D voebei.
Ich Game quasi null, daher ist mein Blick auf die Worker gerichtet, und spezielle die gute Arbeitsverteilung und damit die Effizienz.
Man darf ja auch nicht vergessen, HT ist weg, Beast Lake soll deswegen ja mit bis zu 32 oder 36 Kernen/ Threads kommen.
Beast sollte zwischendurch quasi das neue RoyalCore Konzept bekommen, das hat man aber meines Wissens nach eingestellt, aber mein Stand ist, das Beast 26 auf 1851 kommt.
Da ich halt keine Gaming Ambitionen habe, ist für mich dieser Effizienz Schritt das Beste. Am Leistung hatte ich bei 13. Und 14.Gen schon keinen Mangel, die Effizienz hat mich genervt.
Wenn Windows jetzt noch dem verbesserten Thread Manager Rechnung trägt, wird selbst Arrow für mich interessant
 
Ich Game quasi null, daher ist mein Blick auf die Worker gerichtet, und spezielle die gute Arbeitsverteilung und damit die Effizienz.
Dann wäre ich ziemlich flott beim Threadripper... vernünftig viele Lanes für alles was das Herz begehrt, noch recht ordentliche Single-Thread-Performance und "Worker" ohne Ende. Effizienz ist für die gebotene Leistung auch ok.
 
Auch ich danke für diesen Text.

@Igor Wallossek Eine Rückfrage bzw. Bemerkung hätte ich dann doch: es wurde folgendes erwähnt " AMD darf sich über Precision Boost Overdrive (Auto) freuen, was ja per Default bereits so voreingestellt wurde....".

Das AUTO bedeutet beim 9950X, dass 170W TDP und damit max. 200W PPT gelten.

Daher ist es verwunderlich, warum im Stromverbrauchstest Blender igobot 242W, also 21% über den zulässigen 200W beim 9950X für "CPU only" als durchschnittlicher Wert gemessen wurden. In den meisten anderen Reviews ist mit Standardeinstellungen bei ~200W eine Grenze (für Maximum).

Ist das ggf. ein Mess/Tippfehler oder copy&paste Fehler oder gibt es eine andere Erklärung dafür? Danke.



Nachtrag: beim 9700X sollte bei 65W TDP bzw. dann bei 88W PPT Schluß sein - im Test ~141W.
Wurde im UEFI ggf. die optionale Freischaltung vom 105WTDP (=142W PPT) Modus aktiviert?
 
Zuletzt bearbeitet :
Da es hier nicht gemacht wurde: gibt es einen iGPU Test?
Das wäre ja auch interessant mit den neuen CUs.
 
Daher ist es verwunderlich, warum im Stromverbrauchstest Blender igobot 242W, also 21% über den zulässigen 200W beim 9950X für "CPU only" als durchschnittlicher Wert gemessen wurden. In den meisten anderen Reviews ist mit Standardeinstellungen bei ~200W eine Grenze (für Maximum).

Ist das ggf. ein Mess/Tippfehler oder copy&paste Fehler oder gibt es eine andere Erklärung dafür? Danke.

Nachtrag: beim 9700X sollte bei 65W TDP bzw. dann bei 88W PPT Schluß sein - im Test ~141W.
Wurde im UEFI ggf. die optionale Freischaltung vom 105WTDP (=142W PPT) Modus aktiviert?

Das habe ich hier schon versucht zu erklären:
Vielleicht nehme ich noch einmal ein anderes Board und teste das nach, aber ich kann nur schreiben, was ich hier in den Logfiles sehe.

Der 9700X ist mit dem 105 Watt-Schalter drin (steht auch im Link oben).
 
Ich find's schon irgendwie schade, dass die Tendenz weg von einer "all-purpose" Lösung bzw. weg vom "jack of all trades" geht, der alles "am besten kann", sondern man jetzt sich auch beim PC selbst ganz oben im Regal entscheiden muss, was will ich eigentlich damit machen?

Früher(tm) war der beste Gamer auch der beste in Anwendungen (mal Threadripper und die fetten Intel Workstation-CPUs zu Zeiten vom S2066 außen vor). Wenn Intel nun gar keine Lust mehr hat, CPUs (auch) für Gamer zu optimieren - oder wenigstens dann für Gamer optimierte separate CPUs zu bauen - fänd' ich das doof. Naja, wer weiß, vielleicht zaubert Intel ja irgendwann auch noch sowas wie nen Ultra3D o.ä, aus dem Hut... ;)
Lust haben die bestimmt schon, aber dann müssten die E-Cores raus. Dann würden die aber total bei Effizienz und Temperatur abkacken - die FX CPUs von AMD sehen jetzt ja schon wie Musterknaben gegen die Intel CPUs aus.
Es kommt ja auch auf de Zielsetzung der Konzernleitung an. Die einen CEOs vergnügen sich gerne mit Mitarbeiterinnen und die anderen haben bereits seit der PS3 an Gaming-CPUs gearbeitet und sind ausgewiesene Experten in der CPU-Entwicklung.
Letztlich verkaufen sich Dinge primär über Werbung und Vertriebspartner und da ist Intel traditionell ganz groß und trifft entsprechende Entscheidungen.
 
Phyton 3.6? I’d like to see the Python performance with a faster version. Something more recent like 3.12 would be more useful.
 
Grundsätzlich finde ich den Ansatz gut: Nahezu gleiche Leistung in Spielen bei besserer Effizienz + deutlich mehr in Produktivanwendungen.
Habe das so verstanden, dass die Spieleleistung bei einem 14700k liegt und nicht bei dem vergleichbaren 14900k, also ist die doch eher stark eingebrochen gegenüber dem Vorgänger?
 
Habe das so verstanden, dass die Spieleleistung bei einem 14700k liegt und nicht bei dem vergleichbaren 14900k, also ist die doch eher stark eingebrochen gegenüber dem Vorgänger?
4 popelige % bei 1440p und noch weniger Unterschied bei 4K.
Das ist nix was man in der Praxis bemerken würde.

Mal sehn wies aussieht wenn die Software besser mit der neuen Architektur kann.
 
finde ich, dass das ein Schrott in die genau richtige Richtung
Wenn es sich um einen Tippfehler handelt, fast er doch die Gaming Performance sehr geil zusammen! 😃👍

Für diejenigen deren Welt nicht nur aus FPS und Benchmark Balken besteht ist die neue Generation eine gute Antwort auf AMD.
Bleibt zu hoffen das der LGA 1851 mehr als eine Generation Core Ultra beherbergen darf, denn die Konnektivität ist vorbildlich.
Der Zugewinn bei der Effizienz verdient Respekt gerade wenn man bedenkt das auf SMT verzichtet wurde.
Ich bevorzuge zwar AMD Systeme aber das könnte sich ändern!
Well Done, Intel!

@Igor Wallossek
Danke für den Test und dein differenziertes Fazit! 👍
 
Nur drei Seiten Kommentare, das sagt auch schon was aus...

Steht eigentlich eine Leistungssteigerung durch ein Update des Windows Schedulers zu erwarten oder eher nicht?
 
Könnte ich mir schon vorstellen.
 
Die Anordnung der E-Cores auf dem Die soll ja für Probleme sorgen. Ist die Frage, ob man das mit Software hinbekommt!?
 
Es ist schon witzig, wenn Intel Offizielle argumentieren, dass man zugunsten einer vernünftigen NPU mit mindestens 40TOPS auf Kerne hätte verzichten müssen und die Enthusiasten bräuchten eher die Kerne und die (läppische) NPU3 mit unterirdischen 13TOPS anstatt einer NPU4, die zumindest die geforderten 40 TOPS für eine Copilot CPU erfüllen würden und dann hat man gleich mal eine brandneue CPU am Start, auf
die sich nicht mal alle aktuellen 2024 Windows 11 Updates und Funktionen installieren lassen wie beispielsweise generative KI oder (wer´s wirklich haben will) recall Funktionen.

Den "Enthusiasten" wäre eher wichtig, dass dieser ignorante Pappnasenverein von INTEL endlich mal wieder eine bezahlbare
HEDT Plattform als Nachfolger zum Sockel 2066 auf den Markt bringt. Dann wäre auch eine DIE Größe möglich, die die Implementierung
sowohl einer high count Kernzahl als auch der KI NPU´s ermöglicht die ab 40 TOPS aufwärts leisten - es ist ja nun nicht so, dass diese nicht schon
fertig entwickelt wären (NPU4). Aber das hat man entweder nicht nötig, oder diese, i.d.R. relativ finanzstarke Clientel braucht man nicht mehr.
Mir soll´s recht sein. Andere Mütter haben auch schöne Töchter.
 
Sachen wie die Unreal Engine 5 sind doch mittlerweile völlig ausgelutscht, kann nicht mal schnell jemand was auf Basis von AutoCAD 2023 entwickeln? ;)

Shadow of the AutoCAD-Raider?
Call of AutoCAD?
CyberCAD 2077?
 
Oben Unten