Raptor Lake Resfresh mit den Intel Core i9-14900K, Core i7-14700K und Core i5-14600K im Test

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.822
Bewertungspunkte
8.836
Punkte
1
Standort
Redaktion
Viel hilft viel, sagte meine Oma. Und bevor man etwas wegwirft, macht man besser noch einmal etwas Neues draus. Sagen meine Oma und Intel. Nach Raptor Lake ist vor Arrow Lake und so kommt fast nach genau einem Jahr noch einmal der Schnappi-Refresh. Sagt Intel und meine Oma schweigt. Und so stehen neben etwas mehr Takt zumindest bei einer CPU auch noch ein paar mehr E-Kerne auf dem Datenblatt. Doch nichts im Leben ist umsonst. Sagen meine Oma und mein Energieversorger. Und genau das wird heute das Thema sein: Wieviel mehr muss man am EPS-Anschluss reinstecken, damit sich am HDMI- […] (read full article...)
 
Insofern haben die User dann sowas ja auch "verdient" , und ich sehe schon die Foren überquellen, " Mimimi , ich bekomme meine 14900ks nicht gekühlt, ich habe im Gaming 85 Grad"
Wieso sollte man in popeligen gaming workloads derartige Temperaturen haben? o_O
Ein 14900KS legt da die Beine auf den Tisch und pennt eine Runde, da 90% der Corers nichts zu tun haben. :'D
Selbst bei meinem kleinen 12700K drehen 75% der Kerne Däumchen.
Games sind nachwievor vom "Hauptkern" limitiert, weil eben nicht alles parallelisierbar ist wie bei z.B.: Blender Rendering.

Der eigentliche Grund sich einen XX900K(S) anstatt eines XX700K zu holen ist das bessere Binning und daraus resultierend niedrigere VCore bei gleicher Frequenz. Denn gerade die XX700 CPUs sind nichts anderes als fehlgeschlagene XX900er.

Was die Wattzahlen angeht: die wirst du so bie bei games sehen. Ich versteh auch nicht warum in diesem Forum so oft davon geredet wird, dass mein kleiner 12700K 250-300 Watt säuft. Selbst mit einem OC hab ich solche Zahlen nie gesehen. KP was die Leute da messen.

Realität: mein 12700K schimmelt in Games die ich spiele bei unter 40°C rum. Ich müsste mal Cyberjunk testen, vllt verlangt das der CPU mal etwas mehr ab... nur find ich das Game total lahm und die Stadt potthässlich (Path Tracing sah bei meinem Freund aber cool aus). :'D
 
Sieht hier mit 5800X3D nicht anders aus. WQHD, Grafik auf Anschlag und die CPU dreht bei max. 50%. Wenn überhaupt.
@DigitalBlizzard die Steam HW Survey listet noch im September 61% FHD Gaming.
Sind das nicht die, bei denen die GPU erstmal nicht limitiert? Kann mir vorstellen, dass nicht wenige von flotten Frametimes profitieren. Und die anderen 90% wollen einfach "das Neueste" ;)
 
Is bei Dir Aufrüsten..Gruppenzwang..Mantra...oder mir fällt da nix ein?
Wenn man mit den Dingern nicht arbeitet und nur gamen tut.. coppy?
Wenn der Schuh von wegen GELD schon da drückt..dann ist das Thema erledigt.
Und geht ein Game auf einem 12700 normal nicht? hm.. wenn man den PREIS im focus hat.
( des selbe wie 13er oder 14er.. wenn man dead-end kauft [ am5 ist auch dead-end])
oder AM4 7500. kost an scheiss und geht flott. jetzt lesen es alle und von 175,90 rauf auf 299,-
Du schleckst Technik doch wohl nicht ab? Eben.
MONEY.

egal.
Der CPU und GPU Markt ist uninteressant weil einige globale Momente in den letzten Jahren
alles verzerren.
Coorony ( keiner kennt es mehr) = $$$$$$$ up we go
Ukrainewar ( der wird 30 Jahre dauern) ( so wie 1618-1648 ) = $$$$$$$$$$$$$$$ up up we go
Naher Osten ( das ewige Thema) =$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ up up up we go
CHINA als Markt an sich ( obwohl er schwächelt) dort gibt es mehr potente Käufer für daddeln als
Deutschland Einwohner hat.
Die Verschiebung der Altersklassen und Interessen, ich wett hier sind viele 25 Jahre Veteranengamer,
die Kids um 12 bis 18 haben nur noch Smartphone.. ( 3 machen keine Pc Markt aus)
usw.
Q4 23 wird die totale Inflation. Q1 24 nix besser.
WENN MONEY der pinch of pain ist.. spare das Geld und, bist ja noch relativ jung.. Na also.

Ich find den 14900k voll geil..als HEIZUNG.. der rendert und ich hab warme Füße.
Mit einer 4090ger kann man den in der Arktis betreiben.
Und koscht weniger als ne neue Wärmepumpe.
Strom... FITNESSSTUDIO INDOORBIKE = idee = und du hast Strom.. !

slow. ....:)
wetten nun ewige geizhalsblicke und cent schieben und damit so viel ZEIT zerlegen das es
10000 Euro sind-- den Faktor vergessen einige.
Ich persönlich finde diesen Beitrag sehr schwer zu lesen. Kleiner Tipp: auf den Aussagekern fokussieren, weniger Klammern und Nebenthemen einbauen.
 
Wieso sollte man in popeligen gaming workloads derartige Temperaturen haben? o_O
Ein 14900KS legt da die Beine auf den Tisch und pennt eine Runde, da 90% der Corers nichts zu tun haben. :'D
Selbst bei meinem kleinen 12700K drehen 75% der Kerne Däumchen.
Games sind nachwievor vom "Hauptkern" limitiert, weil eben nicht alles parallelisierbar ist wie bei z.B.: Blender Rendering.
Es geht auch nicht um die Gaming Auslastung, sondern genau um das, was Du ja eben auch bestätigt hast, da werden sich CPUs für hunderte Euros reingeknallt die weder Effizient arbeiten noch irgendwie je eine Auslastung erfahren.
Da werden aber nach Kauf erstmal die Benchmarks gefahren usw. Und ich habe 12900k erlebt, die trotz oredentlicher Kühlung und geringer Auslastung 85 Grad auf verschiedenen Hotspots gefahren sind.
Und wenn mir jemand erzählt, er profitiert I'm Privatanwender Bereich oder bei den Games ernsthaft und spürbar einen Unterschied macht, ob da ein 13600k oder ein 14900k werkelt, wenn ich nicht gerade 4k am Limit mit Ner 4090 fahre.
Und die bessere Kernselektion und daraus evtl. minimal besser VCores können wohl kaum als Argument für 300€ Mehrpreis dienen, bei einer CPU die ich eh quasi nie auslasten, nur um evtl ein besseres UV zu fahren.
Die 300€ investiert man besser in gute Netzteilen und Boards mit einer guten Spannungsregelung und bessere RAMs.
Ein xx900k ist in 90% der Nutzungsfälle überflüssig wie ein Kropf.
Der 13600k schafft mit einem 6400er DDR5 RAM bessere Gaming Performance als ein 13900k mit DDR4 3600, in den durchschnittlichen Frames und Game Benchmarks liegt der 13600k marginal hinter dem 13900k, dazu ist der 13600k mit 5,5 FPS pro Watt effizienter als der 13900k mit 5,4 Frames pro Watt.
Der 13600k erreicht das Niveau eines 7900x und nimmt in der Energieaufnahme in Spielen im Schnitt 40-60 Watt weniger auf. Beim 13900k sind es durchschnittlich 148 Watt, beim 13600k gerade mal 87 Watt.
Dagegen stehen 300€ Preisunterschied.
Und jetzt erklär mir nochmal, warum ein 13900k fürs private Gaming oder die normale durchschnittliche Nutzung besser sein sollte, als ein 13600k? Ich finde nämlich kein belastbares Argument das fast 300€ mehr wert wäre.

Sieht hier mit 5800X3D nicht anders aus. WQHD, Grafik auf Anschlag und die CPU dreht bei max. 50%. Wenn überhaupt.
@DigitalBlizzard die Steam HW Survey listet noch im September 61% FHD Gaming.
Sind das nicht die, bei denen die GPU erstmal nicht limitiert? Kann mir vorstellen, dass nicht wenige von flotten Frametimes profitieren. Und die anderen 90% wollen einfach "das Neueste" ;)
Genau das, für die erhebliche Mehrzahl der User ist selbst ein 13600k oder ein 5800x3D weit mehr, als sie real benötigen würden.
Die Aussage, ich kaufe die größte CPU, weil die weniger zu tun hat und damit effizienter ist, äh neee, @Stock ist der 13600k bereits 60 Watt effizienter in den Games als ein 13900k obwohl der 600er 60% Last hat und der 900er nur 45%. Und wenn man dann bedenkt, dass der 600er massiv von schnellem DDR5 RAM profitiert, sollte man lieber ein gutes Brett und guten RAM für die 300€ Mehrpreis anschaffen.
Und ich sehe es täglich, wieviele Ochsen ankamen als der 13900k rauskam, neues 700er Brett und 13900k gekauft haben, obwohl der quasi nicht Neue 12900k noch nie mehr als 60% Last erfahren hatte. Nur weil eine Gaming Benchmark erzählt hat, der schafft 460Frames in 1080p statt 440Frames wie der 12900k , sorry, das geht mir nicht in die Rübe
 
Und ich habe 12900k erlebt, die trotz oredentlicher Kühlung und geringer Auslastung 85 Grad auf verschiedenen Hotspots gefahren sind.
Und wo ist nun genau das Problem an 85°C?

wenn ich nicht gerade 4k am Limit mit Ner 4090 fahre.
und wenn doch? Was ist an 4K nun ungewöhnlich?
Die 300€ investiert man besser in gute Netzteilen und Boards mit einer guten Spannungsregelung und bessere RAMs.
Ein xx900k ist in 90% der Nutzungsfälle überflüssig wie ein Kropf.
und das hier... in diesem Forum... hier ist so verdammt viel unnötig wie ein Kropf, und doch stehen die allermeisten genau darauf.
Der 13600k erreicht das Niveau eines 7900x und nimmt in der Energieaufnahme in Spielen im Schnitt 40-60 Watt weniger auf. Beim 13900k sind es durchschnittlich 148 Watt, beim 13600k gerade mal 87 Watt.
also mein 13900er braucht keine 150 Watt beim spielen. Aber vielleicht spiele ich die falschen Spiele.
Und jetzt erklär mir nochmal, warum ein 13900k fürs private Gaming oder die normale durchschnittliche Nutzung besser sein sollte, als ein 13600k? Ich finde nämlich kein belastbares Argument das fast 300€ mehr wert wäre.
Wo hat er das denn probiert? Er hat deine Aussage widerlegt, dass dir das Topmodell zur Heizung beim Zocken wird, nicht mehr nicht weniger. Mit keiner Silbe hat er irgendwas von besser oder schlechter geschrieben.
Genau das, für die erhebliche Mehrzahl der User ist selbst ein 13600k oder ein 5800x3D weit mehr, als sie real benötigen würden.
Die Aussage, ich kaufe die größte CPU, weil die weniger zu tun hat und damit effizienter ist, äh neee, @Stock ist der 13600k bereits 60 Watt effizienter in den Games als ein 13900k obwohl der 600er 60% Last hat und der 900er nur 45%. Und wenn man dann bedenkt, dass der 600er massiv von schnellem DDR5 RAM profitiert, sollte man lieber ein gutes Brett und guten RAM für die 300€ Mehrpreis anschaffen.
Und ich sehe es täglich, wieviele Ochsen ankamen als der 13900k rauskam, neues 700er Brett und 13900k gekauft haben, obwohl der quasi nicht Neue 12900k noch nie mehr als 60% Last erfahren hatte. Nur weil eine Gaming Benchmark erzählt hat, der schafft 460Frames in 1080p statt 440Frames wie der 12900k , sorry, das geht mir nicht in die Rübe
weiste was mir nicht in die Rübe geht? Wie man sich Wochenlang darüber Gedanken machen kann, welchen Kühler man nun verbaut, sich drei Grafikkarten bestellt, sich Gedanken um 2°C + - macht um am ende dann bei einer AIO zu landen und Seitenlange Beiträge darüber verfasst.

Denk mal drüber nach, vielleicht kommst du selbst drauf, dass einfach nur jeder unterschiedliche Präferenzen, Interessen und am Ende finanzielle Möglichkeiten und Ziele hat...
 
Ich finde nämlich kein belastbares Argument das fast 300€ mehr wert wäre.
"Wert" ist sooo subjektiv. Wieviele kaufen sich nen XX900 nur für Bragging rights?
Wieviele kaufen generell Overkill Hardware um "Zukunftssicher" zu sein nur um am Ende die Fähigkeiten der Hardware nie zu nutzen?

Fürs reine Gaming macht ein XX900 keinen Sinn, hat es nie, wird es aller Wahrscheinlichkeit auch nie, es sei denn die i9's bekommen mehr P-Kerne als die I7's und Games nutzen die auch effektiv. (Fat chance). Sobald man aber mal ein Video rendert oder irgendeine Produktive Arbeit macht die wirklich Leistung braucht, wird man einen i9 zu Schätzen lernen. Hint: die meisten Menschen zocken nicht nur mit einem Computer.

XX900K kauft man wegen dem OC Potential und da ist die Chipgüte sehrwohl relevant. OC'er interessiert der Stromverbrauch in der Regel auch nur am Rande.

Das eine Top-End CPU keine automatische Garantie dafür ist, dass am Ende das System harmoniert und im Optimum läuft ist offensichtlich. Zumindest für Leute wie uns die etwas Ahnung vom Thema haben. :'D

IMHO hängen sich die Leute hier vieel zu sehr am Stromverbrauch in irgendwelchen Benchmark Szenarien auf. Was interessiert mich das? Die DInger lässt man einmal laufen, damit man sieht ob das System "In spec" und stabil läuft, danach fasst man die Programme nie wieder an.
 
IMHO hängen sich die Leute hier vieel zu sehr am Stromverbrauch in irgendwelchen Benchmark Szenarien auf. Was interessiert mich das? Die DInger lässt man einmal laufen, damit man sieht ob das System "In spec" und stabil läuft, danach fasst man die Programme nie wieder an.
Du vergisst den kleinen Kreis an Nutzern hier, die ihre Wochenenden damit verbringen, sich gegenseitig die Benchmarkergebnisse um die Ohren zu hauen :D
 
Du vergisst den kleinen Kreis an Nutzern hier, die ihre Wochenenden damit verbringen, sich gegenseitig die Benchmarkergebnisse um die Ohren zu hauen :D
Naja, also ich habs mit meinem neuen Custom Loop grad mal getestet:
12700K
Stock vs 5.2 GHz All-Core OC
Cinebench: Popelige 7.1% mehr Leistung bei verrückten 50% mehr Watt und 90°C statt 60°C.

DAS ist dann ein Bereich bei dem selbst ich sage: "Nee danke, netter Test der Kühlung aber nicht Praktikabel.". :'D

Dagegen ist so ein 14900K ja richtig genügsam, wenn man die Leistung vergleicht. :'D
 
Interessant ist die Diskrepanz verschiedener Seiten.
Der Test hat zumindest den 5800X3D drin.
Die Brot und Butter Prozessoren wie der Ryzen 5600X, 5800X und Ryzen 7600X fehlen leider.

Warum der 5800X3D so herumschwimmt bei der Konkurrenz oder gar nicht mitgetestet wird, muss ich auch nicht verstehen.

Gerade beim Aufrüsten war für mich die Frage 5800X3D oder Ryzen 7600X(der in diesem Test einfach fehlt).

IntelNvidiaBase testet mit schwachsinnigen RAM Konfigurationen. Dort wird in keinem der Kaufberatungsthreads so ein billigst Arbeitsspeicher empfohlen. Vermutlich wird der hochpreisige bessere Arbeitsspeicher von vielen dann auch gekauft.

Das low End Segment bei AM5, der Ryzen 7600X bzw. 7600 oder 7500F, ist genauso wichtig.
 
Oleole. Ich leg mich dann bis nächsten Herbst erstmal wieder hin.
 
Fazit:
Es bleibt bisher alles beim alten.. Leistung wird durch brachialen Stromhunger generiert.
Und wenn man das Limit auf Unlimited stellt, dann sind die CPU´s superb als eine Art überteuerte Heizung zu gebrauchen ;)
 
Dankeschön für den tollen Test und die Arbeit darin @Igor Wallossek, aber beim 14700K ist auf der ersten Seite noch ein kleiner Rechenfehler. 8+12 ergibt 20 Kerne und nicht 16😉.

Und so etwas als ersten Beitrag 😅
 
@Igor Wallossek
Du hast die spielinternen Benchmarkszenen genommen für die Tests, oder?
 
Prima Test Igor. Der Artikel und das YT Video haben Spaß gemacht.
Allerdings dein Test zum i7 14700K mit dem MSi Board finde ich ein bißchen daneben.
Gut MSi und Intel lassen den i7 mit 288W standartmäßig laufen. Mir würde ein Vergleichstest mit einem anderen Mainboard oder mit einem BIOS Update zu gegebener Zeit weiterhelfen. Ich glaube das der i7 nicht so schlecht ist, lediglich die von dir getestete derzeitige MSi BIOS Version verbesserungswürdig zu sein scheint.
 
Ok, weil in SOTTR und CP habe ich schon deutlich höhere FPS als der 14900K im Test 😀
 
Ich persönlich finde diesen Beitrag sehr schwer zu lesen.

Du liest sowas noch durch und versucht es zu verstehen? Ich dachet da ist ein Haustier über die Tastatur gelaufen, während der Besitzer aufm Pott saß.

BTT:

Oh Intel was ist nur aus Dir geworden? - Wenn es nur noch für eine neue Nummer auf der Packung reicht!
 
Oh Intel was ist nur aus Dir geworden? - Wenn es nur noch für eine neue Nummer auf der Packung reicht!
Es spricht ja einiges dafür, das es nur eine Maßnahme zum Zeitgewinn ist, denn für Intel ist es eher ungewöhnlich drei Generationen auf dem gleichen Sockel zu veröffentlichen.
Das wiederum könnte bedeuten, das 1851 sich doch etwas schwieriger gestaltet bzw. noch nicht so funktioniert wie es soll.
Es kann aber auch ein strategischer Zug sein, um zu sehen was Ryzen 8000 real abliefert um die eigene Parallelgeneration dann so abzustimmen, das es passt.
Ich gehe stark davon aus, das 15 sehr wahrscheinlich wieder mit zwei RAM Controllern kommt, DDR5+6, da es sehr wahrscheinlich scheint, das AMD mit dem 9000er auf DDR6 und neuer Plattform kommt.
Dann wären 9000 und 16.Gen parallel am Start, mit DDR6.
Denke die 800er Intel Chipsatzbords werden noch regulär mit DDR5 kommen, die 900er bereits mit wahlweise D4 oder D5.
Die aktuelle Vergleichbarkeit ist je nicht wirklich gegeben, da Intel bereits mit Big-Little fährt, AMD aber erst ab 8000.
Dazu kommt bei Intel die neue Architektur und der Stapelspeicher.
Ich erwarte nicht das der 8000er direkt die Wurst vom Brot zieht und ebensowenig, das die 15. Gen Architektur direkt einschlägt, daher wird es garantiert erst ab 9000 bzw. 16. Gen wirklich interessant
Die direkte Schlacht wird wahrscheinlich erst 2025 wieder geschlagen, bei beiden dann mit D6, Stapelspeicher, und ähnlicher Architektur.
Und vor allem hoffentlich mit einer brauchbaren Effizienz, denn die lässt nach wie vor zu wünschen übrig.
Das effizienter geht, hat Nvidia ja bewiesen, aber vielleicht entschließt sich Nvidia ja doch noch auf den CPU Sektor einzusteigen, Boardpartner gäbe es genug, anders als bei Intels durchaus tauglichen Grafikambitionen.
 
Ich denke nicht, dass Arrow Lake so ein Brecher wird (siehe Intels eigene Prognosen), Zen 5 hingegen schon. Nicht so viel Takt aber höhere IPC Werte. Ich befürchte fast, der Abstand wird bis Lunar Lake eher größer. Nicht gut für uns Kunden.
 
Oben Unten