Gerücht: Intels Core i9-14900K als Flaggschiff-CPU der nächsten Generation langsamer als erhofft

Hängt halt auch davon ab, was die next gen Konsolen so machen.
Wenn Path tracing irgendwann im großen Stil kommt könnten zumindest neue GPUs relevant werden, auch bei 1080p.

Aber wenn ich mir anseh wie schnarchnasig die game DEVs sind was direct storage angeht... yah bis dahin haben wir so oder so neue systeme gekauft. :'D

Raytracing für Full-HD ist aktuell völlig vergessenswert.
Wenn man das aktiviert wird das Spiel quasi unspielbar..
Und für Full-HD braucht man aber auch keine 2000 Euro Grafikkarte.

Also wie du es schon sagtest.. bis dahin haben wir alle ein neues bzw runderneuertes System. Denn da dürften noch einige Zeit in die Lande gehen.
Aber zuerst, finde ich, sollten die Grakahersteller mal das 8 GB VRAM Problem angehen. Das kann schon Probleme geben ohne RT^^
 
Raytracing für Full-HD ist aktuell völlig vergessenswert.
Wenn man das aktiviert wird das Spiel quasi unspielbar..
Hmm also ich hab RTX in Shadow of the Tomb Raider eingeschaltet und zock das auf meiner 3080-12Gig in 4K 60FPS (DLSS Quality).
Sofern man keinen Toaster hat, sollte das bei 1080p nu wirklich kein problem sein.

Path tracing: Yup das ist ne andere Hausnummer. Hardware ist dafür noch ned wirklich ausgereift. Würde ich eher unter "Tech Demo" verbuchen.
 
"Intels lang erwartete Raptor Lake Refresh Prozessoren könnten möglicherweise nicht den gewaltigen Leistungssprung bieten, den viele Enthusiasten so lange ersehnt haben"
Klassische Nicht-News oder gar Click-Bait oder wie kommt der Autor hier dazu eine vermeintliche Schlagzeile zu verfassen indem das unwahrscheinlichste Szenario als das plausibelste, zu erwartende Szenario dargestellt wird um dieses dann für falsch zu erklären und zerschlagene Hoffnung der armen Enthusiasten zu propagieren?
Dass der RPL-Refresh keinen großen Sprung machen wird, ist doch vollkommen offensichtlich und was sich Enthusiasten erhoffen ist in diesem Sinne grundlegend egal, da diese generell mit möglichst jeder Generation einen Quantensprung erwarten bzw. erhoffen.
RPL-R ist immer noch die Bestandsarchitektur aus 2022, zwar mit kleineren Verbesserungen, so dem nun aktiven DLVR und möglicherweise einem geringfügig weiteroptimierten Intel 7-Prozess aber darüber hinaus bleibt es immer noch RPL und entsprechend beschränkt sind die Entwicklungsmöglichkeiten.


@Ifalna: Entwickler sind bzgl. Direct Storage nicht "schnarchnasig" ... der Markt dafür ist einfach noch zu gering sodass sich der Aufwand derzeit nur in beschränktem Maße lohnt und das eigentliche Szenario, das DS erst so richtig interessant macht, nämlich das umfangreiche streamen von Assets zur Laufzeit in den GPU-Speicher um die VRAM-Limitierungen weitestgehend aufzuheben ist auf dem PC derzeit noch in weiter Ferne weil viel zu wenige Gamer die notwendige Hardware dafür haben und wenn du dann die Game-Mechanik und -Engine unmittelbar darauf auslegst um den größten Nutzen daraus zu ziehen, hättest du dir damit gleichzeitig deinen Absatzmarkt auf dem PC derart verkleinert, dass sich ein Release derzeit wahrscheinlich schon gar nicht mehr lohnen würde. Die Technik wird langsam und schrittweise Einzug halten, in den ersten Implementationen weitestgehend als einlacher "Ladebeschleuniger" ...

Ergänzend: Die neuen Konsolen sind noch in weiter Ferne, vorauss. 2027/28 und eine derart leistungsfordernde Technik wie Path tracing wird sich auf dem PC entwickeln. Wenn nVidia und Intel die in Aussicht gestellten (softwaretechnischen) Verbesserungen liefern können, wird man schon mit nVidia's NextGen problemlos Path tracing-Titel spielen können. *) Und möglicherweise wird die Anwendung gar hardwaretechnisch bereits in die upper Midrange hinabsteigen.
Und btw., die Hardware ist bereits schon recht ausgereift für Path tracing, wie Cyberpunk eindrucksvoll demonstriert. Die Entwicklung wird natürlich noch weitergehen, möglicherweise gar noch in diesem Jahr mit dem NRC, aber das was jetzt schon geht ist ein absoluter Meilenstein.
Nicht ausgereift ist bestenfalls das, was AMD in diesem Punkt abliefert, da die immer noch ihre 2016/17 entwickelte Raytracing-Implementation verkaufen und bzgl. dieser Technologie seit dem keine Weiterentwicklung zeigen konnten. Selbst der Neueinsteiger Intel ist hier schon etwas weiter, sodass man gespannt sein und hoffen darf, dass AMD endlich mal in 2024 mit RDNA4 was ernstzunehmendes zu dem Thema beitragen können wird, denn solange hier nVidia aufgrund weitestgehend konkurrenzloser Marktposition den GPU-Markt dominiert, muss man sich als Konsument leider auch mit all den daraus erwachsenden negativen Punkten herumärgern.
Im gleichen Sinne kann man nur hoffen, dass auch Intel mit Battlemage einen relevanten Schritt vorwärts machen wird und nicht doch noch irgendwann den Stecker zieht ...

*) Genaugenommen kann man das jetzt schon mit nVidia's Topkarten ... bspw. die Minecraft-Fraktion würde deiner Aussage grundlegend widersprechen und selbst etliche Cyberpunk-Fans/-Grafikfetischisten dürften das ebenso anders sehen.
Es ist halt lediglich die Frage ob und in welchem Titel sich der Einsatz massiven Raytracings wirklich lohnt. Grundsätzlich hat man damit aber immer die Möglichkeit die bessere und realistischer Grafik (insbesondere Beleuchtung) zu realisieren. Dagegen ob das ein Entwickler auch tatsächlich hinbekommt, steht wiederum auf einem ganz anderen Blatt, da Raytracing erst mal nur eine Technik von vielen ist und wenn diese unzureichend oder gar falsch angewendet wird, hilft natürlich auch nicht die Verwendung einer überlegen Technik.
 
Hmm also ich hab RTX in Shadow of the Tomb Raider eingeschaltet und zock das auf meiner 3080-12Gig in 4K 60FPS (DLSS Quality).
Sofern man keinen Toaster hat, sollte das bei 1080p nu wirklich kein problem sein.

Path tracing: Yup das ist ne andere Hausnummer. Hardware ist dafür noch ned wirklich ausgereift. Würde ich eher unter "Tech Demo" verbuchen.

Ähem...
Eine 3080 ist auch definitiv keine Full-HD Graka.
Das damit RT funktioniert.. kein Wunder. Ich habe auch nie was gegenteiliges behauptet.
Aber wer, wie ich, Full-HD zockt.. wird sich wohl kaum eine 80er Karte kaufen nur damit er mit RT zocken kann^^
 
Das klingt als ob irgendein Redakteur einen vorbereiteten Text für eine andere CPU gespeichert hatte und diesen nun für einen kleinen Refresh verwendet. Weder erwarten wir mehr als eine Takterhöhung bei gleicher Leistungsaufnahme oder im besten Fall ein wenig mehr Cache, noch braucht irgendjemand im Moment eine neue CPU, der Raptor Lake oder AM5 hat. Gut ist es, dass Z690 jetzt schon seit 1,5 Jahren verwendet werden kann und nochmal ein Update aufs Board passt. Wer z.B. letztes Jahr einen 12400 oder 12600 gekauft hat, kann nochmal ordentlich aufrüsten.
 
@Ifalna: Entwickler sind bzgl. Direct Storage nicht "schnarchnasig" ... der Markt dafür ist einfach noch zu gering sodass sich der Aufwand derzeit nur in beschränktem Maße lohnt und das eigentliche Szenario, das DS erst so richtig interessant macht, nämlich das umfangreiche streamen von Assets zur Laufzeit in den GPU-Speicher um die VRAM-Limitierungen weitestgehend aufzuheben ist auf dem PC derzeit noch in weiter Ferne weil viel zu wenige Gamer die notwendige Hardware dafür haben und wenn du dann die Game-Mechanik und -Engine unmittelbar darauf auslegst um den größten Nutzen daraus zu ziehen, hättest du dir damit gleichzeitig deinen Absatzmarkt auf dem PC derart verkleinert, dass sich ein Release derzeit wahrscheinlich schon gar nicht mehr lohnen würde. Die Technik wird langsam und schrittweise Einzug halten, in den ersten Implementationen weitestgehend als einlacher "Ladebeschleuniger" ...
Henne - Ei Problem.
Die Entwickler schrecken vor der Implementierung zurück, weil viele user keine NVMe drives haben.
Die Gamer schrecken vor NVMe zurück weils in der Praxis nix bringt.

Games sollten das Zugpferd für solche Hardware sein, wenn beliebte Games sowas können und die Gamer einen spürbaren Vorteil davon haben werden sie auch auf die Hardware Wert legen. Das war bisher immer so und wird auch immer so bleiben.

Wenn man bedenkt, wieviele Games heutzutage einfach nur Konsolenports sind (IIRC, nutzen Konsolen bereits Direct Storage) sollte eine Implementierung für den PC nun keine rocket science sein.

Ich bleibe dabei: Entwickler sind schnarchnasig.
Genaugenommen kann man das jetzt schon mit nVidia's Topkarten ... bspw. die Minecraft-Fraktion würde deiner Aussage grundlegend widersprechen und selbst etliche Cyberpunk-Fans/-Grafikfetischisten dürften das ebenso anders sehen.
Ahem, sorry aber Minecraft kann ich in der Hinsicht nicht ernst nehmen.
Cyberpunk schon eher aber die Benchmarks die ich da gesehn hab sahen nicht gerade prall aus. Selbst eine 4090 hat da noch echt was zu tun.
Ähem...
Eine 3080 ist auch definitiv keine Full-HD Graka.
Das damit RT funktioniert.. kein Wunder. Ich habe auch nie was gegenteiliges behauptet.
Aber wer, wie ich, Full-HD zockt.. wird sich wohl kaum eine 80er Karte kaufen nur damit er mit RT zocken kann^^
Ja gut... wenn man aufm Toaster zockt, dann ists klar, dass man Abstriche machen muss. :'D
Ob man sich ne x80 Karte kauft um auf 1080 mit allem Eyecandy zu zocken ist von Person zu Person und von game zu game (RTX ist nicht in jedem game wirklich "OMG awesome!!") verschieden.

Ich persönlich habe lieber etwas Overkill im Rechner als bei nen paar 100€ zu knausern und dann immer mit den Settings fiddeln zu müssen um es spielbar zu bekommen. STABILE 60Hz sind für mich ein Muss. Ich hasse nichts mehr als wenn die FPS zwischendurch einbrechen. Die 3080 ist da in manchen Titeln grenzwertig aber die zock ich viel zu selten, als dass sich die 4090 lohnen würde.
 
Zuletzt bearbeitet :
Das "Power Problem" das Intel bei AL und RL hatte und hat ist ja auch, daß es dem User überlassen bleibt, ob die CPU bis zum Anschlag ausgequetscht wird, oder eher auf zB ~100 W max beschränkt bleibt. Und leider hat AMD sich der Philosophie etwas angeschlossen. Die neuen 7000 Ryzen kann man ja auch mit deutlich mehr Saft betreiben, um die letzten 5 Prozent an Performance zu kriegen.
Ja, AMD ist aufgestiegen und deshalb sind Boostraten über 5,5 GHz innerhalb eines Jahres absolut salonfähig geworden, während davor der extreme KS von Intel gerade so über 5 GHz kam.

Andererseits habe ich hier einen 7700 (non-X), der auf 5,4 GHz boostet, mit seinem üblichen 88W Korsett und meinen 5900X habe ich auch mit OC+UV auf 5,05 GHz mit 90 Watt Limit und jetzt im Sommer betreibe ich den gern mit 71 Watt (Minimum der CPU). Auch da boostet der knapp unter 5 GHz und reicht fürs Zocken und alles, was ich so mach. Die letzten Quentchen quetschst du halt nur mit der Brechstange aus. Aber worauf ich hinaus will ist: auch schon letzte Generation lief über dem Sweetspot. Für rein theoretische Multi-Benchmarks halt. In der aktuellen ist man nur nochmals mehr drauf eingestiegen...
 
Ich glaub wir, die mit 60Hz rumgurken, werden es in Zukunft generell schwer haben von neuer Hardware beim reinen gaming beeindruckt zu werden.

Der Flaschenhals in dieser Hinsicht ist einfach der Bildschirm. :'D
Wie wäre es einen neuen Bildschirm zu kaufen? Die sind ja jetzt nicht so furchtbar teuer.
 
Ah, habe nicht daran gedacht, dass das hier kein Gaming Forum ist.
Aber selbst auf dem Desktop sind 240 Hz geschmeidiger.
Ich will den Text lesen können, wenn ich ein Fenster verschiebe.
Kostet natürlich auch etwas mehr Strom.
 
Naja wegen so einer Kleinigkeit..also etwas geschmeidigerer Bildlauf.. bezahle ich aber keine mehrere hundert Euro Aufpreis für einen Monitor.
Außerdem finde ich die meisten Gamingmonitore viel zu übertrieben vin der Optik her.

Außerdem kann man sich ungemein entspannt zurücklehnen, wenn andere wieder halb am durchdrehen sind, weil wieder ein paar neue Gerüchte zu neuer Harrdware aufgetaucht ist.
Man braucht einfach nicht immer die allerneuste Generation der Hardware.

Man überspringt einfach mal 2-3 Generationen.. denn dann erst macht sich für einen selbst der Leistungszuwachs wirklich bezahlt.
Und dann dürfte es auch bei den "normalen" Monitoren standardmässig 144Hz und mehr geben. Dann lohnt sich das auch.

Ich persönlich warte eh noch auf eine halbwegs erschwingliche (mit einem eindeutigen Mehr an Leistung) Full-HD-Grafikkarte mit 16GB VTam.
Die dürfte es allerhöchstens erst 2025 geben^^
 
Naja wegen so einer Kleinigkeit..also etwas geschmeidigerer Bildlauf.. bezahle ich aber keine mehrere hundert Euro Aufpreis für einen Monitor.
Außerdem finde ich die meisten Gamingmonitore viel zu übertrieben vin der Optik her.

Ein paar hundert Euro fallen doch im Vergleich zu den Gesamtkosten eines High End PCs kaum ins Gewicht.

Außerdem kann man sich ungemein entspannt zurücklehnen, wenn andere wieder halb am durchdrehen sind, weil wieder ein paar neue Gerüchte zu neuer Harrdware aufgetaucht ist.
Man braucht einfach nicht immer die allerneuste Generation der Hardware.
Man überspringt einfach mal 2-3 Generationen.. denn dann erst macht sich für einen selbst der Leistungszuwachs wirklich bezahlt.

So mache ich das immer. Ich greife extra etwas höher ins Regal, damit der Rechner auch ein paar Jahre hält, anstatt andauernd eine Mittelklasse CPU und GPU zu kaufen.

Und dann dürfte es auch bei den "normalen" Monitoren standardmässig 144Hz und mehr geben. Dann lohnt sich das auch.
Ich persönlich warte eh noch auf eine halbwegs erschwingliche (mit einem eindeutigen Mehr an Leistung) Full-HD-Grafikkarte mit 16GB VTam.
Die dürfte es allerhöchstens erst 2025 geben^^

27" 144 Hz WQHD Monitore sind doch äußerst günstig und schon längst Mainstream. Die kriegst du hinterher schmissen. Da gibt es keinen Grund mehr auf FHD 60 Hz rumzugurken. Ist nicht nur beim Gaming, sondern auch zum Arbeiten wesentlich angenhmer.
 
Naja ich habe ja keinen High-End-PC. Da oben sind ein paar hundert Euro mehr oder weniger wirklich nichts mehr, worüber man mit der Wimper zuckt.. Aber diese paar Hundert Euro können aber in meinem Bereich schnell der Gesamtwert des gesamten Systems ausmachen^^

Und das stimmt eben nicht das man sich dauernd eine neue Mittelklasse CPU bzw GPU kauft.
Im Full-HD Bereich gibt es für GPU´s schon seit längerem keinen echten Mehrwert zur Vorgängergeneration. Deswegen warte ich ja auch auf eine Mittelklasse-GPU mit 16GB VRam zu bezahlbaren Preisen.
Sowas gibts höchstens dann ab 2025..und dann auch nur vlt^^
(und was völlig gaga ist.. die alte Grakageneration kostet genauso viel wie die aktuelle oder ist sogfar noch teurer. Ich hatte ja schon überlegt mir eine 3070 oder 80 zu kaufen, aber bei Grafikkarten spielen die Preise völlig verrückt)
Aber außer ein bisschen weniger Verbrauch und ein paar Prozenten an Mehrleistung hat sich da die letzten 2-3 Generationen nichts getan^^
Und damit deutlich weniger als im High-Endbereich.
Und die CPU.. ich habe jetzt einen vier Jahre alten Ryzen drin und ich sehe da noch lange keinen Mehrwert für mich den aufzurüsten. 6 Kerne werden noch lange reichen. Und wenn dann habe ich immernoch die Option per Biosupgrade mir eine 5000er CPU in mein AM4 Board einzusetzen.

Und die 27 Zoll Monitore.. da gibts zum Glück auch noch die Full-HD Auflösung.
Das könnte ich mir dann wirklich mal überlegen zu kaufen.
Es gibt welche für so um die 200 Euro rum (inklusive 144hz)
Aber WQHD könnte wieder Probleme mit der Grafikkarte verursachen, so das ich evtl gezwungen sein könnte sie abzugraden, was ich aber nicht will. Deswegen werde ich wohl mal in einen Computerladen gehen und mir anschauen, wie FHD bei 27 Zoll aussieht^^
 
FHD auf 27" ist zu grobpixelig.
Du kannst doch auf einem WQHD Monitor in FHD Auflösung zocken. Habe es gerade ausprobiert. Sieht ganz gut aus.
 
Wie wäre es einen neuen Bildschirm zu kaufen? Die sind ja jetzt nicht so furchtbar teuer.
Mein Bildschirm ist ein 55" 4K TV. Die Pixeldichte stört mich ned, Augen sind nimmer so gut :p. Er kann auch 120Hz aber nur bei 1080p (meh HDMI 2.0 >.< ).
Habe 120 Hz bei alten games mal getestet und war sehr enttäuscht. Wies aussieht bin ich nicht sensibel auf Frameraten jenseits der 60 Hz, zumal ich eh langsame games bevorzuge, da ich kein junger Hüpfer mehr bin. :'D

Tatsächlich hab ich auf dem Desktop am meisten von den 120Hz bemerkt. Das war schon nett.

Da ich mit dem Bild des TV ansonsten sehr zufrieden bin, seh ich keinen Grund dazu was neues zu kaufen. Mal abgesehen davon, dass bei Hi-Refresh in games viel Energie umgesetzt und damit auch viel Wärme abgegeben wird. Das machts schnell unangenehm.

Um ehrlich zu sein: ich würde den Screen nur dann ersetzen wenn er a) das Zeitliche segnet oder b) Micro LED verfügbar wäre. OLED macht wenig Sinn, weil ich viel zu viele Stunden statischen Content aktiv habe.
 
Zuletzt bearbeitet :
Habe 120 Hz bei alten games mal getestet und war sehr enttäuscht. Wies aussieht bin ich nicht sensibel auf Frameraten jenseits der 60 Hz, zumal ich eh langsame games bevorzuge, da ich kein junger Hüpfer mehr bin. :'D
Schnelle Objekte werden schärfer dargestellt, je höher die FPS sind.
 
Schnelle Objekte werden schärfer dargestellt, je höher die FPS sind.

Verwechselst du da nicht gerade etwas?
FPS ist nciht gleich Hz
Bei FPS müsste Ifalna klare Vorteile mit der vorhandenen 3080 mir gegenüber haben.

Und was Ifalna angesprochen hat.. stimmt auch für mich..ich bevorzuge auch eher langsamere Games. Rollenspiele und Strategie.
Ich habe jetzt seit einigen Monaten ein Handy mit 120Hz Screen und ich merke... nichts.. keinen Unterschied zu meinem alten Handy.

Aber ich werde mir das dennoch mal mit dem 27" Monitor durch den Kopf gehen lassen.. aber auch nur wenn, ich einen Zweifachmonitorarm finden kann, der das Gewicht wirklich hält.
Denn ich zocke nicht nur, sondern arbeite auch und habe 2 Monitore und ich will die definitiv nicht aus Platzgründen auf den Schreibtisch stellen.
 
Schnelle Objekte werden schärfer dargestellt, je höher die FPS sind.
Das hängt davon ab wie gut das Display mit der Wiederholrate klar kommt. VA Panels, wie mein Fernseher sind da jetzt nicht unbedingt die Benchmarks in Sachen Klarheit, wobei meiner laut RTings ganz ok abgeschnitten hat.

Der Unterschied war beim Fenster verschieben aufm Desktop schon sichtbar, im Game eher weniger aber vllt war das alte Game im allgemeinen zu "soft" (UT2003, hat ja eher so comic-graphik).

Mir ist das jedoch nicht die Anschaffung eines neuen Gerätes wert solange das alte noch gut funktioniert.
 
@Ifalna ich brauche auch nicht mehr als 60fps, drunter sollte es nicht sein, da ich eigentlich nur Story Driven Singleplayer Games spiele und gelegentlich mal ein RTS oder eine Wirtschaftssimulation, spielt das für mich absolut keine Rolle.

Ach ja und Motion blur finde ich ebenfalls Klasse, wenn gut implementiert.
 
Oben Unten