Dasbistchalt etwas was ich nicht verstehe und was widersinnig ist!
Warum nutzt Du einen 13900k ? Nur fürs Gaming, das ist zwar unsinnig, weil Der jede Benchmark belegt das der 13700k und sogar der 13600k im Gaming kaum schlechter sind.
Mal ein Beispiel siehe Bild
Mit einer 13700k lastet man eine 4090 zu 85% aus in 1080p und erreicht 285frames, die eh keiner nutzen kann, weil wohl kaum einer einen 300 oder 360Hz Monitor nutzen, das bedeutet das Sync begrenzt die FPS eh auf die maximalen Hz.
Im Vergleich dazu erreicht der 13900k mit 30W mehr Leistungsaufnahme und 10 Grad höheren Temps gerade mal 6 FPS mehr.das sind 2% mehr Gamingeleistung, die in der Realität auf dem Bildschirm gar nicht nutzbar sind, nimmst 30% höher Kaufpreis, 25% höhere Energieaufnahme und eine 20% höhere Temperatur in Kauf!?
Hab ich doch richtig verstanden!?
Und aufgrund der schlechten Temps ( ein 13900k fängt ab ca. 86-92 Grad mit Thermal Trotteling an ) hat man am Ende der AIO wegen sogar schlechtere Ergebnisse als mit einem 13700k oder gar 13600k.
Und in 4k macht es meist keinen Unterschied mehr ob 13600k oder 13900k
www.anandtech.com
Dazu sollte man wissen, das je geringer die Auflösung, desto höher die FPS Differenz nominal auf dem Papier.
Die Marketing Benchmarks werden daher gerne in 720p gemacht, da wirkt das toll, aber ist im Endeffekt nichtssagend, weil kaum einer 720p nutzt.
Und sorry, dich da muss ich Dich als Kevin einstufen, weil Du genau dieses Falschdenken hier bekräftigst.
Du nutzt eine CPU, die Dir realistisch keinen Vorteil bringt und sparst dann an der Kühlung, die einen vielleicht manchmal geringen nominalen Vorsprung dann auch noch zunichte macht.
Das Limit setzt der Monitor, und selbst wenn Du auf einem 120Hz 4k Monitor ticket, dann ist die Grafikkarte das Limit, denn auch ein 13600k lastet die 3090,4090,7900 und 6950 nahezug identisch aus in 4k.
Und da sind wir wieder bei der sinnfreien AIO.
Die wird ja vermeintlich als MUSS beim 13900k dargestellt, was bereits deutlich widerlegt wurde, und dann stellt sich der 13900k selbst als Gaming CPU selbst in Frage.
Die beiden kleineren Brüder Raptor i5 und i7 K Modelle erreichen quasi gleiche Gaming Leistung, bei weniger Energieaufnahme und deutlich geringeren Kühlbedarf
Das zeigt, das die Marketingzielscheibe Kevin funktioniert, Kevin dem die Kosten wurscht sind, dem es nur um die nominale Außenwirkung geht, der kauft die teuerste CPU und hat Gegenüber kleineren keinen Vorteil und dann kauft er eine AIO, die wieder nix besser macht und die man nicht bräuchte.
Ich meine, hey weiter so, die Hersteller lieben diese Art Kunden, zahlen gerne das doppelte für die gleiche Leistung am Ende, nur um des Namens Willen.
Das ist auch ok, kann jeder handhaben wie er will, aber ich gehe jede Wette das ich ausgehend von einem 1080p 360Hz Display jede 13900k 4090 Kombi mit einem 13700k und einer 4080 oder selbst einem 13600k und einer 3090 schlage.
Einfach weil alle diese Kombis locker das Limit erreichen und dabei effizienter und Kühler sind .
Denn solange es nicht keine Supraleiter in der IT gibt, gilt die magische 65 Grad Schallgrenze.
Denn ab ca 65 Grad steigt der elektrische Widerstand massiv an, was genaubdazu führt, dass die CPU mehr Energie aufnehmen muss, umm die gleiche Leistung zu erbringen.
Genau daher kommen nämlich die 30 Watt mehr bei 66 Grad und quasi gleichen FPS beim 13900k im Vergleich zum 56 Grad kühlen 13700k.
Und weil die Katze sich dann in den Schwanz beißt, also höhere Energieaufnahme bedeutet auch steigende Temps, damit immer weiter steigender Widerstand, muss die CPU dann im Takt runtergeregelt werden, sonst würde sie sich selbst abfackeln.
Egal wie hoch die Hersteller heute die Tjmax oder TT Grenze setzen, die Physik bleibt die Gleiche, ab 65 Grad wird's ineffizient und gehtvan die Leistung.
Daher ist gute Kühlung und eine angemessene Hardware einfach sinnvoll.