@ Igor, vielen Dank für den schönen und differenzierten Test.
E-Kerne: Hab mich schon öfter gewundert/gefragt, wie viel zusätzlichen L2 oder L3 Cache Intel auf ihren RL dies unterbringen könnten, wenn sie die Fläche der E-Kerne (mit dem für diese reservierten Caches etc) dazu verwenden würden , stattdessen mehr Cache für die 8 Cove Kerne bereitstellen würden, also 8P:0E. Alles akademisch, ich weiß, aber gerade fürs Spielen wäre sowas doch interessant. Gibt's da Schätzungen? Schon faszinierend daß viele Spiele und einige Anwendungen einen richtig großen L3 Cache doch sehr mögen.
Wenn hier im Forum jemand einen Link hat zum Nachlesen, wie AMD den V-Cache verwaltet, bitte posten - Danke! Wenn Cache richtig groß werden, wird das ja immer wichtiger.
Eine akademische Überlegung, denn Intel hat mit seinen großen Marktanteilen eher weniger Interesse eine spezifisch fürs Gaming ausgelegte CPU bereitzustellen, was beträchtliche zusätzliche Kosten verursacht (
insbesondere jetzt, siehe Umstrukturierung und Roadmapanpassungen ... nicht umsonst versucht AMD weiterhin weitestgehend alle Marktsegmente mit einer einzigen Kern-IP zu bedienen.)
Dennoch kann man grob abschätzen und kommt bspw. beim 12900K mit rund 209 mm2 Chipfläche zu der Folgerung, dass man dort platztechnisch etwa jeden Gracemont-Kern mit einem Cache-Slice ersetzen könnte, d. h. man könnte bei einer Ersetzung zusätzliche 24 MiB L3$ hinzurechnen auf dem planaren Die. Berücksichtigt man noch den L2$ der Gracemont-Cluster sowie den Ring Agent , etc. könnte man ggf. gar noch zwei weitere Slices hinzurechen, käme also platztechnisch auf bis zu zusätzlich mögliche 30 MiB L3$.
Darüber hinaus , wie schon Igors Messungen zeigen, ist die Mehrleistung sehr spezifisch *) und schwindet zudem beim Spielen in Richtung eines GPU-Limits. Die CPU-Hersteller waren seit jeher bemüht eine optimale Cache-Größe über eine große Zahl an Workloads zu implementieren und das Ziel haben sie schon seit langem erreicht.
AMDs V-Cache ist hier vielmehr ein Abfallprodukt der Server-Entwicklung, denn hier gibt es spezifische Workloads, die sehrwohl deutlich von größerem lokalen Cache profitieren können und hier kann man auch gänzlich andere Preise verlangen. Nur für den Gaming-Markt hätte AMD zweifellos nicht den Aufwand für den V-Cache betrieben.
Bei Intel würde ich davon ausgehen, dass selbst ein Arrow Lake in 2024 eber mit einer moderaten Cache-Vergrößerung arbeiten wird als dass hier ein extra großer Cache draufkommt oder man gar einen stacked Cache (
mittels Foveros) anbieten wir, der wiederum die Abwärme und Taktbarkeit des Designs limitiert. Die Mehrleistung wird hier voraussichtlich im Wesentlichen auf die deutlich modernere Fertigung und die überarbeitete Kern-IP zurückzuführen sein als auf den Cache.
*) Beispielsweise beim 3D- und Video-Rendering und beim Compilieren ist der 7800X3D dem 7700X klar unterlegen, was schlicht an dem fehlenden Takt liegt.
Btw, zum "Verwalten" des Caches gibt es nicht wirklich was relevantes zum Nachlesen bei AMD. Das ist schlicht normaler L3$, der nun auf dem erweiterten CCD mit dem stacked Die auf eine Gesamtgröße von 96 MiB anwächst und etwas höhere Latenzen aufweist. Denen steht jedoch die deutliche Vergrößerung des Caches gegenüber.
Darüber hinaus kann man noch berücksichtigen, dass es ein CCD mit 96 MiB ist und nicht etwa 128 MiB L3$ anzurechnen sind, denn in den meisten Anwendungen wird man es vermeiden über den CCD hinweg den Cache des anderen Die's anzusprechen, weil das beträchtliche Latenzen hinzufügt und zudem absehbar steuerungstechnisch mit zusätzlichen Aufwändungen verbunden wäre.
Insgesamt ist es eine sehr schöne CPU geworden und den niedrigen Verbrauch nimmt man natürlich gerne mit. Nur muss man sich überlegen ob man am Ende die derzeit zusätzlich zu bezahlenden 163 € ggü. einem 7700X sinnvoll unterbringen kann, denn abseits von Enthusiasten kauft sich der typische Gamer eher keine derart teuere CPU.