Core i9-12900KF und Ryzen 9 5950X gegen GeForce RTX 3090 und Radeon RX 6900XT im Test – Großer Einfluss auf Leistungsaufnahme und Effzienz!

Ich wusste gar nicht, dass Streaming so rechenintensiv ist, aber ich bin der Hinsicht auch kein Experte. Sollten die 8 E-Cores beim 12900K nicht für Streaming- und sonstige Windows-Prozesse ausreichen? Dann hätten die Gaming-Prozesse freie Hand über die P-Cores. Ich habe hierzu aber noch nirgends einen Test finden können.
 
Leider nur ein 12600K aber die E-Core kann man schön sehen
Sehr nice.
Mmh meine Aussage bezog sich auf ich glaub techpowerup... oder so. egal. gab ja viele...
Die haben bei dem i9 die E-Cores komplett deaktiviert und Null Leistungsverlust gehabt.
Hier sieht man ja schon eine gewisse Auslastung der E-Cores.
Noch interessanter, gerade in dem Spiel Total War ist die Auslastung der E-Cores gegen Null, wo ich wenn die höchste Auslastung vermutet hätte... weil am meisten Threads verballert.
Bei den anderen Spielen müsste dann schon verdammt viel im Hintergrund passiert sein...

MfG
 
Sollten die 8 E-Cores beim 12900K nicht für Streaming- und sonstige Windows-Prozesse ausreichen?
Das ja meine Frage.
Ich wusste gar nicht, dass Streaming so rechenintensiv ist, aber ich bin der Hinsicht auch kein Experte.
naja vor ned allzu langer Zeit haben die Streamer dafür noch einen zweiten PC genutzt.
mal gannnzz einfach. Ein Spiel was deine Hardware schon als Limit bringt...
Einfach mal discord an und Streame dein Spiel.
Muss noch ned mal wer zuschauen...
Die Last steigt! wenn ich jetzt an meinen großen denke... der nebenbei noch surft... yt und an seiner Mod rum bastelt...
Wenn ich so an meine Anfangszeiten denke... das würde mein großer gar ned überleben! lach
 
bei CPPC Preferred Cores sieht es Folgendermaßen aus
Disabled.. Windows entscheidet welcher Core
Enabled.. die Hardware entscheidet Welcher Core
Hi, lasst uns doch mal schauen was CPPC macht, bisher habe ich es so verstanden:

CPPC testet jeden Thread für sich beim Neustart des OS.
CPPC ist ein UEFI Feature welches AMD im AGESA verankert hat.

Sollte nun ein Kühler etwas schlechter sein, erkennt z.B. Windows das beim booten direkt: CPPC wird ausgeführt (execute)
Die Info wie stark jeder Thread ist geht direkt and den OS Thread Sheduler (Verteiler).

"Preferred Cores" nutzt nun die Threads, die beim Neustart als am stärksten Ermittelt und getestet wurden.

Wenn CCD2 nicht genutzt wird, liegt das an zu wenig Threads seitens der Anwendung.

Deine Erfahrung stimmt somit, wenn mehr Kerne online sind, sind auch die Minimum FPS höher.
Aber auf kosten des Verbrauchs und der Single Core Leistung. ;)

MfG
 
Ich behaupte jetzt mal, daß Leute die auf WQHD und höher zocken in einem Blindtest keinen Unterschied merken ob sie mit 4 E-Kernen zocken oder 4 P-Kernen. Ich zocke jetzt seit 2 Jahren mit meinem 7820x dauerhaft in 4K ohne Turbo und habe nur einen marginalen Unterschied in den FPS, dafür ~50W weniger Hitze unter der Haube. Bedeutet auch neue CPU/Board wäre rausgeworfenes Geld, 8 Kerne hab ich schließlich schon seit 2016. Das hab ich dann lieber in ne 3080ti investiert.
Mir geht es nicht darum auf dem E oder P Core zu zocken, wobei ich sicher bin den unterschied zu merken weil ein E Core eine 3080ti nicht voll auslasten wird.
Mir geht es darum parallel zum spielen (also im Optimalfall 8 P Cores ausgenutzt) noch einen WQHD Stream zu komprimieren und ins große weite Internet zu übertragen. GPU Streaming möchte man ja nicht betreiben wenn die GPU grad am Limit läuft, sonst hättest wieder FPS einbusen.
Ich wusste gar nicht, dass Streaming so rechenintensiv ist, aber ich bin der Hinsicht auch kein Experte. Sollten die 8 E-Cores beim 12900K nicht für Streaming- und sonstige Windows-Prozesse ausreichen? Dann hätten die Gaming-Prozesse freie Hand über die P-Cores. Ich habe hierzu aber noch nirgends einen Test finden können.

Afaik ist es sogar sehr rechenintensiv wenn entsprechende Qualität geliefert werden soll. Per GPU Streaming mit 2. PC kein Problem, aber nicht auf einem.


Das ja meine Frage.

naja vor ned allzu langer Zeit haben die Streamer dafür noch einen zweiten PC genutzt.
mal gannnzz einfach. Ein Spiel was deine Hardware schon als Limit bringt...
Einfach mal discord an und Streame dein Spiel.
Muss noch ned mal wer zuschauen...
Die Last steigt! wenn ich jetzt an meinen großen denke... der nebenbei noch surft... yt und an seiner Mod rum bastelt...
Wenn ich so an meine Anfangszeiten denke... das würde mein großer gar ned überleben! lach

Mit einem Discord Stream ins leere würde sich soetwas auch schön benchen lassen denke ich?
 
Hi, lasst uns doch mal schauen was CPPC macht, bisher habe ich es so verstanden:

CPPC testet jeden Thread für sich beim Neustart des OS.
CPPC ist ein UEFI Feature welches AMD im AGESA verankert hat.

Sollte nun ein Kühler etwas schlechter sein, erkennt z.B. Windows das beim booten direkt: CPPC wird ausgeführt (execute)
Die Info wie stark jeder Thread ist geht direkt and den OS Thread Sheduler (Verteiler).

"Preferred Cores" nutzt nun die Threads, die beim Neustart als am stärksten Ermittelt und getestet wurden.

Wenn CCD2 nicht genutzt wird, liegt das an zu wenig Threads seitens der Anwendung.

Deine Erfahrung stimmt somit, wenn mehr Kerne online sind, sind auch die Minimum FPS höher.
Aber auf kosten des Verbrauchs und der Single Core Leistung. ;)

MfG
Du missverstehst da was.
Auch mit cppc disabled Boosted die CPU problemlos bis 5ghz. Windows nimmt seine eigene Leistungsmessung für jeden core.

Und deine Aussage mit CCD2 ist auch falsch. Es ist ja nicht nur ein einziges Programm..
Windows legt generell kaum was auf CCD2 gerade wegen CPPC.
Es bevorzugt CCD1 und versucht erstmal soviele Threads wie möglich darauf zu packen. Erst wenn diese zu nem gewissen Punkt ausgelastet sind fängt Windows an überhaupt CCD2 zu nutzen.
Und es sind nur ganz wenige allcore senarios wo (benches zb) wo CCD2 überhaupt angesprochen wird.

Du hast also einen 16 Kerner und Windows versucht so wenig wie möglich davon gleichzeitig zu nutzen..
Bis das Windows mit Spielen, normalen Anwendungen und hintergrundgedönst .. und sogar noch mit Streaming via CPU..an den Punkt ist, dass es den 9. Prozessorkern ansprichst muss einiges passieren.

Schaltest du CPPC aus wird alles gleichmäßig über die 16 Kerne verteilt..
Ich meine laufen ja standartmässig nur so 160-180threads gleichzeitig laut Taskmanager.

Das ist ungefähr so wie wenn 16 Leute angestellt sind..
Der Chef verteilt die Arbeit immer nur auf 2-3 Leute.. wenn's zuviel wird,wird Mal der eine oder andere hinzugeholt und der Rest sitzt da und trinkt Kaffee selbst wenn die Welt untergeht.
Das ist natürlich nicht sehr produktiv.
Wenn die Arbeit über alle 16 verteilt wird sind alle beschäftigt und trotzdem am Chillen und haben Zeit und Kraft für extra aufgaben.



Gut möglich das Die neuen Intel CPUs das gleiche Problem haben und die Kerne somit nur als Benchbooster agieren.
 
Zuletzt bearbeitet :
Was missverstehe ich dabei ?

Dürfte ich um dein Windows Event Log, Bitten ?

Wenn ich dir CPPC seitens des OS bestätigen soll.
Ansonsten, ziehen wir eine Nummer und warten bis wir aufgerufen werden...
 
Sehr nice.
Mmh meine Aussage bezog sich auf ich glaub techpowerup... oder so. egal. gab ja viele...
Die haben bei dem i9 die E-Cores komplett deaktiviert und Null Leistungsverlust gehabt.
Hier sieht man ja schon eine gewisse Auslastung der E-Cores.
Noch interessanter, gerade in dem Spiel Total War ist die Auslastung der E-Cores gegen Null, wo ich wenn die höchste Auslastung vermutet hätte... weil am meisten Threads verballert.
Bei den anderen Spielen müsste dann schon verdammt viel im Hintergrund passiert sein...

MfG
Das hat ja primär damit zu tun, dass aktuell kaum ein Spiel (unter realistischen Bedingungen) mehr CPU Leistung nützt, als 8 Kerne bieten. Mit dem üblichen Context Switching auf der CPU sind dann meistens alle Kerne ähnlich (aber nicht annähernd zu 100%) ausgelastet, die "virtuellen" Kerne üblicherweise deutlich tiefer.

Solange sich bei den Games nichts grundlegend ändert (plötzlich massiv mehr und parallelisierbare CPU Last), braucht es für Games kein SMT und auch keine 12 oder 16 Kerne, egal ob die zusätzlichen Cores nun E oder P sind.
 
Mit einem Discord Stream ins leere würde sich soetwas auch schön benchen lassen denke ich?
k.a.

Das hat ja primär damit zu tun, dass aktuell kaum ein Spiel (unter realistischen Bedingungen) mehr CPU Leistung nützt, als 8 Kerne bieten.
wie ich schon ein paar seiten vorher schon schrieb...

die "virtuellen" Kerne üblicherweise deutlich tiefer.
wie im Video auch zu sehen...

Solange sich bei den Games nichts grundlegend ändert
gibts aber! wie im Video wo ich es eigentlich erwartet hätte... Total War.
Aber gerade da werden die E-Cores im gegensatz ja gerade zu gemieden! Finde ich schon mal sehr interessant.

braucht es für Games kein SMT und auch keine 12 oder 16 Kerne, egal ob die zusätzlichen Cores nun E oder P sind.
ja... Aber meine Frage war ja gerade was ist wenn ich mehr als die Power der 8 P-Cores brauche weil ich mehr als nur das Spiel zu laufen habe.
z.B. Streame. Übernehmen das die E-Cores? Wenn sie schon in den Spielen keine wirkliche Rolle spielen. Oder klaut mir das Streaming Leistung von den P-Cores und das Spiel läuft evtl. langsamer.
Dann würde mir eine CPU mit mehr als 8 P-Cores mehr bringen.
Weist was ich meine?

Mfg
 
Zuletzt bearbeitet :
Am Ende gehts hier doch darum, ob mit den Alder Lakes CPUs am Start sind, die dedizierte Zuordnung der Kerne zur Anwendung "automatisch" bzw. qua Auslegung (P-/E-Cores) vornehmen. Das würde im Idealfall bedeuten: Streaming (und Video-Kompression) parallel zum Gaming ohne Leistungs-Einbußen.

Dass die meisten Spiele mit max. 8 Kernen skalieren liegt übrigens an den Konsoleros ;)
 
Ich wusste gar nicht, dass Streaming so rechenintensiv ist, aber ich bin der Hinsicht auch kein Experte. Sollten die 8 E-Cores beim 12900K nicht für Streaming- und sonstige Windows-Prozesse ausreichen? Dann hätten die Gaming-Prozesse freie Hand über die P-Cores. Ich habe hierzu aber noch nirgends einen Test finden können.
Die Frage ist nur, wie schlecht die Spielperformanz mit CPU streamen sein soll.
Es gibt schon einen Grund warum auch ein 5950x nur eine schlechte Wahl ist und im Grunde jede billig NVIDIA GPU mit NVENC zu bevorzugen ist, wenn es um Single-PC-streamen geht.
NVENC outperformt x264 veryfast in Qualität mit nur minimaler Frametime Auswirkung. x264 fast kannst du ja ganz vergessen, da fängst schon gut mit dropped frames an und H265 ist NVENC nochmals besser als mit H264.

Eine CPU zum streamen sollte als Idee seit TURING spätestens tot sein, außer man hat nicht mal eine Intel CPU mit QuickSync als Notlösung.
 
jede billig NVIDIA GPU mit NVENC zu bevorzugen ist,
dafür eine extra GPU drin?
Denke mir so... wenn mit der gleichen Grafikkarte die auch zum Spielen genutzt wird... erzeugt das ja auch schon eine Last auf der GPU.
Jetzt nicht bei den Komponenten die fürs Spielen wichtig sind, aber Speicherbandbreite ect. nicht zu vergessen das Powerbuget der Karte.

Also ist es doch ned gaaanz so einfach das Streaming mit GPU.
K.A. glaub discord nutzt in der Standardeinstellung nutzt die GPU...

MfG
 
Das hat ja primär damit zu tun, dass aktuell kaum ein Spiel (unter realistischen Bedingungen) mehr CPU Leistung nützt, als 8 Kerne bieten. Mit dem üblichen Context Switching auf der CPU sind dann meistens alle Kerne ähnlich (aber nicht annähernd zu 100%) ausgelastet, die "virtuellen" Kerne üblicherweise deutlich tiefer.

Solange sich bei den Games nichts grundlegend ändert (plötzlich massiv mehr und parallelisierbare CPU Last), braucht es für Games kein SMT und auch keine 12 oder 16 Kerne, egal ob die zusätzlichen Cores nun E oder P sind.
Naja, es gibt schon Spiele die mehr als 9 Kerne nutzen können.
Die Frage ist dann welche API wird genutzt, mit DrirectX 9 - 11 hängen wir bei 8 Kernen fest, stimmt.
Aber DirectX 12 (Ultimate) oder Vulkan gibt es keine Grenzen nach oben.

Ohne Leistungs Einbußen werden die E Kerne nicht parallel laufen um z.B. zu Streamen.
Die wollen schließlich auch im RAM schreiben/lesen und die Datenträger konstant beschreiben.
 
Naja, es gibt schon Spiele die mehr als 9 Kerne nutzen können.
Bei neuen, anständig programmierten Games hat man die Möglichkeit, mehr Kerne zu nutzen. Der Bedarf an Rechenleistung um die Grafikkarte zu beschäftigen steigt dadurch aber nicht bedeutend an. Je nach Game kann er immer noch höher oder tiefer sein und liegt meist deutlich unter dem, was heutige Prozessoren leisten. Somit bringen mehr Kerne oft nichts, auch wenn ein Game diese nutzen könnte. Man braucht ja keine 16 Kerne die dann nur zur Hälfte ausgelastet sind.
 
Bei neuen, anständig programmierten Games hat man die Möglichkeit, mehr Kerne zu nutzen. Der Bedarf an Rechenleistung um die Grafikkarte zu beschäftigen steigt dadurch aber nicht bedeutend an. Je nach Game kann er immer noch höher oder tiefer sein und liegt meist deutlich unter dem, was heutige Prozessoren leisten. Somit bringen mehr Kerne oft nichts, auch wenn ein Game diese nutzen könnte. Man braucht ja keine 16 Kerne die dann nur zur Hälfte ausgelastet sind.
Dein Einwand ist, soweit ich das Beurteilen kann, Berechtig.
Anständig ist mir etwas zu schwammig, das kann jeder selbst Auslegen wir er /sie es gedenkt.

Doch, weil 16 Kerne benötigen 105W TDP, die hälfte sind wie viel Watt?
 
Dein Einwand ist, soweit ich das Beurteilen kann, Berechtig.
Anständig ist mir etwas zu schwammig, das kann jeder selbst Auslegen wir er /sie es gedenkt.

Doch, weil 16 Kerne benötigen 105W TDP, die hälfte sind wie viel Watt?
Das ist nicht ganz so einfach, was sich ja auch aus den AMD TDPs ableiten lässt.

5600X -> 65W TDP
5800X -> 105W TDP
5900X -> 105W TDP
5950X -> 105W TDP
 
Dass die meisten Spiele mit max. 8 Kernen skalieren liegt übrigens an den Konsoleros ;)
Naja… die paar Ryzen 59xx User haben sich halt bisher auch einfach nicht gelohnt. ;)
Bei den Konsoleros sitzen die Taschen bekanntlich auch deutlich tiefer als beim typischen “Jo, ach, hol ich mir mal im Sale für’n Fünfer” PC User.

Umgekehrt war es übrigens viel schlimmer - ich war noch sehr lange mit ‘nem Core 2 Duo unterwegs.
…bis alle Welt Vierkerner hatte, die Entwickler darauf optimierten, und es bei manchen Spielen zu ganz komischem Schluckauf kam.
Die Thief Neuentwicklung und AC Black Flag fallen mir da ein. Das war kein ehrliches, konstantes Ruckeln. Die renderten selbst auf dem Duo butterweich für einige Frames, dann kam ein massiver Framerateneinbruch… und von vorn. Und das ganze sehr schön regelmäßig.

Thief bekam man noch mit irgendner Checkbox im Launcher-Setup dazu, rund zu laufen.
Mit neuer CPU war dann eh alles ok.

Zum Glück hat sich das beim Sprung von vier zu acht Kernen nicht nochmal wiederholt. :)
War damals gut sauer, weil sich schon vor 8 Jahren nicht viel bei der Singlecoregeschwindigkeit tat und der Core 2 Duo mir eigentlich für alle Spiele reichte, wenn nicht grad das Threading zickte. :)
 
Das ist nicht ganz so einfach, was sich ja auch aus den AMD TDPs ableiten lässt.

5600X -> 65W TDP
5800X -> 105W TDP
5900X -> 105W TDP
5950X -> 105W TDP
Das stimmt, daher werden die CPU nach oben hin selektiert.
Sprich du bekommst niemals ein 65W TDP der den Takt des 5950X erreicht.
Umgekehrt ist der 5950X mit nur 8 Kerne und 16 Threads, Sparsamer als der 5600X ;)
 
Oben Unten