Core i9-12900KF und Ryzen 9 5950X gegen GeForce RTX 3090 und Radeon RX 6900XT im Test – Großer Einfluss auf Leistungsaufnahme und Effzienz!

überhaupt nur erdacht um in synthetischen Singlecore Benchmarks was zu reißen... oder?
in der Praxis wohl ein "Knieschuss"?

MfG
Naja
Singlecore Games.. bzw ESport Games wie Counterstrike, Starcraft ect die nur 1-2 Kerne nutzen können profitieren in der theorie davon da sie bevorzugt auf den am höchsten boostenden Cores ausgeführt werden.. (der ganze Windows Hintergrund klimbimsch allerdings leider auch)

bei Ryzen 3000 war es noch halbwegs sinnvoll wegen dem extrem geteilten L3 Caches.. bei ryzen 5000 ist diese Problematik mit dem geteilten L3 Cache aber wesentlich entschärft


Auch kann man dem ganzen ein gewisses Energiesparpotential bescheinigen da ja bedeutend weniger Cores benutzt werden.. würde man zb Coreparking dazu aktivieren (notebook energiesparpläne ) wären wesentlich mehr Cores am Schlafen wodurch der Prozessor weniger Strom verbrauchen würde

Der gedanke dahinter ist nicht ausschließlich Benchmarks zu gewinnen..
aber in der Realität wenns auf leistung angkommt ist es eher kontraproduktiv..

wenn du zb n Spiel wie Battlefield nimmst was 12 Threads hat.. Boostet die CPU sowieso nicht auf 5ghz sondern auf ca 4.6 ghz
weil je mehr kerne genutzt werden desto geringer ist der Boosttakt.. die 5ghz schafft der 5950x sowieso nur wenn 1-2 Kerne genutzt werden
Also ist es völlig egal ob der beste kern jetzt 5ghz schafft wenn doch eh mehrere Kerne genutzt werden

im Schlimmsten falle läuft ein Counterstrike mit CPPC disabled halt auf einen Core der maximal 4.7ghz packt statt den Besten Core zu nehmen der 5.1 schafft
was sind das? 5% leistungsunterschied wenns hoch kommt? 450FPS vs 430FPS und das nur in ner Handvoll uralter Spiele
 
@BlackFireHawk
Das die Kerne nicht voll hoch Takten liegt aber auch an SMT.
Klar.. gibt da eine Verlaufskurve je mehr logische Kerne benutzt werden desto niedriger ist der boosttakt

Schaltest du SMT aus (oder nutzt sie nicht durch Affinität) nutzt du nur 16 von 32 logischen Kernen bei nem 5950x
Und das 16 höher boosten als 32 ist logisch
 
Also die schlechte Leistung der 3090 oder auch allen anderen Nvidia Karten in niedrigen Auflösungen ist krass. Was haben die da im Treiber vermurkst.. du kannst ja keinem FULLHD Zocker der auf max. FPS aus ist eine Nvidia Karte empfehlen :D
Die 720p / 1080p / 4k Skalierung bei AMPERE sieht nicht wie TURING oder RDNA1/2 aus, aber dass wurde bei Day1 Reviews schon gezeigt, überrascht sollten informierte Käufer ja nicht sein.

Ob es an den Treibern liegt, weil 720p Optimierung wohl nicht ganz oben in der Prio steht oder die vielen Kerne oder das "Compute-Design" der AMPERE GPUs einfach nicht ordentlich ausgelastet werden kann, spielt ja fast keine Rolle.

Dann hätten wir RTX+DLSS, NVENC und CUDA Support auf der einen Seite und 720p +10% mehr Performanz auf der anderen. Es ist für jeden was dabei. :D
 
Kein Thread ohne . 😁
 
Ehrlichgesagt bin ich mir nicht sicher, ob ein E-Core schnell genug ist einen WQHD Stream zu bearbeiten ...
Ich behaupte jetzt mal, daß Leute die auf WQHD und höher zocken in einem Blindtest keinen Unterschied merken ob sie mit 4 E-Kernen zocken oder 4 P-Kernen. Ich zocke jetzt seit 2 Jahren mit meinem 7820x dauerhaft in 4K ohne Turbo und habe nur einen marginalen Unterschied in den FPS, dafür ~50W weniger Hitze unter der Haube. Bedeutet auch neue CPU/Board wäre rausgeworfenes Geld, 8 Kerne hab ich schließlich schon seit 2016. Das hab ich dann lieber in ne 3080ti investiert.
 
Klar.. gibt da eine Verlaufskurve je mehr logische Kerne benutzt werden desto niedriger ist der boosttakt

Schaltest du SMT aus (oder nutzt sie nicht durch Affinität) nutzt du nur 16 von 32 logischen Kernen bei nem 5950x
Und das 16 höher boosten als 32 ist logisch
Passt aber nicht zu meinem Video deine Aussage, weil 2 Kerne höher boosten als Ein Kern mit SMT.Genau so wie es nicht nur Eine Kurve gibt sondern mehrere die den Takt bestimmen. ;)
 
Ich behaupte jetzt mal, daß Leute die auf WQHD und höher zocken in einem Blindtest keinen Unterschied merken ob sie mit 4 E-Kernen zocken oder 4 P-Kernen. Ich zocke jetzt seit 2 Jahren mit meinem 7820x dauerhaft in 4K ohne Turbo und habe nur einen marginalen Unterschied in den FPS, dafür ~50W weniger Hitze unter der Haube. Bedeutet auch neue CPU/Board wäre rausgeworfenes Geld, 8 Kerne hab ich schließlich schon seit 2016. Das hab ich dann lieber in ne 3080ti investiert.
Die 8 E-Kerne kommen übertaktet auf 4,1GHz und Extrem Sauffreudig gerade ein mal auf die Leistung eines 7700K.Ist nicht viel......
 
Im Launchartikel hatte ich bereits Test in WQHD und auch eine Einlassung zu UHD drin. Wo nichts ist, kann man auch nichts Unterschiedliches messen. Denn genau dann ist es fast schon Wumpe, was man im PC als CPU hat. Ich spiele selbst nur in UHD und merke zwischen dem 9900K und dem 12900KF objektiv überhaupt keinen Unterschied. Aber dazu schrieb ich ja schon was :)
Danke, Igor, darauf wollte ich ja hinaus. Von ganz wenigen Spielen abgesehen (Anno?) ist es fast egal, welche CPU man hat (ab Mittelklasse oder so) weil man eh im GPU-Limit hängt.
 
Ich denke mal, Du hast nicht aufmerksam hingeschaut. Ich habe die beiden schnellsten CPUs nun mit der RTX 3090 noch einmal gemessen und zusätzlich noch mit reingepackt und deshalb auch separat gekennzeichnet, die Werte mit der Radeon stehen ja schon drin und zudem bei jedem Chart steht auch noch RX 6900XT auch im Titel. Missverständlich ist was anderes. Zumal ich auch noch farbige Balken nutze, wo es möglich ist. Aber ich habe weder Zeit noch Ressourcen, alles noch einmal komplett neu zu beschriften.
Ich könnte schwören, dass da heute morgen "5900X + RTX 3090" stand. Kein Scherz jetzt. Habt ihr das korrigiert mittlerweile? Aber so passt es ja jetzt.
Und was die Leistungsaufnahme betrifft:
Schau Dir die Benchmarks mal genauer an, da müsste Intel ja auch sparsamer werden. Genau das ist aber nicht der Fall. Im Gegenteil, die Effizienz sinkt sogar mit der NV-Karte, trotz niedrigerer FPS. Steht doch alles im Artikel :)
Gut, das weiß man vorher nicht. Genau so gut kann der "Treiberoverhead" einen Thread stark nutzen, der dann durch ein Singlethread-Limit alle anderen Threads ausbremst und dadurch letztlich einen geringeren Gesamtverbrauch verursacht.
 
Null Relevanz! Deaktiviert -> gleiche Leistung im Spiel weil nur die P-Cores benutzt werden.
Bei dieser Aussage bin ich mir allerdings nicht sicher. Was wäre, wenn ein Spiel eben nicht nur die P-Cores verwendet, sondern einzelne Prozesse zwischen E- und P-Cores hin- und her geschoben werden? Das könnte die Leistung signifikant beeinträchtigen. Ein Reddit-Forist hatte eigene Tests gepostet, die teilweise sogar höhere FPS bei abgeschalteten E-Cores zeigen:
Es wäre daher durchaus interessant, vergleichende Benchmarks zu sehen, bei denen das Spiel auf die P-Cores gepinnt wird und die restlichen Windows-Prozesse den E-Cores zugewiesen werden, um so die P-Cores von Hintergrundprozessen zu entlasten. Process Lasso soll Alder Lake ja mittlerweile unterstützen, da könnte jemand, der einen Alder Lake Prozessor hat, dies ja mal ausprobieren.
 
Zuletzt bearbeitet :
gar keinen! never! siehe Benchmarks!

Praxistest! nicht quasi Benches die in die gleiche Kerbe schlagen!

Schreib ich so undeutlich oder wird hier mit Absicht ausgewichen??

Wer hat einen 12. Gen und kann das mal Testen?
Würde gerne was neues für meinen großen haben... aber wenn ich heute die Chance habe 12 oder gar 16 echte Kerne zu haben.
Wo ich genau weiß wie mein großer seine Kiste ans Limit bringt.
Nicht nur das eine Spiel auf hat!
Dann interessiert mich, was in der realität in der echten Praxis besser ist.
Intel mit 8 P-Cores Mega für Spiele.
Und 8 E-Cores die er vielleicht, quasi NIEEEEEEEEEEEEEEEEE benutzen wird.
Weil er keine Workstationanwendungen fährt.

Mfg
Mal ganz ehrlich.
So wie deine Posts in diesem Thread rüberkommen, weckst du kaum das Verlangen, irgendwelche Tests durchzuführen, bis dir mal ein spezifischer Test (und dann auch das Resultat) passen.
 
Um etwas mehr dazu heraus zu finden, kannst du einmal im Taskmanager verfolgen, was wie viel Leistung verbraucht und wie weit dein Prozessor durch die Games und Anwendungen deiner Kinder ausgelastet ist. Youtube und solche Sachen sind für heutige Prozessoren ein Klacks. Da merkt man kaum einen Unterschied, ob es an ist oder nicht. Bei vielen offenen Browserfenstern und diversen Anwendungen kann es mit dem Arbeitsspeicher knapp werden. wenn deswegen viel ausgelagert werden muss, kann das zu Rucklern führen.

Streaming dagegen kann viel Leistung verbrauchen. Da kann man einen Unterschied merken, aber nur wenn der Prozessor stark ausgelastet ist.

Wenn man die eigene Situation genau kennt und weiss, wo die Engpässe liegen, kann man auch anhand synthetischer Benchmarks abschätzen, ob ein neuer Prozessor etwas bringt oder nicht. Zu erwarten, dass jemand genau das testet, was du verwendest, ist etwas eine hohe Erwartung. Dafür gibt es einfach zu viele Anwendungsmöglichkeiten. Deshalb testet man auch nur das, was wirklich viel Leistung braucht und nicht auch noch Kleingemüse, das einen Prozessor zu 1 oder 2 % auslastet.
Bei meinem alten i5-7500 (4c4t), habe ich bei diversen Games definitiv gemerkt, dass nicht mehr genug Leistung fürs Drumherum übrigblieb.

Da blieb auch schon gerne mal das Youtube Video auf dem zweiten Bildschirm stehen. Aber bis man mit einem modernen 6 oder 8 Kerner solche Probleme hat, wird's wohl noch ein Weilchen dauern.
 
Wer aber online FPS spielen möchte wird sich über die frametimes freuen die so eine CPU zulässt.
 
Bei dieser Aussage bin ich mir allerdings nicht sicher.
Wohl wirklich noch nicht viel gelesen...

Das wurde alles schon geklärt.
Hier dein Bsp. z.B. bei CB.

Kurz und knapp.
Wenn die E-Cores deaktiviert werden, haben die P-Cores mehr von dem Powerbuget zur Verfügung was die E-Cores sonst bei Spielen unnütz belegen. Dadurch mehr Leistung in dem Szenario.

MfG
 
So wie deine Posts in diesem Thread rüberkommen, weckst du kaum das Verlangen, irgendwelche Tests durchzuführen
schreib frei von der Leber am Handy... das liegt dann wohl daran das heut beim geschriebenen Wort extrem viel rein interpretiert wird. zwischen den Zeilen was zu gedichtet wird... was angenommen wird was gar nicht gemeint... ich weiß es nicht.
Wenn wir Auge in Auge reden, diskutieren würden... würde dir wohl mein Gesicht dabei nicht passen...
Wenn ich es so schlecht rüber bringe. Du es vielleicht aber verstanden hast.
Vielleicht kannst du es besser "verpacken"?! Danke wenn

MfG
 
Wohl wirklich noch nicht viel gelesen...

Das wurde alles schon geklärt.
Hier dein Bsp. z.B. bei CB.
Doch, die Artikel bei Computerbase habe ich schon durch. Woher nimmst du dein Urteil, dass ich noch nicht viel gelesen habe? Du kennst meinen Hintergrund überhaupt nicht.
Wenn die E-Cores deaktiviert werden, haben die P-Cores mehr von dem Powerbuget zur Verfügung was die E-Cores sonst bei Spielen unnütz belegen. Dadurch mehr Leistung in dem Szenario.
Ja, das stimmt, aber beantwortet nicht die Frage, ob die Leistung noch gesteigert werden könnte, wenn die E-Cores aktiv, aber nur für Hintergrundprozesse verwendet werden. Das sollte dich eigentlich auch interessieren, da du ja nach Streaming neben dem Gaming gefragt hast.

Edit: Außerdem besagt der CB-Artikel auch, dass das Scheduling wohl noch nicht perfekt läuft: https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/2 (Absatz: Der Energiesparplan ist noch defekt)
 
Zuletzt bearbeitet :
Leider nur ein 12600K aber die E-Core kann man schön sehen,bzw DDR5/DDR4 mit und ohne E-Core.Leider fehlt noch der Verbrauch zur Auslastung.
 
  • Like
Bewertungen: Thy
Du kennst meinen Hintergrund überhaupt nicht.
ah verstehe. sorry
Die Frage wurde nur da so dachte ich eigentlich beantwortet.
klar in dem speziellen Bsp. wäre das eine interessante Erkenntnis. bestimmt!
Das es wohl insgesamt noch komplizierter geworden ist und je nach Szenario andere Bestcase Anpassungen geben kann, könnte... haben wir ja hier schon gesehen.
aber nur für Hintergrundprozesse verwendet werden. Das sollte dich eigentlich auch interessieren, da du ja nach Streaming neben dem Gaming gefragt hast.
Streaming würde ich jetzt nicht als Hintergrundprozess sehen... aber naja.

Hier geht´s schon los. Die ganze Sache ist nicht trivial... wenn das nicht out of the box klappt... schon Mist.
Meine Hoffnung wäre ja das die Leistung nicht einbricht. Man sehen kann das die E-Cores doch mehr können als Spezial Fälle.
Oder im schlimmsten Fall die Leistung einbricht und die E-Cores nix machen...
Zur not wie du sagst mal die Anwendung (Streaming) auf die E-Cores nageln.
Alle anderen (Hintergrund) Dienste von den P-Cores zu trennen um diese "Last" auf die E-Cores zu nageln um zu schauen ob noch mehr Leistung durch entlasteten P-Cores raus kommt. Zu praxisfern? Würde das wer machen?
Wir sehen ja schon wie schwer es bei AMD ist ohne die Klassen Unterteilung der Cores einfach nur um die Stärkeren Cores zu forcieren...

MfG
 
Oben Unten