CPU GPUs Graphics Reviews

Core i9-12900KF and Ryzen 9 5950X vs. GeForce RTX 3090 and Radeon RX 6900XT Review – Big impact on power consumption and efficiency!

Let’s first return to the measurements in 720p (1280 x 720 pixels). The best option is to limit the graphics card by the CPU and the only chance to work out real differences to now also do various experiments according to the “what if” principle. After all, we want to benchmark the CPUs again and not the two graphics cards. After all the updates and patches, the differences between Alder Lake and Zen3 have become relative again, they are also significantly smaller but it also shows how the CPUs act together with the RTX 3090 FE, because most other reviewers had already benchmarked like that.

And yes, it shows once again why I preferred the Radeon RX 6900XT over the GeForce RTX 3090, as the results are very much in favor of the Radeon with one exception. Otherwise we would probably never have come up with the results that I will show today on the next few pages and explain in summary at the end. That alone was certainly worth all the effort. Incidentally, it is also worth taking a closer look at the percentiles and variances on this page.

Apart from the fact that the Alder Lake CPUs still deliver the better values at 1% low (P1), the GeForce RTX 3090 also has to admit defeat to the Radeon RX 6900XT in this category. We’ll see in a moment how this whole constellation and sequence will affect the power consumption of the CPU and thus in the end also the sum of CPU and GPU. I also deliberately left the two limiting games (Control and Metro Exodus EE) in the test field, because it’s also interesting to see what happens (or doesn’t happen) to the GeForce here and how Ryzen and Alder Lake react.

 

Lade neue Kommentare

DrWandel

Mitglied

38 Kommentare 38 Likes

Wow, das ist wirklich interessant. Im Endeffekt frage ich mich natürlich, was das denn nun für den Anwender und Gamer bedeutet. Es ist technisch hochinteressant zu sehen, welche Faktoren Performance, Leistungsaufnahme und Effizienz beeinflussen, und Kudos an Igor und Team für solche detaillierten und differenzierten Betrachtungen und Messungen, die ja auch speziell bei 720p solche Unterschiede aufzeigen.

Für Gamer, die in WQHD oder gar UHD spielen und oft/meistens im GPU-Limit sind, sollte das dann doch aber weniger eine Rolle spielen, oder? Es ist ja auch so, dass man sich aktuell ganz gut eine brauchbare CPU leisten kann (zumindest im Bereich eines Ryzen 5600X), aber eine vernünftige GPU eher weniger. Mittelfristig würde ich da gerne noch ein paar Tests sehen, die zeigen was die CPU-Wahl bei WQHD/UHD bewirkt, bei Spielen im GPU-Limit. Theoretisch sollte das ja kaum einen Unterschied machen, aber praktisch? Mit anderen Worten, welche CPU sollte ich mir leisten um die Grafikkarte, die ich schon habe oder mir noch leisten kann, vernünftig zu komplementieren?

Zu dem Thema wird es sicher hier und an anderen Stellen noch Untersuchungen geben.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

7,244 Kommentare 1,144 Likes

Schade ist nur das die AMD nicht auch mit einem leichten -Offset getestet werden.Etwas mehr Leistung bei etwas weniger Verbrauch wäre auch noch mal interessant.

Antwort 1 Like

k
krelog

Veteran

100 Kommentare 22 Likes

schöner Ansatz aber ohne wirklichen nutzen weil das getestet Szenario zwar theoretisch existiert aber praktisch leider nicht, wäre vergleichbar wenn man einen F1 Wagen testet wie er sich beim Stadtverkehr macht. Kann man machen aber hilft keinem weiter.

Antwort Gefällt mir

Igor Wallossek

Format©

6,625 Kommentare 10,804 Likes

Im Launchartikel hatte ich bereits Test in WQHD und auch eine Einlassung zu UHD drin. Wo nichts ist, kann man auch nichts Unterschiedliches messen. Denn genau dann ist es fast schon Wumpe, was man im PC als CPU hat. Ich spiele selbst nur in UHD und merke zwischen dem 9900K und dem 12900KF objektiv überhaupt keinen Unterschied. Aber dazu schrieb ich ja schon was :)

Antwort 3 Likes

Igor Wallossek

Format©

6,625 Kommentare 10,804 Likes

Muss man machen, weil man mich wegen meiner Messwerte angegangen ist. Also alles eher eine Frage der Plausibilität und am Ende wohl auch der Ehre. Mit einem interessanten Nebeneffekt, der bis FHD gut messbar ist.

Antwort 3 Likes

Q
QuFu

Veteran

148 Kommentare 50 Likes

Der Vergleich hinkt. Eher der F1-Wagen auf dem Motorprüfstand. Nutzlos für die Leute, die nur das Rennen sehen wollen, aber analytisch betrachtet, unverzichtbar. Und Grafiktests im CPU-Limit gibts doch schon wie Sand am Meer. Das wäre im angesprochenen Vergleich nur was für Leute, die das Rennen gerne mehrmals schauen. ;)

Antwort 1 Like

Thy

Urgestein

1,416 Kommentare 389 Likes

Der Benchmark bei 720p ist natürlich rein akademisch, aber er verstärkt einige Stärken und Schwächen der einzelnen Konfigurationen, so dass daraus interessante Rückschlüsse gezogen werden können, wie Igor ja schön in seinem Artikel gezeigt hat. Für mich kristallisiert sich der i7-12700K mehr und mehr als die momentan ideale Gaming-CPU heraus, da sie von der Leistung, meiner Meinung nach, völlig ausreicht und andererseits das absolute Effizienzmonster zu sein scheint, welches selbst den 5600X noch schlägt.

Antwort Gefällt mir

m
m4ntic0r

Mitglied

11 Kommentare 5 Likes

Also die schlechte Leistung der 3090 oder auch allen anderen Nvidia Karten in niedrigen Auflösungen ist krass. Was haben die da im Treiber vermurkst.. du kannst ja keinem FULLHD Zocker der auf max. FPS aus ist eine Nvidia Karte empfehlen :D

Antwort Gefällt mir

M
Matthias80

Mitglied

37 Kommentare 8 Likes

Was hoffentlich mal einer Testet ;-) weil es ja offensichtlich ist, das Intel hier mit ihren echt Mega P-Cores in Spielen was reißen.
Quasi für die aktuellen Gegebenheiten eine Punktlandung.
Aber die E-Cores wohl gar nix bringen... wohl nur für synthetische Test entwickelt wurden...
Ob die E-Cores z.B. ein Streaming abdecken können??
Ob ein Spiel was die 8 P-Cores gut auslastet... durch zusätzliches Streaming, Leistung abzwacken müssen, oder ob das die E-Cores sinnvollerweise übernehmen.
Wie die Test mit deaktivierten E-Cores gezeigt haben... null komma nix in Spielen!
Also aus Spielersicht, hat man sich 2021 eine 8 Core CPU gekauft. ahhhhhhhh ok.
Klar single Core Leistung und im Paket die Effizienz mega.
Aber halt nur 8 Core!
So wenn ich mir künstlich Szenarien suchen muss, um überhaupt die Existenz außerhalb von Spielen zu belegen. mmmmmh
Die Theorieseite wurde jetzt unglaublich ausführlich beleuchtet. Wie wäre es mal mit Praxistest?
Soooo weit her geholt ist mein Streaming Bsp. ja nun ned.

mfg

Antwort Gefällt mir

Klicke zum Ausklappem
BlackFireHawk

Mitglied

24 Kommentare 19 Likes

@Igor Wallossek
Kannst du beim AMD system Mal mit cppc disabled im bios benchen? Würde sich Grade anbieten solange die Test Setups noch aufgebaut sind

Gerade mit cppc disabled hab ich beim 5950x bedeutend bessere min FPS in vielen spielen.

Antwort 1 Like

Zer0Strat

Mitglied

79 Kommentare 73 Likes

@Igor Wallossek So ganz verstehe ich deinen Test nicht. Zum einen hast du Radeon Karten benutzt und dann die gleichen CPUs nochmal mit der Nvidia Karte?! Aber warum wird dann nicht beide Male der 5900X oder der 5950X genommen? Das ist ja ein gemischter Vergleich. Die vollständige Beschriftung der Labels wäre nice gewesen. So werden jetzt nur die Nv Karte + CPU X Kombis explizit aufgeführt.

Der wesentliche Punkt ist aber die Vergleichbarkeit. Muss man die FPS nicht cappen, um das überhaupt vergleichen zu können? Wenn eine CPU A schneller als CPU B ist, dann verbraucht die GPU ja auch mehr, weil diese weniger ausgebremst wird.

Antwort Gefällt mir

Klicke zum Ausklappem
grimm

Urgestein

1,927 Kommentare 1,059 Likes

Du sagst es doch selbst: Wenn du die FPS begrenzt, begrenzt du ja mittelbar auch die CPU - außer du misst, wie schnell eine CPU die Daten bereitstellt. Das kannst du aber theoretisch den Frametime-Messungen entnehmen.

Antwort Gefällt mir

Casi030

Urgestein

7,244 Kommentare 1,144 Likes

Warum deaktivieren? Schon mal Höchstleistung Processors min/max 100%versucht? Das hilft bei vielen.

Antwort Gefällt mir

E
Ebatman

Mitglied

19 Kommentare 19 Likes

Mal ein Gedankenspiel:
Irgendwie könnte man vermuten dass die Sprunvorhersage von Intel in Verbindung mit der 3090 öfters daneben liegt.
Oder der Nvidia Treiber "falsche" calls ausgibt die die Sprungvohersage "korrumpieren".
Je nach Aufbau bei Intel würde sich das nur in winzigster FPS Reduktion bei aber merkbar höherem Stromverbrauch manifestieren.

Ist jetzt mal ein Schuß ins Blaue, ein paar abhängigkeiten voneinander deuten ein wenig in diese Richtung.

Allgemein scheint Nvidia nun das selbe Problem zu haben wie AMD in den älteren Serien mit der vollständigen Auslastung der Shadereinheiten (overhead).

Antwort Gefällt mir

BlackFireHawk

Mitglied

24 Kommentare 19 Likes

Weil cppc zusammen mit dem Windows sheduler die Threads wie verrückt zwischen den Kernen hin und her schmeißt.
Cppc versucht soviel wie möglich auf so wenig wie möglich Kernen auszuführen damit diese höher boosten können und andere nicht genutzte Energiesparen können

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Advertising

Advertising