CPU GPUs Graphics Reviews

Core i9-12900KF and Ryzen 9 5950X vs. GeForce RTX 3090 and Radeon RX 6900XT Review – Big impact on power consumption and efficiency!

Comparison of gaming performance and percentiles

I really don’t want to over-stress it, but the Radeon RX 6900XT really beats the GeForce RTX 3090 in 720p by a significant margin. I’ve already written about the reasons in detail, and I’d have to pick ten NVIDIA-affiliated games against all reason with a great deal of malice and intent to completely reverse this result yet. Even the Ryzen 9 5950X with the Radeon RX 6900XT in the duo is still just faster than the Core i9-12900KF with the GeForce RTX 3090. The difference between the individual bars, on the other hand, is quite brutal. With up to almost 44 normalized FPS on average between the fastest and slowest combination, it’s really worlds already.

Let’s now look at the whole thing in percentage points, because it becomes much clearer. The gap of 7.4 percentage points between the Core i9-12900KF and the Ryzen 9 5950X remains in both measurements with the Radeon 6900XT. If you compare the (lower) performance of both CPUs in combination with the GeForce RTX 3090, the difference increases to an even 10 percentage points, which is also what many other reviews show as a difference. I saved the resolution with 1080p after the measurements and a short cumulation, because it looks very similar with the GeForce RTX 3090 now.

The P1 (1% low FPS) looks significantly worse with the GeForce RTX 3090 than with the Radeon RX 6900XT and the Core i9-12900KF’s lead increases from 10.6 to almost 15 percentage points! Apart from the fact that the Ryzen performs worse together with the GeForce 3090, the smoothness also suffers considerably.

Power consumption and efficiency

Now it’s getting exciting. No matter if the slower GeForce RTX 3090 or the faster Radeon RX 6900XT, the Intel Core i9-12900KF stays almost exactly on the same average power consumption! Less FPS but still the same wattage. And what happens with the Ryzen 9 5950X? The power consumption of the Ryzen 9 5950X drops by a whopping 13 watts across all games. If one adds the up to 10 watts as a result of the other motherboard, a saving of 18 up to the 23 watts would result, which then also rather coincides with the values, which many colleagues had determined.

The conclusion is not without a bland aftertaste, because while the Core i9-12900KF cannot benefit from the “slower” graphics card, the power consumption of the Ryzen 9 5950X actually drops significantly with lower graphics performance. That is an important statement, but does it really get to the heart of the matter? Here we have to look at the efficiency of the system!

Which way do you actually look at whole thing? With the power consumption remaining the same for the Core i9-12900K, is the glass now half-empty for Intel or more like half-full for the Ryzen 9 5950X? While the ratio of power consumption to achieved FPS remains the same for the Ryzen when you bench with the GeForce RTX 3090 FE instead of the Radeon RX 6900XT, the efficiency drops for the Core i9-12900KF.

 

Conclusion and final remarks

With that said, we can also draw the final conclusion that the Ryzen 9 5950X de facto doesn’t care which graphics card is in the system, while the Intel CPU is a bit more fond of Lisa’s Radeon in this regard than Jensen’s green uber-bomber. This is certainly also due to the fact that it tends to show the dreaded driver hiccups at very low resolutions. Today’s measurements in connection with the already preceding motherboard tests prove quite plausibly why my measured values were so deviating from the general average in some respects. Actually, the Core i9-12900KF would add another 5 to 10 watts on top, depending on the manufacturer’s supposed OC or gaming attitude.

If one would also be absolutely correct, you could even consider doing at least the 720p tests with both graphics cards at the same time in the future, or at least use the fastest graphics card in this métier in each case, which also suffers less from negative driver influences. And that’s the Radeon RX 6900XT, although I’m sure I’m repeating myself to the detrement of many. If you were to factor out the extreme cases of both cards in a few games, the result would probably be even clearer.

With that, I’ll close the subject of Alder Lake S and efficiency for now, but only for now. There are some interesting tests to come, I promise, when it comes to the smaller CPUs. Only I have other important products to test at the moment, which don’t happen to have Intel written on them, sympathy or not. Here it is then simply also about balance, which many like to demand. And that is also what is especially important to me.

 

Lade neue Kommentare

DrWandel

Mitglied

29 Kommentare 25 Likes

Wow, das ist wirklich interessant. Im Endeffekt frage ich mich natürlich, was das denn nun für den Anwender und Gamer bedeutet. Es ist technisch hochinteressant zu sehen, welche Faktoren Performance, Leistungsaufnahme und Effizienz beeinflussen, und Kudos an Igor und Team für solche detaillierten und differenzierten Betrachtungen und Messungen, die ja auch speziell bei 720p solche Unterschiede aufzeigen.

Für Gamer, die in WQHD oder gar UHD spielen und oft/meistens im GPU-Limit sind, sollte das dann doch aber weniger eine Rolle spielen, oder? Es ist ja auch so, dass man sich aktuell ganz gut eine brauchbare CPU leisten kann (zumindest im Bereich eines Ryzen 5600X), aber eine vernünftige GPU eher weniger. Mittelfristig würde ich da gerne noch ein paar Tests sehen, die zeigen was die CPU-Wahl bei WQHD/UHD bewirkt, bei Spielen im GPU-Limit. Theoretisch sollte das ja kaum einen Unterschied machen, aber praktisch? Mit anderen Worten, welche CPU sollte ich mir leisten um die Grafikkarte, die ich schon habe oder mir noch leisten kann, vernünftig zu komplementieren?

Zu dem Thema wird es sicher hier und an anderen Stellen noch Untersuchungen geben.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

6,396 Kommentare 925 Likes

Schade ist nur das die AMD nicht auch mit einem leichten -Offset getestet werden.Etwas mehr Leistung bei etwas weniger Verbrauch wäre auch noch mal interessant.

Antwort 1 Like

k
krelog

Mitglied

66 Kommentare 13 Likes

schöner Ansatz aber ohne wirklichen nutzen weil das getestet Szenario zwar theoretisch existiert aber praktisch leider nicht, wäre vergleichbar wenn man einen F1 Wagen testet wie er sich beim Stadtverkehr macht. Kann man machen aber hilft keinem weiter.

Antwort Gefällt mir

Igor Wallossek

Format©

6,189 Kommentare 9,733 Likes

Im Launchartikel hatte ich bereits Test in WQHD und auch eine Einlassung zu UHD drin. Wo nichts ist, kann man auch nichts Unterschiedliches messen. Denn genau dann ist es fast schon Wumpe, was man im PC als CPU hat. Ich spiele selbst nur in UHD und merke zwischen dem 9900K und dem 12900KF objektiv überhaupt keinen Unterschied. Aber dazu schrieb ich ja schon was :)

Antwort 3 Likes

Igor Wallossek

Format©

6,189 Kommentare 9,733 Likes

Muss man machen, weil man mich wegen meiner Messwerte angegangen ist. Also alles eher eine Frage der Plausibilität und am Ende wohl auch der Ehre. Mit einem interessanten Nebeneffekt, der bis FHD gut messbar ist.

Antwort 3 Likes

Q
QuFu

Veteran

144 Kommentare 45 Likes

Der Vergleich hinkt. Eher der F1-Wagen auf dem Motorprüfstand. Nutzlos für die Leute, die nur das Rennen sehen wollen, aber analytisch betrachtet, unverzichtbar. Und Grafiktests im CPU-Limit gibts doch schon wie Sand am Meer. Das wäre im angesprochenen Vergleich nur was für Leute, die das Rennen gerne mehrmals schauen. ;)

Antwort 1 Like

Thy

Urgestein

1,271 Kommentare 269 Likes

Der Benchmark bei 720p ist natürlich rein akademisch, aber er verstärkt einige Stärken und Schwächen der einzelnen Konfigurationen, so dass daraus interessante Rückschlüsse gezogen werden können, wie Igor ja schön in seinem Artikel gezeigt hat. Für mich kristallisiert sich der i7-12700K mehr und mehr als die momentan ideale Gaming-CPU heraus, da sie von der Leistung, meiner Meinung nach, völlig ausreicht und andererseits das absolute Effizienzmonster zu sein scheint, welches selbst den 5600X noch schlägt.

Antwort Gefällt mir

m
m4ntic0r

Mitglied

11 Kommentare 5 Likes

Also die schlechte Leistung der 3090 oder auch allen anderen Nvidia Karten in niedrigen Auflösungen ist krass. Was haben die da im Treiber vermurkst.. du kannst ja keinem FULLHD Zocker der auf max. FPS aus ist eine Nvidia Karte empfehlen :D

Antwort Gefällt mir

M
Matthias80

Mitglied

37 Kommentare 8 Likes

Was hoffentlich mal einer Testet ;-) weil es ja offensichtlich ist, das Intel hier mit ihren echt Mega P-Cores in Spielen was reißen.
Quasi für die aktuellen Gegebenheiten eine Punktlandung.
Aber die E-Cores wohl gar nix bringen... wohl nur für synthetische Test entwickelt wurden...
Ob die E-Cores z.B. ein Streaming abdecken können??
Ob ein Spiel was die 8 P-Cores gut auslastet... durch zusätzliches Streaming, Leistung abzwacken müssen, oder ob das die E-Cores sinnvollerweise übernehmen.
Wie die Test mit deaktivierten E-Cores gezeigt haben... null komma nix in Spielen!
Also aus Spielersicht, hat man sich 2021 eine 8 Core CPU gekauft. ahhhhhhhh ok.
Klar single Core Leistung und im Paket die Effizienz mega.
Aber halt nur 8 Core!
So wenn ich mir künstlich Szenarien suchen muss, um überhaupt die Existenz außerhalb von Spielen zu belegen. mmmmmh
Die Theorieseite wurde jetzt unglaublich ausführlich beleuchtet. Wie wäre es mal mit Praxistest?
Soooo weit her geholt ist mein Streaming Bsp. ja nun ned.

mfg

Antwort Gefällt mir

Klicke zum Ausklappem
BlackFireHawk

Mitglied

24 Kommentare 19 Likes

@Igor Wallossek
Kannst du beim AMD system Mal mit cppc disabled im bios benchen? Würde sich Grade anbieten solange die Test Setups noch aufgebaut sind

Gerade mit cppc disabled hab ich beim 5950x bedeutend bessere min FPS in vielen spielen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Advertising

Advertising