GPUs Graphics Practice Reviews System

Before the review of the Ryzen 7 5800X3D, an interesting cross-over test: When the Ryzen likes the Geforce and Intel’s Core prefers the Radeon

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Power consumption over the benchmark course

First, we will start with the results of the CPUs, although these can also sometimes differ significantly depending on the combination of CPU and different graphics card. Logical, because a faster card will also demand more from the CPU, as long as it doesn’t run into its own limit. However, what we see at first glance is the absurd drinking behavior of the Core i9-12900KS. I ran this CPU with the same Intel defaults as for the i9-12900K, except this thing is really drinking itself into the ground. Same voltage specifications, despite binned CPU. This really goes through the roof and shows once again how superfluous this anachronism of CPU actually is. It’s time for something much more efficient. Tomorrow for example,, 😀

The combination of CPU and GPU can be seen more clearly in the next bar chart, where I set the GPU power consumption against the total power of GPU and CPU on the 12V rails (without motherboard and peripherals, only EPS and PCIe). We see the ominous alliance of Core i9-12900KS and the GeForce RTX 3090 Ti at over 400 watts, but I can spoil, it does go over 600 with this combo in other games. That, in turn, is just sick.

The Core i7-12700K still wins in terms of efficiency, and it also delivers the power consumption rates in the partial load range and gaming that I rated so positively in the launch article. But I can already spoil that the overall picture will change completely tomorrow. Now that’s called a suspense arc and all…. 😉

Summary and conclusion

Even though this is only a small excerpt and still without the much longed for CPU, tomorrow you will all be smarter. But you can also see that the time is really ripe for a fast, but still efficient gaming CPU. And I can spoil it now: there were situations where the X3D was still faster with about 30% of the power consumption of a KS. I’ll leave that as a spoiler and order of the day for tomorrow and get back to analyzing all the data and exporting the graphics. This has become more than I thought (and wanted). But I think it will be worth it.

The performance crown is nonsense anyway, because you would have to test all current games to satisfy the statistics, which is not possible. But if you have approximately fast candidates with very different consumption rates, the overall package can very well be evaluated objectively and a winner can be put on the pedestal. Whether it will be LGA1700 or AM4 again will be known tomorrow. Until then, stay curious!

Kommentar

Lade neue Kommentare

ipat66

Urgestein

1,343 Kommentare 1,335 Likes

Bei 30% Energieaufnahme trotzdem schneller als der KS ?
Wow !!!
Schön,wenn so was auch bei den GPU's möglich wäre....

Freue mich auf den morgigen Test.
Danke Igor

Antwort 1 Like

Casi030

Urgestein

11,913 Kommentare 2,329 Likes

Hab ich das richtig gelesen das du den Benchmark im Spiel genommen hast?

Antwort Gefällt mir

Perdakles

Mitglied

42 Kommentare 20 Likes

Danke Igor für diesen wunderbaren Spoiler. Die "unheilvolle Allianz" bereitet mir Gänsehaut :LOL:. Das läuft definitiv in die falsche Richtung.

Antwort 1 Like

Perdakles

Mitglied

42 Kommentare 20 Likes

Nach allem was man aus der Gerüchteküche so hört, könnte es bei RDNA3 vs. Ada zugunsten von RDNA3 ebenfalls in diese Richtung gehen. Ich kann mir aber nicht vorstellen, dass es so krasse Ausmaße wie hier annimmt.

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Ja, den auch. Es ist eigentlich gut ausgewogen gewesen. Und dann kam der X3D :D

Antwort 2 Likes

ApolloX

Urgestein

1,627 Kommentare 907 Likes

Gut gemacht ja, aber ich werde das Gefühl nicht los, das es in diesem Artikel und vermutlich auch in der Diskussion nur um den Kandidaten geht, der nicht mit dabei war.

Antwort Gefällt mir

Ghoster52

Urgestein

1,365 Kommentare 1,029 Likes

Nein, das passt schon so.... die 3090 war doch nicht die schlechteste Wahl. :LOL:

Antwort Gefällt mir

Corro Dedd

Urgestein

1,802 Kommentare 654 Likes

Unheilvolle Allianz... und jetzt stelle man sich die CPU noch mit der kommenden GPU Generation vor, die allein bis zu 450w und in Spitzen auch noch mehr schlucken kann :eek:

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

600 Watt + Spitzen :D

Antwort 2 Likes

Ghoster52

Urgestein

1,365 Kommentare 1,029 Likes

Hab ich jetzt schon (5900x+3090 sind noch nicht optimiert)... :eek:

Antwort Gefällt mir

Perdakles

Mitglied

42 Kommentare 20 Likes

Dann sollte man in Zukunft wohl den Staubsauger auslassen während der Rechner läuft. Oder den aktuellen Spielstand noch schnell abspeichern sobald man den Staubsauger angehen hört :D

Antwort Gefällt mir

Ghoster52

Urgestein

1,365 Kommentare 1,029 Likes

Bei 16A Absicherung pro Stromkreis ist noch Luft nach oben.... :LOL:

Antwort 2 Likes

Case39

Urgestein

2,484 Kommentare 920 Likes

Also war Alder Lake, doch nicht der Fortschritt, den man sich von Intel erhofft hat.

Antwort 1 Like

Casi030

Urgestein

11,913 Kommentare 2,329 Likes

Dann kann ich ja auch mal vergleichen. ;)

Antwort Gefällt mir

Ben87

Veteran

149 Kommentare 34 Likes

Wie verhält sich das bei höheren Auflösungen WQHD/UHD? Ich weis es ist nicht der Rede wert sein aber führst du das dann auch mal auf?

Antwort Gefällt mir

RX480

Urgestein

1,803 Kommentare 820 Likes

Der 12700k ist doch dort wo man ne normale GamingCPU erwarten durfte.
sehe da bei Watt per Frame keine Probleme

Interessant, das Intel so gut zu RDNA2 passt!
... und das wird im GPU-Limit sicher noch besser

btw.
Falls ich Heute aufrüsten müsste würde ja auch ein 12600 nonK reichen (oder 5600 nonX).
Beim 12600 solls wohl auf preiswerten B660 nur bis ca. DDR4 3500 zu OCen gehen!
(liegt an freigegebenen Spannungen)

Antwort 1 Like

big-maec

Urgestein

795 Kommentare 462 Likes

Schön, dass man über solche Vergleiche sein Wissen erweitern kann. Bin gespannt, wie es weitergeht.

Antwort 1 Like

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Nur dass Ihr mal seht, warum das alles so lange dauert, wie es dauert. Export-Import-Abteilung und WordFress :D

View image at the forums

Antwort 11 Likes

Göran

Veteran

152 Kommentare 60 Likes

Wenn man die CPUs auf wenigen Kernen am Limit betreibt werden die Brechstangen in Form von Kernspannungen und Taktraten ausgepackt :LOL:.
Kann man so was eigentlich als Heimanwender noch vertretbar kühlen ?
Warum können eigentlich Intel CPUs (immer noch) höhere Taktraten erreichen als AMD CPUs ? Am Fertigungsprozess sollte es doch nicht (mehr) liegen.

Klar 720p wird genommen um die Grafikkarten als limitierenden Faktor auszuschließen, aber damit ist das Ergebnis auch eher akademisch.
Wir wäre es mit einem wirklichkeitsnaheren Test bei 1080p144 ? Auch dort sollte doch die CPU immer noch stark gefordert werden.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung