CPU Latest news System

Intel Alder Lake S – Power consumption myths and no end

I had already discussed the behavior of the new Intel CPUs on different motherboards a few days ago, but the whole thing didn’t leave me alone in the end. The measured differences, especially on the OC boards, were big enough not to book them as measurement tolerance and also reproducible, but then not big enough to explain the partly very different efficiency differences to the majority of the other reviewers. While only very few reviewers used a Radeon RX 6900XT for the launch review and the majority preferred to use a GeForce RTX 3090, there were a lot of variations. But I do not want to anticipate the whole thing and first of all describe the development of knowledge.

I had sent one of my motherboards to Xaver, who in turn was to confirm with his Intel Core i9-12900K if and how the power consumption changes on different boards under otherwise identical conditions. There were measurable differences and I had asked him to send me his data sets with logged graphics performance and power consumption. The reason was simple, because he had in this game and setting with his GeForce RTX 3090 FE almost to the FPS exactly the same performance result, but a significantly higher power consumption than I with the Radeon RX 6900XT and also a visibly larger CPU load.

Well, now of course you can blame this on the driver overhead that the NVIDIA driver likes to produce at very low resolutions. And that’s exactly why I sat down and did all the gaming benchmarks again in 720p and 1080p with the Core i9-12900KF and GeForce RTX 3090 FE. Laziness won out, as all the test systems were still untouched right where I left off last week. However, some of the results with my RTX 3090 FE were so divergent in terms of CPU power consumption that I redid some runs over and over again. And yet, each time there was the same (different) result.

That was part one of my week, because you will have noticed that I made myself a bit scarce visually. But if you do something, you should do it systematically and properly. And so the final consequence was also to test the Ryzen 9 5950X again in the same setup with the GeForce RTX 3090 FE. And my jaw dropped on the very first test run. What I could (and had to) measure now clearly contradicts the thesis that the CPUs from Intel and AMD also handle the driver bottle necks identically when it comes to power consumption and load.

I can spoiler that my “crossload” ended up being exactly the (in my view distorted) picture that accuses Intel CPUs of being significantly more inefficient. And I can already announce one more insight: AMD CPUs seem to prefer drinking together with the own AMD GPUs without foreign guests. And so the “crossload” takes on a whole new meaning. Exactly which ones will be revealed in the article that has me tied to the chair here right now. So please be patient, I do need to document it in a resilient way and will run as many iterations as due diligence dictates. But our colleagues in the community have some nice content for you.

But one thing is already a fact: NVIDIA’s drivers are a funny bag of tricks in some respects. So stay tuned, this will surely be a real surprise for some 🙂

Kommentar

Lade neue Kommentare

>>kirro<<

Mitglied

16 Kommentare 7 Likes

Dann bin ich mal gespannt. Wenn das so signifikant große Unterschiede macht, liegt es doch sehr nah, dass man sein System zwecks Effizienz genauestens ausloten muss. Da helfen einem solche Beiträge natürlich weiter, aber im Endeffekt benötigt es auch Fingerspitzengefühl, das den meisten wahrscheinlich aus Desinteresse verwehrt bleibt. Nach dem Motto: Hauptsache es lüppt. Sparen tu' ich woanders!!!

Zitat Igor: "AMD-CPUs saufen mit den hauseigenen CPU zusammen scheinbar doch am liebsten ohne fremde Gäste."

Heute beginnt der Karneval (11.11.): Da wird am liebsten mit fremden Gästen gesoffen!! :D

Edit: [klugscheisser] Du meintest hauseigenen GPU's, woll?! [/klugscheisser]

Antwort Gefällt mir

RedF

Urgestein

4,657 Kommentare 2,550 Likes

Na das jetzt nen fieser Cliffhanger :giggle:.

Das es egal ist welche Farben man mischt ist jetzt wohl vorbei.

Da bin ich echt gespannt.

Antwort Gefällt mir

TGH1978

Mitglied

55 Kommentare 25 Likes

Kann mich da nur anschließen, bin auch schon echt gespannt, wie die Unterschiede bei den verschiedenen Kombinationen sind...

@Igor: Danke für Deine Bemühungen und dem Dranbleiben an dieser Thematik!

Antwort 1 Like

Case39

Urgestein

2,499 Kommentare 928 Likes

Es bleibt spannend...gibts nur bei Igor💁‍♂️

Antwort Gefällt mir

Igor Wallossek

1

10,180 Kommentare 18,764 Likes

Mein französischer Kollege hat heute leider Feiertag, aber ich musste eh noch die Interpretersoftware anpassen, damit der schneller arbeiten kann. Meine Daten werden ja nicht nur von mir genutzt. Alte Seilschaften und so... :D

Solche Dinge bedenkt Intel DE ja auch nicht, wenn es ums Sampling geht. Mit dem, was hier gemessen wird, verzehnfacht sich die Reichweite sogar ;)

Antwort 2 Likes

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

War da nicht was mit Nvidia Treiber Overhead?
Irgendeine Funktion wurde doch über den Treiber erledigt bei NV was zu höherer CPU last führt bzw. Belastung von Threads die sonst nicht genutzt würden, während AMD in deren Karten einen Hardware Scheduler hat.
Hab da erst vor zwei Wochen etwas gelesen gehabt aber nicht weiter verfolgt.

Antwort 1 Like

Igor Wallossek

1

10,180 Kommentare 18,764 Likes

Ja und nein, das war ja das Perfide :D

Hätte mal einer beide Karten kreuzgetestet, wäre ihm wohl ein Licht aufgegangen :D

Antwort Gefällt mir

P
Phoenixxl

Veteran

158 Kommentare 120 Likes

Ich bin gespannt welche Kombination am Ende am effizientesten ist.
Wäre ja kurios, wenn Intel CPU + AMD GPU deutlich besser läuft als 2 Mal AMD, aber AMD Nvidia besser als Intel und Nvidia.

Mir ist gestern aufgefallen, dass das AMD Overlay der Radeon Software etwas andere Werte für CPU Temp und CPU Leistungsaufnahme als CoreTemp ausgibt.
Gibt's Erfahrung, welchen Zahlen man eher grauen sollte?

(Bei CoreTemp ist beides höher)

Antwort Gefällt mir

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

Ich bin jetzt auch gespannt. Da diese Graka Generation mich überhaupt nicht angemacht hat obwohl ich mal aufrüsten sollte.
Samsung 8nm ist ein Debakel genauso wie dieser infinity cache. Und die UVP's sind seit der letzten Generation schon fürn Popo.
Und mit ihren Treibern rühmen sich beide Hersteller auch nicht unbedingt.
Als Zocker mit nur zwei Herstellern zur Auswahl hockt man zwischen den Stühlen...

Antwort 1 Like

Igor Wallossek

1

10,180 Kommentare 18,764 Likes

Ich habe jetzt so viele Widersprüche gefunden, die allerdings reproduzierbar sind, dass es einem schwindlig wird. NVIDIA ist bereits angefragt. Ich wüsste nämlich z.B. gern, ob Teile des Treibers AVX/AVX2 nutzen. Das würde Vieles erklären, wenn AMD zB. einen SSE Fallback nutzt. Und im BIOS am AVX frickeln verschiebt auch was. ich höre lieber auf, sonst wird das nie fertig :D

Antwort 6 Likes

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

Also wenn ich einen AVX Offset im Bios bei Festspannung einstelle, triggert der NV Treiber (Display Container) ständig das Offset.
Deshalb habe ich den auch immer auf Deaktiviert unter Dienste. Wer weis was das Programm noch so im Hintergrund macht.
Ich möchte immer eine ruhige Frametime haben und niedrige Taktrate der Gpu.

Antwort 3 Likes

e
eastcoast_pete

Urgestein

1,463 Kommentare 820 Likes

Danke, daß ist wirklich spannend. Wäre natürlich sehr ironisch, wenn ausgerechnet AMD Treiber und GPUs die Alder Lakes so viel besser stellen als NVIDIA. Wenn sich das mit NVIDIA Treiber benutzen gerne und oft AVX/AVX2 bewahrheitet, würde dies den Stromverbrauch natürlich in die Höhe treiben. Wobei ich mich auch frage, wozu die AVX brauchen?
Vielleicht ist ja nur daß NVIDIA sicherstellen will, daß ihre GPU nicht der einzige Säufer in der Kiste ist. GPU und CPU- Zusammen heizen wir den Raum! Der NVIDIA Treiber sorgt dafür 😁

Antwort 1 Like

>>kirro<<

Mitglied

16 Kommentare 7 Likes

Ich weiß, warum ich der grünen Lederjacke nunmehr seit RX 5700 XT den Rücken gekehrt habe!! ;)

Die Bestätigung findet sich nun in der Praxis. Wie so häufig.

Antwort 1 Like

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

@>>kirro<< Bei mir ist es Leider so das 90% meiner alten Spiele oder Nischenspiele mit AMD Grakas nicht funktionieren.
Oder ich massive Grafikfehler habe. Und das liegt auch am Treiber. Da kann mich auch die neue "fancy" bling bling Oberfläche nicht zurückbringen.
Momentan bin ich auch auf dem Stand das ich von beiden Herstellern nicht gerade angetan bin. Besonders von der neuen Gen.
Ich warte darauf das einer der beiden Hersteller einen Pascal abzieht. Nen Pascal habe ich im Rechner und ich warte drauf wieder so etwas zu bekommen.

Antwort Gefällt mir

RedF

Urgestein

4,657 Kommentare 2,550 Likes

Was läuft den nicht an alten Spielen? Hatte noch keine probleme, aber vieleicht habe ich auch einfach die falschen Games ausprobiert.

Antwort 1 Like

>>kirro<<

Mitglied

16 Kommentare 7 Likes

Eines dieser Games ist das immer noch sehr schön anzusehene Lost Planet 2. Auf Nvidia läuft, auf AMD nicht. Auch im Kompatibilitätsmodus nicht. Zurzeit zocke ich wieder das geliebte Elder Scrolls V Skyrim in der Anniversary Edition, quasi ein Remaster. Das rennt auf meinem System mit i7 10700K + RX 6700 XT auf Ultra und 4K wie Hulle. Bin echt wieder vernarrt, wenn ich es mit dem Stottern vor 10 Jahren vergleiche, wo es sich mit einer GTX 470 begnügen musste.

Antwort 1 Like

My-konos

Veteran

270 Kommentare 91 Likes

Man, das ist echt spannend. Ich rieche schon den Pulitzer Preis. ;)

Was ich mich da eher frage bzw was schon in der Vergangenheit aufgetreten ist, ob die Treiber einfach mittlerweile so viele Altlasten evtl zwecks Kompatibilität enthalten, dass der overhead so massiv wird....

Antwort Gefällt mir

Alkbert

Urgestein

930 Kommentare 705 Likes

Die lustige Wundertüte gefällt mir.

Antwort Gefällt mir

s
samhayne

Veteran

101 Kommentare 59 Likes

Kann der Grafiktreiber erklären, wieso Computerbase auch in Anwendungen 40% weniger Leistungsaufnahme beim Ryzen 5950x als beim 12900K misst?
Da müsste ja echt abstrusestes vor sich gehen.

ich bleib auch gespannt. :)

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung