News Prozessor System

Intel Alder Lake S – Leistungsaufnahme-Mythen und (k)ein Ende

Ich hatte ja bereits vor einigen Tagen das Verhalten der neuen Intel-CPUs auf verschiedenen Motherboards thematisiert, aber das Ganze hat mir am Ende dann doch keine Ruhe gelassen Die gemessenen Unterschiede, vor allem auf den OC-Boards waren groß genug, um sie nicht als Messtoleranz zu verbuchen und zudem auch reproduzierbar, aber dann doch nicht groß genug, um die zum Teil doch sehr unterschiedlichen Effizienzunterschiede zur Mehrzahl der anderen Reviewer zu erklären. Während nur sehr wenige Reviewer eine Radeon RX 6900XT für das Launch-Review nutzten und die überwiegende Menge doch lieber auf eine GeForce RTX 3090 gesetzt hatte, ergaben sich sehr viele Variationsmöglichkeiten. Doch ich will dem Ganzen nicht vorgreifen und zunächst einmal den Werdegang der Erkenntnis schildern.

Ich hatte eines meiner Motherboards zu Xaver geschickt, der wiederum mit seinem Intel Core i9-12900K bestätigen sollte, ob und wie sich die Leistungsaufnahme auf verschiedenen Boards unter ansonsten gleichen Rahmenbedingungen ändert. Es gab messbare Unterschiede und ich hatte ihn gebeten, mir seine Datensätze mit geloggter Grafikperformance und der Leistungsaufnahme zu schicken. Der Grund war simpel, denn er hatte in diesem Spiel und Setting mit seiner GeForce RTX 3090 FE fast auf den FPS genau das gleiche Performance-Ergebnis, jedoch eine signifikant höhere Leistungsaufnahme als ich mit der Radeon RX 6900XT und auch eine sichtbar größere CPU-Auslastung.

Gut, jetzt kann man dies natürlich auch am Treiber-Overhead festmachen, den der NVIDIA-Treiber bei sehr kleinen Auflösungen so gern produziert. Und genau deshalb habe ich mich hingesetzt und alle Gaming-Benchmarks in 720p und 1080p mit dem Core i9-12900KF und der GeForce RTX 3090 noch einmal gemacht. Faulheit siegt, denn alle Testsysteme standen noch unberührt genau dort, wo ich letzte Woche aufgehört hatte. Die Ergebnisse mit meiner RTX 3090 FE waren jedoch zum Teil im Bezug auf die CPU-Leistungsaufnahme dermaßen abweichend, dass ich manche Durchläufe immer und immer wieder neu gemacht habe. Und doch gab es jedes mal das gleiche (andere) Ergebnis.

Das wiederum war Teil Eins meiner Woche, denn Ihr werdet sicher auch gemerkt haben, dass ich mich optisch etwas rar gemacht habe. Doch wenn man etwas tut, sollte man es mit System und richtig tun. Und so hieß die Endkonsequenz auch, den Ryzen 9 5950X ebenfalls noch einmal im gleichen Setup mit der GeForce RTX 3090 FE zu testen. Und schon beim ersten Testdurchlauf ist mir die Kinnlade heruntergeklappt. Das, was ich nunmehr messen konnte (und musste) wiederspricht eindeutig der These, dass die CPUs von Intel und AMD mit den Treiber-Flaschenhälsen auch identisch umgehen, wenn es um die Leistungsaufnahme und Last geht.

Ich kann ja schon mal spoilern, dass mein „Crossload“ am Ende genau zu dem (aus meiner Sicht verzerrten) Bild geführt hat, das den Intel-CPUs einen deutlich ineffizienteren Betrieb vorwirft. Und noch eine Erkenntnis kann ich ja schon mal anteasern: AMD-CPUs saufen mit den hauseigenen GPUs zusammen scheinbar doch am liebsten ohne fremde Gäste. Und so bekommt das mit dem „Crossload“ gleich noch eine ganz andere Bedeutung. Welche genau, das wird der Artikel zeigen, der mich hier gerade am Stuhl fesselt. Also bitte noch etwas Geduld, ich muss es ja auch belastbar dokumentieren und werde so viele Iterationen laufen lassen, wie es die Sorgfaltspflicht vorgibt. Aber die Kollegen der Community haben ja auch netten Content für Euch.

Aber eines ist schon mal Fakt: NVIDIAS Treiber sind in mancherlei Hinsicht eine lustige Wundertüte. Also dranbleiben, das wird sicher für manch einen eine echte Überraschung 🙂

Kommentar

Lade neue Kommentare

>>kirro<<

Mitglied

16 Kommentare 7 Likes

Dann bin ich mal gespannt. Wenn das so signifikant große Unterschiede macht, liegt es doch sehr nah, dass man sein System zwecks Effizienz genauestens ausloten muss. Da helfen einem solche Beiträge natürlich weiter, aber im Endeffekt benötigt es auch Fingerspitzengefühl, das den meisten wahrscheinlich aus Desinteresse verwehrt bleibt. Nach dem Motto: Hauptsache es lüppt. Sparen tu' ich woanders!!!

Zitat Igor: "AMD-CPUs saufen mit den hauseigenen CPU zusammen scheinbar doch am liebsten ohne fremde Gäste."

Heute beginnt der Karneval (11.11.): Da wird am liebsten mit fremden Gästen gesoffen!! :D

Edit: [klugscheisser] Du meintest hauseigenen GPU's, woll?! [/klugscheisser]

Antwort Gefällt mir

RedF

Urgestein

4,623 Kommentare 2,534 Likes

Na das jetzt nen fieser Cliffhanger :giggle:.

Das es egal ist welche Farben man mischt ist jetzt wohl vorbei.

Da bin ich echt gespannt.

Antwort Gefällt mir

TGH1978

Mitglied

55 Kommentare 25 Likes

Kann mich da nur anschließen, bin auch schon echt gespannt, wie die Unterschiede bei den verschiedenen Kombinationen sind...

@Igor: Danke für Deine Bemühungen und dem Dranbleiben an dieser Thematik!

Antwort 1 Like

Case39

Urgestein

2,492 Kommentare 925 Likes

Es bleibt spannend...gibts nur bei Igor💁‍♂️

Antwort Gefällt mir

Igor Wallossek

1

10,148 Kommentare 18,700 Likes

Mein französischer Kollege hat heute leider Feiertag, aber ich musste eh noch die Interpretersoftware anpassen, damit der schneller arbeiten kann. Meine Daten werden ja nicht nur von mir genutzt. Alte Seilschaften und so... :D

Solche Dinge bedenkt Intel DE ja auch nicht, wenn es ums Sampling geht. Mit dem, was hier gemessen wird, verzehnfacht sich die Reichweite sogar ;)

Antwort 2 Likes

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

War da nicht was mit Nvidia Treiber Overhead?
Irgendeine Funktion wurde doch über den Treiber erledigt bei NV was zu höherer CPU last führt bzw. Belastung von Threads die sonst nicht genutzt würden, während AMD in deren Karten einen Hardware Scheduler hat.
Hab da erst vor zwei Wochen etwas gelesen gehabt aber nicht weiter verfolgt.

Antwort 1 Like

Igor Wallossek

1

10,148 Kommentare 18,700 Likes

Ja und nein, das war ja das Perfide :D

Hätte mal einer beide Karten kreuzgetestet, wäre ihm wohl ein Licht aufgegangen :D

Antwort Gefällt mir

P
Phoenixxl

Veteran

157 Kommentare 118 Likes

Ich bin gespannt welche Kombination am Ende am effizientesten ist.
Wäre ja kurios, wenn Intel CPU + AMD GPU deutlich besser läuft als 2 Mal AMD, aber AMD Nvidia besser als Intel und Nvidia.

Mir ist gestern aufgefallen, dass das AMD Overlay der Radeon Software etwas andere Werte für CPU Temp und CPU Leistungsaufnahme als CoreTemp ausgibt.
Gibt's Erfahrung, welchen Zahlen man eher grauen sollte?

(Bei CoreTemp ist beides höher)

Antwort Gefällt mir

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

Ich bin jetzt auch gespannt. Da diese Graka Generation mich überhaupt nicht angemacht hat obwohl ich mal aufrüsten sollte.
Samsung 8nm ist ein Debakel genauso wie dieser infinity cache. Und die UVP's sind seit der letzten Generation schon fürn Popo.
Und mit ihren Treibern rühmen sich beide Hersteller auch nicht unbedingt.
Als Zocker mit nur zwei Herstellern zur Auswahl hockt man zwischen den Stühlen...

Antwort 1 Like

Igor Wallossek

1

10,148 Kommentare 18,700 Likes

Ich habe jetzt so viele Widersprüche gefunden, die allerdings reproduzierbar sind, dass es einem schwindlig wird. NVIDIA ist bereits angefragt. Ich wüsste nämlich z.B. gern, ob Teile des Treibers AVX/AVX2 nutzen. Das würde Vieles erklären, wenn AMD zB. einen SSE Fallback nutzt. Und im BIOS am AVX frickeln verschiebt auch was. ich höre lieber auf, sonst wird das nie fertig :D

Antwort 6 Likes

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

Also wenn ich einen AVX Offset im Bios bei Festspannung einstelle, triggert der NV Treiber (Display Container) ständig das Offset.
Deshalb habe ich den auch immer auf Deaktiviert unter Dienste. Wer weis was das Programm noch so im Hintergrund macht.
Ich möchte immer eine ruhige Frametime haben und niedrige Taktrate der Gpu.

Antwort 3 Likes

e
eastcoast_pete

Urgestein

1,436 Kommentare 798 Likes

Danke, daß ist wirklich spannend. Wäre natürlich sehr ironisch, wenn ausgerechnet AMD Treiber und GPUs die Alder Lakes so viel besser stellen als NVIDIA. Wenn sich das mit NVIDIA Treiber benutzen gerne und oft AVX/AVX2 bewahrheitet, würde dies den Stromverbrauch natürlich in die Höhe treiben. Wobei ich mich auch frage, wozu die AVX brauchen?
Vielleicht ist ja nur daß NVIDIA sicherstellen will, daß ihre GPU nicht der einzige Säufer in der Kiste ist. GPU und CPU- Zusammen heizen wir den Raum! Der NVIDIA Treiber sorgt dafür 😁

Antwort 1 Like

>>kirro<<

Mitglied

16 Kommentare 7 Likes

Ich weiß, warum ich der grünen Lederjacke nunmehr seit RX 5700 XT den Rücken gekehrt habe!! ;)

Die Bestätigung findet sich nun in der Praxis. Wie so häufig.

Antwort 1 Like

S
SyntaxError

Mitglied

54 Kommentare 22 Likes

@>>kirro<< Bei mir ist es Leider so das 90% meiner alten Spiele oder Nischenspiele mit AMD Grakas nicht funktionieren.
Oder ich massive Grafikfehler habe. Und das liegt auch am Treiber. Da kann mich auch die neue "fancy" bling bling Oberfläche nicht zurückbringen.
Momentan bin ich auch auf dem Stand das ich von beiden Herstellern nicht gerade angetan bin. Besonders von der neuen Gen.
Ich warte darauf das einer der beiden Hersteller einen Pascal abzieht. Nen Pascal habe ich im Rechner und ich warte drauf wieder so etwas zu bekommen.

Antwort Gefällt mir

RedF

Urgestein

4,623 Kommentare 2,534 Likes

Was läuft den nicht an alten Spielen? Hatte noch keine probleme, aber vieleicht habe ich auch einfach die falschen Games ausprobiert.

Antwort 1 Like

>>kirro<<

Mitglied

16 Kommentare 7 Likes

Eines dieser Games ist das immer noch sehr schön anzusehene Lost Planet 2. Auf Nvidia läuft, auf AMD nicht. Auch im Kompatibilitätsmodus nicht. Zurzeit zocke ich wieder das geliebte Elder Scrolls V Skyrim in der Anniversary Edition, quasi ein Remaster. Das rennt auf meinem System mit i7 10700K + RX 6700 XT auf Ultra und 4K wie Hulle. Bin echt wieder vernarrt, wenn ich es mit dem Stottern vor 10 Jahren vergleiche, wo es sich mit einer GTX 470 begnügen musste.

Antwort 1 Like

My-konos

Veteran

270 Kommentare 91 Likes

Man, das ist echt spannend. Ich rieche schon den Pulitzer Preis. ;)

Was ich mich da eher frage bzw was schon in der Vergangenheit aufgetreten ist, ob die Treiber einfach mittlerweile so viele Altlasten evtl zwecks Kompatibilität enthalten, dass der overhead so massiv wird....

Antwort Gefällt mir

Alkbert

Urgestein

929 Kommentare 704 Likes

Die lustige Wundertüte gefällt mir.

Antwort Gefällt mir

s
samhayne

Veteran

101 Kommentare 59 Likes

Kann der Grafiktreiber erklären, wieso Computerbase auch in Anwendungen 40% weniger Leistungsaufnahme beim Ryzen 5950x als beim 12900K misst?
Da müsste ja echt abstrusestes vor sich gehen.

ich bleib auch gespannt. :)

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung