Grafikkarten Prozessor Testberichte VGA

Core i9-12900KF und Ryzen 9 5950X gegen GeForce RTX 3090 und Radeon RX 6900XT im Test – Großer Einfluss auf Leistungsaufnahme und Effzienz!

Was passiert eigentlich, wenn man statt der Radeon RX 6900XT die beiden jeweils schnellsten CPUs noch einmal mit der GeForce RTX 3090 antreten lässt? Wir haben erstaunliche Dinge festgestellt und deshalb auch noch mehrmals nachgemessen und auch über Kreuz getestet. Das Ergebnis ist reproduzierbar, aber deswegen noch lange nicht verständlicher geworden. Aber es erklärt zumindest, warum die Messung der Leistungsaufnahme in den Launchartikeln zu Alder Lake S so unterschiedlich ausgefallen ist, denn es kommen mindestens zwei Faktoren zusammen.

Zum einen waren es die unterschiedlichen Boards, die zu sehr unterschiedlichen Leistungsaufnahmewerte bei CPU-Auslastungen zwischen 25 und 80 Prozent geführt haben. Selbst ein MSI MAG Z690 Carbon WiFi erzeugte eine im Schnitt 5 Watt höhere Leistungsaufnahme über alle Spiele für den Core i9-12900KF im von Intel empfohlenen Setting mit dem PL1 auf 241 Watt, ein Asus ROG Maximus Z690 Hero kam da schon auf 8 bis 10 Watt mehr und das Aorus Z590 Master lag so ziemlich genau in der Mitte. Die Gaming-Performance aller Boards war aber hingegen sehr ähnlich und lag de facto sogar noch im Toleranzbereich. Allerdings wären selbst die maximalen 10 Watt immer noch weniger, als die stellenweise über 20 Watt Unterschied, die sich aus meinen Messungen im Vergleich zu mach anderem Review ergaben. Und nun?

Neben den unterschiedlichen Motherboards blieb eigentlich nur noch die Option, auch einmal die Grafikkarten zu variieren. Der eigentliche Anlass (und finale Anstoß) war übrigens ein Kreuztest mit mehreren Motherboards und die Verwendung einer GeForce RTX 3090 FE durch Xaver, die in Shadow of the Tomb Raider in 1080p sehr ähnliche FPS-Werte erzeugte wie die Radeon RX 6900XT und somit auch einen Vergleich zwischen der NVIDIA- und der AMD-Grafikkarte ermöglichte. Mit einem sehr erstaunlichen Ergebnis, das sich auch auf mehreren System problemlos reproduzieren ließ. Glücklicherweise standen hier die Systeme mit beiden CPUs noch unberührt im Office, so dass ein Nachtest unter wirklich identischen Bedingungen sehr einfach möglich war.

Da die Unterschiede in 720p (1280 x 720 Pixeln) am größten waren, sich dieser Trend aber auch abgemildert in 1080p (1920 x 1080 Pixel) in gleicher Weise fortsetzte, habe ich mich auf die kleinste Auflösung konzentriert und alles mit den zwei relevanten CPUs noch einmal nachgemessen und dabei natürlich die GeForce RTX 3090 FE verwendet. Ich werde auf den nächsten Seiten noch einmal die Performance in den einzelnen Spielen, sowie die Leistungsaufnahme und Effizienz gegenüberstellen, denn diese Metriken verdienen wirklich Aufmerksamkeit.

Der letzten Seite kann ich schon einmal kurz vorweggreifen, dass ich damit die Differenz bei den Leistungsaufnahmewerten in der Summe aller Einflüsse sicher auch plausibel erklären kann. Die möglichen Schlussfolgerungen und Ursachen habe ich aber auf allen Seiten mit eingebaut, so dass es sich wirklich lohnt, den Artikel auch bis zum Ende zu lesen. Erste Seite und letzte Seite funktioniert also nicht. Die Wahrheit liegt, wie immer eigentlich, auch und vor allem dazwischen. Die einzelnen Komponenten des Testsystems habe ich zur Erinnerung schnell noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:

Intel LGA 1700
Core i9-12900KF (PL1 125W, 241W), Core i7-12700K (PL1 241W), Core i5-12600K (PL1 150W)
MSI MEG Z690 Unify
2x 12 GB Corsair Dominator DDR5 5200 @ 5200 Gear 2

Intel LGA 1200
Core i9-11900K, Core i7-11700K, Core i5-11600K
MSI MEG Z590 Unify
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro @ 3733 Gear 1

AMD AM4
Ryzen 9 5950X, Ryzen 9 5900X, Ryzen 7 5800X, Ryzen 5 5600X
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro @ 3800 1:1

MSI Radeon RX 6900XT Gaming X OC
NVIDIA RTX 3090 FR

1x 2 TB MSI Spatium M480
1x 2 TB Corsair MP660 Pro XT
Be Quiet! Dark Power Pro 12 1200 Watt

Cooling:
Aqua Computer Cuplex Kryos Next, Custom LGA 1200/1700 Backplate (hand-made)
Custom Loop Water Cooling / Chiller
Alphacool Subzero
Case:
Raijintek Paean
Monitor: LG OLED55 G19LA
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)
NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 11 Pro (all updates/patches, current certified or press VGA drivers)

 

Kommentar

Lade neue Kommentare

DrWandel

Mitglied

79 Kommentare 61 Likes

Wow, das ist wirklich interessant. Im Endeffekt frage ich mich natürlich, was das denn nun für den Anwender und Gamer bedeutet. Es ist technisch hochinteressant zu sehen, welche Faktoren Performance, Leistungsaufnahme und Effizienz beeinflussen, und Kudos an Igor und Team für solche detaillierten und differenzierten Betrachtungen und Messungen, die ja auch speziell bei 720p solche Unterschiede aufzeigen.

Für Gamer, die in WQHD oder gar UHD spielen und oft/meistens im GPU-Limit sind, sollte das dann doch aber weniger eine Rolle spielen, oder? Es ist ja auch so, dass man sich aktuell ganz gut eine brauchbare CPU leisten kann (zumindest im Bereich eines Ryzen 5600X), aber eine vernünftige GPU eher weniger. Mittelfristig würde ich da gerne noch ein paar Tests sehen, die zeigen was die CPU-Wahl bei WQHD/UHD bewirkt, bei Spielen im GPU-Limit. Theoretisch sollte das ja kaum einen Unterschied machen, aber praktisch? Mit anderen Worten, welche CPU sollte ich mir leisten um die Grafikkarte, die ich schon habe oder mir noch leisten kann, vernünftig zu komplementieren?

Zu dem Thema wird es sicher hier und an anderen Stellen noch Untersuchungen geben.

Antwort Gefällt mir

Casi030

Urgestein

11,913 Kommentare 2,328 Likes

Schade ist nur das die AMD nicht auch mit einem leichten -Offset getestet werden.Etwas mehr Leistung bei etwas weniger Verbrauch wäre auch noch mal interessant.

Antwort 1 Like

k
krelog

Veteran

170 Kommentare 44 Likes

schöner Ansatz aber ohne wirklichen nutzen weil das getestet Szenario zwar theoretisch existiert aber praktisch leider nicht, wäre vergleichbar wenn man einen F1 Wagen testet wie er sich beim Stadtverkehr macht. Kann man machen aber hilft keinem weiter.

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,596 Likes

Im Launchartikel hatte ich bereits Test in WQHD und auch eine Einlassung zu UHD drin. Wo nichts ist, kann man auch nichts Unterschiedliches messen. Denn genau dann ist es fast schon Wumpe, was man im PC als CPU hat. Ich spiele selbst nur in UHD und merke zwischen dem 9900K und dem 12900KF objektiv überhaupt keinen Unterschied. Aber dazu schrieb ich ja schon was :)

Antwort 3 Likes

Igor Wallossek

1

10,107 Kommentare 18,596 Likes

Muss man machen, weil man mich wegen meiner Messwerte angegangen ist. Also alles eher eine Frage der Plausibilität und am Ende wohl auch der Ehre. Mit einem interessanten Nebeneffekt, der bis FHD gut messbar ist.

Antwort 3 Likes

Q
QuFu

Veteran

162 Kommentare 52 Likes

Der Vergleich hinkt. Eher der F1-Wagen auf dem Motorprüfstand. Nutzlos für die Leute, die nur das Rennen sehen wollen, aber analytisch betrachtet, unverzichtbar. Und Grafiktests im CPU-Limit gibts doch schon wie Sand am Meer. Das wäre im angesprochenen Vergleich nur was für Leute, die das Rennen gerne mehrmals schauen. ;)

Antwort 1 Like

Thy

Urgestein

1,843 Kommentare 744 Likes

Der Benchmark bei 720p ist natürlich rein akademisch, aber er verstärkt einige Stärken und Schwächen der einzelnen Konfigurationen, so dass daraus interessante Rückschlüsse gezogen werden können, wie Igor ja schön in seinem Artikel gezeigt hat. Für mich kristallisiert sich der i7-12700K mehr und mehr als die momentan ideale Gaming-CPU heraus, da sie von der Leistung, meiner Meinung nach, völlig ausreicht und andererseits das absolute Effizienzmonster zu sein scheint, welches selbst den 5600X noch schlägt.

Antwort Gefällt mir

m
m4ntic0r

Mitglied

12 Kommentare 5 Likes

Also die schlechte Leistung der 3090 oder auch allen anderen Nvidia Karten in niedrigen Auflösungen ist krass. Was haben die da im Treiber vermurkst.. du kannst ja keinem FULLHD Zocker der auf max. FPS aus ist eine Nvidia Karte empfehlen :D

Antwort Gefällt mir

M
Matthias80

Mitglied

40 Kommentare 9 Likes

Was hoffentlich mal einer Testet ;-) weil es ja offensichtlich ist, das Intel hier mit ihren echt Mega P-Cores in Spielen was reißen.
Quasi für die aktuellen Gegebenheiten eine Punktlandung.
Aber die E-Cores wohl gar nix bringen... wohl nur für synthetische Test entwickelt wurden...
Ob die E-Cores z.B. ein Streaming abdecken können??
Ob ein Spiel was die 8 P-Cores gut auslastet... durch zusätzliches Streaming, Leistung abzwacken müssen, oder ob das die E-Cores sinnvollerweise übernehmen.
Wie die Test mit deaktivierten E-Cores gezeigt haben... null komma nix in Spielen!
Also aus Spielersicht, hat man sich 2021 eine 8 Core CPU gekauft. ahhhhhhhh ok.
Klar single Core Leistung und im Paket die Effizienz mega.
Aber halt nur 8 Core!
So wenn ich mir künstlich Szenarien suchen muss, um überhaupt die Existenz außerhalb von Spielen zu belegen. mmmmmh
Die Theorieseite wurde jetzt unglaublich ausführlich beleuchtet. Wie wäre es mal mit Praxistest?
Soooo weit her geholt ist mein Streaming Bsp. ja nun ned.

mfg

Antwort Gefällt mir

BlackFireHawk

Veteran

101 Kommentare 106 Likes

@Igor Wallossek
Kannst du beim AMD system Mal mit cppc disabled im bios benchen? Würde sich Grade anbieten solange die Test Setups noch aufgebaut sind

Gerade mit cppc disabled hab ich beim 5950x bedeutend bessere min FPS in vielen spielen.

Antwort 1 Like

Zer0Strat

Veteran

162 Kommentare 138 Likes

@Igor Wallossek So ganz verstehe ich deinen Test nicht. Zum einen hast du Radeon Karten benutzt und dann die gleichen CPUs nochmal mit der Nvidia Karte?! Aber warum wird dann nicht beide Male der 5900X oder der 5950X genommen? Das ist ja ein gemischter Vergleich. Die vollständige Beschriftung der Labels wäre nice gewesen. So werden jetzt nur die Nv Karte + CPU X Kombis explizit aufgeführt.

Der wesentliche Punkt ist aber die Vergleichbarkeit. Muss man die FPS nicht cappen, um das überhaupt vergleichen zu können? Wenn eine CPU A schneller als CPU B ist, dann verbraucht die GPU ja auch mehr, weil diese weniger ausgebremst wird.

Antwort Gefällt mir

grimm

Urgestein

3,070 Kommentare 2,023 Likes

Du sagst es doch selbst: Wenn du die FPS begrenzt, begrenzt du ja mittelbar auch die CPU - außer du misst, wie schnell eine CPU die Daten bereitstellt. Das kannst du aber theoretisch den Frametime-Messungen entnehmen.

Antwort Gefällt mir

Casi030

Urgestein

11,913 Kommentare 2,328 Likes

Warum deaktivieren? Schon mal Höchstleistung Processors min/max 100%versucht? Das hilft bei vielen.

Antwort Gefällt mir

E
Ebatman

Mitglied

25 Kommentare 25 Likes

Mal ein Gedankenspiel:
Irgendwie könnte man vermuten dass die Sprunvorhersage von Intel in Verbindung mit der 3090 öfters daneben liegt.
Oder der Nvidia Treiber "falsche" calls ausgibt die die Sprungvohersage "korrumpieren".
Je nach Aufbau bei Intel würde sich das nur in winzigster FPS Reduktion bei aber merkbar höherem Stromverbrauch manifestieren.

Ist jetzt mal ein Schuß ins Blaue, ein paar abhängigkeiten voneinander deuten ein wenig in diese Richtung.

Allgemein scheint Nvidia nun das selbe Problem zu haben wie AMD in den älteren Serien mit der vollständigen Auslastung der Shadereinheiten (overhead).

Antwort Gefällt mir

BlackFireHawk

Veteran

101 Kommentare 106 Likes

Weil cppc zusammen mit dem Windows sheduler die Threads wie verrückt zwischen den Kernen hin und her schmeißt.
Cppc versucht soviel wie möglich auf so wenig wie möglich Kernen auszuführen damit diese höher boosten können und andere nicht genutzte Energiesparen können

Antwort 2 Likes

Igor Wallossek

1

10,107 Kommentare 18,596 Likes

Ich denke mal, Du hast nicht aufmerksam hingeschaut. Ich habe die beiden schnellsten CPUs nun mit der RTX 3090 noch einmal gemessen und zusätzlich noch mit reingepackt und deshalb auch separat gekennzeichnet, die Werte mit der Radeon stehen ja schon drin und zudem bei jedem Chart steht auch noch RX 6900XT auch im Titel. Missverständlich ist was anderes. Zumal ich auch noch farbige Balken nutze, wo es möglich ist. Aber ich habe weder Zeit noch Ressourcen, alles noch einmal komplett neu zu beschriften.

Und was die Leistungsaufnahme betrifft:
Schau Dir die Benchmarks mal genauer an, da müsste Intel ja auch sparsamer werden. Genau das ist aber nicht der Fall. Im Gegenteil, die Effizienz sinkt sogar mit der NV-Karte, trotz niedrigerer FPS. Steht doch alles im Artikel :)

BTW: Ich habe auch mit AVX On/Off getestet, mach kaum einen Unterschied. Und wenn man die FPS generell capt, liegt man wieder bei der Grafikkarte und nicht bei der CPU. Dann kann ich ja gleich in UHD testen :D

Antwort 2 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Ein E-Core leistet so viel wie ein Skylake-Core bei einem Viertel der Größe eines P-Cores. Selbst wenn ein P-Core 3x so schnell wie ein E-Core ist, ist er auf die Fläche normiert weniger effizient.

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,596 Likes

Dann kann ich auch den Game-Mode aktivieren und ihn zum 8-Kerner machen, oder SMT deaktivieren oder... Da gibts endlos viele Optionen, die aber in diesen Artikel nicht reingehören. Ich warte erst mal, bis Windows 11 noch etwas gepatcht wurde.

Antwort Gefällt mir

M
Matthias80

Mitglied

40 Kommentare 9 Likes

ah jupp. schön copy paste...
alles bekannt!
nur sieht man da ja in Spielen gar nix von.
Thema E-Cores diabled und null Leistungsverlust.
weil kaum ein Spiel aktuell von mehr als 8 Cores profitiert.
Darum meine Frage. Für einen echten Praxistest! Was passiert wenn ich z.B. mein Spiel streame.
Wird mein Spiel unter umständen langsamer weil die P-Cores das Streaming zusätzlich Stämmen müssen.
Oder werden da die E-Cores genutzt? Sind sie nicht nur dafür da, um bei synthetischen Benchmarks mithalten zu können...
Bei AMD stellt sich die Frage ned. Wenn ich z.B. einen 12 oder 16 Kerner habe. Weil alles die gleich Leistungsfähigen Kerne am Start sind.
Geht mir nicht darum Intel schlecht zu machen!
Es wird ja immer von aktuell gesprochen. Aktuell sicherlich die beste Spiele CPU!
Aber wenn man mehr macht als nur Spielen. Nebenbei noch mehr macht... Was bei den Kindern heutzutage normal ist.
Ist in meinen Augen gar kein Spielen... aber nebenbei yt, discord ect. ect. ist normal.
So einen Praxistest vermisse ich halt. Schöne Theorie. Wäre ja nicht das erstmal das Theorie Tests perfekt gekünstelt werden...
In der Praxis sieht die Leistung dann aber anders aus!
Will jetzt nicht wieder einen Autovergleich bringen...

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung