Umfangreicher Workstation- und KI-Test mit Intels i9-13900K - Die Leistungs-Profile Baseline, Performance, Extreme und Insane

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.941
Bewertungspunkte
9.323
Punkte
1
Standort
Redaktion
Nachdem wir ja bereits am Montag Aris‘ Artikel über die Leistungsaufnahme des Core i9-13900K in Cinebench 23 veröffentlicht hatten, lege ich heute noch einmal mit einem größeren Programmumfang nach. Und ja, ich nutze bewusst ein Z690-Board, weil ich es auch zum Launch von Raptor Lake S und dem darauf folgenden Refresh genutzt habe. Da fällt der Vergleich deutlich einfacher aus. Und wie ich es bereits am Sonntag angeteasert hatte: Intels halbherzige Offenbarung mit den neuen Profilen für die Z790 Boards ist mir ebenfalls etwas sauer aufgestoßen. Auf meine explizite Frage an einen verantwortlichen Mitarbeiter für Motherboards eines großen Taiwanesischen Herstellers […] (read full article...)
 
Genau das, in den allerwenigsten Fällen, gerade beim Gaming macht am Ende die CPU das Limit, bessere Performance erreicht man viel eher durch gute Boards, RAMs und Grafikkarten und vor allem durch gute Kühlung.
Igor hat X Mal bewiesen, das eine gute Kühlung teilweise mehr Leistung begünstigt als jedes OC.
Geringere Temperatur bedeutet immer geringeren elektrischen Widerstand und damit mehr Leistung bei weniger Watt.
Diese Effekthascherei durch die energetische Brechstange hängt mir so zum Hals raus, jeder User glaubt er bräuchte die größtmögliche CPU weil irgendwelche Gaming Benchmarks das suggerieren , weil die aber teuer sind, wird dann an anderen, teilweiße viel wichtigeren Stellen gespart, Netzteile, Mainboards und vor allem der Kühlung , die das Case mit einschließt usw.
Wer ne 4080 hat und Gamen will, braucht keinen 14900 oder 7900, völlig drüber.
Aber es zeigt, das Marketing funktioniert, die Gegenseitige Ohrfeigenverteilerei rund um die " Gaming Krone" wird geschickt auf die CPUs umgelagert.
Auch klar, weil die Gaming Krone wenn's um die schiere Gaming Leistung geht nicht bei Intel oder AMD im CPU Bereich zu suchen ist, sondern bei Nvidia.
Klar muss eine CPU auch die GPU auslasten können und beides sollte harmonieren, das Limit in den meisten Fällen stellt aber immer noch die GPU im Gaming Bereich.
Je höher die Auflösung wird, umso unwichtiger wird die CPU, wenn die 4080 in 4k glüht bei 100% Last, dümpeln die meisten CPUs bei den meisten Games irgendwo bei maximal halber Last.
Das gilt für Gaming, natürlich gilt das nicht im Bereich Workstation und spezifischen CPU lastigen Anwendungen.
 
Zuletzt bearbeitet :
Wann sollen denn nun die neuen Biose ausgerollt werden?
Sind zum erheblichen Teil schon da, erstmal für die z790er , bei Asus und MSI auch bei den Meisten Z690ern, aber am Ende brauchst das BIOS gar nicht, wenn Du die CPU @Stock betreibst, mit XMP und die PL3 manuell bei 250 Watt festnagelst, dürftest das Problem gar nicht bekommen.
Ich habe tatsächlich keinen einzigen Aussetzer erlebt bei den 13k und 14k Modellen, weil ich sie alle @Stock fahre, eher UVe, maximal mildes AI Overclocking und Standard XMP Profil mit 6200er oder 6400er RAMs.
Probleme entstehen IMMER wenn ich mich in Grenzbereichen bewege, nicht nur in der IT, das sind Gradwanderungen wo eine geringe Abweichung schon zu Ärger führen kann.
Kein Mensch braucht tatsächlich die maximal Leistungsgrenze Wattseitig ausreiten, es sei denn er will partout auf irgendwelche Benchmarklisten nach oben.
Es gibt einfach physikalische Grenzen, in allen Bereichen und wenn man die ausreizt , sollte einem bewusst sein, dass es mit Pech auch in die Hose geht.
 
Zuletzt bearbeitet :
Sind zum erheblichen Teil schon da, erstmal für die z790er , bei Asus

Kann das bei Asus nicht sehen:

Könntest du bitte mal einen Link posten, wo schon ein neuen Bios mit den neuen CPU Profilen online ist?
 
Achso, ich meinte die neuen Biose, die bis zum 29.05 kommen sollen mit den 4 Default Profielen für die K/KS Cpus.

Dieses Baseline Bios wird ja auch von Intel nicht empfohlen.
 
Nee, noch weiter spezifizierte kommen wahrscheinlich erst, wie Du schon schriebst Ende Mai, seit Ende April gibt's aber schon die Baseline Bios' die sich stärker nach den Specs richten, Betrieb außerhalb der Specs eindämmen sollen.
Aber beim aktuellen Asus gibt es bereits vier Profile.

asus-baseline-profile-bios-1_680px.png

Mehr brauchst auch nicht, am Ende kannst das auch ohne Profile BIOS indem man einfach die PL1-PL3 Grenzen selbst setzt, gab's früher schon, da hieß das LLC, und hat die Spannungen zwischen Idle und Last kalibriert.
 
Zuletzt bearbeitet :
Wegen Intels Energiehunger musste ich ein überdimensioniertes Netzteil kaufen :D
Meine Grafikkarte (die 7900 mit den 5 X) frisst bis zu 420 Watt Board-Power, also bei Lastspitzen auch mal im Bereich der 500. Theoretisch. Ich dachte, mit einem sparsamen 7800X3D könnten 750 Watt Netzteil reichen. Aber da Intel ein Faktor ist, lautete überall die PSU Empfehlung mindestens 850 Watt. Und weil ich am Ende nicht schuld sein wollte, hab ich mir ein höher spezifiziertes Netzteil geholt.
..und betreibe nun die GPU über den Sommer mit dem 350-Watt (default) BIOS und die CPU kommt selbst mit den extremsten Settings beim Cinebench nicht über 114 Watt.

So oder so, ich hoffe, man besinnt sich wieder auf die Region um 120-130 Watt. Die sind gut zu kühlen und einfach vernünftig. Wir kriegen dabei heutzutage über 5 GHz hin. Noch vor 2-3 Jahren waren 5 GHz eher ein 1-Core-Turbo-Wert. Nun ist das All-Core-Terrain. Reicht uns das nicht? 😅

Workstations und Server sind natürlich eine ganz andere Ecke. Aber die haben ja auch bald 100+ Kerne. Da sind 300-500 Watt einfach leichter zu entschuldigen.
 
Den Vogel schießt allerdings meiner Meinung nach Initiator Sven "Ryzen" Banduin bei PCGH ab, welcher jetzt eine Umfrage am laufen hat wo jeder abstimmen kann und trotzdem zeigt das die allermeisten Nutzer (aktuell 86%) inklusive y-cruncher Tryhards DDR5 8000MHz+ usw. selbst keinerlei Stabilitätsprobleme je hatten:

 
Man hat den Eindruck man komenpensiert Effizienz immer mit Hz um die Krone zu behalten. Das gleiche bei den RTX 50.. Karten. Die nm bei der RTX 40er GPU erlauben hohe Effizienz bei gleichzeitiger Überlegenheit. Die Konkurrenz droht nachzuziehen oder gar zu überholen und schon opfert man wieder Effizienz mit Hz. Glücklich der, der in der Effizienzphase zuschlägt. Das Spielchen wird bis an die Machbarkeitsgrenze weitergehen. Das nennt man dann Fortschritt.

PS: "Hz" im Sinne von maximaler Auslastung gemessen in Frequenz und "nm" im Sinne von Transistorengröße als Maß für die Leistungsabgabe (Watt, Wärme).
 
Zuletzt bearbeitet :
Man hat den Eindruck man komenpensiert Effizienz immer mit Hz um die Krone zu behalten. Das gleiche bei den RTX 50.. Karten. Die nm bei der RTX 40er GPU erlauben hohe Effizienz bei gleichzeitiger Überlegenheit. Die Konkurrenz droht nachzuziehen oder gar zu überholen und schon opfert man wieder Effizienz mit Hz. Glücklich der, der in der Effizienzphase zuschlägt. Das Spielchen wird bis an die Machbarkeitsgrenze weitergehen. Das nennt man dann Fortschritt.

PS: "Hz" im Sinne von maximaler Auslastung gemessen in Frequenz und "nm" im Sinne von Transistorengröße als Maß für die Leistungsabgabe (Watt, Wärme).
Das ist leider immer so, außerdem muss man ja auch entsprechende Kosten der Basisentwicklung reinspielen, und wenn man auf der nahezu gleichen Basis kostenfrei aufgebrezelt eine "next Gen" durch etwas Drehen an der Leistung und ein paar E Cores mehr nochmal richtig Kasse machen kann, dann ist das doch fein.
Was Nvidia in Sachen Leistungssteigerung und Effizienz bei 50XX am Ende abliefert, wird sich zeigen.
Zumindest hat Nividia mit 40XX gezeigt, das es geht Leistung zu steigern und gleichzeitig Verbrauch zu reduzieren.
Und ob eine RTX50 mit 600 Watt kommen wird, wage ich stark zu bezweifeln, es sind die Thermal Designs der Kühler bekannt, die reichen von 250-600 Watt, und die wird man nicht zu klein dimensionieren.
Ich denke das auch die 5090 irgendwo unterhalb 500 rangieren wird, was aber noch gar nix über die Effizienz aussagt, weil vielleicht steigert die Leistung der 5090 sich im Vergleich zur 4090 um 30%?
Und wenn eine 5060ti auf knapp 180 Watt käme, wäre ein 250Watt Thermal Design keine Besonderheit, wenn sie aber gleichzeitig die Leistung der 4070 überschreitet, wäre das nochmal ein deutlicher Effizienzzuwachs.
Da bleibt abzuwarten wo sich die Karten am Ende in Verbrauch und Leistung einsortieren, und auch bei 50xx werden sich wahrscheinlich die Effizientesten Karten wieder im Bereich der 60er , 70er und 80er Modelle finden, sicher nicht beim Flaggschiff.
 
Den Vogel schießt allerdings meiner Meinung nach Initiator Sven "Ryzen" Banduin bei PCGH ab, welcher jetzt eine Umfrage am laufen hat wo jeder abstimmen kann und trotzdem zeigt das die allermeisten Nutzer (aktuell 86%) inklusive y-cruncher Tryhards DDR5 8000MHz+ usw. selbst keinerlei Stabilitätsprobleme je hatten:

Ist doch wie vor jeder Wahl in Deutschland, da werden Versprechen gemacht, spätestens wenn ein Politiker den Begriff Steuererleichterung in den Mund nimmt, weißte es steht irgendwo wieder eine Landtagswahl an oder das Aufwärmen für die Bundestagswahl beginnt.
Gleichzeitig erhöht man aber seine eigenen Chancen indem man die Konkurrenz mal schön in ein negatives Licht zieht.
Nirgendwo geht das besser als in der IT, ein paar findige Influencer die ein Thema schön aufbauschen, und zack haste ausgeteilt gegen die Konkurrenz.
Und bei beiden Playern stehen die nächten Generationen an, bei Intel doppelt schwierig weil Sockel und Modellwechsel, Bei AMD kommt die letzte AM5 Generation, also werden jetzt wieder superlative ausgepackt, Benchmarks bemüht und mit der Lupe nach den kleinesten Fehler beim jeweils anderen gesucht.
War immer so, aber die stetig schneller werdende Mediale Landschaft und zig Technik Influencern, wird das gerade alles noch heftiger als es früher schon war.
 
Das ist leider immer so, außerdem muss man ja auch entsprechende Kosten der Basisentwicklung reinspielen, und wenn man auf der nahezu gleichen Basis kostenfrei aufgebrezelt eine "next Gen" durch etwas Drehen an der Leistung und ein paar E Cores mehr nochmal richtig Kasse machen kann, dann ist das doch fein.
Was Nvidia in Sachen Leistungssteigerung und Effizienz bei 50XX am Ende abliefert, wird sich zeigen.
Zumindest hat Nividia mit 40XX gezeigt, das es geht Leistung zu steigern und gleichzeitig Verbrauch zu reduzieren.
Und ob eine RTX50 mit 600 Watt kommen wird, wage ich stark zu bezweifeln, es sind die Thermal Designs der Kühler bekannt, die reichen von 250-600 Watt, und die wird man nicht zu klein dimensionieren.
Ich denke das auch die 5090 irgendwo unterhalb 500 rangieren wird, was aber noch gar nix über die Effizienz aussagt, weil vielleicht steigert die Leistung der 5090 sich im Vergleich zur 4090 um 30%?
Und wenn eine 5060ti auf knapp 180 Watt käme, wäre ein 250Watt Thermal Design keine Besonderheit, wenn sie aber gleichzeitig die Leistung der 4070 überschreitet, wäre das nochmal ein deutlicher Effizienzzuwachs.
Da bleibt abzuwarten wo sich die Karten am Ende in Verbrauch und Leistung einsortieren, und auch bei 50xx werden sich wahrscheinlich die Effizientesten Karten wieder im Bereich der 60er , 70er und 80er Modelle finden, sicher nicht beim Flaggschiff.
Ich gehe davon aus, dass Intel den Status wie gerade Nvdia lange Zeit inne hatte und mit der Konkurrenz spielen konnte bis Ryzen Zen 1-4 auf den Plan trat. Die Stellschrauben sind jetzt aber schon merkbar am Anschlag. Ist wie beim Fußball. Nach der WM 90 hieß es, Deutschland wäre auf unabsehbare Zeit unschlagbar. Man ruhte sich auf dem Erfolg aus, holte dann mit den Altlasten noch die EM 96 nach Hause und blamierte sich 98 beim Totalausfall in Frankreich.
 
Ich gehe davon aus, dass Intel den Status wie gerade Nvdia lange Zeit inne hatte und mit der Konkurrenz spielen konnte bis Ryzen Zen 1-4 auf den Plan trat. Die Stellschrauben sind jetzt aber schon merkbar am Anschlag. Ist wie beim Fußball. Nach der WM 90 hieß es, Deutschland wäre auf unabsehbare Zeit unschlagbar. Man ruhte sich auf dem Erfolg aus, holte dann mit den Altlasten noch die EM 96 nach Hause und blamierte sich 98 beim Totalausfall in Frankreich.
Darfst nicht vergessen dass diese Phasen immer schon gewechselt haben, Anfang 2000er waren die 775er Core2Duos etc gut und ein riesen Step auf 478, konnten aber dann mit den damals AMD64 939er Athlons und Phenoms so eben konkurrieren.
Und dann hat AMD wieder alles verspielt, nicht das erste mal, Mitter der 90er das gleiche Spiel.
Bulldozer war quasi der wirtschaftliche Todesstoß für AMD, bis zu den 3000 Ryzen kamen sie an Intel nicht mehr vorbei, 8 Jahre nur hinterhergelaufen. Jetzt spielen sie seit 4-5 Jahren quasi ein Kopf an Kopf Rennen, wobei AMD die Effizienzgeschichte besser in den Griff bekommen hat.
Mit den 1851 und der 9000er Generation Ryzen wird sich jetzt wieder zeigen, wer den nächsten Schritt besser gewählt hat.
Hier liegt der Vorteil im Moment bei AMD, weil die quasi den Nächsten als letzte AM5 Generation vor dem Wechsel auf AM6 und DDR6 spielen können.
Intel muss auf 1851 mindestens zweimal abliefern um sich wieder an die Spitze setzen zu können, aber da ist halt die Frage ob das klappen kann, was der Desktop Core Ultra letztlich wirklich kann, oder was nicht .
Selbst wenn AMDs 9000er nicht der Riesenhit wird, können sie schneller auf eine Neue Basis mit DDR6 retten, was wahrscheinlich Q4/24 oder Q1-2/25 kommt.
Auch hier bleibt abzuwarten, ob Intel ab der zweiten 1851 wieder auf Doppelcontroller DDR5/6 setzt und ob dann AMD das Gleiche für AM6 in Betracht zieht.
Und eines darfst nicht vergessen, Intel hat nie das Hinterherlaufen Spiel spielen müssen, sie mussten sich die vorderen Plätze immer nur teilen, Leistungsmäßig waren sie nie so groß hinter AMD, dass es sie wirklich riesige Marktanteile gekostet hätte, umgekehrt aber schon, 2011 hätte für AMD das absolute Ende bedeuten können, wenn es dumm gelaufen wäre.
Und bei beiden ist es jetzt wieder ein Belauern wieviel von dem was man quasi hat, lässt man mit der nächsten Generation raus, immer gerade soviel, dass es eine Steigerung bietet und ggf vor der Konkurrenz rangiert, aber bloß nicht alles, damit man Reserven zum nachlegen hat.
 
Zuletzt bearbeitet :
Stromfresser Intel ... hat beim Zocken keinen Hunger :p

Stromfresser.png
 
Ich denke das auch die 5090 irgendwo unterhalb 500 rangieren wird, was aber noch gar nix über die Effizienz aussagt, weil vielleicht steigert die Leistung der 5090 sich im Vergleich zur 4090 um 30%?
Und wenn eine 5060ti auf knapp 180 Watt käme, wäre ein 250Watt Thermal Design keine Besonderheit, wenn sie aber gleichzeitig die Leistung der 4070 überschreitet, wäre das nochmal ein deutlicher Effizienzzuwachs.
Da bleibt abzuwarten wo sich die Karten am Ende in Verbrauch und Leistung einsortieren, und auch bei 50xx werden sich wahrscheinlich die Effizientesten Karten wieder im Bereich der 60er , 70er und 80er Modelle finden, sicher nicht beim Flaggschiff.

Ich hoffe mal, das nVidia und AMD diesen Kurs der Effizienz auch in Zukunft weiterverfolgen.

Wobei auch die 90er Karten äußerst effizient sein können, wenn man denn gewillt ist, auf den FPS-Wahnsinn zu verzichten, oder sich aber an der Voltage/Frequncy-Curve austobt. Ich denke dabei an Igors Experiment mit der RTX 3090 Ti mit der Kurve der professionellen RTX-Karte...

Ich selbst habe da lange an meiner RTX 3090 optimiert und bin schlussendlich bei drei Profilen im Afterburner angekommen:
  • 210 Watt bei 1620 MHz gedeckelt
  • 280 Watt bei 1860 MHz gedeckelt
  • offen bis 364 Watt bei 2070 MHz
In 40% der Fälle nutze ich dabei das mit 210 Watt für leichte Lasten. Für den Rest das mit 280 Watt... da fehlen mir lediglich 4 Boost-Pins auf die 1920 MHz zum Stock mit 350 Watt... das sind gerade einmal ca. 3-4% FPS-Verlust (eigentlich schon fast lächerlich bei 20% geringerer Leistungsaufnahme). Das alles gedeckelt bei 60-120 FPS und DLSS Quality je nach Anwendung am UHD-Oled... :giggle:
Das Unlimited nutze ich nur für den gelegentlichen Benchmark und zum Testen der WaKü...
 
Zuletzt bearbeitet :
Stromfresser Intel ... hat beim Zocken keinen Hunger :p

Anhang anzeigen 32873
Kann ich bestätigen, selten das ich beim Gaming mal über 80 -90 Watt komme, und das in 1080p, die Spitzen mit 123 Watt erreiche ich für wenige Sekunden beim Laden, Start des Games, RDR2 z.B. aber in Game steigt es quasi nie über 80-90, teilweiße fällt es unter 60Watt.
Das ist auch das was ich immer sage, Anwendungsbezogen, wenn mir einer erzählt er wurde im Game einen 14700k oder 14900k auch nur im Ansatz dreistellig bekommen, dann stimmt was nicht, selbst bei Games die sehr CPU lastig sind, kommst bei solchen CPUs selten über 40% Last,
 
Interessant, dass man KI auch leistungstechnisch messen kann. Was es nicht alles gibt. Ich kann mit KI trotzdem noch nicht viel anfangen. Wobei mir die von Igors KI erzeugten Bilder echt gut gefallen, auch wenn oft viel mehr Mäuse auf dem Tisch herumtanzen, als in ner echten Situation. Schon lustig :ROFLMAO:
 
Oben Unten