News Intels präsentiert 10nm-Ice-Lake-Prozessoren auf der Computex - Core i9 9900KS angekündigt!

Paul Stanik

Veteran
Mitglied seit
Nov 29, 2018
Beiträge
227
Bewertungspunkte
33
Punkte
27
i9-9900-ks-logo.jpg


Paul Stanik submitted a new blog post

Continue reading the Original Blog Post.
 
@gerTHW84 Ich schrieb im ersten Post ja, dass eine entsprechende Kühlung vorrausgesetzt ist. Mir sind ein paar Einträge in Foren bekannt, in denen sich Leute darüber beschweren, dass selbst unter Singlecore Last keine 5GHz anliegen, auf die Frage zur Kühlung wurde dann allerdings nicht oder nur unzureichend geantwortet.

Wenn man eine alte Architektur in neue Leistungsregionen pushen will, muss man eben Energie reinpumpen. Verwunderlich ist daran eigentlich nur, dass sich manche Leute darüber wundern :sneaky:
 
Das Konzept-Konzept is nich so dein Ding, hmh?
 
Hm, das Konzept mit Uhrwerk wäre was.

Was den 9900KS angeht: Ich gehe davon aus, dass die Leistung durchaus beachtlich sein wird. Das meine ich im doppelten Sinne: Rechenleistung und Heizleistung;)
 
@Derfnam Bei Intel wirkt das so....komisch?
 
Wieso? Einerseits wird gemeckert, wenn Intel versucht, das Beste aus der bestehenden Technik rauszuholen (und das hier ist der Thread über den 9900KS, unter anderem jedenfalls), andererseits wird sich drüber lustig gemacht, wenn die Konzepte für die Zukunft vorstellen. Okay, 2035 is lang hin und ich vermag mir nicht vorzustellen, dass Hardware dann immer noch so aussieht wie jetzt, also GPUs in Ziegelsteinform, um es mal so zu bezeichnen, aber die Wahrscheinlichkeit, dass ein Branchenriese seine Konzepte umgesetzt bekommt, ist sicher hoch.
 
Wahrscheinlich kaufen wir 2035 nur noch Grakas und bei denen ist dann nur noch so‘n komischer I/O-Chip hinten rechts dran, der das macht, was die Graka nicht hinbekommt. ;)
 
Und die Intelfanboys werden wieder zuschlagen und ihren 9900K gegen den 9900KS ersetzen und sich dafür feiern. :D

Und Energieeffizienz ist immer nur dann wichtig wenn es darum geht ein Argument gegen AMD Grafikkarten oder CPUs zu finden. Ansonsten ist es nämlich völlig unwichtig wie viel eine CPU oder GPU säuft. ;)
 
Ob die 5 GHz auf allen Kernen vom Kalksandstein auch gehalten werden, wenn es sich um einen AVX2-Workload handelt? Und wie viel Strom zieht sich das Teil dann?

Selbstredend nein. Mit AVX werden die Funktionseinheiten maximal ausgenutzt, sodass alle Intel-CPUs den Takt hierbei reduzieren, da die Verlustleistung steigt. Mit AVX-512 steigt die Verlustleistung noch einmal an, sodass der Takt ggü. AVX(2)-Code noch einmal reduziert wird. Unterm Strich kommt mit entsprechendem Code trotz der Taktreduktion dennoch mehr Leistung hinten raus, sodass sich das lohnt. Teuere Mainboards bietet i. d. R. in den BIOS-Einstellungen separate Optionen für den Basistakt und den AVX-Takt (bspw. ein ASUS-Board für den Xeon W-3175X bietet separate Optionen für die AVX- und AVX-512-Frequenz).

Das Defizit hatte AMD ja auch bei Zen/+ erkannt und nun durch eine volle 256-Bit-breite Auslegung der SIMD-Einheit korrigiert. Zen/+ musste bei AVX-Code wahrscheinlich keine Taktanpassung vornehmen, da er eh mit nur halbem Durchsatz aufgrund der nur 128-Bit-breiten SIMD-Einheit daherkam.
Interessant wird sein, ob und wie weit vielleicht Ryzen 3xxx bzw. Epyc 2 den Takt für AVX-Code drosselt. Hier könnte ich mit aufgrund des derzeit moderneren Fertigungsverfahrens vorstellen, dass AMD hier zumindest etwas weniger drosseln muss. (Schlussendlich muss man sich dabei aber auch genau die Implementation und Auslegung der Funktionseinheiten ansehen, bevor man hier einen unsinnigen Vergleich anstellt.)
 
Aber Intel hat 5 GHz auf allen Kernen bei allen Workloads versprochen:geek:

Danke für dein Posting.
 
Und Energieeffizienz ist immer nur dann wichtig wenn es darum geht ein Argument gegen AMD Grafikkarten oder CPUs zu finden. Ansonsten ist es nämlich völlig unwichtig wie viel eine CPU oder GPU säuft. ;)

Die Energieeffizienz wird auch bei Prozessoren kritisiert. Aber bei Prozessoren sind die Unterschiede erheblich geringer, vor allem weil CPUs meistens nicht länger unter Volllast und schon gar nicht mit AVX2/FMA3/AVX512 laufen. Deshalb gibt es auch fast keine Kritik beim Ryzen 2700X, der schon sehr weit oben beim Realverbrauch liegt.
Der maximal realistische Alltagsverbrauch eines CPUs liegt mE bei dem Cinebench Allcore Verbrauch. Da reden wir aber von recht geringen Unterschieden.

Quelle
i7 8700K 139w
i9 9900K 184w
R7 2700X 196w

Der Unterschied hier liegt zwischen 8700K und 2700X nur bei 55w (zu gunsten des Intel wohlgemerkt), das ist nicht dramatisch. Der Unterschied bei Games, Apps oder Browsing wird irgendwo im Bereich von 5-30 Watt liegen, solange man nicht nonstop encodiert o.ä. Das ist eine kurze Erwähnung wert, sollte aber nicht großartig die Kaufentscheidung beeinflussen. Bei Games aber spielt man fast immer unter Volllast der GPU und ob da eine Karte jetzt 180 Watt (GTX 1080) oder 303 Watt (Vega 64) [Quelle] säuft - bei gleicher Leistung wohlgemerkt - ist schon eine andere Hausnummer. Der Verbrauch wird auch nicht durch die Bank kritisiert, sondern vor allem bei den ausufernden Modellen (R9 290X/390X, Fury, Vega56/64, Radeon VII und RX590), vor allem wenn man keine passende Leistung dafür bekommt. Die Polaris Karten zwischen RX460 und RX580 verbrauchen zwar auch alle mehr als das Nvidia Gegenstück, aber da ist der Unterschied nicht gar so brutal und absolut gesehen auch noch in vertretbaren (und auch im Sommer kühlbaren) Bereichen.

Dieser 9900KS ist aber das absolut maximale, was man mit Selektion und Brechstange erreichen kann. Ob es sinnvoll ist? Ich denke eher nicht. Vor allem sollte man mal aufhören, bei der TDP so zu bescheißen und das Teil einfach mit 250w angeben. Das ist wenigstens ehrlich. Mit Ryzen Gen3 ist der Zug für Intel abgefahren, schon heute ist Ryzen eigentlich allgegenwärtig und Intel nur zwischen 300-500€ überhaupt existent. Es gab gestern im Mindstar einen Ryzen 2600 für 115€, das ist einfach nur krass.
 
Zuletzt bearbeitet von einem Moderator :
Und wo ich gerade schon bei Hater- und Fanboy-Gebashe bin (egal aus welchem Lager) noch ein Wort zur Effizienz. Es mag durchaus einige Menschen geben, denen die Effizienz und Umweltbilanz tatsächlich ein wichtiges Anliegen ist (wobei es durchaus andere Dinge und auch Verhaltensweisen geben mag, deren Gewicht in der Gesamtbilanz deutlich schwerer wiegen). In Bezug auf Intel vs. AMD wird der Punkt Effizenz interessanterweise erst seit dem Herannahen der 7 nm-Fertigung (und dem damit absehbaren, zeitlichen Vorsprung von AMD) regelmäßig und gebetsmühlenartig angewendet. Zu den Hochzeiten von SLI und Crossfire hat man mal vereinzelt derartige Argumentationen beobachtet, aber i. d. R. war, wenn überhaupt explizit, eher etwas wie "Geldverschwendung" oder mangelnder Gegenwert aufgrund "unnötiger hoher FPS" ein typisches "Gegenargument", wobei man dann oftmals aber dennoch unterschwellig eher neidvolle Anerkennung mitlesen konnte, dass sich jemand ein solches Monster-System leisten konnte.
Heute machen entsprechende Personen ein riesen Fass auf, weil unter Last ein 9900K zur Erreichung der Performancekrone im Mittel etwa 160 W zieht, während der ebenfalls mit 8 Kernen arbeitende 2700X sich im Mittel mit 115 W begnügt.
Das stimmt so jetzt aber auch nicht. Die Effizienz-Debatte gibt's doch schon seit zig Jahren. Beim AthlonXP & Athlon64 gegen P4, später dann bei Phenom und FX gegen Core und jetzt wieder. Das wechselt auch immer wieder. Gegen die AMDs wurde jahrelang gebasht, jetzt geht's halt wieder die andere Richtung und in x Jahren ist dann wieder wer anders dran... Wegen ein paar Watt hin oder her ist glaube ich auch nicht wirklich relevant, vielmehr ist es das Gesamtpaket. Und da spricht aktuell halt viel für AMD (Langlebigkeit der Sockel, günstiger Preis, gute Leistung dank vieler Kerne), heißt aber nicht, dass es nicht auch Argumente für Intel gibt (z.B. ST Performance und sehr hohe Taktraten bei OC).
Die Energieeffizienz wird auch bei Prozessoren kritisiert. Aber bei Prozessoren sind die Unterschiede erheblich geringer, vor allem weil CPUs meistens nicht länger unter Volllast und schon gar nicht mit AVX2/FMA3/AVX512 laufen. Deshalb gibt es auch fast keine Kritik beim Ryzen 2700X, der schon sehr weit oben beim Realverbrauch liegt.
Der maximal realistische Alltagsverbrauch eines CPUs liegt mE bei dem Cinebench Allcore Verbrauch. Da reden wir aber von recht geringen Unterschieden.

Quelle
i7 8700K 139w
i9 9900K 184w
R7 2700X 196w

Der Unterschied hier liegt zwischen 8700K und 2700X nur bei 55w (zu gunsten des Intel wohlgemerkt), das ist nicht dramatisch. Der Unterschied bei Games, Apps oder Browsing wird irgendwo im Bereich von 5-30 Watt liegen, solange man nicht nonstop encodiert o.ä. Das ist eine kurze Erwähnung wert, sollte aber nicht großartig die Kaufentscheidung beeinflussen. Bei Games aber spielt man fast immer unter Volllast der GPU und ob da eine Karte jetzt 180 Watt (GTX 1080) oder 303 Watt (Vega 64) [Quelle] säuft - bei gleicher Leistung wohlgemerkt - ist schon eine andere Hausnummer. Der Verbrauch wird auch nicht durch die Bank kritisiert, sondern vor allem bei den ausufernden Modellen (R9 290X/390X, Fury, Vega56/64, Radeon VII und RX590), vor allem wenn man keine passende Leistung dafür bekommt. Die Polaris Karten zwischen RX460 und RX580 verbrauchen zwar auch alle mehr als das Nvidia Gegenstück, aber da ist der Unterschied nicht gar so brutal und absolut gesehen auch noch in vertretbaren (und auch im Sommer kühlbaren) Bereichen.
Das sagt Computerbase, leider können die offensichtlich nicht messen. Schau dir doch mal den 2700X Test auf THG an. Maximal 105W Verbrauch, 55W weniger als der 8700K. Beim Gaming (Witcher3) braucht der AMD 56W, der Intel 67W. Bei Anandtech sieht's genauso aus, der 8700K braucht da auch mehr. Ich kann dir auch soagen, woher das kommt. CB nutzt ein 470X Board von Asus mit uralt BIOS. Die hatten beim Launch aber massiv zu viel Spannung an die CPU geliefert, wodurch die zu viel verbraucht und gleichzeitig schneller in's TDP oder Temperatur-Limit kommt. Wurde beim Launch auch im Forum diskutiert, allerdings von CB ignoriert. Igor hatte hier auch das Thema mal erörtert. Asus war übrigens nicht alleine damit, Gigabyte hat den selben Mist gemacht. Wenn du das nicht glaubst: MoBo-Vergleich auf Bit-Tech, da sieht man das schön...
Du hast allerdings recht, bei den GPUs ist der Unterschied viel größer. Allerdings bist du da leider zu pauschal, die Fury Nano war z.B. sehr effizient. Und das Thema "kühlbar" ist auch relativ. Sapphire und Powercolor hat Vegas im Angebot, die kühler und leiser als fast alle Pascal Karten sind. Man braucht halt nur einen guten Kühler, dann ist das auch leise und mit guten Temperaturen kühlbar. Ändert aber natürlich nix daran, dass AMD die Karten zum Einen mit zu viel Spannung in's Rennen schickt (UV Potential ist meist recht groß) und zum Anderen GCN zu sehr auf Compute fokussiert ist (und damit im Gaming ineffizient arbeitet).
 
Leider ist CB als Quelle, suboptimal?‍♂️ THG DE/US, Anandtech, Guru3D, TechpowerUp oder TechSpot sind da brauchbarer.
 
Wegen ein paar Watt hin oder her ist glaube ich auch nicht wirklich relevant, vielmehr ist es das Gesamtpaket. Und da spricht aktuell halt viel für AMD.

Da gebe ich dir vollkommen recht und aktuell finde ich Zen2/Ryzen 3000 auch weitaus interessanter und das bereits ohne finale Benchmarks mit vielleicht ein paar Prozentpunkten mehr oder weniger. Und gerade wenn ich viel Leistung haben will, aber nicht zwingend auf das letzte Quentchen angewiesen bin, würde ich auch eher auf einen Zen2 16-Kerner warten, als auf einen 14 nm Cascade Lake-X, der sich dann im Winter gut als Fußheizung eignet (wobei man sich aber auch nicht der Illusion hingeben darf, dass AMDs 16-Kerner sooo viel weniger Abwärme verursachen wird, auch wenn ihn AMD vielleicht mit offiziellen 125 W TDP angeben wird). Im professionellen Umfeld (time is money) mag die Entscheidung dagegen durchaus anders aussehen und zugunsten von Intel durchaus legitim sein.

Der Posting-Teil zielte auch eher auf unsinnige Postings in diversen Foren ab, in denen vielfach mit fadenscheinigen Argumenten versucht wird, die eigene Meinung zu untermauern, die schlussendlich aber eher die eigene Gefühlslage als tatsächliche, technische und wirtschaftliche Gegebenheiten wiederspiegelt. Und am nervigsten wird es dann immer, wenn der Untergang, Bankrott o. Ä. von Intel heraufbeschworen wird, was lediglich zeigt, das die betreffenden Personen über keinerlei wirtschaftliche Sachkenntnis verfügen.
(Zumal hinzu kommt, dass man Intels Roadmap auch nicht versteht. Aus der Client-Sparte hat man sich für die 10 nm-Fertigung zumindest das Mobil-Segment hinzugenommen und Ice Lake U mit Sunny Cove-Kernen ist durchaus konkurrenzfähig, zumal Picasso gerade erst Anfang des Jahres gelauncht wurde und es dieses Jahr keine Zen2-APUs geben wird. Und bereits um 3Q20 wird Tiger Lake U mit erneut verbesserten Kernen, neuer Xe-iGPU und einem verbesserten 10 nm-Verfahren folgen, sodass auch die Zen2-APUs mit Navi keinen leichten Stand haben werden.)

@Stunrise: Die hier zitierten Watt-Angaben sind tatsächlich schief. Die in der Grafik (Cinebech MultiThread) ausgewiesen 196 W für einen 2700X spiegeln kein Standardverhalten wieder, sondern hier hat wohl jemand die Boardsettings bzgl. Powertargets maximal erweitert um die CPU auszureizen (oder sogar schlicht falsch gemessen?). Gleichzeitig scheinen sie das aber beim 9900K nicht gemacht zu haben, dessen PL2-Kennlinie für dauerhafte 4,7 GHz-All-Core-Takt bei 210 W liegt.
Bessere Vergleiche dürftes du hier finden: AnandTech und TomsHW.
 
Kleiner Hinweis bezüglich des "professionellen Bereichs":
Zumindest im CAD-Bereich dürfte man den 9900K und KS wohl extrem selten antrefen. Da wird normalerweise zuallererst Wert darauf gelegt, dass ales richtig berechnet wird. Das heißt auch: Das Zeug wird innerhalb der Spezifikationen betrieben. Kein OC in irgendeiner Form. Bei den zertifizierten Workstations gehe ich sogar davon aus, dass die Mainboards die vorgesehenen Powerstates einhalten.
 
Auch eine GPU läuft ist nie dauerhaft in Spielen auf Anschlag, außer ich lege es absichtlich darauf an. Klar ist die GPU mehr gefordert und verbraucht daher über einen längeren Zeitraum (während man spielt) mehr Strom. Trotzdem ist es einfach falsch. Das sieht man auch immer wieder in den Berechnungen von Usern was zusätzliche Kosten angeht.
Aber wie sollen sie es auch wissen, wenn es Seiten wie CB gibt, die partout immer falsche Werte angeben.
 
Wer seine Daten/Ergebnisse liebt —> ECC, kein OC... keine Consumerplattform. :)
 
Kleiner Hinweis bezüglich des "professionellen Bereichs":
Zumindest im CAD-Bereich ...

CAD ist unter diesen Gesichtspunkten auch eher ein schlechter Vergleich, da es i. d. R. weit weniger CPU-lastig ist. Hier kommen bspw. eher Rendering-Tasks in Frage und in diesen wird mal wohl selten einen 9900xy sehen, sondern wenn dann eher einen Casdcade Lake-X, wenn es nicht gar eine (EntryLevel-)Workstation wie ein W-2175 oder W-3175X sein muss. Und wenn es gar ECC sein muss, was am ehestem deinem Anspruch "richtig berechnet wird" entspricht (denn auch ein 9900KS, wenn er innerhalb seiner Spezifikation betrieben wird, rechnet grundsätzlich richtig), kommt man um letztere auch nicht herum, denn zumindest Skylake-X hatte noch keine ECC-Freigabe seitens Intel. (Für Cascade Lake-X liegen zudem noch keine Details vor, aber es besteht auch kein Grund, von einer geänderten Politik auszugehen. Zumindest hat der ECC-Support des Threadripper bisher wohl noch nicht genügend Druck aufgebaut, um ECC in Intels X-Plattform zu bringen, was aber derzeit grundsätzlich schwierig sein dürfte, da hier vielfach zertifizierte Systeme, Treiber, etc. zur Anwendung kommen, sodass hier oftmals grundsätzlich kein Weg an Intel vorbei führt. - So zumindest die Sachlage bisher und man wird abwarten müssen, in wie weit Zen2/3 daran in den kommenden 24 Monaten was ändern wird).
 
Oben Unten