News Lediglich ein besserer Intel Core i9-9900K: Core i9-10900K CPU bietet bis zu 30% bessere Multi-Threading-Leistung

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
Die Kollegen von Tom‘s Hardware haben vorzeitig offizielle Leistungsdaten zum kommenden Flagship-Prozessor von Intel, dem Core i9-10900K, veröffentlicht. Die Speerspitze der 10. Gen „Comet Lake“-Produktlinie soll in den kommenden Monaten offiziell auf den Markt kommen und die gleiche 14nm-Architektur aufweisen, wie zuvor „Skylake“.

Intel-Core-i9-10900K-10-Core-CPU-Performance-Benchmarks1.jpg




Erst letzte Woche gab es dank ungeplanter Veröffentlichungen in einigen asiatischen Medien weitreichende Informationen zu der 10. Core-Generation mit den Namen „Comet Lake“ aufgetaucht, darunter detaillierte Spezifikationen zu der Anzahl der Kerne sowie Leistungsaufnahme. Insgesamt sind 11 SKUs sind für die Markteinführung geplant. Die Core i9-10900K CPU wird dabei das Flagship von Intels sechster 14nm-Familie sein.

Zum Beitrag: https://www.igorslab.de/lediglich-e...t-bis-zu-30-bessere-multi-threading-leistung/
 
Etwas anderes war eigentlich nicht zu erwarten. Wird wahrscheinlich dennoch bei Games am flottesten sein, wodurch es sich wieder verkaufen wird. Es wird immer Leute geben, die die letzten FPS haben wollen.
 
Alles eine Frage des Preises.
Ich hab nix dagegen, einen 14++++ Intel zu erwerben, wenn die Leistung und der Preis stimmen. So einfach ist das.

(jajajaja, Intel ist nun nicht dafür bekannt, die Konkurrenz beim Preis unterbieten zu wollen. Aber man kann ja immer noch hoffen....)
 
Schlussendlich besteht aktuell auch kein ausreichender Marktdruck, auf breiter Front weder leistungstechnisch noch preistechnisch.
Leistungstechnisch sind die hochtaktenden 8-Kern-CPUs auf Desktop-PCs jetzt schon deutlich schneller als es die neuen Konsolen Ende 2020 überhaupt sein werden, die bestenfalls um die 3,5 GHz kurzfristig im Boost-Takt erreichen werden. Und das breite Feld der Office-PCs hat gar noch geringere Leistungsanforderungen. (Und beispielsweise bei Mindfactory kauften zuletzt bei AMD 60 % der Käufer CPUs mit sechs oder weniger Kernen.)
Preistechnisch scheint der Druck für signifikante Preisnachlässe bei Intel immer noch nicht hoch genug zu sein, denn ansonsten hätte der Marktführer schon reagiert. (Die HEDT/Cascade Lake-X-Nachlässe betreffen nur ein kleinvolumiges Nischenprodukt und könnten z. T. auch eine Marketing-Komponente beinhalten.)

Dennoch wird es interessant zu sehen sein, wo Intel den 10-Kerner in 2Q20 platzieren wird. Ich würde annehmen, dass er bestenfalls den i9-9900KS ersetzen aber nicht nennenswert darüber positioniert werden kann.
Wünschenswerter wäre natürlich, wenn er den i9-9900K ersetzt oder diesen gar geringfügig unterbietet, jedoch ist das eher auf einen Blick durch die Konsumentenbrille zurückzuführen. ;)

Btw, in diesem Kontext ein recht interessanter Artikel zu Intels-OC-Lab.
 
Die erste Frage bei Intel ist für mich "wie sieht es aus mit der Sicherheit ( Bugs behoben ) ? " und nicht der Leistungszuwachs.
Das war's auch schon, weil preislich und Leistungstechnisch AMD so gut aufgestellt ist ,dass auch INTEL's geschönte Folien nichts an der Tatsache ändern werden !
"Leider verwendet Intel intern immer noch Benchmarks, die sie selbst – ganz offiziell – als nicht ‘Real-World’-orientiert erachten"
= ist die Krönung :ROFLMAO:
 
+25% sind den 2 extra Cores geschuldet. Ein weiteres 14nm+++++ Monster mit ~225W bei Last.
Nein Danke Intel.
 
Ich frage mich da eher, wie warm das Ding wird. Weil 2 zusätzliche Kerne auf der selben Fläche bedeutet sicher nicht, das die CPUs kühler werden als die 8 Kerner und diese sind ja schon im Grunde an der Kotzgrenze.

Bin gespannt wie die sich schlagen werden. Aber viel erwarte ich da eher nicht.
 
@xnor: wieso 225 W?

Allgemeine Frage: Boost takt 5,1 GHz; Single Core 5,2 GHz Alle Kerne 4,9 GHz..... was ist jetzt der erste Wert (also Boost)?
 
Weil Intel bei den TDP-Angaben die Kunden bescheißt*, weil sich diese nur auf den Basistakt beziehen. So kann man locker 100W dazuzählen, um bei 10 Kernen auf einen halbwegs realistischen Wert zu kommen.

*) Nennen wir es Intel-TDP.
Siehe zB i9-10900 (ohne K) mit angeblichen 65W TDP. Das geht nur weil der Basistakt (künstlich) auf 2.8 GHz gesenkt wurde.
i9-10900K hätte bei selbem Basistakt mit Intel-TDP ebenso 65W, aber weil der Basistakt hier 3.7 GHz ist hat die CPU auch einen Intel-TDP von 125W.


Boost-Takt ist eine zeitlich begrenzte Anhebung des Taktes.

Das einzig positive wäre, dass es Intel hoffentlich nach zweieinhalb Jahren endlich geschafft hat die Sicherheitsdefekte in ihren Chips mal richtig (also ohne weitere Lücken bzw. Möglichkeiten die "Fixes" zu umgehen) zu beheben.
Und HT überall wäre auch positiv .... aber nur wenn der Preis stimmt.
 
Yoah, reg dich ab oder lern dazu, das ist bei AMD nicht anders, nur sind die Wattwerte geringer.
 
Solange es keinen Standard gibt, der bestimmt wie die Werte zu messen sind kann jeder fast alles hinschreiben.
Ich kann auch sagen mein High-End CPU hat eine TDP von 30 Watt.... im Idle.... unter Laborbedingungen...
 
Weil Intel bei den TDP-Angaben die Kunden bescheißt*, weil sich diese nur auf den Basistakt beziehen. So kann man locker 100W dazuzählen, um bei 10 Kernen auf einen halbwegs realistischen Wert zu kommen. [...]

Wenn man es bei deinem Tonfall belassen will, bist eigentlich nur du derjenige, der bescheißt, weil er unterstellt, dass Intel hier betrügt.
Die TDP ist eine frei gewählte Definition und daher entsprechend flexibel und das übrigens bei beiden Herstellern.
Im Gaming, das wohl für den Großteil der Consumer relevant sein dürfte (wenn sie überhaupt eine so hohe Last auf ihrem System erzeugen), kommt selbst ein auf 5,0 GHz mit OC fixierter 9900K nur in Ausnahmefällen über 100 W Package-Power, d. h. deine zweite Aussage oben ist vollkommener Unsinn, umsomehr als das sich Intel hier auf typische Workloads bezieht und so etwas wie Blender und Videoencoding ist kein für die breite Masse typischer Workload und so etwas wie AIDA64 und Prime65 erst recht nicht.
Und abgesehen davon ist in dem von dir angedeuteten Kontext AMDs TDP gleichermaßen kritisch zu sehen, denn bspw. ein 3900X hat in diesem Fall auch reichlich wenig mit seinen definierten 105 W TDP am Hut. Wenn man den mit ordendlicher Performance betreibt, zieht der sich in y-cruncher auch 145 W und in HandBrake X264 gar bis zu 175 W ("nennen wir es mal AMD-TDP").

Dass Intel am Limit nicht so effizient ist wie AMD ist hinlänglich bekannt und schlicht im weiterhin verwendeten 14nm-Verfahren begründet und wird auch weiterhin so sein, wenn ein neues Produkt mit dem gleichen Fertigungsprozess veröffentlicht wird. Wem das nicht zusagt, hat ja zurzeit das Glück, dass AMD konkurrenzfähige Produkte am Markt hat, so dass man nicht gezwungen ist Intel zu verwenden (wozu man in den vergangenen 20 Jahren übrigens faktisch noch nie gezwungen war). Dann aber noch zusätzlich völlig absurden Unsinn zu erklären, ist auf die Dauer einfach nur nervtötend. Wenn Du Fragen zu den tatsächlichen Eckdaten hast, stöber hier einfach in Igors Testberichten rum, da steht alles notwendige zur Verfügung - und um das Final anzuschließen - für den Großteil der Consumer und damit für die für Intel relevante Käuferschaft, denn man fertigt so ein teueres HighTech-Produkt nicht für eine Hand voll "spezieller" Anwender, werden die 125 W offizielle TDP Angabe einen durchaus realistischen Wert darstellen, ebenso, wie die 95 W bei 9900K, und bspw. im Gaming wird der 10-Kerner seine TDP wohl ebensowenig überschreiten wie der 9900K.
 
Bitte denk an PASTOR, bleib ruhig und sachlich
Wenn man es bei deinem Tonfall belassen will, bist eigentlich nur du derjenige, der bescheißt, weil er unterstellt, dass Intel hier betrügt.
Die TDP ist eine frei gewählte Definition und daher entsprechend flexibel und das übrigens bei beiden Herstellern.
Lächerlich.

"TDP stands for Thermal Design Power, in watts, and refers to the power consumption under the maximum theoretical load. Power consumption is less than TDP under lower loads. The TDP is the maximum power that one should be designing the system for. "

Woher kommt diese Definition? Von Intel selbst. (Natürlich gibt es im Kleingedruckten selbst dafür noch weitere Ausnahmen wie zB für AVX2 Workloads.)
Hält man sich jetzt daran und limitiert die Chips auf TDP, dann erhält man 20% - 40% weniger Multicore-Leistung von den Intel CPUs ... eben weil Intel mit der TDP-Angabe bescheißt. Und dabei reden wir noch nicht einmal von speziellen AVX2 Workloads sondern von einfachen multithreaded Integer/FP/SSE Workloads.

Deswegen ist auch der Rest deiner Antwort hinfällig. Nett gegenüber Intel gemeint, aber leider ein Griff ins Klo.
Und letztlich ist auch der Versuch, Intel besser dastehen zu lassen, indem man auch über AMD jammert nur ein To-quoque-Argument ... also ebenso hinfällig.

Dann aber noch zusätzlich völlig absurden Unsinn zu erklären, ist auf die Dauer einfach nur nervtötend.
Du erzählst also schon länger Falschinformationen geschmückt mit Fehlschlüssen und regst dich dann noch auf, dass das anstrengend ist? Au weh.
 
Xnor halt mal den Ball flach. Wer nicht in der Lage ist, eine Diskussion sachlich zu führen, schwächt sich und seine Position. Deine persönlichen Angriffe kannst Du woanders ausleben, hier ist das Publikum anspruchsvoller und anderes gewohnt.
 
Was ist sachlicher? Was ist wohl eher ein persönlicher Angriff?
a) "bist eigentlich nur du derjenige, der bescheißt"
b) "Tu-quoque-Argument" (was es war), "Falschinformation" (basierend auf Intel's offiziellen Dokumenten zu dem Thema)

Ansonsten stimme ich vollkommen zu.
Jetzt gerne wieder zurück zum Thema: Intel 10900k.
 
Zuletzt bearbeitet :
tu quoque, nicht to. Latein. Und ohne Bindestrich.
 
Immer wenn Intel etwas vorgeworfen wird, was sie halt nicht ganz korrekt angeben, kommt immer min. ein anderer User an und muss einwerfen: Aber AMD macht das auch nicht korrekt.

Sehr nett jetzt von mir ausgedrückt. Dabei ist es völlig uninteressant ob AMD ebenso nicht ganz korrekt ihren Verbrauch angibt. Liest sich immer eher so: Aber der und der machen das auch. Also man zeigt mit dem Finger auf andere um von dem eigentlichen Problem ab zu lenken. Eher so Kindergarten Stil.

Interessant wird sein, was der 10900K schlucken wird, wenn man ihm freien Lauf lässt und was für eine Kühlung man benötigt um diesen vernünftig zu kühlen. Der ganze Rest wie die Angabe von Intel was die TDP angeht, die kann man sich schenken. Denn kein User wird die CPU im Basistakt betreiben.
 
Ich hatte das ja schonmal geschrieben: ich bin dafür, dass die CPU-Hersteller den tatsächlichen Verbrauch angeben müssten, von mir aus auch im "Drittelmix" standby, idle, load auf einem Kern, load auf allen Kernen. Und anders als bei den PKW müsste das durch ein unabhängiges Institut geprüft und nach dem Launch auch mit CPUs aus dem Handel verifiziert werden. Wenn dann ein Hersteller mit einer besonders guten oder gar manipulierten CPU getrickst hat, setzt es ein Bußgeld, die Einstufung wird dann sowieso angepasst. Gleiches gilt dann auch für GPUs. Mir ist das schleierhaft, dass die EU da noch nichts getan hat, bei den Glühbirnen war der Verbrauch ja sogar so wichtig, dass man sie verboten hat...
 
friedlich bleiben und versuchen auf hohem Niveau zu argumentieren
Die ständige Wiederholung einer falschen Aussage oder Idee macht die nicht automatisch irgendwann richtig. Glühbirnen? Ernsthaft? Das ist dein Argument bzw Beispiel? Dabei ging es darum, dass die ineffizienten Leuchtmittel durch effizientere abgelöst werden. Und letztlich ist ein 9900K sicherlich effizienter als beispielsweise ein 2600K, insofern läuft diese Argumentation aber sowas von ins Leere.
Intel hat eine Definition von TDP, AMD eine andere. Fertig. Natürlich kommt auch der Verschwörungstheoretiker da voll und ganz auf seine Kosten, wär ja auch zu schön gewesen, wenn dieser Quatsch diesmal ausgeblieben wäre, aber egal:
Got it?
 
Oben Unten