News Intel launcht die 11. Generation der Tiger Lake 10-nm-Core-CPUs mit der Xe-Grafik - Schlägt das Imperium gegen AMD zurück? Benchmarks inside

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.198
Bewertungspunkte
18.815
Punkte
114
Alter
59
Standort
Labor
Gestern launchte Intel offiziell seine neuen Tiger Lake-Prozessoren der 11. Generation mit einer brandneuen CPU- und GPU-Architektur. Die neuen Intel Tiger Lake CPUs basieren auf dem aktuellen 10nm++ Node des Unternehmens, der eine verbesserte Leistungseffizienz gegenüber den Ice Lake Prozessoren bietet. Die Intel Tiger Lake-CPUs werden unter dem Branding der 11. Generation der Core-Familie geführt. Die Intel Tiger Lake-CPUs der 11. Generation orientieren sich vor allem auf den Mobilitätsbereich und erhalten außerdem ein völlig neues Erscheinungsbild. Und ganz nebenbei hat Intel auch gleich noch das Logo komplett runderneuert.




>>> Hier den gesamten Artikel lesen <<<
 
Langsam aber sicher kommt Intel aus den Puschen! Kommt es mir nur so vor, das AMD jetzt zunehmend mehr Druck von allen Seiten bekommt?
 
Ja das kommt Dir nur so vor. War es denn jemals anders?
Um Intel war es viel zu lange still - höchste Zeit für etwas wirklich neues!

Leider für mich nicht so ganz hilfreich. Bei dem, was ich mobil zu arbeiten habe, merke ich bei den Prozessoren schon seit 3 Jahren keinen Unterschied mehr. Office ist halt Office und flutscht. - da sind eher mies angebundene oder kastrierte SSDs die Bremse.
Zocken auf dem Laptop - mag ich nicht und ist immer noch nicht gut genug. Full HD ist ja bei den etwas höherwertigen Laptops auch schon vorbei - da ist mir die Performancesteigerung auch eher wurscht.

AMD hatte eh Schwierigkeiten in Laptops großflächig vertreten zu sein, dabei bleibt es jetzt ziemlich sicher.
 
Das Werbevideo gestern war fürchterlich dröge, dagegen hatte Jensen ja echt noch einen fetten Entertainment-Faktor. Aber die CPUs sind auf dem richtigen Weg. Wenn man sieht, was die aus dem 10nm +++ noch rausquetschen, Chapeau. Und Xe wird für AMD richtig gefährlich. Das mit Big Navi wird scheinbar auch nichts, es sei denn, sie überwinden sich auch zur 300 Watt++ Brechstange. Physik kann man halt nicht vergewaltigen und NV war gut beraten, rechtzeitig auf Software und AI zu setzen.
 
Frage ist, wie lange sie den 10nm noch reiten müssen. Nicht dass die Zahl vorne wieder den Pluszeichen dahinter entspricht.

Xe könnte wirklich interessant werden. Gerade im low budget segment. Amd muss aufpassen, dass sie nicht von beiden Enden zerrieben werden.
 
" Das mit Big Navi wird scheinbar auch nichts, es sei denn, sie überwinden sich auch zur 300 Watt++ Brechstange. "
Igor, wie meinst du das? Kannst du mir das mal erklären?
AMD setzt bei "BigNavi" auf TSMC 7nm+ Technik! Es soll besser sein als SAMSUNGs 8nm! Ich weiß NVIDIA setzt auf custom-8nm-Node aber dennoch...
Ich erwarte, dass AMD effizienter sein wird als NVIDIA!
 
" Das mit Big Navi wird scheinbar auch nichts, es sei denn, sie überwinden sich auch zur 300 Watt++ Brechstange. "
Igor, wie meinst du das? Kannst du mir das mal erklären?
AMD setzt bei "BigNavi" auf TSMC 7nm+ Technik! Es soll besser sein als SAMSUNGs 8nm! Ich weiß NVIDIA setzt auf custom-8nm-Node aber dennoch...
Ich erwarte, dass AMD effizienter sein wird als NVIDIA!
Wir wissen doch nicht erst seit gestern, dass AMD schon immer Probleme hatte, die Rohleistung auf die Straße zu bringen. Selbst mit besserem Note, mehr shadern, mehr Speicher, etc wird die Leistung nicht so umgesetzt werden können. Imo fehlt AMD einfach da das Kapital und die manpower, um ein komplettes Ökosystem drumherum zu gestalten.
 
Und von AMPERE haben wir auch noch keine Balken gesehen! Nur von NVIDIA und das ohne FPS und Einstellungen!
Ich sage nur: 10.000 Cores! Und diese TFlops Angabe. Hallo? bei 3070 20 TFlops?! never! 3070 soll minimal schneller sein als 2080Ti und dise hat ca. 13 TFlops!

Jensen meint wohl RTX-Teraflops!

Jensen hat da was schöngerechnet!
 
" Das mit Big Navi wird scheinbar auch nichts, es sei denn, sie überwinden sich auch zur 300 Watt++ Brechstange. "
Igor, wie meinst du das? Kannst du mir das mal erklären?
AMD setzt bei "BigNavi" auf TSMC 7nm+ Technik! Es soll besser sein als SAMSUNGs 8nm! Ich weiß NVIDIA setzt auf custom-8nm-Node aber dennoch...
Ich erwarte, dass AMD effizienter sein wird als NVIDIA!
Ich bin zwar nicht Igor, aber dass war eigentlich doch klar wie Igor das meint. So lange nicht eine komplett Architektur daher kommt samt ausgereifter Software und der Wille wieder GPU's mit mehr als 300 Watt Verbrauch im Durchschnitt werden die nicht mal ansatzweise an die Leistung der neuen Nvidia Karten dran kommen.

Auch wenn die TSMC 7nm+ Technik besser ist, so sagt dass am ende des Tages doch nichts über die Leistung des Chips aus. Es wird etwas effizienter ja, aber nicht der Gamechanger...

Jetzt haben die neben der Technik auch noch ein Problem bei der Preisgestaltung sogar on top. Es wäre schön wenn da mal ein konkurrenzfähiges Gerät seitens AMD am Ende des Tages das Licht erblicken würde, glauben werden dass aber die meisten erst, wenn Sie es sehen.
 
ich gehe da von XBoxX APU aus:
RDNA2 mit 52 CUs und unter 150 Watt (inkl. CPU wohlbemerkt) und 12 TFlops!

+ Jensen macht solche Preise nicht einfach so ;)
 
ich gehe da von XBoxX APU aus:
RDNA2 mit 52 CUs und unter 150 Watt (inkl. CPU wohlbemerkt) und 12 TFlops!

+ Jensen macht solche Preise nicht einfach so ;)
Das ist jedem schon klar, spätestens nach gestrigen Video und den Beiträgen von Igor sollte es zumindest. Falls Du das gestern nicht gesehen hast, aber da hat ein großes Versandhaus aus versehen die Preise für die neue PS5 geleakt und die 3080 ist scheint günstiger zu sein. Die Rohleistung einer 3070er sollte schon auf dem PS5 Niveau liegen und kosten tut die dann auch die hälfte.

3070: 20 Shader-TFLOPS, 40 RT-TFLOPS und 163 Tensor-TFLOPS
 
Zuletzt bearbeitet :
Das ist jedem schon klar, spätestens nach gestrigen Video und den Beiträgen von Igor sollte es zumindest. Falls Du das gestern nicht gesehen hast, aber da hat ein großes Versandhaus aus versehen die Preise für die neue PS5 geleakt und die 3080 ist scheint günstiger zu sein. Die Rohleistung einer 3070er sollte schon auf dem PS5 Niveau liegen und kosten tut die dann auch die hälfte.

3070: 20 Shader-TFLOPS, 40 RT-TFLOPS und 163 Tensor-TFLOPS
Der Preis war quatsch. Sonst kann Sony den Kram gleich in die Tonne hauen.
 
Der Preis war quatsch. Sonst kann Sony den Kram gleich in die Tonne hauen.
Da wäre ich mir nicht so sicher. Warten wir noch etwas ab, trinken noch weiterhin schön leckeren Tee und sehen dann was sein wird. Die drei war schon 600 Euro "leicht / schwer" wie auch immer. Dass die im Anschluss "subventioniert" die Konsolen verkauft haben ist ein offenes Geheimnis. Dann schön über die die Spielepreise sich das Geld wieder reingeholt.
 
Nun ja, Preise von kompletten Grafikkarten mit Spielkonsolen zu vergleichen ist auch sehr dünnes Eis. Ich denke mal, Igor meinte vor allem, das Big Navi eben nicht so big erscheinen wird, wenn Nvidia schon so dermaßen big in Leistung und Verbrauch auftafelt. ;) Nvidia drückt von oben mit 3070/80 und da wo Geld verdient wird, will XE jetzt auch noch mitmischen. Mal sehen, wie sich das mittel- und langfristig gestaltet.

Was mich aber mehr interessiert (darum gehts hier doch eigentlich)... Wann ist denn mit den Tigerlakes zu rechnen? Vor allem mit neutralen Tests? Das Intel Marketinggeschwurbel bildet ja meist nicht wirklich die Realität ab. :sneaky:
 
Wer gedacht hat, dass AMD Intel und NVidia einfach überrennt, weil sie in den letzten paar Quartalen >1,5 Mrd. $ gemacht haben gegenüber Intels fast 20 Mrd. und NVidias 3 Mrd., der übersieht wesentliches. Wer denkt, dass 500$ für eine 3070 der Beweis ist, dass NVidia doch nicht teuer ist, der hat nicht mitbekommen, dass NVidia angekündigt hat in diesem Quartal seine Marge zu steigern und wird sich in zwei Jahren bei der nächsten Generation wieder über die unverschämten Preise aufregen.
Ja, AMD hat ein Comeback, und ist in manchen Regionen Intel voraus. Tiger Lake wird aber besonders die Schwächen von AMDs CPU-Designs hervorheben (und Vega Beine machen). Nichtsdestotrotz ist Intels Marketingfolien nicht zu trauen (bspw. SYSmark ist stark Intel-optimiert).
Und: Interessanter Artikel zu Intels "Launch"...
 
ich gehe da von XBoxX APU aus:
RDNA2 mit 52 CUs und unter 150 Watt (inkl. CPU wohlbemerkt) und 12 TFlops!

+ Jensen macht solche Preise nicht einfach so ;)
Aus dem x Box series x


„Die maximale Leistungsaufnahme der Konsole beträgt 255 Watt (12 V/21,25 A).“

Ziehst 45W für die CPU und 10W für Kleinkram ab bleiben 200w für 12 TFlops aber auch nicht der Hammer gerade angesichts der humanen 1825Mhz mit der dat Ding läuft .
Der Konkurrent wirbt mit 20Tflops bei 220W.
 
TFLOPS haben nur bedingt Aussagekraft. Sonst wär eine 13 TFLOPS RTX 2080Ti nur 65% so schnell wie eine RTX 3070 und eine Vega 64 fast so schnell wie die 2080Ti 🤪
 
Ziemlich viel augenwischerei in der Präsi von Intel, zudem natürlich getunt mit schnellsten Speicher (LPDDR4x-4266) für den Tiger aber nur normalen (immerhin DDR4-3200) für den AMD. Zudem ist nicht bekannt ob der AMD nur auf 15W lief oder bis zu 25W nutzen durfte gegen die 28 (-60W?) beim Tiger.
AMD sollte Intel vielleicht danken für die ständige Erwähnung ihres Namens bzw des Ryzen 4800U, dann weiß auch der letzte wogegen man den Tiger vergleichen muß bei Neukäufen. Bei Otellini hätte es sowas nicht gegeben.
 
Aus dem x Box series x


„Die maximale Leistungsaufnahme der Konsole beträgt 255 Watt (12 V/21,25 A).“

Ziehst 45W für die CPU und 10W für Kleinkram ab bleiben 200w für 12 TFlops aber auch nicht der Hammer gerade angesichts der humanen 1825Mhz mit der dat Ding läuft .
Der Konkurrent wirbt mit 20Tflops bei 220W.
Der Konkurrent wird dir aber auch davon abraten bei der Netzteildimensionierung nur 220W für die 3070 einzuplanen. Bei der Aussage über die die Gesamtaufnahme der Konsole müssen Lastspitzen aber schon eingeplant sein. Und beim "Kleinkram" würde ich auch etwas mehr ansetzen, aber das ist sehr spekulativ, bis das nicht jemand mal alles nachgemessen hat.
 
Oben Unten