News Intel kauft Ineda Systems und baut seine Grafiksparte weiter aus

Paul Stanik

Veteran
Mitglied seit
Nov 29, 2018
Beiträge
227
Bewertungspunkte
33
Punkte
27
Intel-Discret-GPU-893x592.jpg


Paul Stanik submitted a new blog post

Continue reading the Original Blog Post.
 
Sie meinen es richtig ernst wie mir scheint. :D
 
Da stellen sich mir direkt einige Fragen .
- Wieso kommt Intel auf den Trichter, überhaupt in diesem Bereich mitspielen zu wollen?
- Wird es auch Gaming-Karten/-Ableger geben oder nur reine Profi-/Spezialisierte-Lösungen?
- Wie werden sich die Preise entwickeln? Sowohl wo Intel ihr Target anpeilen als auch wie NVidia/Amd dadrauf reagieren. Eher im Consumer Bereich oder Workstation (aka ne 0 vor dem Komma dran gehängt *g*).
- Wird Intel es überhaupt schaffen, in absehbarer Zeit in die Nähe von AMD geschweige denn NVidia zu kommen? Will Intel überhaupt eine "Allrounder" GPU oder eher sehr spezialisierte Lösungen für AI, Digitale Währung, Autonomes Fahren etc?
- Machen wir ne Wette, wann/ob die erste brauchbare Intel-GPU auftaucht? Ich sag mal nicht vor 2026 ^^. In 7+++ oder so etwas dann.
 
Zuletzt bearbeitet :
Wenn man sieht wie krass AMD zur Zeit hinterher rennt dann glaub ich nicht das selbst Intel aus dem Stand den Sprung mit auf das Podium schafft , andererseits hat man ja auch die ganze Zeit merklich an den IGUs geschraubt , wenn sie uns überraschen umso besser.

Es wird sich zeigen wie lange der Atem ist , ich hoffe länger als bei vorherigen versuchen.

Die offiziellen Aussagen zum Zielbereich sind ja auch sehr wage.
 
Wenn man sich die Webseite von Ineda Systems anschaut, dann geht es bei denen auch weniger um echte GPUs als um AI-Systeme fürs Autonome Fahren. Also Grafik erkennen und analysieren, weniger sie hübsch auszugeben. AI-PUs oder wie nennt man die Dinger dann? :) Von daher denke ich nicht, dass Intel überhaupt in den Consumer Markt will. Auch wenn ein dritter Mitspieler keine schlechte Sache wäre.
 
Das Intel in den Consumer Markt gehen will, wurde ja bereits bestätigt. Ich kann mir aber gut vorstellen das der Profimarkt / Autonomes Fahren im Fokus steht, da hier ein entsprechendes Umsatzpotenzial vorhanden ist.

Ich bin gespannt was Intel 2020/2021 für uns Consumer bereit hält. Mehr wie eine brauchbare Mittelklasselösung würde ich Intel nicht zutrauen - aber das dürfte Intel auch reichen, da hier der Absatzmarkt am größten ist.
 
Wenn man sieht wie krass AMD zur Zeit hinterher rennt dann glaub ich nicht das selbst Intel aus dem Stand den Sprung mit auf das Podium schafft , andererseits hat man ja auch die ganze Zeit merklich an den IGUs geschraubt , wenn sie uns überraschen umso besser.

Es wird sich zeigen wie lange der Atem ist , ich hoffe länger als bei vorherigen versuchen.

.

Bitte was hinterherhinkt?

AMD kommt mit einer auf Compute spezialisierten GPU (Vega20) und dessen Ballast mal eben auf dem Level der zweitschnellsten
Turing GPU und du sprichst von hinterherhinken? Mit einem 3XX mm2 Chip in 7NM legt man sich mit NVs Dickschiffen an.
Mit einem GCN Chip der immer noch schwierig auszulasten ist.

Will gar nicht wissen was sie mit einer auf Gaming zugeschnittenen neuen Chip mit evtl. neuen Architektur reissen (Ryzen) würden.

Also hinken tut da wenig.
 
Bitte was hinterherhinkt?

AMD kommt mit einer auf Compute spezialisierten GPU (Vega20) und dessen Ballast mal eben auf dem Level der zweitschnellsten
Turing GPU und du sprichst von hinterherhinken? Mit einem 3XX mm2 Chip in 7NM legt man sich mit NVs Dickschiffen an.
Mit einem GCN Chip der immer noch schwierig auszulasten ist.

Will gar nicht wissen was sie mit einer auf Gaming zugeschnittenen neuen Chip mit evtl. neuen Architektur reissen (Ryzen) würden.

Also hinken tut da wenig.

Naja, wenn man sich anschaut, was AMD mit dem deutlich besseren Speicher (Bandbreite und Stromverbrauch) und einer neueren Fertigung, die Nvidia auch bald nutzen kann, auf die Beine stellt...
Da muss man leider sagen das AMD im reinen Chipdesign zur Zeit massiv hinter ist, mindestens eine Generation.
Und ganz nebenbei: Ich habe mir die Ankündigung von Radoen VII live angeschaut, da wurden ganz explizit die Gamer angesprochen. Da muss man sich den Vergleich mit reinen Gamerchips schon gefallen lassen. Hoffen wir mal, dass der GPU Ryzen bald kommt.

Und wenn er am Ende von Intel kommt soll mir auch recht sein. Aber das ist ja noch ein Weilchen hin.
 
Naja ein reiner Gamerchip düfte mit Navi ja dann im Herbst kommen. Vielleicht nur in der Mittelklasse.
Und vielleicht immer noch als GCN.
Die Bandbreite ist bei Vega nötig, weil AMD eine nicht so gute Komprimierung besitzt wie NV.
Bietet aber auch Chancen in höheren Auflösungen.
So weit sehe ich sie nicht hinten.
Grad auch der Stromverbrauch liegt mit etwas UV bei Vega 20 unter Turing.

Und das NV die 7NM Fertigung bald mal nutzen kann, wag ich zu bezweifeln.
Die grossen Turing Chips auf 7NM sind immer noch 400-550 mm2 gross. Bis 7NM Chips in
den Grössen gehen, wird man auf 7NM EUV warten müssen um den Ausschuss nicht
hoch zu treiben. Also noch etwa 12-18 Monate und dann braucht NV auch Massen an so
grossen Chips. Ob Apple, QC, Huawai und Co. freiwillig auf 7NM EUV Kapazitäten verzichten?
 
Das wäre auf jeden Fall ein Vorteil für Intel, das Sie dann (hoffentlich) in 10nm Verfahren die GPU's in den eigenen Fabriken produzieren können. Dagegen spricht jedoch, das die nächsten Intel CPU's erneut nur in 14nm produziert werden sollen. Das Nvidia vielleicht auch die nächste Gen in 12 statt 7nm produziert um den Ausschuss klein zu halten, möglich, aber dann dürfte es wohl wieder nur einen kleinen Performanceschub geben :cautious:
 
Bitte was hinterherhinkt?

AMD kommt mit einer auf Compute spezialisierten GPU (Vega20) und dessen Ballast mal eben auf dem Level der zweitschnellsten
Turing GPU und du sprichst von hinterherhinken? Mit einem 3XX mm2 Chip in 7NM legt man sich mit NVs Dickschiffen an.
Mit einem GCN Chip der immer noch schwierig auszulasten ist.

Will gar nicht wissen was sie mit einer auf Gaming zugeschnittenen neuen Chip mit evtl. neuen Architektur reissen (Ryzen) würden.

Also hinken tut da wenig.

Anno 2019 in 7nm mit 1TB/s Speicherdurchsatz sowie 13,8 Tflops FP 32 Leistung und 300W Verbrauch die Leistung einer 2017er ( das ist noch höfflich die Titan Xp gabs schon 2016 war aber als Titan kein wirkliches Mainstreamprodukt ) 1080Ti mit 11,3 Tflops und 484 gb/s bei 250W gerade so beim zocken zu erreichen nenne ich hinterher hinken und bleibe dabei .

Ich nene es auch hinterher hinken wen man ner 10,6 TFlops RTX 2080 mit 448Gb/s sowie 225W Verbrauch leicht unterlegen ist selbst bei hohen Auflösungen.

Nochmal in relativ :

Vega 7 vs. RTX2080 hat: 30% mehr Rohleistung mit 123% mehr Speicherbandbreite bei 33% mehr Stromverbrauch obwohl man den Vorteil von 7nm sowie HBM2 schon mitgenommen hat erreicht aber nicht ganz die FPS einer RTX2080 .

Wenn Du meinst mit solchen Zahlen befindet man sich in einem gutem Ausgangspunkt für zukünftige Projekte dann sollte dir klar sein das man hier mit Leistungs / Effiziensteigerungen von min 50% eher mehr ohne die Hilfe von Shrinks weil man den 7 nm Bonus schon mitgenommen hat auf die nächste Generation liefern müsste um da wirklich einen kucken zu lassen .

Wenn du weiterhin meinst die Herkunft einer GPU oder Features die nicht zur reinen Gamingleistung beitragen aber mitgeschlept werden ( "Compute Spezialiesierung , RT, Tensor Cores etc. ) ist für diese Verhältnisse eine Ausrede dann mag das deine Meinung sein, ich Teile sie jedoch nicht.
 
Will gar nicht wissen was sie mit einer auf Gaming zugeschnittenen neuen Chip mit evtl. neuen Architektur reissen (Ryzen) würden.
Hoffentlich kommt so ein Chip bald in 7nm und dann für die komplette Reihe von High End bis zur Einsteigerkarte, schnell, effizient und kühl, das wäre es!
 
Sie meinen es richtig ernst wie mir scheint. :D
Hätte ich nicht für möglich gehalten aber DAS wird die “Computerwelt“ entweder komplett auf den Kopf stellen oder aber Intel setzt eine unanständige Menge Geld in den Sand!
Denkt mal drüber nach, die haben zig Jahre den CPU Markt regelrecht dominiert. Dann kommt da sowas wie AMD und macht sie lang... Jetzt kommen die Asiaten mit eigenen CPUs genauso wie die Russen! Patente kennen die nitt. Also kann das Geschäft da weiter einbrechen. Was tun? Richtig, ALLES aus EINER Hand! Grakas sind nicht nur für Gamer! HPC ist hier das Stichwort! Nicht nur den Xeon Unterbau liefern, sondern die Rechenknechte direkt dazu! Automotive, die Liste lässt sich beliebig fortsetzen.
Und wenn man das Geld hat, dann steigt man für Erwachsene ein und kauft das nötige Know How!
Ach ja, hallo Intel, wenn ihr noch jemanden sucht, der dafür sorgt, dass die diversen Abteilungen auch reibungslos funktionieren und miteinander produktiv arbeiten, meldet euch, denke wir werden uns schon einig... :cool:;)
 
Ich warte einfach ab und trinke Tee, bis die Dinger raus sind. Spekulatius schmeckt, ist aber nicht immer leicht bekömmlich und in zu großer Dosis gibbet entweder Verstopfung oder Dünnpfiff. Beides doof.
 
Ich warte einfach ab und trinke Tee, bis die Dinger raus sind. Spekulatius schmeckt, ist aber nicht immer leicht bekömmlich und in zu großer Dosis gibbet entweder Verstopfung oder Dünnpfiff. Beides doof.
Technisch werden die vermutlich ganz oben mitspielen nur kennen wir das ja auch schon von AMD. Wollen wir mal ehrlich sein, in Sachen Treiber ist Nvidia doch allen einen voraus. Wie immer hat AMD die bessere/ansprechendere Technik aber Nvidia die Treiber/Optimierungen. Wie bei den CPUs schmeicheln die Compiler Intel... Ändert sich gerade, Gott sei Dank. Wenn Intel das mit den Treibern vernünftig schafft, nicht so, wie die iGPU Krankheit, dann wird der Markt für uns Verbraucher mal richtig klasse werden. Aber dann, Preisabsprachen, Kartellbildung, ach ja, da kommt er wieder, der böse alte Mann...
 
@MopsHausen

Nun die RVII ist der erst grössere 7NM Chip in einer neuen Fertigung.
Ich wette die Vega 20er die ende Jahr vom Band fallen sind deutlich besser als die jetzigen.
Und auch jetzt schon, mit etwas UV (ein paar Klicks), spart man bei der RVII 80-90W, da ist auch Turing keinesfalls
effizienter.
Eine RTX 2080, also die OC Modelle, brauchen auch locker 260-270W ab Werk.


Wie dem auch sei, GCN krankt an dem Front End, die Chips auszulasten war noch nie leicht.
Schon gar nicht unter DX11, dafür hält die neue Vega eh sehr gut mit der 2080 mit und
das auch unter DX11. Man hat also über die Generationen immer weiter Besserung in dem
Bereich gesucht und gefunden. Mit Navi wird das nochmals besser sein, falls es noch GCN ist.
Also der Weg ist nicht schlecht.

NV hat den Vorteil, dass sie die Studios für Anpassungen an ihre Chips bezahlen.
Oder gleich ihre Entwickler dahin schicken.
Das kann sich AMD nicht leisten, diese müssen dann selber die Treiber darauf
abstimmen dass das Game läuft. Mit oft genug miesen NV Eigenheiten in den
Games, wie übertriebene Tesselation etc.

Das man so die Rohleistung nicht auf die Strasse bringt ist ja wohl klar.
 
Naja, Fakt ist halt, dass das letzte Architektur-Upgrade bei AMD irgendwie schon deutlich länger zurück liegt, als bei den Grünen.

Und ohne Experte dafür zu sein glaube ich, ein Architektur-Upgrade verlangt dem GPU-Entwickler mehr ab (=ist aufwändiger) als ein Shrink (beim Shrink unterstützen auch die Fab-Betreiber zum Teil bis hin zu den Maschinenherstellern wie ASML & Co.).

Schaut man sich das alles an, dürfte bei AMD - da schon auf der gerade frischen Strulturgröße - ein größeres Performance-Plus wohl eher nur mit einem Architektur-Upgrade kommen können. Ja, Navi lauert da irgendwo, aber keiner weiß wie weit AMD damit ist (kann fertig sein, kann „big problems“ sein) und wann das mit welcher Performance kommt. Klar gibt’s auch im neuen 7nm-Prozess noch massig Optimierungspotenzial, aber Performancewunder erwarte ich da eher weniger.

Umgekehrt stehen da die Grünen mit einer frischen Architektur und noch im alten Fertigungsprozess ordentlicher Performance bis „besser als die Konkurrenz in 7nm“. Ich fürchte, die werden dieses Jahr erste Modelle auf Turing-Basis in 7mn fertigen - wenn nicht, dann vermutlich eher weil sie es nicht nötig haben und gar keine wirklich neuen Modelle raushauen als weil sie es technisch nicht könnten.

Ich drück AMD die Daumen, aber besonders optimistisch, dass AMD die Grünen einfach mal wieder in allen wesentlichen KPIs (FPS, Frametimes, Verbrauch usw.) vom Peformance-Spitzenreiter-Sockel schubst, habe ich noch nicht. Wie gesagt, ich läge gerne falsch.

Aber zurück zum Topic: Intel wird keine Lust haben, das Desaster rund um dedicated GPUs zu wiederholen. Sie haben ein erfahrenes GPU-Team, Chips können Sie auch entwickeln, nicht zuletzt die Erfahrungen mit dem gescheiterten/aufgegebenem GPU-Versuch (auch wenn am Ende kein ernsthaftes Produkt heraus kam) und schlicht einen Riesenwettbewerbsdruck rund um das AI-Thema, wieder originär relevante Hardware (man denke an die Chipbemühungen eben auch bei Google, in China & Co.) für diesen und andere Aufgabenbereiche zu entwicklen und nicht nur Chips die man (nur) braucht, damit die GPUs und sonstigen Spezialchips ihren Job machen können. ;)

Also mein Tipp: da wird was kommen, was für den gedachten Einsatzzweck eine Duftmarke setzen wird. Was aber Intel da wirklich angreifen will, also wenn sie sagen „Consumer“ ob im High End oder Mittelklasse oder alles, weiß nur Intel (wenn überhaupt schon).
 
Also bitte, jetzt fangen wir aber nicht an mit Märchen. Weder ist Turing eine neue GPU Architektur (denn dann wäre jede GCN Generation dies auch), noch hat sich nVidia ein Bein ausgerissen mit dieser. Auch wenn nVidia etwas anderes behauptet.
 
Sorry, aber das was Nvidia in jeder Generation ändert hat AMD seit 2011 in Gänze nicht geschafft zu ändern.

Hier ein kleiner Blick auf die reine Menge an Unified-Shader µArchs https://en.wikipedia.org/wiki/Unified_shader_model
Nvidia: 7x SIMT (ab Tesla 2006)
AMD: 2x VLIW (Terescale seit 2007) + 5x SIMD (GCN seit 2011)

Im Bereich Consumer-Maxwell zu Consumer-Pascal war es weniger auffällig am Design, aber der Effizienzsprung war enorm.

Und falls du das Volta-Design mit Turing vergleichst ist die Verbesserung eher subtil im Design. Und dennoch sind es mit jeder einzelnen Generation seit dem Wechsel auf Unified-Shader mit der Tesla-µArch 2006 große Effizenzsprünge gemacht worden.

kannst dich ja bei Interesse hier mal einlesen https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/
da stehen so unwichtige Dinge drin wie:
"... Turing SM, that delivers a dramatic boost in shading efficiency, achieving 50% improvement in delivered performance per CUDA Core compared to the Pascal generation. " erklärt duch zwei Änderungen.
oder
RTX 2080 Ti deliver approximately 50% effective bandwidth improvements over the Pascal GP102-based 1080 Ti.
erreicht durch höhere Rohbandbreite und bessere Kompression.

Außerdem gibt es gemessene Verbesserungen z.B. im VRAM-Limit verglichen mit einer GTX 1060 leidet eine RTX 2060 deutlich weniger im VRAM-Limit.
Hier gemessen, und auch mit einer FuryX die vor ein paar Jahren noch als ziemlich gut mit einem VRAM-Limit klar kommende Karte bekannt war verglichen.
https://www.techspot.com/article/1785-nvidia-geforce-rtx-2060-vram-enough/
 
Oben Unten