News Intel richtet die Xe Mobility GPUs auf 1080p, 60 FPS und eSports Gaming aus

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
Intel hat neue Informationen zu ihrer kommenden Xe-GPU preisgegeben, die voraussichtlich im nächsten Jahr für Desktop- und Mobile-Systeme erscheinen wird. Die Xe GPU-Architektur, die intern als Gen 12 bezeichnet wird, ist Intels erste GPU-Linie.





Während der Intel Developer Conference „IDC“ 2019 in Tokio hat Intel einige neue Benchmarks ihrer Gen 11 „Iris Plus“ GPUs veröffentlicht, die ein Bestandteil der 10. Prozessorgeneral „Ice Lake“ Mobilitätsprozessoren sind und mit den älteren 620 Grafikchips verglichen wurden. Obwohl die Gen 11 GPU im Vergleich zu ihren älteren Gen 9.5 Kontrahenten eine dringend benötigte Leistungssteigerung aufweist, erreichte sie im Test in einigen populären eSport-Titeln noch immer nicht die 1080p-60 FPS-Marke.


Zum Beitrag: https://www.igorslab.de/intel-richtet-die-xe-mobility-gpus-auf-1080p-60-fps-und-esports-gaming-aus/
 
"Ray-Tracing... die Verbreitung der Technologie stärker vorantreiben, als es NVIDIA jemals könnte."

Wenn er da mal den Mund nicht zu voll nimmt. Einen starken Wettbewerber dürften wir uns wohl alle wünschen. Das Intel hier was wirklich innovatives abliefert, glaube ich erst nach den ersten Tests/Benchmarks. Solange ist es wohl schlicht sehr viel Marketing blabla...
 
Es ist immer sehr wichtig den Verfasser zu verbessern, wie im Deutschunterricht und das im Thread direkt, statt per PM. Weil das ist viel wichtiger, als das eigentliche Thema an sich. ;)

Zum Thema:
Ich finde es sehr interessant, das man schon direkt den möglichen Mitbewerber ab nächstem Jahr, gleich mal hinstellt, als wenn dieser bestimmte Dinge ja gar nicht wirklich könnte.

Eigentlich muss Intel erst einmal beweisen, das sie auch wirklich GPUs können im dedizierten Bereich. Aber wenn sie es genauso gut hinbekommen, wie die 10nm Technologie, die ja seit einigen Jahren schon fertig sein soll, dann sollten sie vielleicht nicht ganz so hoch stapeln. :D

Mal sehen welche Leistung die dedizierten Karten dann hinbekommen und ob die Treiber auch gut sind.
 
Mit "Hochstapeln" muss das nichts zu tun haben. Die Tiger Lake U-Werte haben sie ja quasi zu der ersten Ankündigung aktuell noch einmal bestätigt, d. h. die iGPU wird noch einmal deutlich zulegen.
Und 10nm sind bereits längst in Produktion und 10nm+ scheinen zumindest on-track zu sein, denn die wurden explizit als Bestandteil von Willow Cove ausgewiesen und das Tiger Lake U Engineering Sample wird zweifelsfrei nicht in 14nm erstellt worden sein.
Die dedizierten GPUs hängen mit den Datacenter-GPGPUs unmittelbar zusammen und letztere sind im 1HJ21 für den Aurora erforderlich, ein Exaflops-Intel-System des DoE, d. h. hier muss man abliefern.
Die werden sicherlich schon was brauchbares abliefern können, auch wenn sie nVidia vielleicht nicht gleich vom Thron stoßen werden. ;) Zudem bleibt noch abzuwarten, wie die das Consumer-Portfolio in den Markt bringen, denn es wäre zumindest nicht ausgeschlossen, dass das ein schrittweiser Launch wird und möglicherweise wird auch erst deren 2nd Gen ein ernstzunehmender Konkurrent aber Intel hat ausreichend Ressourcen und mit dem Datacentermarkt ausreichend Motivation im Rücken, denn das dürfte der primäre Treiber für Xe sein.
Man wird sehen. Zumindest bringt das ordentlich Bewegung in den nVidia-dominierten Grafikmarkt und es dürfte auch für AMD ein Anreiz sein, etwas mehr Engagement zu zeigen.
 
@ Dark_Knight: Ich habe leider öfters die Erfahrung machen müssen, dass PMs grundsätzlich ignoriert werden.
Eine Rechtschreibprüfung sollte so einen Fehler allerdings ohne Probleme finden, und einzelne Vertippsler und Buchstabendreher ignoriere ich ohnehin.



@ Engagement von AMD: Ich glaube es liegt weniger am Wollen als am Können, allein schon wegen der Personalstände der jeweiligen Unternehmen. Intel allein hat iirc 10 mal soviele Angestellte wie ganz AMD.
Wenn man jetzt sagt 50% davon arbeiten in der Verwaltung und Fertigung, bleiben immer noch 5 mal soviele fürs R&D übrig wie AMD gesamt hat, und dennoch kriegen sie bei den CPUs ein wenig auf den Deckel.
Nur ob AMD zwei solcher Kraftakte gleichzeitig stemmen kann.......
 
Man sieht doch, das AMD es kann. Sowohl die Zen CPUs, als auch die neue RDNA Technologie beweisen es doch, das AMD obwohl sie "viel" kleiner sind, es schafft sowohl Intel als auch nVidia zu trotzen.

Intel muss erst einmal mit all seinem Geld und Personal beweisen was sie können im GPU Bereich. Und nein @gerTHW84 , wenn man sieht wie viele Jahre Intel jetzt im Verzug ist mit der 10nm Technologie und das trotz ihres vielen Geldes und dem vielen Personal, sollte man da eben nicht Intel schon Loorbeeren zuwerfen, bevor sie wirklich geliefert haben.
Und was nützt es, wenn Intel eben Interesse hat im Datacenterbereich die GPUs dann zu platzieren, sie müssen trotzdem erst einmal es hinbekommen und das scheint eben nicht so einfach zu sein wie man denkt.

Ich meine, wenn sie es hinbekommen, gut für uns alle, weil mehr Konkurrenzdruck für AMD und nVidia. Wenn sie wieder scheitern (ist ja nicht deren erster Versuch eine "richtige" GPU entwickeln), platzen halt die feuchten Träume einiger User und es bleibt wie es ist. Was aber so oder so nicht passieren wird, ist das die Preise im GPU Bereich wieder sinken werden. Wer daran glaubt, der wird so oder so bitter enttäuscht werden.
 
Ich finde die GPU-Preise im Mainstreamsegment nicht zu hoch, ab ca. 140,- € bekommt man sehr solide Leistung für FullHD Gaming, ab ca. 270,- € funktioniert es dann auch schon für's Gaming in 1440p.
 
Wird halt von vielen anders gesehen, zumindest von vielen die sich auch zu Wort melden. Gut wenn man sich halt jedes Jahr oder alle 2 Jahre eine GPU holt, dann will man halt für seinen Betrag X, die meiste Leistung haben. Es sind wohl viele einfach noch zu verwöhnt von den Jahren wo jedes Jahr eine neue GPU rauskam und man zwischen 30-40% ein Leistungsplus für dasselbe Geld hatte.

Aber da man ja an den nVidia Generationen Maxwell, Pascal und jetzt Turing gesehen hat, das die meisten User trotzdem kaufen. Klar wem es zu teuer ist könnte verzichten. Aber das machen ja auch die wenigsten, denn am Ende ist es doch wichtiger die stärkere Leistung zu haben, als zu sagen: Dann spiele ich halt noch 1-2 Jahre länger in der Auflösung mit der Leistung.

Mir persönlich ist es da eher zweitrangig was den Preis angeht, da ich eher so alle 4-6 Jahre mir nur eine neue GPU hole. Wobei es natürlich trotzdem Grenzen gibt, was ich bereit bin aus zu geben. Und z.B. eine RTX2080Ti, ist definitiv weit zu teuer für das gebotene. ;)
 
'Wert sein' und 'Kosten' ist ne ziemlich kleine Schnittmenge, da kann man sich mit Venn-Diagrammen so richtig austoben.
Die Frage bezüglich Intels Markteinstieg dürfte sein, in welcher Höhe sich die Entwicklungskosten beim Endpreis bemerkbar machen werden. Wobei ich darauf hinweisen möchte, dass es sicherlich einfacher (und möglicherweise günstiger) ist, eine schon eingeführte Technik wie RT zu verbessern als die erstmal zu entwickeln.
 
Na Ja; ob es einfacher ist auf anderem Wege (Patente) zum selben Ziel zu kommen? Bezweifle dass Entwickler für NVidia, Intel und AMD separate Implementierungen machen werden.
Oder läuft das auch bei NVidia über DirectX? (Also liefert die Hardware an DirectX bzw. bekommt davon Daten?)
 
Programmiertechnisch läuft es in Windows alles über DirectX Raytracing (Bestandteil von DX12; die Vulkan-Extensions von nVidia haben immer noch den Status experimental, wenn ich mich recht erinnere). Microsoft hat mit allen Branchenvertretern ein API ausgearbeitet, das DXR implementiert. Die Grafikhersteller liefern die passenden Funktionen in Hardware und stellen diese über ihre Treiber zur Verfügung *), die mit DXR angesteuert werden. **) (Konkret sind es eigentlich lediglich zwei Funktionen, die Intersection-Berchnung und die Szenen-Traversierung, d. h. die Szenendaten müssen in einer bestimmten Datenstruktur vorliegen.)
Einfaches Raytracing an sich ist mathematisch relativ trivial und bereits Jahrzehnte alt. Hier muss man lediglich einen effizienten Weg finden, das in eine GPU-Architektur zu integrieren, da die Berechnungen an sich recht umfangreich sind und vor allem die Szenendaten in umfangreichem Maße durchsucht werden müssen für jeden zu berechnenden Strahl, denn hier ist zu beachten, dass man nicht einen einzelnen, hochqualitativen Frame berechnen, sondern eine Echtzeitanwendung umsetzen will mit möglichst 60+ Fps (da bleibt nur wenig Rechenzeit übrig für das Raytracing eines einzelnen Frames, weshalb auch hier mit vielen Optimierungen gearbeitet wird).

*) Konkret wird die Raytracing-Funktionalität bei nVidia über den RTX-Softwarestack zur Verfügung gestellt, der erstmals Anfang 2018 zusammen mit Volta vorgestellt wurde (gut ein halbes Jahr vor Turing). Die Funktionalität wanderte anschließend in den Treiber und verwendet bei Vorhandensein entsprechender Funktionalitäten die Hardware und andernfalls werden die Berechnungen"zu Fuß" über die normalen SMs der nVidia-GPUs durchgeführt. Entsprechendes beobachtete man anfänglich auch bei Volta, die in Studios bspw. in der Entwicklung genutzt wurde, bevor es Turing-Prototypen für die Entwickler gab. Nachträglich hat dann nVidia zumindest auch die größeren Pascal-Karten im Treiber für RTX freigeschaltet (wahrscheinlich nicht ganz freiwillig ;)).

**) Wie der Grafiktreiber die Datenverarbeitung durchführt, ist DXR am Ende gleich, d. h. wenn AMD die passenden API-Teile in ihrem Grafiktreiber implementiert, können sie bspw. auf Vega/Navi in FP16 halbwegs performant Raytracing berechnen ohne explizite Hardware (natürlich nicht so umfangreich wie nVidia mit Turing, aber für kleinere Szenen in FullHD dürfte das schon reichen).
Das DXR-SDK enthält sogar, wenn ich micht recht erinnere, einen kompletten Software-Debug-Pfad für DXR, d. h. man kann auch komplett ohne eine Raytracing-fähige GPU entwicklen und hierfür die CPU beanspruchen, aber das wird dann tatsächlich sehr langsam.

***) Auf vergleichbare Art hat Microsoft mittlerweile auch DirectML hinzugefügt, über das man bspw. in einheitlicher Art Machine Learning-Hardware ansteuern kann, also im Wesentlichen Matrixmultiplikationen, wie sie nVidia's Tensor Cores zur Verfügung stellen. Das Projekt begann als WinML und wurde dann noch einmal überarbeitet und an das DirectX 12-API angepasst.
 
Zuletzt bearbeitet :
Oben Unten