Reviews Satz mit X(e) - DG1 samt Intel Iris Xe MAX Graphics im exklusiven Teardown und mit massiven Treiberproblemen bei den Benchmarks

harte Worte,

Es gibt keine zweite Chance für den ersten E....... .

( meiner Recherche nach ©️ ungeklärt )

Was hat denn Raja die ganzen Jahre gemacht, das Treiberteam auf Vordermann bringen anscheinend nicht.
 
Komisches Dev Kit, das. Aber ich kann mal sagen, dass zumindest die "Intel Iris Xe" (nicht Max) als iGPU in den bisherigen Tiger Lake-Laptops einwandfrei funktioniert. Scheint offenbar außer dem "Xe"-Namen nicht viel mit diesem DG1-Entwurf gemeinsam zu haben. Wir werden die Entwicklung mit Spannung beobachten und mal bei Intel nachhorchen, wann diese DG1 (egal ob Desktop oder Mobile) mal einsatzreif sein soll...

VG,
Tom
 
Vernichtende Ansage ..

Ich verstehe nicht, warum die Treiber nichts taugen, schließlich ist die Karte ja innerhalb einer CPU schon ganz ordentlich am laufen.

und das dann nichtmal drei Monitore normal bedient werden können ... Scherz, oder ist der miese Treiber Absicht?

Da bau ich doch lieber ne alte Matrox ein, die packt die drei Monitore entspannt..
 
Igor, hier noch eine (vielleicht dumme) Frage: Bei den Benchmarks der Karte kam auch dann nichts raus, wenn Du die Graphik über die iGPU der Intel CPU angeschlossen hattest? Und was kam dabei raus?
Wenn die Karte für Entwicklungsarbeit für embedded Xe vorgesehen war, kann ich mir vorstellen, daß Intel dies im BIOS und Treiber schon so festgelegt hat, also iGPU-out oder gar nichts. Nicht gerade freundlich, aber dann vielleicht nicht ganz so unfähig.
 
Muahaaahaaa, und dann noch zwei Slots verbraten. Für was..? Für nix! :ROFLMAO:
 
Sehr interessanter Einblick, leider eines sehr enttäuschenden Produktes.
 
Es steht ja eindeutig im Artikel: alle Tests wurden über die iGPU gemacht. An den eigenen Anschlüssen lief gleich mal gar nichts.
 
[...] Scheint offenbar außer dem "Xe"-Namen nicht viel mit diesem DG1-Entwurf gemeinsam zu haben. [...]
Ich weiß was du meinst ... darüber hinaus jedoch: ist exakt das gleiche Chipdesign/Layout, ist beides Xe-LP. ;-)
Und beispielsweise in Tiger Lake-Laptops mit zusätzlich externer Iris Xe Max (ebenso 96 EUs, nur etwas höherer Takt als die iGPU und dedizierter Speicher *) werden beide GPUs vom gleichen Treiber-Stack angesteuert, weil es ein unified Treiber ist.

Wie ich schon sagte ... sieht eher nach einer spezifischen Eigenheit dieses Dev-Kits aus. Beispielsweise das von ASUS bald vertrieben 80 EUs-OEM-Produkt (wahrscheintlich nur eine Chip-Resteverwertung) wird sich absehbar "normal" verhalten ... andernfalls wäre es schlicht unverkäuflich. ;-)
In Anlehnung an Gurdi, ist halt eben kein Produkt, sondern war explizit ein Dev-Kit, das schon auf der CES 2019 im Januar vorgestellt wurde, lange bevor Xe-Produkte überhaupt auf den Markt kamen und ist daher für den Markt letzten Endes irrelevant.

Interessant wäre aber schon gewesen, ob sich diese Dev-Kits schon immer so und über eine größere Zahl unterschiedlicher System derart (nicht-)verhalten haben, denn dann stellt sich natürlich die Frage was man mit denen evaluieren bzw. hätte testen sollen. Wenn Intel damit seine Xe-Adaption selbst ausgebremst hat ist das letzten Endes deren Problem und nur Wasser auf die Mühlen der ... :-x

*) Und auch die funktioniert anscheinend ebenso wie zu erwarten, denn andernfalls könnte Notebookcheck nicht so eine Fülle von synthetischen und Spiele-Benchmarks hierzu veröffentlichen. Und bspw. auch PCmag hat bereits ein Dell mit der Iris Xe Max erfolgreich durch diverse Titel gejagt.
 
Das Fragwürdige ist eben warum der aktuelle Enwticklungsstand derart bescheiden ist, wenn nicht mal die GraKa Anschlüsse korrekt arbeiten ist da einfach noch einiges im argen.
 
Es steht ja eindeutig im Artikel: alle Tests wurden über die iGPU gemacht. An den eigenen Anschlüssen lief gleich mal gar nichts.
Danke für die Klarstellung, habe ich wohl überlesen. In dem Fall ist der Treiber dann wirklich eine krumme Krücke, und das verheißt nichts Gutes für die dGPUs wenn sie Mal hier auf den Markt kommen. Was mich sehr wundert ist das die Karte in einigen asiatischen Ländern schon von OEMs in Desktops verbaut und die dann auch verkauft werden. Gibt es da schon Feedback?
 
Ich würde den Test mit der finalen Karte, besser dem gesamten PC durchführen.

Vulkan - Spiele wie Doom2016@Vulkan sollten mal getestet werden.
 
war das nicht immer schon so, das bei Intel seit Jahren keinen gescheiten Treiber in Consumerbereich für Grafikkarten gibt?
 
In Anbetracht der Ressourcen und Zeit die Intel in das gesamte Projekt bisher investiert hat ist das was hinten raus kommt reichlich erbärmlich. Ich gebe Koduri noch 1-2 Jahre maximal dann wird er auch im blauen Lager still und ohne Aufhebens "entsorgt".
 
Das solche Samples instabil laufen scheint relativ normal. Hatte Dezember auch ein Geraet in der Hand mit einer noch kommenden CPU von Intel. Das Ding laeuft hochgradig instabil. Einmal wegen des Mainboards, was eben noch nicht seitens des Herstellers finalisiert ist, noch laeuft die Firmware und die CPU selbst sauber. Wir warten jetzt auf ein neues Sample mit einem Engieering Sample aus einer neueren Revision sowie ein neu angepasstes Mainboard. (Scheinbar ist am Backend wohl auch einiges gemacht worden, sodass der Hersteller sich da auch einiges einfallen lassen muss, da inkompatibel zur alten Plattform)

Auf dem Barebone liefen nicht mal die LEDs vernuenftig, weil der Super-I/O Richtung CPU wohl ein anderes Protokoll spricht als sonst.


Bei einer Grafikkarte wuerde ich mir natuerlich mehr Stabilitaet erwarten, aber hier heist es wohl eher: Abwarten.
 
Sehr interessanter Einblick, leider eines sehr enttäuschenden Produktes.
Es ist gar kein Produkt, da es sich um ein Dev-Kit handelt. Wer ein TL-Notebook sein Eigen nennt, wird auch merken, dass Xe durchaus was taugt (und eigentlich das interessanteste an TL ist). Von daher verstehe ich die Intention des Tests dieser eindeutig als Vorserien-Exemplar bzw. Dev-Kit erkennbaren Karte nicht.
 
Oben Unten