Reviews Satz mit X(e) - DG1 samt Intel Iris Xe MAX Graphics im exklusiven Teardown und mit massiven Treiberproblemen bei den Benchmarks

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.106
Bewertungspunkte
18.594
Punkte
114
Alter
59
Standort
Labor
Vorfreude ist die schönste Freude - sagt man zumindest. Auch wenn Intels DG1 von Anfang an als Einstiegskarte konzipiert und auch als solche beworben wurde, ein Mindestmaß an Features und Funktionalität kann man natürlich auch von so einem Zwerg erwarten. Vieles lässt sich gut nach oben skalieren, solange die Testkandidaten gut zu testen sind. Ich habe über einen guten Bekannten nun exklusiv die Möglichkeit gehabt, eines der wenigen Gesamtkunstwerke zumindest auf Zuruf und aus der Ferne zu analysieren, den Teardown zu wagen und Benchmarks zu versuchen. Torx works...

>>> Hier den gesamten Artikel lesen <<<
 
Zuletzt bearbeitet :
Also Igor ich nehme sie von dir als Geschenk, tolle Sammlerkarte die I740 muss endlich abgelöst werden :cool:


Die haben wohl Angst das es in einem AMD System besser performt wie im Intel System? Hoffentlich räumt Pat mal bei Intel ordentlich auf.

Dachte wir bekommen in 2021 einen dritten Spieler im Graka Markt. Kannst knicken :-(
 
Intel soll doch in der Vergangenheit bereits keine brauchbaren Graka-Treiber hinbekommen haben.
Diese Strategie verfolgt Intel demnach konsequent weiter. Peinlich.
 
Mit in den Wahnsinn-Treibern? Dös is xe :)
 
Das lässt in der Tat schlimmes erahnen, wenn das jetzt noch nicht besser läuft. Ich hoffe trotzdem, dass Intel die Kurve kriegt und aus dem Duopol wenigstens im unteren Preissegment einen Markt macht.

Leider findet die Sub 300€ Preiskategorie derzeit gar nicht mehr statt.
 
Ich hatte gehofft, das Igor meine Vorbehalte gegenüber der Kombination der Wörter "Intel" und "Grafiktreiber" nicht bestätigt. Schade...😞
 
Hm, irgendwie scheint man das ganze bei Intel nicht ganz so ernst zu nehmen... Ich hoffe Raja hat sich da nicht vergaloppiert als er den Job annahm.
 
Hm, irgendwie scheint man das ganze bei Intel nicht ganz so ernst zu nehmen... Ich hoffe Raja hat sich da nicht vergaloppiert als er den Job annahm.
Das habe ich mir auch gedacht :D
Raja Koduri kam zu Intel ( auf die Titanic ) und wird nach getaner Arbeit das sinkende Schiff wieder verlassen.
Die Überordnete betriebliche Hierarchie des Unternehmen nimmt den Ernst der Lage deshalb nicht wahr, weil das Gehalt stimmt.

Woraus besteht eine INTEL Ponte Vecchio Xe HPC GPU ( Nebelkerze ) ? :devilish:
  • Intel 7 nm process
  • TSMC 7 nm process
  • Foveros 3D packaging
  • Embedded multi-die interconnect bridge (EMIB)
  • Intel 10 nm Enhanced SuperFin process
  • Rambo Cache
  • HBM2 VRAM
 
Also geschenkt würd ich die schon nehmen, hat ja einen Seltenheitswert ;)

Leider scheint Intel die Tradition mit schlechten Grafiktreibern mit Herzblut fortzusetzen...

Also im Moment hört sich das nach kann fast nur noch besser werden an.
 
Das kann Intel aber nicht ernst meinen ? Es entsteht der Eindruck, dass da ein paar Ingenieure in der Mittagspause eine Alternativbeschäftigung zum Tischfußball im Pausenraum gesucht haben. Es ist ja m.E. durchaus Luft im Bereich um 100-200 Euro, denn dafür interessieren sich ganz offensichtlich weder Nvidia noch AMD. Aber den Anspruch, eine halbwegs leistungsfähige Karte, ggf. auch durch Zusammenzimmern mehrerer Xe GPU zu fertigen war ja wohl nix. Denn schneller als die Summe seiner Teile kann das dann auch nicht sein und dann kann ich im "Office" Bereich und jenseits der zunehmend leistungsfähiger werdenden iGPU´s auch bei meinen 1050 Ti bleiben.
 
Hihi ich glaube die von Intel sind mit ihrem Latein am Ende .. vielleicht dachten sie sich ... Schmeiß mal paar Systeme raus und sehen mal was passiert .. ggf findes sich ein Inteligentes Wesen und den Testern die das Teil auf irgend eine Art und Weise zu laufen bekommen ...
 
@Igor Wallossek hast du mal versucht, die Karte unter einem (möglichst aktuellen) Linux zu testen? Intels Linux-Treiber sind qualitativ erheblich besser als die Windows-Variante und Gen12-Unterstützung wird bereits seit einigen Kernel- und Mesa-Versionen geboten. Es könnte also mit etwas Glück sein, dass sie dort läuft.
 
So wie die Karte aussieht hat man bei intel auch nur auf Raja gewartet. Böse Zungen behaupten derweil intel wäre ein Paradebeispiel eines Untergangs. Ich habe noch Hoffnung, aber ich glaube nicht das es einen Nachfolger dieser Grafikkarte geben wird.
Wenn es demnächst noch zu seltsamen Overengineering einzelner Komponenten und weitere CEOs gibt, wenn es nächstes Jahr einen neuen 14nm Node gibt, dann glaube ich auch nicht mehr daran. Das sind die Punkte die noch fehlen, den Einstieg gab man schon mit "das geht nicht" und "das haben wir immer schon so gemacht", bezüglich Ryzen. Ein kleines Team von Ingenieuren reicht eben aus, der Riese intel ist durch seine unflexiblen Strukturen keine echte Konkurrenz mehr.
 
@Igor Wallossek hast du mal versucht, die Karte unter einem (möglichst aktuellen) Linux zu testen? Intels Linux-Treiber sind qualitativ erheblich besser als die Windows-Variante und Gen12-Unterstützung wird bereits seit einigen Kernel- und Mesa-Versionen geboten. Es könnte also mit etwas Glück sein, dass sie dort läuft.
Genau das dachte ich mir auch. Das wäre noch eine interessante Ergänzung zum Test.
Ist das Cover der Karte eigentlich aus Aluminium und mit dem Kühlkörper verbunden? das wäre mal ein interessantes Konzept. Oder ist das einfach nur Plastik in Metalloptik?
 
Was war das denn jetzt?
 
Danke Igor! Tja, die diskrete kleine Xe kann Intel wohl in "Nee" umtaufen. Schon schade, ich hatte mir auch Hoffnung auf etwas Bewegung im sub€300 GraKa Bereich gemacht, aber das wird so nichts. Weder AMD noch NVIDIA werden sich hier genötigt sehen, wenigstens etwas neueres in der Klasse anzubieten (also RDNA2 bzw Ampere uArch).
Was mich jetzt noch interessiert: Xe als iGPU läuft ja in den Tiger Lake Notebooks, und kann dort auch Benchmarks und Spiele. Ist es hier uU so, daß Intel die Messungen als PCIe Karte bewusst sabotiert, oder wie kann man sich diese Diskrepanz erklären?
 
Wollte ich noch anhängen: kann Xe denn Mining? Wenn ja, ist das vielleicht der Grund, warum es die Karte so gibt. Und miners juckt es nicht, wenn an den HDMI und DP Ports nichts rauskommt; wundert mich dann allerdings, warum die Karte die Ports überhaupt hat.
 
Wird man einfach abwarten müssen. Igor hat hier ein reines Dev-Kit getestet. Was da noch im Argen ist (und ggf. auch bleiben wird?) und wie sehr da Intel (noch) Ressourcen drauf legt ... wer weiß. Unschön ist das sicherlich, ist aber dennoch nur ein Dev-Kit und sagt über Xe insgesamt erst mal eher weniger aus und Xe-HPG, das was für Gamer eigentlich interessant wird, hat man bisher noch gar nicht zu Gesicht bekommen.

Kategorische Probleme mit Xe scheint es dagegen eher nicht zu geben, denn andernfalls könnte bspw. AnandTech mit Tiger Lake auch keine Tests mit bspw. Civ6, Deus Ex, Final Fantasy 14 und 15, World of Tanks sowie F1 2019 durchführen (und hier werden keinerlei Abstürze erwähnt *).

Im späteren Test des MSI Presitge 14 Evo gibt es ebensowenig Beschwerden. Hier lässt man diverse synthetische Grafikbenchmarks (diverse 3DMark und GFXBench) sowie diverse Spiele inkl. Far Cry 5 und Rise of the Tomb Raider erfolgreich durchlaufen (und auch F1 2019).

Sieht mir daher erst mal eher nach einer Eigenheit dieses Dev-Kits aus.

*) Es gab wohl lediglich ein Problem in F1 mit regulierten 15 W, bei dem es einen Absturz gab, jedoch konnte man das nicht weiter verifizieren bzw. nachtesten, da man das Testsystem schon zurückgegeben hatte als man den Fehler bemerkte, d. h. das könnte auch ein sporadischer Absutz gewesen sein. Der Testlauf mit 28 W lief jedenfalls auch hier problemlos durch.
 
Zuletzt bearbeitet :
Die Karte wäre Interessanter, wenn die mit einem PCIe X1 Konnektor gekommen wäre, wie die ASUS 90YV0E60 ASUS GeForce GT 710 - 2 GB
 
Oben Unten