Grafikkarten Testberichte VGA

Satz mit X(e) – DG1 samt Intel Iris Xe MAX Graphics im exklusiven Teardown und mit massiven Treiberproblemen bei den Benchmarks | Leak

Vorfreude ist die schönste Freude – sagt man zumindest. Auch wenn Intels DG1 von Anfang an als Einstiegskarte konzipiert und auch als solche beworben wurde, ein Mindestmaß an Features und Funktionalität kann man natürlich auch von so einem Zwerg erwarten. Vieles lässt sich gut nach oben skalieren, solange die Testkandidaten gut zu testen sind. Ich habe über einen guten Bekannten nun exklusiv die Möglichkeit gehabt, eines der wenigen Gesamtkunstwerke zumindest auf Zuruf und aus der Ferne zu analysieren, den Teardown zu wagen und Benchmarks zu versuchen. Torx works.

Wichtige Vorbemerkung

Da die mit dem Smartphone erzeugten Bilder dann bei näherer Betrachtung doch nicht ganz so smart aussahen, wie man es von meiner Webseite sonst eigentlich erwartet, habe ich die Bilder alle zunächst noch einmal etwas nachbearbeitet und vor allem die Kanten etwas entzerrt. Nur falls sich jemand wundert. Die Karte existiert wirklich und auch die Bilder sind alles Originale. Die Tests sind frisch, also von gestern, was auch das Datum in den Screenshots zeigt.

Mit der DG1 (Desktop Graphics 1) will Intel zunächst den massenkompatiblen Einsteigerbereich bedienen, was durch zum Sammeln von wertvollen Erfahrungen dienen kann. Man Nennt das Ganze dann Iris Xe MAX (Notebook) oder einfach auch nur Iris Xe (Desktop). Da diese Karte nicht einzeln verkauft werden wird, sondern für SI (Systemintegratoren) und OEMs gedacht ist, sind auch bei der kompatiblen Hardware gewisse Limits vorprogrammiert und sogar so gewollt. Genau deshalb schrieb ich ja auch oben „Gesamtkunstwerk“, denn die getestete Karte wurde in einem kompletten OEM-PC geliefert (und nur darin auch getestet).

Hier beginnt dann auch die Irrfahrt des interessierten Testers, denn diese DG1 läuft nur auf speziellen Motherboards mit Grafikausgang und mit wenigen, dafür ausgesuchten Intel-CPUs, die allesamt eine iGP besitzen müssen und nicht zum Übertakten geeignet ist. Damit verhindert man natürlich auch, dass einzelne, vorab verteilte DG1-Karten außerhalb des vorgesehenen Intel-Mikrokosmos getestet werden. Ich will noch nichts spoilern, aber auch das rettet die DG1 SDV (Software Development Vehicle) nicht. 

Technische Daten, Temperaturen und Leistungsaufnahme

Interessanterweise ist die originale DG1 SDV von Intel der Mobile-Vollausbau mit 90 EU (Execution Units) und sie meldet sich auch in jedem der Programme dann brav als Intel Iris Xe MAX. Hergestellt wird der DirectX-12-Chip in Intels eigenem 10-nm-Super-Fin-Verfahren, das durchaus wettbewerbsfähig ist, denn die Zahlen der Nonenklatur sagen erst einmal nicht viel aus. In der hier getesteten Karte ergeben sich aus den 96 EU somit 768 FP32-Alus („Shader“). Das ist sogar noch etwas mehr, als man für die auf 80 EU (640 ALUs) „beschnittene“ Iris Xe eingeplant hat, die von Anbietern wie Asus gebaut werden soll.

Insgesamt 8 GB LPDDR4 SDRAM mit 2133 MHz hängen an dem 128-Bit Speicherinterface und zumindest unterstützt man PCIe 4.0, wenn auch nur 8-fach angebunden. Auch das unterstreicht noch einmal die Herkunft aus dem Mobile-Sektor. Die OEM-Karten der Boardpartner werden wohl sogar mit nur 4 GB auskommen müssen. Schauen wir uns einmal die Daten aus dem Idle-Betrieb an. Bei niedrigen 600 MHz Taktrate  liegt die Leistungsaufnahme des Chips (nicht der ganzen Karte!) bei knapp 4 Watt und die 850 U/min des Einzellüfters reichen für 30 °C GPU-Temperatur im Idle.

Mit Hilfe einer einfachen GPGPU-Anwendung konnte 100%-GPU-Last erzeugt werden. Die üblichen Stresstest-Programme streiken jedoch treiberbedingt (dazu komme ich gleich noch). Der Takt liegt nun bei 1550 MHz, mehr konnte auch bei Teillasten nie erreicht werden. Damit liegt die echte DG1 immerhin 100 MHz unter dem, was man im Vorfeld für den Mobil-Bereich angenommen hatte. Es bleibt zu vermuten, dass auch die Ableger von Asus oder Colorful nicht deutlich höher takten werden. Reichlich 20 Watt für die GPU only, sollten dann um die 27 bis 30 Watt für die gesamte Karte ergeben, denn auch der Lüfter hängt mit seinen bis zu 1800 U/min an der elektrischen Nabelschnur. 50 °C zeigen von einer eher aggressiven Lüfterkurve und dem Misstrauen, dass die Karte dann doch zu heiß werden könnte.

Die Speichertemperaturen lassen sich nicht direkt auslesen, werden aber zumindest intern wohl überwacht, denn so richtig gekühlt werden die vier 2-GB-Module von Micron nämlich nicht. Womit wir quasi beim Teardown angekommen wären. Das Testsystem muss ich aus Gründen des Quellenschutzes natürlich überall auspixeln, denn Intel wird kaum erfreut sein, wenn jemand Dritte wie mich mit Informationen füttert. Die Spuren verraten den Täter und so muss es reichen, wenn ich erwähne, dass es ein Core i7 Nicht-K-Modell auf einem Z390 mini-ITX Board war.

Kommentar

Lade neue Kommentare

konkretor

Veteran

293 Kommentare 300 Likes

Also Igor ich nehme sie von dir als Geschenk, tolle Sammlerkarte die I740 muss endlich abgelöst werden :cool:

Die haben wohl Angst das es in einem AMD System besser performt wie im Intel System? Hoffentlich räumt Pat mal bei Intel ordentlich auf.

Dachte wir bekommen in 2021 einen dritten Spieler im Graka Markt. Kannst knicken :-(

Antwort Gefällt mir

trader22

Mitglied

73 Kommentare 10 Likes

Intel soll doch in der Vergangenheit bereits keine brauchbaren Graka-Treiber hinbekommen haben.
Diese Strategie verfolgt Intel demnach konsequent weiter. Peinlich.

Antwort 1 Like

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Mit in den Wahnsinn-Treibern? Dös is xe :)

Antwort Gefällt mir

g
genervt

Mitglied

50 Kommentare 10 Likes

Das lässt in der Tat schlimmes erahnen, wenn das jetzt noch nicht besser läuft. Ich hoffe trotzdem, dass Intel die Kurve kriegt und aus dem Duopol wenigstens im unteren Preissegment einen Markt macht.

Leider findet die Sub 300€ Preiskategorie derzeit gar nicht mehr statt.

Antwort Gefällt mir

D
Deridex

Urgestein

2,204 Kommentare 843 Likes

Ich hatte gehofft, das Igor meine Vorbehalte gegenüber der Kombination der Wörter "Intel" und "Grafiktreiber" nicht bestätigt. Schade...😞

Antwort Gefällt mir

G
Guest

Hm, irgendwie scheint man das ganze bei Intel nicht ganz so ernst zu nehmen... Ich hoffe Raja hat sich da nicht vergaloppiert als er den Job annahm.

Antwort 1 Like

M
McFly_76

Veteran

395 Kommentare 136 Likes

Das habe ich mir auch gedacht :D
Raja Koduri kam zu Intel ( auf die Titanic ) und wird nach getaner Arbeit das sinkende Schiff wieder verlassen.
Die Überordnete betriebliche Hierarchie des Unternehmen nimmt den Ernst der Lage deshalb nicht wahr, weil das Gehalt stimmt.

Woraus besteht eine INTEL Ponte Vecchio Xe HPC GPU ( Nebelkerze ) ? :devilish:

  • Intel 7 nm process
  • TSMC 7 nm process
  • Foveros 3D packaging
  • Embedded multi-die interconnect bridge (EMIB)
  • Intel 10 nm Enhanced SuperFin process
  • Rambo Cache
  • HBM2 VRAM

Antwort Gefällt mir

v
vonXanten

Urgestein

801 Kommentare 334 Likes

Also geschenkt würd ich die schon nehmen, hat ja einen Seltenheitswert ;)

Leider scheint Intel die Tradition mit schlechten Grafiktreibern mit Herzblut fortzusetzen...

Also im Moment hört sich das nach kann fast nur noch besser werden an.

Antwort Gefällt mir

Alkbert

Urgestein

926 Kommentare 703 Likes

Das kann Intel aber nicht ernst meinen ? Es entsteht der Eindruck, dass da ein paar Ingenieure in der Mittagspause eine Alternativbeschäftigung zum Tischfußball im Pausenraum gesucht haben. Es ist ja m.E. durchaus Luft im Bereich um 100-200 Euro, denn dafür interessieren sich ganz offensichtlich weder Nvidia noch AMD. Aber den Anspruch, eine halbwegs leistungsfähige Karte, ggf. auch durch Zusammenzimmern mehrerer Xe GPU zu fertigen war ja wohl nix. Denn schneller als die Summe seiner Teile kann das dann auch nicht sein und dann kann ich im "Office" Bereich und jenseits der zunehmend leistungsfähiger werdenden iGPU´s auch bei meinen 1050 Ti bleiben.

Antwort Gefällt mir

P
Postguru

Mitglied

38 Kommentare 5 Likes

Hihi ich glaube die von Intel sind mit ihrem Latein am Ende .. vielleicht dachten sie sich ... Schmeiß mal paar Systeme raus und sehen mal was passiert .. ggf findes sich ein Inteligentes Wesen und den Testern die das Teil auf irgend eine Art und Weise zu laufen bekommen ...

Antwort Gefällt mir

V
Vollkornprophet

Mitglied

23 Kommentare 9 Likes

@Igor Wallossek hast du mal versucht, die Karte unter einem (möglichst aktuellen) Linux zu testen? Intels Linux-Treiber sind qualitativ erheblich besser als die Windows-Variante und Gen12-Unterstützung wird bereits seit einigen Kernel- und Mesa-Versionen geboten. Es könnte also mit etwas Glück sein, dass sie dort läuft.

Antwort 1 Like

h
hellm

Moderator

597 Kommentare 825 Likes

So wie die Karte aussieht hat man bei intel auch nur auf Raja gewartet. Böse Zungen behaupten derweil intel wäre ein Paradebeispiel eines Untergangs. Ich habe noch Hoffnung, aber ich glaube nicht das es einen Nachfolger dieser Grafikkarte geben wird.
Wenn es demnächst noch zu seltsamen Overengineering einzelner Komponenten und weitere CEOs gibt, wenn es nächstes Jahr einen neuen 14nm Node gibt, dann glaube ich auch nicht mehr daran. Das sind die Punkte die noch fehlen, den Einstieg gab man schon mit "das geht nicht" und "das haben wir immer schon so gemacht", bezüglich Ryzen. Ein kleines Team von Ingenieuren reicht eben aus, der Riese intel ist durch seine unflexiblen Strukturen keine echte Konkurrenz mehr.

Antwort 1 Like

Vorgartenzwerg42

Mitglied

22 Kommentare 12 Likes

Genau das dachte ich mir auch. Das wäre noch eine interessante Ergänzung zum Test.
Ist das Cover der Karte eigentlich aus Aluminium und mit dem Kühlkörper verbunden? das wäre mal ein interessantes Konzept. Oder ist das einfach nur Plastik in Metalloptik?

Antwort 2 Likes

wild

Mitglied

24 Kommentare 3 Likes
Case39

Urgestein

2,484 Kommentare 919 Likes

Was war das denn jetzt?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,398 Kommentare 764 Likes

Danke Igor! Tja, die diskrete kleine Xe kann Intel wohl in "Nee" umtaufen. Schon schade, ich hatte mir auch Hoffnung auf etwas Bewegung im sub€300 GraKa Bereich gemacht, aber das wird so nichts. Weder AMD noch NVIDIA werden sich hier genötigt sehen, wenigstens etwas neueres in der Klasse anzubieten (also RDNA2 bzw Ampere uArch).
Was mich jetzt noch interessiert: Xe als iGPU läuft ja in den Tiger Lake Notebooks, und kann dort auch Benchmarks und Spiele. Ist es hier uU so, daß Intel die Messungen als PCIe Karte bewusst sabotiert, oder wie kann man sich diese Diskrepanz erklären?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,398 Kommentare 764 Likes

Wollte ich noch anhängen: kann Xe denn Mining? Wenn ja, ist das vielleicht der Grund, warum es die Karte so gibt. Und miners juckt es nicht, wenn an den HDMI und DP Ports nichts rauskommt; wundert mich dann allerdings, warum die Karte die Ports überhaupt hat.

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

Wird man einfach abwarten müssen. Igor hat hier ein reines Dev-Kit getestet. Was da noch im Argen ist (und ggf. auch bleiben wird?) und wie sehr da Intel (noch) Ressourcen drauf legt ... wer weiß. Unschön ist das sicherlich, ist aber dennoch nur ein Dev-Kit und sagt über Xe insgesamt erst mal eher weniger aus und Xe-HPG, das was für Gamer eigentlich interessant wird, hat man bisher noch gar nicht zu Gesicht bekommen.

Kategorische Probleme mit Xe scheint es dagegen eher nicht zu geben, denn andernfalls könnte bspw. AnandTech mit Tiger Lake auch keine Tests mit bspw. Civ6, Deus Ex, Final Fantasy 14 und 15, World of Tanks sowie F1 2019 durchführen (und hier werden keinerlei Abstürze erwähnt *).

Im späteren Test des MSI Presitge 14 Evo gibt es ebensowenig Beschwerden. Hier lässt man diverse synthetische Grafikbenchmarks (diverse 3DMark und GFXBench) sowie diverse Spiele inkl. Far Cry 5 und Rise of the Tomb Raider erfolgreich durchlaufen (und auch F1 2019).

Sieht mir daher erst mal eher nach einer Eigenheit dieses Dev-Kits aus.

*) Es gab wohl lediglich ein Problem in F1 mit regulierten 15 W, bei dem es einen Absturz gab, jedoch konnte man das nicht weiter verifizieren bzw. nachtesten, da man das Testsystem schon zurückgegeben hatte als man den Fehler bemerkte, d. h. das könnte auch ein sporadischer Absutz gewesen sein. Der Testlauf mit 28 W lief jedenfalls auch hier problemlos durch.

Antwort 1 Like

Klicke zum Ausklappem
big-maec

Urgestein

794 Kommentare 461 Likes

Die Karte wäre Interessanter, wenn die mit einem PCIe X1 Konnektor gekommen wäre, wie die ASUS 90YV0E60 ASUS GeForce GT 710 - 2 GB

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung