GPUs Graphics Reviews

Intel DG1 including Intel Iris Xe MAX Graphics in exclusive teardown and with massive driver problems in benchmarks | Leak

Anticipation is the best joy – at least that’s what they say. Even though Intel’s DG1 was designed and advertised as an entry-level card from the beginning, a minimum of features and functionality can of course be expected from such a midget. A lot of things scale up nicely as long as the test candidates are good to test. Through a good acquaintance, I had the exclusive opportunity to analyze one of the few complete systems, at least on call and from a distance, to dare the teardown and try benchmarks. Torx works.

Important preliminary remark

Since the pictures created with the smartphone didn’t look quite as smart as one would expect from my website, I first reworked all of them and especially straightened the edges a bit. Just in case anyone was wondering. The card really exists and also the pictures are all originals. The tests are fresh, i.e. from yesterday, which is also shown by the date in the screenshots.

With the DG1 (Desktop Graphics 1), Intel initially wants to serve the mass-compatible entry-level sector, which can be used to gain valuable experience. The whole thing is then called Iris Xe MAX (notebook) or simply Iris Xe (desktop). Since this card will not be sold individually, but is intended for SI (system integrators) and OEMs, certain limits are also pre-programmed for the compatible hardware and even so wanted. That’s exactly why I wrote “total work of art” above, because the tested card was delivered (and tested) in a complete OEM PC.

This is also where the interested tester’s odyssey begins, because this DG1 SDV (Software Development Vehicle) only runs on special motherboards with graphics output and with a few Intel CPUs selected for it, which all have an iGP and is not suitable for overclocking. Of course, this also prevents individual pre-distributed DG1 SDV cards from being tested outside of the intended Intel microcosm. I don’t want to spoil anything yet, but even that doesn’t save this DG1.

Technical data, temperatures and power consumption

Interestingly, the original DG1 SDV from Intel is the full mobile version with 90 EU (Execution Units) and it also reports itself dutifully in each of the programs as Intel Iris Xe MAX. The DirectX-12 chip is manufactured in Intel’s own 10 nm Super-Fin process, which is quite competitive, because the numbers of the nonenclature do not say much at first. In the card tested here, the 96 EUs thus result in 768 FP32 ALUs (“shaders”). That’s even a bit more than they’ve budgeted for the Iris Xe “trimmed” to 80 EU (640 ALUs), which will be built by vendors like Asus.

A total of 8 GB LPDDR4 SDRAM with 2133 MHz are connected to the 128-bit memory interface and at least PCIe 4.0 is supported, even if it is only connected on 8 lanes. This also underlines once again the origin from the mobile sector. The OEM cards of the board partners will probably even have to make do with only 4 GB. Let’s take a look at the data from idle mode. At a low 600 MHz clock speed, the power consumption of the chip (not the whole card!) is just under 4 watts and the 850 rpm of the single fan is enough for 30 °C GPU temperature at idle.

Using a simple GPGPU application, 100% GPU load could be generated. However, the usual stress test programs are on strike due to the driver (I’ll get to that in a moment). The clock rate is now 1550 MHz, more could never be reached even at partial loads. This means that the real DG1 is still 100 MHz below what was assumed in advance for the mobile range. It remains to be assumed that the offshoots from Asus or Colorful won’t clock significantly higher either. Plenty of 20 watts for the GPU only, should then result in around 27 to 30 watts for the entire card, because the fan also hangs on the electrical umbilical cord with its up to 1800 rpm. 50 °C shows a rather aggressive fan curve and the suspicion that the card could get too hot after all.

The memory temperatures can’t be read out directly, but are at least monitored internally, because the four 2 GB modules from Micron aren’t really cooled. Which brings us to the teardown, so to speak. I have to pixelate the test system everywhere for source protection reasons, of course, because Intel will hardly be pleased if someone feeds third parties like me with information. The clues give away the culprit and so it will have to suffice for me to mention that it was a Core i7 non-K model on a Z390 mini-ITX board.

Kommentar

Lade neue Kommentare

konkretor

Veteran

297 Kommentare 300 Likes

Also Igor ich nehme sie von dir als Geschenk, tolle Sammlerkarte die I740 muss endlich abgelöst werden :cool:

Die haben wohl Angst das es in einem AMD System besser performt wie im Intel System? Hoffentlich räumt Pat mal bei Intel ordentlich auf.

Dachte wir bekommen in 2021 einen dritten Spieler im Graka Markt. Kannst knicken :-(

Antwort Gefällt mir

trader22

Mitglied

74 Kommentare 10 Likes

Intel soll doch in der Vergangenheit bereits keine brauchbaren Graka-Treiber hinbekommen haben.
Diese Strategie verfolgt Intel demnach konsequent weiter. Peinlich.

Antwort 1 Like

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Mit in den Wahnsinn-Treibern? Dös is xe :)

Antwort Gefällt mir

g
genervt

Mitglied

50 Kommentare 10 Likes

Das lässt in der Tat schlimmes erahnen, wenn das jetzt noch nicht besser läuft. Ich hoffe trotzdem, dass Intel die Kurve kriegt und aus dem Duopol wenigstens im unteren Preissegment einen Markt macht.

Leider findet die Sub 300€ Preiskategorie derzeit gar nicht mehr statt.

Antwort Gefällt mir

D
Deridex

Urgestein

2,213 Kommentare 846 Likes

Ich hatte gehofft, das Igor meine Vorbehalte gegenüber der Kombination der Wörter "Intel" und "Grafiktreiber" nicht bestätigt. Schade...😞

Antwort Gefällt mir

G
Guest

Hm, irgendwie scheint man das ganze bei Intel nicht ganz so ernst zu nehmen... Ich hoffe Raja hat sich da nicht vergaloppiert als er den Job annahm.

Antwort 1 Like

M
McFly_76

Veteran

396 Kommentare 136 Likes

Das habe ich mir auch gedacht :D
Raja Koduri kam zu Intel ( auf die Titanic ) und wird nach getaner Arbeit das sinkende Schiff wieder verlassen.
Die Überordnete betriebliche Hierarchie des Unternehmen nimmt den Ernst der Lage deshalb nicht wahr, weil das Gehalt stimmt.

Woraus besteht eine INTEL Ponte Vecchio Xe HPC GPU ( Nebelkerze ) ? :devilish:

  • Intel 7 nm process
  • TSMC 7 nm process
  • Foveros 3D packaging
  • Embedded multi-die interconnect bridge (EMIB)
  • Intel 10 nm Enhanced SuperFin process
  • Rambo Cache
  • HBM2 VRAM

Antwort Gefällt mir

v
vonXanten

Urgestein

803 Kommentare 335 Likes

Also geschenkt würd ich die schon nehmen, hat ja einen Seltenheitswert ;)

Leider scheint Intel die Tradition mit schlechten Grafiktreibern mit Herzblut fortzusetzen...

Also im Moment hört sich das nach kann fast nur noch besser werden an.

Antwort Gefällt mir

Alkbert

Urgestein

931 Kommentare 707 Likes

Das kann Intel aber nicht ernst meinen ? Es entsteht der Eindruck, dass da ein paar Ingenieure in der Mittagspause eine Alternativbeschäftigung zum Tischfußball im Pausenraum gesucht haben. Es ist ja m.E. durchaus Luft im Bereich um 100-200 Euro, denn dafür interessieren sich ganz offensichtlich weder Nvidia noch AMD. Aber den Anspruch, eine halbwegs leistungsfähige Karte, ggf. auch durch Zusammenzimmern mehrerer Xe GPU zu fertigen war ja wohl nix. Denn schneller als die Summe seiner Teile kann das dann auch nicht sein und dann kann ich im "Office" Bereich und jenseits der zunehmend leistungsfähiger werdenden iGPU´s auch bei meinen 1050 Ti bleiben.

Antwort Gefällt mir

P
Postguru

Mitglied

39 Kommentare 7 Likes

Hihi ich glaube die von Intel sind mit ihrem Latein am Ende .. vielleicht dachten sie sich ... Schmeiß mal paar Systeme raus und sehen mal was passiert .. ggf findes sich ein Inteligentes Wesen und den Testern die das Teil auf irgend eine Art und Weise zu laufen bekommen ...

Antwort Gefällt mir

V
Vollkornprophet

Mitglied

26 Kommentare 10 Likes

@Igor Wallossek hast du mal versucht, die Karte unter einem (möglichst aktuellen) Linux zu testen? Intels Linux-Treiber sind qualitativ erheblich besser als die Windows-Variante und Gen12-Unterstützung wird bereits seit einigen Kernel- und Mesa-Versionen geboten. Es könnte also mit etwas Glück sein, dass sie dort läuft.

Antwort 1 Like

h
hellm

Moderator

617 Kommentare 841 Likes

So wie die Karte aussieht hat man bei intel auch nur auf Raja gewartet. Böse Zungen behaupten derweil intel wäre ein Paradebeispiel eines Untergangs. Ich habe noch Hoffnung, aber ich glaube nicht das es einen Nachfolger dieser Grafikkarte geben wird.
Wenn es demnächst noch zu seltsamen Overengineering einzelner Komponenten und weitere CEOs gibt, wenn es nächstes Jahr einen neuen 14nm Node gibt, dann glaube ich auch nicht mehr daran. Das sind die Punkte die noch fehlen, den Einstieg gab man schon mit "das geht nicht" und "das haben wir immer schon so gemacht", bezüglich Ryzen. Ein kleines Team von Ingenieuren reicht eben aus, der Riese intel ist durch seine unflexiblen Strukturen keine echte Konkurrenz mehr.

Antwort 1 Like

Vorgartenzwerg42

Mitglied

22 Kommentare 12 Likes

Genau das dachte ich mir auch. Das wäre noch eine interessante Ergänzung zum Test.
Ist das Cover der Karte eigentlich aus Aluminium und mit dem Kühlkörper verbunden? das wäre mal ein interessantes Konzept. Oder ist das einfach nur Plastik in Metalloptik?

Antwort 2 Likes

wild

Mitglied

25 Kommentare 3 Likes
Case39

Urgestein

2,502 Kommentare 928 Likes

Was war das denn jetzt?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,473 Kommentare 829 Likes

Danke Igor! Tja, die diskrete kleine Xe kann Intel wohl in "Nee" umtaufen. Schon schade, ich hatte mir auch Hoffnung auf etwas Bewegung im sub€300 GraKa Bereich gemacht, aber das wird so nichts. Weder AMD noch NVIDIA werden sich hier genötigt sehen, wenigstens etwas neueres in der Klasse anzubieten (also RDNA2 bzw Ampere uArch).
Was mich jetzt noch interessiert: Xe als iGPU läuft ja in den Tiger Lake Notebooks, und kann dort auch Benchmarks und Spiele. Ist es hier uU so, daß Intel die Messungen als PCIe Karte bewusst sabotiert, oder wie kann man sich diese Diskrepanz erklären?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,473 Kommentare 829 Likes

Wollte ich noch anhängen: kann Xe denn Mining? Wenn ja, ist das vielleicht der Grund, warum es die Karte so gibt. Und miners juckt es nicht, wenn an den HDMI und DP Ports nichts rauskommt; wundert mich dann allerdings, warum die Karte die Ports überhaupt hat.

Antwort Gefällt mir

g
gerTHW84

Veteran

409 Kommentare 248 Likes

Wird man einfach abwarten müssen. Igor hat hier ein reines Dev-Kit getestet. Was da noch im Argen ist (und ggf. auch bleiben wird?) und wie sehr da Intel (noch) Ressourcen drauf legt ... wer weiß. Unschön ist das sicherlich, ist aber dennoch nur ein Dev-Kit und sagt über Xe insgesamt erst mal eher weniger aus und Xe-HPG, das was für Gamer eigentlich interessant wird, hat man bisher noch gar nicht zu Gesicht bekommen.

Kategorische Probleme mit Xe scheint es dagegen eher nicht zu geben, denn andernfalls könnte bspw. AnandTech mit Tiger Lake auch keine Tests mit bspw. Civ6, Deus Ex, Final Fantasy 14 und 15, World of Tanks sowie F1 2019 durchführen (und hier werden keinerlei Abstürze erwähnt *).

Im späteren Test des MSI Presitge 14 Evo gibt es ebensowenig Beschwerden. Hier lässt man diverse synthetische Grafikbenchmarks (diverse 3DMark und GFXBench) sowie diverse Spiele inkl. Far Cry 5 und Rise of the Tomb Raider erfolgreich durchlaufen (und auch F1 2019).

Sieht mir daher erst mal eher nach einer Eigenheit dieses Dev-Kits aus.

*) Es gab wohl lediglich ein Problem in F1 mit regulierten 15 W, bei dem es einen Absturz gab, jedoch konnte man das nicht weiter verifizieren bzw. nachtesten, da man das Testsystem schon zurückgegeben hatte als man den Fehler bemerkte, d. h. das könnte auch ein sporadischer Absutz gewesen sein. Der Testlauf mit 28 W lief jedenfalls auch hier problemlos durch.

Antwort 1 Like

Klicke zum Ausklappem
big-maec

Urgestein

828 Kommentare 476 Likes

Die Karte wäre Interessanter, wenn die mit einem PCIe X1 Konnektor gekommen wäre, wie die ASUS 90YV0E60 ASUS GeForce GT 710 - 2 GB

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung