GPUs Graphics Reviews

GUNNIR Iris Xe MAX Index V2 Review – Intel’s DG1 as retail card with benchmarks, detailed analysis and teardown

So, finally the time has come and today I can show you detailed benchmarks with the GUNNIR Iris Xe MAX Index V2 – Intel’s DG1, which can offer a first taste of Intel’s ARC Alchemist series, which is based on the newer DG2 GPU family. However, this is not yet on the market, so this first freely available retail card of the DG1 has aroused my desires. After all, the DG1 GPUs were initially only available for software developers (see our first review), but eventually found their way into the discrete DIY desktop market later under the Iris Xe brand. Just not in Germany. Our sample was purchased privately in Hong Kong, because as we all know, curiosity dies last so let’s dive into this GPU mystery together.

BIOS and suitable microcode as basic requirement

But even if this retail card in the form of the GUNNIR Iris Xe MAX Index V2 still costs the equivalent of 110 USD (without import sales tax plus shipping costs) – you can’t just plug it in and go. Unfortunately, Intel doesn’t love us that much. Gunnir does not give any compatibility information on its own homepage and product page, on which motherboard this card could run at all. The fact is that the Iris Xe graphics cards do not work with all systems, and AMD also has to be left out in general. The reason lies in the chip’s origin, which is actually a notebook GPU and thus should not be able to run independently on any platform with its own EEPROM for the complete firmware on the PCB.

There is also no support for AMD platforms for exactly this reason. Various websites colocate the support for Intel with the restriction to the Coffee and Comet Lake, i.e. the 9th and 10th generation. Following this information, the Iris Xe models would only be compatible with Intel’s B460, B365 and H310C motherboards. However, after inquiring with several motherboard manufacturers (and after a few unsuccessful attempts of our own), a completely different picture unfortunately emerged. In order to use up-to-date hardware and also to test the DG1 against the biggest SKU of the UHD 770, we therefore use a specially prepared Z690 board. We can perhaps explain how this works with the BIOS injection another time, if there is reader interest.

Thus, there is no motherboard (not even among the mentioned chipset variants) – which should generally and across-the-board already be fully compatible and executable from the dealer. In my specific case, I will be using an MSI MAG Z690 Tomahawk WiFi DDR4 along with a special “beta” BIOS (or rather homebrew).

The test system differs from the usual, so I’ll tabulate all the details again here:

 

The GUNNIR Iris Xe MAX Index V2 – Technical data

The Iris Xe series can virtually be considered the predecessor of the Arc A300 series, which is supposedly based on the DG2-128EU GPU. A smaller 6nm manufacturing node, higher clock rates and a higher TDP should provide a significant performance increase in Intel’s entry-level desktop GPU segment. But this initial test can also provide a certain foretaste when you later try to extrapolate the performance data with the help of the execution units and clock rate.

Intel has actually developed two DG1-SKUs: Iris Xe and Iris Xe Max- Whereby our model corresponds to the chip exclusively developed for laptops in its full configuration. GUNNIR thus uses all 96 execution units for the Iris Xe Max Index V2 (instead of 80 for the Iris Xe non-MAX). The 96 EUs offer 768 shader units and a boost clock of 1.65 GHz. Despite this increase over the 80-EU variant, the power limit of 25 to 41W has not changed compared to the non-MAX model. At least on paper.

Incidentally, the company offers no less than three variants of DG1-based cards, all of which are listed on Taobao, with prices rising all the time. This ranges from the cheapest low-profile card for plenty of 90 USD and the Index V2 with the Xe chip for just over 100 USD to the Xe Max “top model” for over 110 USD by now.

The drivers

I dedicate a separate paragraph on the first page to the drivers on purpose. If you have implemented the microcode correctly, even Intel’s driver wizard recognizes the card and selects / installs the currently best driver. In our case, even a brand-new DCH driver from March 03 (see also GPU-Z next page).

The installation is rather unspectacular, but I have also documented here for the curious how the setup of the new drivers might turn out later, namely like this:

The gpu is, well, a bit bitchy, but that’s because of the drivers, as the UHD 770 showed very similar behavior. Due to these crashes, the decision to temporarily remove Metro Exodus from the benchmark suite because of the Ukraine war was also much easier for me. Far Cry 6 only ran with extreme graphics errors (on all Intel solutions) and Vulkan cannot be activated in WWZ. That’s why I tested this game with DirectX 11. But there were still enough games left that were running. Not to mention it again later: the edge flickering is really extreme in places, Intel still has to work hard on the drivers. This also applies to transparent textures, where ugly misrepresentations occurred again and again.

Except for these criticisms, I didn’t even really get stuck in the games that were running, at least. There were no crashes during the game, despite many runs. At least that’s a start.

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,874 Kommentare 868 Likes

NICE
Da kann jetzt Jeder mal für sich spekulieren und fazitieren, wie es mit DG2 wird.
Man findet leider net so viel GTX 1050 vs GTX 1650, ... die 1050 etwas schwächer!?

... da bin ich mal gespannt wie die kleine A380 mit 75W so wird (die A780 kommt evtl. erst später, oder gibts da News?)
Ob tatsächlich Faktor 4 vs GUNNIR rauskommt, wäre dann echt ne gute Architektur und viel 6nm-Advantage bzgl. Takt+Effizienz erforderlich.

Antwort 1 Like

Tim Kutzner

Moderator

817 Kommentare 662 Likes

Irgendwo liest gerade jemand von Intel mit und fragt sich, was zum Teufel Igor da schon wieder gemacht hat :D

Antwort 9 Likes

Tim Kutzner

Moderator

817 Kommentare 662 Likes

Meiner Erfahrung nach hat die GTX 1650 meistens die Nase vorne

Antwort Gefällt mir

RX480

Urgestein

1,874 Kommentare 868 Likes

Das ist ja net weiter schlimm, ein paar einstellige Prozent sind gar net entscheidend.
(Es muss eh idealerweise 400% bei A380 erreicht werden oder wenigstens 300% für 6400-Perf)

Die Wundertüte im Fazit ist für mich, das Igor annimmt, das beim A780 die beiden Chiphälften problemlos ohne Verluste/Latenzen
zusammenarbeiten. Das wird auf jeden Fall spannend, wie gut der Chipinterconnect funzt.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Wie gesagt kann man das nicht wirklich vergleichen oder hochrechnen. Die DG1 basiert auf der alten Xe LP Architektur, während DG2 auf der neuen Xe HPG Architektur basiert. Die Xe HPG ist eine fundamentale Überarbeitung von Xe LP mit mehr Features (Raytracing, DX12 Ultimate usw.), mehr IPC, größerer Taktskalierbarkeit und eben auch einer deutlich gestiegenen perf/w - Intel spricht hier von einer 50% gestiegenen Perf/w, siehe Vorstellung:

Aber wieso Faktor 4, wegen den 75W? GDDR6 ist nicht so sparsam wie LPDDR4x. Mehr als 50W dürfte die GPU einer A380 eigentlich nicht verbrauchen.

Zu erwähnen wäre noch, dass die DG1 in Intel 10SF gefertigt wird, während ADL-S komplett in 10ESF gefertigt wird. Intel spricht von einer 10-15% gesteigerten perf/w von 10ESF (das neue 7). Das ist also kein 1:1 Vergleich.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Das ist genügend Cache drin. Das einzige echte Problem, das ich sehe, sind die besch...enen Treiber.

Das mit dem kaputten 10nm Node steht im Artikel, die können mit TSMC nur gewinnen. Die UHD habe ich eigentlich mitlaufen lassen, um das Treiberverhalten zu verifizieren. Nicht, dass die DG1 eine Sonderrolle spielt.

Allerdings sind Rajas Einlassungen bisher immer etwas... nun ja, etwas AgitProp und haben oft daneben gelegen. Ich glaube nur, was ich selbst sehe

Antwort 3 Likes

Y
Yoshi

Mitglied

28 Kommentare 11 Likes

@Igor Wallossek
Besteht die Möglichkeit, einen Vergleich unter Linux anzustellen? Vll reicht ja ein Vulkan-Titel aus, um sich dort einen groben Überblick über die Treiber zu verschaffen. Fände es schon spannend, ob die Linux-Treiber besser sind.

Vll könntest du Michael Larabel von phoronix.com auch Zugang zu dem System gewähren? Da kämen sicher einige sehr spannende Ergebnisse raus. :-)

Abseits davon: gute Arbeit, ist ja schon recht exklusiv, was du da fabriziert hast. Finde solche "exotischen" Sachen immer spannend zu lesen.

Antwort 2 Likes

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Bisher hat mich niemand gefagt. Er kann mir gern ein Image schicken, ich zimmere das drauf und lasse ihn remote arbeiten. Ich habe 1000/500 Glasfaser, sollte reichen.

Antwort 2 Likes

RX480

Urgestein

1,874 Kommentare 868 Likes

75W/30W x 1,5 = 3,75

50W ist optimistisch, würde dann evtl. nur für 6400-Niveau reichen

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Die werden das 66 Watt Limit des PCIe sicher voll ausnutzen. :D

Antwort 1 Like

Y
Yoshi

Mitglied

28 Kommentare 11 Likes

Ich hab den Link mal weitergeleitet, vielleicht meldet er sich. :)

Antwort 1 Like

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Gern :)

Dann lasse ich das erst mal so stehen.

Antwort 1 Like

R
Rooter

Mitglied

55 Kommentare 8 Likes

Die Vorstellung kommt von David Blythe, das ist der Chefarchitect.

Übrigens hat Intel heute einen neuen Treiber rausgebracht: https://www.intel.com/content/www/us/en/download/19344/intel-graphics-windows-dch-drivers.html

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Notebook-Crap. Die Fehler sind immer noch da.

Raja wird den Kopf hinhalten müssen. So, oder so. Mit Arc steht und fällt wohl auch er. Oder man findet noch ein warmes Plätzchen für ihn...
Ich sehe kaum AAA Titel, die optisch wirklich einwandfrei laufen. Es ist wohl am Ende auch eine Treiber-Schlacht.

Mal aus Gründen ohne exakte Quellenangabe:

Antwort 1 Like

RX480

Urgestein

1,874 Kommentare 868 Likes

Er könnte sich doch mal ne Lederjacke kaufen.
und
Dort ein bisschen schlechtes gutes Karma verbreiten.
(dann wären alle 3 durch)

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Lederjacken sind nicht woke. Kommt gleich nach Pelz :D

Antwort 1 Like

FfFCMAD

Urgestein

670 Kommentare 174 Likes

Ich bin gespannt. Auch wenns mit ziemlicher Sicherheit eine 4090 bei mir werden wird, freue ich mich, wenn Intel Druck machen kann.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Glaube ich nicht, der sitzt zu fest im Sattel und Battlemage kommt auch noch. Wenn die Architektur passt, also perf/w vor allem, dann wäre das schon was. Falls die DG2-128 vorher rauskommt, werde ich mir so eine vielleicht holen.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,813 Likes

Dachte man bei AMD auch und dann hat Lisa die gesamte RTG einfach rausgekickt.
Ganz so freiwillig ist Raja samt Entourage nicht zu Intel geflüchtet ;)
Und die meisten derer sind inzwischen auch schon wieder woanders.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung