GUNNIR Iris Xe MAX Index V2 – Intels DG1 als Retail-Karte im Test samt Benchmarks, Detailanalysen und Teardown

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
So, endlich ist es soweit und ich kann Euch heute ausführliche Benchmarks mit der GUNNIR Iris Xe MAX Index V2 – Intels DG1 zeigen, die einen ersten Vorgeschmack auf Intels ARC Alchemist-Serie bieten können, die jedoch auf der neueren DG2-GPU-Familie basiert. Diese ist jedoch noch nicht auf dem Markt, so dass diese erste frei verfügbare (read full article...)
 
NICE
Da kann jetzt Jeder mal für sich spekulieren und fazitieren, wie es mit DG2 wird.
Man findet leider net so viel GTX 1050 vs GTX 1650, ... die 1050 etwas schwächer!?

... da bin ich mal gespannt wie die kleine A380 mit 75W so wird (die A780 kommt evtl. erst später, oder gibts da News?)
Ob tatsächlich Faktor 4 vs GUNNIR rauskommt, wäre dann echt ne gute Architektur und viel 6nm-Advantage bzgl. Takt+Effizienz erforderlich.
 

Anhänge

Zuletzt bearbeitet :
NICE
Da kann jetzt Jeder mal für sich spekulieren und fazitieren, wie es mit DG2 wird.
Man findet leider net so viel GTX 1050 vs GTX 1650, ... die 1050 etwas schwächer!?

... da bin ich mal gespannt wie die kleine A380 mit 75W so wird (die A780 kommt evtl. erst später, oder gibts da News?)

Meiner Erfahrung nach hat die GTX 1650 meistens die Nase vorne
 
Das ist ja net weiter schlimm, ein paar einstellige Prozent sind gar net entscheidend.
(Es muss eh idealerweise 400% bei A380 erreicht werden oder wenigstens 300% für 6400-Perf)

Die Wundertüte im Fazit ist für mich, das Igor annimmt, das beim A780 die beiden Chiphälften problemlos ohne Verluste/Latenzen
zusammenarbeiten. Das wird auf jeden Fall spannend, wie gut der Chipinterconnect funzt.
 
Zuletzt bearbeitet :
NICE
Da kann jetzt Jeder mal für sich spekulieren und fazitieren, wie es mit DG2 wird.
Man findet leider net so viel GTX 1050 vs GTX 1650, ... die 1050 etwas schwächer!?

... da bin ich mal gespannt wie die kleine A380 mit 75W so wird (die A780 kommt evtl. erst später, oder gibts da News?)
Ob tatsächlich Faktor 4 vs GUNNIR rauskommt, wäre dann echt ne gute Architektur und viel 6nm-Advantage bzgl. Takt+Effizienz erforderlich.


Wie gesagt kann man das nicht wirklich vergleichen oder hochrechnen. Die DG1 basiert auf der alten Xe LP Architektur, während DG2 auf der neuen Xe HPG Architektur basiert. Die Xe HPG ist eine fundamentale Überarbeitung von Xe LP mit mehr Features (Raytracing, DX12 Ultimate usw.), mehr IPC, größerer Taktskalierbarkeit und eben auch einer deutlich gestiegenen perf/w - Intel spricht hier von einer 50% gestiegenen Perf/w, siehe Vorstellung:

Aber wieso Faktor 4, wegen den 75W? GDDR6 ist nicht so sparsam wie LPDDR4x. Mehr als 50W dürfte die GPU einer A380 eigentlich nicht verbrauchen.

Damit läge die kleine Intel-Karte in etwa auf dem Level der im Core i9-12900K integrierten UHD, die mit rund 18 Watt am Gesamtverbrauch der CPU beteiligt ist. Somit hätten wir eine sehr ähnliche Leistungsaufnahme, aber je nach Spiel und Auflösung eine bis zu doppelt so hohe Performance

Zu erwähnen wäre noch, dass die DG1 in Intel 10SF gefertigt wird, während ADL-S komplett in 10ESF gefertigt wird. Intel spricht von einer 10-15% gesteigerten perf/w von 10ESF (das neue 7). Das ist also kein 1:1 Vergleich.
 
Das ist genügend Cache drin. Das einzige echte Problem, das ich sehe, sind die besch...enen Treiber.

Das mit dem kaputten 10nm Node steht im Artikel, die können mit TSMC nur gewinnen. Die UHD habe ich eigentlich mitlaufen lassen, um das Treiberverhalten zu verifizieren. Nicht, dass die DG1 eine Sonderrolle spielt.

Allerdings sind Rajas Einlassungen bisher immer etwas... nun ja, etwas AgitProp und haben oft daneben gelegen. Ich glaube nur, was ich selbst sehe
 
@Igor Wallossek
Besteht die Möglichkeit, einen Vergleich unter Linux anzustellen? Vll reicht ja ein Vulkan-Titel aus, um sich dort einen groben Überblick über die Treiber zu verschaffen. Fände es schon spannend, ob die Linux-Treiber besser sind.

Vll könntest du Michael Larabel von phoronix.com auch Zugang zu dem System gewähren? Da kämen sicher einige sehr spannende Ergebnisse raus. :)

Abseits davon: gute Arbeit, ist ja schon recht exklusiv, was du da fabriziert hast. Finde solche "exotischen" Sachen immer spannend zu lesen.
 
Vll könntest du Michael Larabel von phoronix.com auch Zugang zu dem System gewähren? Da kämen sicher einige sehr spannende Ergebnisse raus. :)
Bisher hat mich niemand gefagt. Er kann mir gern ein Image schicken, ich zimmere das drauf und lasse ihn remote arbeiten. Ich habe 1000/500 Glasfaser, sollte reichen.
 
... einer deutlich gestiegenen perf/w - Intel spricht hier von einer 50% gestiegenen Perf/w

Aber wieso Faktor 4, wegen den 75W? GDDR6 ist nicht so sparsam wie LPDDR4x. Mehr als 50W dürfte die GPU einer A380 eigentlich nicht verbrauchen.
75W/30W x 1,5 = 3,75

50W ist optimistisch, würde dann evtl. nur für 6400-Niveau reichen
 
Die werden das 66 Watt Limit des PCIe sicher voll ausnutzen. :D
 
Gern :)

Dann lasse ich das erst mal so stehen.
 
Das ist genügend Cache drin. Das einzige echte Problem, das ich sehe, sind die besch...enen Treiber.

Das mit dem kaputten 10nm Node steht im Artikel, die können mit TSMC nur gewinnen. Die UHD habe ich eigentlich mitlaufen lassen, um das Treiberverhalten zu verifizieren. Nicht, dass die DG1 eine Sonderrolle spielt.

Allerdings sind Rajas Einlassungen bisher immer etwas... nun ja, etwas AgitProp und haben oft daneben gelegen. Ich glaube nur, was ich selbst sehe


Die Vorstellung kommt von David Blythe, das ist der Chefarchitect.

Übrigens hat Intel heute einen neuen Treiber rausgebracht: https://www.intel.com/content/www/us/en/download/19344/intel-graphics-windows-dch-drivers.html
 
Notebook-Crap. Die Fehler sind immer noch da.

Raja wird den Kopf hinhalten müssen. So, oder so. Mit Arc steht und fällt wohl auch er. Oder man findet noch ein warmes Plätzchen für ihn...
Ich sehe kaum AAA Titel, die optisch wirklich einwandfrei laufen. Es ist wohl am Ende auch eine Treiber-Schlacht.

Mal aus Gründen ohne exakte Quellenangabe:
...but they are constantly pushing out the release for SKU1-3 apparently due to SW validation...
...I'm still waiting for DG2 but Intel is pushing the date out further...
 
Er könnte sich doch mal ne Lederjacke kaufen.
und
Dort ein bisschen schlechtes gutes Karma verbreiten.
(dann wären alle 3 durch)
 
Lederjacken sind nicht woke. Kommt gleich nach Pelz :D
 
Ich bin gespannt. Auch wenns mit ziemlicher Sicherheit eine 4090 bei mir werden wird, freue ich mich, wenn Intel Druck machen kann.
 
Notebook-Crap. Die Fehler sind immer noch da.

Raja wird den Kopf hinhalten müssen. So, oder so. Mit Arc steht und fällt wohl auch er. Oder man findet noch ein warmes Plätzchen für ihn...
Ich sehe kaum AAA Titel, die optisch wirklich einwandfrei laufen. Es ist wohl am Ende auch eine Treiber-Schlacht.

Mal aus Gründen ohne exakte Quellenangabe:


Glaube ich nicht, der sitzt zu fest im Sattel und Battlemage kommt auch noch. Wenn die Architektur passt, also perf/w vor allem, dann wäre das schon was. Falls die DG2-128 vorher rauskommt, werde ich mir so eine vielleicht holen.
 
Glaube ich nicht, der sitzt zu fest im Sattel
Dachte man bei AMD auch und dann hat Lisa die gesamte RTG einfach rausgekickt.
Ganz so freiwillig ist Raja samt Entourage nicht zu Intel geflüchtet ;)
Und die meisten derer sind inzwischen auch schon wieder woanders.
 
Oben Unten