Grafikkarten Testberichte VGA

GUNNIR Iris Xe MAX Index V2 – Intels DG1 als Retail-Karte im Test samt Benchmarks, Detailanalysen und Teardown

Unboxing

Man packt ja selten ein echtes Einhorn aus, also lasse ich mir für das erste Mal auch etwas mehr Zeit und spendiere Euch die Bilderstrecke zum Vorgang. Die Verpackung ist schlicht, zweckmäßig und ohne echten Hingucker. Das bekannte Intel-Blau dominiert, der Rest ist auffällig unauffällig. Man erhält neben der in Antistatik-Folie verpackten Karte ein dünnes Heftchen und etwas asiatische Luft. Mehr gibts nicht für die reichlich 110 Euro. Nur braucht man ja auch nicht mehr.

Die Karte ist generell schlicht gehalten, mit einer Länge von 15,7 cm ist diese Karte ein echter ITX-Kampfzwerg und die Höhe beträgt die üblichen 10,5 cm ab der Oberkante des Motherboard-Slots bis zur Oberkante der Gehäuseabdeckung. Diese Abdeckung besteht aus simplem ABS-Spritzguss in Schwarz mit Klavierlack-ähnlichen Flächen und dem Index-Schriftzug. Gekühlt wird alles mit einem 8-cm-Lüfter und 9 Rotorblättern. Das Ganze wiegt mit 374 Gramm auch nicht wirklich viel.

Wie sehen es der Oberseite schon an: es gibt keinen separaten Spannungsversorgungsanschluss. Den braucht man auch nicht, aber dazu später mehr im Kapitel Leistungsaufnahme. Der MAX-Schriftzug in Blau deutet auf die Chip-Version und die sichtbare Fläche des Alu-Kühlers trägt als clever eingesetztes Metall-Element noch einmal den Index-Schriftzug. RGB gibt es übrigens auch nicht gegen Aufpreis, danke dafür.

 

Die Slotblende zeigt uns, dass es sich mit den gemessenen 3,3 cm um eine echte Dual-Slot-Karte handelt, wobei man bei Gunnir auf ein Single-Slot-Bracket setzt und den Rest des Luftauslasses dem Shroud überlässt. Da man mit dem Display-Port 1.4, dem HDMI 2.1 und einem DVI-Anschluss nur 3 Buchsen unterbringen muss, reicht das völlig aus.

Die Rückseite zeigt auch noch einmal den Kühler samt Überhang an der Oberseite. Gunnir verwendet simples Strang-Alu anstelle eines teureren Lamellenkühlers mit Heatpipe und Heatsink. Bei dieser niedrigen Verlustleistung kann man das durchaus machen. Warum auch nicht? Reicht völlig aus.

Zur Bestätigung der technischen Daten habe ich auch noch den obligatorischen GPU-Z Screen-Shot zur Hand, der auch Resizeable BAR bestätigt. Die 1650 MHz werden unter Last nicht immer erreicht, aber dazu später mehr. Ray Tracing gibt es nicht, aber das wussten wir ja auch schon vorher. Die Anbindung erfolgt über 8 Lanes und PCIe 4.0, was für so eine kleine Grafikkarte auch völlig ausreichend ist.

Damit hätte ich das Auspacken auch abgehandelt, aber auch das Schlachtfest muss natürlich sein. Deshalb gibt es auf der nächsten Seiten den Teardown und dann erst die Benchmarks. Wobei ich diese natürlich als Erstes gemacht habe, sicher ist sicher.

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,803 Kommentare 820 Likes

NICE
Da kann jetzt Jeder mal für sich spekulieren und fazitieren, wie es mit DG2 wird.
Man findet leider net so viel GTX 1050 vs GTX 1650, ... die 1050 etwas schwächer!?

... da bin ich mal gespannt wie die kleine A380 mit 75W so wird (die A780 kommt evtl. erst später, oder gibts da News?)
Ob tatsächlich Faktor 4 vs GUNNIR rauskommt, wäre dann echt ne gute Architektur und viel 6nm-Advantage bzgl. Takt+Effizienz erforderlich.

Antwort 1 Like

Tim Kutzner

Moderator

799 Kommentare 641 Likes

Irgendwo liest gerade jemand von Intel mit und fragt sich, was zum Teufel Igor da schon wieder gemacht hat :D

Antwort 9 Likes

Tim Kutzner

Moderator

799 Kommentare 641 Likes

Meiner Erfahrung nach hat die GTX 1650 meistens die Nase vorne

Antwort Gefällt mir

RX480

Urgestein

1,803 Kommentare 820 Likes

Das ist ja net weiter schlimm, ein paar einstellige Prozent sind gar net entscheidend.
(Es muss eh idealerweise 400% bei A380 erreicht werden oder wenigstens 300% für 6400-Perf)

Die Wundertüte im Fazit ist für mich, das Igor annimmt, das beim A780 die beiden Chiphälften problemlos ohne Verluste/Latenzen
zusammenarbeiten. Das wird auf jeden Fall spannend, wie gut der Chipinterconnect funzt.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Wie gesagt kann man das nicht wirklich vergleichen oder hochrechnen. Die DG1 basiert auf der alten Xe LP Architektur, während DG2 auf der neuen Xe HPG Architektur basiert. Die Xe HPG ist eine fundamentale Überarbeitung von Xe LP mit mehr Features (Raytracing, DX12 Ultimate usw.), mehr IPC, größerer Taktskalierbarkeit und eben auch einer deutlich gestiegenen perf/w - Intel spricht hier von einer 50% gestiegenen Perf/w, siehe Vorstellung:

Aber wieso Faktor 4, wegen den 75W? GDDR6 ist nicht so sparsam wie LPDDR4x. Mehr als 50W dürfte die GPU einer A380 eigentlich nicht verbrauchen.

Zu erwähnen wäre noch, dass die DG1 in Intel 10SF gefertigt wird, während ADL-S komplett in 10ESF gefertigt wird. Intel spricht von einer 10-15% gesteigerten perf/w von 10ESF (das neue 7). Das ist also kein 1:1 Vergleich.

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Das ist genügend Cache drin. Das einzige echte Problem, das ich sehe, sind die besch...enen Treiber.

Das mit dem kaputten 10nm Node steht im Artikel, die können mit TSMC nur gewinnen. Die UHD habe ich eigentlich mitlaufen lassen, um das Treiberverhalten zu verifizieren. Nicht, dass die DG1 eine Sonderrolle spielt.

Allerdings sind Rajas Einlassungen bisher immer etwas... nun ja, etwas AgitProp und haben oft daneben gelegen. Ich glaube nur, was ich selbst sehe

Antwort 3 Likes

Y
Yoshi

Mitglied

28 Kommentare 11 Likes

@Igor Wallossek
Besteht die Möglichkeit, einen Vergleich unter Linux anzustellen? Vll reicht ja ein Vulkan-Titel aus, um sich dort einen groben Überblick über die Treiber zu verschaffen. Fände es schon spannend, ob die Linux-Treiber besser sind.

Vll könntest du Michael Larabel von phoronix.com auch Zugang zu dem System gewähren? Da kämen sicher einige sehr spannende Ergebnisse raus. :-)

Abseits davon: gute Arbeit, ist ja schon recht exklusiv, was du da fabriziert hast. Finde solche "exotischen" Sachen immer spannend zu lesen.

Antwort 2 Likes

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Bisher hat mich niemand gefagt. Er kann mir gern ein Image schicken, ich zimmere das drauf und lasse ihn remote arbeiten. Ich habe 1000/500 Glasfaser, sollte reichen.

Antwort 2 Likes

RX480

Urgestein

1,803 Kommentare 820 Likes

75W/30W x 1,5 = 3,75

50W ist optimistisch, würde dann evtl. nur für 6400-Niveau reichen

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Die werden das 66 Watt Limit des PCIe sicher voll ausnutzen. :D

Antwort 1 Like

Y
Yoshi

Mitglied

28 Kommentare 11 Likes

Ich hab den Link mal weitergeleitet, vielleicht meldet er sich. :)

Antwort 1 Like

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Gern :)

Dann lasse ich das erst mal so stehen.

Antwort 1 Like

R
Rooter

Mitglied

55 Kommentare 8 Likes

Die Vorstellung kommt von David Blythe, das ist der Chefarchitect.

Übrigens hat Intel heute einen neuen Treiber rausgebracht: https://www.intel.com/content/www/us/en/download/19344/intel-graphics-windows-dch-drivers.html

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Notebook-Crap. Die Fehler sind immer noch da.

Raja wird den Kopf hinhalten müssen. So, oder so. Mit Arc steht und fällt wohl auch er. Oder man findet noch ein warmes Plätzchen für ihn...
Ich sehe kaum AAA Titel, die optisch wirklich einwandfrei laufen. Es ist wohl am Ende auch eine Treiber-Schlacht.

Mal aus Gründen ohne exakte Quellenangabe:

Antwort 1 Like

RX480

Urgestein

1,803 Kommentare 820 Likes

Er könnte sich doch mal ne Lederjacke kaufen.
und
Dort ein bisschen schlechtes gutes Karma verbreiten.
(dann wären alle 3 durch)

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Lederjacken sind nicht woke. Kommt gleich nach Pelz :D

Antwort 1 Like

FfFCMAD

Urgestein

663 Kommentare 170 Likes

Ich bin gespannt. Auch wenns mit ziemlicher Sicherheit eine 4090 bei mir werden wird, freue ich mich, wenn Intel Druck machen kann.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Glaube ich nicht, der sitzt zu fest im Sattel und Battlemage kommt auch noch. Wenn die Architektur passt, also perf/w vor allem, dann wäre das schon was. Falls die DG2-128 vorher rauskommt, werde ich mir so eine vielleicht holen.

Antwort Gefällt mir

Igor Wallossek

1

10,107 Kommentare 18,597 Likes

Dachte man bei AMD auch und dann hat Lisa die gesamte RTG einfach rausgekickt.
Ganz so freiwillig ist Raja samt Entourage nicht zu Intel geflüchtet ;)
Und die meisten derer sind inzwischen auch schon wieder woanders.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung