Grafikkarten Testberichte VGA

Satz mit X(e) – DG1 samt Intel Iris Xe MAX Graphics im exklusiven Teardown und mit massiven Treiberproblemen bei den Benchmarks | Leak

Vorfreude ist die schönste Freude – sagt man zumindest. Auch wenn Intels DG1 von Anfang an als Einstiegskarte konzipiert und auch als solche beworben wurde, ein Mindestmaß an Features und Funktionalität kann man natürlich auch von so einem Zwerg erwarten. Vieles lässt sich gut nach oben skalieren, solange die Testkandidaten gut zu testen sind. Ich habe über einen guten Bekannten nun exklusiv die Möglichkeit gehabt, eines der wenigen Gesamtkunstwerke zumindest auf Zuruf und aus der Ferne zu analysieren, den Teardown zu wagen und Benchmarks zu versuchen. Torx works.

Wichtige Vorbemerkung

Da die mit dem Smartphone erzeugten Bilder dann bei näherer Betrachtung doch nicht ganz so smart aussahen, wie man es von meiner Webseite sonst eigentlich erwartet, habe ich die Bilder alle zunächst noch einmal etwas nachbearbeitet und vor allem die Kanten etwas entzerrt. Nur falls sich jemand wundert. Die Karte existiert wirklich und auch die Bilder sind alles Originale. Die Tests sind frisch, also von gestern, was auch das Datum in den Screenshots zeigt.

Mit der DG1 (Desktop Graphics 1) will Intel zunächst den massenkompatiblen Einsteigerbereich bedienen, was durch zum Sammeln von wertvollen Erfahrungen dienen kann. Man Nennt das Ganze dann Iris Xe MAX (Notebook) oder einfach auch nur Iris Xe (Desktop). Da diese Karte nicht einzeln verkauft werden wird, sondern für SI (Systemintegratoren) und OEMs gedacht ist, sind auch bei der kompatiblen Hardware gewisse Limits vorprogrammiert und sogar so gewollt. Genau deshalb schrieb ich ja auch oben “Gesamtkunstwerk”, denn die getestete Karte wurde in einem kompletten OEM-PC geliefert (und nur darin auch getestet).

Hier beginnt dann auch die Irrfahrt des interessierten Testers, denn diese DG1 läuft nur auf speziellen Motherboards mit Grafikausgang und mit wenigen, dafür ausgesuchten Intel-CPUs, die allesamt eine iGP besitzen müssen und nicht zum Übertakten geeignet ist. Damit verhindert man natürlich auch, dass einzelne, vorab verteilte DG1-Karten außerhalb des vorgesehenen Intel-Mikrokosmos getestet werden. Ich will noch nichts spoilern, aber auch das rettet die DG1 SDV (Software Development Vehicle) nicht. 

Technische Daten, Temperaturen und Leistungsaufnahme

Interessanterweise ist die originale DG1 SDV von Intel der Mobile-Vollausbau mit 90 EU (Execution Units) und sie meldet sich auch in jedem der Programme dann brav als Intel Iris Xe MAX. Hergestellt wird der DirectX-12-Chip in Intels eigenem 10-nm-Super-Fin-Verfahren, das durchaus wettbewerbsfähig ist, denn die Zahlen der Nonenklatur sagen erst einmal nicht viel aus. In der hier getesteten Karte ergeben sich aus den 96 EU somit 768 FP32-Alus (“Shader”). Das ist sogar noch etwas mehr, als man für die auf 80 EU (640 ALUs) “beschnittene” Iris Xe eingeplant hat, die von Anbietern wie Asus gebaut werden soll.

Insgesamt 8 GB LPDDR4 SDRAM mit 2133 MHz hängen an dem 128-Bit Speicherinterface und zumindest unterstützt man PCIe 4.0, wenn auch nur 8-fach angebunden. Auch das unterstreicht noch einmal die Herkunft aus dem Mobile-Sektor. Die OEM-Karten der Boardpartner werden wohl sogar mit nur 4 GB auskommen müssen. Schauen wir uns einmal die Daten aus dem Idle-Betrieb an. Bei niedrigen 600 MHz Taktrate  liegt die Leistungsaufnahme des Chips (nicht der ganzen Karte!) bei knapp 4 Watt und die 850 U/min des Einzellüfters reichen für 30 °C GPU-Temperatur im Idle.

Mit Hilfe einer einfachen GPGPU-Anwendung konnte 100%-GPU-Last erzeugt werden. Die üblichen Stresstest-Programme streiken jedoch treiberbedingt (dazu komme ich gleich noch). Der Takt liegt nun bei 1550 MHz, mehr konnte auch bei Teillasten nie erreicht werden. Damit liegt die echte DG1 immerhin 100 MHz unter dem, was man im Vorfeld für den Mobil-Bereich angenommen hatte. Es bleibt zu vermuten, dass auch die Ableger von Asus oder Colorful nicht deutlich höher takten werden. Reichlich 20 Watt für die GPU only, sollten dann um die 27 bis 30 Watt für die gesamte Karte ergeben, denn auch der Lüfter hängt mit seinen bis zu 1800 U/min an der elektrischen Nabelschnur. 50 °C zeigen von einer eher aggressiven Lüfterkurve und dem Misstrauen, dass die Karte dann doch zu heiß werden könnte.

Die Speichertemperaturen lassen sich nicht direkt auslesen, werden aber zumindest intern wohl überwacht, denn so richtig gekühlt werden die vier 2-GB-Module von Micron nämlich nicht. Womit wir quasi beim Teardown angekommen wären. Das Testsystem muss ich aus Gründen des Quellenschutzes natürlich überall auspixeln, denn Intel wird kaum erfreut sein, wenn jemand Dritte wie mich mit Informationen füttert. Die Spuren verraten den Täter und so muss es reichen, wenn ich erwähne, dass es ein Core i7 Nicht-K-Modell auf einem Z390 mini-ITX Board war.

Lade neue Kommentare

konkretor

Veteran

128 Kommentare 94 Likes

Also Igor ich nehme sie von dir als Geschenk, tolle Sammlerkarte die I740 muss endlich abgelöst werden :cool:

Die haben wohl Angst das es in einem AMD System besser performt wie im Intel System? Hoffentlich räumt Pat mal bei Intel ordentlich auf.

Dachte wir bekommen in 2021 einen dritten Spieler im Graka Markt. Kannst knicken :-(

Antwort Gefällt mir

trader22

Mitglied

44 Kommentare 4 Likes

Intel soll doch in der Vergangenheit bereits keine brauchbaren Graka-Treiber hinbekommen haben.
Diese Strategie verfolgt Intel demnach konsequent weiter. Peinlich.

Antwort 1 Like

Derfnam

Urgestein

6,022 Kommentare 1,350 Likes

Mit in den Wahnsinn-Treibern? Dös is xe :)

Antwort Gefällt mir

g
genervt

Mitglied

23 Kommentare 2 Likes

Das lässt in der Tat schlimmes erahnen, wenn das jetzt noch nicht besser läuft. Ich hoffe trotzdem, dass Intel die Kurve kriegt und aus dem Duopol wenigstens im unteren Preissegment einen Markt macht.

Leider findet die Sub 300€ Preiskategorie derzeit gar nicht mehr statt.

Antwort Gefällt mir

D
Deridex

Urgestein

1,658 Kommentare 482 Likes

Ich hatte gehofft, das Igor meine Vorbehalte gegenüber der Kombination der Wörter "Intel" und "Grafiktreiber" nicht bestätigt. Schade...😞

Antwort Gefällt mir

Pirate85

Veteran

117 Kommentare 48 Likes

Hm, irgendwie scheint man das ganze bei Intel nicht ganz so ernst zu nehmen... Ich hoffe Raja hat sich da nicht vergaloppiert als er den Job annahm.

Antwort 1 Like

M
McFly_76

Veteran

317 Kommentare 82 Likes

Das habe ich mir auch gedacht :D
Raja Koduri kam zu Intel ( auf die Titanic ) und wird nach getaner Arbeit das sinkende Schiff wieder verlassen.
Die Überordnete betriebliche Hierarchie des Unternehmen nimmt den Ernst der Lage deshalb nicht wahr, weil das Gehalt stimmt.

Woraus besteht eine INTEL Ponte Vecchio Xe HPC GPU ( Nebelkerze ) ? :devilish:

  • Intel 7 nm process
  • TSMC 7 nm process
  • Foveros 3D packaging
  • Embedded multi-die interconnect bridge (EMIB)
  • Intel 10 nm Enhanced SuperFin process
  • Rambo Cache
  • HBM2 VRAM

Antwort Gefällt mir

Klicke zum Ausklappem
v
vonXanten

Veteran

419 Kommentare 112 Likes

Also geschenkt würd ich die schon nehmen, hat ja einen Seltenheitswert ;)

Leider scheint Intel die Tradition mit schlechten Grafiktreibern mit Herzblut fortzusetzen...

Also im Moment hört sich das nach kann fast nur noch besser werden an.

Antwort Gefällt mir

Alkbert

Veteran

488 Kommentare 238 Likes

Das kann Intel aber nicht ernst meinen ? Es entsteht der Eindruck, dass da ein paar Ingenieure in der Mittagspause eine Alternativbeschäftigung zum Tischfußball im Pausenraum gesucht haben. Es ist ja m.E. durchaus Luft im Bereich um 100-200 Euro, denn dafür interessieren sich ganz offensichtlich weder Nvidia noch AMD. Aber den Anspruch, eine halbwegs leistungsfähige Karte, ggf. auch durch Zusammenzimmern mehrerer Xe GPU zu fertigen war ja wohl nix. Denn schneller als die Summe seiner Teile kann das dann auch nicht sein und dann kann ich im "Office" Bereich und jenseits der zunehmend leistungsfähiger werdenden iGPU´s auch bei meinen 1050 Ti bleiben.

Antwort Gefällt mir

P
Postguru

Mitglied

21 Kommentare 0 Likes

Hihi ich glaube die von Intel sind mit ihrem Latein am Ende .. vielleicht dachten sie sich ... Schmeiß mal paar Systeme raus und sehen mal was passiert .. ggf findes sich ein Inteligentes Wesen und den Testern die das Teil auf irgend eine Art und Weise zu laufen bekommen ...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung