GPUs Graphics Reviews

Intel Arc A380 6GB Review: Gunnir Photon including benchmarks, detailed analysis and extensive teardown

Performance summary

Even though I have already drawn fairly clear conclusions on the previous pages, I would like to briefly summarize what has been shown and described so far. Unfortunately, driver and certainly firmware as well as architecture problems still cause this card a lot of trouble. This also applies to the workstation and CAD applications, where the Arc A380 even performed acceptably in some places, but had to accept bitter performance losses in other applications or ran unstably and even crashed. Such wonky beta drivers are not suitable for productive use and I can only advise against using this card in sensitive areas where stability and accuracy are also important.

Do we now come to gaming, as it is advertised as a gaming card. Thus, the non-overclocked card is almost 12 percentage points behind the Radeon RX 6400, which cannot be overclocked at all, in 720p gaming. An Arc A380 overclocked to its technical limits is still almost 5 percentage points slower here. The driver overhead is certainly to blame here, which naturally leads to a certain bottleneck.

In Full-HD, at least the overclocked Arc A380 can get ahead of the Radeon RX 6400, even though 1.6 percentage points are almost nothing. It’s already 4.5 percentage points to the non-overclocked Arc A380, while the Radeon RX 6400 is almost 3 percentage points ahead of the Arc A380. Without overclocking, the Intel card would also be slower than the small AMD card here, which is really shameful when we look at the P1 in a moment.

The so-called P1 (1% of the slowest FPS) replaces the Min FPS and here Intel’s Arc A380 in 720p almost gets a humiliation. The Radeon RX 6400 is a full 27.3 (!) percent ahead of the non-overclocked Arc A380 and 22 percentage points ahead of the overclocked variant, which again points to real driver problems. If you use a significantly slower Core i5-12400 instead of the Core i9-12900K, the dilemma even gets drastically worse in the P1, even later in Full HD.

In Full HD, this effect is blown away, at least with the fast Core i9-12900K, and the Radeon RX 6400 is only about 5 percentage points ahead of the Arc A380 and practically on par with its heavily overclocked variant.

Power consumption in gaming

As long as the CPU is limited in 720p, the Arc A380 is plenty 17 watts above the Radeon RX 6400, in overclocked state it is almost 20 watts. Of course, these are average values and in some games it is already 80 watts with the Arc A380 and even 83 watts with OC. By then, the gap is already huge.

Even in Full-HD, the Arc A380 is almost 25 or even almost 27 watts higher than the Radeon RX 6400 with OC. That is over 52 percentage points more for an only identical overall performance and a worse picture quality in some games.

This is also reflected in the efficiency rate, where it even falls behind the age-old GeForce GTX 1650, which was already inflated by NVIDIA ex-factory. But it is now 2022 and energy is slowly becoming a luxury good.

Conclusion

I had hoped that my conclusion would be a bit more positive, because NVIDIA and also AMD currently act as a profitable duopoly in dedicated GPUs and a change would do the market more than good. Even if Intel still claims the market leadership especially in laptops due to its integrated GPUs, it was actually a logical consequence to finally get back into the mix properly in discrete graphics solutions as well. The Arc A380 tested today is the first available Alchemist model with Xe-HPG architecture, supports ray tracing, features an AV1 decoder and encoder that is unique in this price range, and is manufactured in the competitive 6nm EUV. Our expectations were accordingly quite high (which was of course also due to Intel’s eager PR activity). The fall from the self-imposed height is all the harder because the Arc A380 disappoints in almost all respects.

However, the first thing that stood out was the driver problems that still exist with certain titles and technologies. Especially since the technical implementation by the boardparter also suggests extreme cost-cutting constraints. Equipping a card, which can consume well over 100 watts with a bit of bad will, with only a measly 2 phases for the GPU is quite sporty, especially since not a single voltage converter is cooled. The lousy assembly including incomplete and too thick pads as well as way too much thermal paste are also in the review. Intel can’t do anything about that, and that’s entirely the board partner’s fault.

What is negative for Intel, however, is the (technical restriction) to current Intel platforms with rBAR. Without this feature, nothing really works, even if the affected application does not actively use rBAR at all. I have already written enough about the possible causes in the teardown. Well, and the power consumption is a chapter of its own. To deliver the same performance as the competitors with up to 50 percentage points more is very questionable, especially since the production node should be the slightly better one.

Actually, it lacks everything, not only performance and efficiency, but also many features that should be self-evident by now. DSR/VRS or image sharpening are not available and XeSS is painfully missing as an alternative to NVIDIA’s DLSS or AMD’s FSR. Well, that can be handed in later, but I have to make the conclusion today and here. And that is why the card did not pass in my eyes. Those who are capable of suffering or are curious, have the spare change and want to experiment with the unicorn, can of course grab it. However, those who have to turn over the penny three times are currently much better off with AMD and NVIDIA.

The tested card does not come from Intel, but it is a pure private investment as a self-import. There was also no cooperation with Intel or any influence of the GPU manufacturer on the tests and the conclusion. My personal thanks go to the hardware donors and the BIOS team, as well as to my family, who steadfastly endured my increasingly bad mood.

 

Kommentar

Lade neue Kommentare

ArcusX

Urgestein

866 Kommentare 501 Likes

Tjoar,
Satz mit X das war wohl nix. Ich hätte da von einem Namensvetter irgendwie mehr erwartet bzw erhofft. ;)

Schade.

Ich werde da mal nicht zocken, dass es Treiberupdates irgendwann richten werden. So verbleibt uns wohl nichts anders als weiter zu AMD oder nVidia zu greifen.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Das sieht ja noch ziemlich durchwachsen aus für Intel. Ich hoffe, dass sie eine steile Lernkurve absolvieren und bald als 3. Option verfügbar werden.

Wurde ein und dieselbe Karte getestet oder hat sich jeder von euch eine eigene Karte gekauft?

Antwort 2 Likes

Igor Wallossek

1

10,192 Kommentare 18,799 Likes

Wie es drin steht - es wurden vier Karten importiert :)

Antwort 2 Likes

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Habt ihr wirklich erwartet, daß Intel beim ersten ernsthaften Versuch, eine defizierte Grafikkarte mit in den Markt zu werfen, gleich den Versuch unternimmt, sich am oberen Ende der Messlatte gegen AMD und NVidia zu behaupten?

Ich finde das Vorgehen vollkommen nachvollziehbar, daß man sich erstmal mit kleinen Schritten rantastet, und die ersten Modelle eher im Preissegment um 200€ mitspielen sollen.
Da wird auch kein Treiber je was ändern können, auch oder grade weil Intel beim Thema Treiber nun zugegebenermaßen am meisten dazulernen muss.
Wenns man dann irgendwann mal beim vom Alchemisten beim Druiden angekommen ist, und die Dinge dann noch immer so sind, dann kann man berechtigt lästern.

Antwort 1 Like

Alexander Brose

Moderator

819 Kommentare 573 Likes

Klasse Test!

Wirklich schade, dass die Karte nicht überzeugen kann. Ich drücke weiterhin die Daumen, dass die größeren Modelle vielleicht etwas konkurrenzfähiger sind und über den Preis vielleicht doch noch halbwegs attraktiv angeboten werden können.
Wir brauchen einen weiteren GPU Hersteller, um evtl. mal irgendwann wieder halbwegs normale MSRPs zu sehen. Auch wenn wir die wegen den Sh!tcoins wohl eh nie wieder tatsächlich auf einer Grafikkarte sehen werden. Zumindest nicht so schnell...

Grüße!

Antwort Gefällt mir

karre

Mitglied

32 Kommentare 25 Likes

Was man nicht vergessen sollte: Intel baut schon seit Jahren Grafikkarten. Und die Treiber der iGP waren zwar nicht perfekt, aber sowas haben die nicht abgeliefert. Kauft das Ding denn in China wirklich jemand? Deren Presse wird das doch ebenso auswerten ..

Antwort Gefällt mir

konkretor

Veteran

297 Kommentare 300 Likes

Danke für den Test, waren heute Morgen harte 6 Stunden bis es 12 war :LOL:

Antwort 4 Likes

Igor Wallossek

1

10,192 Kommentare 18,799 Likes

Frag mich mal....

Heute früh habe ich erst gemerkt, dass ich die Seite mit den Temperaturen, Lüftern und Krach vergessen hatte zu schreiben. Ok, schnell noch reingehängt... Deshalb ist das Video erst später online. YouTube braucht fürs Bearbeiten und Prüfen länger als ich zum Aufzeichenen. Drecksladen :D

Antwort 6 Likes

karre

Mitglied

32 Kommentare 25 Likes

Immerhin sieht man dich durch diesen Laden :D

Das die Verknüpfung der GPU mit dem UEFI noch drine ist, wie bei der anderen GUNNIr .. verrückt.
Welchen Vorteil hat das ganze, außer Gängelung und Kontrolle?

Oder sollen so MicroCode Updates möglich sein?

Antwort Gefällt mir

T
Thakor

Mitglied

52 Kommentare 35 Likes

Puh, ein kleines Debakel war ja realistischerweise zu erwarten, aber so ein ausgewachsenes Desaster ist schon mehr als peinlich für Intel. Sehr schade, denn der Markt braucht dringend mehr Wettbewerb.

Antwort Gefällt mir

FfFCMAD

Urgestein

670 Kommentare 174 Likes

Sehr durchwachsen. Ist die Frage, was Intel da noch Treibertechnisch ausbuegelt und ob ueberhaupt ausgebuegelt wird...

Die Karte ist von dem Hersteller halt billigster Schrott. Was auch zu erwarten ist, wenn das Produkt Gefahr laeuft, komplett zu floppen. Waere vielleicht intelligenter gewesen, eine kleinere Karte komplett auf die Beine zu stellen und erst dann mit einer etwas groeßeren Karte in die untere Mittelklasse einzufallen. Ich behaupte das die Architektur das Potential hat. Aber man kennt es ja...

Das sieht nach dem Desaster aus, was Microsoft mit seinen letzten Handys ala 950xl hingelegt hat. Das OS war noch nicht fertig, haetten sie drei oder vier Monate gewartet waere das Handy vielleicht ein Renner gewesen. Denn nach ca 4 Monaten kam dann das WIndows 10 Update und Apps, die taugten. Da war es dann zu spaet.

Antwort 1 Like

Igor Wallossek

1

10,192 Kommentare 18,799 Likes

Raja hat ja massig Köpfe und Know How mit zu Intel abgezogen, da sollte es eigentlich an nichts gefehlt sein . Aber so langsam scheint es mir fast, dass er eher ein feindlicher AMD-Agent ist, der Intel zu ruinieren versucht und bei Lisa ein Geheimkonto besitzt. Sapphire Rapids? Fail. Alchemist? Fail... Aus der Schusslinie haben sie ihn ja schon abgezogen und auf einen ungefährlichen Posten gesetzt. Schaun' wir mal.

Antwort 5 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Danke, das war mir nicht ganz klar, nach dem, wie es im Artikel steht: "Unser Muster wurden privat in Hong Kong erworben,"

Antwort Gefällt mir

D
Denniss

Urgestein

1,516 Kommentare 548 Likes

Wer hätte gedacht das die vielgescholtene RX6400 gegen diesen Krüppel mal so richtig gut aussieht ?
Das mit der Quasi-Bindung auf Intelsysteme ist überraschend bzw ein arg fragwürdiges Design. Aber war da nicht mal was mit der allerersten Intel-Karte die auch nur auf Intel-Systemem lief? Dieses AGP-Teil von vor 20 Jahren.

Antwort 2 Likes

R
Rooter

Mitglied

55 Kommentare 8 Likes

Erstmal Respekt an den Test, der ist echt sportlich. Ich hatte auf bessere Ergebnisse gehofft, jetzt muss man es hinnehmen. DG2 scheint problematischer zu sein als die DG1. Es ist klar, weshalb Intel die Einzelkarten in der westlichen Welt bislang zurückgehalten hat und immer noch zurückhält. Da müssen sie bei den Treibern massiv zulegen, damit sie bei den großen Karten halbwegs bestehen. Ob es überhaupt Boardpartner geben wird für Einzelkarten? Ich habe so meine Zweifel.

Antwort Gefällt mir

G
Guest

Danke für den Test und mein Beileid an @Igor Wallossek und seine Familie, die an diesen "Umständen" dieser Qual wohl leider unmittelbar beteiligt war.
Gut, jeder fängt mal "klein" an, aber wenn man wirklich der 3.te Mitspieler sein will, sollte man sich dann doch etwas mehr anstrengen. Das man mit jahrzehntelanger Erfahrung mit Grafikchips (und nebenbei auch noch Marktführer in dem Segment ist) da so überhaupt keinen Stich macht, ist ja schon fast peinlich. Die Treiberproblematik ist es auf jeden Fall.
Wenn sich dann auch noch der nachvollziehbare "Intel-exclusive"-Verdacht erhärtet, haben sie sogar doppelt verloren.

Ist eben jeder seines Glückes Schmied......

Antwort Gefällt mir

konkretor

Veteran

297 Kommentare 300 Likes

Igor mag halt Hong Kong, gell :p

Antwort Gefällt mir

Case39

Urgestein

2,502 Kommentare 928 Likes

Die Intel Treiber halt...sie haben soviel Geld und Ressourcen und machen in dem Bereich nichts daraus...muss man nicht verstehen.

Antwort Gefällt mir

Igor Wallossek

1

10,192 Kommentare 18,799 Likes

Es sind eher nicht die Treiber, sondern wohl das DPM. Mal den Artikel genauer lesen ;)

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung