GPUs Graphics Reviews

Intel Arc A380 6GB Review: Gunnir Photon including benchmarks, detailed analysis and extensive teardown

Return values and telemetry

You have to watch carefully for some return values in third-party programs, because the clock rates are not always rendered cleanly either, for example. Even if there is hardly any difference between 2448 MHz and 2450 MHz, it should rather be a matter of conversion errors, because zero was returned from time to time, even if there were no frame drops. I also don’t really trust the reported power consumption, since on the one hand the value only exclusively refers to the GPU (and not the whole card) and on the other hand it doesn’t correlate (load change) with what could be measured directly at the PCIe port.

In general, the arbitrator seems to work much more granularly, i.e. much coarser, than AMD’s Power Tune or NVIDIA’s Boost, and a real power estimation does not seem to take place either. This certainly explains the exploding power consumption during permanent loads like compute or in stress tests. In contrast to the Radeon RX 6400, the dip is more than ten times as long when the load is too high, and the curve up to the dip is also ascending and not descending. This is reminiscent of a certain hiccup and could also be one (of several) causes for the rather modest image output.

 

Resizable Bar (rBAR)

Without this feature enabled in the motherboard for direct access to the extended address range, the card is virtually helpless and extremely slow. This is actually always true, even when running games or even workstation applications that do not officially use rBAR or have been optimized for it. I already mentioned the MX25U6432F from Macronix in the teardown and the assumption that Intel microcode that is not on current Ryzen systems has to be reloaded here. This at least explains why a Ryzen 7 5800 X3D on an MSI MEG X570 Godlike with the very latest BIOS generates just as bad results in benchmarks as the used Z690 board with disabled rBAR. The results sometimes coincided almost to the decimal place.

If this continues with the larger cards, Intel has deliberately implemented a hard separation from other (and its own older) platforms, which is completely unacceptable for the unsuspecting customer in this form. Intel cards thus only perform on some current Intel motherboards? If this continues, it should definitely be discussed in public.

Overclocking

The Arc Control Center allows overclocking by a maximum of 100 MHz. If you move the slider further to the right, you end up back at 2450 MHz instead of the maximum possible 2550 MHz, and even further to the right (if you make a mistake), the entire system freezes irrecoverably, because everything is taken over in real time and you didn’t have to use the Apply button. Useless, especially since the whole GUI has the character of an unfinished piece of frickleware that lacks important functions. One wonders what has really happened since the software was announced three years ago (!) and today.

You get the 2550 MHz with about 20% preset power increase if you have increased the offset for the voltage BEFORE. If you forget this by mistake, you will get a frozen system again with a bit of bad luck. If you then check the box that the values should be automatically applied at Windows startup, then good night. The only solution is to use a second graphics card of a different type and to remove the Arc Control Center after the reboot.

Then, for example, there was a Russian YouTuber who attested the Arc A380 a “huge” overclocking potential, whereby the percentage performance increase in the average FPS was even far above the clock increase in his case. The P1 (the min-FPS as percentile with the 1% low) is also said to have increased. Yes, that’s true (within certain limits), but it’s much too superficial, because the card still has a peculiarity that you can’t capture so easily with the P1. That’s exactly what I’m coming to now. Also compared to the Radeon RX 6400 (thanks to CAPACYTOR for the support!) in the lower left picture and a GTX 1650 Gaming from MSI (not in the picture).

Extremely poor frame times and variances

I’m deliberately presenting a game here as an example so that you won’t be blinded by the benchmark bars on the next pages. The P1 already shows that the frame times of Intel’s Arc A380 are significantly worse than those of the other two cards, but this is not obvious so quickly. Furthermore, the Arc A380 also suffers from the driver bottleneck, although not quite as bad as the GeForce GTX 1650. That is the first realization, but it gets much worse.

In general, it doesn’t matter whether the Arc A380 is now running in 720p or 1080p, the frame times, that is, the render time of the frames, and it jumps (more or less depending on the game) like crazy. However, I took the 1080p measurement because I didn’t want to include the bottleneck. Nevertheless, you can still see a considerably less smooth scrolling (micro jerks). You only have to compare the smooth Radeon RX 6400 with the Arc A380 without and with OC. I think the pictures clearly speak for themselves here!

If you still don’t believe that, you just have to take a look at the variances, because this doesn’t get any better and even the iGP of the Core i9-12900K performs more balanced:

If we plot the percentiles as a curve, we also see that the min-FPS should actually be plotted as 2% low due to the amount of spikes in order to remain objective and not only as 1% low (“99th percentile”). Which makes it clear, at this point at the latest, why influencers often act far below the required level of due diligence. Either they can’t do better or don’t want to/don’t want to.

 

Kommentar

Lade neue Kommentare

ArcusX

Urgestein

866 Kommentare 501 Likes

Tjoar,
Satz mit X das war wohl nix. Ich hätte da von einem Namensvetter irgendwie mehr erwartet bzw erhofft. ;)

Schade.

Ich werde da mal nicht zocken, dass es Treiberupdates irgendwann richten werden. So verbleibt uns wohl nichts anders als weiter zu AMD oder nVidia zu greifen.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Das sieht ja noch ziemlich durchwachsen aus für Intel. Ich hoffe, dass sie eine steile Lernkurve absolvieren und bald als 3. Option verfügbar werden.

Wurde ein und dieselbe Karte getestet oder hat sich jeder von euch eine eigene Karte gekauft?

Antwort 2 Likes

Igor Wallossek

1

10,177 Kommentare 18,760 Likes

Wie es drin steht - es wurden vier Karten importiert :)

Antwort 2 Likes

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Habt ihr wirklich erwartet, daß Intel beim ersten ernsthaften Versuch, eine defizierte Grafikkarte mit in den Markt zu werfen, gleich den Versuch unternimmt, sich am oberen Ende der Messlatte gegen AMD und NVidia zu behaupten?

Ich finde das Vorgehen vollkommen nachvollziehbar, daß man sich erstmal mit kleinen Schritten rantastet, und die ersten Modelle eher im Preissegment um 200€ mitspielen sollen.
Da wird auch kein Treiber je was ändern können, auch oder grade weil Intel beim Thema Treiber nun zugegebenermaßen am meisten dazulernen muss.
Wenns man dann irgendwann mal beim vom Alchemisten beim Druiden angekommen ist, und die Dinge dann noch immer so sind, dann kann man berechtigt lästern.

Antwort 1 Like

Alexander Brose

Moderator

819 Kommentare 572 Likes

Klasse Test!

Wirklich schade, dass die Karte nicht überzeugen kann. Ich drücke weiterhin die Daumen, dass die größeren Modelle vielleicht etwas konkurrenzfähiger sind und über den Preis vielleicht doch noch halbwegs attraktiv angeboten werden können.
Wir brauchen einen weiteren GPU Hersteller, um evtl. mal irgendwann wieder halbwegs normale MSRPs zu sehen. Auch wenn wir die wegen den Sh!tcoins wohl eh nie wieder tatsächlich auf einer Grafikkarte sehen werden. Zumindest nicht so schnell...

Grüße!

Antwort Gefällt mir

karre

Mitglied

32 Kommentare 25 Likes

Was man nicht vergessen sollte: Intel baut schon seit Jahren Grafikkarten. Und die Treiber der iGP waren zwar nicht perfekt, aber sowas haben die nicht abgeliefert. Kauft das Ding denn in China wirklich jemand? Deren Presse wird das doch ebenso auswerten ..

Antwort Gefällt mir

konkretor

Veteran

296 Kommentare 300 Likes

Danke für den Test, waren heute Morgen harte 6 Stunden bis es 12 war :LOL:

Antwort 4 Likes

Igor Wallossek

1

10,177 Kommentare 18,760 Likes

Frag mich mal....

Heute früh habe ich erst gemerkt, dass ich die Seite mit den Temperaturen, Lüftern und Krach vergessen hatte zu schreiben. Ok, schnell noch reingehängt... Deshalb ist das Video erst später online. YouTube braucht fürs Bearbeiten und Prüfen länger als ich zum Aufzeichenen. Drecksladen :D

Antwort 6 Likes

karre

Mitglied

32 Kommentare 25 Likes

Immerhin sieht man dich durch diesen Laden :D

Das die Verknüpfung der GPU mit dem UEFI noch drine ist, wie bei der anderen GUNNIr .. verrückt.
Welchen Vorteil hat das ganze, außer Gängelung und Kontrolle?

Oder sollen so MicroCode Updates möglich sein?

Antwort Gefällt mir

T
Thakor

Mitglied

52 Kommentare 35 Likes

Puh, ein kleines Debakel war ja realistischerweise zu erwarten, aber so ein ausgewachsenes Desaster ist schon mehr als peinlich für Intel. Sehr schade, denn der Markt braucht dringend mehr Wettbewerb.

Antwort Gefällt mir

FfFCMAD

Urgestein

668 Kommentare 173 Likes

Sehr durchwachsen. Ist die Frage, was Intel da noch Treibertechnisch ausbuegelt und ob ueberhaupt ausgebuegelt wird...

Die Karte ist von dem Hersteller halt billigster Schrott. Was auch zu erwarten ist, wenn das Produkt Gefahr laeuft, komplett zu floppen. Waere vielleicht intelligenter gewesen, eine kleinere Karte komplett auf die Beine zu stellen und erst dann mit einer etwas groeßeren Karte in die untere Mittelklasse einzufallen. Ich behaupte das die Architektur das Potential hat. Aber man kennt es ja...

Das sieht nach dem Desaster aus, was Microsoft mit seinen letzten Handys ala 950xl hingelegt hat. Das OS war noch nicht fertig, haetten sie drei oder vier Monate gewartet waere das Handy vielleicht ein Renner gewesen. Denn nach ca 4 Monaten kam dann das WIndows 10 Update und Apps, die taugten. Da war es dann zu spaet.

Antwort 1 Like

Igor Wallossek

1

10,177 Kommentare 18,760 Likes

Raja hat ja massig Köpfe und Know How mit zu Intel abgezogen, da sollte es eigentlich an nichts gefehlt sein . Aber so langsam scheint es mir fast, dass er eher ein feindlicher AMD-Agent ist, der Intel zu ruinieren versucht und bei Lisa ein Geheimkonto besitzt. Sapphire Rapids? Fail. Alchemist? Fail... Aus der Schusslinie haben sie ihn ja schon abgezogen und auf einen ungefährlichen Posten gesetzt. Schaun' wir mal.

Antwort 5 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Danke, das war mir nicht ganz klar, nach dem, wie es im Artikel steht: "Unser Muster wurden privat in Hong Kong erworben,"

Antwort Gefällt mir

D
Denniss

Urgestein

1,514 Kommentare 547 Likes

Wer hätte gedacht das die vielgescholtene RX6400 gegen diesen Krüppel mal so richtig gut aussieht ?
Das mit der Quasi-Bindung auf Intelsysteme ist überraschend bzw ein arg fragwürdiges Design. Aber war da nicht mal was mit der allerersten Intel-Karte die auch nur auf Intel-Systemem lief? Dieses AGP-Teil von vor 20 Jahren.

Antwort 2 Likes

R
Rooter

Mitglied

55 Kommentare 8 Likes

Erstmal Respekt an den Test, der ist echt sportlich. Ich hatte auf bessere Ergebnisse gehofft, jetzt muss man es hinnehmen. DG2 scheint problematischer zu sein als die DG1. Es ist klar, weshalb Intel die Einzelkarten in der westlichen Welt bislang zurückgehalten hat und immer noch zurückhält. Da müssen sie bei den Treibern massiv zulegen, damit sie bei den großen Karten halbwegs bestehen. Ob es überhaupt Boardpartner geben wird für Einzelkarten? Ich habe so meine Zweifel.

Antwort Gefällt mir

G
Guest

Danke für den Test und mein Beileid an @Igor Wallossek und seine Familie, die an diesen "Umständen" dieser Qual wohl leider unmittelbar beteiligt war.
Gut, jeder fängt mal "klein" an, aber wenn man wirklich der 3.te Mitspieler sein will, sollte man sich dann doch etwas mehr anstrengen. Das man mit jahrzehntelanger Erfahrung mit Grafikchips (und nebenbei auch noch Marktführer in dem Segment ist) da so überhaupt keinen Stich macht, ist ja schon fast peinlich. Die Treiberproblematik ist es auf jeden Fall.
Wenn sich dann auch noch der nachvollziehbare "Intel-exclusive"-Verdacht erhärtet, haben sie sogar doppelt verloren.

Ist eben jeder seines Glückes Schmied......

Antwort Gefällt mir

konkretor

Veteran

296 Kommentare 300 Likes

Igor mag halt Hong Kong, gell :p

Antwort Gefällt mir

Case39

Urgestein

2,498 Kommentare 928 Likes

Die Intel Treiber halt...sie haben soviel Geld und Ressourcen und machen in dem Bereich nichts daraus...muss man nicht verstehen.

Antwort Gefällt mir

Igor Wallossek

1

10,177 Kommentare 18,760 Likes

Es sind eher nicht die Treiber, sondern wohl das DPM. Mal den Artikel genauer lesen ;)

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung