Grafikkarten Testberichte VGA

Intel Arc A380 6GB im Test: Gunnir Photon samt Benchmarks, Detailanalysen und ausführlichem Teardown

Rückgabewerte und Telemetrie

Bei einigen Rückgabewerte in Drittanbieterprogrammen muss man aufmerksam beobachten, was angezeigt wird. Denn auch die Taktraten werden beispielsweise nicht immer sauber wiedergegeben. Auch wenn es zwischen 2448 MHz und 2450 MHz kaum einen Unterschied gibt hier sollte es sich eher um Umrechnungsfehler handeln, denn ab und an wurde auch schon mal null zurückgeliefert, auch wenn es keine Framedrops gab. Auch der gemeldeten Leistungsaufnahme traue ich nicht wirklich, da sich der Wert einerseits nur exklusiv auf die GPU (und nicht die ganze Karte) bezieht und andererseits nicht immer genau mit dem korreliert (Lastwechsel), was man direkt am PCIe-Anschluss messen konnte.

Generell scheint der Arbitrator deutlich granulärer zu arbeiten (also viel gröber als bei AMDs Power Tune oder NVIDIAs Boost) und eine echte Power-Estimation findet scheinbar auch nicht statt. Das erklärt dann sicher auch die explodierende Leistungsaufnahme bei Dauerlasten wie Compute oder in Stresstests. Im Gegensatz zur Radeon RX 6400 ist der Einbruch bei zu hoher Last mehr als zehnmal so lang und auch der Kurvenverlauf bis zum Einbruch ist aufsteigend und nicht absteigend. Das erinnert dann schon an einen gewissen Schluckauf und könnte auch eine (von mehreren) Ursachen für die eher bescheidene Bildausgabe sein.

 

Resizeable Bar (rBAR)

Ohne dieses im Motherboard aktivierte Feature für den direkten Zugriff auf den erweiterten Adressbereich, ist die Karte quasi hilflos und extrem langsam. Das trifft eigentlich immer zu, selbst wenn Spiele oder sogar Workstation-Anwendungen laufen, die rBAR offiziell gar nicht nutzen bzw. dahingehend optimiert wurden. Ich erwähnte beim Teardown ja bereits den MX25U6432F von Macronix und die Vermutung, dass hier Intel-Microcode nachgeladen werden muss, der sich nicht auf aktuellen Ryzen-Systemen befindet. Das erklärt dann zumindest auch, warum ein Ryzen 7 5800 X3D auf einem MSI MEG X570 Godlike mit allerneuestem BIOS genauso schlechte Resultate in Benchmarks generiert, wie das verwendete Z690-Board mit deaktiviertem rBAR. Das deckte sich bei den Resultaten manchmal sogar bis fast auf die Nachkommastelle.

Sollte sich das bei den größeren Karten analog fortsetzen, dann hat Intel hier bewusst eine knallharte Trennung von anderen (und eigenen älteren) Plattformen implementiert, die in dieser Form für den nichtsahnenden Kunden völlig inakzeptabel ist. Intel-Karten performen somit nur auf einigen aktuellen Intel-Motherboards? Das sollte, wenn es sich so fortsetzt, unbedingt öffentlich ausdiskutiert werden.

Übertaktung

Das Arc Control Center ermöglicht eine Übertaktung um maximal 100 MHz. Schiebt man den Regler weiter noch rechts, landet man statt bei den maximal möglichen 2550 MHz wieder auf den 2450 MHz und noch weiter rechts (falls man sich mal vertut) friert das komplette System unrettbar ein, weil alles in Echtzeit übernommen wird und man sich den Übernehmen-Knopf gespart hat. Sinnlos, zumal das ganze GUI eher den Charakter einer unfertigen Frickelware besitzt, der wichtige Funktionen abgehen. Man fragt sich, was seit der Ankündigung der Software vor drei Jahren (!) und heute wirklich passiert ist.

Die 2550 MHz bekommt man bei ca. 20% voreingestellter Leistungssteigerung, wenn man VORHER den Offset für die Spannung angehoben hat. Vergisst man das aus Versehen mal, gibt es mit etwas Pech auch gleich wieder ein eingefrostetes System. Hat man dann noch den Haken gesetzt, dass die Werte beim Windows-Start automatisch übernommen werden sollen, dann Gute Nacht. Da hilft nur eine zweite artfremde Grafikkarte und das Entfernen des Arc Control Centers nach dem Reboot.

Dann gab es z.B. eine russischen YouTuber, welcher der Arc A380 ein „gewaltiges“ Übertaktungspotential bescheinigte, wobei bei ihm der prozentuale Leistungszuwachs bei den Durchschnitts-FPS sogar weit über über dem Taktzuwachs lag. Auch das P1 (die Min-FPS als Perzentil mit dem 1% Low) soll zugelegt haben. Ja, das stimmt (in gewissen Grenzen), aber es ist viel zu oberflächlich betrachtet, da die Karte noch eine Eigenheit besitzt, die man mit dem P1 so einfach nicht immer erfassen kann. Genau dazu komme ich jetzt. Auch im Vergleich zur Radeon RX 6400 (danke an CAPACYTOR für die Unterstützung!) im Bild  unten links und eine GTX 1650 Gaming von MSI (nicht im Bild).

Extrem schlechte Frame Times und Varianzen

Ich stelle jetzt hier bewusst ein Spiel einmal exemplarisch voran, damit Ihr Euch auf den nächsten Seiten nicht von den Benchmarkbalken blenden lasst. Bereits das P1 zeigt zwar, dass die Frame Times bei Intels Arc A380 deutlich schlechter ausfallen als bei den beiden anderen Karten, aber das ist so schnell nicht ersichtlich. Außerdem leidet die Arc A380 auch am Treiber-Flaschenhals, wenn auch nicht ganz zu schlimm wie die GeForce GTX 1650. Das ist die erste Erkenntnis, doch es kommt noch viel schlimmer.

Generell ist es egal, ob die Arc A380 nun in 720p oder 1080p läuft, die Frame Times, also die Renderzeit der Einzelbilder, und es hoppelt (je nach Spiel mehr oder weniger) wie verrückt. Ich habe allerdings die 1080p-Messung genommen, weil ich den Flaschenhals nicht noch mit inkludieren wollte. Man kann trotzdem immer noch einen in der Summe deutlich unrunderen Bildlauf erkennen (Micro-Ruckler). Dafür muss man nur einmal die smooth agierende Radeon RX 6400 mit der Arc A380 jeweils ohne und mit OC vergleichen. Ich denke, die Bilder sprechen hier klar für sich!

Wer das noch nicht glaubt, muss sich einfach nur mal die Varianzen ansehen, denn das wird nicht besser und sogar die iGP des Core i9-12900K performt ausgeglichener:

Stellt man die Perzentile mal als Kurve dar, dann sehen wir auch, dass man die Min-FPS durch die Menge an Spikes eigentlich sogar als 2% Low darstellen müsste, um objektiv zu bleiben und nicht nur als 1% Low („99th percentile“). Womit spätestens jetzt klar ist, warum Influencer oftmals weit unterhalb der nötigen Sorgfalt agieren. Entweder können sie es nicht besser oder wollen/dürfen es nicht.

 

Kommentar

Lade neue Kommentare

ArcusX

Urgestein

867 Kommentare 501 Likes

Tjoar,
Satz mit X das war wohl nix. Ich hätte da von einem Namensvetter irgendwie mehr erwartet bzw erhofft. ;)

Schade.

Ich werde da mal nicht zocken, dass es Treiberupdates irgendwann richten werden. So verbleibt uns wohl nichts anders als weiter zu AMD oder nVidia zu greifen.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Das sieht ja noch ziemlich durchwachsen aus für Intel. Ich hoffe, dass sie eine steile Lernkurve absolvieren und bald als 3. Option verfügbar werden.

Wurde ein und dieselbe Karte getestet oder hat sich jeder von euch eine eigene Karte gekauft?

Antwort 2 Likes

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Wie es drin steht - es wurden vier Karten importiert :)

Antwort 2 Likes

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Habt ihr wirklich erwartet, daß Intel beim ersten ernsthaften Versuch, eine defizierte Grafikkarte mit in den Markt zu werfen, gleich den Versuch unternimmt, sich am oberen Ende der Messlatte gegen AMD und NVidia zu behaupten?

Ich finde das Vorgehen vollkommen nachvollziehbar, daß man sich erstmal mit kleinen Schritten rantastet, und die ersten Modelle eher im Preissegment um 200€ mitspielen sollen.
Da wird auch kein Treiber je was ändern können, auch oder grade weil Intel beim Thema Treiber nun zugegebenermaßen am meisten dazulernen muss.
Wenns man dann irgendwann mal beim vom Alchemisten beim Druiden angekommen ist, und die Dinge dann noch immer so sind, dann kann man berechtigt lästern.

Antwort 1 Like

Alexander Brose

Moderator

819 Kommentare 574 Likes

Klasse Test!

Wirklich schade, dass die Karte nicht überzeugen kann. Ich drücke weiterhin die Daumen, dass die größeren Modelle vielleicht etwas konkurrenzfähiger sind und über den Preis vielleicht doch noch halbwegs attraktiv angeboten werden können.
Wir brauchen einen weiteren GPU Hersteller, um evtl. mal irgendwann wieder halbwegs normale MSRPs zu sehen. Auch wenn wir die wegen den Sh!tcoins wohl eh nie wieder tatsächlich auf einer Grafikkarte sehen werden. Zumindest nicht so schnell...

Grüße!

Antwort Gefällt mir

karre

Mitglied

32 Kommentare 25 Likes

Was man nicht vergessen sollte: Intel baut schon seit Jahren Grafikkarten. Und die Treiber der iGP waren zwar nicht perfekt, aber sowas haben die nicht abgeliefert. Kauft das Ding denn in China wirklich jemand? Deren Presse wird das doch ebenso auswerten ..

Antwort Gefällt mir

konkretor

Veteran

298 Kommentare 301 Likes

Danke für den Test, waren heute Morgen harte 6 Stunden bis es 12 war :LOL:

Antwort 4 Likes

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Frag mich mal....

Heute früh habe ich erst gemerkt, dass ich die Seite mit den Temperaturen, Lüftern und Krach vergessen hatte zu schreiben. Ok, schnell noch reingehängt... Deshalb ist das Video erst später online. YouTube braucht fürs Bearbeiten und Prüfen länger als ich zum Aufzeichenen. Drecksladen :D

Antwort 6 Likes

karre

Mitglied

32 Kommentare 25 Likes

Immerhin sieht man dich durch diesen Laden :D

Das die Verknüpfung der GPU mit dem UEFI noch drine ist, wie bei der anderen GUNNIr .. verrückt.
Welchen Vorteil hat das ganze, außer Gängelung und Kontrolle?

Oder sollen so MicroCode Updates möglich sein?

Antwort Gefällt mir

T
Thakor

Mitglied

52 Kommentare 35 Likes

Puh, ein kleines Debakel war ja realistischerweise zu erwarten, aber so ein ausgewachsenes Desaster ist schon mehr als peinlich für Intel. Sehr schade, denn der Markt braucht dringend mehr Wettbewerb.

Antwort Gefällt mir

FfFCMAD

Urgestein

670 Kommentare 174 Likes

Sehr durchwachsen. Ist die Frage, was Intel da noch Treibertechnisch ausbuegelt und ob ueberhaupt ausgebuegelt wird...

Die Karte ist von dem Hersteller halt billigster Schrott. Was auch zu erwarten ist, wenn das Produkt Gefahr laeuft, komplett zu floppen. Waere vielleicht intelligenter gewesen, eine kleinere Karte komplett auf die Beine zu stellen und erst dann mit einer etwas groeßeren Karte in die untere Mittelklasse einzufallen. Ich behaupte das die Architektur das Potential hat. Aber man kennt es ja...

Das sieht nach dem Desaster aus, was Microsoft mit seinen letzten Handys ala 950xl hingelegt hat. Das OS war noch nicht fertig, haetten sie drei oder vier Monate gewartet waere das Handy vielleicht ein Renner gewesen. Denn nach ca 4 Monaten kam dann das WIndows 10 Update und Apps, die taugten. Da war es dann zu spaet.

Antwort 1 Like

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Raja hat ja massig Köpfe und Know How mit zu Intel abgezogen, da sollte es eigentlich an nichts gefehlt sein . Aber so langsam scheint es mir fast, dass er eher ein feindlicher AMD-Agent ist, der Intel zu ruinieren versucht und bei Lisa ein Geheimkonto besitzt. Sapphire Rapids? Fail. Alchemist? Fail... Aus der Schusslinie haben sie ihn ja schon abgezogen und auf einen ungefährlichen Posten gesetzt. Schaun' wir mal.

Antwort 5 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Danke, das war mir nicht ganz klar, nach dem, wie es im Artikel steht: "Unser Muster wurden privat in Hong Kong erworben,"

Antwort Gefällt mir

D
Denniss

Urgestein

1,516 Kommentare 548 Likes

Wer hätte gedacht das die vielgescholtene RX6400 gegen diesen Krüppel mal so richtig gut aussieht ?
Das mit der Quasi-Bindung auf Intelsysteme ist überraschend bzw ein arg fragwürdiges Design. Aber war da nicht mal was mit der allerersten Intel-Karte die auch nur auf Intel-Systemem lief? Dieses AGP-Teil von vor 20 Jahren.

Antwort 2 Likes

R
Rooter

Mitglied

55 Kommentare 8 Likes

Erstmal Respekt an den Test, der ist echt sportlich. Ich hatte auf bessere Ergebnisse gehofft, jetzt muss man es hinnehmen. DG2 scheint problematischer zu sein als die DG1. Es ist klar, weshalb Intel die Einzelkarten in der westlichen Welt bislang zurückgehalten hat und immer noch zurückhält. Da müssen sie bei den Treibern massiv zulegen, damit sie bei den großen Karten halbwegs bestehen. Ob es überhaupt Boardpartner geben wird für Einzelkarten? Ich habe so meine Zweifel.

Antwort Gefällt mir

G
Guest

Danke für den Test und mein Beileid an @Igor Wallossek und seine Familie, die an diesen "Umständen" dieser Qual wohl leider unmittelbar beteiligt war.
Gut, jeder fängt mal "klein" an, aber wenn man wirklich der 3.te Mitspieler sein will, sollte man sich dann doch etwas mehr anstrengen. Das man mit jahrzehntelanger Erfahrung mit Grafikchips (und nebenbei auch noch Marktführer in dem Segment ist) da so überhaupt keinen Stich macht, ist ja schon fast peinlich. Die Treiberproblematik ist es auf jeden Fall.
Wenn sich dann auch noch der nachvollziehbare "Intel-exclusive"-Verdacht erhärtet, haben sie sogar doppelt verloren.

Ist eben jeder seines Glückes Schmied......

Antwort Gefällt mir

konkretor

Veteran

298 Kommentare 301 Likes

Igor mag halt Hong Kong, gell :p

Antwort Gefällt mir

Case39

Urgestein

2,503 Kommentare 929 Likes

Die Intel Treiber halt...sie haben soviel Geld und Ressourcen und machen in dem Bereich nichts daraus...muss man nicht verstehen.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Es sind eher nicht die Treiber, sondern wohl das DPM. Mal den Artikel genauer lesen ;)

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung