GPUs Graphics Reviews

Intel Arc A380 re-benchmarked: New drivers and the draw calls – API overhead on different platforms

3DMark’s API overhead test is no longer dewy, but at least it allows for fairly consistent tests across different rendering platforms. This is interesting in that NVIDIA graphics cards have also shown various anomalies in the past. In this context, I remind you of my own “launch article” about Intel Arc A380 and the first page of this article, where the performance in 720p resolution (1280 x 720 pixels) was and is downright subterranean. Of course, you could also use games like Shadow of the Tomb Raider, which can at least be switched between DirectX11 and DirectX12, but then Vulkan would be left out again. Therefore, I limited myself to the somewhat older API overhead test as a conclusion today, which could even play into Intel’s hand a bit (because they have probably already worked on 3DMark very thoroughly). Only the new 3220 driver is used.

But what is different about this test now? It does not bench-mark the graphics card as the total art value of all parts, but it tests the speed of a processor in combination with a graphics interface. by determining the so-called draw calls per second that reach a GPU through the layer of the API. So, figuratively speaking, it’s about the efficiency of the instruction chain between CPU and GPU (and vise versa as execution). The graphical representation actually turns out to be quite simple in the test, since the point of the test is to send as many render calls (i.e. the infamous draw calls) from the CPU to the graphics card as possible.

You generate a kind of city-scene with buildings covering the ground and the sky, permanently growing by an increasing number of buildings. This continues until the frame rate has dropped below 30 FPS. This is then exactly the measuring point for the number of draw calls that can still be sent from the CPU to the GPU. In between there are a lot of layers / levels for information processing, which decide about the result. We also remember Intel’s statements here that they only want to focus on new interfaces (API) like DirectX12 and Vulkan, but in the end, all current interfaces count, where DirectX11 also still plays a big role due to the masses of existing games (and applications).

The first DirektX11 test (Singelthread) turns out disastrous, and nothing can be glossed over or put into perspective. The GeForce GTX 1650 is over 4 times faster than the Arc A380 with rBAR On, although the feature hardly brings an advantage overall. Intel still has a huge construction site ahead of it here, because this backlog is not an isolated case, but unfortunately continues.

If you take DirectX11 Multithread as a benchmark, where NVIDIA virtually dominates all cards, then this gap increases to a factor of 6.6 in the best case with rBAR On, by which the NVIDIA card renders faster! Even the Radeon RX 6400 doesn’t see any land here and it once again shows where the DirectX11 performance of NVIDIA cards comes from.

However, even Vulkan, although it is one of Intel’s declared themes, only offers weak improvement, but at least the gap is now narrowing a bit. The GeForce GTX 1650 renders “only” 2.2 times faster. This is disappointing, since the modern low-level API is supposed to be part of the focus. However, the Radeon RX 6400 doesn’t exactly cover itself with glory either.

Finally, let’s move on to DirectX12. While rBAR has played little or no role so far (and it doesn’t with the Radeon RX 6400 here either), the Arc A380 suddenly benefits from this feature for the first time, even though this benchmark doesn’t have any rBAR optimization/implementation at all!

I’ve also noticed in other tests that even DirectX12 games, where AMD and NVIDIA cards don’t benefit from rBAR, result in a performance boost on the Arc A380 that you wouldn’t have expected.

Summary and conclusion

We can forget the thing about the old wine for now, but at least Intel has stabilized the barrels with the Beta 3220 driver so that they don’t roll away anymore and the contents are lost. However, the user interface is still not user-friendly (or only to a limited extent) and the features offered are rather meager in variety. This will be a mammoth task and one wonders what has (not) happened in the past 3 years. But at least stability has now been addressed, which is something that should also be praised, despite all the (justified) criticism.

However, the hoped-for performance boost has not materialized (for now), not much has changed. The problem spots are almost all still there and the overhead in 720p is downright sobering. Nevertheless, you can see a certain progress, which should also be acknowledged. If you were to determine the difference between playable and unplayable by the number of crashes, Intel has at least been able to change fronts once now. Now the performance just has to be right and the story with the thirst also has to be addressed. A little more restraint would be quite measured. Or you can keep this habit, but run a little faster.

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

296 Kommentare 300 Likes

Mal sehen ob sie noch was hin bekommen beim Treiber für die 750 und 770.

Ansonsten seh ich für den Standard Endkunden schwarz.
Noch 6 Wochen dann ist der Sommer rum.

Antwort Gefällt mir

Igor Wallossek

1

10,176 Kommentare 18,759 Likes

Ich würde überhaupt kein Problem in der Sache sehen, denn es ist ja quasi eine Premiere, wäre da nicht die bescheuerte Propaganda gewesen. Man kann sich selbst in die Tasche lügen, aber wenn man den potentiellen Kunden genauso verarscht, dann wird die Masse sauer. Irgendwann muss jeder die Karten auf den Tisch legen und je höher man verbal gepokert hat, umso teurer wird die Endabrechnung in der Realität. Denn es kommt ja immer raus, so oder so.

Antwort 4 Likes

Igor Wallossek

1

10,176 Kommentare 18,759 Likes

Mal die aktuellen Intel Zahlen gesehen? Sapphire Rapids schlägt komplett negativ durch. Data Center mit fetten Einbrüchen

Antwort 2 Likes

konkretor

Veteran

296 Kommentare 300 Likes

Ja die Intel Zahlen sind abartig schlecht. Jeder wartet gefühlt auf Sapphire Rapids und das Teil wird einfach nicht fertig und kostet unsummen in der Validierung/Tests.
Nicht vergessen Ampere holt sich auch einen Stück vom Kuchen ab. Viele Webserver können ohne Probleme mit ARM betrieben werden.

Im August gehts wohl los, ich find es komisch das hier geschrieben wird die Karten sind jetzt bei Intel. Dort werden sie geprüft und dann geht es an die Presse. Suchen die Golden Sample raus? Ich bin gespannt wer noch übrig bleibt von den AIB.

Antwort Gefällt mir

Klicke zum Ausklappem
m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Selbst die AIB partner werden ja bis heute im Dunklen gelassen was nun Sache ist.
Und welcher hat schon Lust, überhaupt ne GPU aufs PCB zu kleben, die realistisch wirtschaftlich gesehen irgendwo im Preisbereich von nicht viel mehr als 100€ (A380) angesetzt werden kann, um nicht in viel bessere Konkurrenz zu laufen.
Ist das überhaupt ein Markt?
Und die größeren Karten (A5.., A7...) sind noch überhaupt nirgends zu sehen.
Igor wird schon Recht haben, die Karten "bottlenecken" generell irgendwo hardwaremäßig, und selbst wenn man das irgendwann per Treiber einigermaßen umgangen bekommt...where's the point?
Das ist wirklich alles extrem schade.
Wenn die jetzt bei Intel noch feststellen, daß sich battlemage aus ähnlichen Gründen auch nicht in einem angemessenen Zeitraum konkurrenzfähig hinstellen lässt, dann ist es das glaub ich gewesen.

Antwort 1 Like

R
RX Vega_1975

Urgestein

575 Kommentare 75 Likes

@Igor Wallossek

Stampft intel die ARC und Battlemage Serie vielleicht doch komplett ein ...
da man von den Aktionären doch den Hut ziehen muss ?

Antwort Gefällt mir

Klicke zum Ausklappem
Kleine-Eule73

Mitglied

57 Kommentare 52 Likes

Danke für den Nachtest Igor
Leider hat sich ja nicht wirklich was getan an diesen komischen Teilen.....Hab irgendwie das Gefühl das die größeren Karten den gleichen Weg einschlagen werden. Schade eigentlich. Hatte mir mit dem ganzen TamTam echt wesentlich mehr versprochen von Intel. Wenn sie wenigstens nicht soviel Aufsehen um die Karten gemacht und sich mehr Zeit genommen hätten, wäre das ganze wahrscheinlich auch nicht mit Pauken und Trompeten durchgefallen. Mit so einer Leistung werden die keine Kunden gewinnen können wenn jede IGPU schneller und sparsamer ist

Antwort Gefällt mir

Chismon

Veteran

131 Kommentare 93 Likes

Ja gut, aber gibt es diese nicht bei der direkten Konkurrenz (egal ob AMD, siehe bspw. aktuelles Drama um leere Versprechungen/immer noch nicht in der Breite erhältliche R7 6800U APU Laptops damit der alte Kram (R7 5800U Laptops) vorher abverkauft wird, oder nVidia, siehe bspw. von Jen-Hsun bei der Vorstellung propagierte RTX 3090 als 8K Gaming Karte)?

Meiner Meinung nach tun sich Intel und die o.g. da wenig und Intel hat im Gegensatz zu den o.g. etablierten dGPU-Entwicklern weder vom Mining profitieren koennen noch dieses befeuert und haelt auch nicht kuenstlich/gierig die Preise trotz voller GPU-Lager immer noch viel zu hoch (nahe oder ueber UVP trotz auslaufender GPU-Generation).

Ein Glanzstueck war Arc Alchemist bisher von Intel mit Sicherheit nicht, aber wer hat das schon ernsthaft erwartet (?) und ueber die (Hinter-)Gruende kann viel spekuliert werden, wie vor kurzem im MLID Podcast mit einem interessanten Gast:

Bei Intel scheint momentan fast ueberall ziemlich der Wurm drinnen zu sein, egal ob bei Server CPUs oder dGPUs.

Lediglich Alder Lake war wieder ein Lichtblick und Raptor Lake (als leicht verbesserte Version von Alder Lake) duerfte evt. fuer Intel noch positive Nachrichten in den kommenden Monaten bringen (wer weiss schon, wie es um Meteor Lake steht) und trotz Pleiten, Pech und Pannen bei Intel bleibe ich dabei, dass diese hoffentlich Gaming-dGPUs weiter entwickeln werden und sich nicht jetzt komplett verabscheiden - wegen des eintruebenden Ausblicks (siehe Geschaeftszahlen) und dem zu Recht kritisierten Arc Alchemist "Start" und Marketing - denn es braeuchte dringend eine dritte wettbewerbsfaehige Kraft im Gaming-GPU-Markt als Alternative zu nVidia und AMD/RTG.

Antwort 1 Like

Klicke zum Ausklappem
Igor Wallossek

1

10,176 Kommentare 18,759 Likes

Mit MLID chatte ich fast jede Woche, nicht nur einmal...

Propaganda darf jeder betreiben, wenn er es irgendwann mal schafft, dass die Inhalte auch eingermaßen zum Produkt passen. Aber NUR labern und NICHTS leisten ist schon arg strange. :D

Antwort 3 Likes

Lagavulin

Veteran

226 Kommentare 181 Likes

Vielleicht hätte die Arc A380 als „LIMITED EDITION“ erscheinen sollen – da bekäme der Begriff eine ganz neue Bedeutung.

Antwort 7 Likes

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Und im neuesten Vid (nicht das oben verlinkte) wird ja auch die leider reichlich plausible These aufgestellt,
daß die marketing Abteilung fleißig weiter Lügen auftischt, während die Technik schon lange die bittere Wahrheit erkannt hat.

Antwort Gefällt mir

Yve

Veteran

113 Kommentare 54 Likes

Ich wünschte zwar es gäbe eine RTX1650, aber glaube da hat einfach nur der Fehlerteufel sein Unwesen in der Einleitung getrieben. 😸

Antwort Gefällt mir

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Willkommen im Forum.
Der erste Beitrag und gleich so ein Klugsch... :D
Aber wenigstens jemand, dem man kein R als ein G verkaufen kann.
Wir behalten Dich im Auge ;)

Antwort 6 Likes

R
Rooter

Mitglied

55 Kommentare 8 Likes

Die Ergebnisse in 720p deuten auf ein großes Problem beim driver overhead hin, das Problem ist ganz klar Software seitig zu suchen. Das wird auch in 1080p noch ordentlich Performance kosten, nur eben lange nicht so viel. AMD hat auch lange in DX11 driver overhead Nachteile gehabt, oder auch in OpenGL.

Antwort Gefällt mir

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Mein bisheriges Verständnis war, daß genau dieses "flatlining" bei geringeren Auflösungen eben einen hardwareseitigen Flaschenhals offenlegt.
Irgendwo klemmt es, unabhängig von Takt, Speicherbandbreite/-menge.
Ich gebe zwar gerne zu, daß ich das Ganze nur recht oberflächlich begreife, aber andererseits macht das im Zusammenhang gesehen mehr Sinn als die "liegt nur am Treiber" Story.

Wenns nur software-seitig, und damit "leicht" behebbar wäre, dann hätte man doch schon irgendwas von A7...gehört!?
Karten mit noch unausgegorenen Treibern rausbringen, und beim Kunden optimieren, das machen die anderen auch.

Aber wenns hardwareseitig ist, dann macht es eben keinen Sinn, auch teurere, höher taktende Karten mit mehr Speicherausstattung und Bandbreite rauszubringen...weil die eben gegen die gleiche harte Wand laufen würden.
Vielleicht etwas später, aber darauf kommts ja nicht an.
Geht dann ja wieder noch viel mehr darum, gegen was man antritt und zu welchem Preis...und das eben ohne Aussicht, das noch nachkorrigieren zu können.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Genau andersrum. Umso mehr die Last von der GPU weggeht und Richtung CPU geht, desto weniger ist die GPU gefordert. Jetzt könnte man meinen, die Abstände zwischen den GPUs werden kleiner. Das ist auch so, zumindest wenn die Treiber auf einem ähnlichen Level sind.

Hat der Treiber einen viel größeren driver overhead, braucht es mehr CPU Leistung. Das zeigt sich dann in den 720p Tests. AMD hatte damit in DX11 lange zu kämpfen, auch wenn nicht so stark wie Intel jetzt. AMD hat erst kürzlich deutlich nachgelegt beim DX11 Treiber.

In großen Auflösungen verschwindet die Abhängigkeit vom driver overhead, weil die GPU hauptsächlich der Flaschenhals darstellt. In anderen reviews ist gut sehen, dass die A380 in 1440p nochmal ein gutes Stück konkurrenzfähiger ist als in 1080p.

Driver overhead ist aber nur ein Problem, Intel wird noch andere Probleme haben. Im starken GPU Limit müssen auch noch Verbesserungen her.

Antwort Gefällt mir

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Ja insgesamt werden die Abstände enger.
Aber das 1% min Perzentil verändert sich ja kaum, auch nicht innerhalb einer Auflösung zwischen A380 @stock und OC.
Und das passt eben nicht zur Theorie.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Der Abstand wird größer. In 1080p sind A380 und RX6400 gleichauf, in 720p liegt die A380 deutlich hinten. Das ist der driver overhead.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Wenn Intel so weitermacht, haben sie nächstes Weihnachten eine Karte, die sich mit der RX 6400 messen kann. Wer soll die kaufen? Gerade in China wird sich der Endkunde auch nicht mit unfertigem Müll abspeisen lassen.

Bei der nunmehr 3 Jahre alten GTX 1650 kann man nur neidlos anerkennen: "Alles richtig gemacht, Nvidia."

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung