Grafikkarten Testberichte VGA

Intel Arc A380 im Nachtest: Neue Treiber und die Draw-Calls – Wo liegt eigentlich der API-Overhead?

Der API-Overhead-Test des 3DMark ist nicht mehr taufrisch, aber zumindest lässt er recht konsistente Tests über verschiedene Renderplattformen zu. Das ist insofern interessant, als dass ja in der Vergangenheit auch NVIDIA-Grafikkarten schon einmal diverse Auffälligkeiten gezeigt hatten. Ich erinnere in diesem Zusammenhang an meinen eigenen „Launch-Artikel“ zu Intel Arc A380 und die erste Seite dieses Artikels, wo die Performance in der 720p-Auflösung (1280 x 720 Pixel) geradezu unterirdisch schlecht war und ist. Natürlich könnte man auch Spiele wie Shadow of the Tomb Raider nutzen, die sich zumindest zwischen DirectX11 und DirectX12 umstellen lassen, aber dann wäre Vulkan wieder außen vor. Deshalb habe ich mich heute als Abschluss auf den etwas älteren API-Overhead-Test beschränkt, der zudem sogar Intel etwas in die Hand spielen könnte (weil man sich dort wohl am 3DMark bereits sehr gründlich abgearbeitet hat). Zu Verwendung kommt ausschließlich der neue Treiber 3220.

Doch was ist an diesem Test jetzt anders? Er benchmarkt nicht die Grafikkarte als Gesamtkunstwert aller Rechenwerke, sondern er prüft die Geschwindigkeit eines Prozessors in Kombination mit einer Grafikschnittstelle. indem man die sogenannten Draw-Calls pro Sekunde ermittelt, die eine GPU durch die Schicht des API erreichen. Es geht also, im übertragenen Sinne, um die Effizienz der Befehlskette zwischen CPU und GPU (und vise versa als Ausführung). Die grafische Darstellung fällt im Test eigentlich recht einfach aus, da der Sinn des Tests ja darin besteht, möglichst viele Render-Aufrufe (also die berüchtigten Draw-Calls) von der CPU an die Grafikkarte zu schicken.

Man generiert eine Art Stadt-Szene, deren Gebäude den Boden und den Himmel bedecken und die permanent durch eine steigende Anzahl an Gebäude wächst. Das geht dann solange, bis die Bildrate auf unter 30 FPS gesunken ist. Genau das ist dann auch der Messpunkt für die Anzahl der Draw-Calls, die noch von der CPU an die GPU geschickt werden können. Dazwischen liegen eine Menge Schichten / Ebenen für die Informationsverarbeitung, die über das Resultat entscheiden. Wer erinnern uns hier auch an Intels Aussagen, dass man den Fokus nur noch auf neue Schnittstellen (API) wie DirectX12 und Vulkan gelegt haben will, doch am Ende zählen ja alle aktuell gängigen Schnittstellen, wo auch DirectX11 noch auf Grund der massig vorhandenen Spiele (und Applikationen) eine große Rolle spielt.

Der erste DirektX11-Test (Singelthread) fällt desaströs aus, da kann man auch nichts beschönigen oder relativieren, denn die GeForce GTX 1650 ist über 4 Mal so schnell wie die Arc A380 mit rBAR On, wobei das Feature insgesamt kaum einen Vorteil bringt. Hier hat Intel noch eine riesige Baustelle vor sich, denn dieser Rückstand ist kein Einzelfall, sondern setzt sich leider weiter fort.

Nimmt man DirectX11 Multithread als Maßstab, wo NVIDIA alle Karten geradezu dominiert, dann vergrößert sich dieser Rückstand im besten Fall mit rBAR On auf den Faktor 6.6, um den die NVIDIA-Karte schneller rendert! Auch die Radeon RX 6400 sieht hier kein Land und es zeigt sich einmal mehr, wo die DirectX11-Performance der NVIDIA-Karten herkommt.

Doch auch Vulkan, obwohl es zu den erklärten Themen von Intel gehört, bietet nur schwache Besserung, aber zumindest verkleinert sich der Rückstand jetzt etwas. Die GeForce GTX 1650 rendert „nur“ noch 2,2 mal schneller. Das ist insofern enttäuschend, als die moderne Low-Level-API ja mit im Fokus liegen soll. Doch auch die Radeon RX 6400 bekleckert sich nicht gerade mit Ruhm.

Kommen wir nun abschließend zu DirectX12. Während rBAR bisher kaum oder keine Rolle spielte (und es bei der Radeon RX 6400 auch hier nicht tut), profitiert die Arc A380 plötzlich erstmals von diesem Feature, obwohl dieser Benchmark gar keine rBAR-Optimierung bzw. -Implementierung besitzt!

Es ist mir auch in anderen Tests aufgefallen, dass auch DirectX12-Spiele, in denen AMD- und NVIDIA-Karten von rBAR nicht profitieren, bei der Arc A380 zu einem Leistungsschub führen, den man so nicht vermutet hätte.

Zusammenfassung und Fazit

Das mit dem Reifen alten Weines können wir erst einmal vergessen, aber zumindest hat Intel mit dem Beta-Treiber 3220 die gelagerte Fässer so stabilisiert, dass sie nicht wehr wegrollen und der Inhalt verloren geht. Benutzerfreundlich ist die Oberfläche aber immer noch nicht (oder nur bedingt) und die angebotenen Features sind in der Vielfalt eher mau. Das wird noch eine mammut-Aufgabe und man fragt sich schon, was in den vergangenen 3 Jahren so alles (nicht) passiert ist. Aber man hat sich zumindest jetzt mit der Stabilität auseinandergesetzt, was man auch einmal lobend erwähnen sollte, trotz aller (berechtigter) Kritik.

Der erhoffte Performance-Schub ist allerdings (vorerst) ausgeblieben, da hat sich nicht sehr viel geändert. Die Problemstellen sind fast alle noch da und der Overhead in 720p ist geradezu ernüchternd. Trotzdem sieht man einen gewissen Fortschritt, den man auch anerkennen sollte. Wenn man den Unterschied zwischen spielbar und unspielbar an der Anzahl der Crashs festmachen würde, hat Intel jetzt immerhin schon einmal die Fronten wechseln können. Nun muss nur noch die Performance stimmen und auch die Geschichte mit dem Durst angegangen werden. Etwas mehr Zurückhaltung wäre durchaus gemessen. Oder man behält diese Gewohnheit bei, rennt dafür aber auch etwas schneller. Futterverwertung FTW.

 

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

297 Kommentare 300 Likes

Mal sehen ob sie noch was hin bekommen beim Treiber für die 750 und 770.

Ansonsten seh ich für den Standard Endkunden schwarz.
Noch 6 Wochen dann ist der Sommer rum.

Antwort Gefällt mir

Igor Wallossek

1

10,185 Kommentare 18,780 Likes

Ich würde überhaupt kein Problem in der Sache sehen, denn es ist ja quasi eine Premiere, wäre da nicht die bescheuerte Propaganda gewesen. Man kann sich selbst in die Tasche lügen, aber wenn man den potentiellen Kunden genauso verarscht, dann wird die Masse sauer. Irgendwann muss jeder die Karten auf den Tisch legen und je höher man verbal gepokert hat, umso teurer wird die Endabrechnung in der Realität. Denn es kommt ja immer raus, so oder so.

Antwort 4 Likes

Igor Wallossek

1

10,185 Kommentare 18,780 Likes

Mal die aktuellen Intel Zahlen gesehen? Sapphire Rapids schlägt komplett negativ durch. Data Center mit fetten Einbrüchen

Antwort 2 Likes

konkretor

Veteran

297 Kommentare 300 Likes

Ja die Intel Zahlen sind abartig schlecht. Jeder wartet gefühlt auf Sapphire Rapids und das Teil wird einfach nicht fertig und kostet unsummen in der Validierung/Tests.
Nicht vergessen Ampere holt sich auch einen Stück vom Kuchen ab. Viele Webserver können ohne Probleme mit ARM betrieben werden.

Im August gehts wohl los, ich find es komisch das hier geschrieben wird die Karten sind jetzt bei Intel. Dort werden sie geprüft und dann geht es an die Presse. Suchen die Golden Sample raus? Ich bin gespannt wer noch übrig bleibt von den AIB.

Antwort Gefällt mir

Klicke zum Ausklappem
m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Selbst die AIB partner werden ja bis heute im Dunklen gelassen was nun Sache ist.
Und welcher hat schon Lust, überhaupt ne GPU aufs PCB zu kleben, die realistisch wirtschaftlich gesehen irgendwo im Preisbereich von nicht viel mehr als 100€ (A380) angesetzt werden kann, um nicht in viel bessere Konkurrenz zu laufen.
Ist das überhaupt ein Markt?
Und die größeren Karten (A5.., A7...) sind noch überhaupt nirgends zu sehen.
Igor wird schon Recht haben, die Karten "bottlenecken" generell irgendwo hardwaremäßig, und selbst wenn man das irgendwann per Treiber einigermaßen umgangen bekommt...where's the point?
Das ist wirklich alles extrem schade.
Wenn die jetzt bei Intel noch feststellen, daß sich battlemage aus ähnlichen Gründen auch nicht in einem angemessenen Zeitraum konkurrenzfähig hinstellen lässt, dann ist es das glaub ich gewesen.

Antwort 1 Like

R
RX Vega_1975

Urgestein

575 Kommentare 75 Likes

@Igor Wallossek

Stampft intel die ARC und Battlemage Serie vielleicht doch komplett ein ...
da man von den Aktionären doch den Hut ziehen muss ?

Antwort Gefällt mir

Klicke zum Ausklappem
Kleine-Eule73

Mitglied

58 Kommentare 52 Likes

Danke für den Nachtest Igor
Leider hat sich ja nicht wirklich was getan an diesen komischen Teilen.....Hab irgendwie das Gefühl das die größeren Karten den gleichen Weg einschlagen werden. Schade eigentlich. Hatte mir mit dem ganzen TamTam echt wesentlich mehr versprochen von Intel. Wenn sie wenigstens nicht soviel Aufsehen um die Karten gemacht und sich mehr Zeit genommen hätten, wäre das ganze wahrscheinlich auch nicht mit Pauken und Trompeten durchgefallen. Mit so einer Leistung werden die keine Kunden gewinnen können wenn jede IGPU schneller und sparsamer ist

Antwort Gefällt mir

Chismon

Veteran

131 Kommentare 93 Likes

Ja gut, aber gibt es diese nicht bei der direkten Konkurrenz (egal ob AMD, siehe bspw. aktuelles Drama um leere Versprechungen/immer noch nicht in der Breite erhältliche R7 6800U APU Laptops damit der alte Kram (R7 5800U Laptops) vorher abverkauft wird, oder nVidia, siehe bspw. von Jen-Hsun bei der Vorstellung propagierte RTX 3090 als 8K Gaming Karte)?

Meiner Meinung nach tun sich Intel und die o.g. da wenig und Intel hat im Gegensatz zu den o.g. etablierten dGPU-Entwicklern weder vom Mining profitieren koennen noch dieses befeuert und haelt auch nicht kuenstlich/gierig die Preise trotz voller GPU-Lager immer noch viel zu hoch (nahe oder ueber UVP trotz auslaufender GPU-Generation).

Ein Glanzstueck war Arc Alchemist bisher von Intel mit Sicherheit nicht, aber wer hat das schon ernsthaft erwartet (?) und ueber die (Hinter-)Gruende kann viel spekuliert werden, wie vor kurzem im MLID Podcast mit einem interessanten Gast:

Bei Intel scheint momentan fast ueberall ziemlich der Wurm drinnen zu sein, egal ob bei Server CPUs oder dGPUs.

Lediglich Alder Lake war wieder ein Lichtblick und Raptor Lake (als leicht verbesserte Version von Alder Lake) duerfte evt. fuer Intel noch positive Nachrichten in den kommenden Monaten bringen (wer weiss schon, wie es um Meteor Lake steht) und trotz Pleiten, Pech und Pannen bei Intel bleibe ich dabei, dass diese hoffentlich Gaming-dGPUs weiter entwickeln werden und sich nicht jetzt komplett verabscheiden - wegen des eintruebenden Ausblicks (siehe Geschaeftszahlen) und dem zu Recht kritisierten Arc Alchemist "Start" und Marketing - denn es braeuchte dringend eine dritte wettbewerbsfaehige Kraft im Gaming-GPU-Markt als Alternative zu nVidia und AMD/RTG.

Antwort 1 Like

Klicke zum Ausklappem
Igor Wallossek

1

10,185 Kommentare 18,780 Likes

Mit MLID chatte ich fast jede Woche, nicht nur einmal...

Propaganda darf jeder betreiben, wenn er es irgendwann mal schafft, dass die Inhalte auch eingermaßen zum Produkt passen. Aber NUR labern und NICHTS leisten ist schon arg strange. :D

Antwort 3 Likes

Lagavulin

Veteran

226 Kommentare 181 Likes

Vielleicht hätte die Arc A380 als „LIMITED EDITION“ erscheinen sollen – da bekäme der Begriff eine ganz neue Bedeutung.

Antwort 7 Likes

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Und im neuesten Vid (nicht das oben verlinkte) wird ja auch die leider reichlich plausible These aufgestellt,
daß die marketing Abteilung fleißig weiter Lügen auftischt, während die Technik schon lange die bittere Wahrheit erkannt hat.

Antwort Gefällt mir

Yve

Veteran

113 Kommentare 54 Likes

Ich wünschte zwar es gäbe eine RTX1650, aber glaube da hat einfach nur der Fehlerteufel sein Unwesen in der Einleitung getrieben. 😸

Antwort Gefällt mir

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Willkommen im Forum.
Der erste Beitrag und gleich so ein Klugsch... :D
Aber wenigstens jemand, dem man kein R als ein G verkaufen kann.
Wir behalten Dich im Auge ;)

Antwort 6 Likes

R
Rooter

Mitglied

55 Kommentare 8 Likes

Die Ergebnisse in 720p deuten auf ein großes Problem beim driver overhead hin, das Problem ist ganz klar Software seitig zu suchen. Das wird auch in 1080p noch ordentlich Performance kosten, nur eben lange nicht so viel. AMD hat auch lange in DX11 driver overhead Nachteile gehabt, oder auch in OpenGL.

Antwort Gefällt mir

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Mein bisheriges Verständnis war, daß genau dieses "flatlining" bei geringeren Auflösungen eben einen hardwareseitigen Flaschenhals offenlegt.
Irgendwo klemmt es, unabhängig von Takt, Speicherbandbreite/-menge.
Ich gebe zwar gerne zu, daß ich das Ganze nur recht oberflächlich begreife, aber andererseits macht das im Zusammenhang gesehen mehr Sinn als die "liegt nur am Treiber" Story.

Wenns nur software-seitig, und damit "leicht" behebbar wäre, dann hätte man doch schon irgendwas von A7...gehört!?
Karten mit noch unausgegorenen Treibern rausbringen, und beim Kunden optimieren, das machen die anderen auch.

Aber wenns hardwareseitig ist, dann macht es eben keinen Sinn, auch teurere, höher taktende Karten mit mehr Speicherausstattung und Bandbreite rauszubringen...weil die eben gegen die gleiche harte Wand laufen würden.
Vielleicht etwas später, aber darauf kommts ja nicht an.
Geht dann ja wieder noch viel mehr darum, gegen was man antritt und zu welchem Preis...und das eben ohne Aussicht, das noch nachkorrigieren zu können.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Genau andersrum. Umso mehr die Last von der GPU weggeht und Richtung CPU geht, desto weniger ist die GPU gefordert. Jetzt könnte man meinen, die Abstände zwischen den GPUs werden kleiner. Das ist auch so, zumindest wenn die Treiber auf einem ähnlichen Level sind.

Hat der Treiber einen viel größeren driver overhead, braucht es mehr CPU Leistung. Das zeigt sich dann in den 720p Tests. AMD hatte damit in DX11 lange zu kämpfen, auch wenn nicht so stark wie Intel jetzt. AMD hat erst kürzlich deutlich nachgelegt beim DX11 Treiber.

In großen Auflösungen verschwindet die Abhängigkeit vom driver overhead, weil die GPU hauptsächlich der Flaschenhals darstellt. In anderen reviews ist gut sehen, dass die A380 in 1440p nochmal ein gutes Stück konkurrenzfähiger ist als in 1080p.

Driver overhead ist aber nur ein Problem, Intel wird noch andere Probleme haben. Im starken GPU Limit müssen auch noch Verbesserungen her.

Antwort Gefällt mir

m
meilodasreh

Urgestein

572 Kommentare 284 Likes

Ja insgesamt werden die Abstände enger.
Aber das 1% min Perzentil verändert sich ja kaum, auch nicht innerhalb einer Auflösung zwischen A380 @stock und OC.
Und das passt eben nicht zur Theorie.

Antwort Gefällt mir

R
Rooter

Mitglied

55 Kommentare 8 Likes

Der Abstand wird größer. In 1080p sind A380 und RX6400 gleichauf, in 720p liegt die A380 deutlich hinten. Das ist der driver overhead.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Wenn Intel so weitermacht, haben sie nächstes Weihnachten eine Karte, die sich mit der RX 6400 messen kann. Wer soll die kaufen? Gerade in China wird sich der Endkunde auch nicht mit unfertigem Müll abspeisen lassen.

Bei der nunmehr 3 Jahre alten GTX 1650 kann man nur neidlos anerkennen: "Alles richtig gemacht, Nvidia."

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung