Intel Arc A380 im Nachtest: Neue Treiber und die Draw-Calls – Wo liegt eigentlich der API-Overhead?

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.476
Punkte
1
Standort
Redaktion
Neuer Treiber, neues Glück? Ich habe Intels Arc A380 mit neuen Beta-Treibern noch einmal gebenchmarkt und auch die Draw-Calls unter DX11, DX12 und Vulkan betrachtet. Alter Wein und reifen? Jain, aber dazu komme ich gleich noch. Zum Einsatz kommen das im ersten Artikel verwendete Testsystem und die in etwa gleich schnellen Karten aus dem letzten (read full article...)
 
Mal sehen ob sie noch was hin bekommen beim Treiber für die 750 und 770.

Ansonsten seh ich für den Standard Endkunden schwarz.
Noch 6 Wochen dann ist der Sommer rum.
 
Ich würde überhaupt kein Problem in der Sache sehen, denn es ist ja quasi eine Premiere, wäre da nicht die bescheuerte Propaganda gewesen. Man kann sich selbst in die Tasche lügen, aber wenn man den potentiellen Kunden genauso verarscht, dann wird die Masse sauer. Irgendwann muss jeder die Karten auf den Tisch legen und je höher man verbal gepokert hat, umso teurer wird die Endabrechnung in der Realität. Denn es kommt ja immer raus, so oder so.
 
Mal die aktuellen Intel Zahlen gesehen? Sapphire Rapids schlägt komplett negativ durch. Data Center mit fetten Einbrüchen
 
Ja die Intel Zahlen sind abartig schlecht. Jeder wartet gefühlt auf Sapphire Rapids und das Teil wird einfach nicht fertig und kostet unsummen in der Validierung/Tests.
Nicht vergessen Ampere holt sich auch einen Stück vom Kuchen ab. Viele Webserver können ohne Probleme mit ARM betrieben werden.



Im August gehts wohl los, ich find es komisch das hier geschrieben wird die Karten sind jetzt bei Intel. Dort werden sie geprüft und dann geht es an die Presse. Suchen die Golden Sample raus? Ich bin gespannt wer noch übrig bleibt von den AIB.

 
Ich bin gespannt wer noch übrig bleibt von den AIB.
Selbst die AIB partner werden ja bis heute im Dunklen gelassen was nun Sache ist.
Und welcher hat schon Lust, überhaupt ne GPU aufs PCB zu kleben, die realistisch wirtschaftlich gesehen irgendwo im Preisbereich von nicht viel mehr als 100€ (A380) angesetzt werden kann, um nicht in viel bessere Konkurrenz zu laufen.
Ist das überhaupt ein Markt?
Und die größeren Karten (A5.., A7...) sind noch überhaupt nirgends zu sehen.
Igor wird schon Recht haben, die Karten "bottlenecken" generell irgendwo hardwaremäßig, und selbst wenn man das irgendwann per Treiber einigermaßen umgangen bekommt...where's the point?
Das ist wirklich alles extrem schade.
Wenn die jetzt bei Intel noch feststellen, daß sich battlemage aus ähnlichen Gründen auch nicht in einem angemessenen Zeitraum konkurrenzfähig hinstellen lässt, dann ist es das glaub ich gewesen.
 
@Igor Wallossek

Stampft intel die ARC und Battlemage Serie vielleicht doch komplett ein ...
da man von den Aktionären doch den Hut ziehen muss ?

 
Danke für den Nachtest Igor
Leider hat sich ja nicht wirklich was getan an diesen komischen Teilen.....Hab irgendwie das Gefühl das die größeren Karten den gleichen Weg einschlagen werden. Schade eigentlich. Hatte mir mit dem ganzen TamTam echt wesentlich mehr versprochen von Intel. Wenn sie wenigstens nicht soviel Aufsehen um die Karten gemacht und sich mehr Zeit genommen hätten, wäre das ganze wahrscheinlich auch nicht mit Pauken und Trompeten durchgefallen. Mit so einer Leistung werden die keine Kunden gewinnen können wenn jede IGPU schneller und sparsamer ist
 
, wäre da nicht die bescheuerte Propaganda gewesen.
Ja gut, aber gibt es diese nicht bei der direkten Konkurrenz (egal ob AMD, siehe bspw. aktuelles Drama um leere Versprechungen/immer noch nicht in der Breite erhältliche R7 6800U APU Laptops damit der alte Kram (R7 5800U Laptops) vorher abverkauft wird, oder nVidia, siehe bspw. von Jen-Hsun bei der Vorstellung propagierte RTX 3090 als 8K Gaming Karte)?

Meiner Meinung nach tun sich Intel und die o.g. da wenig und Intel hat im Gegensatz zu den o.g. etablierten dGPU-Entwicklern weder vom Mining profitieren koennen noch dieses befeuert und haelt auch nicht kuenstlich/gierig die Preise trotz voller GPU-Lager immer noch viel zu hoch (nahe oder ueber UVP trotz auslaufender GPU-Generation).

Ein Glanzstueck war Arc Alchemist bisher von Intel mit Sicherheit nicht, aber wer hat das schon ernsthaft erwartet (?) und ueber die (Hinter-)Gruende kann viel spekuliert werden, wie vor kurzem im MLID Podcast mit einem interessanten Gast:


Bei Intel scheint momentan fast ueberall ziemlich der Wurm drinnen zu sein, egal ob bei Server CPUs oder dGPUs.

Lediglich Alder Lake war wieder ein Lichtblick und Raptor Lake (als leicht verbesserte Version von Alder Lake) duerfte evt. fuer Intel noch positive Nachrichten in den kommenden Monaten bringen (wer weiss schon, wie es um Meteor Lake steht) und trotz Pleiten, Pech und Pannen bei Intel bleibe ich dabei, dass diese hoffentlich Gaming-dGPUs weiter entwickeln werden und sich nicht jetzt komplett verabscheiden - wegen des eintruebenden Ausblicks (siehe Geschaeftszahlen) und dem zu Recht kritisierten Arc Alchemist "Start" und Marketing - denn es braeuchte dringend eine dritte wettbewerbsfaehige Kraft im Gaming-GPU-Markt als Alternative zu nVidia und AMD/RTG.
 
Zuletzt bearbeitet :
Mit MLID chatte ich fast jede Woche, nicht nur einmal...

Propaganda darf jeder betreiben, wenn er es irgendwann mal schafft, dass die Inhalte auch eingermaßen zum Produkt passen. Aber NUR labern und NICHTS leisten ist schon arg strange. :D
 
Ich wünschte zwar es gäbe eine RTX1650, aber glaube da hat einfach nur der Fehlerteufel sein Unwesen in der Einleitung getrieben. 😸
 
Ich wünschte zwar es gäbe eine RTX1650, aber glaube da hat einfach nur der Fehlerteufel sein Unwesen in der Einleitung getrieben. 😸
Willkommen im Forum.
Der erste Beitrag und gleich so ein Klugsch... :D
Aber wenigstens jemand, dem man kein R als ein G verkaufen kann.
Wir behalten Dich im Auge ;)
 
Igor wird schon Recht haben, die Karten "bottlenecken" generell irgendwo hardwaremäßig, und selbst wenn man das irgendwann per Treiber einigermaßen umgangen bekommt...where's the point?
Das ist wirklich alles extrem schade.
Wenn die jetzt bei Intel noch feststellen, daß sich battlemage aus ähnlichen Gründen auch nicht in einem angemessenen Zeitraum konkurrenzfähig hinstellen lässt, dann ist es das glaub ich gewesen.


Die Ergebnisse in 720p deuten auf ein großes Problem beim driver overhead hin, das Problem ist ganz klar Software seitig zu suchen. Das wird auch in 1080p noch ordentlich Performance kosten, nur eben lange nicht so viel. AMD hat auch lange in DX11 driver overhead Nachteile gehabt, oder auch in OpenGL.
 
Die Ergebnisse in 720p deuten auf ein großes Problem beim driver overhead hin, das Problem ist ganz klar Software seitig zu suchen
Mein bisheriges Verständnis war, daß genau dieses "flatlining" bei geringeren Auflösungen eben einen hardwareseitigen Flaschenhals offenlegt.
Irgendwo klemmt es, unabhängig von Takt, Speicherbandbreite/-menge.
Ich gebe zwar gerne zu, daß ich das Ganze nur recht oberflächlich begreife, aber andererseits macht das im Zusammenhang gesehen mehr Sinn als die "liegt nur am Treiber" Story.

Wenns nur software-seitig, und damit "leicht" behebbar wäre, dann hätte man doch schon irgendwas von A7...gehört!?
Karten mit noch unausgegorenen Treibern rausbringen, und beim Kunden optimieren, das machen die anderen auch.

Aber wenns hardwareseitig ist, dann macht es eben keinen Sinn, auch teurere, höher taktende Karten mit mehr Speicherausstattung und Bandbreite rauszubringen...weil die eben gegen die gleiche harte Wand laufen würden.
Vielleicht etwas später, aber darauf kommts ja nicht an.
Geht dann ja wieder noch viel mehr darum, gegen was man antritt und zu welchem Preis...und das eben ohne Aussicht, das noch nachkorrigieren zu können.
 
Mein bisheriges Verständnis war, daß genau dieses "flatlining" bei geringeren Auflösungen eben einen hardwareseitigen Flaschenhals offenlegt.
Irgendwo klemmt es, unabhängig von Takt, Speicherbandbreite/-menge.
Ich gebe zwar gerne zu, daß ich das Ganze nur recht oberflächlich begreife, aber andererseits macht das im Zusammenhang gesehen mehr Sinn als die "liegt nur am Treiber" Story.


Genau andersrum. Umso mehr die Last von der GPU weggeht und Richtung CPU geht, desto weniger ist die GPU gefordert. Jetzt könnte man meinen, die Abstände zwischen den GPUs werden kleiner. Das ist auch so, zumindest wenn die Treiber auf einem ähnlichen Level sind.

Hat der Treiber einen viel größeren driver overhead, braucht es mehr CPU Leistung. Das zeigt sich dann in den 720p Tests. AMD hatte damit in DX11 lange zu kämpfen, auch wenn nicht so stark wie Intel jetzt. AMD hat erst kürzlich deutlich nachgelegt beim DX11 Treiber.

In großen Auflösungen verschwindet die Abhängigkeit vom driver overhead, weil die GPU hauptsächlich der Flaschenhals darstellt. In anderen reviews ist gut sehen, dass die A380 in 1440p nochmal ein gutes Stück konkurrenzfähiger ist als in 1080p.

Driver overhead ist aber nur ein Problem, Intel wird noch andere Probleme haben. Im starken GPU Limit müssen auch noch Verbesserungen her.
 
Jetzt könnte man meinen, die Abstände zwischen den GPUs werden kleiner. Das ist auch so
Ja insgesamt werden die Abstände enger.
Aber das 1% min Perzentil verändert sich ja kaum, auch nicht innerhalb einer Auflösung zwischen A380 @stock und OC.
Und das passt eben nicht zur Theorie.
 
Ja insgesamt werden die Abstände enger.
Aber das 1% min Perzentil verändert sich ja kaum, auch nicht innerhalb einer Auflösung zwischen A380 @stock und OC.
Und das passt eben nicht zur Theorie.


Der Abstand wird größer. In 1080p sind A380 und RX6400 gleichauf, in 720p liegt die A380 deutlich hinten. Das ist der driver overhead.
 
Wenn Intel so weitermacht, haben sie nächstes Weihnachten eine Karte, die sich mit der RX 6400 messen kann. Wer soll die kaufen? Gerade in China wird sich der Endkunde auch nicht mit unfertigem Müll abspeisen lassen.

Bei der nunmehr 3 Jahre alten GTX 1650 kann man nur neidlos anerkennen: "Alles richtig gemacht, Nvidia."
 
Oben Unten