Intel Arc A380 im Nachtest: Neue Treiber und die Draw-Calls – Wo liegt eigentlich der API-Overhead?

Wenn Intel vor 3 Jahren aktuelle Gaming Leistung versprochen hat, dann liegen die ja damit gesehen heute auf dem richtigen Niveau einer GTX1650. Mal schauen wie das mit der Grafikkartensparte so läuft, vielleicht wird das so gehandhabt wie bei einigen Intel SSDs wenn es nix ist wird es verkauft.
 
Theoretisch kann man sich jetzt schon ausrechnen wie die Leistung der "stärkeren" INTEL ARC GPU's ausfallen wird und so landet man auf dem Niveau einer RTX 3050 / RTX 2060 , mehr auch nicht.
 
Wie schon früher geschrieben. Ein Desaster mit Ansage.
 
Die Drawcall-Performance ist wirklich eine Katastrophe bei den A380-Modellen.

kam von MLID jetzt zu diesem Artikel und wenn sich die nicht per software behebbaren Hardwarelevel-Bugs bewahrheiten frage ich mich, ob wir Alchemist hier im Westen überhaupt sehen werden.
Generell scheint ja im Management fast nix zu laufen. Die Leute versuchen immer noch Alchemist zu fixen, vielleicht sogar neu zu produzieren um die Bugs zu fixen, während die Grafikmarketingabteilung erstmal auf Pressetour geht und sagt "Joa, kommt bald".

To be clear: Ich finde es generell sehr gut dass sie ein Marketing machen wollen, wo die in die Presse touren und Fragen beantworten.
Aber wenn die sagen "joa, der Burger kommt gleich" während die Küche im Vollbrand ist, ist es schlechtes Marketing seinen Ruf um die Aussagen zu zerstören für einen Hype der nix bringt. Und es wäre es langfristig auch, wenn der Hype denen was bringt.

Ich hoffe dass die sich wieder in den Griff bekommen, denn wir brauchen Konkurrenz! In CPU sowie GPU. Denn wenn Intel geht, haben wir bei der CPU nur noch AMD (wobei ich nicht denke, dass es so bald passiert) und beim Grafikkartenmarkt nur Nvidia und AMD.
Und Duopole sind nicht so das Wahre, ganz zu schweigen bei Monopolen.
 
Ich wünsche mir sehr, dass es Intel gelingt, sich als dritter großer Player – neben Nvidia und AMD – im Desktop-Grafikkartenmarkt zu etablieren, weil das Preisdruck auf die etablierten Hersteller ausübt und damit für mich als Kunde vorteilhaft ist.

Dabei erwarte ich auch gar nicht, dass Intel von Anfang an mit den leistungsfähigsten GraKas konkurrieren kann. Eine Einsteigerkarte oder Mittelklassekarte – vielleicht sogar einmal in einem preislich attraktiven Bundle mit einer Intel CPU („all Intel inside“) – wäre ein guter Einstieg in den Markt.

Für mich als Kunde gibt es dabei aber zwei Knackpunkte:

1. Die Karte muss von Anfang an stabil laufen. Einzelne „Ausreißer“ für wenige Spiele wären ok, müssten aber schnell durch Updates behoben werden.

2. Investitionsschutz: Ich müsste die Sicherheit haben, dass die Treiber für mindestens 5-6 Jahre für die jeweils neuen Spiele angepasst werden. Und da liegt der Hase im Pfeffer. Intel steht in mehreren Geschäftsbereichen stark unter Druck. Man sehe sich nur einmal die aktuellen Geschäftszahlen an. Falls ich das Risiko als hoch einschätze, dass Intel den Geschäftsbereich Desktop-Grafikkarten schließen wird (bzw. muss), würde ich mir keine ARC Desktop-Karte kaufen.

Hier müsste Intel durch verbindliche Zusagen Kundenvertrauen aufbauen – Marketing Bla Bla nützt da gar nichts.
 
Die EU hochrechnen, das ist recht einfach. Dann landet die 770 bei der 3060 (Ti), die 750 darunter.
 
Die DX12 Ergebnisse sehen etwas seltsam aus. Nvidia soll hier 50% schneller sein. Bei realen DX12 Spielen sieht es jedoch umgekehrt aus, dass AMD hier deutlich effizienter ist. Ich denke das ist noch nicht die Ganze Wahrheit.
 
Neuer Treiber 30.0.101.3259:

 
Die EU hochrechnen, das ist recht einfach. Dann landet die 770 bei der 3060 (Ti), die 750 darunter.
Vorausgesetzt der Flaschenhals liegt auch bei den EUs und nicht woanders.
Bei grösseren Karten kann ich mir auch vorstellen, dass der Scheduler schlapp macht, wodurch die EUs nicht optimal ausgelastet sein könnten.
Denn geht's weiter bergab mit der Performance. Dann kommen noch Treiber, Speicheranbindung (wobei das normalerweise mit den Shadern mitskaliert wird) usw.

Und dass der Scheduler einen fundamentalen Fehler hat ist etwas, was MLID ja auch angesprochen hat. Daher bin ich sehr gespannt wie die grossen Jungs performen gegenüber der kleinen A380 und der Konkurrenz, gerade in niedrigen Auflösungen bei hohen Bildraten.

Edit: Sorry für den Ping, Igor. Ich wollte einfach noch etwas mehr in die Hochrechnungen reinarbeiten, was zuvor nicht erwähnt wurde.
 
Die Hochrechnung ist ja schon nicht linear, das ist sogar weit vom linearen entfernt. Aber RTX 3050 Leistung ist unrealistisch selbst bei den ganzen Problemen. Das wären gerade mal 80% über der A380 bei der vierfachen Shader Anzahl, dreifachen Bandbreite und dem fast dreifachen power budget.
 
Genau so wie Igor #27 geschrieben hat und dabei noch die mögliche "Abweichung" berücksichtigt welche LeovonBastler #30 erwähnt.
Aber RTX 3050 Leistung ist unrealistisch selbst bei den ganzen Problemen.
Ja, ich verstehe dich aber vergleiche mal die technischen Daten der Arc 380 vs. RX 6400.
Obwohl die RX 6400 auf dem "Papier" deutlich schwächer aussieht ist sie im Gaming Test doch etwas schneller als die Arc 380.
Im "Draw Calls" Test versagt die Arc 380 dann komplett.
 
Genau so wie Igor #27 geschrieben hat und dabei noch die mögliche "Abweichung" berücksichtigt welche LeovonBastler #30 erwähnt.


Ja und wie kommst du auf RTX 3050 Leistung? Das ist doch jetzt die Frage. Igor widerspricht dir in der Hinsicht und ich widerspreche dir auch. An den A380 reviews sehe ich keine RTX 3050 Leistung für die 448/512 EU Varianten.


Ja, ich verstehe dich aber vergleiche mal die technischen Daten der Arc 380 vs. RX 6400.
Obwohl die RX 6400 auf dem "Papier" deutlich schwächer aussieht ist sie im Gaming Test doch etwas schneller als die Arc 380.
Im "Draw Calls" Test versagt die Arc 380 dann komplett.

Deswegen ja auch nur eine performance im Bereich 3060-3060 Ti. Auf dem Papier müsste die A770 eher bei der RTX 3070 Ti liegen.
 
Deswegen ja auch nur eine performance im Bereich 3060-3060 Ti. Auf dem Papier müsste die A770 eher bei der RTX 3070 Ti liegen.
Was heißt auf dem Papier? Keiner weiß, was die EU wirklich können, denn es gibt ja keine Vergleichsmöglichkeiten.

Ich will mal was "leaken":
Warum wohl hat NVIDIA schon vor Monaten die 3070 Ti mit 16GB gestrichen? Weil man genau wusste, dass die A770 nicht mal ansatzweise in diese Regionen kommen wird. Ich sags mal so, Jensens Spione irren sehr, sehr selten. Das hat man mir seitens eines Boardpartners letztes Jahr schon verbindlich gesteckt und es hat sich auch genau so bewahrheitet. Geschrieben habe ichs ja auch schon paarmal durch die Blume und selbst die aktuelle Performance der A770 knapp am/überm 3060 Ti Niveau ist nichts, was Anlegern Freude wirklich bereiten könnte. Den Gamern sowieso nicht. Wenn, dann kann man vielleicht in einigen Szenarien (ohne zu cheaten) noch die 3070 erreichen, aber das ist schon viel inkludierter Optimismus.

Das mit den Draw-Calls ist deprimierend und die Notwendigkeit, alles auf rBAR setzen zu müssen, zeigt letztendlich ja nur, dass man auch an der sehr einseitig ausgelegten Architektur scheitern wird. Ich denke mal, Intel hat hier Data Center auf Consumer runtergebrochen und sich dann beim Speichercontroller verhoben. Ob das bei der A7xx dann mit mehr Bandbreite besser ausschaut würde ich auch erstmal anzweifeln.
 
Vielen Dank für Dein weiteres Leiden.

Ich bin einfach nur enttäuscht. Wir wussten alle es wird nicht der Überflieger, aber so ist :poop:.
 
Was heißt auf dem Papier? Keiner weiß, was die EU wirklich können, denn es gibt ja keine Vergleichsmöglichkeiten.


Von der Effizienz redet keiner, ich rede von der Rechenleistung auf dem Papier. Die kennen wir mittlerweile sehr wohl, das kann sicher jeder ausrechnen. Eine 512 EU Version mit 2,45 Ghz erreicht 20 tflops FP32. Jetzt geht man hin und vergleicht die Rechenleistung mit Nvida und AMD. Vergleichbare 256 bit SKUs gibt es von allen drei.

Wenn man sich die Daten anschaut, müsste man meinen, das wird eher ein RTX 3070 Ti Konkurrent.

Aber wie wir wissen ist der Treiber zu schlecht und eventuell gibt es auch noch Schwachstellen in der Architektur selber, schwer zu sagen. Ja und deswegen kommt eben nur eine Leistung im Bereich der RTX 3060-3060 Ti raus, jedenfalls muss man davon ausgehen. Und genau deswegen ist die A380 nicht auf RX6500 XT Niveau, was eher passen würde, sondern eben nur auf RX6400 Niveau.
 
Ich will mal was "leaken":
Warum wohl hat NVIDIA schon vor Monaten die 3070 Ti mit 16GB gestrichen? Weil man genau wusste, dass die A770 nicht mal ansatzweise in diese Regionen kommen wird. Ich sags mal so, Jensens Spione irren sehr, sehr selten.
8GB VRAM sind heute nicht mehr genug! Schon die 3. Generation die Nvidia mit nur 8GB raus bringt, ausser bei top end Modellen. Wie wärs mal was für die Kunden zu tun, und nicht nur den Finger raus zu ziehen, wenns nötig ist um der Konkurrenz nur Paroli bieten zu können? Arroganter grüner Laden *Fluch hier einsetzen*
 
Danke für den Nachtest Igor.
Das mit den Draw-Calls ist deprimierend und die Notwendigkeit, alles auf rBAR setzen zu müssen, zeigt letztendlich ja nur, dass man auch an der sehr einseitig ausgelegten Architektur scheitern wird. Ich denke mal, Intel hat hier Data Center auf Consumer runtergebrochen und sich dann beim Speichercontroller verhoben. Ob das bei der A7xx dann mit mehr Bandbreite besser ausschaut würde ich auch erstmal anzweifeln.
Es sieht so aus, dass sie den Memory Controller der Data Center GPUs genommen haben für die Consumer Karten. Der ist auf große Chunks ausgelegt also braucht's ResBar. Vielleicht splitten das zukünftig auf.

Die Draw Call Limitierungen werden bei den größeren Modellen noch "lustig", gerade in Verbindung mit XeSS. Man braucht wirklich schnelle CPUs, um das ein bisschen kompensieren zu können.

"Our software release on our discrete graphics was clearly underperforming," said Gelsinger. "We thought that we would be able to leverage the integrated graphics software stack, and it was wholly inadequate for the performance levels, gaming compatibility, etc. that we needed. So we are not hitting our four million unit goal in the discrete graphics space, even as we are now catching up and getting better software releases."
Was denkst du hierzu? Oha...
 
Rückzug auf Raten ;)

Ich hatte ja schon vor ÜBER einem Jahr geschrieben, dass Intel das komplette Treiber Team entlassen hat (was bin ich dafür angefeindet worden) und weiter nur auf den iGP-Stack mit anderem GUI setzt. Die Info hatte ich vom damaligen PR-Lautsprecher Chris abends mal beim Chatten bekommen, nachdem der sich rechtzeitig abgesetzt hatte.

 
Morgen kommt noch was Exklusives zu Sapphire Rapids, da sieht es auch nicht sonderlich gut aus. Intel wird langsam nachrechnen müssen, wo sie wieviel Geld noch weiter verbrennen und wo es sich nicht mehr lohnt, noch gutes Geld dem verbrannten hinterherzuschießen.

Auch wenn unser aller herzallerliebster Florian dann wieder hyperventilieren wird, es gibt Informationsbedarf, den ich damit gern decke. Und auch er muss endlich mal einsehen, dass meine Quellen nicht in DE sitzen. Das wäre viel zu einfach. Ich gehöre zum Club der alten weißen Männer. :D
 
Oben Unten