Intels ARC Grafikkarten auf der Kippe? Über resignierende Boardpartner, genervte Systemintegratoren und skeptische Händler

Der (letzte) große Einsturz bei Bitcoins war "erst" Anfang des Jahres, da hätte Intel bereits längst auf dem Markt sein wollen, also vielleicht genau rechtzeitig.
Wenn man wie hier Intel in einen Marktbereich einsteigen will, dann sind das langfristige Entscheidungen von mindestens 3 bis 5 Jahren um ein brauchbares Produkt zu entwickeln. Danach braucht es einige Jahre sich einen gewissen Marktanteil zu erobern. Danach sollte das Produkt über Jahre verkauft werden, um die Entwicklungskosten wieder herein zu holen.

Dass der Bitcoin mal rauf oder runter gehen kann, muss man am Anfang als Risiko einrechnen um abzuschätzen, wie sich der Markt entwickeln könnte. Ob sich der Bitcoin dann zu einem bestimmten Zeitpunkt so oder anders verhält, sollte auf diese langfristige Planung keinen Einfluss haben. Auch wenn man jetzt "genau rechtzeitig" fertig geworden wäre, hätte man in der Zeit nie so viele Karten verkauft, um die Entwicklungskosten herein zu holen. Für das Ziel in diesen Marktbereich einzusteigen, hätte das nur wenig geholfen.
 
@Martin Gut Das ist richtig. Ich wollte damit auch nicht sagen, dass das eine reine Mining-Karte hätte werden sollen. Aber man hätte die erste Generation mit nur bedingt spieletauglichen Treibern an Miner verscherbeln können, um schnell ein bisschen Geld reinzubekommen. Zumindest wäre man dann die Karten losgeworden und hätte den Aktionären eine hohe Nachfrage vorlügen können.

Und vor den von dir genannten 3 bis 5 Jahren war Mining DAS Thema, daher halte ich es für durchaus wahrscheinlich, dass Mining für Intel Plan B war, falls das mit dem Gaming nicht so richtig funktioniert.

Ich bin kein Experte: Der Speichercontroller ist ja angeblich der Grund, weshalb die Karte mit rBAR wesentlich besser läuft als ohne. Weiß jemand wie das beim Mining aussieht? Ist das dort im jetzigen Zustand auch eine Bremse oder ist das völlig egal? Ich weiß zumindest, dass bei einigen Kryptowährungen für die Anbindung der GPU ein PCIe X1 völlig ausreicht.
 
Zumindest wäre man dann die Karten losgeworden und hätte den Aktionären eine hohe Nachfrage vorlügen können.
Ja, besser den Fuss in der Tür als vor verschlossener Tür stehen. Dann kann man sagen, "es läuft" aber hat noch Verbesserungspotential. So ist es einfacher weitere Gelder für die Entwicklung zu bekommen als wenn gar nichts läuft.

Mining war schon ein Thema, aber es war auch damals schon bekannt für extreme Kursschwankungen. Da ist es besser auf einen über Jahre stabilen Bereich wie die Gamer und Wissenschaftler zu setzen als auf Mining. Klar nimmt man Gewinne durch Mining gerne mit, aber sich mehrheitlich auf Mining verlassen will keiner der Hersteller.

Ich weiß zumindest, dass bei einigen Kryptowährungen für die Anbindung der GPU ein PCIe X1 völlig ausreicht.
Ich vermute auch, dass rBAR da nichts ausmacht. Es sind ja nur die Rechenkerne, die wie verrückt arbeiten und ab und zu ein paar Resultate in den Grafikkartenspeicher schreiben. Wenn man denen mal gesagt hat, was zu tun ist, dann arbeiten die praktisch selbständig. Darum gibt es ja extra Mining-Mainboards mit etwa 10 PCIe 1x Slots.
 
Für mich sind die Karten gar nicht mal die große Enttäuschung!

Das was das Ganze so dramatisch für Intel werden lässt, sind letzlich die immer wiederkehrenden Verzögerungen. Wäre ARC inmitten der GPU Krise, wie ich diese einfach mal nennen möchte, erschienen, hätte man Abnehmer gefunden. Eine 6400XT mit 6GB wäre quasi eine gute Sache gewesen und hätte das Marktgefüge aufgenommen und wäre in meinen Augen am Markt auch angenommen worden.

In der Zeit wären sicherlich einige Boardpartner bereit gewesen das Risiko zu gehen, auch wenn Intel sich das Leben hier scheinbar wieder selbst unnötig schwer gemacht hat und schwer macht. Jetzt hat man soviel Geld in die Entwicklung gesteckt und dann lässt man es im Prinzip vor einer wirklichen Markteinführung implodieren, da man sich selbst als besser und wichtiger sieht, wie die beiden etablierten Hersteller? Das ist Intel @hisbest und wird unabhängig von der Leistung der Karten dazu führen, dass man weiterhin keine Rolle spielen wird. Mal gesponnen und die zweite Generation kann plötzlich auf Augenhöhe zu AMD/NV agieren, was dann? Meint Intel, dass dann jeder Consumer gleich auf den Zug aufspringt? Nein, war noch nie so und wird nie so sein, man wird keinen guten Ruf haben und selbst wenn die Karten taugen, wird man keinen Platz im Markt finden. Man muss sich doch nur anschauen, wie schwer es AMD hat, seit Jahren hat man endlich wieder (bitte kein Streit) die im Endeffekt besseren Karten auf dem Markt und dennoch greifen die meisten gerne zu Nvidia, obwohl deren Mehrleistung meist nur in Bench zu messen sind, dafür aber gleich mal exorbitante Verbrauchswerte mitliefern. Warum macht man das? Richtig, schon seit Anbeginn des PCs verfolgen 99% der User das Credo, "never change a running system", so ein Zuwachs in einzelnen Bereichen wird niemals über eine Generation stattfinden, perfekter Vergleich hierzu AMD und Ryzen, man gewinnt sukzessive, aber eben nur geringe Marktanteile.
 
Auch wenn ich mit der Vermietung nur eine kleine Nische bediene, es ist bereits so, dass AMD-Grafikkarten schon so überhaupt gar nicht nachgefragt werden. Spieler wollen Nvidia, die semi-professionellen wollen Nvidia und die professionellen wollen Quadros oder wenns billiger ist und auch geht eben die Geforce-Grafikkarten.

Wie soll das dann erst bei Intel werden? Bei AMD merke ich, dass die extrem preissensitiven durchaus gewillt sind, sich mit AMD-Grafikkarten abzugeben, Evtl. wäre das erst einmal der way to go gewesen für Intel. Unten anfangen über den Preis (und natürlich trotzdem funktionierende Hardware) und dann langsam steigern. Natürlich muss man am Anfang alle Partner mit Geld pampern, daher verstehe ich auch nicht warum Intel da direkt Nein sagt bei Rückerstattungen etc.
 
"dass die extrem preissensitiven durchaus gewillt sind, sich mit AMD-Grafikkarten abzugeben" finde ich ein bisserl übertrieben.

Das würde nur zutreffen wenn AMD Grafikkarten quasi schon fast müll wären was ich z.B. , speziell unter Linux, nicht so empfinde.

Ich für meinen teil habe bisher nachdem 3dfx aufgekauft wurde fast nur ATI oder AMD grafikkarten gehabt.
Sicher kann ich nicht sagen warum genau, aber ich mag NVIDIA nicht so, auch wenn z.b. die 1060, die ich bis vor knapp 1 Woche noch hatte, unter Windoof mir keinen Grund zum klagen gegeben hat.
 
Wie gesagt, ich spreche nur für die Nische der Vermietung. Und wenn es um Grafikkarten geht, dann bewegen sich die Anfragen hinsichtlich AMD-Grafikkarten im extrem niedrigen Preisbereich bzw. "ist egal was drin ist".
 
Mal abgesehen das ich das mit dem vermiten übersehen / überlesen habe wundert es mich das es da wohl dann anderes ist.

Btw. ich wusste gar nicht das Grafikkarten vermietet werden, gibts irgendwas was nicht vermietet wird ? :unsure:
 
Du kannst ja mal versuchen auf einem CSGO-Turnier, AMD-Gafikkarten in die Turnier-Rechner zu packen. Du wirst bespuckt und angepöbelt (übertrieben geschrieben). Aber so mancher kam schon vorbei vor Ort und fragte, ob wir auch PCs mit Nvidia-Grafikkarten haben. Seitdem gibt es keine Miet-PCs mehr mit AMD-Grafikkarten für solche Events.

Da frage ich mich schon wie Intel erst einen Fuß in diese Tür bekommen will?
 
Ich weiß nicht in welchen Branchen und Märkten Komplett-PCs mit dGPU verkauft werden, bzw. was damit dann gemacht wird. Aber zum Spielen werden die wohl eher weniger eingesetzt, außer halt zur Spieleentwicklung, wo wohl kaum ein Entwicklerstudio oder seine Zuarbeiter ohne massive Subventionen auf Intel GPUs setzen dürften.

Der ganze GPGPU Ansatz mit OneAPI schien ja in erster Linie von HPC und Machine-Learning her gedacht, aber daß man im HPC Umfeld gerade massiv Nvidia oder AMD rausschmeißen würde, habe ich auch noch nicht gehört.

Spiele und HPC brauchen massive Entwicklerteams, um ansatzweise vernünftige Leistung aus der Hardware herauszukitzeln, die sich natürlich nur rentieren, wenn man entsprechende Marktanteile erobern kann. Davon ist Intel weit entfernt.

Dann bliebe vielleicht noch CAD und all der 3D-Design Bereich, wo AMD und Nvidia heute ihre professionellen Produkte mit ihren zertifizierten Treibern verkaufen. Ich kenne den Markt nicht, der einzige Einblick den ich da habe ist der SPECviewperf benchmark, der vor allem aufzuzeigen scheint, daß die Software einfach mal 10-30 Jahre hinter den Möglichkeiten aktueller Hardware hinterherhängt. Dank HWinfo kann man ja ziemlich genau verfolgen, was da bei den verschiedenen Benchmarks wie stark benutzt wird und da komme ich um das Kopfschütteln einfach nicht herum.

Da wird noch manches mit CPUs gemacht, was GPUs längst weit besser können (ohne freilich auf wirklich hohe Kernzahlen zu skalieren: Von meinen 16-18 Kernen wird da wenig ausgereizt). Teilweise fungieren die GPU da noch als reine "2D Beschleuniger", 3D wird maximal auf "Direct-X9" Niveau genutzt. Da kann man sicher mit der maximalen Skalarleistung und Speicherbandbreite etwas gewinnen, aber ob die hohen Preise für diese Karten bei Nvidia und AMD sich daraus herleiten, daß der Implementationsaufwand bzw. spezifische Optimierungen aufwendig sind, oder nur Schutzgebühren der Softwarehersteller in einem hochpreisigen Markt darstellen, kann ich icht beurteilen. Im letzteren Falle hätte Intel da ggf. Chancen als Gesamtplatformanbieter auf diese Schutzgebühren einzuwirken und Volumen zu erreichen. Aber dann würden Nvida und AMD schnell nachlassen können und damit die Profitabilität dieses Marktes austrocknen.

Soweit ich rein optisch feststellen konnte, lief SPECviewperf immer auch auf Spielerhardware "korrekt", was dort wohl gegenüber der Geschwindigkeit der etwas wichtigere Maßstab zu sein scheint. Genau wie bei VDI mit 3D ggf. auch mit partitionierten GPUs (remote VMs with GPU pass-through für 3D im Hochsicherheitsumfeld) habe ich da immer Abzocke in einem Markt vermutet, wo die Softwarelizenz der weit größere Kostenfaktor ist.

Bei den CPUs bin ich nach vielen Jahren Intel mit Zen3 wieder bei AMD gelandet, vom der Ultrabook APU bis zum Ryzen 9 5950X in der Workstation. Aber bei der dGPU zahlt CUDA allein Support für die Investition und da hat selbst AMD nicht ausreichend Ambitionen, im Machine-Learning-Umfeld aufzuschließen. Daß man mit dem ML-Beschleuniger von Nvidia auch noch spielen kann, darüber freuen sich vor allem meine Kids, bei denen regelmäßig die "Altlasten" landen.
 
Abgesehen vom verkleinern von Videos wüsste ich nicht wo ich mit der NVIDIA karte CUDA genutzt hätte.
Kannst du vielleicht (scheinst da ja mehr zu wissen) mir sagen wie denn OPEN CL im vergleich dasteht, das ist doch das quasi Equivalent was AMD nutzt oder ?
 
Abgesehen vom verkleinern von Videos wüsste ich nicht wo ich mit der NVIDIA karte CUDA genutzt hätte.
Kannst du vielleicht (scheinst da ja mehr zu wissen) mir sagen wie denn OPEN CL im vergleich dasteht, das ist doch das quasi Equivalent was AMD nutzt oder ?
Meine Kollegen und ich forschen im Bereich Machine-Learning für verschiedene Anwendungsbereiche von Spracherkennung und -synthese bis zur Betrugserkennung. Fast alle Softwarestacks dazu laufen auf Linux unter CUDA, weil sich das mal aus dem High-Performance Computing Umfeld heraus entwickelt hat. Im Rechenzentrum nutzen wir dann auch meist reine Beschleunigerkarten ohne Video-Ausgang (e.g. V100/A100), für die Softwareentwicklung und QA-Tests im Heimlabor nehme ich dann Consumer-GPUs wie RTX2080ti oder vorher GTX1080ti.

Die Bibliotheken bestehen aus vielen Schichten Open-Source Software, die man nicht mal eben so auf Open-CL bzw. hardwareoptimiert nachimplementiert. AMD hat da einige Versuche unternommen, CUDA Code über Cross-Compiler auf ihrer Hardware lauffähig zu machen, aber das funktioniert bisher wohl nur mit HPC Kunden, die entsprechende Software selbst enwickeln. Und im ML-Umfeld erreicht man mit einer High-Level Sprache nicht die Effizienz, die Nvidia da mit hand- bzw. maschinenoptimierten GPU Assembler erreicht--solange man nicht vergleichbar viel Aufwand hineinsteckt und den Patentkrieg übersteht.

Was alle in der Industrie verstehen, ist daß man für eine wesentliche Verbesserung GPU+CPU enger integrieren muß, auch je nachdem wie sehr man gerade im Training oder Inferencing beim Machine Learning steckt. Diesen Vorteil der integrierten Lösung wollte zu allererst AMD ausschlachten, die ja immerhin die Hardware auf beiden Seiten anbieten. Aber da war Intel+Nvidia lange schwer zu schlagen und natürlich geht das auch mit AMD+Nvidia.

Aus dieser Position heraus haben nun Intel und Nvidia beide beschlossen, jeweils im Garten des Nachbarn zu wildern, Intel mit ihren neuen GPUs und NVidia mit ihren neuen (ARM)-CPUs.

Den CPU Teil von x86 auf ARM zu portieren ist trivial... weshalb ich Nvidia da in einer schwer angreifbaren Position sehe... jedenfalls solange es nicht neue CPU Architekturen gibt, welche das auf der ISA Ebene besser mit normalem Code hinbekommen, wie z.B. die Fujitsu ARM CPUs.

Für die meisten Unternehmen ist der Mehraufwand für eine Portierung von CUDA auf OneAPI o.ä. viel zu groß und risikobehaftet. Und solange es keine signifikant schnellere Hardware von Intel oder AMD gibt, gäbe es auch kein Motiv.
 
Zuletzt bearbeitet :
Danke für die Antwort, ist mal interessant sowas zu hören, sofern man wie ich bisher nur privat mit CUDA oder OPEN CL zu tun hatte.
 
@abufrejoval: Ich habe mir schon öfter gedacht, daß NVIDIA den Leuten, die für sie CUDA entwickelt haben, irgendwo in deren HQ ein Denkmal aufstellen sollten. CUDA ist doch häufig der Hauptgrund, warum NVIDIA Karten gekauft werden, und nicht Karten von AMD. Und, wie schon von Dir geschrieben, Spielen kann man mit den CUDA Kernen auch noch.
 
Und zum Thema Intel und der Kurs der Titanic: Ich denke, daß die einzige Möglichkeit für Intel, die verfahrene Situation noch zu bereinigen, jetzt ist wenn sie ihre Alchemist Karten als "Founder's Editions" selbst rausbringen. Mit Boardpartnern, die abspringen oder gar nicht erst mitmachen wollen, muss Intel jetzt eben direkt zeigen, daß Alchemist doch noch was taugt, und die Teile unter das Volk bringen. So wie es jetzt ist wird das nichts mehr. Allerdings müssen sie dazu ihre Firmware und Treiber auf Vordermann bringen, und sich dann bei den Preisen sehr, sehr zurück halten. Ob Intel dazu in der Lage ist, wird man noch sehen, aber Zweifel sind angebracht.
 
Intel hat sich wohl bei Asrock eingekauft mit ner netten Geldspende. Die einfach weiter mit Kohle zupudern und die bringen schon ihre Grafikkarten unters Volk.
 
Intel hat sich wohl bei Asrock eingekauft mit ner netten Geldspende. Die einfach weiter mit Kohle zupudern und die bringen schon ihre Grafikkarten unters Volk.
Da wäre ich nicht so sicher. Der Markt für Grafikkarten ist von harter Konkurrenz geprägt und Imageschäden werden die "Premium" Marken wie Asus, MSI, Gigabyte, etc... (außerhalb einer Situation der höchsten Not) für Geld nicht riskieren. Einen guten Ruf aufzubauen ist lange, harte Arbeit. Ihn zu ruinieren, das kann man ggf. mit einer falschen Entscheidung hinbekommen. ASRock scheint da irgendwie schmerzfreier zu sein, über die Gründe mag ich nicht spekulieren.
 
Ich sehe für die Intel Karten keinen Markt. Und das beziehe ich nicht nur auf die Gamer, die ein konkurrenzfähiges Produkt mit ebensolcher Preisgestaltung suchen sowie auch funktionierende Treiber über die Breite der aktuellen und verfügbaren Graphik-Engines, sondern vor allem auch
im professionellen Bereich, in dem RMA und 24h Support ja noch wesentlichere Kostentreiber sein können.
Für die prognostizierte Preisgestaltung gerade der "größeren" Karten muss man schon ein arger AMD und Nvidia Hasser sein, um hier (potentiell und sofern überhaupt jemals verfügbar) zuzugreifen. Ob Intel mit Herrn Koduri hier das richtige "ASS" ins Boot gekauft hat, bleibt abzuwarten.
 
Oben Unten