Abgesehen vom verkleinern von Videos wüsste ich nicht wo ich mit der NVIDIA karte CUDA genutzt hätte.
Kannst du vielleicht (scheinst da ja mehr zu wissen) mir sagen wie denn OPEN CL im vergleich dasteht, das ist doch das quasi Equivalent was AMD nutzt oder ?
Meine Kollegen und ich forschen im Bereich Machine-Learning für verschiedene Anwendungsbereiche von Spracherkennung und -synthese bis zur Betrugserkennung. Fast alle Softwarestacks dazu laufen auf Linux unter CUDA, weil sich das mal aus dem High-Performance Computing Umfeld heraus entwickelt hat. Im Rechenzentrum nutzen wir dann auch meist reine Beschleunigerkarten ohne Video-Ausgang (e.g. V100/A100), für die Softwareentwicklung und QA-Tests im Heimlabor nehme ich dann Consumer-GPUs wie RTX2080ti oder vorher GTX1080ti.
Die Bibliotheken bestehen aus vielen Schichten Open-Source Software, die man nicht mal eben so auf Open-CL bzw. hardwareoptimiert nachimplementiert. AMD hat da einige Versuche unternommen, CUDA Code über Cross-Compiler auf ihrer Hardware lauffähig zu machen, aber das funktioniert bisher wohl nur mit HPC Kunden, die entsprechende Software selbst enwickeln. Und im ML-Umfeld erreicht man mit einer High-Level Sprache nicht die Effizienz, die Nvidia da mit hand- bzw. maschinenoptimierten GPU Assembler erreicht--solange man nicht vergleichbar viel Aufwand hineinsteckt und den Patentkrieg übersteht.
Was alle in der Industrie verstehen, ist daß man für eine wesentliche Verbesserung GPU+CPU enger integrieren muß, auch je nachdem wie sehr man gerade im Training oder Inferencing beim Machine Learning steckt. Diesen Vorteil der integrierten Lösung wollte zu allererst AMD ausschlachten, die ja immerhin die Hardware auf beiden Seiten anbieten. Aber da war Intel+Nvidia lange schwer zu schlagen und natürlich geht das auch mit AMD+Nvidia.
Aus dieser Position heraus haben nun Intel und Nvidia beide beschlossen, jeweils im Garten des Nachbarn zu wildern, Intel mit ihren neuen GPUs und NVidia mit ihren neuen (ARM)-CPUs.
Den CPU Teil von x86 auf ARM zu portieren ist trivial... weshalb ich Nvidia da in einer schwer angreifbaren Position sehe... jedenfalls solange es nicht neue CPU Architekturen gibt, welche das auf der ISA Ebene besser mit normalem Code hinbekommen, wie z.B. die Fujitsu ARM CPUs.
Für die meisten Unternehmen ist der Mehraufwand für eine Portierung von CUDA auf OneAPI o.ä. viel zu groß und risikobehaftet. Und solange es keine signifikant schnellere Hardware von Intel oder AMD gibt, gäbe es auch kein Motiv.