NVIDIA vs. AMD und Workstation vs. Consumer: Wer hat die Nase bei den KI-Grafikkarten-Benchmarks vorn?

Stand heute bekommt man eine 4090 für 1730 Euro.
Eine 7900XTX bekommt man für ab 950 Euro...
Das sind also eher knapp zwei 7900 XTX für den Preis einer 4090.

Zudem braucht es im KI-Produktivbereich nur eine 4070 TI Super, um die gleiche bzw. bessere Leistung im Vergleich zu einer 7900 XTX zu erreichen.
Eine 4070 TI Super bekommt man ab 850 Euro....
Also: 100 Euro gespart mit im Vergleich weniger Energieverbrauch .

Das erkenne ich zumindest aus Igor's Diagrammen... :)
Mein Reden. Du must NVIDIA nicht mögen. Aber die können was.
Ist auch mein Denkansatz. Da muss AMD bei der nächsten Generation noch ein, zwei Schippen drauflegen.
Was aber dem eigenen bekunden nach leider sehr unwahrscheinlich bis unmöglich ist.
 
Wenn ich mir die TOPS bei der V70 anschaue, welche mit 75W angegeben wird, sieht es doch gar nicht so schlecht aus.
Zumal man sowas einfach dazu Stecken kann und nicht die GPU austauschen muss.

Frame Generating hat bei mir die TV AI übernomen, brauch ich es nicht in den Adrenalin Einstellungen aktivieren. ;)
 
Warum wohl habe ich die NV-Karten wohl auch mit alternativem Code gemessen? Bei der Bildgenerierung gabs dann für NV alternativ Intels OpenVINO. Ich kenne keinen Benchmark, der mehr APIs unterstützt und vor allem in der Pro Version vom Tester auch gescriptet werden kann. Insofern ist Dein Einwurf etwas am Thema vorbei. Heute gings auch nur um Grafikkarten und keine NPUs. Das ist wieder ein anderes Thema und längst in Vorbereitung. Nur ist es so, dass nicht mal AMD irgendeinen vergleichbaren Absatz bietet.


Du arbeitest lokal, nicht auf einer Serverfarm. Und es sind viele, nicht nur eins. :D


Die werden gegen jede noch so kleine NV Karte mit Tensor Cores erst mal gehörig abstinken. Aber für einfache LM wirds schon reichen. Ich versuche gerade, passende Hardware zu beschaffen, aber fast alle mauern noch.
Ich sag zu dem ganzen lieber nix!
( nimm Medizin heraus).. das ist auf der Bild / Tonseite der restliche Graffel, den wir längst haben, aber genau noch nicht einsetzen.
Weil. es absolut kontraproduktiv ist und in keiner einzigen Anwendung, wenn Film, irgend wie nur im geringsten zu einem Ergebnis führt.
Wie gesagt, mein Text hierzu wäre 99999 Seiten lang, und da kratze ich nur an der Oberfläche. ( ich hab keine Lust)

Beispiel : es gibt immer noch keiner generative Soft die eine Person X die im Green ihrer Scenenbewegung macht, und dies wird in Echtzeit
als Mocap und so weiter rausgerechnet, gelidart, 4k kameras rennne, etz,ich tausch das alles und eine ander Person / zb Kostümschinken 16 jh..etz macht.
Ich habe so einfach wie möglich geschrieben.. NADA NIX.nULL.
7 TAGE HACKELN UND MANPOWER..aber fix. Und Molto viel davon.
Wir haben uns für eine mittlere Produktion ( eh noch billig 80 mio Euro) ein KI geschrieben, die solche eher einfachen Dinge die man beim
Setting in der Unreal-5-4 er benötigt, also das Zwischen-Schritte abgenommen werden oder und, damit wir flotter werden. Mit flott meine ich 200 Rechner
ala i9 13900 und 200 Grakos A 4000 ( die billigen) sind etwas schneller und wir haben meher Ergebniss im Pre-render-einsatz. etz etz.
Damit dann die RENDERFARM die eig JOBS bekommt und es gefixt ist. ( dort 1000 Rechner) Und dort sitzt EIN MENSCH.
WEIL EINE KI DAMIT RESTLOS ÜBERFORDER IST! restlos..


Wenn ich alle Departments aufzähle nur Film sind wir bei.. 300. coppy?
Wenn
es nur die Wiederholung von ZEICHNE MIR EINE BURG ist.. na ja.

Taken 96H . " GOOD LUCK!"

Es gibt noch nix wirklich gutes aber viel Krempel der so brauchbar ist wie Schneeschuhe beim Surfen in Hawaii.
Und von dem Factor, das das alles vernetzt ist, UM DEINE EINGEWEIDE = DEINE DATEN zu verhöckern red ich noch gar net.
Oder wie der Tshatscht Gpt Ceo verz Trottel unlängst meine.. " na wir haben gehoft dass.."


egal. jedenfalls für TELE 5 SCHLEFAZ is es gut. Lg :)
 
Ist auch mein Denkansatz. Da muss AMD bei der nächsten Generation noch ein, zwei Schippen drauflegen.
Weiß nicht, außer ein bisschen Bild Genration habe ich mit meiner Gaming-Karte nichts KI-mäßiges gemacht, und da kommt es auf ein paar Sekunden mehr nicht an.
Entsprechend gibt es ja dedizierte KI-Karten von Nvidia, Intel und AMD.
Im Consumer-Bereich wir es noch etliche Jahre dauern - erst wenn auch der kleinste Laptop und Tablet es unterstützt ist es im PC-Bereich "Standard".
Da wird sich herauskristallisieren, ob es in der CPU, GPU oder andere Lösung (KI-Chip on Board, Cloud etc.) stattfindet.
Für Gamer und GPUs ändert sich da nichts, außer dass Nvidia eventuell die Raster-Performance noch mehr schleifen lässt.
 
Der Markt bestimmt den Preis. Siehe Nvidia. Soviele 4090 Besitzer gibbet nicht.
NUTZER! Ich bin NUTZER..

Besitz is mir scheiß egal. oder das ein Preposition eins runter. In short. Ich zauber, ich warte auf die
Karte, die 100 mal mehr Speicher und Renderleistung als ein 4090ger hat.
Dann habe ich statt 100 nur noch 10 und alles wurde um das 1000 fache fetter.
und wo? eben
Entweder man macht damit was oder nicht. Wenn nicht. hab ich es nicht.

Der Sprung IST ÜBERFÄLLIG!
nur jetzt müssen sich die Arschgeigen bei Nvida und der ganze Rattenschwanz runter bis zu den Berichterstattern ( oder Be statter?)
halt irgend welche Gschichterln bringen.

oder du hast so was wie ein technisches Stockholmsnydrom, was neuerdings um sich greift. LG :)
 
NUTZER! Ich bin NUTZER..

Besitz is mir scheiß egal. oder das ein Preposition eins runter. In short. Ich zauber, ich warte auf die
Karte, die 100 mal mehr Speicher und Renderleistung als ein 4090ger hat.
Dann habe ich statt 100 nur noch 10 und alles wurde um das 1000 fache fetter.
und wo? eben
Entweder man macht damit was oder nicht. Wenn nicht. hab ich es nicht.

Der Sprung IST ÜBERFÄLLIG!
nur jetzt müssen sich die Arschgeigen bei Nvida und der ganze Rattenschwanz runter bis zu den Berichterstattern ( oder Be statter?)
halt irgend welche Gschichterln bringen.

oder du hast so was wie ein technisches Stockholmsnydrom, was neuerdings um sich greift. LG :)
Ne habe Korsakow-Syndrom mit Tourette. Also Vorsicht :D
 
Weiß nicht, außer ein bisschen Bild Genration habe ich mit meiner Gaming-Karte nichts KI-mäßiges gemacht, und da kommt es auf ein paar Sekunden mehr nicht an.
Entsprechend gibt es ja dedizierte KI-Karten von Nvidia, Intel und AMD.
Im Consumer-Bereich wir es noch etliche Jahre dauern - erst wenn auch der kleinste Laptop und Tablet es unterstützt ist es im PC-Bereich "Standard".
Da wird sich herauskristallisieren, ob es in der CPU, GPU oder andere Lösung (KI-Chip on Board, Cloud etc.) stattfindet.
Für Gamer und GPUs ändert sich da nichts, außer dass Nvidia eventuell die Raster-Performance noch mehr schleifen lässt.
In bestimmten Bereichen (KI Unterstützte Bildanalyse in der Radiologie) werden auch Stand Heute bereits dGPUs eingesetzt. Wobei hierfür zumindest beim Anwender eine mittelgroße (Profi*) dGPU ausreicht. Allerdings werden bzw wurde (soweit ich weiß) die Software dafür schon auf größeren Beschleunigern entwickelt bzw "trainiert", wie das ja so schön heißt. Da wird KI (ob so oder mehr ML) auch immer breiter und öfter eingesetzt, und hat zum Teil bereits wirklich erstaunlich gute Ergebnisse geliefert.

*Professionelle dGPUs auch weil es um schwerwiegende Entscheidungen geht, man rechtlich haftbar ist, und ich (wir allgemein?) als etwaiger Patient, hier lieber ECC RAM im Einsatz sieht 😀. Fehler durch RAM Errors sind zwar selten, aber wenn zig Gigabytes von Daten durchgekaut werden, erhöht sich die Wahrscheinlichkeit, daß durch einen zufälligen Fehler im RAM irgendwas daneben geht, doch spürbar.
 
@Igor Wallossek : ich weiß, daß diese Benchmarks eine Heidenarbeit sind, aber da Du auch OpenVINO dabei hattest, hätte es mich interessiert, wie schnell, langsam oder wirklich lahm eine ARC 770 (16 GB Version) hier gewesen wäre.
 
@Igor Wallossek : ich weiß, daß diese Benchmarks eine Heidenarbeit sind, aber da Du auch OpenVINO dabei hattest, hätte es mich interessiert, wie schnell, langsam oder wirklich lahm eine ARC 770 (16 GB Version) hier gewesen wäre.
Kann das helfen (bin da kein Profi drinnen):

Benchmarks laufen auf der Intel® Arc 770 GPU mit FP32-Präzision.

 
Ich habe leider keine A770
 
Hast Du zu viele? Dann mal nach der Computex :)
Zu viele würde ich nicht sagen, aber mit all dem coolen neuen Zeug was ständig rauskommt überkommt mich leider regelmässig das verlangen einen neuen Computer zu bauen und alles auszuprobieren, nach ein paar Monaten verkaufe ich den dann.
Bei dem mit der A770 habe ich mich allerdings dazu entschieden die A770 zu behalten A: weil ich sie unfassbar cool finde und die LE auch optisch sehr schön ist und B: ich weiss das der Käufer nicht super computer affin ist, also ist einen RX6800 reingekommen (die ich netterweise auch noch ein paar tage ausprobieren durfte) und die A770 steht bei mir auf dem Regal.


Schreib dann einfach eine PM wenn du sie für irgendwas benutzen möchtest.
 
Zuletzt bearbeitet :
Zu viele würde ich nicht sagen, aber mit all dem coolen neuen Zeug was ständig rauskommt überkommt mich leider regelmässig das verlangen einen neuen Computer zu bauen und alles auszuprobieren, nach ein paar Monaten verkaufe ich den dann.
Bei dem mit der A770 habe ich mich allerdings dazu entschieden die A770 zu behalten A: weil ich sie unfassbar cool finde und die LE auch optisch sehr schön ist und B: ich weiss das der Käufer nicht super computer affin ist, also ist einen RX6800 reingekommen (die ich netterweise auch noch ein paar tage ausprobieren durfte) und die A770 steht bei mir auf dem Regal.


Schreib dann einfach eine PM wenn du sie für irgendwas benutzen möchtest.
@Pokerclock scheint Hardware zu vermieten. Von daher eine tolle Quelle für eine Analyse.
 
Stand heute bekommt man eine 4090 für 1730 Euro.
Eine 7900XTX bekommt man für ab 950 Euro...
Das sind also eher knapp zwei 7900 XTX für den Preis einer 4090.
Edit: Bei den 7900 XT für 700 Euro wären wir bei 2100 Euro, bei 3 Stück

Zudem braucht es im KI-Produktivbereich nur eine 4070 TI Super, um die gleiche bzw. teils viel bessere Leistung im Vergleich zu einer 7900 XTX zu erreichen.
Eine 4070 TI Super bekommt man ab 850 Euro....
Also: 100 Euro gespart mit im Vergleich weniger Energieverbrauch .

Das erkenne ich zumindest aus Igor's Diagrammen... :)
Naja man könnte auch sagen AMD Karten sind sehr viel günsiger. Man könnte auch sagen das sich Ki wegen der Netzwerklatenzzeiten nicht gut auf vernetzten Systemen arbeitet. Man könnte auch sagen eine Ki muss demzufolge auf einer einzelnen Maschine laufen. Man auch sagen das man Grakas parallel nutzen kann. Dann kann man auch sagen man muss die Karten verankern und die sind nicht klein. Man könnte sagen das man eine extra Platine benötigt mit Busanbindung. Man könnte auch sagen das man VIELE VIELE PCIE Lanes braucht. Man könnte auch sagen das da nur AMD CPUs in Frage kommen da Intel... egal... und je zwei Netzteile der Platinen. Mann könnte auch sagen das Geld da weniger die Rolle spielt und man eher auf die maximal möglich Leistung ziehlt. Kosten für 6x Hochleistungsgraka der Wahl.... bauen wir wirlich AMD ein?
 
Oben Unten