Gerücht: NVIDIA will keine Intel-GPUs mehr von seinen Partnern sehen

Wird alles eine Frage davon sein, wie gut man die Rechenaufgaben auf die unterschiedlichen Rechenwerke aufgeteilt bekommt, Bzw. ob man paralellisierbare Aufgaben hinbekommt.

Wenn jeder Teil auf die Ergebnisse der anderen Teile warten muss, wird nicht viel Zusatzgeschwindigkeit bei rauskommen
 
Ich wundere mich bis heute warum EVGA nicht direkt zu Intel gewechselt ist. EVGA war DIE Grafikkarten-Marke in den USA. Für Intel wäre das der ideale Partner gewesen, aber vermutlich war der CEO von EVGA nicht willens genug dazu. Jetzt produziert EVGA nur noch Arbeitslose.
Die Intel-Konditionen sollen noch schlechter als bei Nvidia sein. Auch der Grund warum kaum ein Hersteller die aufnimmt - das finanzielle Risiko wälzt Intel komplett ab.
 
Wenn das Gerücht stimmen sollte, dann sieht Nvidia Intel sicher nicht als unbeutend an. Warum sollte man etwas gegen Jemanden unternehmen, den man nicht als konkurierenden Mitbewerber einschätzt?
Weit es jetzt einfach und günstig ist: für die Hersteller brauchts momentan keine große Überredungskunst.
Wenn die Hersteller erst mal Intel-Linien in der Produktion haben, werdne die kaum die teuren Produktionsstraßen wieder abbauen ohne dicke Zuwendung.
 
Ich würde sagen das ist AMDs Aufgabe,2 getrennte GPUs zu verwalten war früher vermutlich schwierig,auf einem Chiplet heute sollte es mit nem Controller doch recht egal sein auch wenn z.b. 2000 Recheneinheiten zwar auch aufgeteilt werden aber auf einem Chiplet der als eine GPU erkannt wird von der Software dann doch wieder recht einfach.

Klar das Klassische Crossfire/Sli mit 2 Grafikkarten ist raus,aber Hybrid hast noch überall in verschiedenen Formen.
Stimmt so nicht - Crossfire wird noch voll unterstützt (ist ja eh alles per Software im Treiber realisiert). Nur SLI wurde eingestellt.
 
Jeder scheint auf jeden zu schiessen, Intel damals bei den Prozessoren (Bussgeldsache) gegen AMD, AMD nun gegen DLSS, NVIDIA gegen Intel.

Und während die sich prügeln, wird die Welt für die Konsumenten schlechter........Jeder will alle Vorteile rein für sich, was zwar normal ist, aber alle anderen Leute eigentlich nicht tangieren sollte.......tut es aber, weil es den Markt jeweils verzerrt.
Naja, ist ja erst mal ein Gerücht von einer Seite in dem bei Pressewahrheit leit gehändicapten beeinträchtigen Russland.
AMD macht nichts gegen DLSS laut Entwicklern.
Bleibt also nur nachweislich Intel gegen AMD von damals übrig, die ja auch verurteilt wurden.
Und natürlich Microsoft die mit Software "Tricks" Konkurrenten ausgebotet haben.
 
Stimmt so nicht - Crossfire wird noch voll unterstützt (ist ja eh alles per Software im Treiber realisiert). Nur SLI wurde eingestellt.
Unterstützt ja,interessiert aber keinen mehr,lediglich Hybrid wird oft in Mobilen Geräten verwendet,auf dem Desktop ist es ja auch in Vergessenheit geraten.
 
Ich seh das leider eher nüchtern, viele Softwareentwickler pfeifen ja vermutlich auch aus Kostengründen heute schon auf die Optimierung,
welche auch bei einem MutliGPU Chiplet Design unumgänglich ist. Man macht sich ja oft nichtmal die Mühe die Core oder Thread Anzahl von CPUs richtig abzufragen und dann soll so etwas funktionieren ?
Aber genau deswegen geht AMD doch den Weg. Alles rutscht eine Ebene tiefer. Und damit muss sich dann ein Entwickler - egal ob Game oder Treiber eben nicht mehr rum schlagen. Davon ab wird das nur der einzige Weg sein um weitere Leistung zu generieren.

NV arbeitet mit der 4090 denke ich schon ziemlich am Maximum von Transistoren für ein monolithisches Design... Ich trau ihnen [NV/TSMC] auch zu das sie noch mal einen drauf legen.. Aber in den nächsten 5 Jahren denke ich ist da Schicht im Schacht.. [nicht mal technisch unbedingt sondern wirtschaftlich vertretbar]

Oder wollt Ihr demnächst 10K für eure GPU`s zahlen??

AMD selbst muss sich um die "Auslastung" der zwei GPU Chiplets dann kümmern.

Jetzt im nach hinein habe ich auch erst den Einwurf mit den 2 Chiplets kapiert. Es gab Gerüchte das so eine Karte schon existiert und getestet wird.
Davon bin ich fest von überzeugt. Aber das wird noch Pre-Serie sein.. Nur AMD weiß wie weit sie da wirklich sind.. Solche Prototypen könnten auch rein existieren um erst mal zu schauen ob technisch bei der Produktion alles passt. Sprich die ist im Zweifel noch nicht wirklich "funktionstüchtig" so das beide GPU Chiplets oder dere N davon schon wirklich im Verbund arbeiten.

Das ist alles noch sehr spekulativ. Und ich befürchte das wir auch zur 8er Gen das noch nicht zu sehen bekommen.
 
Also Multi Chiplet Designe hat rein gar nichts mit Multi GPU zu tun und auch kann man dies nicht mit den CPU Kernen vergleichen.

Grafikkarten sind super parallelisiert und kein Softwareentwickler muss sich hier um mehr oder weniger "Kerne" kümmern, absolut kein Vergleich zu Aufteilung auf mehrere CPU Kerne.

Multi GPU hat man 2 GPUs welche beide ihr eigenes "Ding" machen und sich die Arbeit aufteilen müssen. Zum Beispiel, dass sie sich bei den Frames rendern abwechseln. Die gängigste Methode und ja das bedeutet Arbeitet für die Treiberentwickler und Softwareentwickler. Hat massig Nachteile (Habe SLI über 2 Generationen ausgiebig betrieben), weshalb es auch ziemlich von der Bildfläche verschwunden ist.

Multi Chiplet Designe gibt es für das System nur 1ne GPU, eine einzige und für die Software ändert sich rein gar nichts zu einer heutigen single Die GPU. Durch die Kommunikationswege, wie die Chiplets mit einander kommunizieren, kann höhere Latenzen bedeuten, was die Leistung in den Keller drückt und sogar vielleicht der Effizienz schadet. Vorteil sind Kostenreduktion, da bei der Produktion weniger Ausschuss entsteht und die GPU Modelle innerhalb einer Generation, leichter zu Skalieren sind.

Rein für den User ist es ganz einfach schlecht. Von den Hardware Entwicklern aber ein Muss. Wie schon erwähnt Kosten sparen, durch weniger Ausschuss auch Umweltfreundlicher (wenn man das in diesem Bereich überhaupt behaupten kann) und "leichter" zu Entwickeln, da ein Chiplet weniger Komplex ist als ein Single-Die (Natürlich ist ein Chiplet der next-gen sicher Komplexer als ein GPU Die der vorletzten Generation)

Etwas mehr zum Thema selbst; ich glaube nicht dass Nvidia in der Lage ist den grossen Boardpartner wie Asus, MSI, Gigabyte zu verweigern Intel Grafikkarten zu vermarkten.
Ich bin aber auch Beeindruckt, wie Intel, nach dem katastrophalen Arc Release, die Karre aus dem Dreck zieht und in vielleicht Bereichen bereits jetzt AMD überlegen ist. Intel Arc hat bessere RT Cores als AMD, XMX Cores für AI Applikationen (wie HW beschleunigtes Upscaling), bessere Decoder...
Bringt Intel es fertig, ihre Rohleistung der Hardware zu verbessern und natürlich auch die Effizienz, werden sie sicher als starke Konkurrenz ernst genommen. Und hier kann ich mir Vorstellen, dass Nvidia schon plant wie sie ihre aktuelle Position stärken können.

Aus Sicht einer Firma ist es doch ganz Normal, zu versuchen die Konkurrenz "aus zu schalten".

Es ist nur so, ist man in der Position von Nvidia oder bei den CPU bei Intel, vor Ryzen, wird sofort mit dem Finger gezeigt.

Bringt es aber z.b. AMD fertig Nvidia einen Boardpartner aus zu spannen, wird dies gefeiert. Je besser AMD aber da steht, gerade im CPU Bereich, desto mehr sieht man, dass sie sich eigentlich genau gleich, wie die anderen grossen verhalten und nur an Gewinnmaximierung interessiert sind.
 
Unterstützt ja,interessiert aber keinen mehr,lediglich Hybrid wird oft in Mobilen Geräten verwendet,auf dem Desktop ist es ja auch in Vergessenheit geraten.
Mich interessieren auch Pokemon Karten nicht, schreibe aber nicht in Foren fälschlicherweise das die "raus" sind.
 
Fragt sich nur, ob das wirklich so stimmt. Intel ist immer noch kein ernsthafter Gegner in diesem Bereich und fraglich ob er das jemals wird.
Was nicht ist, kann ja noch werden!
Ich möchte mal sehen was Nvidia macht, wenn Intel den Spieß umdreht, und von seinen Partnern verlangt das keine NVDA GPU's mehr in den PC's und Laptops rein dürfen?😆

Intel hat sehr viel Macht, was will Nvidia tun wenn keine Intel CPU's mehr in den PC's rein dürfen wo denen ihre GPU's drin sind?

Nvidia kommt gegen Intel nicht an, das ist wie David vs Goliath.
Intel hat viel mehr Fabriken als der kleine grüne Giftzwerg.

Wer mehr Fabriken hat, der kann den Preis ordentlich nach unten drücken, und damit den Markt richtig aufmischen.
 
Halte ich nicht für echt. Nicht, weil ich nvidia das nicht zutraue, das tue ich absolut. Sondern, weil ich nvidia nicht für so dumm halte, sowas zu versuchen, speziell vor dem Hintergrund, dass eine weit harmlosere Variante des Ganzen vor Jahren schon übel nach hinten los ging.

Aber naja. Gerüchte halt...
 
Halte ich nicht für echt. Nicht, weil ich nvidia das nicht zutraue, das tue ich absolut. Sondern, weil ich nvidia nicht für so dumm halte, sowas zu versuchen, speziell vor dem Hintergrund, dass eine weit harmlosere Variante des Ganzen vor Jahren schon übel nach hinten los ging.

Aber naja. Gerüchte halt...
Ich hoffe es natürlich auch nicht, weil niemand etwas davon hätte.
Aber wenn sich zwei streiten freut sich der Dritte(AMD).
 
Das ist eigentlich nicht so ungewöhnlich und teil es Geschäfts. Nvidia hat nur damals den Fehler gemacht gewisse Dinge ohne finanziellen Anreiz festsetzen zu wollen. Man wollte halt die Partner mit diesem dubiosen Programm und der Bezeichnungsgeschichte "zu etwas zwingen" ohne das die davon wirklich einen Mehrwert gehabt hätten.
Dagegen ist es recht übliche gewisse Summen unter "Marketing" zu verbuchen welche den Partner- oder Kundenfirmen zugeteilt werden wenn man halt mehr der eigenen Produkte in deren Sortimente sehen will oder gar eine Exklusivität schaffen ..
Man schafft halt Anreize oder subventioniert quasi über Umwege das eigene Produkt.
Da gibts viele Varianten, das muss auch nichts allgemeines sein sondern kann sich zb nur auf gewisse Länder oder Regionen beschränken...

Wobei ich mir beim gesplitteten Desktop Grafikkarten Markt jetzt nicht so sicher bin ob man da wirklich soooo interessiert drann ist Geld reinzupumpen und nicht nur gelegentlich ein bisschen zu drohen und die Zähne zu zeigen, zumal man ja zuletzt idr eh auch noch das konkurrenzfähigere Produkt hatte oder nicht wirklich im Hintertreffen war.
Solche Strategien sind bei OEMs, oder Produkten für den Server, Profi , Enterprise Bereich wo es schon nur mehr wenige große Player gibt meist einfacher umzusetzen und vermutlich auch rentabler was den return angeht ... Also wenn Nvidia gröberer Ungemach in Sachen KI, AI; Datacenter etc droht wird man da vielleicht in Zukunft eher Akzente setzen als bei Gaming GPUs für die Selberbauer...
 
Zuletzt bearbeitet :
Oben Unten