Gerücht: NVIDIA will keine Intel-GPUs mehr von seinen Partnern sehen

Jeder scheint auf jeden zu schiessen, Intel damals bei den Prozessoren (Bussgeldsache) gegen AMD, AMD nun gegen DLSS, NVIDIA gegen Intel.

Und während die sich prügeln, wird die Welt für die Konsumenten schlechter........Jeder will alle Vorteile rein für sich, was zwar normal ist, aber alle anderen Leute eigentlich nicht tangieren sollte.......tut es aber, weil es den Markt jeweils verzerrt.
 
Na super. Es scheint Bewegung in den Markt zu kommen. Konkurrenz belebt das Geschäft. Wir erinnern uns alle noch an EVGA, die letztes Jahr aus der GPU-Sparte ausgebrochen sind. Ich denke, da lassen sich bei venünftiger Preispolitik ala "leben und leben lassen" einige Hersteller finden, die gerne dann zu Intel wechseln und/oder eine bessere Verhandlungsbasis haben. Denn eines ist klar. Intel hat die Resourcen und ist auf einem guten Weg. Da kommt noch was. Vielleicht weiß Nvidia jetzt schon was da auf sie zukommt.
 
Ich wundere mich bis heute warum EVGA nicht direkt zu Intel gewechselt ist. EVGA war DIE Grafikkarten-Marke in den USA. Für Intel wäre das der ideale Partner gewesen, aber vermutlich war der CEO von EVGA nicht willens genug dazu. Jetzt produziert EVGA nur noch Arbeitslose.

Es gehören immer zwei zu so einer Partnerschaft. Ich als AMD würde zumindest sehr kritisch das hinterfragen ob es mir als AMD einen Vorteil brächte..
Und selbst dann hätte EVGA ein Problem. Ihr Hauptmarketing zielte ja auf Overclocking ab - und zwar um wirklich den aller längsten Balken zu haben... Dafür muss AMD aber auch Produkte haben um das weiter verfolgen zu können... Mit der 4090 sehen wir ja gerade das AMD das leider nicht hat...
 
Mit der 4090 sehen wir ja gerade das AMD das leider nicht hat...
Oder noch nicht,war nicht mal die Rede von Multi GPU?
Die Sache ist nur die des Preises,die XTX Chips die man dafür braucht sind Teuer um sie als 2x 7900XT laufen zu lassen um eine sehr hohe Effizienz zu erreichen und da ist die Frage ob es Preislich noch möglich ist gegen die 4090Ti im Preis an zu Treten.
 
die gerne dann zu Intel wechseln
Kommt halt drauf an, ob die Intel zutrauen einen wirklich soooo langen Atem zu haben, das die noch wirklich einigermaßen konkurenzfähige GPUs rausbringen, und nicht wieder aus dem Markt rausgehen, bevor da was gutes bei rauskommt.

Die dümpeln im Moment auf einem Absatzlvl rum, das kann kaum Intels Anspruch sein, und produzieren einen Mrd. Verlust.

Würdest du als GPU Hersteller auf ein momentan so schwaches Pferd setzen, und es dir mit dem Marktführer verscherzen?
 
Kommt halt drauf an, ob die Intel zutrauen einen wirklich soooo langen Atem zu haben, das die noch wirklich einigermaßen konkurenzfähige GPUs rausbringen, und nicht wieder aus dem Markt rausgehen, bevor da was gutes bei rauskommt.

Die dümpeln im Moment auf einem Absatzlvl rum, das kann kaum Intels Anspruch sein, und produzieren einen Mrd. Verlust.

Würdest du als GPU Hersteller auf ein momentan so schwaches Pferd setzen, und es dir mit dem Marktführer verscherzen?
Wenn das Gerücht stimmen sollte, dann sieht Nvidia Intel sicher nicht als unbeutend an. Warum sollte man etwas gegen Jemanden unternehmen, den man nicht als konkurierenden Mitbewerber einschätzt?

Cunhell
 
Wieviel Kohle Intel, in dr Hoffnung in den Markt zu kommen opfern will, wissen nur die selber=).
Und das man einen so kohlereichen Konkurenten nach möglichkeit pro Forma Knüppel zwischen die Beine wirft,
wäre in meinen Augen nicht so unlogisch, egal ob er grösser wird, oder nicht.

Aber so fehlen dem schonmal einige Möglichkeiten, erst mal gross zu werden, und NVIDIA tuts ja nicht weh. 2 Fliegen mit einer
Klappe.
 
Man bedenke auch, dass wir in Zukunft vielleich GPU/CPU-Kombinationen sehen werden, die auch anspruchsvolle Aufgaben bewältigen werden können. AMD ist da sicherlich auch ein Konkurrent und wer weiß wohin es Nvidia noch treibt. Je mehr Konkurrenz, desto besser für den Markt und auch Entwicklung.
 
Man bedenke auch, dass wir in Zukunft vielleich GPU/CPU-Kombinationen sehen werden, die auch anspruchsvolle Aufgaben bewältigen werden können. AMD ist da sicherlich auch ein Konkurrent und wer weiß wohin es Nvidia noch treibt. Je mehr Konkurrenz, desto besser für den Markt und auch Entwicklung.
Genau das ist das Thema. Und da ist noch der Konsolenmarkt, KI, etc.etc.

Bei Intel zieht sich mit Sicherheit keiner Morgens den Scheitel mit dem Hammer. Die wissen sehr genau was sie tun.

Und das der Einstieg in den Grafikkarten teuer, langwierig und mit vielen Rückschlägen verbunden ist, musste selbst dem dümmsten Befürworter bei Intel klar gewesen sein.

Objektiv war der Intel Einstieg auch völlig im Rahmen des erwartbaren.

Warten wir es ab.
 
Zuletzt bearbeitet :
Genau das ist das Thema. Und da ist noch der Konsolenmarkt, KI, etc.etc.

Bei Intel zieht sich mit Sicherheit keiner Morgens den Scheitel mit dem Hammer. Die wissens sehr genau was sie tun.
Meistens zumindest ;-) . Ne Grafikkarte auf Basis von i386-Cores zu bauen war nicht so sehr gelungen und wurde eingestellt.
Als Beschleuniger war das Teil aber gar nicht schlecht.
Und das der Einstieg in den GRafikkarten teuer, langwierig und mit vielen Rückschlägen verbunden ist, musste selbst dem dümmsten Befürworter bei Intel klar gewesen sein.

Objektiv war der Intel Einstieg auch völlig im Rahmen des erwartbaren.

Warten wir es ab.
Wenn man sich die Entwicklung der Karten alleine durch die Treiberfortschritte ansieht, kann die Hardwarebasis nicht so schlecht sein.
Das ist sicher auch den Mitbewerbern nicht entgangen.

Cunhell
 
Oder noch nicht,war nicht mal die Rede von Multi GPU?
Die Sache ist nur die des Preises,die XTX Chips die man dafür braucht sind Teuer um sie als 2x 7900XT laufen zu lassen um eine sehr hohe Effizienz zu erreichen und da ist die Frage ob es Preislich noch möglich ist gegen die 4090Ti im Preis an zu Treten.
Ich dachte SLI/Crossfire ist tot und was ist, wenn Nvidia das Gleiche macht mit 2x 4090? Wie will man mit 2 Chips sehr hohe Effizienz erreichen? Wie im Fahrzeug Zylinderabschaltung?
 
Ein dritter am Markt kann für uns Verbraucher nur von Vorteil sein, denn Innovation und Preise sollten hierdurch definitiv belebt werden.
Mit dem verdecken (Hinweis) ? sollte man beobachtend verfahren und man wird spätestens beim Vorstellen der nächsten Generation dann feststellen wieviel Gift im Markt liegt.
Eines ist für mich sicher, liebe wird wahrscheinlich nicht dabei rauskommen, wenn sich 3 in einem Markt duellieren aber ganz bestimmt gute Preise
und um ehrlich zu sein, ich glaube das Intel stark genug ist um solche stürme gut und sicher zu überstehen.
 
Oder noch nicht,war nicht mal die Rede von Multi GPU?
Die Sache ist nur die des Preises,die XTX Chips die man dafür braucht sind Teuer um sie als 2x 7900XT laufen zu lassen um eine sehr hohe Effizienz zu erreichen und da ist die Frage ob es Preislich noch möglich ist gegen die 4090Ti im Preis an zu Treten.

Nicht das ich wüsste. Klar so was könnte man technisch machen nur wie willst du 900 Watt versorgen/Wärme abführen.
Nein worin die Hoffnung lag war und ist. Mit dem Multi-Chiplet Design könnten sie eine Multi GPU Chiplet GPU bauen... Das hat den Vorteil das für den Treiber/OS das Teil als eine logische GPU angesehen wird... Und die Hoffnung ist dass dann Microruckler (ein Nachteil der alten MultiGPU Settings) der Vergangenheit angehören. Aber auch das der Treiber nicht für jedes Spiel angepasst werden muss. Das hatte ja nichts mit dem üblichen "Anpassen" zu tun damals... Also nein ich sehe keine MultiGPU wie früher kommen.
 
Nicht das ich wüsste. Klar so was könnte man technisch machen nur wie willst du 900 Watt versorgen/Wärme abführen.
Nein worin die Hoffnung lag war und ist. Mit dem Multi-Chiplet Design könnten sie eine Multi GPU Chiplet GPU bauen... Das hat den Vorteil das für den Treiber/OS das Teil als eine logische GPU angesehen wird... Und die Hoffnung ist dass dann Microruckler (ein Nachteil der alten MultiGPU Settings) der Vergangenheit angehören. Aber auch das der Treiber nicht für jedes Spiel angepasst werden muss. Das hatte ja nichts mit dem üblichen "Anpassen" zu tun damals... Also nein ich sehe keine MultiGPU wie früher kommen.
Steht und fällt alles mit der Leistung und die gehtja deutlich nach unten.
 
Nicht das ich wüsste. Klar so was könnte man technisch machen nur wie willst du 900 Watt versorgen/Wärme abführen.
Nein worin die Hoffnung lag war und ist. Mit dem Multi-Chiplet Design könnten sie eine Multi GPU Chiplet GPU bauen... Das hat den Vorteil das für den Treiber/OS das Teil als eine logische GPU angesehen wird... Und die Hoffnung ist dass dann Microruckler (ein Nachteil der alten MultiGPU Settings) der Vergangenheit angehören. Aber auch das der Treiber nicht für jedes Spiel angepasst werden muss. Das hatte ja nichts mit dem üblichen "Anpassen" zu tun damals... Also nein ich sehe keine MultiGPU wie früher kommen.
Klar 900Watt sind natürlich die Befürchtung wenn man von 2x 7900XTX ausgeht.
Nur wenn man es richtig anstellt hast ja nur eine Platine mit 2 XTX Chips die jeweils mit der XT Leistung um 150-200Watt brauchen,damit würdest im Bereich von 400-500Watt landen.
Das klassische Multi GPU Design wirst nicht mehr haben sondern wie du schreibst Multi GPU Chiplet.
 
MultiGPU Chiplet wird auch keine Wunderlösung, Apple hat sowas ja im Prinzip mit dem M1 Ultra samt Monsterbandbreiten Interconnect gebaut.
Aber die grundlegende Probleme bleiben da halt trotzdem bestehen auch wenn es vielleicht etwas besser wird ....
 
MultiGPU Chiplet wird auch keine Wunderlösung, Apple hat sowas ja im Prinzip mit dem M1 Ultra samt Monsterbandbreiten Interconnect gebaut.
Aber die grundlegende Probleme bleiben da halt trotzdem bestehen auch wenn es vielleicht etwas besser wird ....
Würde ich jetzt nicht sagen,Hybrid/Crossfire war früher jetzt auch nicht soooo schlimm.
Wenn es heute als eine GPU läuft sollten die kleinen Problemchen der Spielehersteller auch kein Problem sein.
 
Würde ich jetzt nicht sagen,Hybrid/Crossfire war früher jetzt auch nicht soooo schlimm.
Wenn es heute als eine GPU läuft sollten die kleinen Problemchen der Spielehersteller auch kein Problem sein.
Ich seh das leider eher nüchtern, viele Softwareentwickler pfeifen ja vermutlich auch aus Kostengründen heute schon auf die Optimierung,
welche auch bei einem MutliGPU Chiplet Design unumgänglich ist. Man macht sich ja oft nichtmal die Mühe die Core oder Thread Anzahl von CPUs richtig abzufragen und dann soll so etwas funktionieren ?
Schön wärs.
Abgesehen davon das diese ganzen CF und SLI Geschichten auch überhaupt nur solange existiert haben wie es über den Treiber geregelt wurde, oder ist niemand aufgefallen das diese Technologien seit sie Hardwarenah sind und vom Entwickler selbst umgesetzt werden müssten vollends in der Versenkung verschwunden sind ?
 
Ich seh das leider eher nüchtern, viele Softwareentwickler pfeifen ja vermutlich auch aus Kostengründen heute schon auf die Optimierung,
welche auch bei einem MutliGPU Chiplet Design unumgänglich ist. Man macht sich ja oft nichtmal die Mühe die Core oder Thread Anzahl von CPUs richtig abzufragen und dann soll so etwas funktionieren ?
Schön wärs.
Abgesehen davon das diese ganzen CF und SLI Geschichten auch überhaupt nur solange existiert haben wie es über den Treiber geregelt wurde, oder ist niemand aufgefallen das diese Technologien seit sie Hardwarenah sind und vom Entwickler selbst umgesetzt werden müssten vollends in der Versenkung verschwunden sind ?
Habe aber auch schon mehrere Videos zu SLI 4080/4090 gesehen. Für mich absoluter Overkill. Abder das gab es schon immer.
 
Ich seh das leider eher nüchtern, viele Softwareentwickler pfeifen ja vermutlich auch aus Kostengründen heute schon auf die Optimierung,
welche auch bei einem MutliGPU Chiplet Design unumgänglich ist. Man macht sich ja oft nichtmal die Mühe die Core oder Thread Anzahl von CPUs richtig abzufragen und dann soll so etwas funktionieren ?
Schön wärs.
Abgesehen davon das diese ganzen CF und SLI Geschichten auch überhaupt nur solange existiert haben wie es über den Treiber geregelt wurde, oder ist niemand aufgefallen das diese Technologien seit sie Hardwarenah sind und vom Entwickler selbst umgesetzt werden müssten vollends in der Versenkung verschwunden sind ?
Ich würde sagen das ist AMDs Aufgabe,2 getrennte GPUs zu verwalten war früher vermutlich schwierig,auf einem Chiplet heute sollte es mit nem Controller doch recht egal sein auch wenn z.b. 2000 Recheneinheiten zwar auch aufgeteilt werden aber auf einem Chiplet der als eine GPU erkannt wird von der Software dann doch wieder recht einfach.

Klar das Klassische Crossfire/Sli mit 2 Grafikkarten ist raus,aber Hybrid hast noch überall in verschiedenen Formen.
 
Oben Unten