News Noch ein größerer Navi-Chip? Erste Hinweise auf ein mögliches Multi-Chip-Package!

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
3.897
Punkte
114
Alter
55
Standort
Labor
Dass der bekannte Twitter-Leaker _rogame mittlerweile mit hardwareleaks.com eine eigene Webseite betreibt ist kein Geheimnis, dass auch ich dort öfters mal vorbeischaue, sicher auch nicht. Basierend auf der letzten Meldung zu einem neuen Navi-Eintrag in Apples Treibern für das kommende macOS 11 "Big Sur", das auf der WWDC-Konferenz unlängst angekündigt wurde und die Weichen in Richtung eigener Chips stellen soll, hat Rogame nun dazu eine Meldung veröffentlicht, der ich zunächst erst einmal nachgegangen bin...




>>> Hier die ganze News lesen <<<
 

Capsaicin

Mitglied
Mitglied seit
Apr 10, 2019
Beiträge
48
Punkte
7
Man darf wohl sehr gespannt sein, was da kommt, wobei ich persönlich bezweifle, dass MCMs für Gaming-GPUs so schnell kommt.
Neben der Info, dass Apple (trotz eigenen SoCs) überhaupt weiterhin auf AMD-Grafikkarten setzten wird, ist mMn auch erwähnenswert, dass sie wohl beide Architekturen (RDNA und CDNA) benutzen werden.
Nur was hat die AMD-APU Cezanne im Code zu suchen? 🤔
 

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
3.897
Punkte
114
Alter
55
Standort
Labor
Die APUS werden wohl auch verm-mac-kert :D
Grafiktreiber und voll arm dran sein wird Apple sicher auch nicht gleich.
 

HerrRossi

Urgestein
Mitglied seit
Jul 25, 2018
Beiträge
4.086
Punkte
112
Das wäre natürlich ein Hammer, wenn AMD vllt. sogar dieses Jahr noch mit einer MCM-GPU auf den Markt käme und es damit keine Probleme wie bei Crossfire/SLI geben würde. Will AMD eigentlich den Infinity Fabric auch für GPUs nutzen oder haben sie da eine andere Technologie vorgesehen?
 

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
3.897
Punkte
114
Alter
55
Standort
Labor
DAS ist die alles entscheidende Frage. CDNA Technik auf RDNA2 zu portieren, könnte echt Sinn machen. Die Nav21 soll ja 2 Renderpipes haben. Wenn ja, böte sich ja wenigstens ein Dual-Chiplet-Design an. Dass es nicht die gleichen Chips wie auf der Mi200 sein werden, ist ja klar, aber der Unterbau ist m.E. anpass- und austauschbar.
 

Capsaicin

Mitglied
Mitglied seit
Apr 10, 2019
Beiträge
48
Punkte
7
Die APUS werden wohl auch verm-mac-kert :D
Grafiktreiber und voll arm dran sein wird Apple sicher auch nicht gleich.
Das wäre ja dann quasi ein Wechsel von Intel auf "Apple Silicon" und AMD zugleich. Eigentlich hat doch Apple x86 ganz abgeschworen, und eine einzelne AMD-Generation dazwischen macht aus meiner Sicht keinen Sinn :unsure:
 

Vorgartenzwerg42

Mitglied
Mitglied seit
Okt 9, 2018
Beiträge
16
Punkte
2
Standort
127.0.0.1
Das wäre ja dann quasi ein Wechsel von Intel auf "Apple Silicon" und AMD zugleich. Eigentlich hat doch Apple x86 ganz abgeschworen, und eine einzelne AMD-Generation dazwischen macht aus meiner Sicht keinen Sinn :unsure:
Vielleicht ist das auch nur intern für die Entwickler. Diese müssen ja noch für Jahre Patches für x86 Macs schreiben.
 

Alkbert

Mitglied
Mitglied seit
Okt 14, 2018
Beiträge
94
Punkte
7
Alter
49
Standort
Kempten / Allgäu
Ich werde jetzt auf jeden Fall bis September / Oktober abwarten. Dann kommt für mich als Ersatz für meine 2060 (non super) am 9980xe eine neue Graka bis maximal 1 KEuro. Ob die dann grün oder rot ist entscheide ich völlig "fanboyfree" anhand des P/L - bin ja gottlob schon erwachsen. So und jetzt können sich Jensen und Su mal was überlegen.
 

n-tchen

Neuling
Mitglied seit
Apr 30, 2019
Beiträge
9
Punkte
2
Ob die dann grün oder rot ist entscheide ich völlig "fanboyfree" anhand des P/L - bin ja gottlob schon erwachsen.
Selbst ohne ein Fanboy zu sein, kann man sich für ein technisch etwas unterlegenes Produkt entscheiden und trotzdem rational handeln. Es gibt mehr als nur Preis und Leistung - wobei ich unter "Leistung" schon alles technische inkludiere.

LG
 

imh0t3p

Neuling
Mitglied seit
Jun 28, 2020
Beiträge
1
Punkte
1
Auf Hardwareluxx gab's mal 'nen Artikel darüber, warum MCM bei Grafikkarten nicht so einfach ist: [Link]. Hauptsächlich, weil der Interconnect schneller sein müsste. Allerdings liegt das auch schon 2 Jahre zurück und ist die Sache ist womöglich nicht mehr so weit hergeholt, da Infinity Fabric, NVLink, etc. sich natürlich weiterentwickelt haben. Könnte mir vorstellen, dass man da durch passendes Scheduling zwischen den Chips noch ein bisschen optimieren kann.
Auch davor hat man von NVidia schon gehört, dass sie sich in diese Richtung Gedanken machen: [Link] Überrascht ja auch nicht, kleinere Chips haben ja nun mal ihren Reiz.
Vielleicht liegt MCM bei GPUs, dass also die Probleme von Crossfire/SLI nicht mit sich rumschleppt, also nicht mehr in so weiter Ferne.


Ob die dann grün oder rot ist entscheide ich völlig "fanboyfree" anhand des P/L - bin ja gottlob schon erwachsen.
Beinhaltet "erwachsen sein" bei der Kaufentscheidung auch, dass man in der Gegenwart eventuelle kleinere Nachteile (wie ein paar FPS weniger oder ein paar Watt mehr Verbrauch & Abwärme) in Kauf nimmt und sein Geld so ausgibt, dass man die Wahrscheinlichkeit dafür, dass sich der aktuelle Bipol (ok, Tripol, wenn wir Intel eine Chance einräumen) in Zukunft effektiv noch mehr wie ein Monopol verhält, verringert, um so spätere, größere Nachteile (deutlich hörere Preise und womöglich weniger Fortschritt) mangels Konkurrenz tendenziell zu verringern? Also quasi ein bisschen wie ein Gefangenendilemma mit sehr vielen Akteuren, bei denen die Zukunft um so besser für alle wird, je mehr Leute zeitweise mögliche, kleine Nachteile in der Gegenwart in Kauf nehmen in der Hoffnung, dass möglichst viele andere Leute mitziehen, ohne dass man sich dafür absprechen konnte? Oder geht dieses "ein bisschen weiter in die Zukunft denken" und "den Egoismus in Zaum halten" (kein Vorwurf an dich direkt) dann etwa über "erwachsenes" Denken hinaus? ; )
Bei anderen Themen sieht man ja, dass die Menschheit das nicht wirklich gut umgesetzt bekommt ^^
 

Dark_Knight

Urgestein
Mitglied seit
Aug 20, 2018
Beiträge
785
Punkte
43
Multi Chip Design, wird über kurz oder lang halt auch im GPU Sektor definitiv das nächste Große Ding sein um noch mehr Leistung zu bekommen. Auch wenn TSMC, bei dem ja sowohl AMD als auch nVidia, bis jetzt weiter alle paar Jahre die Strukturbreite verkleinert, so wird es sicher trotzdem immer schwieriger noch genügend Leistung zusätzlich aus den Chips zu bekommen.

Und irgendwann muss man ja mal anfangen mit den Multi Chips im GPU Bereich um vor allem auch zu sehen wo es in der Praxis haken könnte. Von 3dfx gab es sogar mal Karten mit 2 Chips drauf und sogar ein Modell was 4 Chips drauf hatte. Klar das waren keine MCMs wie sie jetzt wohl angepeilt werden. Aber selbst Damals hat man schon damit versucht die Leistung zu steigern in dem man eben mehr Chips auf eine Karte gepackt hat.
 

ro///M3o

Veteran
Mitglied seit
Jul 23, 2018
Beiträge
101
Punkte
28
Standort
Laichingen
Beinhaltet "erwachsen sein" bei der Kaufentscheidung auch, dass man in der Gegenwart eventuelle kleinere Nachteile (wie ein paar FPS weniger oder ein paar Watt mehr Verbrauch & Abwärme) in Kauf nimmt und sein Geld so ausgibt, dass man die Wahrscheinlichkeit dafür, dass sich der aktuelle Bipol (ok, Tripol, wenn wir Intel eine Chance einräumen) in Zukunft effektiv noch mehr wie ein Monopol verhält, verringert, um so spätere, größere Nachteile (deutlich hörere Preise und womöglich weniger Fortschritt) mangels Konkurrenz tendenziell zu verringern? Also quasi ein bisschen wie ein Gefangenendilemma mit sehr vielen Akteuren, bei denen die Zukunft um so besser für alle wird, je mehr Leute zeitweise mögliche, kleine Nachteile in der Gegenwart in Kauf nehmen in der Hoffnung, dass möglichst viele andere Leute mitziehen, ohne dass man sich dafür absprechen konnte? Oder geht dieses "ein bisschen weiter in die Zukunft denken" und "den Egoismus in Zaum halten" (kein Vorwurf an dich direkt) dann etwa über "erwachsenes" Denken hinaus? ; )
Bei anderen Themen sieht man ja, dass die Menschheit das nicht wirklich gut umgesetzt bekommt ^^
This!!! Made my day 😁 🤘 sehr geil, danke :ROFLMAO:
 

DaBo87

Mitglied
Mitglied seit
Jul 23, 2018
Beiträge
42
Punkte
8
Standort
Pilsbach, AT
Von 3dfx gab es sogar mal Karten mit 2 Chips drauf und sogar ein Modell was 4 Chips drauf hatte. Klar das waren keine MCMs wie sie jetzt wohl angepeilt werden. Aber selbst Damals hat man schon damit versucht die Leistung zu steigern in dem man eben mehr Chips auf eine Karte gepackt hat.
Die von Dir angesprochene Voodoo5 5500 liegt bei mir noch im Schrank. War zu ihrer Zeit einfach eine tolle Karte!
Die 4-Chip-Karte Voodoo 5 6000, mit eigenem Netzteil wohlgemerkt, wurde ja nie über den Prototypenstatus hinausgebracht, bevor 3dfx wegen Reichtums schließen musste. Ich glaub, es gibt sogar ein paar irgendwie gemoddete Karten, die tatsächlich lauffähig sind. Auf jeden Fall extrem selten.

Mit MCM hatten die Karten aber eher nichts zu tun, das war glaube ich eine SLI Technik, die näher an Crossfire oder Nvidias SLI (was glaube ich auf den von 3dfx gekauften Patenten basieren dürfte) lag. Die ATI Rage Fury Maxx wollte das damals auch schon schaffen. Scheiterte letzten Endes aber auch an schlechten Treibern.

Und in der jüngeren Vergangenheit hat es auch immer mal wieder Dualchip Karten von AMD und Nvidia gegeben, die aber letzten Endes auch nur deren o.g. Techniken innerhalb einer Addon-Card verbaut hatten. "Richtiges" MCM gab es bisher noch nicht, zumindest im Konsumentensegment.
 

RX Vega_1975

Veteran
Mitglied seit
Jul 25, 2018
Beiträge
337
Punkte
28
Big Navi dürfte in gut 2 Monaten releast werden, Mitte September bis Anfang Oktober.
Ob AMD die Krone will,- und mit 5nm einen oben drauflegt zur RTX 3000-er Titan sei dahingestellt,- aber durchaus im Rahmen des Möglichen.
 

Genie_???

Veteran
Mitglied seit
Jan 13, 2019
Beiträge
145
Punkte
18
Wäre doch schön, wenn sich hier dann vielleicht doch noch, der viel belachte "Nvidia Killer" manifestieren würde.
Ich glaub´s aber trotzdem erst wenn ich´s sehe. :oops:
Vega lässt grüßen ;)
 

Oberst

Mitglied
Mitglied seit
Jul 23, 2018
Beiträge
81
Punkte
7
Will AMD eigentlich den Infinity Fabric auch für GPUs nutzen oder haben sie da eine andere Technologie vorgesehen?
Wird schon bei Vega 20 so gemacht, also z.B. der Instinct MI60. AMD nutzt IF zur Verbindung von GPU zu GPU und auch von CPU zu GPU, allerdings halt aktuell nur im HPC Segment und nicht bei Desktop.
 

yummycandy

Mitglied
Mitglied seit
Jul 21, 2018
Beiträge
39
Punkte
7
Will AMD eigentlich den Infinity Fabric auch für GPUs nutzen oder haben sie da eine andere Technologie vorgesehen?
Wird sogar innerhalb der GPU benutzt und das seit der ersten VEGA:
In “Vega” 10, Infinity Fabric links the graphics core and the other main logic blocks on the chip, including the memory controller, the PCI Express controller, the display engine, and the video acceleration blocks.
 

Dragus

Mitglied
Mitglied seit
Apr 23, 2020
Beiträge
24
Punkte
2
Selbst ohne ein Fanboy zu sein, kann man sich für ein technisch etwas unterlegenes Produkt entscheiden und trotzdem rational handeln. Es gibt mehr als nur Preis und Leistung - wobei ich unter "Leistung" schon alles technische inkludiere.
LG
Wenn sich aufgrund der gleichen Argumentation widersprechende Schlüsse ziehen lassen, basiert die Argumentation auf falschen Prämissen. In diesem Falle wäre das die Prämisse, die Entscheidung für eine Gaming-Graka hätte etwas mit erwachsen sein oder Rationalität zu tun.

Bezüglich Chiplets bei GPUs, die werden kommen. Einerseits, weil die Ausbeute pro Waver um so niedriger ist, je größer die Chips sind, und zum zweiten, weil multi-GPU Systeme hohe Anforderungen an das System stellen. Chiplets lösen da gleich mehrere Probleme.

Im Profibereich gibt es weiterhin den ein oder anderen Chip mit sehr großer Chipfläche aber da werden auch andere Preise gezahlt.
 
Oben Unten