GPUs Graphics Latest news

Never released AMD Radeon Pro prototype with full Vega 20 GPU spotted

A range of Vega 20 models have been unveiled by AMD, including workstation, data center and even gaming cards. Probably the best known SKU is the Radeon VII, a high-end model with 3840 cores, 16 GB HBM2 memory and over 1 TB/s bandwidth. The company has also developed several other Radeon cards based on the Vega 20, such as the Radeon Pro VII, a workstation variant of the non-Pro version, the Radeon Instinct MI50 and MI60 (each with 3840/4096 cores), and the Radeon Pro Vega II. The first is perhaps the most interesting with Vega 20 chip, released exclusively for Apple’s Mac systems. AMD has even produced two cards, either with one or two Vega 20 GPUs on a single board. This was by far the most powerful Radeon GPU AMD released at the time.

Source: Reddit/NeedsMoreGPUs

The prototype discovered on Reddit is displayed as Radeon Pro VII in the software. However, the Device PCI ID matches the Radeon Instinct MI60, so this prototype is definitely something in between. Reddit published a PCB image of the card with a Vega 20 GPU with four stacks of HBM2 memory. The card is powered via two power connectors (8+6-pin) and most likely consumes about 300 W. You can also see that the connectors are used exclusively for development purposes, which confirms that it is not a final product.

Source: TechPowerUp
Source: Reddit/NeedsMoreGPUs

The GPU does not reach its full speed in real tests. The single precision computation is 13.5 TFLOPs and the memory read is 6614 MB/s. However, this screenshot proves that the maximum GPU clock is 1.7 GHz, which is the same clock as the Radeon Pro VII.

Source: Reddit/NeedsMoreGPUs

According to the information available on the Internet, this prototype might have been a Radeon Pro V420. Nevertheless, the Vega 20 product family had a very interesting history and an extensive list of models, which is something we cannot yet say about the Navi 3X GPUs.

Source: reddit

Kommentar

Lade neue Kommentare

S
S.nase

Veteran

471 Kommentare 107 Likes

Sind die SpeicherCips auf der Leiterplattenrückseite verbaut, oder ist der Speichen schon auf dem Chiplet integriert? Oder bin ich einfach nur blind?

Antwort Gefällt mir

P
Phelan

Veteran

139 Kommentare 121 Likes

Der Speicher ist direkt neben der GPU.
Das sind die 4 kleinen Chips um den GPU herrum.

Antwort Gefällt mir

S
S.nase

Veteran

471 Kommentare 107 Likes

Das ist natürlich ne praktische Lösung, um mehr Platz für die Stromversorgung auf der Grafikkarte zu schaffen. Und der Speichbandbreite kommt die kurze Speicheranbindung scheinbar auch sehr zu gute. Für den KonsumerMarkt ist die Lösung aber wahrscheinlich noch zu teuer.

Antwort Gefällt mir

e
eastcoast_pete

Veteran

453 Kommentare 178 Likes

Nun ja, veröffentlicht war die Karte ja doch, aber eben nur für Mac Workstations, und da auch nur als (teure) Option.
Ein MacPro im Vollausbau mit allen Optionen war (und ist) eine sehr teure Geschichte, und daher findet man die selten "in freier Wildbahn".

Antwort Gefällt mir

e
eastcoast_pete

Veteran

453 Kommentare 178 Likes

Dazu kommt, daß HBM (in allen Varianten) auch deutlich weniger Strom zieht als die sonst äquivalente GDDR Bestückung. Wobei HBM deutlich deutlich mehr Geschwindigkeit bietet als GDDR, inklusive 6x. Was mich noch interessieren würde: ich kann mich dumpf an Berichte erinnern, daß HBM/HBM2 usw auch niedrigere Latenzzeiten als GDDR haben soll, weil es ja im Prinzip auf gestapeltem DRAM beruht. Stimmt das so? Würde Sinn machen, da es nicht nur für Beschleunigerkarten und Grafik eingesetzt wird. Teuer ist es allerdings, und wohl nicht zu knapp.

Antwort Gefällt mir

S
S.nase

Veteran

471 Kommentare 107 Likes

Bei sehr hohen Bandbreiten wird halt ne niedrige Kapazität und geringe Länge der Signalleitungen immer wichtiger. Da bietet es sich natürlich an, den schnellen Speicher über möglichst kurze und dünne Signalleitungen an die GPU an zu binden.

Ähnlich verhält es sich auch mit der Spannungsversorgung. Kurze und entsprechend dicke/breite Verbindung zwischen GPU/RAM und den Spannungsreglern, können auch den Spannungsreglern helfen, effizienter und stabiler zu arbeiten.

Optimal wäre wahrscheinlich ne GPU mit integriertem Speicher auf einem Kristall zu fertigen. Aber bei solchen hochintegrierten Lösung sind die Ausschußraten auch relativ hoch, und dementsprechend teuer währe sowas auch. Daher auch der "Umweg" mit dem Chiplet mit getrennt GPU- und Speicher Kristallen direkt nebeneinander.

Im Prinzip zeigt das schon, wo die Reise in naher Zukunft hin gehen könnte. Vielleicht gibt es irgendwann Mal PCs, wo alle Komponenten auf dem Chiplet integriert sind, und auf dem Motherboard nur noch die Stromversorgung/Aufbereitung vorhanden ist. Die Anbindung an die Peripherie(Monitor, Eingabegeräte, Flashspeicher...) müßte dann ausschließlich per breitbandinger NFC(Wireless near field Kommunikation) geschehen. Klingt aber irgendwie alles noch stark nach S Fiction.

Antwort Gefällt mir

Klicke zum Ausklappem
M
Master-W-Steve

Mitglied

66 Kommentare 15 Likes

Kann man nachvollziehen, wie der Vollausbau im Vergleich zu NVIDIA bei Gaming Karten abgeliefert hätte?
Die Vega VII lag soweit ich weiß ca. auf 2070 Niveau. Der Vollausbau könnte dann vll 2080 /2080 Super sein mit extrem hohem Stromverbrauch.
Die Vega VII fand ich interessant, aber auch hier hatte NVIDIA das insgesamt bessere Produkt.
Das erinnert mich irgendwie an die aktuelle Generation RX 7000 / RTX 4000

Antwort Gefällt mir

S
Sternengucker80

Veteran

183 Kommentare 42 Likes

Die. R VII, hat ca. die Leistung, wie die 2080, nur mit mehr Ram. Die RVII, war out of the Box, mit zuviel Spannung gesegnet. Sie lässt sie sehr gut undervolten, dann ist auch der Kühler wesentlich leiser. Zumal die R VII auch wesentlich günstiger, wie die 2080 war.
Stand heute, ist die R VII Leistungsmäßig gut gealtert.
Im nachhinein, wäre es auch eine gute Wertanlage gewesen. Dank ihrem schlechten Ruf, gab es sie für 699€. ( gab ja nur Referenzdesign). Dann kamen die Miner, da hat man die R VII locker für 1500€ aufwärts verkaufen können. Selbst defekte, gingen für 500- 800€ weg. Ich hab meine behalten und werde sie, wenn sie mal getauscht wird, an die Wand/ Regal stellen. Geiles Stück Technik, was anderes zum Einheitsbrei. Ähnlich, wie die Fury Maxx. Darüber ärgere ich mich heute noch, sie verkauft zu haben. Vielleicht ergeht es der 7900XTX genauso. 🤷‍♂️ HBM, im Consumerbereich, wohl auf absehbarer Zeit, zu teuer, Chiplett, wohl die Zukunft.
FuryMaxx ( DualGPU) war mit der Vorreiter, zu SLI/ Crossfire. Wie die 3DFX Voodoo.
Fury, der Vorreiter mit HBM. Vega und R VII, die Evaluation dazu.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

video display

video display