Nie veröffentlichter AMD Radeon Pro Prototyp mit voller Vega 20 GPU gesichtet

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.800
Bewertungspunkte
8.701
Punkte
1
Standort
Redaktion
Von AMD wurde eine Reihe von Vega 20 Modellen vorgestellt, darunter Workstation-, Rechenzentrums- und sogar Gaming-Karten. Die wohl bekannteste SKU ist die Radeon VII, ein High-End-Modell mit 3840 Kernen, 16 GB HBM2-Speicher und über 1 TB/s Bandbreite. Darüber hinaus hat das Unternehmen verschiedene andere Radeon-Karten auf Basis der Vega 20 entwickelt, wie zum Beispiel die (den ganzen Artikel lesen...)
 
Sind die SpeicherCips auf der Leiterplattenrückseite verbaut, oder ist der Speichen schon auf dem Chiplet integriert? Oder bin ich einfach nur blind?
 
Der Speicher ist direkt neben der GPU.
Das sind die 4 kleinen Chips um den GPU herrum.
 
Das ist natürlich ne praktische Lösung, um mehr Platz für die Stromversorgung auf der Grafikkarte zu schaffen. Und der Speichbandbreite kommt die kurze Speicheranbindung scheinbar auch sehr zu gute. Für den KonsumerMarkt ist die Lösung aber wahrscheinlich noch zu teuer.
 
Nun ja, veröffentlicht war die Karte ja doch, aber eben nur für Mac Workstations, und da auch nur als (teure) Option.
Ein MacPro im Vollausbau mit allen Optionen war (und ist) eine sehr teure Geschichte, und daher findet man die selten "in freier Wildbahn".
 
Das ist natürlich ne praktische Lösung, um mehr Platz für die Stromversorgung auf der Grafikkarte zu schaffen. Und der Speichbandbreite kommt die kurze Speicheranbindung scheinbar auch sehr zu gute. Für den KonsumerMarkt ist die Lösung aber wahrscheinlich noch zu teuer.
Dazu kommt, daß HBM (in allen Varianten) auch deutlich weniger Strom zieht als die sonst äquivalente GDDR Bestückung. Wobei HBM deutlich deutlich mehr Geschwindigkeit bietet als GDDR, inklusive 6x. Was mich noch interessieren würde: ich kann mich dumpf an Berichte erinnern, daß HBM/HBM2 usw auch niedrigere Latenzzeiten als GDDR haben soll, weil es ja im Prinzip auf gestapeltem DRAM beruht. Stimmt das so? Würde Sinn machen, da es nicht nur für Beschleunigerkarten und Grafik eingesetzt wird. Teuer ist es allerdings, und wohl nicht zu knapp.
 
Bei sehr hohen Bandbreiten wird halt ne niedrige Kapazität und geringe Länge der Signalleitungen immer wichtiger. Da bietet es sich natürlich an, den schnellen Speicher über möglichst kurze und dünne Signalleitungen an die GPU an zu binden.

Ähnlich verhält es sich auch mit der Spannungsversorgung. Kurze und entsprechend dicke/breite Verbindung zwischen GPU/RAM und den Spannungsreglern, können auch den Spannungsreglern helfen, effizienter und stabiler zu arbeiten.

Optimal wäre wahrscheinlich ne GPU mit integriertem Speicher auf einem Kristall zu fertigen. Aber bei solchen hochintegrierten Lösung sind die Ausschußraten auch relativ hoch, und dementsprechend teuer währe sowas auch. Daher auch der "Umweg" mit dem Chiplet mit getrennt GPU- und Speicher Kristallen direkt nebeneinander.

Im Prinzip zeigt das schon, wo die Reise in naher Zukunft hin gehen könnte. Vielleicht gibt es irgendwann Mal PCs, wo alle Komponenten auf dem Chiplet integriert sind, und auf dem Motherboard nur noch die Stromversorgung/Aufbereitung vorhanden ist. Die Anbindung an die Peripherie(Monitor, Eingabegeräte, Flashspeicher...) müßte dann ausschließlich per breitbandinger NFC(Wireless near field Kommunikation) geschehen. Klingt aber irgendwie alles noch stark nach S Fiction.
 
Kann man nachvollziehen, wie der Vollausbau im Vergleich zu NVIDIA bei Gaming Karten abgeliefert hätte?
Die Vega VII lag soweit ich weiß ca. auf 2070 Niveau. Der Vollausbau könnte dann vll 2080 /2080 Super sein mit extrem hohem Stromverbrauch.
Die Vega VII fand ich interessant, aber auch hier hatte NVIDIA das insgesamt bessere Produkt.
Das erinnert mich irgendwie an die aktuelle Generation RX 7000 / RTX 4000
 
Die. R VII, hat ca. die Leistung, wie die 2080, nur mit mehr Ram. Die RVII, war out of the Box, mit zuviel Spannung gesegnet. Sie lässt sie sehr gut undervolten, dann ist auch der Kühler wesentlich leiser. Zumal die R VII auch wesentlich günstiger, wie die 2080 war.
Stand heute, ist die R VII Leistungsmäßig gut gealtert.
Im nachhinein, wäre es auch eine gute Wertanlage gewesen. Dank ihrem schlechten Ruf, gab es sie für 699€. ( gab ja nur Referenzdesign). Dann kamen die Miner, da hat man die R VII locker für 1500€ aufwärts verkaufen können. Selbst defekte, gingen für 500- 800€ weg. Ich hab meine behalten und werde sie, wenn sie mal getauscht wird, an die Wand/ Regal stellen. Geiles Stück Technik, was anderes zum Einheitsbrei. Ähnlich, wie die Fury Maxx. Darüber ärgere ich mich heute noch, sie verkauft zu haben. Vielleicht ergeht es der 7900XTX genauso. 🤷‍♂️ HBM, im Consumerbereich, wohl auf absehbarer Zeit, zu teuer, Chiplett, wohl die Zukunft.
FuryMaxx ( DualGPU) war mit der Vorreiter, zu SLI/ Crossfire. Wie die 3DFX Voodoo.
Fury, der Vorreiter mit HBM. Vega und R VII, die Evaluation dazu.
 
Zuletzt bearbeitet :
Oben Unten