GPUs Graphics Latest news

Blown dream: AMD’s Navi 41 RDNA 4 with 50% more shader performance thanks to 9 shader engines

 

According to a report from Kepler_L2,AMD may have discontinued development of the high-end Navi-4X GPUs with RDNA-4 architecture, but leaks and information from the source code give us insight into what could have been. These GPUs were reported to offer 50% more shader engines than the flagship Navi-31 GPUs of the RDNA-3 generation.

L
Leonardo.ai

The top Navi 4X GPU (“Navi 4C”) was equipped with 9 shader engines, which is a significant increase of 50% compared to the 6 shader engines of Navi 31. This shader engine configuration could have resulted in a total of up to 216 processing units, compared to 96 processing units in Navi 31.

In addition to the increased number of shader engines, Navi 4X would also utilize an innovative chiplet design. This meant that the GPU would consist of multiple GCDs (Graphics Compute Dies) connected together. This design makes it possible to scale performance and efficiency and could become the standard for high-end GPUs in the future.

Source: Kepler_L2

Cancellation for unknown reasons

Unfortunately, AMD has discontinued the development of the Navi-4X GPUs for unknown reasons. It is possible that it is due to design challenges, yield issues or cost reasons. The canceled Navi-4X GPUs were promising and could have represented a significant leap in performance over the current RDNA-3 generation. The chiplet design could also lead the way for future high-end GPUs.

While we will never know what the Navi-4X GPUs would have actually achieved, the leaks and information provide an exciting insight into the technological innovations AMD is working on. It remains to be seen what technologies AMD will use in future generations of RDNA, but expectations are certainly high after the canceled Navi-4X GPUs.

Source: Kepler_L2

Kommentar

Lade neue Kommentare

G
Gorden

Neuling

8 Kommentare 2 Likes

@Samir Bashir da hat sich ein Tippppfehler wohl eingeschlichen :)
Letzter Absatz ", bieten die Lecks und Informationen"

Antwort Gefällt mir

C
ChaosKopp

Urgestein

565 Kommentare 588 Likes

Ist doch die passende Übersetzung. Vielleicht ungewohnt, aber korrekt.

Wahrscheinlich war die Komplexität noch zu hoch, aber die Reise geht in diese Richtung.

Antwort Gefällt mir

G
Gorden

Neuling

8 Kommentare 2 Likes

Dann sollte man es vielleicht konsequent so verwenden, aber einmal so einmal so :) Im ersten Abschnitt ist es noch als Leaks.

Antwort Gefällt mir

HerrRossi

Urgestein

6,790 Kommentare 2,246 Likes

Schade, dass AMD das Handtuch geschmissen hat. Im Datacenter Bereich mit AI-Beschleunigung ist aber wohl auch mehr Geld zu verdienen, da sind die Gamer nicht mehr wo wichtig.
Was ist eigentlich aus dem Chipletansatz geworden? Technisch nicht realisierbar, zu hohe Kosten?

Antwort Gefällt mir

C
ChaosKopp

Urgestein

565 Kommentare 588 Likes

Ich hoffe ja immer auf unseren Whistleblower aka Seitenbetreiber hier.

Wenn ich aber bedenke, wie lange Treiber nach dem Launch brauchen, tippe ich drauf, dass ungelöste Fallstricke zu überwinden wären.

Antwort Gefällt mir

D
Denniss

Urgestein

1,542 Kommentare 557 Likes

Irgendwas soll wohl nicht geklappt haben bei den angedachten großen Karten, entweder Probleme mit den Chiplets oder der angedachten neuen Architektur. Bei den Monolithen hat man ggf wieder auf bewährtes zurückgegriffen und das mit RDNA4-features aufgewertet.
Mal schauen was da dann schlußendlich bei rauskommt.

Antwort Gefällt mir

c
cunhell

Urgestein

557 Kommentare 523 Likes

Sie nutzen das Chiplet-Design ja bei Instinct MI300A/MI300X. Erfahrung sollte daher wohl da sein. Vielleicht gibt es auch Engpässe bei den Interposern und sie nutzen sie lieber für die Instinct MI300A/MI300X.
Wenn dann noch die aktuellen Fertigungskapazitäten zu gering sind, macht es ja durchaus sinn, nur Singlechip-GPUs und Ryzen-Zen5 CPUs zu produzieren. Damit macht man mehr Umsatz als mit Halo-Produkten wie Highend-GPUs.
Und AI und Ki ist ja im Moment der Hype schlecht hin. Warum also für Highend-GPUs Resourcen verbraten, wenn der Gewinn mit MI300A/MI300X deutlich höher ausfällt.

Cunhell

Antwort 4 Likes

8j0ern

Urgestein

2,581 Kommentare 825 Likes

Hm, ob MSI das wusste und daher die Reisleine gezogen hat bei den RADEON GPUs ?

So langsam wird es spannend, Insider wissen darf man eigentlich nicht "ausnutzen" ;)

Antwort Gefällt mir

S
SlayerJoe

Mitglied

13 Kommentare 2 Likes

Wollen wir hoffen, das AMD im Gaming-GPU-Berich nicht ganz den Anschluss verliert. Wäre schade für die Preisstabilität, und ich möchte mir nicht ausmalen, wo diese hinführt, wenn NVIDIA Monopolist wäre.

Antwort 1 Like

G
GPUModder

Mitglied

33 Kommentare 9 Likes

Sehr interessanter Artikel und gleichzeitig auch wahnsinnig Schade! Meine große Vermutung ist genau das Chiplet Design als Grund für das Aus des Chips. Ich denke das es aber weniger finanzielle sondern eher technische Probleme als Grund geben wird, warum der Ansatz wenigstens im Moment verworfen wird. Persönlich hoffe ich allerdings auf eine äußerst geschickte Marketingtechnik von AMD. Was meine ich damit? Ich hoffe darauf, dass AMD nur so tut als wäre im High-End-Bereich bei ihnen mit der nächsten Generation eher nichts los, damit sich Nvidia in Sicherheit wiegt und dadurch AMD wenn der Hammer ausgepackt wird, direkt zur Spitze aufschließen kann. Natürlich nur Spekulation. ;)

Antwort Gefällt mir

8j0ern

Urgestein

2,581 Kommentare 825 Likes

Ja, es ist alles zu spät.
Keine Spiele Konsole ohne AMD, kein Microsoft Server ohne AMD, kein Gaming Rig ohne AMD... Keine Software Entwickler ohne AMD.

Wollte nvidia nicht mal selbst Spiele Konsolen und Mainboards Herstellen ?

Antwort Gefällt mir

S
Savage_Sinusoid

Mitglied

19 Kommentare 6 Likes

Probleme mit der Ausbeute halte ich für tendenziell eher unwahrscheinlich. Gerade Chiplet-Designs versprechen ja wegen der geringeren Fläche eine höhere Ausbeute: Bei einem Fertigungsdefekt muss man nur das eine Chiplet entsorgen und nicht gleich einen kompletten großen Chip.

Meine (spekulative) Vermutung ist eher, dass RDNA 3 gezeigt hat, dass man das Chiplet-Design für GPUs noch nicht gut genug im Griff hat und deswegen vorerst zu einem Monolithen zurückkehren muss.

Antwort Gefällt mir

b
butch111

Mitglied

56 Kommentare 17 Likes

wann hatte AMD denn das letzte mal ne Highend GPU?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,558 Kommentare 885 Likes

Ich tippe auch auf Engpässe in der Fertigung, allerdings mehr im Bereich Packaging; da steht AMD mit Nvidia und einigen anderen (Apple!) in der Warteschlange. TSMC scheint hier im Moment deutlich weniger Bandbreite zu haben als bei den fabs selbst. Und ja, die Beschleuniger haben eben viel größere Gewinnmargen, also wird die Kapazität die da ist dorthin gerichtet.
Wenn das so weiter geht, wird es dann bei dGPUs in Chiplet Bauweise uU sogar noch auf ein Wettrennen von Nvidia mit Intel rauslaufen. Verrückte Welt!

Antwort Gefällt mir

HerrRossi

Urgestein

6,790 Kommentare 2,246 Likes
Telaran

Mitglied

16 Kommentare 10 Likes

Wie Igor gerne sagt: Eine Runde Spekulatius
Ich persönlich gehe davon aus, dass die 5090er von Nvidia die 2'000 € UVP knacken wird und im Handel die 3'000 €+ erreicht.
Grundlage meiner Annahme:

  • März 2024 Headlines in diversen Medien
    Der Nvidia-CEO teilt gegen die Konkurrenz aus: Selbst wenn deren Chips kostenlos wären, könnten sie nicht mithalten.
    Wenn der CEO diese Einstellung hat, wird er sicher seine Produkte "nicht unter Wert" verkaufen....
  • Nvidia verdient massiv mehr mit KI GPU's
    Wir wissen, wie es beim Mining Boom abgelaufen ist.. die GPU wurden meistens ab Rampe in China aufgekauft und die homöopathischen Dosen für den Rest der Welt waren entsprechend bepreist.
    Zudem wird Nvidia sicher nicht Kapazitäten für 2'000 € Karten freischaufeln, wenn mit diesen die KI GPU ab 15'000 €+ produziert werden können.
  • Inflation ist noch immer ein Thema

Ich habe da wenig Hoffnung.
In den letzten Jahren hatte Nvidia frühzeitig immer Anpassungen an der neuen GPU Generation gemacht (Preise), bevor die Details von AMD bekannt geworden sind. Sie haben wohl ihre Quellen und so entspannt, wie sie sich verhalten, befürchte ich eher das Schlimmste. Zumindest aktuell.

Selbst bei Intel bin ich unsicher, ob sie endlich mal "Ernst" machen und die neue Generation "aufschliessen" kann (ich bezweifle, dass sie mit einer 5090 konkurrieren könnten, aber vielleicht mit einer 5070/80)

NVidia hat bereits für verschiedene Konsolen die Prozessoren gestellt. Sind halt keine x86/64 Architektur.
Erst wenn Windows on ARM an Fahrt aufnehmen würde, könnte es sein, dass Xbox und Playstation umschwenken und dann plötzlich Nvidia Chancen hätte.

Hier "profitieren" wir also noch, dass die Publisher gerne möglichst (mit wenig Aufwand) auf allen Plattformen veröffentlichen wollen.

Antwort 1 Like

Klicke zum Ausklappem
Ext3h

Mitglied

11 Kommentare 11 Likes

War für GPUs nicht umsetzbar.

Für AI-Inferenz kein Problem - dort hast du wenig Cache-Lokalität und fast alles schlägt beim Lesen direkt auf den Speicher durch oder die Daten sind wirklich Read-Only und es kommt nicht zu Cache-Invalidierung. Beim zurückschreiben gibt es praktisch auch keinerlei Write-Combining mit Wort-Granularität. Sprich der lokale Interconnect braucht kaum größer sein als die externe Verbindung zum DRAM, weil zwischen den L2-Slices fast nichts ausgetauscht werden muss.

Bei einer CPU sowieso kein Problem, da ist die Bandbreite zum L3-Cache kaum höher als die nackte Speicherbandbreite einer GPU.

Aber die Bandbreite die eine GPU zum (über Chiplets geteilten) L2-Cache bzw. den darauf operierenden ROPs braucht ist extrem.

Navi war nicht den erwarteten Weg mit der Transformation zum Tiled-Renderer gegangen was aber die Vorraussetzung für Chiplets gewesen wäre. Auf Kohärenz im L2 zu verzichten ist extrem kompliziert, und verbietet verschiedene etablierte Techniken. Zum Beispiel alle Datenstrukturen die mit Atomic-Instruktionen im VRAM gepflegt werden, denk an die B-Trees für RT oder Techniken wie Nanite.

Die in Vulkan vorgesehene Möglichkeit Pipelines zu deklarieren die für Tiling uneingeschränkt und ohne Synchronisation zulässig sind, wurde von Engines im Desktop-Bereich leider nicht genutzt.

Antwort 6 Likes

Klicke zum Ausklappem
ro///M3o

Veteran

352 Kommentare 241 Likes

Klasse Erklärung. Danke :-)

Antwort Gefällt mir

M
Moeppel

Urgestein

873 Kommentare 312 Likes

Gerüchteküche munkelte ja bereits sehr früh, dass RDNA4 wohl eher nur Midrange bedienen wird und nicht den RDNA3 Weg einschlägt hinsichtlich "Chiplets". Die Entwicklung lief auch zu Teilen parallel, sofern man dem Aspekt glauben schenken darf.

Gleiche Gerüchteküche, der man nicht mehr glauben sollte, als man sie schmeißen kann, stellte seiner Zeit für RDNA5 aber eine Rückkehr zu Chiplets in aussicht. Natürlicha alles viel besser und toller als mit RDNA3 ;)

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung