Grafikkarten News VGA

Abgeblasenener Traum: AMDs Navi 41 RDNA 4 mit 50% mehr Shader-Leistung dank 9 Shader-Engines

 

Laut einem Bericht von Kepler_L2 hatAMD zwar die Entwicklung der High-End-Navi-4X-GPUs mit RDNA-4-Architektur eingestellt, aber Leaks und Informationen aus dem Quellcode geben uns Einblicke in das, was hätte sein können. Diese GPUs sollten laut Berichten 50% mehr Shader-Engines als die Flaggschiff-Navi-31-GPUs der RDNA-3-Generation bieten.

L
Leonardo.ai

Die Top-Navi-4X-GPU (“Navi 4C”) war mit 9 Shader-Engines ausgestattet, was im Vergleich zu den 6 Shader-Engines von Navi 31 eine deutliche Steigerung von 50% bedeutet. Diese Shader-Engine-Konfiguration hätte zu einer Gesamtzahl von bis zu 216 Recheneinheiten führen können, verglichen mit 96 Recheneinheiten bei Navi 31.

Neben der erhöhten Anzahl von Shader-Engines sollte Navi 4X auch ein innovatives Chiplet-Design nutzen. Dies bedeutete, dass die GPU aus mehreren GCDs (Graphics Compute Dies) bestehen würde, die miteinander verbunden sind. Dieses Design ermöglicht es, die Leistung und Effizienz zu skalieren und könnte in Zukunft für High-End-GPUs zum Standard werden.

Quelle: Kepler_L2

Absage aus unbekannten Gründen

Leider hat AMD die Entwicklung der Navi-4X-GPUs aus unbekannten Gründen eingestellt. Es ist möglich, dass es auf Designherausforderungen, Ausbeuteprobleme oder Kostengründe zurückzuführen ist. Die abgesagten Navi-4X-GPUs waren vielversprechend und hätten einen deutlichen Leistungssprung gegenüber der aktuellen RDNA-3-Generation darstellen können. Das Chiplet-Design könnte zudem wegweisend für zukünftige High-End-GPUs sein.

Während wir nie erfahren werden, was die Navi-4X-GPUs tatsächlich geleistet hätten, bieten die Lecks und Informationen einen spannenden Einblick in die technologischen Innovationen, an denen AMD arbeitet. Es bleibt abzuwarten, welche Technologien AMD in zukünftigen RDNA-Generationen einsetzen wird, aber die Erwartungen sind nach den abgesagten Navi-4X-GPUs sicherlich hoch.

Quelle: Kepler_L2

Kommentar

Lade neue Kommentare

G
Gorden

Neuling

8 Kommentare 2 Likes

@Samir Bashir da hat sich ein Tippppfehler wohl eingeschlichen :)
Letzter Absatz ", bieten die Lecks und Informationen"

Antwort Gefällt mir

C
ChaosKopp

Urgestein

591 Kommentare 635 Likes

Ist doch die passende Übersetzung. Vielleicht ungewohnt, aber korrekt.

Wahrscheinlich war die Komplexität noch zu hoch, aber die Reise geht in diese Richtung.

Antwort Gefällt mir

G
Gorden

Neuling

8 Kommentare 2 Likes

Dann sollte man es vielleicht konsequent so verwenden, aber einmal so einmal so :) Im ersten Abschnitt ist es noch als Leaks.

Antwort Gefällt mir

HerrRossi

Urgestein

6,834 Kommentare 2,258 Likes

Schade, dass AMD das Handtuch geschmissen hat. Im Datacenter Bereich mit AI-Beschleunigung ist aber wohl auch mehr Geld zu verdienen, da sind die Gamer nicht mehr wo wichtig.
Was ist eigentlich aus dem Chipletansatz geworden? Technisch nicht realisierbar, zu hohe Kosten?

Antwort Gefällt mir

C
ChaosKopp

Urgestein

591 Kommentare 635 Likes

Ich hoffe ja immer auf unseren Whistleblower aka Seitenbetreiber hier.

Wenn ich aber bedenke, wie lange Treiber nach dem Launch brauchen, tippe ich drauf, dass ungelöste Fallstricke zu überwinden wären.

Antwort Gefällt mir

D
Denniss

Urgestein

1,635 Kommentare 612 Likes

Irgendwas soll wohl nicht geklappt haben bei den angedachten großen Karten, entweder Probleme mit den Chiplets oder der angedachten neuen Architektur. Bei den Monolithen hat man ggf wieder auf bewährtes zurückgegriffen und das mit RDNA4-features aufgewertet.
Mal schauen was da dann schlußendlich bei rauskommt.

Antwort Gefällt mir

c
cunhell

Urgestein

576 Kommentare 553 Likes

Sie nutzen das Chiplet-Design ja bei Instinct MI300A/MI300X. Erfahrung sollte daher wohl da sein. Vielleicht gibt es auch Engpässe bei den Interposern und sie nutzen sie lieber für die Instinct MI300A/MI300X.
Wenn dann noch die aktuellen Fertigungskapazitäten zu gering sind, macht es ja durchaus sinn, nur Singlechip-GPUs und Ryzen-Zen5 CPUs zu produzieren. Damit macht man mehr Umsatz als mit Halo-Produkten wie Highend-GPUs.
Und AI und Ki ist ja im Moment der Hype schlecht hin. Warum also für Highend-GPUs Resourcen verbraten, wenn der Gewinn mit MI300A/MI300X deutlich höher ausfällt.

Cunhell

Antwort 4 Likes

8j0ern

Urgestein

3,027 Kommentare 987 Likes

Hm, ob MSI das wusste und daher die Reisleine gezogen hat bei den RADEON GPUs ?

So langsam wird es spannend, Insider wissen darf man eigentlich nicht "ausnutzen" ;)

Antwort Gefällt mir

S
SlayerJoe

Mitglied

14 Kommentare 2 Likes

Wollen wir hoffen, das AMD im Gaming-GPU-Berich nicht ganz den Anschluss verliert. Wäre schade für die Preisstabilität, und ich möchte mir nicht ausmalen, wo diese hinführt, wenn NVIDIA Monopolist wäre.

Antwort 1 Like

G
GPUModder

Mitglied

86 Kommentare 34 Likes

Sehr interessanter Artikel und gleichzeitig auch wahnsinnig Schade! Meine große Vermutung ist genau das Chiplet Design als Grund für das Aus des Chips. Ich denke das es aber weniger finanzielle sondern eher technische Probleme als Grund geben wird, warum der Ansatz wenigstens im Moment verworfen wird. Persönlich hoffe ich allerdings auf eine äußerst geschickte Marketingtechnik von AMD. Was meine ich damit? Ich hoffe darauf, dass AMD nur so tut als wäre im High-End-Bereich bei ihnen mit der nächsten Generation eher nichts los, damit sich Nvidia in Sicherheit wiegt und dadurch AMD wenn der Hammer ausgepackt wird, direkt zur Spitze aufschließen kann. Natürlich nur Spekulation. ;)

Antwort Gefällt mir

8j0ern

Urgestein

3,027 Kommentare 987 Likes

Ja, es ist alles zu spät.
Keine Spiele Konsole ohne AMD, kein Microsoft Server ohne AMD, kein Gaming Rig ohne AMD... Keine Software Entwickler ohne AMD.

Wollte nvidia nicht mal selbst Spiele Konsolen und Mainboards Herstellen ?

Antwort Gefällt mir

S
Savage_Sinusoid

Mitglied

21 Kommentare 6 Likes

Probleme mit der Ausbeute halte ich für tendenziell eher unwahrscheinlich. Gerade Chiplet-Designs versprechen ja wegen der geringeren Fläche eine höhere Ausbeute: Bei einem Fertigungsdefekt muss man nur das eine Chiplet entsorgen und nicht gleich einen kompletten großen Chip.

Meine (spekulative) Vermutung ist eher, dass RDNA 3 gezeigt hat, dass man das Chiplet-Design für GPUs noch nicht gut genug im Griff hat und deswegen vorerst zu einem Monolithen zurückkehren muss.

Antwort Gefällt mir

b
butch111

Mitglied

60 Kommentare 20 Likes

wann hatte AMD denn das letzte mal ne Highend GPU?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,886 Kommentare 1,187 Likes

Ich tippe auch auf Engpässe in der Fertigung, allerdings mehr im Bereich Packaging; da steht AMD mit Nvidia und einigen anderen (Apple!) in der Warteschlange. TSMC scheint hier im Moment deutlich weniger Bandbreite zu haben als bei den fabs selbst. Und ja, die Beschleuniger haben eben viel größere Gewinnmargen, also wird die Kapazität die da ist dorthin gerichtet.
Wenn das so weiter geht, wird es dann bei dGPUs in Chiplet Bauweise uU sogar noch auf ein Wettrennen von Nvidia mit Intel rauslaufen. Verrückte Welt!

Antwort Gefällt mir

HerrRossi

Urgestein

6,834 Kommentare 2,258 Likes
Telaran

Mitglied

27 Kommentare 14 Likes

Wie Igor gerne sagt: Eine Runde Spekulatius
Ich persönlich gehe davon aus, dass die 5090er von Nvidia die 2'000 € UVP knacken wird und im Handel die 3'000 €+ erreicht.
Grundlage meiner Annahme:

  • März 2024 Headlines in diversen Medien
    Der Nvidia-CEO teilt gegen die Konkurrenz aus: Selbst wenn deren Chips kostenlos wären, könnten sie nicht mithalten.
    Wenn der CEO diese Einstellung hat, wird er sicher seine Produkte "nicht unter Wert" verkaufen....
  • Nvidia verdient massiv mehr mit KI GPU's
    Wir wissen, wie es beim Mining Boom abgelaufen ist.. die GPU wurden meistens ab Rampe in China aufgekauft und die homöopathischen Dosen für den Rest der Welt waren entsprechend bepreist.
    Zudem wird Nvidia sicher nicht Kapazitäten für 2'000 € Karten freischaufeln, wenn mit diesen die KI GPU ab 15'000 €+ produziert werden können.
  • Inflation ist noch immer ein Thema

Ich habe da wenig Hoffnung.
In den letzten Jahren hatte Nvidia frühzeitig immer Anpassungen an der neuen GPU Generation gemacht (Preise), bevor die Details von AMD bekannt geworden sind. Sie haben wohl ihre Quellen und so entspannt, wie sie sich verhalten, befürchte ich eher das Schlimmste. Zumindest aktuell.

Selbst bei Intel bin ich unsicher, ob sie endlich mal "Ernst" machen und die neue Generation "aufschliessen" kann (ich bezweifle, dass sie mit einer 5090 konkurrieren könnten, aber vielleicht mit einer 5070/80)

NVidia hat bereits für verschiedene Konsolen die Prozessoren gestellt. Sind halt keine x86/64 Architektur.
Erst wenn Windows on ARM an Fahrt aufnehmen würde, könnte es sein, dass Xbox und Playstation umschwenken und dann plötzlich Nvidia Chancen hätte.

Hier "profitieren" wir also noch, dass die Publisher gerne möglichst (mit wenig Aufwand) auf allen Plattformen veröffentlichen wollen.

Antwort 1 Like

Klicke zum Ausklappem
Ext3h

Mitglied

15 Kommentare 20 Likes

War für GPUs nicht umsetzbar.

Für AI-Inferenz kein Problem - dort hast du wenig Cache-Lokalität und fast alles schlägt beim Lesen direkt auf den Speicher durch oder die Daten sind wirklich Read-Only und es kommt nicht zu Cache-Invalidierung. Beim zurückschreiben gibt es praktisch auch keinerlei Write-Combining mit Wort-Granularität. Sprich der lokale Interconnect braucht kaum größer sein als die externe Verbindung zum DRAM, weil zwischen den L2-Slices fast nichts ausgetauscht werden muss.

Bei einer CPU sowieso kein Problem, da ist die Bandbreite zum L3-Cache kaum höher als die nackte Speicherbandbreite einer GPU.

Aber die Bandbreite die eine GPU zum (über Chiplets geteilten) L2-Cache bzw. den darauf operierenden ROPs braucht ist extrem.

Navi war nicht den erwarteten Weg mit der Transformation zum Tiled-Renderer gegangen was aber die Vorraussetzung für Chiplets gewesen wäre. Auf Kohärenz im L2 zu verzichten ist extrem kompliziert, und verbietet verschiedene etablierte Techniken. Zum Beispiel alle Datenstrukturen die mit Atomic-Instruktionen im VRAM gepflegt werden, denk an die B-Trees für RT oder Techniken wie Nanite.

Die in Vulkan vorgesehene Möglichkeit Pipelines zu deklarieren die für Tiling uneingeschränkt und ohne Synchronisation zulässig sind, wurde von Engines im Desktop-Bereich leider nicht genutzt.

Antwort 6 Likes

Klicke zum Ausklappem
ro///M3o

Veteran

381 Kommentare 276 Likes

Klasse Erklärung. Danke :-)

Antwort Gefällt mir

M
Moeppel

Urgestein

887 Kommentare 318 Likes

Gerüchteküche munkelte ja bereits sehr früh, dass RDNA4 wohl eher nur Midrange bedienen wird und nicht den RDNA3 Weg einschlägt hinsichtlich "Chiplets". Die Entwicklung lief auch zu Teilen parallel, sofern man dem Aspekt glauben schenken darf.

Gleiche Gerüchteküche, der man nicht mehr glauben sollte, als man sie schmeißen kann, stellte seiner Zeit für RDNA5 aber eine Rückkehr zu Chiplets in aussicht. Natürlicha alles viel besser und toller als mit RDNA3 ;)

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung