News AMDs RDNA2-Architektur für die Radeon könnte von der der Xbox Serie X oder PS5 deutlich abweichen

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.107
Bewertungspunkte
18.596
Punkte
114
Alter
59
Standort
Labor
Viele Kollegen, so auch mein langjähriger Bekannter Usman Pirzada von Wccftech, dessen Quellen meist recht valide sind, spekulieren (auch gemeinsam im Chat) seit Langem, ob man die kommende Konsolengeneration nun als echten Maßstab für die RDNA2-Architektur nehmen könne, die AMD dann als Radeon-Grafikkarte launchen wird, oder eben auch nicht...



>>> Hier die ganze News lesen <<<
 
WTFtech und valide der war gut, der Haufen verwurstet jeden noch so wackeligen Twitter Post und lädt den Mist unreflektiert mit großem TamTam in die Welt der klickgeilen als Artikel hoch.
 
Du verwechselst Wccftech mit Videocardz. Und bei Wccftech gibt es unterschiedliche Autoren.
Usman ist recht korrekt, da gibt es deutlich schlimmere.;)

Wobei ich meist nur das übernehme, was ich selbst auch nachvollziehen oder validieren kann. :)
 
Wobei ich meist nur das übernehme, was ich selbst auch nachvollziehen oder validieren kann.

Das war mal eine journalistische Selbstverständlichkeit, die bei vielen Deiner Kollegen leider immer mehr in Vergessenheit gerät bzw. dem Zeit- und Clickdruck weichen muss. :(
 
Dass sie es "custom" nennen müssen, bzw. gar wollen ist auch nicht verwunderlich und ging bereits aus Cerny's Talk hervor, der auf diverse Customization hinwies, wenn auch nur high level, so bspw. die "GPU Cache Scrubbers" (bzw. Coherency Engines). Darüber hinaus lies Cerny auch durchblicken, dass das eine oder andere Architekturdetail möglicherweise auch von Sony beigesteuert wurde und sich nachfolgend wohl in RDNA2 wiederfinden wird. Und schlussendlich fühlte sich auch Cerny berufen herauszustreichen, dass man in der PS5 nicht einfach PC-Hardware verbaut hat, voraussichtlich schlicht um die Konsolen hervvorzuheben (und nicht nur als Light-PCs dastehen zu lassen).
In der gleichen Art wird möglicherweise AMD diese Differenzierung nutzen wollen, denn andernfalls redet man bzgl. RDNA2 über eine Architektur aus 2017/18, d. h. was da jetzt Ende diesen Jahres auf den Markt kommt, ist bereits um die 3+ Jahre alt. (AMDs Raytracing-Patent (mittels der TMUs) wurde Ende 2017 aufgegeben und die SoCs hatten ihre Tapeouts voraussichtlich noch in 2018.) Von daher dürfte auch AMD daran gelegen sein hier nicht den Eindruck einer "billigen" Zweitverwertung von "altem Zeugs" entstehen zu lassen.
Zudem würde ich auch dahingehend hoffen, dass RDNA2 auf dem PC zumindest minimal angepasst ist, damit ihnen nicht das gleiche Problem wie mit Vega widerfährt und das Design nur schlecht mit Blick auf HighEnd-GPUs skaliert, denn schließlich wurde zumindest das ursprüngliche Design auf den recht engen Power Envelop eines Konsolen-SoCs hin entwickelt, der zudem bzgl. seiner gesamten Verlustleistung deutlich kleiner 300 W rangieren dürfte. (Gerüchte gehen zwar von einer leichten Erhöhung der Verlustleistung bzw. des Verbrauchs aus, aber die wird sich dennoch eher an den bisherigen Konsolen orientieren, als dass sie sich nun zwecks Leistungsmaximierung in den 300 W-Bereich bewegen wird.)
Schlussendlich bin ich gespannt ob da was dran ist, oder ob die Unterschiede von RDNA2 (bis auf vielleicht Kleinigkeiten) eher daher rühren, dass man die eine oder andere Customization, die man für Sony/Microsoft implementiert hat, weglassen musste. *)

*) Eine Kleinigkeit, die man ggf. auf den Konsolen komplett gestrichen hat, könnte die FP64-Unterstützung sein. Auf dem PC kann sich das AMD jedoch nicht leisten, da man die Architektur zweifelsfrei auch für die Radeon Pro's verwenden will. [Typische AMD-GPUs arbeitet zurzeit mit einem 1:16-Verhältnis bzgl. FP64 (mit der atypischen Ausnahme der Radeon VII, die aber eigentlich eine MI50 ist; ursprünglich 1:2, für die Radeon VII auf 1:4 ausgebremst).] Schlussendlich würde eine solche Änderung natürlich bereits ausreichen, um von einer zu den GPUs abweichenden Architektur zu sprechen, nur wäre diese für den Gaming-Bereich relativ irrelevant ...
Ich bin gespannt, ob es AMD vielleicht dieses Jahr gelingt an nVidia heran zu kommen oder gar gleichzuziehen.
 
Pro soll aber dies mal klar getrennt sein vom Consumer Produkt. Somit brauch AMD bei Navi gar nichts einbauen was für den Pro Bereich nötig ist. Hatte AMD aber auch so kommuniziert.
Das AMD herausstreicht, das die APU eben Custom ist und man diese nicht unbedingt mit der Desktop Variante vergleichen sollte, ist glaube ich eigentlich selbst verständlich. Da AMD ja beim Design der Chips sowohl für die neue X-Box als auch die neue PS Konsole eng mit den jeweiligen Unternehmen zusammen gearbeitet hat. Möglich das ein oder ein paar Sachen aus der Zusammenarbeitet mit in die neuen Desktop GPUs eingeflossen sind.
Aber womöglich versucht man so schon von Beginn an, erst gar keine Zweifel oder gar Shitstorms zu vermeiden. Gibt sicher wieder beim erscheinen genug User die sich darüber auskotzen das irgendwas fehlt, egal bei welcher GPU.

Viel interessanter aber ist doch am Ende, wann kommt die neue GPU. Bei den Konsolen ist es klar, entweder noch pünktlich zum Weihnachtsgeschäft (bezweifel ich aber), oder halt Anfang nächsten Jahres. Schön wäre ein Launch von allen dreien, also X-Box, PS5 und der neuen Navi2 GPU zum selben Zeitpunkt.
Weil Leistung wird die neue GPU haben, daran besteht eigentlich seit der Veröffentlichung der Daten der neuen X-Box kein Zweifel mehr.
 
Was du voraussichtlich meinst ist CDNA alias Compute DNA. Die hat jedoch voraussichtlich nichts mit Radeon Pro's zu tun, denn die basieren bspw. derzeit ausschließlich auf den Consumer-GPUs. Vega 20 wurde bspw. in keiner Radeon Pro verbaut.
Darüber hinaus erklärte AMD zu dieser Archtiektur explizit "Compute DNA for the datacenter, accelerate ML/HPC, reduced TCO, enhanced enterprise RAS, scaleable performance with AMD Infinity Architecture". Das alles liest sich sehr stark und ausschließlich nach Instinct-Produkten, von daher gehe ich davon aus, das AMD, wie auch nVidia, die Professional/Visualization-Produkte mit ihrer regulären Architetur bestücken wird, hier also mit RDNA(2).
Ein erstes Update des schon etwas angestaubten Portfolios gab es ja bereits bspw. mit der Radeon Pro W5700, die in etwa einer Radeon 5700 entspricht.

Kleine Anekdote am Rande: In seinem Talk erklärte Cerny so nebenbei bzgl. möglicherweise zurückgeflossenen architektonischen Dingen von Sony in das RDNA2-Design und, dass man diese möglicherweise auch in PC-GPUs (RNDA2) vorfinden wird, "so etwa um den Zeitpunkt herum, wenn auch die Konsolen verfügbar sein werden" (frei wiedergegeben). Das kann man durchaus als weiteres Indiz für das Jahresende verstehen ... jedoch noch ohne Berücksichtigung der Coronoa-Problematik.
Abseits dessen auch noch einmal ein Indiz dafür, dass AMD vertagstechnischen Beschränkungen unterliegt und man RDNA2 gar nicht zu früh auf dem PC in den Markt bringen darf. (Andernfalls wäre es unsinnig, dass Sony/Cerny von AMDs internen Produkt(zeit)plänen wüssten.)

Leistungsfähig werden die neuen SoCs zweifelsfrei sein, besonders relativ zu ihren Vorgängern. Bezüglich RDNA2 wäre ich jedoch vorsichtig mit Vorschusslorbeeren. Wenn man die beiden Konsolen umrechnet, kommt man, in Ermangelung von etwas besserem als TFlops, für die Xbox auf ~ 0,119 TFlops pro CU pro GHz und für die PS5 auf ~ 0,128 TFlops pro CU pro GHz. Wenn man die CUs mit den SMs von nVidia grob gleichsetzt, liegen die Konsolen gerade mal auf dem Niveau von Turing. Eine RTX 2080 Ti erreicht ~ 0,128 TFlops pro SM pro GHz. Darüber hinaus errechnen sich für Navi 10 ebenfalls recht genau ~ 0,128 TFlops pro CU pro GHz (sowohl für die 5700 XT als auch 5700, gemessen am Boost-Takt). Letzteres verwundert mich gar ein wenig, denn das würde bedeuten, dass zumindest bzgl. der TFlops (die fürs Gaming natürlich nicht alles sind), sich jedoch nicht allzu viel bei RDNA2 getan hätte. *)

Abseits dessen steht natürlich die Frage im Raum, ob man die CUs so grob überhaupt mit den SMs vergleichen kann, jedoch zumindest der RDNA-interne Vergleich dürfte durchaus valide sein. Tz, tz, ... was man nicht so alles anstellt in Ermangelung harter Fakten. ;)

*) Abseits von Raytracing natürlich, denn hier gibt es voraussichtlich eine eigenständige Intersection-Engine in den TMUs, jedoch trägt die natürlich nichts zur allgemeinen Rechenleistung bei. Rein auf Raytracing bezogen wird RDNA2 zweifelsfrei deutlich mehr leisten können als RDNA1, denn bei letzterem müssen die Shader Prozessoren die Raytracing-Berechnungen zusätzlich übernehmen (analog zu nVidia's Pascal).
Andererseits muss man den TFlops aber auch nicht zu viel Gewicht beimessen, denn auch für Pascal errechnen sich um die 0,128 TFlops pro "SM" pro GHz, wenn man berücksichtig, dass Pascal 128 SPs in einem SM zusammenfasst. Die bei Turing beobachtete Leistungssteigerung geht diesbezüglich also weitestgehend auf mehr SMs, also mehr Transistoren zurück.
 
Zuletzt bearbeitet :
Warum sollte ich da vorsichtig sein? Ich sage nur, das die dedizierte Variante von Navi2 gute Leistung bringen wird. Gerade wenn sie sich nicht alles mit einer CPU teilen muss. Und darauf deutet nun einmal bisher alles hin. Wie stark Navi2 dann am Ende wirklich sein wird, das werden wir dann sehen wenn die GPU draußen ist und wir Tests vorliegen haben. Und AMD hat mit Navi1 gezeigt, das es doch noch geht und dies haben sie mit Zen ebenso gezeigt.
Ich bin da einfach optimitisch eingestellt ohne mich hypen zu lassen. Es sieht wie gesagt bisher ganz gut aus.
 
Technische Weiterentwicklung hat auch ihren Preis und ich persönlich entscheide mich eher für Hardware mit guter Preis/Leistung.
So war es auch zuletzt mit der Sapphire RX VEGA 56 für 249,-€ der Fall. Dann kam Geburtstagskind und weg war sie :D
Als Upgrade hatte ich die RX 5700 eingeplant ( sobald der Preis unter 300 € fällt ) aber stattdessen veröffentlichte AMD die RX 5600 XT mit 6 GB 🤦‍♀️
Wenn die Grafikkarten mit RDNA2-Architektur erscheinen dann rechne ich mit mindestens 100 € Aufpreis zu RDNA 1.0 und bis dahin bleiben die Preise bei AMD und Nvidia unverändert hoch. Zu hoffen bleibt dass wir endlich Raytracing unabhängig von der Monitorauflösung vernünftig nutzen können.
Bei Intel kann ich mir gut eine GPU-"Hybrid-Lösung" vorstellen, wo man die Leistung durch Erwerb eines "Keys" freischaltet ( ähnlich wie bei VROC );)
 
Ich denke eher das RDNA2 im Preisbereich 500-800€ sein wird den dann macht die RX 5600 XT für 299€ auch mehr sinn als aktuell.
 
@Dark_Knight: "Ich bin da einfach optimitisch eingestellt ohne mich hypen zu lassen." Das klingt gut und sinnvoll, denn das, was man in anderen Foren liest, wie "RDNA2 wird Turing zerstören" oder "meilenweit hinter sich lassen" ist zweifelsfrei auch jetzt schon vorhersagbar vollkommener Unsinn, denn zuerst muss AMD weiter aufschließen und im wahrscheinlich besten Falle werden sie dies auch erreichen (ggf. +/- ein paar Prozentpunkte).

@McFly_76: "dass wir endlich Raytracing unabhängig von der Monitorauflösung vernünftig nutzen können" ... pauschal eher nein, bzw. es kommt drauf an. ;) (Es sei denn du hast dich hier unglücklich ausgedrückt und meintest etwas ganz anderes?)
Auch mit der nächsten Generation wird Raytracing in Verbindung mit 4K eine "Qual" bleiben, schlicht weil die Rechenleistung weiterhin deutlich beschränkt bleibt.
Eine Milchmädchenrechnung: Zu Metro's GI erklärte eine Techdemo von Ende 2018, dass man etwa 3 Strahlen pro Pixel verwendet, d. h. mit FullHD werden 6,2 Mio. Strahlen pro Frame berechnet (im best Case und wenn man im finalen Game nichts mehr daran geändert hat). In WQHD steigert sich die Zahl daher bereits auf 11,1 Mio. Strahlen (+79 %) und in 4K werden bereits min. 24,9 Mio. Straheln (+300 % iVz. FullHD) fällig.
Metro und andere Titel behelfen sich hier natürlich mit einer umfangreichen Filter- und Mittelung, da die Strahlzahlen per se zu gering sind, aber je weniger Strahlen verwendet werden können, desto unbefriedigender wird das Ergebnis.
In Metro gibt es worst case Szenen, die mit RTX um über 50 % einbrechen in 4K: RTX 2080 Ti 64 -> 29 Fps, RTX 2060 35 -> 14 Fps.
Beispielsweise im März 2019 brach selbst Shadow of the Tomb Raider mit seiner rein auf Schatten beschränkten Implementation in 4K in Verbindung mit einer RTX 2070 von 35 Fps -> 18 Fps ein.
Nicht umsonst beschränken sich die aktuellen Titel derzeit auch weitestgehend nur auf einen kleinen Teilaspekt der Renderpipeline für eine Raytracing-Untersützung: BF5 nur Refkeltionen, Metro nur GI und Tomb Raider ausschließlich Schatten, während alles andere mit herkömmlichen Mittel berechnet wird. (Eine Kombination wird umso aufwändiger. *)

Interessant wird natürlich die Kombination neuer Hardware ab dem Jahresende in Verbindung mit DX12 Raytracing Tier 1.1 sein. Das wird möglicherweise noch ein paar zusätzliche Prozentpunkte an Hardwareressourcen verfügbar machen. (Möglicherweise wird die Vulkan-Extension bis dahin auch einen finalen Stand erreicht haben?)
Aber vorerst wird man mit Blick auf Raytracing wohl absehbar am besten in FullHD und WQHD spielen können. Darüber hinaus erfordert die Verwendung dieser Technik weiterhin Kompromisse, entweder bei der visuellen Qualität allgemein oder aber indem man nur einen kleinen Teil per Raytracing unterstütz aufwertet.

*) Control verwendet bspw. Raytracing für Reflektionen und Schatten, jedoch ist das Spiel grundsätzlich bereits extrem fordernd und in 4K ohne DLSS bereits unspielbar, so auf einer RTX 2080 Ti in hoher Qualität ohne RTX und DLSS mit 37 Fps. Mit RTX bricht die Leistung gar auf 20 Fps ein. Erst mit aktiviertem Upscaling kann man hier sinnvoll auf der RTX 2080 Ti spielen, ausgehend von FullHD ohne/mit RTX mit 100/59 Fps und ausgehend von einem Upscaling von 1440p aus mit 70/39 Fps.
 
Auch mit der nächsten Generation wird Raytracing in Verbindung mit 4K eine "Qual" bleiben, schlicht weil die Rechenleistung weiterhin deutlich beschränkt bleibt.
Und genau hier hoffe ich dass es sich mit DirectX 12 Ultimate ( DirectX Raytracing, Variable Rate Shading, Mesh Shaders, Sampler Feedback, Texture-space shading ) zum besseren ändert und wir nicht unbedingt > 500 € für eine Grafikkarte ausgeben müssen nur um Raytracing in Spielen flüssig genießen zu können.
Also dass die Kaufentscheidung weiterhin ganz normal unterteilt in "für 1080p, WQHD, oder 4K geeignet" bleibt, aber mit der garantierten Raytracing Unterstützung für jeden Geldbeutel.
 
Ich weiß nicht. RayTracing interessiert mich noch immer nicht. Warum auch, die paar Spiele die es integriert haben (obwohl es ja so viele mehr sein sollten), spielen sich auch ohne gut. Ab dem Moment wo Raytracing einen Boost gibt und nicht Leistung kostet. Ab dem Zeitpunkt interessiert es mich. Was nützt es, wenn die Lichteffekte oder Schatten noch realistischer aussehen, aber die Leistung meiner Grafikkarte um 50% oder mehr einbricht? Gerade wenn man wie ich z.B. mit einer 5700XT in WQHD spielt und es jetzt smooth läuft und mit Raytracing dann nicht mehr? Genau gar nichts. Vor allem wenn es einen Raytracing Aufschlag beim Preis gibt.

Mag jeder für sich selber entscheiden, aber für mich ist und bleibt es ein unnötiger Leistungsfresser. Vielleicht wird es bei Navi2 nicht so sein, wie bei Turing. Aber was das angeht, bin ich doch eher pessimistisch gestimmt. Und wenn es nicht so sein sollte, dann hätte nVidia aber richtig Bockmist gebaut mit RTX.

@gerTHW84
Ich habe noch nie etwas von solchen Phrasen gehalten. Solche Aussagen zeigen halt, wie wenig sich der User mit dem eigentlichen Thema beschäftigt hat. Im zweifel nicht einmal Tests vernünftig gelesen hat. Und Turing wird sicher geschlagen von Navi2. Alles andere wäre auch enttäuschend. Aber wichtiger wäre, das Navi2 auch mit der neuen Generation von nVidias Consumer GPU mithalten kann. Denn das ist der eigentliche Gegenspieler.
 
Oben Unten