News AMD Radeon RX 6000 - Die tatsächliche Leistungsaufnahme von Navi21XT und Navi21XL, der Speicher und die Verfügbarkeit der Boardpartnerkarten

Manchmal fragt man sich wozu man gewisse Seiten anpinnt wenn die Software einen dann doch im Stich lässt und relevante Themen einfach Mal nen Tag zu spät angezeigt werden... 🤦

Lieben Dank für den Artikel, wie immer sehr aufschlussreich. 🤗

Mal gucken wann das vorbestellte NR200 tatsächlich verschickt wird, ohne das wird's eng mit ner neuen Graka.

Gestern erstmal via RBE und MPT der 5700XT Referenz im Idle Stille und unter Last die Effizienz beigebracht (nebst einigen kleinen Hardwaremodifikationen wie Krümel unter der Backplate sowie nachziehen der Kühlerschrauben um 3/4 sowie Plastikunterlegscheiben unterm GPU Kreuz - Ergebnisse können sich echt sehen lassen selbst mit original Hitachi Pad) und bisschen am vergleichen zwischen Vega10 und Navi10.

Wird ja langsam lästig das warten... (So ungefähr wie als Stift die letzten paar Tage vor Weihnachten 😂 )

LG
Marti
 
Zuletzt bearbeitet von einem Moderator :
Die TMUs können bei RDNA2 pro Zeiteinheit entweder Textur- oder Intersection-Berechnugen ausführen, aber nicht beides gleichzeitig.
Ob das RT wirklich die TMU macht, oder eine separate Einheit, lasse ich mal dahin gestellt (das ist ja auch relativ egal). Aber dass es um entweder/oder geht, hatte ich ja geschrieben: "je nach Bedarf einige Shader die RT Berechnung machen (und die RT Einheiten nutzen) und andere Shader das klassische Rasterizing".
 
Was ist denn mit diesen Informationen?
Ich glaube die 3 Spiele Benchmarks auf der Vorstellung war die 6800XT und AMD wird mit der 6900XT nochmal am 28.10 auftrumpfen möchten.


AMD Radeon RX 6900 XT – Navi 21 XTX

AMD’s Big Navi will feature 80 Compute Units (5120 Stream Processors). This card will be (for now) AMD exclusive. The Radeon RX 6900XT will be the AMD flagship series, which according to our sources will be in limited quantity. The card would allegedly feature 16GB of GDDR6 memory across a 256-bit bus. The graphics card would feature a 2040 MHz game clock and a 2330 MHz boost clock.

AMD Radeon RX 6800 XT – Navi 21 XT

The cut-down Navi 21 codenamed XT will feature 72 Compute Units (4608 Stream Processors) paired with 16GB of GDDR6 memory. This card will also feature a 256-bit memory bus and clock speed above 2.0 GHz. The game clock is expected to be 2015 MHz and the boost clock should be under 2250 MHz. These are of course AMD reference clocks.

AMD Radeon RX 6800 – Navi 21 XL

The RX 6800 non-X will feature Navi 21 XL variant with 64 Compute Units (4096 Stream Processors). Similarly to 6900XT and 6800XT it will also come with 16GB GDDR6 memory and a 256-bit memory bus. The clock speeds are lower for this part with an 1815 MHz game clock and 2150 MHz boost clock.

The Radeon RX 6900XT, 6800XT, and 6800 will all be unveiled on October 28th.

AMD Radeon RX 6700 XT and 6700 – Navi 22

AMD is also releasing its Radeon RX 6700 series, but not this month. The RX 6700 series will feature Navi 22 GPU. According to our sources, AMD has recently decided to launch these GPUs quicker than previously planned. The current plan is to launch them in January. The Radeon RX 6700XT is expected to be full Navi 22 with 40 CUs (2560 Stream Processors). The RX 6700 XT Navi 22 graphics card is said to feature 12GB GDDR6 192-bit memory.
 
Zuletzt bearbeitet :
Die 6900 XT und 6800XT sind doch hier viel zu dicht beieinander. Abgesehen von den CUs. Das reicht höchstens für ne "Super" 😉
 
Mal wieder ein spannender Artikel, der auf anderen News-Seiten auch bereits entsprechend seine Kreise zieht. Ich bevorzuge natürlich das Original ;-)

Mal ne ganz dumme Frage:
Falls ich jetzt tatsächlich nach gefühlten Jahrzehnten tatsächlich bei AMD lande, gibt es da neben der reinen Performance noch andere Widrigkeiten, mit denen ich mich beschäftigen sollte? Habe jetzt mehrfach von Treiberproblemen gehört, dann CUDA vs OpenCL beim Modeling/Rendering, DLSS 2.1 soll jetzt angeblich auch für VR Thema werden, Fixed Foveated Rendering in VR gibt es auch erst für RTX, ... gibt es sonst noch Inkompatibilitäten, bzw kommen vielleicht bestimmte Gameengines mit NV besser klar als mit AMD oder Ähnliches? UNITY wäre hier für mich besonders wichtig. RT ist in VR noch länger kein Thema. Entwickelt AMD die Treiber auch nach Jahren noch weiter, so wie NVIDIA (exotische VR Hardware), oder steht man da eher im Regen, als bei der Konkurrenz?
Sorry, falls das jetzt ganz dämlich ist. Ich kenne mich mit AMD so garnicht aus, glaube aber ich bin hier mit der Frage besser aufgehoben, als in irgendeinem Reddit Forum.
 
Mal wieder ein spannender Artikel, der auf anderen News-Seiten auch bereits entsprechend seine Kreise zieht. Ich bevorzuge natürlich das Original ;-)

Mal ne ganz dumme Frage:
Falls ich jetzt tatsächlich nach gefühlten Jahrzehnten tatsächlich bei AMD lande, gibt es da neben der reinen Performance noch andere Widrigkeiten, mit denen ich mich beschäftigen sollte? Habe jetzt mehrfach von Treiberproblemen gehört, dann CUDA vs OpenCL beim Modeling/Rendering, DLSS 2.1 soll jetzt angeblich auch für VR Thema werden, Fixed Foveated Rendering in VR gibt es auch erst für RTX, ... gibt es sonst noch Inkompatibilitäten, bzw kommen vielleicht bestimmte Gameengines mit NV besser klar als mit AMD oder Ähnliches? UNITY wäre hier für mich besonders wichtig. RT ist in VR noch länger kein Thema. Entwickelt AMD die Treiber auch nach Jahren noch weiter, so wie NVIDIA (exotische VR Hardware), oder steht man da eher im Regen, als bei der Konkurrenz?
Sorry, falls das jetzt ganz dämlich ist. Ich kenne mich mit AMD so garnicht aus, glaube aber ich bin hier mit der Frage besser aufgehoben, als in irgendeinem Reddit Forum.
Nvidea kommt mit Xplane 11 besser klar..
Ist zwar nur eine Nische in der Spielewelt,wer es aber spielt ist mit Nvidea besser versorgt.
 
@Stadtreiter: es kommt darauf an, was du da an Programmen nutzt. Igor macht je entsprechende Tests, quasi grade geschehen bei den beiden neuen Nvidias, wo du einen guten Einblick bekommst.
Hier und auf den nächsten zwei Seiten sind Workstationtests.
 
Ist zwar nur eine Nische in der Spielewelt,
Danke schon mal für die Antwort. Mein Hobby VR ist ja komplett eine Nische in der Spielewelt. Ich rede also genau eben nicht von irgendwelchen "Game-Ready" Treibern für Mainstreamtitel, mit denen man bei NV vollgespammt wird, sondern von genau solchen kleinen Dingen. Oder kurz: Für jemanden, der hauptsächlich kleine VR Nischentitel spielt und nebenher als Hobbyist mit exotischen Grafiktools und Gameengines bastelt... ist man da generell bei AMD gut aufgehoben? Soll keine Grundsatzdiskussion sein, oder eine "was soll ich kaufen" Frage werden.
Mein Bauchgefühl sagt, bei NV wäre ich eventuell auf der sicheren Seite. Eine 3080 habe ich aber ja nich bekommen...
Wird vielleicht mehreren Anderen hier ähnlich gehen.
 
Zuletzt bearbeitet :
Danke schon mal für die Antwort. Mein Hobby VR ist ja komplett eine Nische in der Spielewelt. Ich rede also genau eben nicht von irgendwelchen "Game-Ready" Treibern für Mainstreamtitel, mit denen man bei NV vollgespammt wird, sondern von genau solchen kleinen Dingen. Oder kurz: Für jemanden, der hauptsächlich kleine VR Nischentitel spielt und nebenher als Hobbyist mit exotischen Grafiktools und Gameengines bastelt... ist man da generell bei AMD gut aufgehoben? Soll keine Grundsatzdiskussion sein, oder eine "was soll ich kaufen" Frage werden.
Mein Bauchgefühl sagt, bei NV wäre ich eventuell auf der sicheren Seite. Eine 3080 habe ich aber ja nich bekommen...
Wird vielleicht mehreren Anderen hier ähnlich gehen.
Mit deinem "Special" Interest ist es wahrscheinlich egal, welchen Anbieter du wählst. Hast Du mal geschaut, welche Game Engine die von Dir präferierten Anwendungen nutzen? Ich würde es eher aus der Richtung versuchen. Aus eigener Erfahrung kann ich nur sagen: Treiber können bei AMD ein Thema sein.
 
Ob das RT wirklich die TMU macht, oder [...]
Die dedizierte Raytracing-Intersection-Engine ist bei AMD in der TMU verortet; das zeigt AMDs Patent sowie auch Microsoft's Vorstellung der Xbox. Microsoft schreibt hier explizit "4 Texture or Ray ops/clk per CU". (Die 4 deutet darauf hin, dass das TMU/CU-Verhältnis unverändert beibehalten wurde mit RDNA2.)
nVidia's RT Cores können weitestgehend autark operieren und liefern dem SP/CUDA Core am Ende einen Ray Hit oder Miss zurück. Bei AMD wird nach jeder einzelnen Intersection-Berechnung die Code-Ausführung an den SP zurückgegeben, der dann entscheidet, ob er den Strahl weiterverfolgen will und in diesem Fall den nächsten Intersection-Test gegen die BVH initiiert und an die TMU zurückgibt, d. h. hier ist durchgehend min. ein SP in einer CU blockiert (tendenziell eher mehr), denn während bei nVidia das "Endergebnis" zurückgegeben wird, müssen in RDNA2 ein bzw, mehrere SPs jeden einzelnen Intersection-Test begleiten. *)
Darüber hinaus mindern Raytracing-Operationen bei RDNA2 den Texture Processing-Durchsatz, da die TMUs nur ein Entweder-oder unterstützen.
Wie gut oder schlecht das insgesamt performen wird, muss man weiterhin abwarten, da noch nichts Konkretes vorliegt. Microsoft beispielsweise hat nur theoretische Peak-Werte zur Xbox vorgestellt, die sich nicht mit nVidia vergleichen lassen und auch keine Rückschlüsse auf die real erzielbare Performance in Spielen zulassen.

*) Microsoft schreibt zwar "Shader can run in parallel for BVH traversal, material shading, etc.", das dürfte aber eher für einen Shader-Cluster insgesamt gelten als einzelne Shader, die mit Raytracing beschäftigt sind, da wie gesagt, die Intersection-Engine nach jedem einzelnen Test den Programmfluss zurück an den SP gibt (ein einzelner Test dürfte eine Latenz von nur wenigen Takten haben).
AMDs Ansatz verspricht mehr Flexibilität bzgl. der Raytracing-Berechnung, da man granular eingreifen kann, jedoch wird man abwarten müssen, was Performance-technisch schlussendlich der bessere Ansatz ist, zumal es auf diese konkrete Frage vielleicht nicht einmal eine eindeutige Antwort geben mag, da das Ergebnis von dem in dem Falle konkreten Raytracing-Anwendungszweck abhängen mag. Für einige Anwendungszwecke mag ein Fire-and-forget vorteilhafter sein, für andere ggf. eher AMDs Implementation.

**) Im November könnten CoD Cold War und Cyberpunk 2077 als sehr aktuelle Implementationen den Lackmustest für die Raytracing-Implementationen darstellen. ;-)
 
Zuletzt bearbeitet :
@gerTHW84 4x4GB Stacks HBM* wie bei der VII ala 16GB reichen doch völlig aus und wahrscheinlich gibt es nun auch schon wieder besseren HBM*, weniger verbrauch mehr Takt usw., die VII kam auf 1TB, vermutlich sind nun durch Takt auch schon 1,2TB oder mehr drin...

Das ganze war doch der richtig eingeschlagene weg ab Fury, ich kann nicht nachvollziehen, warum man da wieder von weg ist, nach den ganzen Investitionen.

Mir wäre der Aufpreis völlig schnuppe, die Vorteile überwiegen, kleineres PCB, angebunden direkt am Chip, gleich dort auch Kühlertechnisch die Wärme abzutransportieren.

GDDR6* ist der falsche weg, schau dir NVIDIA Karten an, der Quark läuft sowas am Limit, die ganzen Bausteine ringsrum, die dazu noch elendig heiß sind, was soll sowas...

Ich bleib dabei, aufrüsten erst mit einer AMD Karte im Vollausbau und HBM*, GDDR können sie sich hinten reinschieben oder für Lowbudget und Kevin-Justin-Marvin-Horst verwenden!
 
Zuletzt bearbeitet :
d. h. hier ist durchgehend min. ein SP in einer CU blockiert (tendenziell eher mehr), denn während bei nVidia das "Endergebnis" zurückgegeben wird, müssen in RDNA2 ein bzw, mehrere SPs jeden einzelnen Intersection-Test begleiten.
Darüber hinaus mindern Raytracing-Operationen bei RDNA2 den Texture Processing-Durchsatz, da die TMUs nur ein Entweder-oder unterstützen.
Wie gut oder schlecht das performen wird, muss man jedoch weiterhin abwarten, da noch nichts Konkretes vorliegt. Microsoft beispielsweise hat nur theoretische Peak-Werte zur Xbox vorgestellt, die sich nicht mit nVidia vergleichen lassen und auch keine Rückschlüsse auf die real erzielbare Performance in Spielen zulassen.
Hatte ich ja in etwa so geschrieben... Dann sind wir uns ja einig. :)
Die Peak RT Leistung bei AMD kann vermutlich nur erreicht werden, wenn der ganze Chip RT macht, dann geht aber kein Rasterizing mehr (was natürlich nicht praktikabel ist, sondern nur ein theoretischer Wert). Das kann man natürlich nicht mit NVidia vergleichen, denn dort hat man immer die Rasterizing-Leistung.
Was ich mich gerade frage, ob man bei AMD dann nicht das Feature anbieten könnte, eine primäre Karte für's klassische Rasterizing und eine zweite Karte (evtl. auch kleiner) rein für RT, quasi eine Art Crossfire Nachfolger mit Fokus auf RT. Kommt natürlich darauf an, wie viel Kommunikation nötig ist, um die RT Ergebnisse auf die primäre Grafikkarte zu übertragen, ob hier PCIe limitieren kann. Das wäre dann auch später mal was für Nachfolge-Generationen mit Chiplet Ansatz.
 
@Igor
Dein Rechenbeispiel ist falsch. Der urspüngliche Leaker als Newsgeber auf Twitter geht von 255w TGP aus (also Total Graphics Power), die es bei AMD gar nicht gibt [die vermessen nicht jederzeit alle 12v Schienen wie Nvidia, wäre neu - am PCB hat sich aber nicht viel verändert = würde eher von TBP ausgehen] und wenn, ist in der Aisc-Power von AMD das MC/SI/Phy inklusive VRAM bereits enthalten, was wohl um die 200w Asicpower bedeuten würde (XT/XTX). Ich denke mal, er meinte die "Leistungsaufnahme der gesamten Karte, die ein Netzteil dann jederzeit bereitstellen können muss" bei genanntem Gameclock, ergo 255w bei 16GiB GDDR6 (non X) und ja ->das wäre sehr effizient für AMD Verhältnisse.

Von wem auch immer du diese [andere] Info haben willst.
 
@rockys82:
Mit 4 HBM2-Stacks wäre ein Chipdesign mit Dual-Speichersupport bereits hinfällig, weil das pauschal noch deutlich mehr Wafer-Fläche verschwenden würde, d. h. man bräuchte zwei dedizierte Chipdesigns, eines mit einem GDDR6- und eines mit einem HBM2-Speicherinterface. Das ist, wie ich schon schrieb, noch einmal zusätzlich teuerer, da die Entwicklung und auch Fertigung eines komplett separaten Designs noch einmal beträchtliche Mehrkosten verursacht (und die vertriebstechnische Flexibilität einschränkt).
nVidia könnte sich so etwas weitaus eher als AMD leisten, denn die haben deutlich größere Marktanteile und damit gesichertere Absatzvolumina.

Da viele Details für eine Betrachtung der Wirtschaftlichkeit fehlen, lässt sich das schwer bewerten, außer grobe "Wahrscheinlichkeiten" anzugeben. Wenn es jedoch HBM-Unterstützung geben sollte, dann würde ich ein Dual-Interface für den optionalen Anschluss von zwei Stacks für wahrscheinlicher halten, aber selbst hier bin ich mir nicht sicher, ob AMD einen solchen Weg einschlagen wird. AMDs kleinere Marktanteile beschränken ihren Handlungsspielraum wenn es wirtschaftlich sein soll und genau darum dreht sich am Ende schlussendlich alles.

Anmerkung am Rande: Du bist mit deinem "mir wäre der Aufpreis völlig schnuppe" für den Markt und für die Hersteller weitestgehend irrelevant, weil du mit einer derartigen Einstellung nur eine kleine Randgruppe darstellst. AMD und nVidia fertigen dagegen Produkte für den Massenmarkt und keine Individualprodukte. ;-)

"Ich bleib dabei, aufrüsten erst mit einer AMD Karte im Vollausbau und HBM". Wie ich schon schrieb, so etwas wie einen "Vollausbau" gibt es hier nicht, da es kein festdefiniertes, oberes Limit gibt.
Abgesehen davon steht mit deiner Aussage die Chance nicht schlecht, dass du in den nächsten 18 Monaten keine neue GPU kaufen wirst. ;-)

@Oberst:
Als kleine Korrektur: Die Peak-Leistung, die auch Microsoft angab, wird erreicht, wenn sämtliche TMUs für Ray-Intersection-Berechnungen verwendet (und maximal ausgelastet) werden. Das ist jedoch nicht mehr als ein theoretisches Szenario. Begleitend dazu wird man weitaus weniger SPs parallel benötigen, d. h. die übrigen SPs können sonst was machen, nur ist die Frage wie weit diese kämen, wenn die TMUs gar nicht für Textur-Operationen zur Verfügung stehen, d. h. hier würde man schnell Workload-Stages stockpilen bis es nicht mehr weiter geht, weil die fehlenden Textur-Operationen weitere "Vorausarbeiten" der freien SPs blockieren würde.

Das externe Multi-GPU-Szenario ist ja bereits hinfällig. Alle drei großen PC-Hersteller arbeiten an MCM-Designs (Intel wird hier wahrscheinlich als Erster Produkte in den Markt bringen; Xe-HPG, möglicherweise auch in einer 2-Tile-Variante) und selbst bspw. Imagination Technologies könnte ggf. in den PC-Mark zurückkehren. Mit ihrer B-Series haben sie ein hocheffizientes MCM-Design vorgestellt, dass bis zu vier GPUs kombiniert, die in Richtung Grafik-API völlig transparent als eine GPU in Erscheinung treten (BXT 32-1024 MC4, 6 TFlops FP32, durchaus beachtlich für ein Mobile-Design und angeblich weitaus effizienter als alles derzeit Verfügbare von AMD und nVidia).
Für ihre kommende C-Series stellen sie vollumfänglichen Raytracing-Support in Aussicht und wollen dabei gar noch etwas weitergehen als derzeit nVidia und AMD. Es könnte also durchaus sein, dass man Ende 2021 bzw. in 2022 vielleicht gar vier GPU-Hersteller auf dem PC zur Auswahl haben wird, wer weiß ...
 
[...]Imagination Technologies könnte ggf. in den PC-Mark zurückkehren. Mit ihrer B-Series haben sie ein hocheffizientes MCM-Design vorgestellt, dass bis zu vier GPUs kombiniert, die in Richtung Grafik-API völlig transparent als eine GPU in Erscheinung treten (BXT 32-1024 MC4, 6 TFlops FP32, durchaus beachtlich für ein Mobile-Design und angeblich weitaus effizienter als alles derzeit Verfügbare von AMD und nVidia).
Für ihre kommende C-Series stellen sie vollumfänglichen Raytracing-Support in Aussicht und wollen dabei gar noch etwas weitergehen als derzeit nVidia und AMD. Es könnte also durchaus sein, dass man Ende 2021 bzw. in 2022 vielleicht gar vier GPU-Hersteller auf dem PC zur Auswahl haben wird, wer weiß ...
Die haben ja auch schon im Mobile Bereich bewiesen, dass sie es können. Ich denke, die hätten durchaus das Zeug dazu, es im PC Bereich weit zu bringen. Die könnten auch vor allem im Notebook Bereich gut unterwegs sein, und von Raytracing haben sie auch Ahnung. Über ihre Ankündigung, dass sie auch Grafikkarten herstellen wollen, war ich allerdings zuerst überrascht, aber vermutlich wollen sie ein neues Standbein kreieren, denn bei Apple wird man wohl über kurz oder lang durch Eigenlösungen ersetzt werden.
Ich bin gespannt, aktuell ist vieles im Umbruch: NVidia übernimmt ARM, AMD vielleicht Xilinx, Intel baut dGPUs. Uns Kunden sollte das freuen, da bewegen sich die Märkte.
 
Was ich mich gerade frage, ob man bei AMD dann nicht das Feature anbieten könnte, eine primäre Karte für's klassische Rasterizing und eine zweite Karte (evtl. auch kleiner) rein für RT, quasi eine Art Crossfire Nachfolger mit Fokus auf RT. Kommt natürlich darauf an, wie viel Kommunikation nötig ist, um die RT Ergebnisse auf die primäre Grafikkarte zu übertragen, ob hier PCIe limitieren kann. Das wäre dann auch später mal was für Nachfolge-Generationen mit Chiplet Ansatz.
Würde ich massiv abfeiern, um es mit der Sprache der Jugend kundzutun (die Jugend welcher Dekade, kann ich leider nicht sagen^^)
 
@Igor
Dein Rechenbeispiel ist falsch. Der urspüngliche Leaker als Newsgeber auf Twitter geht von 255w TGP aus (also Total Graphics Power), die es bei AMD gar nicht gibt [die vermessen nicht jederzeit alle 12v Schienen wie Nvidia, wäre neu - am PCB hat sich aber nicht viel verändert = würde eher von TBP ausgehen] und wenn, ist in der Aisc-Power von AMD das MC/SI/Phy inklusive VRAM bereits enthalten, was wohl um die 200w Asicpower bedeuten würde (XT/XTX). Ich denke mal, er meinte die "Leistungsaufnahme der gesamten Karte, die ein Netzteil dann jederzeit bereitstellen können muss" bei genanntem Gameclock, ergo 255w bei 16GiB GDDR6 (non X) und ja ->das wäre sehr effizient für AMD Verhältnisse.

Von wem auch immer du diese [andere] Info haben willst.
Ich kann nicht alles offenlegen, aber Du musst schon richtig mitlesen. Die TGP stammt aus AMDs Thermal Design (ja, sowas gibt es) und bezieht sich, das habe ich doch auch erklärt, einzig auf die anfallende Abwärme an den Oberflächen der GPU und der RAM-Bausteine. Mehr nicht. TGP steht für THERMAL Graphics Power und hat nichts mit Total zu tun. Das hat auch mit der alten ASIC-Power aus dem GPU-Z nichts gemein. Der Leaker chattet übrigens ab und an mit mir, so dass auch dort Missverständnisse auszuschließen sind. :)

Das einzige Problem hier ist, dass Patrick die TGP aus dem Thermal Design von AMD so einfach für Twitter übernommen hat und die ganze Meute der Halbwissenden und Freizeit-Professoren sofort die Interpretationshoheit an sich gerissen hat, obwohl sie vom Begriff keinen blassen Dunst haben, weil sie die Dokumente gar nicht kennen können. Patrick kennt sie, ich auch ;)

Es handelt sich beim Beispiel um ein Custom Board, das hat ja auch keiner bestritten und es wurde zigmal erwähnt. Vielleicht schafft es ja AMD mit der Referenzkarte unter 300 Watt zu bleiben, aber da fehlt mir wegen der Performance etwas der Glaube.
 
Zuletzt bearbeitet :
Oben Unten