GPUs Graphics Latest news

AMD Radeon RX 6600 XT with 8 GB memory – Exclusive details from internal slides and a first conclusion

Of course, when AMD launches the RX 6600XT and RX 6600 soon, we’ll already know most of it. With Navi23 AMD relies, as already with the RX 5500XT and Navi13, on a chip that can be used both as an external graphics card and in the notebook as a dedicated chip. This has advantages and disadvantages, as we will see in a moment. However, in today’s article I would like to take a closer look at the technology and the details of Navi23 and leave aside the usual performance estimates from various leaks, because these could be somewhat off the mark in the later practical use of these cards.

But first, let’s get to the chip itself. The die sits on the package rotated by 45°, as we already know from the older Radeon chips. The dimensions of the rectangular die are 16.51 mm x 14.28 mm, which results in an area of 235.76 mm². The whole package measures 35 x 35 mm and is therefore square. AMD specifies +/- 0.1 mm as height tolerance for the entire package (BGA) including the die, which results in a tolerance range of 0.2 mm in total.

In practice, however, this should rarely have an effect unless the packager is having a bad day. The following graphic shows the complete package and the die. I have intentionally reduced the size of these (and the other graphics) and slightly alienated them, as well as removed the original watermarks, in order to protect the source.

Before I get to the specifics of the memory, I’ll quickly summarize the possible desktop models along with the already launched cards in the table below. Entries marked with * are not yet confirmed with official slides or statements, but are based on various sources from the AIB and OEM series of board partners or notebook manufacturers who will install these chips both on discrete graphics cards and together (especially with Ryzen CPUs and Smart Shift) in notebooks.

Since AMD is obviously planning three Navi23 Mobile GPUs for the RX 6000M family, the staggering of 90 W, 80 W and 65 W for the GPUs is now considered set. However, this performance information is based on TGP (Total Graphics Power, GPU, Memory and Storage Controller). It is very likely that the maximum TBP of the mobile variants including all other losses could be just over 100 W, although you always have to calculate slightly differently for notebooks anyway.

Laptop manufacturers will then decide for themselves which TGP to select for their own designs, and only premium models with sufficient cooling solutions should then rely on the 90W variant. The following is an excerpt from an evaluation BIOS for mobile use as a notebook graphics with 90 Watt TGP, as I was able to read it some time ago:

  

We can see that the limitation of the TGP on the mobile used chips is something that should of course also affect the maximum clock, which should then be set much lower at 300 to 400 MHz when boosting, if we follow the values of the last evaluation boards and firmware versions. I will certainly report separately on Navi24 and the RX 6500/6400(M) models when the time is right. The fact that an RX 6600XT still doesn’t come too close to a rumored RX 6700 isn’t just due to the clock and the somewhat narrower memory interface, but I’ll get to that in a moment.

Model RX 6600 RX 6600 XT RX 6700 XT RX 6800 RX 6800 XT
GPU Navi 23 Navi 23 Navi 22 (XT?) Navi 21 XL Navi 21 XT
Process node 7 nm
The Size 236 mm² 336 mm² 520 mm ²
Compute units 28 32 40 60 72
Stream processors 1792 2048 2560 3840 4608
TMUs/ROPs 112 / 32* 128 / 32* 160/64 240 / 96 288 / 128
Game clock TBC TBC 2424 MHz 1815 MHz 2015 MHz
Boost Clock < 2600 MHz* < 2700 MHz* 2581 MHz 2105 MHz 2250 MHz
Memory size 8 GB GDDR6 12 GB GDDR6 16 GB GDDR6
Infinity cache
64 MB 96 MB 128 MB  
Memory bus 128-bit 192-bit 256-bit 256-bit
Memory clock 16 Gbps
Bandwidth 256 GB/s 384 GB/s 512 GB/s
TDP TBC (< 100 W*) TBC (< 130 W*) 230 W 250 W 300 W

The chips are said to support DirectX12 feature level 12_1, Vulkan 1.1, OpenGL 4.6 and OpenCL 2.2. Also, AMD Liquid VR should be supported. The rest of the feature list is similar to that of a Radeon RX 6700 XT, so I can save redundant content with already known features at this point.

Lade neue Kommentare

RX480

Veteran

142 Kommentare 78 Likes

Das ist ne Lumperei = 1050mV GFX.

Haben will für die 6800 nonXT.(+ open Takt)
(Das war kein schöner Zug von AMD die 6800 nonXT soo zu beschneiden, Da wären sicher unter Teillast auch mal >2,6 Gig drin)

Gerade wenn die 3070Ti um die Ecke lunzt, sollte AMD bitteschön im Treiber mehr OCen freigeben.

Antwort 3 Likes

ipat66

Veteran

170 Kommentare 144 Likes

Danke für den Test Igor.
Deine Entscheidung die Hashrate nicht anzugeben finde ich vernünftig.
Diese Zahlen findet man zu genüge auf anderen Seiten....
Es ist und bleibt eine sehr energiehungrige und unökologische Art und Weise
Coins und Geld zu generieren.

Eine andere Frage meinerseits wäre,was AMD mit seinen Treibern im Produktivbereich
so alles auf die Beine stellt.
Passiert da etwas?

In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?

Antwort 1 Like

RX480

Veteran

142 Kommentare 78 Likes

Vllt. ... interessiert Das 99% der Schleppikäufer überhaupt net.(die Mehrzahl macht neben YT+Facebook nur mal nen Spielchen)
und
Den ganzen Hash-Mist bitteschön auch net noch unterstützen.

Antwort Gefällt mir

Igor Wallossek

Format©

5,571 Kommentare 8,614 Likes

Nein, weil es aktuell keine gescheiten Karten gibt. Big Navi als Workstation ist irgendwie nicht existent. Ich denke mal, AMD setzt seine Ressourcen woanders ein. Zertifizierungen für z.B. Solidworks kosten für die Grafikkarten Unsummen, jede Treibervesion muss aufwändig neu getestet und zertifiziert werden, nicht nur die Hardware. Bei so vielen relevanten Anwendungen und Iterationen der Treiber kommt da ordentlich was zusammen. Und ich verweigere mich, professionelle Anwendungen mit unzertifizierten Dangen zu testen. Das ist für die Praxis, schon aus Haftungsgründen, eher nicht relevant. Ich wäre froh, es gäbe was Wettbewerbsfähigeres.

Antwort 5 Likes

B
Besterino

Urgestein

5,076 Kommentare 2,038 Likes

Danke wieder einmal dafür @Igor Wallossek!

Antwort Gefällt mir

C
Cyco

Neuling

9 Kommentare 8 Likes

Mal ein simples Beispiel, welches ich erlebt habe. Ich habe eine RX6800 gedropt und in meinen neuen Rechner eingebaut (5900X, 32 GB Speicher). Vorher hatte ich eine GTX1070 OC von Gigabyte drin. Ich fotografiere gerne und habe Kameras mit MFT-Sensoren. Diese Sensoren sind etwas kleiner als die meisten gängigen anderen Sensoren. Nachteil dieser MFT-Sensoren ist, dass sie relativ schnell rauschen, wenn man die ISO-Zahl hoch stellt. Dafür gibt es aber Programme, die die Bilder nachträglich entrauschen können. Ich nutze dafür Topaz DenoiseAI. Das arbeitet mit GPU-Unterstützung. Die 1070 braucht ca. 22 Sek. für mein Vergleichsbild, die RX6800 34 Sek. :oops:

Ich vermute, dass viele Programme anscheinend massiv CUDA nutzen, ohne das explizit anzugeben.

Antwort Gefällt mir

Igor Wallossek

Format©

5,571 Kommentare 8,614 Likes

OpenCL ist CUDA beim Einsatz in Standardsoftware in fast allen Belangen unterlegen. TopaZ nutzt sogar die Tensor Cores, falls vorhanden, ich habe ja fast alle TopaZ Programme im Einsatz. Allerdings wird das auch auf der HP sehr klar kommuniziert und es war ja auch Teil meines Studio-Artikels. Man muss nur mal Blender mit OpenCL vs. CUDA laufen lassen...

Antwort 3 Likes

C
Cyco

Neuling

9 Kommentare 8 Likes

Den kenne ich noch nicht. Ich suche mal.

Antwort Gefällt mir

Gurdi

Urgestein

1,038 Kommentare 531 Likes

Interessante Details, primär sehe ich diesen Chip auch in den Notebooks. Hier könnte er aber wirklich aufgrund des besseren Schedulers von AMD sehr interessant sein da gerade Ultrabooks meist recht schwache CPU´s besitzen,

Antwort 2 Likes

h
hotmob

Mitglied

19 Kommentare 1 Likes

Also, dass dieser doch nicht allzu schnelle Grafikchip von PCIe3 eingeschränkt werden soll, selbst wenn er nur 8x hat, kann ich mir echt nicht vorstellen, da ja auch ne 3090 in PCIe3 kaum eingeschränkt wird.

Außerdem werden alle Hersteller schon aus Kosten und Verbrauchsgründen 16Gb-Chips verbauen, man wird da einfach auf die bisher immer verbauten Samsung Chip zurückgreifen und fertig. Man muss die Dinger ja nicht mit 16Gbps betreiben. Das geht auch im 12 und 14Gbps.
Bei 128Bit sind das halt nur 4 Chips und nicht 8, die man mit 8Gb-Chips verbauen müsste für 8GB.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung