GPUs Graphics Latest news

AMD Radeon RX 6600 XT with 8 GB memory – Exclusive details from internal slides and a first conclusion

Memory details

The Radeon RX 6600 (XT) and a possible RX 6600M will rely on PCIe 4, which is of course in the genes of RDNA2 per se, but suits the card immensely. The half memory configuration of 8 GB GDDR6 for the RX 6600 and of only 4 GB for a RX 6500 (M) logically results from the chip and the number of memory controllers. It also hardly makes sense to connect large 2GB modules to a 128-bit bus, that would probably be a waste of resources in the end. As a full-HD card, the RX 6600 (XT) with the 8 GB will certainly get by for a while.

Let’s first look at the table from my slide, which once again confirms the memory expansion. Thus, Navi 23 is said to rely on a 128-bit memory interface with eight independent memory channels, to which up to four identical GDDR6 memory modules can be connected in x16 mode and up to eight in x8 mode.

All this is not too dramatic, but a card whose pure computing performance is expected to be at or slightly above a Radeon RX 5700 XT should also have a proper connection at the PCIe slot with enough lanes, which influences the communication with the rest of the system, especially the CPU. And that’s where this cross-platform concept becomes a potential bottleneck, if the desktop GPU follows the same limitations as the notebook variant. We already had this with the RX 5500XT, whose chips were used on both platforms, because a fragmentation in this segment was simply not worthwhile from a commercial point of view.

PCI Express bus

What I’m getting at is the electrical connection with only 8 lanes instead of 16 , which should also be noticeable here. As long as PCIe 4 is used, the concept could of course work out, since lower clock rates are generally used in notebooks. It only gets tight when you put these cards in a 3rd generation PCIe slot, since the data rates are halved. With the RX 5500XT one could observe up to 7% performance loss on an older AMD system (or Intel up to generation 10) at that time.

If you now extrapolate the possible performance of an RX 6600 XT, then this could simply make a sensible use in systems with PCIe 3 pointless or influence it so strongly that the possible performance losses simply become too high. This makes this card completely uninteresting for potential upgraders. Also, this limited connectivity will probably make it impossible for a Radeon RX 6600 XT to even come close to catching up to a rumored RX 6700 (without XT) through OC.

Display outputs

A total of 5 display outputs support DP 1.4a (or 4x DP + 1x USB-C), HDMI 2.1 and SL-DVI. If the information is correct, there will be a VP9 decoder, a HEVC decoder, a H.264 decoder and a VC1 decoder for hardware-based video acceleration. Again, we see in the variety of ports that you want to and can serve both notebook and desktop solutions. Even this chip also supports USB-C as an alternative replacement to DisplayPort, especially in notebooks.

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,871 Kommentare 864 Likes

Das ist ne Lumperei = 1050mV GFX.

Haben will für die 6800 nonXT.(+ open Takt)
(Das war kein schöner Zug von AMD die 6800 nonXT soo zu beschneiden, Da wären sicher unter Teillast auch mal >2,6 Gig drin)

Gerade wenn die 3070Ti um die Ecke lunzt, sollte AMD bitteschön im Treiber mehr OCen freigeben.

Antwort 3 Likes

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

Danke für den Test Igor.
Deine Entscheidung die Hashrate nicht anzugeben finde ich vernünftig.
Diese Zahlen findet man zu genüge auf anderen Seiten....
Es ist und bleibt eine sehr energiehungrige und unökologische Art und Weise
Coins und Geld zu generieren.

Eine andere Frage meinerseits wäre,was AMD mit seinen Treibern im Produktivbereich
so alles auf die Beine stellt.
Passiert da etwas?

In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?

Antwort 1 Like

RX480

Urgestein

1,871 Kommentare 864 Likes

Vllt. ... interessiert Das 99% der Schleppikäufer überhaupt net.(die Mehrzahl macht neben YT+Facebook nur mal nen Spielchen)
und
Den ganzen Hash-Mist bitteschön auch net noch unterstützen.

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,804 Likes

Nein, weil es aktuell keine gescheiten Karten gibt. Big Navi als Workstation ist irgendwie nicht existent. Ich denke mal, AMD setzt seine Ressourcen woanders ein. Zertifizierungen für z.B. Solidworks kosten für die Grafikkarten Unsummen, jede Treibervesion muss aufwändig neu getestet und zertifiziert werden, nicht nur die Hardware. Bei so vielen relevanten Anwendungen und Iterationen der Treiber kommt da ordentlich was zusammen. Und ich verweigere mich, professionelle Anwendungen mit unzertifizierten Dangen zu testen. Das ist für die Praxis, schon aus Haftungsgründen, eher nicht relevant. Ich wäre froh, es gäbe was Wettbewerbsfähigeres.

Antwort 5 Likes

B
Besterino

Urgestein

6,728 Kommentare 3,322 Likes
C
Cyco

Mitglied

21 Kommentare 29 Likes

Mal ein simples Beispiel, welches ich erlebt habe. Ich habe eine RX6800 gedropt und in meinen neuen Rechner eingebaut (5900X, 32 GB Speicher). Vorher hatte ich eine GTX1070 OC von Gigabyte drin. Ich fotografiere gerne und habe Kameras mit MFT-Sensoren. Diese Sensoren sind etwas kleiner als die meisten gängigen anderen Sensoren. Nachteil dieser MFT-Sensoren ist, dass sie relativ schnell rauschen, wenn man die ISO-Zahl hoch stellt. Dafür gibt es aber Programme, die die Bilder nachträglich entrauschen können. Ich nutze dafür Topaz DenoiseAI. Das arbeitet mit GPU-Unterstützung. Die 1070 braucht ca. 22 Sek. für mein Vergleichsbild, die RX6800 34 Sek. :oops:

Ich vermute, dass viele Programme anscheinend massiv CUDA nutzen, ohne das explizit anzugeben.

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,804 Likes

OpenCL ist CUDA beim Einsatz in Standardsoftware in fast allen Belangen unterlegen. TopaZ nutzt sogar die Tensor Cores, falls vorhanden, ich habe ja fast alle TopaZ Programme im Einsatz. Allerdings wird das auch auf der HP sehr klar kommuniziert und es war ja auch Teil meines Studio-Artikels. Man muss nur mal Blender mit OpenCL vs. CUDA laufen lassen...

Antwort 3 Likes

C
Cyco

Mitglied

21 Kommentare 29 Likes

Den kenne ich noch nicht. Ich suche mal.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Interessante Details, primär sehe ich diesen Chip auch in den Notebooks. Hier könnte er aber wirklich aufgrund des besseren Schedulers von AMD sehr interessant sein da gerade Ultrabooks meist recht schwache CPU´s besitzen,

Antwort 2 Likes

h
hotmob

Mitglied

23 Kommentare 6 Likes

Also, dass dieser doch nicht allzu schnelle Grafikchip von PCIe3 eingeschränkt werden soll, selbst wenn er nur 8x hat, kann ich mir echt nicht vorstellen, da ja auch ne 3090 in PCIe3 kaum eingeschränkt wird.

Außerdem werden alle Hersteller schon aus Kosten und Verbrauchsgründen 16Gb-Chips verbauen, man wird da einfach auf die bisher immer verbauten Samsung Chip zurückgreifen und fertig. Man muss die Dinger ja nicht mit 16Gbps betreiben. Das geht auch im 12 und 14Gbps.
Bei 128Bit sind das halt nur 4 Chips und nicht 8, die man mit 8Gb-Chips verbauen müsste für 8GB.

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,804 Likes

Die RX 5500XT büßt mit PCIe 3.0 bereits 5-7% ein. Wir reden hier von 8 Lanes, nicht 16 Lanes. Eine 3090 mit PCIe 3.0 @8 wird zum Krüppel. Selbst wenn NV die bessere Komprimierung nutzt.

Für die RAM Bestückung gibts seitens AMD-Vorschriften, weil die GPUs immer zusammen mit dem RAM im Bundle verkauft werden.

Antwort 2 Likes

feris

Mitglied

43 Kommentare 19 Likes

Eine rühmliche Ausnahme bei den Anwendungen scheint DaVinci Resolve Studio für Colorgrading und Videoschnitt zu sein.
Da machten schon die alten Karten eine sehr gute Figur.
Hat Igor übrigens auch bei den AMD Karten getestet.

Antwort 1 Like

sonic12434wtdsfxt4W$§%W$%

Mitglied

66 Kommentare 55 Likes

@RX480 das traurige ist ja das die ersten zwei, drei Treiberversionen sogar mit 1050mv per MPT erlauben -_- Stabilisiert die GPU bis ans Taktlimit bei mir. Echt arm so eine künstliche Drossel.

Antwort 2 Likes

G
Guest

Der Nachteil bleibt, dass Cuda proprietär ist und nur unterstützt wird - was Nvidia auch für unterstützendwert hält (und das ziehen sie rigeros durch, was schon bei den Entwicklern beginnt). Kann man gut finden, muss man nicht, ich jedenfalls nicht. Und was die OpenCL Leistung der Cudahardware angeht, ist die den Mitbewerbern klar unterlegen und ineffizient. Cuda lässt sich nicht nach belieben anpassen und ehrlich gesagt fehlt es dort den Freiberuflern mitzuarbeiten, open source voran zu bringen. Sry...okay man kann sich ja einkaufen.

Was Bignavi und Workstation angeht, die kommen noch. Nvidia war minimal schneller, mehr nicht.

Lass doch mal Final Cut Pro laufen? Was dann?

Antwort 1 Like

Epistolarius

Mitglied

33 Kommentare 5 Likes

Nicht DirectX 12 Feature-Level 12_2 wie der Rest von RDNA2 (und Vulkan 1.2 wie RDNA 1&2)?

Antwort Gefällt mir

Homerclon

Mitglied

78 Kommentare 36 Likes

Ist eine um 45° gedrehte Montage der GPU nicht von Nachteil bei Kühlung mit Heatpipes? Zumindest bei ausladenden Kühlerkonstruktionen, erscheint mir das von Nachteil.
Wo sind also die Vorteile einer solchen Montage?

Antwort Gefällt mir

G
Guest

Sie unterstützen [email protected]. Das brauchte nicht zwingend neue Hardware.

Anbindung, und ist bei einigen RX6700 doch auch so. Dadurch entstehen keinen Nachteile, wieso auch. Gibt eine Groundplate bzw. Basis die die Wärme abführt.

Antwort Gefällt mir

M
Matthias80

Mitglied

40 Kommentare 9 Likes

Was ein Mist!
hab gehofft das eine 6600 (XT) im ITX Format kommt.
Auch nicht so elendig hoch!
Weil wollte meinem großen was neues basteln.
So nun aber die A Karte! Weil hab dafür günstig ein A520 und nen 3600 geschossen.
Da gibts nur PCIe 3.0 ich brech ab.
Bei NV sind selbst die kleinen Modelle so groß wie Schalchtschiffe.

MfG

Antwort 2 Likes

M
McFly_76

Veteran

396 Kommentare 136 Likes

Also ich glaube dass die 6600 XT ( 8 GB ) von der Leistung eine RX 5600 XT ( 6 GB ) erreicht und die zusätzlichen 2 GB bessere Frametimes bringen.
Theoretisch ist es eine "halbe" RX 6800 und wenn die Leistungsaufnahme der Grafikkarte auch noch unter 130 Watt bleibt dann ist alles gut.
Da das Angebot an AMD Grafikkarten im Mini-ITX-Format sehr klein und nicht mehr auf dem neuesten Stand ist, wäre es an der Zeit dies zu ändern. Oder man überlässt weiter das Feld Nvidia :rolleyes:
Aber bitte bloß keine Grafikkarten mit 3 Lüftern, ARGB und > 30 cm Kartenlänge veröffentlichen !

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung