Grafikkarten News VGA

AMD Radeon RX 6600 XT mit 8 GB Speicher – Exklusive Details aus internen Folien und ein erstes Fazit

Details zum Speicher

Die Radeon RX 6600 (XT) und die RX 6600M werden auf PCIe 4 setzen, was per se natürlich in den Genen von RDNA2 liegt, der Karte jedoch ungemein entgegen kommt. Der halbe Speicherausbau von 8 GB GDDR6 für die RX 6600 und von nur 4 GB für eine RX 6500 (M) ergibt sich logischerweise aus dem Chip und der Anzahl der Speichercontroller. Es ergibt auch kaum Sinn, große 2-GB-Module an einen 128-bit Bus anzuschließen, das wäre am Ende wohl Ressourcenverschwendung. Als Full-HD Karte wird die RX 6600 (XT) mit den 8 GB sicher noch eine Weile hinkommen.

Betrachten wir zunächst einmal die Tabelle aus meiner Folie, die den Speicherausbau noch einmal bestätigt. So soll Navi 23 auf ein 128-bit Speicherinterface mit acht unabhängigen Speicherkanälen setzen, an das im x16-Modus bis zu vier und im x8-Modus bis zu acht identische GDDR6-Speichermodule angeschlossen werden können.

Das alles ist nicht weiter dramatisch, allerdings sollte ein Karte, deren reine Rechenperformance man im Vorfeld bei oder leicht oberhalb einer Radeon RX 5700 XT vermutet, auch über eine ordentliche Anbindung am PCIe-Slot mit ausreichend Lanes verfügen, was die Kommunikation mit dem restlichen System, insbesondere der CPU beeinflusst. Und genau da wird dieses plattformübergreifende Konzept wohl zum potentiellen Flaschenhals, wenn die Desktop-GPU den gleichen Limitierungen folgt, wie die Notebook-Variante. Das hatten wir ja bereits bei der RX 5500XT, deren Chips auf beiden Plattformen zum Einsatz kamen, da sich einer Fragmentierung in diesem Segment aus kaufmännischer Sicht einfach nicht lohnte und lohnt.

PCI Express Bus

Worauf ich hinaus will, ist die elektrische Anbindung an nur 8 statt 16 Lanes , die sich hier ebenfalls bemerkbar machen sollte. Solange man PCIe 4 nutzt, könnte das Konzept natürlich aufgehen, da in Notebooks ja generell geringere Taktraten gefahren werden. Es wird erst dann knapp, wenn man diese Karten in einem PCIe-Slot der 3. Generation betreibt, da sich die Datenraten ja halbieren. Bei der RX 5500XT konnte man seinerzeit auf einem älteren AMD-System (bzw. Intel bis Generation 10) bis zu 7% Performance-Verlust beobachten.

Rechnet man nun einmal die mögliche Performance einer RX 6600 XT hoch, dann könnte dies einen sinnvollen Einsatz in Systemen mit PCIe 3 schlichtweg sinnlos machen bzw. so stark beeinflussen, dass die möglichen Performance-Verluste einfach zu hoch werden. Das macht diese Karte für potentielle Aufrüster dann komplett uninteressant. Auch diese beschränkte Anbindung wird es einer Radeon RX 6600 XT wohl unmöglich machen, zu einer kolportierten RX 6700 (ohne XT) auch nur annähernd durch OC aufzuschließen.

Display-Ausgänge

Insgesamt 5 Displayausgänge unterstützen DP 1.4a (oder 4x DP + 1x USB-C), HDMI 2.1 und SL-DVI. Wenn die Informationen stimmen, wird es für die Hardware-basierte Videobeschleunigung einen VP9-Decoder, einen  HEVC-Decoder, einen H.264- und einen VC1-Decoder geben. Auch hier sehen wir in der Vielzahl der Anschlüsse, dass man sowohl Notebook- als auch Desktop-Lösungen bedienen möchte und kann. Selbst dieser Chip unterstützt auch USB-C als alternativen Ersatz zum DisplayPort, vor allem in Notebooks.

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,750 Kommentare 799 Likes

Das ist ne Lumperei = 1050mV GFX.

Haben will für die 6800 nonXT.(+ open Takt)
(Das war kein schöner Zug von AMD die 6800 nonXT soo zu beschneiden, Da wären sicher unter Teillast auch mal >2,6 Gig drin)

Gerade wenn die 3070Ti um die Ecke lunzt, sollte AMD bitteschön im Treiber mehr OCen freigeben.

Antwort 3 Likes

ipat66

Urgestein

1,339 Kommentare 1,331 Likes

Danke für den Test Igor.
Deine Entscheidung die Hashrate nicht anzugeben finde ich vernünftig.
Diese Zahlen findet man zu genüge auf anderen Seiten....
Es ist und bleibt eine sehr energiehungrige und unökologische Art und Weise
Coins und Geld zu generieren.

Eine andere Frage meinerseits wäre,was AMD mit seinen Treibern im Produktivbereich
so alles auf die Beine stellt.
Passiert da etwas?

In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?

Antwort 1 Like

RX480

Urgestein

1,750 Kommentare 799 Likes

Vllt. ... interessiert Das 99% der Schleppikäufer überhaupt net.(die Mehrzahl macht neben YT+Facebook nur mal nen Spielchen)
und
Den ganzen Hash-Mist bitteschön auch net noch unterstützen.

Antwort Gefällt mir

Igor Wallossek

1

10,088 Kommentare 18,561 Likes

Nein, weil es aktuell keine gescheiten Karten gibt. Big Navi als Workstation ist irgendwie nicht existent. Ich denke mal, AMD setzt seine Ressourcen woanders ein. Zertifizierungen für z.B. Solidworks kosten für die Grafikkarten Unsummen, jede Treibervesion muss aufwändig neu getestet und zertifiziert werden, nicht nur die Hardware. Bei so vielen relevanten Anwendungen und Iterationen der Treiber kommt da ordentlich was zusammen. Und ich verweigere mich, professionelle Anwendungen mit unzertifizierten Dangen zu testen. Das ist für die Praxis, schon aus Haftungsgründen, eher nicht relevant. Ich wäre froh, es gäbe was Wettbewerbsfähigeres.

Antwort 5 Likes

B
Besterino

Urgestein

6,667 Kommentare 3,264 Likes
C
Cyco

Mitglied

21 Kommentare 29 Likes

Mal ein simples Beispiel, welches ich erlebt habe. Ich habe eine RX6800 gedropt und in meinen neuen Rechner eingebaut (5900X, 32 GB Speicher). Vorher hatte ich eine GTX1070 OC von Gigabyte drin. Ich fotografiere gerne und habe Kameras mit MFT-Sensoren. Diese Sensoren sind etwas kleiner als die meisten gängigen anderen Sensoren. Nachteil dieser MFT-Sensoren ist, dass sie relativ schnell rauschen, wenn man die ISO-Zahl hoch stellt. Dafür gibt es aber Programme, die die Bilder nachträglich entrauschen können. Ich nutze dafür Topaz DenoiseAI. Das arbeitet mit GPU-Unterstützung. Die 1070 braucht ca. 22 Sek. für mein Vergleichsbild, die RX6800 34 Sek. :oops:

Ich vermute, dass viele Programme anscheinend massiv CUDA nutzen, ohne das explizit anzugeben.

Antwort Gefällt mir

Igor Wallossek

1

10,088 Kommentare 18,561 Likes

OpenCL ist CUDA beim Einsatz in Standardsoftware in fast allen Belangen unterlegen. TopaZ nutzt sogar die Tensor Cores, falls vorhanden, ich habe ja fast alle TopaZ Programme im Einsatz. Allerdings wird das auch auf der HP sehr klar kommuniziert und es war ja auch Teil meines Studio-Artikels. Man muss nur mal Blender mit OpenCL vs. CUDA laufen lassen...

Antwort 3 Likes

C
Cyco

Mitglied

21 Kommentare 29 Likes

Den kenne ich noch nicht. Ich suche mal.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Interessante Details, primär sehe ich diesen Chip auch in den Notebooks. Hier könnte er aber wirklich aufgrund des besseren Schedulers von AMD sehr interessant sein da gerade Ultrabooks meist recht schwache CPU´s besitzen,

Antwort 2 Likes

h
hotmob

Mitglied

23 Kommentare 6 Likes

Also, dass dieser doch nicht allzu schnelle Grafikchip von PCIe3 eingeschränkt werden soll, selbst wenn er nur 8x hat, kann ich mir echt nicht vorstellen, da ja auch ne 3090 in PCIe3 kaum eingeschränkt wird.

Außerdem werden alle Hersteller schon aus Kosten und Verbrauchsgründen 16Gb-Chips verbauen, man wird da einfach auf die bisher immer verbauten Samsung Chip zurückgreifen und fertig. Man muss die Dinger ja nicht mit 16Gbps betreiben. Das geht auch im 12 und 14Gbps.
Bei 128Bit sind das halt nur 4 Chips und nicht 8, die man mit 8Gb-Chips verbauen müsste für 8GB.

Antwort Gefällt mir

Igor Wallossek

1

10,088 Kommentare 18,561 Likes

Die RX 5500XT büßt mit PCIe 3.0 bereits 5-7% ein. Wir reden hier von 8 Lanes, nicht 16 Lanes. Eine 3090 mit PCIe 3.0 @8 wird zum Krüppel. Selbst wenn NV die bessere Komprimierung nutzt.

Für die RAM Bestückung gibts seitens AMD-Vorschriften, weil die GPUs immer zusammen mit dem RAM im Bundle verkauft werden.

Antwort 2 Likes

feris

Mitglied

42 Kommentare 19 Likes

Eine rühmliche Ausnahme bei den Anwendungen scheint DaVinci Resolve Studio für Colorgrading und Videoschnitt zu sein.
Da machten schon die alten Karten eine sehr gute Figur.
Hat Igor übrigens auch bei den AMD Karten getestet.

Antwort 1 Like

sonic12434wtdsfxt4W$§%W$%

Mitglied

66 Kommentare 55 Likes

@RX480 das traurige ist ja das die ersten zwei, drei Treiberversionen sogar mit 1050mv per MPT erlauben -_- Stabilisiert die GPU bis ans Taktlimit bei mir. Echt arm so eine künstliche Drossel.

Antwort 2 Likes

G
Guest

Der Nachteil bleibt, dass Cuda proprietär ist und nur unterstützt wird - was Nvidia auch für unterstützendwert hält (und das ziehen sie rigeros durch, was schon bei den Entwicklern beginnt). Kann man gut finden, muss man nicht, ich jedenfalls nicht. Und was die OpenCL Leistung der Cudahardware angeht, ist die den Mitbewerbern klar unterlegen und ineffizient. Cuda lässt sich nicht nach belieben anpassen und ehrlich gesagt fehlt es dort den Freiberuflern mitzuarbeiten, open source voran zu bringen. Sry...okay man kann sich ja einkaufen.

Was Bignavi und Workstation angeht, die kommen noch. Nvidia war minimal schneller, mehr nicht.

Lass doch mal Final Cut Pro laufen? Was dann?

Antwort 1 Like

Epistolarius

Mitglied

33 Kommentare 5 Likes

Nicht DirectX 12 Feature-Level 12_2 wie der Rest von RDNA2 (und Vulkan 1.2 wie RDNA 1&2)?

Antwort Gefällt mir

Homerclon

Mitglied

73 Kommentare 32 Likes

Ist eine um 45° gedrehte Montage der GPU nicht von Nachteil bei Kühlung mit Heatpipes? Zumindest bei ausladenden Kühlerkonstruktionen, erscheint mir das von Nachteil.
Wo sind also die Vorteile einer solchen Montage?

Antwort Gefällt mir

G
Guest

Sie unterstützen [email protected]. Das brauchte nicht zwingend neue Hardware.

Anbindung, und ist bei einigen RX6700 doch auch so. Dadurch entstehen keinen Nachteile, wieso auch. Gibt eine Groundplate bzw. Basis die die Wärme abführt.

Antwort Gefällt mir

M
Matthias80

Mitglied

40 Kommentare 9 Likes

Was ein Mist!
hab gehofft das eine 6600 (XT) im ITX Format kommt.
Auch nicht so elendig hoch!
Weil wollte meinem großen was neues basteln.
So nun aber die A Karte! Weil hab dafür günstig ein A520 und nen 3600 geschossen.
Da gibts nur PCIe 3.0 ich brech ab.
Bei NV sind selbst die kleinen Modelle so groß wie Schalchtschiffe.

MfG

Antwort 2 Likes

M
McFly_76

Veteran

395 Kommentare 136 Likes

Also ich glaube dass die 6600 XT ( 8 GB ) von der Leistung eine RX 5600 XT ( 6 GB ) erreicht und die zusätzlichen 2 GB bessere Frametimes bringen.
Theoretisch ist es eine "halbe" RX 6800 und wenn die Leistungsaufnahme der Grafikkarte auch noch unter 130 Watt bleibt dann ist alles gut.
Da das Angebot an AMD Grafikkarten im Mini-ITX-Format sehr klein und nicht mehr auf dem neuesten Stand ist, wäre es an der Zeit dies zu ändern. Oder man überlässt weiter das Feld Nvidia :rolleyes:
Aber bitte bloß keine Grafikkarten mit 3 Lüftern, ARGB und > 30 cm Kartenlänge veröffentlichen !

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung