News AMD Radeon RX 6600 XT mit 8 GB Speicher – Exklusive Details aus internen Folien und ein erstes Fazit

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Wenn AMD demnächst die RX 6600XT und RX 6600 ins Rennen schickt, dann kennen wir das Meiste davon natürlich schon. Mit Navi23 setzt AMD, wie schon bei der RX 5500XT und Navi13 auf einen Chip, der sowohl als externe Grafikkarte, als auch im Notebook als dedizierter Chip eingesetzt werden kann. Das hat Vor- und Nachteile, […]

Hier den ganzen Artikel lesen
 
Das ist ne Lumperei = 1050mV GFX.

Haben will für die 6800 nonXT.(+ open Takt)
(Das war kein schöner Zug von AMD die 6800 nonXT soo zu beschneiden, Da wären sicher unter Teillast auch mal >2,6 Gig drin)


Gerade wenn die 3070Ti um die Ecke lunzt, sollte AMD bitteschön im Treiber mehr OCen freigeben.
 
Zuletzt bearbeitet :
Danke für den Test Igor.
Deine Entscheidung die Hashrate nicht anzugeben finde ich vernünftig.
Diese Zahlen findet man zu genüge auf anderen Seiten....
Es ist und bleibt eine sehr energiehungrige und unökologische Art und Weise
Coins und Geld zu generieren.

Eine andere Frage meinerseits wäre,was AMD mit seinen Treibern im Produktivbereich
so alles auf die Beine stellt.
Passiert da etwas?

In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?
 
Vllt. ... interessiert Das 99% der Schleppikäufer überhaupt net.(die Mehrzahl macht neben YT+Facebook nur mal nen Spielchen)
und
Den ganzen Hash-Mist bitteschön auch net noch unterstützen.
 
In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?
Nein, weil es aktuell keine gescheiten Karten gibt. Big Navi als Workstation ist irgendwie nicht existent. Ich denke mal, AMD setzt seine Ressourcen woanders ein. Zertifizierungen für z.B. Solidworks kosten für die Grafikkarten Unsummen, jede Treibervesion muss aufwändig neu getestet und zertifiziert werden, nicht nur die Hardware. Bei so vielen relevanten Anwendungen und Iterationen der Treiber kommt da ordentlich was zusammen. Und ich verweigere mich, professionelle Anwendungen mit unzertifizierten Dangen zu testen. Das ist für die Praxis, schon aus Haftungsgründen, eher nicht relevant. Ich wäre froh, es gäbe was Wettbewerbsfähigeres.
 
Zuletzt bearbeitet :
In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?

Mal ein simples Beispiel, welches ich erlebt habe. Ich habe eine RX6800 gedropt und in meinen neuen Rechner eingebaut (5900X, 32 GB Speicher). Vorher hatte ich eine GTX1070 OC von Gigabyte drin. Ich fotografiere gerne und habe Kameras mit MFT-Sensoren. Diese Sensoren sind etwas kleiner als die meisten gängigen anderen Sensoren. Nachteil dieser MFT-Sensoren ist, dass sie relativ schnell rauschen, wenn man die ISO-Zahl hoch stellt. Dafür gibt es aber Programme, die die Bilder nachträglich entrauschen können. Ich nutze dafür Topaz DenoiseAI. Das arbeitet mit GPU-Unterstützung. Die 1070 braucht ca. 22 Sek. für mein Vergleichsbild, die RX6800 34 Sek. :oops:

Ich vermute, dass viele Programme anscheinend massiv CUDA nutzen, ohne das explizit anzugeben.
 
OpenCL ist CUDA beim Einsatz in Standardsoftware in fast allen Belangen unterlegen. TopaZ nutzt sogar die Tensor Cores, falls vorhanden, ich habe ja fast alle TopaZ Programme im Einsatz. Allerdings wird das auch auf der HP sehr klar kommuniziert und es war ja auch Teil meines Studio-Artikels. Man muss nur mal Blender mit OpenCL vs. CUDA laufen lassen...
 
Interessante Details, primär sehe ich diesen Chip auch in den Notebooks. Hier könnte er aber wirklich aufgrund des besseren Schedulers von AMD sehr interessant sein da gerade Ultrabooks meist recht schwache CPU´s besitzen,
 
Also, dass dieser doch nicht allzu schnelle Grafikchip von PCIe3 eingeschränkt werden soll, selbst wenn er nur 8x hat, kann ich mir echt nicht vorstellen, da ja auch ne 3090 in PCIe3 kaum eingeschränkt wird.

Außerdem werden alle Hersteller schon aus Kosten und Verbrauchsgründen 16Gb-Chips verbauen, man wird da einfach auf die bisher immer verbauten Samsung Chip zurückgreifen und fertig. Man muss die Dinger ja nicht mit 16Gbps betreiben. Das geht auch im 12 und 14Gbps.
Bei 128Bit sind das halt nur 4 Chips und nicht 8, die man mit 8Gb-Chips verbauen müsste für 8GB.
 
Die RX 5500XT büßt mit PCIe 3.0 bereits 5-7% ein. Wir reden hier von 8 Lanes, nicht 16 Lanes. Eine 3090 mit PCIe 3.0 @8 wird zum Krüppel. Selbst wenn NV die bessere Komprimierung nutzt.

Für die RAM Bestückung gibts seitens AMD-Vorschriften, weil die GPUs immer zusammen mit dem RAM im Bundle verkauft werden.
 
Eine rühmliche Ausnahme bei den Anwendungen scheint DaVinci Resolve Studio für Colorgrading und Videoschnitt zu sein.
Da machten schon die alten Karten eine sehr gute Figur.
Hat Igor übrigens auch bei den AMD Karten getestet.
 
@RX480 das traurige ist ja das die ersten zwei, drei Treiberversionen sogar mit 1050mv per MPT erlauben -_- Stabilisiert die GPU bis ans Taktlimit bei mir. Echt arm so eine künstliche Drossel.
 
OpenCL ist CUDA beim Einsatz in Standardsoftware in fast allen Belangen unterlegen. TopaZ nutzt sogar die Tensor Cores, falls vorhanden, ich habe ja fast alle TopaZ Programme im Einsatz. Allerdings wird das auch auf der HP sehr klar kommuniziert und es war ja auch Teil meines Studio-Artikels. Man muss nur mal Blender mit OpenCL vs. CUDA laufen lassen...
Der Nachteil bleibt, dass Cuda proprietär ist und nur unterstützt wird - was Nvidia auch für unterstützendwert hält (und das ziehen sie rigeros durch, was schon bei den Entwicklern beginnt). Kann man gut finden, muss man nicht, ich jedenfalls nicht. Und was die OpenCL Leistung der Cudahardware angeht, ist die den Mitbewerbern klar unterlegen und ineffizient. Cuda lässt sich nicht nach belieben anpassen und ehrlich gesagt fehlt es dort den Freiberuflern mitzuarbeiten, open source voran zu bringen. Sry...okay man kann sich ja einkaufen.

Was Bignavi und Workstation angeht, die kommen noch. Nvidia war minimal schneller, mehr nicht.

Lass doch mal Final Cut Pro laufen? Was dann?
 
Die Chips sollen DirectX12 Feature-Level 12_1, Vulkan 1.1, OpenGL 4.6 und OpenCL 2.2 unterstützen.
Nicht DirectX 12 Feature-Level 12_2 wie der Rest von RDNA2 (und Vulkan 1.2 wie RDNA 1&2)?
 
Ist eine um 45° gedrehte Montage der GPU nicht von Nachteil bei Kühlung mit Heatpipes? Zumindest bei ausladenden Kühlerkonstruktionen, erscheint mir das von Nachteil.
Wo sind also die Vorteile einer solchen Montage?
 
Sie unterstützen [email protected]. Das brauchte nicht zwingend neue Hardware.

Anbindung, und ist bei einigen RX6700 doch auch so. Dadurch entstehen keinen Nachteile, wieso auch. Gibt eine Groundplate bzw. Basis die die Wärme abführt.
 
Was ein Mist!
hab gehofft das eine 6600 (XT) im ITX Format kommt.
Auch nicht so elendig hoch!
Weil wollte meinem großen was neues basteln.
So nun aber die A Karte! Weil hab dafür günstig ein A520 und nen 3600 geschossen.
Da gibts nur PCIe 3.0 ich brech ab.
Bei NV sind selbst die kleinen Modelle so groß wie Schalchtschiffe.

MfG
 
Zuletzt bearbeitet :
Also ich glaube dass die 6600 XT ( 8 GB ) von der Leistung eine RX 5600 XT ( 6 GB ) erreicht und die zusätzlichen 2 GB bessere Frametimes bringen.
Theoretisch ist es eine "halbe" RX 6800 und wenn die Leistungsaufnahme der Grafikkarte auch noch unter 130 Watt bleibt dann ist alles gut.
Da das Angebot an AMD Grafikkarten im Mini-ITX-Format sehr klein und nicht mehr auf dem neuesten Stand ist, wäre es an der Zeit dies zu ändern. Oder man überlässt weiter das Feld Nvidia :rolleyes:
Aber bitte bloß keine Grafikkarten mit 3 Lüftern, ARGB und > 30 cm Kartenlänge veröffentlichen !
 
Oben Unten