Grafikkarten News VGA

AMD Radeon RX 6600 XT mit 8 GB Speicher – Exklusive Details aus internen Folien und ein erstes Fazit

Power Management

Man setzt laut der vorliegenden Informationen erneut auf PowerTune, DPM, AVFS und andere bekannte Technologien. Das muss ich jetzt verbal nicht weiter ausführen, denn der nachfolgende Einblick in die Folie ist selbsterklärend:

Spannungsversorgung

Für alle, die sich immer fragen, wo ich die Details zur Platinenanalyse in meinen Artikeln herhabe, kann ich auch für die Radeon RX 6600 XT wieder auf die bekannten Basics hinweisen, ohne jetzt direkt aus der Folie zitieren zu müssen, weil sich ja nichts geändert hat. Aber es ist durchaus interessant, diese Details auch mal mit zu erwähnen. Die von mir in den Schemata ausgewiesenen Versorgungsspannungen VDDCR_GFX und VDDCR_SOC werden einem der insgesamt zwei SVI2-Regler zugewiesen, der von der SVI2-Schnittstelle #0 des Chips gesteuert wird. Dabei liegt VDDCR_GFX  auf der Hauptdomäne des Reglers und VDDCR SOC auf seiner zweiten Domäne.

Die Versorgungsspannung des Speichers, also VDDIO_MEM (die mit VDDNDDQ der Speicherbausteine auf der Platine kombiniert werden kann) und VDDCI_MEM werden dem anderen SVI2-Regler zugewiesen, der von der SVI2-Schnittstelle #1 des Chips gesteuert wird. Dabei liegen VDDIO_MEM (und VDD und VDDQ der Speicherbausteine) auf der Hauptdomäne des Reglers und VDDCI_MEM auf seiner zweiten Domäne. Wie das bei der Radeon RX 6700XT aussah, das zeige ich euch mal an einem bekannten Schema aus meinem Launchartikel, den bis auf die Anzahl der Spannungswandler sollte das alles ja sehr ähnlich ausfallen:

Reference PCB of a Radeon RX 6700XT

Wissenswert ist, was AMD zur TDC schreibt, denn als Voraussetzung für die Spannungswandler gibt man an, dass die als Maximum festgelegten Werte mindestens 1 ms gehalten werden können müssen. Das ist wichtig für eine stabile Versorgung und entspricht auch dem, was man bereits für die anderen Karten vorausgesetzt hatte. Besser, also länger, ist natürlich nie verboten.

Temperatur-Überwachung

Interessant ist sicher auch die Information, dass man wahrscheinlich wieder auf die gute alte „GPU-Diode“ als Rückmeldung und Indikator für die Chiptemperatur setzt und nicht nur auf hochgerechnete Hotspots. Die nachfolgenden beiden Absätze enthalten auch interessante Toleranzbereiche, die die Allgemeinheit in dieser Form sicher nicht kannte. Zu den weiteren Details zählt auch der Umstand, dass die Diode über die 1.8-V-Source (siehe auch Schema oben) gespeist wird, die ich ja auf meinen Platinenanalysen immer mit ausweise und die bei den Radeons im Ruhemodus abgeschaltet wird.

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,750 Kommentare 799 Likes

Das ist ne Lumperei = 1050mV GFX.

Haben will für die 6800 nonXT.(+ open Takt)
(Das war kein schöner Zug von AMD die 6800 nonXT soo zu beschneiden, Da wären sicher unter Teillast auch mal >2,6 Gig drin)

Gerade wenn die 3070Ti um die Ecke lunzt, sollte AMD bitteschön im Treiber mehr OCen freigeben.

Antwort 3 Likes

ipat66

Urgestein

1,339 Kommentare 1,331 Likes

Danke für den Test Igor.
Deine Entscheidung die Hashrate nicht anzugeben finde ich vernünftig.
Diese Zahlen findet man zu genüge auf anderen Seiten....
Es ist und bleibt eine sehr energiehungrige und unökologische Art und Weise
Coins und Geld zu generieren.

Eine andere Frage meinerseits wäre,was AMD mit seinen Treibern im Produktivbereich
so alles auf die Beine stellt.
Passiert da etwas?

In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?

Antwort 1 Like

RX480

Urgestein

1,750 Kommentare 799 Likes

Vllt. ... interessiert Das 99% der Schleppikäufer überhaupt net.(die Mehrzahl macht neben YT+Facebook nur mal nen Spielchen)
und
Den ganzen Hash-Mist bitteschön auch net noch unterstützen.

Antwort Gefällt mir

Igor Wallossek

1

10,088 Kommentare 18,561 Likes

Nein, weil es aktuell keine gescheiten Karten gibt. Big Navi als Workstation ist irgendwie nicht existent. Ich denke mal, AMD setzt seine Ressourcen woanders ein. Zertifizierungen für z.B. Solidworks kosten für die Grafikkarten Unsummen, jede Treibervesion muss aufwändig neu getestet und zertifiziert werden, nicht nur die Hardware. Bei so vielen relevanten Anwendungen und Iterationen der Treiber kommt da ordentlich was zusammen. Und ich verweigere mich, professionelle Anwendungen mit unzertifizierten Dangen zu testen. Das ist für die Praxis, schon aus Haftungsgründen, eher nicht relevant. Ich wäre froh, es gäbe was Wettbewerbsfähigeres.

Antwort 5 Likes

B
Besterino

Urgestein

6,667 Kommentare 3,264 Likes
C
Cyco

Mitglied

21 Kommentare 29 Likes

Mal ein simples Beispiel, welches ich erlebt habe. Ich habe eine RX6800 gedropt und in meinen neuen Rechner eingebaut (5900X, 32 GB Speicher). Vorher hatte ich eine GTX1070 OC von Gigabyte drin. Ich fotografiere gerne und habe Kameras mit MFT-Sensoren. Diese Sensoren sind etwas kleiner als die meisten gängigen anderen Sensoren. Nachteil dieser MFT-Sensoren ist, dass sie relativ schnell rauschen, wenn man die ISO-Zahl hoch stellt. Dafür gibt es aber Programme, die die Bilder nachträglich entrauschen können. Ich nutze dafür Topaz DenoiseAI. Das arbeitet mit GPU-Unterstützung. Die 1070 braucht ca. 22 Sek. für mein Vergleichsbild, die RX6800 34 Sek. :oops:

Ich vermute, dass viele Programme anscheinend massiv CUDA nutzen, ohne das explizit anzugeben.

Antwort Gefällt mir

Igor Wallossek

1

10,088 Kommentare 18,561 Likes

OpenCL ist CUDA beim Einsatz in Standardsoftware in fast allen Belangen unterlegen. TopaZ nutzt sogar die Tensor Cores, falls vorhanden, ich habe ja fast alle TopaZ Programme im Einsatz. Allerdings wird das auch auf der HP sehr klar kommuniziert und es war ja auch Teil meines Studio-Artikels. Man muss nur mal Blender mit OpenCL vs. CUDA laufen lassen...

Antwort 3 Likes

C
Cyco

Mitglied

21 Kommentare 29 Likes

Den kenne ich noch nicht. Ich suche mal.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Interessante Details, primär sehe ich diesen Chip auch in den Notebooks. Hier könnte er aber wirklich aufgrund des besseren Schedulers von AMD sehr interessant sein da gerade Ultrabooks meist recht schwache CPU´s besitzen,

Antwort 2 Likes

h
hotmob

Mitglied

23 Kommentare 6 Likes

Also, dass dieser doch nicht allzu schnelle Grafikchip von PCIe3 eingeschränkt werden soll, selbst wenn er nur 8x hat, kann ich mir echt nicht vorstellen, da ja auch ne 3090 in PCIe3 kaum eingeschränkt wird.

Außerdem werden alle Hersteller schon aus Kosten und Verbrauchsgründen 16Gb-Chips verbauen, man wird da einfach auf die bisher immer verbauten Samsung Chip zurückgreifen und fertig. Man muss die Dinger ja nicht mit 16Gbps betreiben. Das geht auch im 12 und 14Gbps.
Bei 128Bit sind das halt nur 4 Chips und nicht 8, die man mit 8Gb-Chips verbauen müsste für 8GB.

Antwort Gefällt mir

Igor Wallossek

1

10,088 Kommentare 18,561 Likes

Die RX 5500XT büßt mit PCIe 3.0 bereits 5-7% ein. Wir reden hier von 8 Lanes, nicht 16 Lanes. Eine 3090 mit PCIe 3.0 @8 wird zum Krüppel. Selbst wenn NV die bessere Komprimierung nutzt.

Für die RAM Bestückung gibts seitens AMD-Vorschriften, weil die GPUs immer zusammen mit dem RAM im Bundle verkauft werden.

Antwort 2 Likes

feris

Mitglied

42 Kommentare 19 Likes

Eine rühmliche Ausnahme bei den Anwendungen scheint DaVinci Resolve Studio für Colorgrading und Videoschnitt zu sein.
Da machten schon die alten Karten eine sehr gute Figur.
Hat Igor übrigens auch bei den AMD Karten getestet.

Antwort 1 Like

sonic12434wtdsfxt4W$§%W$%

Mitglied

66 Kommentare 55 Likes

@RX480 das traurige ist ja das die ersten zwei, drei Treiberversionen sogar mit 1050mv per MPT erlauben -_- Stabilisiert die GPU bis ans Taktlimit bei mir. Echt arm so eine künstliche Drossel.

Antwort 2 Likes

G
Guest

Der Nachteil bleibt, dass Cuda proprietär ist und nur unterstützt wird - was Nvidia auch für unterstützendwert hält (und das ziehen sie rigeros durch, was schon bei den Entwicklern beginnt). Kann man gut finden, muss man nicht, ich jedenfalls nicht. Und was die OpenCL Leistung der Cudahardware angeht, ist die den Mitbewerbern klar unterlegen und ineffizient. Cuda lässt sich nicht nach belieben anpassen und ehrlich gesagt fehlt es dort den Freiberuflern mitzuarbeiten, open source voran zu bringen. Sry...okay man kann sich ja einkaufen.

Was Bignavi und Workstation angeht, die kommen noch. Nvidia war minimal schneller, mehr nicht.

Lass doch mal Final Cut Pro laufen? Was dann?

Antwort 1 Like

Epistolarius

Mitglied

33 Kommentare 5 Likes

Nicht DirectX 12 Feature-Level 12_2 wie der Rest von RDNA2 (und Vulkan 1.2 wie RDNA 1&2)?

Antwort Gefällt mir

Homerclon

Mitglied

73 Kommentare 32 Likes

Ist eine um 45° gedrehte Montage der GPU nicht von Nachteil bei Kühlung mit Heatpipes? Zumindest bei ausladenden Kühlerkonstruktionen, erscheint mir das von Nachteil.
Wo sind also die Vorteile einer solchen Montage?

Antwort Gefällt mir

G
Guest

Sie unterstützen [email protected]. Das brauchte nicht zwingend neue Hardware.

Anbindung, und ist bei einigen RX6700 doch auch so. Dadurch entstehen keinen Nachteile, wieso auch. Gibt eine Groundplate bzw. Basis die die Wärme abführt.

Antwort Gefällt mir

M
Matthias80

Mitglied

40 Kommentare 9 Likes

Was ein Mist!
hab gehofft das eine 6600 (XT) im ITX Format kommt.
Auch nicht so elendig hoch!
Weil wollte meinem großen was neues basteln.
So nun aber die A Karte! Weil hab dafür günstig ein A520 und nen 3600 geschossen.
Da gibts nur PCIe 3.0 ich brech ab.
Bei NV sind selbst die kleinen Modelle so groß wie Schalchtschiffe.

MfG

Antwort 2 Likes

M
McFly_76

Veteran

395 Kommentare 136 Likes

Also ich glaube dass die 6600 XT ( 8 GB ) von der Leistung eine RX 5600 XT ( 6 GB ) erreicht und die zusätzlichen 2 GB bessere Frametimes bringen.
Theoretisch ist es eine "halbe" RX 6800 und wenn die Leistungsaufnahme der Grafikkarte auch noch unter 130 Watt bleibt dann ist alles gut.
Da das Angebot an AMD Grafikkarten im Mini-ITX-Format sehr klein und nicht mehr auf dem neuesten Stand ist, wäre es an der Zeit dies zu ändern. Oder man überlässt weiter das Feld Nvidia :rolleyes:
Aber bitte bloß keine Grafikkarten mit 3 Lüftern, ARGB und > 30 cm Kartenlänge veröffentlichen !

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung