Grafikkarten Testberichte VGA

MSI Radeon RX 6600 XT Gaming X 8 GB im Test – Mischt AMD die untere Mittelklasse auf? | Review

Benchmarks, Testsystem und Auswertungssoftware

Für die Benchmarks habe ich, analog zum Launchartikel der Radeon RX 6700 XT , die gleichen 9 Spiele gewählt (Far Cry New Dawn musste wegen der CPU-Limitierung in Full-HD weichen) und dabei zwischen alt und neu, sowie AMD- oder NVIDIA-speziell gewichtet. Außerdem habe ich noch 2 weitere Titel zugefügt, die sowohl DLSS als auch FSR beherrschen.

Das Benchmarksystem ist neu und ich setze nunmehr auch auf PCIe 4.0, passende X570 Motherboards in Form der MSI MEG X570 Godlike und einen selektierten Ryzen 9 5900X, der wassergekühlt übertaktet wurde (PBO + 500 MHz). Dazu kommen der passende DDR4 4000 RAM von Corsair, sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich meine eigene Messstation mit Shunts und Riser-Karte, sowie NVIDIAs PCAT in Spielen, was den Komfort ungemein erhöht.

Die Messung der detaillierten Leistungsaufnahme und anderer, tiefergehender Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards und Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum).

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:
AMD Ryzen 9 5900X OC
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x 2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Eisblock XPX Pro
Alphacool Eiswolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified or press drivers)

 

Raytracing / DXR

Spätestens seit der Präsentation der neuen Radeon-Karten ist klar, dass auch AMD Raytracing unterstützen wird. Hier geht man einen zu NVIDIA deutlich abweichenden Weg und implementiert einen sogenannten „Ray Accelerator“ pro Compute Unit (CU). Da die Radeon RX 6700XT insgesamt 40 CUs besitzt, ergeben sich somit auch 40 solcher Beschleuniger. Eine GeForce RTX 3070 kommt auf 46 RT Cores. Allerdings sind die RT-Cores anders organisiert und man wird abwarten müssen, was hier Menge gegen Spezialisierung ausrichten kann. Es ist am Ende also erst einmal ein Äpfel und Birnen Vergleich.

Doch was hat sich AMD hier ausgedacht? Jeder dieser Beschleuniger ist erst einmal in der Lage, gleichzeitig bis zu 4 Strahl-/Box-Schnittpunkte oder einen einzigen Strahl-/Dreieckschnitt pro Takt zu berechnen. So berechnet man die Schnittpunkte der Strahlen mit der Szenengeometrie (analog zur Bounding Volume Hierarchy), sortiert sie zunächst vor und gibt diese Informationen dann an die Shader zur weiteren Bearbeitung innerhalb der Szene zurück bzw. gibt das finale Shading-Resultat aus. NVIDIAs RT-Cores scheinen da allerdings deutlich komplexer vorzugehen, wie ich es beim Turing-Launch bereits ausführlich erläutert habe. Was zählt, ist allein das Ergebnis und genau dafür haben wir auch passende Benchmarks.

Smart Access Memory (SAM)

AMD zeigte auf der Präsentation der neuen Radeon-Karten bereits SAM, also Smart Access Memory – ein Feature, das ich heute zusätzlich auch zu den normalen Benchmarks aktiviert habe, womit auch ein direkter Vergleich möglich wird. Doch eigentlich ist SAM nicht Neuers, nur verbal schöner verpackt. Dahinter verbirgt sich nämlich nichts anderes als der clevere Umgang mit dem Base Address Register (BAR) und genau dieser Support muss zwingend auch im Unterbau aktiviert sein. Bei moderner AMD-Grafikhardware spielen größenveränderbare PCI-Bars (siehe auch PCI SIG vom 24.0.4.2008) schon länger eine wichtige Rolle, da die eigentlichen PCI BARs normalerweise ja nur auf 256 MB begrenzt sind, während man bei den neuen Radeon Grafikkarten nun bis zu 16 GB VRAM (hier sind es 12 GB) vorfindet.

Die Folge ist, dass nur ein Bruchteil des VRAM für die CPU direkt zugänglich ist, was ohne SAM eine ganze Reihe von Umgehungslösungen im sogenannten Treiber-Stack erfordert. Das kostet natürlich stets Performance und sollte demzufolge vermieden werden. AMD setzt bei SAM also genau dort an. Neu ist das nicht, muss aber sauber im UEFI implementiert und später auch aktiviert werden. Das wiederum geht nur, wenn das System im UEFI Modus läuft und CSM/Legacy deaktiviert sind.

CSM steht dabei für das Compatibility Support Module. Das Compatibility Support Module gibt es ausschließlich unter UEFI und es sorgt dafür, dass ältere Hardware und Software auch mit UEFI funktioniert. Das CSM ist immer dann hilfreich, wenn nicht alle Hardware-Komponenten zu UEFI kompatibel sind. Einige ältere Betriebssysteme sowie die 32-Bit-Versionen von Windows lassen sich auch nicht auf UEFI-Hardware installieren. Genau diese Kompatibilitätseinstellung verhindert jedoch die saubere und für die neuen AMD-Komponenten benötigte Windows-Variante oft schon bei der Installation.

Zunächst muss man im BIOS nachsehen, ob UEFI oder CSM/Legacy aktiv ist und falls nicht, diesen Schritt unbedingt machen. Erst dann kann man die größenveränderbaren PCI-BARs überhaupt aktivieren und nutzen, doch Stopp – bootet Euer Windows dann überhaupt noch? Wie man einen (älteren) Datenträger von MBR zu GPT konvertiert, damit er unter UEFI sauber erkannt wird, könnte Ihr unter anderem auch im Forum nachlesen, falls es diesbezüglich Fragen gibt, das führt hier jetzt zu weit.
 
Fakt ist, dass AMD hier die Hürden für die Nutzung von SAM recht hoch anlegt und das bisher auch nur spärlich kommuniziert hat. Man setzt für die echte, rein Hardware-basierte Lösung eine aktuelle Zen3-CPU voraus, dazu ein B550- oder X570-Motherboard samt aktualisiertem BIOS. Das mit dem UEFI ist dann wiederum eine kleine, aber ungemein wichtige Randnotiz. Man sollte auch anmerken, dass NVIDIA und Intel bereits eigene, Firmware-basierte Lösungen nutzen bzw. in Zukunft dies noch erweitern wollen. Einer legt vor, die anderen ziehen nach, wobei man es längst hätte tun können.
 

 

Kommentar

Lade neue Kommentare

T
Toacon

Veteran

340 Kommentare 133 Likes

Könnt ich mir für den Zweitrechner vorstellen :)
Danke für das ganze Testen (y)

Antwort 2 Likes

Alexander Brose

Moderator

819 Kommentare 572 Likes

Wie immer ein klasse Test und besonders die klaren Worte im Fazit haben mir sehr gefallen (y).

Schön zu sehen, dass sich auch bei AMDs Einsteigerkarten einiges an der Effizienz getan hat. Für mich stellt nach wie vor die 6800 non-XT die aktuell attraktivste Karte dar, aber zu den Preisen macht es einfach keinen Spaß.

Grüße!

Antwort 2 Likes

r
rokzo

Mitglied

54 Kommentare 13 Likes

Ist auf seite 3 das zweite Bild (also die Rückseite der Karte) falsch? (sieht vielleicht nach einer 6700xt aus?)

Antwort Gefällt mir

M
Moeppel

Urgestein

862 Kommentare 312 Likes

Der Moment, in dem man keine Hoffnungen hegte und trotzdem enttäuscht wurde.

Ganz besonders das verhältnismäßige absaufen auf WQHD/4K ist eine Hausnummer.

In der Summe reiht es sich tadellos in den 2021 Markt ein. 5500XT die Zweite und das auch nur, wenn da nicht das Märchen der UVP wäre ;)

Antwort Gefällt mir

C
Capsaicin

Veteran

211 Kommentare 92 Likes

Dass die Karte in WQHD noch schneller als eine 5700 XT ist, überrascht doch irgendwie positiv :)

@Igor Wallossek Erst mal danke für den Test! Für den unwahrscheinlichen Fall, dass du noch eine Idee für einen weiteren Artikel suchst: Ein kleiner Test zu den Auswirkungen des beschnittenen PCIe-Interfaces in einem System mit nur PCIe 3.0 wäre bestimmt eine häufige Frage für Aufrüster. Mehr oder weniger passend dazu wäre auch die 4K-Fähigkeit in E-Sports- oder älteren Titeln interessant, vlt. im Vergleich zur 3060 und 5700 XT.

Antwort Gefällt mir

Igor Wallossek

1

10,176 Kommentare 18,759 Likes

Ja, war der Griff in die falsche Galerie. Ist gefixt, danke

Antwort Gefällt mir

Igor Wallossek

1

10,176 Kommentare 18,759 Likes

8-fach in PCIe 3 macht bei meinen Spielen maximal 3 Prozent aus - in WQHD, wenn es extrem viele Texturen sind und der Speicher knapp wird. Kann man schlecht finden, aber die meisten alten Systeme, wo man sich so eine Karte stecken wird, haben so eine lahme CPU, dass eher diese limitieren dürfte und in FHD ist es eher marginal. Ich hatte das im Review mit angedacht, dann aber mangels echter Relevanz wieder verworfen. Ich weiß, dass viele Kollegen genau auf diesem Umstand herumreiten werden, aber man sollte die Kirche auch mal im Dorf lassen. Dafür hängt die 3060 bis 3070 in Necromunda voll im DX12-Overhead (P1), könnte man genauso thematisieren. :D

4K mit CSS geht :D

Antwort 6 Likes

H
HotteX

Veteran

110 Kommentare 79 Likes

@Igor Wallossek Danke für den ausgezeichneten Test.

Eigentlich eine nette Karte, die ich sofort für die alte GTX970 bei meiner Tochter einbauen würde.
Aber selbst wenn man so eine Karte zum UVP bekommen würde, wäre dieser für eine FullHD Karte
zu hoch. Alles nur noch Gaga die letzten 18Monate.

Antwort 1 Like

C
Capsaicin

Veteran

211 Kommentare 92 Likes

Ah danke, das ist ebenfalls eine positive Überraschung. Hätte mit größeren Einbußen in PCIe 3 gerechnet.

Antwort Gefällt mir

konkretor

Veteran

296 Kommentare 300 Likes

Der UVP ist zu hoch 379 € ist zuviel. Da bin ich ja fast preislich bei einer 6700 und die performt um einige besser.
Was nachher die Ladentheke macht ist ne andere Geschichte.

Würde die Karte auch über 3 GHz takten wenn das Powerlimit bei 250 Watt wäre?
Navi ist ja sehr taktfreudig

Antwort Gefällt mir

a
asdkj1740

Mitglied

11 Kommentare 7 Likes

the more amd pcb i see, the more confusing i get.

Antwort Gefällt mir

D
Deridex

Urgestein

2,212 Kommentare 846 Likes

Ich persönlich finde es schön dass die Karte anscheinend mehr auf Effizienz getrimmt wurde, anstatt die FPS mit der "Brechstange" übern Bildschirm zu prügeln.

Antwort Gefällt mir

C
Capsaicin

Veteran

211 Kommentare 92 Likes

Das ist doch nur ein Preisschild für ein Produkt, das gar nicht verkauft wird (Referenzmodell). Wenn schon aufregen, dann doch bitte über tatsächliche Preise. Oder gleich über die Marktwirtschaft. Oder über die Chipknappheit, Corona und dass alle auf einmal Grafikkarten wollen.

Soweit ich weiß lässt sich RDNA2 nur bis etwas über 2,7 GHz takten, meine ich gesehen zu haben.

Why?

Eigentlich ist das schon Brechstange, dem Takt nach zu urteilen, aber halt mit effizienter Architektur

Antwort Gefällt mir

L
Legalev

Mitglied

44 Kommentare 50 Likes

Die plötzlich eintretende Schwäche in den höheren Auflösungen ist auch hier symptomatisch, aber nicht von Belang, weil das Produkt explizit für Full-HD beworben wird.

Dann bist du nicht die Zielgruppe

Antwort 1 Like

o
odd

Mitglied

29 Kommentare 10 Likes

da hat sich AMD eine schöne günstige GPU zurechtgeschnitzt.
Durch das schmale Speicherinterface, die 8 PCI Lanes und nur 32 MB I$ bleibt die Chipfläche unterhalb derer der NAVI 10 GPU. Dadurch erreicht man hohes Einsparpotential bei Verbrauch und Herstellung. Der Takt muss es dann wieder richten. Laut CB auch auf nur +4% Powerlimit sonst geht anscheinend auch der Verbrauch zu stark hoch. Chiptakt so gewählt dass man gerade so über die 5700XT in WQHD rauskommt.
Für die Bordpartner macht der hohe Takt vermutlich die Fertigung wieder teurer. Aber das stört AMD ja nicht. Die GPU wird sicherlich für die AIBs nicht günstiger sein als NAVI10
Wenn ich richtig informiert bin, hat die 5600XT dieselbe Anzahl Shader. Die sollte man mal gleich takten lassen und dann vergleichen
Würde man mit dem Takt soweit runtergehen erreicht man vermutlich auch keine100W in FHD wobei die Geschwindigkeit wohl annähernd gleich wäre.
Ein 48MB Cache hätte wohl wesentlich besser ausgesehenI$

Antwort Gefällt mir

RX480

Urgestein

1,860 Kommentare 853 Likes

Ich finde es gut, das in der Preview schonmal die Insights aus dem MPT zu sehen waren.
Kann Zufall sein, aber hier im Test gut zu sehen, das bei ca. 55°C Edge runtergetaktet wird ala TDV im Bios.
(wobei normalerweise TDV net aktiv sein sollte)

Da kann man mal selbst Testen obs nach Edge oder Hotspot regelt.

Antwort Gefällt mir

Chismon

Veteran

131 Kommentare 93 Likes

Danke für den tollen Test @Igor Wallossek (y):),

sehr schade, dass die Marktlage gegen einen Kauf spricht bei den Preisen, auch wenn sich da angeblich einiges tun soll bis Ende des Jahres, einige glauben an Preise die sich der UVP annaehern werden, andere sind da wiederum skeptisch.

Das nachfolgende Interview-Video von Moore's Law is Dead/Tom mit Silver Knights, einem PC Custom-Systembauer, ist bzgl. der unterschiedlichen Preisbildung (ab 1:18:20 spezifisch) von nVidia und AMD/RTG Grafikkarten sehr interessant, die erwaehnte Ressourcenverschwendung fuer (vermutlich allenfalls mittelpraechtige) PSUs, die einem in Bundles bei GPU-Kauf aufgedrueckt werden, ist leider auch sehr problematisch:

Was die RX 6600XT Mittelklasse-Karte (auf wenn diese quasi also Einsteigerkarte vermarktet wird, aber sie kommt ja mit dem Navi23 Chip als Pendant zum GA 106 Ampere Chip von nVidia) fuer 379US$ UVP angeht im Vergleich dazu die Leistung in WQHD leicht unterhalb und in Full-HD leicht oberhalb einer Turing RTX 2070 Super (damals fuer 499US$ UVP) nimmt, dann hat sich da preis-leistungstechnisch nicht so schrecklich viel getan.
Vor allen Dingen unter dem Gesichtpunkt Scalper- und Minerpreise ist eine RX 6600XT Karte (von MSI oder anderen Boardpartnern) diesen Preis nicht wert, wenn er so wie aktuell auf Geizhals.de (nur bei einer Karte von Gigabyte) so angesetzt bleiben sollte (auch im direkten Vergleich zu aktuellen RTX 3060 Kartenpreisen).

Die Schlussfolgerung der Guru3D Rezension zur UVP-Preisbildung einer RX 6600XT (wo sie haette landen sollen, aber AMD/RTG die GPU leider nicht per offiziellem UVP-Preis positioniert hat) finde ich da auch sehr passend:

Was ich schade finde, ist, dass im Testartikel nicht RDNA2 (also die RX 6600XT) und Turing (also eine RTX 2070 Super) direkt miteinander bzgl. der RT-Raytracing Leistung verglichen wurden, zumal die Karten ja ansonsten ziemlich nahe beieinander liegen (auch wenn die RTX 2070 Super nicht mehr aktuell (neu zu kaufen) ist, aber insgesamt im Artikel der Leistung nach trotzdem noch verglichen wurde), denn das wuerde auch zeigen, ob im "Schnupper"-/Einsteiger-RT-Raytracingbereich nVidia oder AMD/RTG vorne liegen wuerde ... bei der RTX 3060 gehe ich davon aus, dass diese wegen der darauf besser angepassten Ampere Architektur klar vor einer RX 6600XT im RT-Raytracing liegen duerfte.

Mit einer RTX 3060Ti (solide/gute Custommodelle gibt es aktuell unter 700 Euro, also ca. 300 US$ ueber UVP) kann sich die RX 6600XT leider nicht ansatzweise messen (von RT-Raytracing und DLSS2.0 ganz zu schweigen, wo der direkte Vergleich zu einer RTX 2070 Super sehr interessant waere) und wäre mir diese GPU daher zu wenig (für WQHD geeignet und bei den m.E. schon zu hoch angesetztem UVP der RX 6600XT) und macht hoechstens Sinn im direkten Vergleich zu einer RTX 3060 (die aber 4GB GDDR6 mehr bietet, was fuer eine laengere Nutzdauer/Spielunterstuetzung spricht ... "Schnupper"-RT-Raytracing, bspw. in einem Spiel wie Control, wurde leider nicht getestet/bewertet), wie schoen im Artikel herausgearbeitet.

Es bleibt fuer AMD/RTG auch zu hoffen, dass diese genuegend 7nm Grafikkarten in naher Zukunft auf den Markt bringen koennen, da AMD/RTG selten technisch so auf Augenhoehe war wie aktuell mit nVidia, aber marktanteiltechnisch das leider ueberhaupt nicht ausreizen kann, eher im Gegenteil, was wirklich schade ist.

Antwort 1 Like

Klicke zum Ausklappem
M
Moeppel

Urgestein

862 Kommentare 312 Likes

2021 $379 FullHD - MSRP. Welche FullHD Spieler kaufen 400€ Grafikkarten? Also rein Zielgruppenorientiert. Das gilt auch nicht nur speziell für die 6600XT, als auch für die damalige 5700XT.

Aus einem Esel wird kein Pferd, nur weil man ihn Pferd nennt.

Das bewerben ist das eine, Performance-Regression im Direktvergleich zu einem Produkt mit quasi Preisgleichheit von vor 2 Jahren (2019) ist etwas anderes.

Kann man ausblenden und ignorieren, ist dann aber nur das: Ignoranz.

Als Aktienhalter bin ich im Übrigen absolut die Zielgruppe dieser Margen-Goldgrube, als Verbraucher allerdings alles andere als eben jenes ;)

In einer UVP Realität würde man die 3060Ti immer vorziehen. Wer natürlich heute eine 5700XT in Betracht ziehen würde, sollte aus Effiziensgründen lieber zur 6600XT (AIB/Modell abhängig) greifen, sofern Preisgleichheit besteht und tatsächlich FullHD der ausschlaggebende Faktor wäre.

Tendenziell sehe ich die 6600XT speziell auch absaufen wie die Kepler Bleienten seiner Zeit. Wer in Doom absäuft, dürfte keine sonnige Skalierungszukunft vor sich haben.

Wo die Preise tatsächlich liegen werden, wird sich zeigen.

Antwort Gefällt mir

g
genervt

Mitglied

50 Kommentare 10 Likes

Eigentlich ist die Vergleichsperformance zur 3060 völlig egal. Beide Karten sind selbst für UVP überzogen teuer. Das sind 200-250€ Karten maximal. Zumindest war das mal so.

Bei der aktuellen Marktsituation kann man sich auch gleich eine Konsole kaufen.

Diese Gen ist verloren. Warten wir auf die nächste.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung