Grafikkarten Testberichte VGA

Sapphire RX 6600XT Pulse 8GB im Test – Sparsamer kann auch sinnvoller sein

Benchmarks, Testsystem und Auswertungssoftware

Für die Benchmarks habe ich, analog zum Launchartikel der Radeon RX 6700 XT , die gleichen 9 Spiele gewählt (Far Cry New Dawn musste wegen der CPU-Limitierung in Full-HD weichen) und dabei zwischen alt und neu, sowie AMD- oder NVIDIA-speziell gewichtet. Außerdem habe ich noch 2 weitere Titel zugefügt, die sowohl DLSS als auch FSR beherrschen. Für den Test heute nutze ich jedoch allein die Kumulation für FHD und WQHD, denn die Karten sind sich viel zu ähnlich, um alles noch einmal durchzukauen.

Das Benchmarksystem setzt auf PCIe 4.0, ein passendes X570 Motherboards in Form der MSI MEG X570 Godlike und einen selektierten Ryzen 9 5900X, der wassergekühlt übertaktet wurde (PBO + 500 MHz). Dazu kommen der passende DDR4 4000 RAM von Corsair, sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich meine eigene Messstation mit Shunts und Riser-Karte, sowie NVIDIAs PCAT in Spielen, was den Komfort ungemein erhöht.

Die Messung der detaillierten Leistungsaufnahme und anderer, tiefergehender Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards und Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum).

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:
AMD Ryzen 9 5900X OC
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x 2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Eisblock XPX Pro
Alphacool Eiswolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified or press drivers)

 

Raytracing / DXR

Spätestens seit der Präsentation der neuen Radeon-Karten ist klar, dass auch AMD Raytracing unterstützen wird. Hier geht man einen zu NVIDIA deutlich abweichenden Weg und implementiert einen sogenannten „Ray Accelerator“ pro Compute Unit (CU). Da die Radeon RX 6700XT insgesamt 40 CUs besitzt, ergeben sich somit auch 40 solcher Beschleuniger. Eine GeForce RTX 3070 kommt auf 46 RT Cores. Allerdings sind die RT-Cores anders organisiert und man wird abwarten müssen, was hier Menge gegen Spezialisierung ausrichten kann. Es ist am Ende also erst einmal ein Äpfel und Birnen Vergleich.

Doch was hat sich AMD hier ausgedacht? Jeder dieser Beschleuniger ist erst einmal in der Lage, gleichzeitig bis zu 4 Strahl-/Box-Schnittpunkte oder einen einzigen Strahl-/Dreieckschnitt pro Takt zu berechnen. So berechnet man die Schnittpunkte der Strahlen mit der Szenengeometrie (analog zur Bounding Volume Hierarchy), sortiert sie zunächst vor und gibt diese Informationen dann an die Shader zur weiteren Bearbeitung innerhalb der Szene zurück bzw. gibt das finale Shading-Resultat aus. NVIDIAs RT-Cores scheinen da allerdings deutlich komplexer vorzugehen, wie ich es beim Turing-Launch bereits ausführlich erläutert habe. Was zählt, ist allein das Ergebnis und genau dafür haben wir auch passende Benchmarks.

Smart Access Memory (SAM)

AMD zeigte auf der Präsentation der neuen Radeon-Karten bereits SAM, also Smart Access Memory – ein Feature, das ich heute zusätzlich auch zu den normalen Benchmarks aktiviert habe, womit auch ein direkter Vergleich möglich wird. Doch eigentlich ist SAM nicht Neuers, nur verbal schöner verpackt. Dahinter verbirgt sich nämlich nichts anderes als der clevere Umgang mit dem Base Address Register (BAR) und genau dieser Support muss zwingend auch im Unterbau aktiviert sein. Bei moderner AMD-Grafikhardware spielen größenveränderbare PCI-Bars (siehe auch PCI SIG vom 24.0.4.2008) schon länger eine wichtige Rolle, da die eigentlichen PCI BARs normalerweise ja nur auf 256 MB begrenzt sind, während man bei den neuen Radeon Grafikkarten nun bis zu 16 GB VRAM (hier sind es 12 GB) vorfindet.

Die Folge ist, dass nur ein Bruchteil des VRAM für die CPU direkt zugänglich ist, was ohne SAM eine ganze Reihe von Umgehungslösungen im sogenannten Treiber-Stack erfordert. Das kostet natürlich stets Performance und sollte demzufolge vermieden werden. AMD setzt bei SAM also genau dort an. Neu ist das nicht, muss aber sauber im UEFI implementiert und später auch aktiviert werden. Das wiederum geht nur, wenn das System im UEFI Modus läuft und CSM/Legacy deaktiviert sind.

CSM steht dabei für das Compatibility Support Module. Das Compatibility Support Module gibt es ausschließlich unter UEFI und es sorgt dafür, dass ältere Hardware und Software auch mit UEFI funktioniert. Das CSM ist immer dann hilfreich, wenn nicht alle Hardware-Komponenten zu UEFI kompatibel sind. Einige ältere Betriebssysteme sowie die 32-Bit-Versionen von Windows lassen sich auch nicht auf UEFI-Hardware installieren. Genau diese Kompatibilitätseinstellung verhindert jedoch die saubere und für die neuen AMD-Komponenten benötigte Windows-Variante oft schon bei der Installation.

Zunächst muss man im BIOS nachsehen, ob UEFI oder CSM/Legacy aktiv ist und falls nicht, diesen Schritt unbedingt machen. Erst dann kann man die größenveränderbaren PCI-BARs überhaupt aktivieren und nutzen, doch Stopp – bootet Euer Windows dann überhaupt noch? Wie man einen (älteren) Datenträger von MBR zu GPT konvertiert, damit er unter UEFI sauber erkannt wird, könnte Ihr unter anderem auch im Forum nachlesen, falls es diesbezüglich Fragen gibt, das führt hier jetzt zu weit.
 
Fakt ist, dass AMD hier die Hürden für die Nutzung von SAM recht hoch anlegt und das bisher auch nur spärlich kommuniziert hat. Man setzt für die echte, rein Hardware-basierte Lösung eine aktuelle Zen3-CPU voraus, dazu ein B550- oder X570-Motherboard samt aktualisiertem BIOS. Das mit dem UEFI ist dann wiederum eine kleine, aber ungemein wichtige Randnotiz. Man sollte auch anmerken, dass NVIDIA und Intel bereits eigene, Firmware-basierte Lösungen nutzen bzw. in Zukunft dies noch erweitern wollen. Einer legt vor, die anderen ziehen nach, wobei man es längst hätte tun können.
 

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

293 Kommentare 300 Likes

Wenn's um Radeon Karten von AMD geht gibt's kein weg an Sapphire vorbei. Da gibt's immer gute Versionen anders wie bei Asus...

Antwort 4 Likes

RedF

Urgestein

4,602 Kommentare 2,521 Likes

Das wäre meine Wunschkarte für den Kinder PC.

Antwort 2 Likes

T
Toacon

Veteran

338 Kommentare 131 Likes

Und bei mir wärs der zweit PC :)

Antwort Gefällt mir

arcDaniel

Urgestein

1,505 Kommentare 770 Likes

Bin ech am überlegen eine solche zu kaufen. Habe zwar einen 4K Monitor allerdings kann ich mit Upscaling und leicht reduzierten Details leben. Zudem benötige ich maximal 60fps... sollte doch ok sein. Und der Preis ist zwar sehr teuer, für den aktuellen Markt aber irgendwo ok

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Das gehype um die AMD Karten wird mir ewig ein Rätsel bleiben. Das Ding ist langsamer als eine alte 2070 super/2080 super. No DLSS und RTX testen wir erst gar nicht weil AMD es ja nicht kann. Mit ersterem vollbringt meine alte 2080 super in meinem Zweitrechner am 4k TV mittlerweile wahre Wunder. Bei allem notwendigen Respekt, aber Fähigkeiten von Karten komplett auszublenden verzerrt (positiv formuliert) aus meiner Sicht das Bild.

Antwort Gefällt mir

RX480

Urgestein

1,803 Kommentare 820 Likes

Setz mal bitte Deine olle 2080 SUPER auf 100W und poste mal einen TS-Score.
(das ist für mich schon in Ordnung, wenn Igor net olle Grakas mit angehängtem Kraftwerk z.Vgl. dazunimmt, ...
falls doch für Dich interessant, dann schau Dir mal die minFps bei CB an)

Gurdi@100W kommt mit seiner 6600-Hellhound auf 9,5k= STOCK, wenn Das net effizient ist!? (x)
Bin mal gespannt, wie sein UVing-Guide ausschaut.(hatte wohl am WE noch net genug Zeit)

(x) für Rastergames am HTPC klingt das optimal für mich

@arcDaniel
Wenn das FSR-Tool von Steam mal irgendwann ordentlich funzt, wirds mit dem Scaling auch noch einfacher.
Bzw. verspreche ich mir auch noch von der INTEL-Supersampling -Lösung mit DP4a gute Ergebnisse.
(sollte ja demnächst mal OpenSource werden)

in the meantime, mal ein Schnappschuss von MYST mit RT=ON@FSR mit meiner 6800 am 4k-60Hz-Moni@chill 57fps

Antwort 3 Likes

S
Sternengucker80

Veteran

218 Kommentare 57 Likes

Wäre eine schöne Karte für meinen HTPC. Vielleicht, wenn die Preise mal wieder normal sind.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Interessiert mich nicht. Ich will spielen in bester Qualität. Unter dem Aspekt wäre eine integrierte Graka Winner of the Year. Ausserdem ging es schwerpunktmäßig um die Unfähigkeit der aktuellen AMD Generation bezüglich RTX und diverser anderer Technologien. Aber so what, wenn denn der Verbrauch und die Effezienz das Maß aller Dinge sind. Das AMD Fans gerne auf den RTX/DLSS Vergleich verzichten ist schon Nachvollziehbar.

Antwort Gefällt mir

RX480

Urgestein

1,803 Kommentare 820 Likes

Du bist anscheinend im falschen Thread!? ...(x)

Mach doch einen super duper olle Grakas -Thread auf.
Da bekommste sicher von Kraftwerksbesitzern ordentlich Klicks.

(x) Igor verfasst nen Review zu "Weniger ist Mehr"
und
Da passen dumb Comments von 300W-Usern gar net in die moderne Zeit! ... meint GRETA

btw.
Nach m.E. eeh keine gute Wahl, ne 2080 Super für 4k anzuschaffen, weil Das ne 2080Ti viel effektiver kann.
Da war wohl der Geldbeutel net prall genug?

Antwort 2 Likes

RedF

Urgestein

4,602 Kommentare 2,521 Likes

Davon mal abgesehen steigt man ja nicht von einer 2080 auf eine 6600XT oder eine 3060 um.

Antwort 4 Likes

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Nö, bin ich nicht. Offenkundig hast du Probleme mit einem objektiven Vergleich aller Möglichkeiten, die die Karten bieten. Wir können aber gerne uns auch auf die aktuelle 3000 Serie beschränken. Da wird es ja noch bitterer.

Antwort Gefällt mir

arcDaniel

Urgestein

1,505 Kommentare 770 Likes

Also ich hatte schon den Finger auf der Bestellung, dann setzte doch die Vernunft ein zu warten bis nächstes Jahr. Wenn ich schon eine Mainstream Plattform aufbaue, möchte ich möglichst aktuelle Hardware und die nächste Gen steht zu kurz vor der Tür.

Zum Thema RTX blablabla, klar könnte finde ich dies mega. Es ist aber weit davon entfernt mainstream zu werden und ich habe jetzt noch kein Spiel gesehen wo es einen echten Unterschieb im Spielerlebnis macht.

Durch Steam Deck sehe ich zudem die Unterstützung von AMD unter Linux deutlisch besser. Hoffe mein neues Gaming System ohne Windows betreiben zu können.

Selbst finde ich jedenfalls die 6600XT interessant und spannend.

Antwort 1 Like

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Darum ging es ja gar nicht. Es geht darum, das hier ein Bild gezeichnet wird, wo entscheidende Leistungsmerkmale komplett ausgeblendet werden über die selbst die vorletzte Version eines Wettbewerbers verfügt. Ich bin beileibe kein NVDIA Fan, aber ich find es nicht wirklich ok.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Also wenn du dir die Anzahl der Spiele anschaust, gibt es eine Menge und es werden immer mehr. Ich finde ebenfalls das dies schon einen erwähnenswerten Unterschied macht. Aber es geht doch gar nicht um mich oder um dich oder um unsere Meinung. Es geht um Leute, die sich vielleich objektiv informieren wollen. Und genau an diesem Punkt fehlt die Information. Ich finde das Schade und ehrlicherweise ziemlich einseitig. Wie einige offenkundig die Effizienz interessiert, interessiert andere DLSS oder RTX.

Ich will nicht wissen was hier los wäre, würde man sagen:"Ja, sorry NVIDIA kann leider nicht effiezent, das nehmen wir mal aus der Betrachtung raus:" Ist doch aberwitzig.

Antwort Gefällt mir

RedF

Urgestein

4,602 Kommentare 2,521 Likes

Nun ich kann eine neue graka kaufen die 100€ weniger als eine mit rtx kostet ( nein wir reden von Straßen Preisen ) und in vielen Spielen schneller ist.

Antwort 1 Like

RX480

Urgestein

1,803 Kommentare 820 Likes

Mal abgesehen davon, das ich arcDaniel Recht gebe bzgl. Aufwand/Nutzen von RT in Watt gibts doch auch in AMD-Games gescheite
RT-Anwendungen. Dort werden die Shadows und das AmbientOcclusion mit RT zu nem vernünftigen Preis/Aufwand besser dargestellt.
und
Das funzt auch mit der 6600 in FHD, wie beworben.

Das grüne Games overboardend mit RT@wave64 arbeiten und net gut mit AMD-Grakas können ist wohl Sooo gewollt.
(würde in den Games einfach net alle RT-Effekte aktivieren, dann läufts auch halbwegs normal@AMD, ....solange die Studios net Willens
sind/sein dürfen RT@wave32 für AMD passend zu machen per Patch)

Bzgl. Effekte auswählen können, mal ein Bsp. vom UE-Showcase mit meiner 6800.
oder
Mal Riftbreaker@FSR, das könnte in Zukunft ne feine Sache werden.

btw.
Ne olle 2080Ti ist auch Heute noch in 4k-RT sinnvoller als ne schwachbrüstige 3070.(Vram!?)
Man wird zunehmend den Texturpool in modernen Games reduzieren müssen mit nuuur 8GB !!!
Wer ne 2080s@8GB für 4k nutzt kann eeh net maxQuality, also nur dummes Gelaber.
und
Man vgl. mal die 375€ ner 6600XT mit dem Launchpreis 739€ der komischen 2080 SuperFE-Krücke!?

Antwort Gefällt mir

Klicke zum Ausklappem
Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Stimmt, solange wie das Spiel weder DLSS unterstützt und du auf RTX verzichtest. Aber damit du genau weiss was du tust, gehört diese Information dazu. Wenn du diese Informationen hast, kannst du dich ja immer noch für AMD entscheiden. Und Informationen sind meinem Selbstverständnis nach die Essenz von einem Test. Ich hab ja nicht behauptet, das man sich danach nicht trotzdem ( je nach Schwerpunkt halt ) für eine AMD entscheiden kann.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Weniger ist bei Tests niemals mehr und Greta ist nicht so mein Thema.

Da das Thema dich aber offenkundig so emotionalisiert, das du glaubst grob Persönlich werden zu müssen.

Mach dir um meinem Geldbeutel keine Sorgen. Im Erstrechner läuft eine wassergekühlte 3090er und betreibt meine 4 Monitore unterstützt von eine Rotel Verstärker mit 2 Wharfdale Linton Lautsprecher und bei Bedarf mit einem Hifiman Kopfhörer. Die 2080 super war eine reine Übergangskarte und von Anfang für den Zweitrechner gedacht, für meine 3D Brille. An der Oculus Rift reicht sie noch eine Weile.

Antwort Gefällt mir

RX480

Urgestein

1,803 Kommentare 820 Likes

Wenn Du ein 3090-Besitzer bist, warum gibst Du dann Deinen Senf in einer gaaaanz anderen Kategorie ab?
... muss ich net verstehen

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung