GPUs Graphics Reviews

Sapphire RX 6600XT Pulse 8GB Review – More economical can also be more reasonable

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Benchmarks, Test system and evaluation software

For the benchmarks, analogous to the launch article of the Radeon RX 6700 XT , I chose the same 9 games (Far Cry New Dawn had to give way because of the CPU limitation in full HD) and weighted between old and new, as well as AMD- or NVIDIA-specific. I also added 2 more titles that can handle both DLSS and FSR. For today’s test, however, I’m using the accumulation for FHD and WQHD alone, because the cards are far too similar to go through everything again.

The benchmark system relies on PCIe 4.0, a matching X570 motherboard in the form of the MSI MEG X570 Godlike and a selected Ryzen 9 5900X that was overclocked water-cooled (PBO + 500 MHz). Add to that the matching DDR4 4000 RAM from Corsair, as well as several fast NVMe SSDs. For direct logging during all games and applications, I use my own measurement station with shunts and riser card, as well as NVIDIA’s PCAT in games, which adds to the convenience immensely.

The measurement of the detailed power consumption and other, more profound things takes place here in the special laboratory on a redundant and in detail identical test system then double-tracked by means of high-resolution oscillograph technology…

…and the self-created MCU-based measurement setup for motherboards and graphics cards (pictures below), where at the end in the air-conditioned room also the thermographic infrared images are created with a high-resolution industrial camera. The audio measurements are done outside in my Chamber (room within a room).

I have also summarized the individual components of the test system in a table:

Test System and Equipment
Hardware:
AMD Ryzen 9 5900X OC
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Ice Block XPX Pro
Alphacool Ice Wolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and Fr

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified or press drivers)

 

Raytracing / DXR

At the latest since the presentation of the new Radeon cards it is clear that AMD will also support ray tracing. Here one goes a way clearly deviating to NVIDIA and implements a so-called “Ray Accelerator” per Compute Unit (CU). Since the Radeon RX 6700XT has a total of 40 CUs, this also results in 40 such accelerators. A GeForce RTX 3070 comes with 46 RT cores. However, RT cores are organized differently and we will have to wait and see what quantity can do against specialization here. So in the end it’s an apples and oranges comparison for now.

But what has AMD come up with here? Each of these accelerators is first capable of simultaneously computing up to 4 beam/box intersections or a single beam/triangle intersection per cycle. This way, the intersection points of the rays with the scene geometry are calculated (analogous to the Bounding Volume Hierarchy), first pre-sorted and then this information is returned to the shaders for further processing within the scene or the final shading result is output. NVIDIA’s RT cores, however, seem to have a much more complex approach to this, as I explained in detail during the Turing launch. What counts is the result alone, and that’s exactly what we have suitable benchmarks for.

Smart Access Memory (SAM)

AMD already showed SAM, i.e. Smart Access Memory, at the presentation of the new Radeon cards – a feature I enabled today in addition to the normal benchmarks, which also allows a direct comparison. But actually SAM is not Neuers, just verbally more nicely packaged. This is nothing else than the clever handling of the Base Address Register (BAR) and exactly this support must be activated in the substructure. With modern AMD graphics hardware, resizable PCI bars (see also PCI SIG from 4/24/2008) have played an important role for quite some time, since the actual PCI BARs are normally only limited to 256 MB, while with the new Radeon graphics cards you can now find up to 16 GB VRAM (here it’s 12 GB).

The result is that only a fraction of the VRAM is directly accessible to the CPU, which without SAM requires a whole series of workarounds in the so-called driver stack. Of course, this always costs performance and should therefore be avoided. So that’s where AMD comes in with SAM. This is not new, but it must be implemented cleanly in the UEFI and later also activated. This only works if the system is running in UEFI mode and CSM/Legacy are disabled.

CSM stands for the Compatibility Support Module. The Compatibility Support Module is exclusive to UEFI and ensures that older hardware and software will work with UEFI. The CSM is always helpful when not all hardware components are compatible with UEFI. Some older operating systems and the 32-bit versions of Windows also do not install on UEFI hardware. However, it is precisely this compatibility setting that often prevents the clean Windows variant required for the new AMD components from being installed.

First you have to check in the BIOS if UEFI or CSM/Legacy is active and if not, make sure to do this step. Only then you can activate and use the resizable PCI-BARs at all, but stop – does your Windows boot at all then? How to convert an (older) disk from MBR to GPT, so that it is recognized cleanly under UEFI, you could read among other things also in the forum, if there are questions in this regard, that leads here now too far.
 
The fact is that AMD sets the hurdles for the use of SAM quite high and has communicated this only sparsely so far. A current Zen3 CPU is required for the real, purely hardware-based solution, as well as a B550 or X570 motherboard including an updated BIOS. Then again, the UEFI thing is a small but incredibly important side note. It should also be noted that NVIDIA and Intel already use their own firmware-based solutions or plan to expand this in the future. One goes first, the others follow suit, whereas one could have done it long ago.
 

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

297 Kommentare 300 Likes

Wenn's um Radeon Karten von AMD geht gibt's kein weg an Sapphire vorbei. Da gibt's immer gute Versionen anders wie bei Asus...

Antwort 4 Likes

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Das wäre meine Wunschkarte für den Kinder PC.

Antwort 2 Likes

T
Toacon

Veteran

340 Kommentare 133 Likes

Und bei mir wärs der zweit PC :)

Antwort Gefällt mir

arcDaniel

Urgestein

1,593 Kommentare 855 Likes

Bin ech am überlegen eine solche zu kaufen. Habe zwar einen 4K Monitor allerdings kann ich mit Upscaling und leicht reduzierten Details leben. Zudem benötige ich maximal 60fps... sollte doch ok sein. Und der Preis ist zwar sehr teuer, für den aktuellen Markt aber irgendwo ok

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Das gehype um die AMD Karten wird mir ewig ein Rätsel bleiben. Das Ding ist langsamer als eine alte 2070 super/2080 super. No DLSS und RTX testen wir erst gar nicht weil AMD es ja nicht kann. Mit ersterem vollbringt meine alte 2080 super in meinem Zweitrechner am 4k TV mittlerweile wahre Wunder. Bei allem notwendigen Respekt, aber Fähigkeiten von Karten komplett auszublenden verzerrt (positiv formuliert) aus meiner Sicht das Bild.

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Setz mal bitte Deine olle 2080 SUPER auf 100W und poste mal einen TS-Score.
(das ist für mich schon in Ordnung, wenn Igor net olle Grakas mit angehängtem Kraftwerk z.Vgl. dazunimmt, ...
falls doch für Dich interessant, dann schau Dir mal die minFps bei CB an)

Gurdi@100W kommt mit seiner 6600-Hellhound auf 9,5k= STOCK, wenn Das net effizient ist!? (x)
Bin mal gespannt, wie sein UVing-Guide ausschaut.(hatte wohl am WE noch net genug Zeit)

(x) für Rastergames am HTPC klingt das optimal für mich

@arcDaniel
Wenn das FSR-Tool von Steam mal irgendwann ordentlich funzt, wirds mit dem Scaling auch noch einfacher.
Bzw. verspreche ich mir auch noch von der INTEL-Supersampling -Lösung mit DP4a gute Ergebnisse.
(sollte ja demnächst mal OpenSource werden)

in the meantime, mal ein Schnappschuss von MYST mit RT=ON@FSR mit meiner 6800 am 4k-60Hz-Moni@chill 57fps

Antwort 3 Likes

S
Sternengucker80

Veteran

223 Kommentare 59 Likes

Wäre eine schöne Karte für meinen HTPC. Vielleicht, wenn die Preise mal wieder normal sind.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Interessiert mich nicht. Ich will spielen in bester Qualität. Unter dem Aspekt wäre eine integrierte Graka Winner of the Year. Ausserdem ging es schwerpunktmäßig um die Unfähigkeit der aktuellen AMD Generation bezüglich RTX und diverser anderer Technologien. Aber so what, wenn denn der Verbrauch und die Effezienz das Maß aller Dinge sind. Das AMD Fans gerne auf den RTX/DLSS Vergleich verzichten ist schon Nachvollziehbar.

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Du bist anscheinend im falschen Thread!? ...(x)

Mach doch einen super duper olle Grakas -Thread auf.
Da bekommste sicher von Kraftwerksbesitzern ordentlich Klicks.

(x) Igor verfasst nen Review zu "Weniger ist Mehr"
und
Da passen dumb Comments von 300W-Usern gar net in die moderne Zeit! ... meint GRETA

btw.
Nach m.E. eeh keine gute Wahl, ne 2080 Super für 4k anzuschaffen, weil Das ne 2080Ti viel effektiver kann.
Da war wohl der Geldbeutel net prall genug?

Antwort 2 Likes

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Davon mal abgesehen steigt man ja nicht von einer 2080 auf eine 6600XT oder eine 3060 um.

Antwort 4 Likes

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Nö, bin ich nicht. Offenkundig hast du Probleme mit einem objektiven Vergleich aller Möglichkeiten, die die Karten bieten. Wir können aber gerne uns auch auf die aktuelle 3000 Serie beschränken. Da wird es ja noch bitterer.

Antwort Gefällt mir

arcDaniel

Urgestein

1,593 Kommentare 855 Likes

Also ich hatte schon den Finger auf der Bestellung, dann setzte doch die Vernunft ein zu warten bis nächstes Jahr. Wenn ich schon eine Mainstream Plattform aufbaue, möchte ich möglichst aktuelle Hardware und die nächste Gen steht zu kurz vor der Tür.

Zum Thema RTX blablabla, klar könnte finde ich dies mega. Es ist aber weit davon entfernt mainstream zu werden und ich habe jetzt noch kein Spiel gesehen wo es einen echten Unterschieb im Spielerlebnis macht.

Durch Steam Deck sehe ich zudem die Unterstützung von AMD unter Linux deutlisch besser. Hoffe mein neues Gaming System ohne Windows betreiben zu können.

Selbst finde ich jedenfalls die 6600XT interessant und spannend.

Antwort 1 Like

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Darum ging es ja gar nicht. Es geht darum, das hier ein Bild gezeichnet wird, wo entscheidende Leistungsmerkmale komplett ausgeblendet werden über die selbst die vorletzte Version eines Wettbewerbers verfügt. Ich bin beileibe kein NVDIA Fan, aber ich find es nicht wirklich ok.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Also wenn du dir die Anzahl der Spiele anschaust, gibt es eine Menge und es werden immer mehr. Ich finde ebenfalls das dies schon einen erwähnenswerten Unterschied macht. Aber es geht doch gar nicht um mich oder um dich oder um unsere Meinung. Es geht um Leute, die sich vielleich objektiv informieren wollen. Und genau an diesem Punkt fehlt die Information. Ich finde das Schade und ehrlicherweise ziemlich einseitig. Wie einige offenkundig die Effizienz interessiert, interessiert andere DLSS oder RTX.

Ich will nicht wissen was hier los wäre, würde man sagen:"Ja, sorry NVIDIA kann leider nicht effiezent, das nehmen wir mal aus der Betrachtung raus:" Ist doch aberwitzig.

Antwort Gefällt mir

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Nun ich kann eine neue graka kaufen die 100€ weniger als eine mit rtx kostet ( nein wir reden von Straßen Preisen ) und in vielen Spielen schneller ist.

Antwort 1 Like

RX480

Urgestein

1,871 Kommentare 864 Likes

Mal abgesehen davon, das ich arcDaniel Recht gebe bzgl. Aufwand/Nutzen von RT in Watt gibts doch auch in AMD-Games gescheite
RT-Anwendungen. Dort werden die Shadows und das AmbientOcclusion mit RT zu nem vernünftigen Preis/Aufwand besser dargestellt.
und
Das funzt auch mit der 6600 in FHD, wie beworben.

Das grüne Games overboardend mit RT@wave64 arbeiten und net gut mit AMD-Grakas können ist wohl Sooo gewollt.
(würde in den Games einfach net alle RT-Effekte aktivieren, dann läufts auch halbwegs normal@AMD, ....solange die Studios net Willens
sind/sein dürfen RT@wave32 für AMD passend zu machen per Patch)

Bzgl. Effekte auswählen können, mal ein Bsp. vom UE-Showcase mit meiner 6800.
oder
Mal Riftbreaker@FSR, das könnte in Zukunft ne feine Sache werden.

btw.
Ne olle 2080Ti ist auch Heute noch in 4k-RT sinnvoller als ne schwachbrüstige 3070.(Vram!?)
Man wird zunehmend den Texturpool in modernen Games reduzieren müssen mit nuuur 8GB !!!
Wer ne 2080s@8GB für 4k nutzt kann eeh net maxQuality, also nur dummes Gelaber.
und
Man vgl. mal die 375€ ner 6600XT mit dem Launchpreis 739€ der komischen 2080 SuperFE-Krücke!?

Antwort Gefällt mir

Klicke zum Ausklappem
Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Stimmt, solange wie das Spiel weder DLSS unterstützt und du auf RTX verzichtest. Aber damit du genau weiss was du tust, gehört diese Information dazu. Wenn du diese Informationen hast, kannst du dich ja immer noch für AMD entscheiden. Und Informationen sind meinem Selbstverständnis nach die Essenz von einem Test. Ich hab ja nicht behauptet, das man sich danach nicht trotzdem ( je nach Schwerpunkt halt ) für eine AMD entscheiden kann.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Weniger ist bei Tests niemals mehr und Greta ist nicht so mein Thema.

Da das Thema dich aber offenkundig so emotionalisiert, das du glaubst grob Persönlich werden zu müssen.

Mach dir um meinem Geldbeutel keine Sorgen. Im Erstrechner läuft eine wassergekühlte 3090er und betreibt meine 4 Monitore unterstützt von eine Rotel Verstärker mit 2 Wharfdale Linton Lautsprecher und bei Bedarf mit einem Hifiman Kopfhörer. Die 2080 super war eine reine Übergangskarte und von Anfang für den Zweitrechner gedacht, für meine 3D Brille. An der Oculus Rift reicht sie noch eine Weile.

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Wenn Du ein 3090-Besitzer bist, warum gibst Du dann Deinen Senf in einer gaaaanz anderen Kategorie ab?
... muss ich net verstehen

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung