GPUs Graphics Reviews

AMD Radeon RX 6600 Non-XT benchmarks – equal to GeForce RTX 3060? | Exclusive

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Benchmarks, Test system and evaluation software

For the benchmarks, I chose the same games as in the launch article of the Radeon RX 6600 XT, but omitted Control because of the driver bug. The benchmark system relies on PCIe 4.0, the matching X570 motherboard in the form of the MSI MEG X570 Godlike and a selected Ryzen 9 5900X that was overclocked water-cooled (PBO + 500 MHz). Add to that the matching DDR4 4000 RAM from Corsair, as well as several fast NVMe SSDs. For direct logging during all games and applications, I use my own measurement station with shunts and riser card, as well as NVIDIA’s PCAT in games, which adds to the convenience immensely.

The measurement of the detailed power consumption and other, more profound things takes place here in the special laboratory on a redundant and in detail identical test system then double-tracked by means of high-resolution oscillograph technology…

…and the self-created MCU-based measurement setup for motherboards and graphics cards (pictures below), where at the end in the air-conditioned room also the thermographic infrared images are created with a high-resolution industrial camera. The audio measurements are done outside in my Chamber (room within a room).

I have also summarized the individual components of the test system in a table:

Test System and Equipment
Hardware:
AMD Ryzen 9 5900X OC
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Ice Block XPX Pro
Alphacool Ice Wolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and Fr

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified or press drivers)

 

Raytracing / DXR

At the latest since the presentation of the new Radeon cards it is clear that AMD will also support ray tracing. Here one goes a way clearly deviating to NVIDIA and implements a so-called “Ray Accelerator” per Compute Unit (CU). Since the Radeon RX 6700XT has a total of 40 CUs, this also results in 40 such accelerators. A GeForce RTX 3070 comes with 46 RT cores. However, RT cores are organized differently and we will have to wait and see what quantity can do against specialization here. So in the end it’s an apples and oranges comparison for now.

But what has AMD come up with here? Each of these accelerators is first capable of simultaneously computing up to 4 beam/box intersections or a single beam/triangle intersection per cycle. This way, the intersection points of the rays with the scene geometry are calculated (analogous to the Bounding Volume Hierarchy), first pre-sorted and then this information is returned to the shaders for further processing within the scene or the final shading result is output. NVIDIA’s RT cores, however, seem to have a much more complex approach to this, as I explained in detail during the Turing launch. What counts is the result alone, and that’s exactly what we have suitable benchmarks for.

Smart Access Memory (SAM)

AMD already showed SAM, i.e. Smart Access Memory, at the presentation of the new Radeon cards – a feature I enabled today in addition to the normal benchmarks, which also allows a direct comparison. But actually SAM is not Neuers, just verbally more nicely packaged. This is nothing else than the clever handling of the Base Address Register (BAR) and exactly this support must be activated in the substructure. With modern AMD graphics hardware, resizable PCI bars (see also PCI SIG from 4/24/2008) have played an important role for quite some time, since the actual PCI BARs are normally only limited to 256 MB, while with the new Radeon graphics cards you can now find up to 16 GB VRAM (here it’s 12 GB).

The result is that only a fraction of the VRAM is directly accessible to the CPU, which without SAM requires a whole series of workarounds in the so-called driver stack. Of course, this always costs performance and should therefore be avoided. So that’s where AMD comes in with SAM. This is not new, but it must be implemented cleanly in the UEFI and later also activated. This only works if the system is running in UEFI mode and CSM/Legacy are disabled.

CSM stands for the Compatibility Support Module. The Compatibility Support Module is exclusive to UEFI and ensures that older hardware and software will work with UEFI. The CSM is always helpful when not all hardware components are compatible with UEFI. Some older operating systems and the 32-bit versions of Windows also do not install on UEFI hardware. However, it is precisely this compatibility setting that often prevents the clean Windows variant required for the new AMD components from being installed.

First you have to check in the BIOS if UEFI or CSM/Legacy is active and if not, make sure to do this step. Only then you can activate and use the resizable PCI-BARs at all, but stop – does your Windows boot at all then? How to convert an (older) disk from MBR to GPT, so that it is recognized cleanly under UEFI, you could read among other things also in the forum, if there are questions in this regard, that leads here now too far.
 
The fact is that AMD sets the hurdles for the use of SAM quite high and has communicated this only sparsely so far. A current Zen3 CPU is required for the real, purely hardware-based solution, as well as a B550 or X570 motherboard including an updated BIOS. Then again, the UEFI thing is a small but incredibly important side note. It should also be noted that NVIDIA and Intel already use their own firmware-based solutions or plan to expand this in the future. One goes first, the others follow suit, whereas one could have done it long ago.
 

 

Kommentar

Lade neue Kommentare

v
vonXanten

Urgestein

803 Kommentare 335 Likes

Interessanter Spekulatius ;)
Hoffentlich nutzt AMD nicht die Brechstange, wäre schade um eine doch recht Effiziente Karte, welche evtl. einen sehr leisen Kühler verpasst bekommt.

Antwort Gefällt mir

c
com1

Mitglied

11 Kommentare 3 Likes

Nette Vorschau auf eine effiziente Karte.

Ich denke aber, dass damit keine AAA Titel gezockt werden. Eher denn eSport oder WoW, WoT… wo jetzt noch 1050ti, 1060, RX 560… eingesetzt werden.
Da sollte auch genügend Leistung für mehr als FHD übrig sein.

Antwort 1 Like

RevAngel

Veteran

120 Kommentare 87 Likes

Seit ich mir meine 1650er von NVidia (für 170€) geholt habe ist keine vergleichbare Grafikkarte mehr heraus gekommen, die ohne zusätzlichen Stromanschluss auskommt. Klar, der Markt hat durch Verknappung die Preise außerdem stark angehoben. Trotzdem mag ich mein Stromspar-Spiele-PC, der vernünftige Performance in 2560x1080p bei 90 bis 140 W Komplettverbrauch (undervolted AMD 3600 ohne BoostPerformanceOverride, Package power 45W, TDP 35W) abliefert. Nur das seit April 2019 keine Grafikkarte mehr auf dem Markt erschienen ist, die ohne zusätzlichen Stromanschluss auskommt finde ich schon irgendwie schade. 7nm sollte für diesen Marktsektor ja eigentlich eine nette Performance liefern, Nur gibt es da bisher keine Hardware. Bin ich der Einzige der sich gerne ein leises, effizientes System zum Spielen zusammenbaut?

Antwort 3 Likes

P
Phelan

Veteran

191 Kommentare 172 Likes

Die "E-Sports" Karte ist Navi 24 alias 6500(XT).

Warum sollte eine 6600 nicht für AAA Titel reichen speziell in FHD !? Dafür ginbt es die Details-Einstellungen.
Mein Bruder hat auf CP2077 auf einer 1060 in 2560x1440 gespielt und die ist deutlich langsamer.
Klar auf geringen Details und mit 30FPS aber spielbar*. Im Prinzip hat sogar der Skylake i5 mehr limitiert das die Grafikkarte.

*viele Gelegenheitspieler definieren das so: Spiel startet und läuft möglichst ohne Abstürze. Und 30FPS kennen sie von den Konsolen.

Antwort Gefällt mir

P
Phelan

Veteran

191 Kommentare 172 Likes

Nö. Mein kompletter Gaming-PC mit 300W Netzteil liegt bei ~220W unter Vollast an der Steckdose, + 25W für den Monitor.
i5 4690K LV mit 70W TPD und eine 1070 ULV@0,7V@1,4Ghz mit 80W TPD an einem Eizo EV2736W mit 2560x1440.
Das ganze ist komplett passiv und damit lautlos gekühlt, unter diesen Ziel muss sich alles ander unterordnen.

Aber gerade im Sommer finde ich es auch sehr angenehm dar der PC das Zimmer nicht so aufheizt.

PS: die GRafikkarte würde ich aber eher bei 100-120W im Sweetspot (0,9V@1,9hz) betreiben wollen, das schaft aber die verbaute Passivkühlung nicht.

Wenn ich mir jetzt ein neuen Rechner kaufen (müsste) würde es sowas werden wie:
ein 5600/5800x im 45W Setting was ja dann immernoch über 60W sind, und einer 6800 im ULV Setting mit <150W.

Antwort 5 Likes

Alexander Brose

Moderator

819 Kommentare 573 Likes

Klasse Artikel!

Wundert mich, dass sonst noch keiner auf die Idee gekommen ist. Der Igor ist schon ein 🦊

Grüße!

Antwort 1 Like

o
odd

Mitglied

29 Kommentare 10 Likes

@Igor
danke für den Test
Nur schade dass du für die Aufrüster keine 5600XT oder entsprechendes Gegenstück von Nvidia im Testpacour mit drinnen hast.
Ansonsten klasse gemacht mit Anpassungen von voraussichtliche Frequenzen und Powerbudget.
Im Vergleich zur 3060 ist sie meist schwächer und in WQHD dann auf jeden Fall. Zuzüglich der 50% mehr Speicher bei Nvidia kommt nur ein Preis unter 300€ in Frage, da hilft auch keine noch so gute Effizenz.
(y)

Antwort Gefällt mir

Alkbert

Urgestein

931 Kommentare 707 Likes

Leider fehlt im Test die 2060, die ja doch in vielen aktuellen Systemen drinsteckt, allein schon deshalb, weil Nvidia nochmals eine Charge in diesem Jahr aufgelegt hatte.

Antwort 1 Like

Epistolarius

Mitglied

33 Kommentare 5 Likes

Als ob eine Karte im "Budget"-Segment mit Performance knapp unter einer 5700XT nicht ausreichend wäre? Und wer hat denn einen 1440/2160p Monitor aber muss dann bei der GPU knausern?

Die Karte ist immer noch schneller als das, was der Großteil der Spieler im PC hat und mehr als ausreichend für die meisten Spiele...

Antwort Gefällt mir

o
odd

Mitglied

29 Kommentare 10 Likes

Für die meisten langt die Performance. Aber das muss auch für den Preis gelten.
Bei vielen ist bei 250 € Schluss.

Antwort Gefällt mir

S
Schakar

Veteran

177 Kommentare 90 Likes

Erfreulich: Der Verbrauch und die gebotene Leistung.
Unerfreulich: Der Preis.

130 bzw 160 Watt sind sehr gut für Katen der x600 bzw x060 Reihen und da, wo ich sie mir Wünsche. Die Leistung ist halt Mittelklasse entsprechend und Gleichstand mit NVidia. Find ich gut.
Wobei die Watt/Frame schon nicht mehr so gut dar stehen. Warum auch immer.

Der Preis ist aber absolut überzogen!
180-200,-€ für die 6600 und 200-250,-€ für die 6600XT wären maximal angemessen! +50,- für jeweilige OC Varianten dann noch.

Antwort 2 Likes

D
Denniss

Urgestein

1,516 Kommentare 548 Likes

Bitte mal mit dieser Preisvorstellung an Nvidia herantreten bezüglich 3060 aber nicht über das schallende Gelächter wundern

Antwort 1 Like

v
vonXanten

Urgestein

803 Kommentare 335 Likes

Im Moment bist selbst bei den alten 16xx Karten bei locker über 200€, da wird das nichts mit den neuen Karten in den Preisregionen.

Für die Modelle mit der 6 drin wäre das die richtige Region, aber ich denke davon können wir vorläufig nur von träumen. Hoffen wir das die GPUs noch eine Weile halten die wir verbaut haben...

Antwort 1 Like

Alkbert

Urgestein

931 Kommentare 707 Likes

Im momentanen Preisgefüge sollte Intel mit der Xe - Serie im dedizierten Bereich mal Gas geben, es gäbe keinen besseren Moment als jetzt um einen Fuß in den Markt zu bekommen.

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung