Grafikkarten Testberichte VGA

AMD Radeon RX 6600 Non-XT Benchmarks – Gleichstand zur GeForce RTX 3060? | Exklusiv

Benchmarks, Testsystem und Auswertungssoftware

Für die Benchmarks habe ich, analog zum Launchartikel der Radeon RX 6600 XT , die gleichen Spiele gewählt, jedoch wegen des Treiber-Bugs auf Control verzichtet. Das Benchmarksystem setzt auf PCIe 4.0, das passende X570 Motherboards in Form der MSI MEG X570 Godlike und einen selektierten Ryzen 9 5900X, der wassergekühlt übertaktet wurde (PBO + 500 MHz). Dazu kommen der passende DDR4 4000 RAM von Corsair, sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich meine eigene Messstation mit Shunts und Riser-Karte, sowie NVIDIAs PCAT in Spielen, was den Komfort ungemein erhöht.

Die Messung der detaillierten Leistungsaufnahme und anderer, tiefergehender Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards und Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum).

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:
AMD Ryzen 9 5900X OC
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x 2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Eisblock XPX Pro
Alphacool Eiswolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified or press drivers)

 

Raytracing / DXR

Spätestens seit der Präsentation der neuen Radeon-Karten ist klar, dass auch AMD Raytracing unterstützen wird. Hier geht man einen zu NVIDIA deutlich abweichenden Weg und implementiert einen sogenannten „Ray Accelerator“ pro Compute Unit (CU). Da die Radeon RX 6700XT insgesamt 40 CUs besitzt, ergeben sich somit auch 40 solcher Beschleuniger. Eine GeForce RTX 3070 kommt auf 46 RT Cores. Allerdings sind die RT-Cores anders organisiert und man wird abwarten müssen, was hier Menge gegen Spezialisierung ausrichten kann. Es ist am Ende also erst einmal ein Äpfel und Birnen Vergleich.

Doch was hat sich AMD hier ausgedacht? Jeder dieser Beschleuniger ist erst einmal in der Lage, gleichzeitig bis zu 4 Strahl-/Box-Schnittpunkte oder einen einzigen Strahl-/Dreieckschnitt pro Takt zu berechnen. So berechnet man die Schnittpunkte der Strahlen mit der Szenengeometrie (analog zur Bounding Volume Hierarchy), sortiert sie zunächst vor und gibt diese Informationen dann an die Shader zur weiteren Bearbeitung innerhalb der Szene zurück bzw. gibt das finale Shading-Resultat aus. NVIDIAs RT-Cores scheinen da allerdings deutlich komplexer vorzugehen, wie ich es beim Turing-Launch bereits ausführlich erläutert habe. Was zählt, ist allein das Ergebnis und genau dafür haben wir auch passende Benchmarks.

Smart Access Memory (SAM)

AMD zeigte auf der Präsentation der neuen Radeon-Karten bereits SAM, also Smart Access Memory – ein Feature, das ich heute zusätzlich auch zu den normalen Benchmarks aktiviert habe, womit auch ein direkter Vergleich möglich wird. Doch eigentlich ist SAM nicht Neuers, nur verbal schöner verpackt. Dahinter verbirgt sich nämlich nichts anderes als der clevere Umgang mit dem Base Address Register (BAR) und genau dieser Support muss zwingend auch im Unterbau aktiviert sein. Bei moderner AMD-Grafikhardware spielen größenveränderbare PCI-Bars (siehe auch PCI SIG vom 24.0.4.2008) schon länger eine wichtige Rolle, da die eigentlichen PCI BARs normalerweise ja nur auf 256 MB begrenzt sind, während man bei den neuen Radeon Grafikkarten nun bis zu 16 GB VRAM (hier sind es 12 GB) vorfindet.

Die Folge ist, dass nur ein Bruchteil des VRAM für die CPU direkt zugänglich ist, was ohne SAM eine ganze Reihe von Umgehungslösungen im sogenannten Treiber-Stack erfordert. Das kostet natürlich stets Performance und sollte demzufolge vermieden werden. AMD setzt bei SAM also genau dort an. Neu ist das nicht, muss aber sauber im UEFI implementiert und später auch aktiviert werden. Das wiederum geht nur, wenn das System im UEFI Modus läuft und CSM/Legacy deaktiviert sind.

CSM steht dabei für das Compatibility Support Module. Das Compatibility Support Module gibt es ausschließlich unter UEFI und es sorgt dafür, dass ältere Hardware und Software auch mit UEFI funktioniert. Das CSM ist immer dann hilfreich, wenn nicht alle Hardware-Komponenten zu UEFI kompatibel sind. Einige ältere Betriebssysteme sowie die 32-Bit-Versionen von Windows lassen sich auch nicht auf UEFI-Hardware installieren. Genau diese Kompatibilitätseinstellung verhindert jedoch die saubere und für die neuen AMD-Komponenten benötigte Windows-Variante oft schon bei der Installation.

Zunächst muss man im BIOS nachsehen, ob UEFI oder CSM/Legacy aktiv ist und falls nicht, diesen Schritt unbedingt machen. Erst dann kann man die größenveränderbaren PCI-BARs überhaupt aktivieren und nutzen, doch Stopp – bootet Euer Windows dann überhaupt noch? Wie man einen (älteren) Datenträger von MBR zu GPT konvertiert, damit er unter UEFI sauber erkannt wird, könnte Ihr unter anderem auch im Forum nachlesen, falls es diesbezüglich Fragen gibt, das führt hier jetzt zu weit.
 
Fakt ist, dass AMD hier die Hürden für die Nutzung von SAM recht hoch anlegt und das bisher auch nur spärlich kommuniziert hat. Man setzt für die echte, rein Hardware-basierte Lösung eine aktuelle Zen3-CPU voraus, dazu ein B550- oder X570-Motherboard samt aktualisiertem BIOS. Das mit dem UEFI ist dann wiederum eine kleine, aber ungemein wichtige Randnotiz. Man sollte auch anmerken, dass NVIDIA und Intel bereits eigene, Firmware-basierte Lösungen nutzen bzw. in Zukunft dies noch erweitern wollen. Einer legt vor, die anderen ziehen nach, wobei man es längst hätte tun können.
 

 

Kommentar

Lade neue Kommentare

v
vonXanten

Urgestein

799 Kommentare 334 Likes

Interessanter Spekulatius ;)
Hoffentlich nutzt AMD nicht die Brechstange, wäre schade um eine doch recht Effiziente Karte, welche evtl. einen sehr leisen Kühler verpasst bekommt.

Antwort Gefällt mir

c
com1

Mitglied

11 Kommentare 3 Likes

Nette Vorschau auf eine effiziente Karte.

Ich denke aber, dass damit keine AAA Titel gezockt werden. Eher denn eSport oder WoW, WoT… wo jetzt noch 1050ti, 1060, RX 560… eingesetzt werden.
Da sollte auch genügend Leistung für mehr als FHD übrig sein.

Antwort 1 Like

RevAngel

Veteran

120 Kommentare 87 Likes

Seit ich mir meine 1650er von NVidia (für 170€) geholt habe ist keine vergleichbare Grafikkarte mehr heraus gekommen, die ohne zusätzlichen Stromanschluss auskommt. Klar, der Markt hat durch Verknappung die Preise außerdem stark angehoben. Trotzdem mag ich mein Stromspar-Spiele-PC, der vernünftige Performance in 2560x1080p bei 90 bis 140 W Komplettverbrauch (undervolted AMD 3600 ohne BoostPerformanceOverride, Package power 45W, TDP 35W) abliefert. Nur das seit April 2019 keine Grafikkarte mehr auf dem Markt erschienen ist, die ohne zusätzlichen Stromanschluss auskommt finde ich schon irgendwie schade. 7nm sollte für diesen Marktsektor ja eigentlich eine nette Performance liefern, Nur gibt es da bisher keine Hardware. Bin ich der Einzige der sich gerne ein leises, effizientes System zum Spielen zusammenbaut?

Antwort 3 Likes

P
Phelan

Veteran

189 Kommentare 171 Likes

Die "E-Sports" Karte ist Navi 24 alias 6500(XT).

Warum sollte eine 6600 nicht für AAA Titel reichen speziell in FHD !? Dafür ginbt es die Details-Einstellungen.
Mein Bruder hat auf CP2077 auf einer 1060 in 2560x1440 gespielt und die ist deutlich langsamer.
Klar auf geringen Details und mit 30FPS aber spielbar*. Im Prinzip hat sogar der Skylake i5 mehr limitiert das die Grafikkarte.

*viele Gelegenheitspieler definieren das so: Spiel startet und läuft möglichst ohne Abstürze. Und 30FPS kennen sie von den Konsolen.

Antwort Gefällt mir

P
Phelan

Veteran

189 Kommentare 171 Likes

Nö. Mein kompletter Gaming-PC mit 300W Netzteil liegt bei ~220W unter Vollast an der Steckdose, + 25W für den Monitor.
i5 4690K LV mit 70W TPD und eine 1070 ULV@0,7V@1,4Ghz mit 80W TPD an einem Eizo EV2736W mit 2560x1440.
Das ganze ist komplett passiv und damit lautlos gekühlt, unter diesen Ziel muss sich alles ander unterordnen.

Aber gerade im Sommer finde ich es auch sehr angenehm dar der PC das Zimmer nicht so aufheizt.

PS: die GRafikkarte würde ich aber eher bei 100-120W im Sweetspot (0,9V@1,9hz) betreiben wollen, das schaft aber die verbaute Passivkühlung nicht.

Wenn ich mir jetzt ein neuen Rechner kaufen (müsste) würde es sowas werden wie:
ein 5600/5800x im 45W Setting was ja dann immernoch über 60W sind, und einer 6800 im ULV Setting mit <150W.

Antwort 5 Likes

Alexander Brose

Moderator

815 Kommentare 565 Likes

Klasse Artikel!

Wundert mich, dass sonst noch keiner auf die Idee gekommen ist. Der Igor ist schon ein 🦊

Grüße!

Antwort 1 Like

o
odd

Mitglied

29 Kommentare 10 Likes

@Igor
danke für den Test
Nur schade dass du für die Aufrüster keine 5600XT oder entsprechendes Gegenstück von Nvidia im Testpacour mit drinnen hast.
Ansonsten klasse gemacht mit Anpassungen von voraussichtliche Frequenzen und Powerbudget.
Im Vergleich zur 3060 ist sie meist schwächer und in WQHD dann auf jeden Fall. Zuzüglich der 50% mehr Speicher bei Nvidia kommt nur ein Preis unter 300€ in Frage, da hilft auch keine noch so gute Effizenz.
(y)

Antwort Gefällt mir

Alkbert

Urgestein

926 Kommentare 701 Likes

Leider fehlt im Test die 2060, die ja doch in vielen aktuellen Systemen drinsteckt, allein schon deshalb, weil Nvidia nochmals eine Charge in diesem Jahr aufgelegt hatte.

Antwort 1 Like

Epistolarius

Mitglied

33 Kommentare 5 Likes

Als ob eine Karte im "Budget"-Segment mit Performance knapp unter einer 5700XT nicht ausreichend wäre? Und wer hat denn einen 1440/2160p Monitor aber muss dann bei der GPU knausern?

Die Karte ist immer noch schneller als das, was der Großteil der Spieler im PC hat und mehr als ausreichend für die meisten Spiele...

Antwort Gefällt mir

o
odd

Mitglied

29 Kommentare 10 Likes

Für die meisten langt die Performance. Aber das muss auch für den Preis gelten.
Bei vielen ist bei 250 € Schluss.

Antwort Gefällt mir

S
Schakar

Veteran

177 Kommentare 90 Likes

Erfreulich: Der Verbrauch und die gebotene Leistung.
Unerfreulich: Der Preis.

130 bzw 160 Watt sind sehr gut für Katen der x600 bzw x060 Reihen und da, wo ich sie mir Wünsche. Die Leistung ist halt Mittelklasse entsprechend und Gleichstand mit NVidia. Find ich gut.
Wobei die Watt/Frame schon nicht mehr so gut dar stehen. Warum auch immer.

Der Preis ist aber absolut überzogen!
180-200,-€ für die 6600 und 200-250,-€ für die 6600XT wären maximal angemessen! +50,- für jeweilige OC Varianten dann noch.

Antwort 2 Likes

D
Denniss

Urgestein

1,495 Kommentare 540 Likes

Bitte mal mit dieser Preisvorstellung an Nvidia herantreten bezüglich 3060 aber nicht über das schallende Gelächter wundern

Antwort 1 Like

v
vonXanten

Urgestein

799 Kommentare 334 Likes

Im Moment bist selbst bei den alten 16xx Karten bei locker über 200€, da wird das nichts mit den neuen Karten in den Preisregionen.

Für die Modelle mit der 6 drin wäre das die richtige Region, aber ich denke davon können wir vorläufig nur von träumen. Hoffen wir das die GPUs noch eine Weile halten die wir verbaut haben...

Antwort 1 Like

Alkbert

Urgestein

926 Kommentare 701 Likes

Im momentanen Preisgefüge sollte Intel mit der Xe - Serie im dedizierten Bereich mal Gas geben, es gäbe keinen besseren Moment als jetzt um einen Fuß in den Markt zu bekommen.

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung