Grafikkarten Testberichte VGA

Sapphire Radeon RX 6950 XT Nitro+ Pure im Test – Heißer Feger als weiße Schönheit mit zurückhaltendem Charakter

Nach den bereits ausführlich getesteten neuen AMD-Karten im unlängst erschienenen Launchartikel hat nun auch die Sapphire Radeon RX 6950 XT Nitro+ Pure als weitere Boardpartnerkarte den weiten Weg zu mir ins Labor gefunden. Die anhaltende Nichtverfügbarkeit dieser bestimmter Grafikkarten für die breite Masse ist schade und umso ärgerlicher, als dass es sich bei diesen Produkten um wirklich gute und konkurrenzfähige Grafikkarten handelt, die es verdient hätten, auch die breite Masse der Kaufwilligen zu beglücken. Und so teste ich heute ein Produkt, das sich von der breiten Masse wohltuend abhebt und leider noch in der Lieferung nach Deutschland feststeckt.

 

Mit der (Achtung! Offiziell vorgeschriebener Name laut AMDs Nomenklatur) „NITRO+ AMD Radeon™ RX 6950 XT PURE Gaming Graphics Card with 16GB GDDR6, AMD RDNA™ 2“, die ich im Artikel der Einfachheit halber wieder Sapphire RX 6950 XT Nitro+ Pure nennen werde, da sonst die Charts und Legenden explodieren würden, liegt hier ein durchaus interessantes RDNA2-Exemplar bereit, bei dem man schon zweimal (oder dreimal) hinhören muss, um es zu hören. Und Sapphire hat den Werkstakt nicht allzu hoch angesetzt und lässt damit sogar viel Raum für eigene OC-Experimente. Dass dies geht, werde ich noch in einem Wasserkühlungsartikel zeigen.

Diese Grafikkarte kommt, wie alle RX 6000 Modelle, mit dem neuen Videocodec AV1 zurecht, sie unterstützen erstmals auch DirectX 12 Ultimate und damit eben auch DirectX Raytracing (DXR). Mit AMD FidelityFX bieten sie zudem ein Feature, das Entwicklern zudem mehr Spielraum bei der Auswahl der Effekte ermöglichen soll. Ebenfalls dabei ist Variable Rate Shading (VRS), was immens Rechenleistung sparen kann, wenn Bildbereiche, die ohnehin nicht im Auge des Spielers liegen, in der Darstellungsqualität smart reduziert werden. Soviel zum Feature-Set aller neuen Radeon-Karten.

Mit einer UVP von 1399 Euro hat man einen gewissen Aufschlag generiert, den man akzeptieren kann oder nicht. Das muss das jeder mit sich selbst ausmachen. Schneewittchen und Einhorn-Feeling sind aber bereits mit inkludiert. Immerhin, das ist ja auch schon mal was.

Optik und Haptik

Die Sapphire RX 6950 XT Nitro+ Pure wiegt 1571 Gramm und ist damit natürlich schwerer als die Referenzkarte der RX 6900XT, dafür aber etwas leichter als die MSI-Karte aus dem Launchartikel. Sie ist mit ihren satten 32,5 cm auch länger, stattliche 13 cm hoch (Einbauhöhe ab PEG) und dazu brachiale 6.4 cm dick (3.5-Slot-Design), wobei noch eine Backplate und das PCB mit insgesamt vier weiteren Millimetern dazukommen.

Der weiße Korpus ist aus Leichtmetall, der Sapphire-Schriftzug und das Leuchtband auf der Oberseite sind LED-beleuchtet, die Backplate ziert noch ein beleuchtetes Logo. Ansonsten ist alles schön in Leichtmetall statt Kunststoff gehalten, was haptisch jede Menge hermacht.

Versorgt wird der grafische Ziegelstein samt Illumination über zwei standesübliche 8-Pin-Buchsen und eine 6-Bin-Buchse, also alles wie bekannt und gehabt. Wir sehen hier auch die vertikale Ausrichtung der Kühllamellen und die Platinenverstärkung in Form einer Backplate und eines massiven Rahmens. Doch dazu beim Teardown gleich mehr.

Die Slot-Blende ist geschlossen, trägt 1x HDMI 2.1 und drei aktuelle DP-Anschlüsse. Die USB Type C Buchse fehlt hingegen. Mehr zum Aufbau, dem Kühler und der Bestückung dann auch noch auf der nächsten Seite beim Teardown.

Technik

Mit den 80 Compute Units (CU) besitzt die Karte insgesamt 5120 Shader. Während der Basistakt mit 2162 MHz angegeben wird, liegt der Boost-Takt beim Silent BIOS bei 2368 MHz und beim Performance BIOS bei 2435 MHz, was auch erreicht wird. Karte setzet auf 16 GB GDDR6 mit 18 Gbps, die sich aus jeweils 8 Modulen mit 2 GB Größe ergeben. Dazu gehört auch das 256-Bit Speicherinterface und der 128 MB große Infinity Cache, der das Bandbreitenproblem lösen soll. Die Karte verfügt somit über ein umschaltbares Dual-BIOS, was schön ist. Bei Mittelstellung des BIOS-DIP-Schalters lässt sich mit der TriXX-Software von Sapphire nahtlos und direkt per Software eine Umschaltung on-the-fly lösen.

 

Im BIOS sind noch weitere Daten abweichend, so zum Beispiel die TGP, also die maximale Power für GPU, SoC und Speicher. Die Performance-Version bietet bis zu 325 Watt TGP statt 303.

 

Raytracing / DXR

Spätestens seit der Präsentation der neuen Radeon-Karten ist klar, dass auch AMD Raytracing unterstützen wird. Hier geht man einen zu NVIDIA deutlich abweichenden Weg und implementiert einen sogenannten „Ray Accelerator“ pro Compute Unit (CU). Da die Radeon RX 6800 insgesamt 72 CUs besitzt, ergeben sich somit auch 72 solcher Beschleuniger für die Radeon RX 6800XT, bei der kleineren Radeon RX 6800 sind es noch 60. Eine GeForce RTX 3080 kommt auf 68 RT Cores, also nominell erst einmal weniger. Beim Vergleich der kleineren Karten steht es dann 62 für die RX 6800 und 46 für die GeForce RTX 3070. Allerdings sind die RT-Cores anders organisiert und man wird abwarten müssen, was hier Menge gegen Spezialisierung ausrichten kann. Es ist am Ende also erst einmal ein Äpfel und Birnen Vergleich.

Doch was hat sich AMD hier ausgedacht? Jeder dieser Beschleuniger ist erst einmal in der Lage, gleichzeitig bis zu 4 Strahl-/Box-Schnittpunkte oder einen einzigen Strahl-/Dreieckschnitt pro Takt zu berechnen. So berechnet man die Schnittpunkte der Strahlen mit der Szenengeometrie (analog zur Bounding Volume Hierarchy), sortiert sie zunächst vor und gibt diese Informationen dann an die Shader zur weiteren Bearbeitung innerhalb der Szene zurück bzw. gibt das finale Shading-Resultat aus. NVIDIAs RT-Cores scheinen da allerdings deutlich komplexer vorzugehen, wie ich es beim Turing-Launch bereits ausführlich erläutert habe. Was zählt, ist allein das Ergebnis und genau dafür haben wir auch passende Benchmarks.

Smart Access Memory (SAM)

AMD zeigte auf der Präsentation der neuen Radeon-Karten bereits SAM, also Smart Access Memory – ein Feature, das ich heute zusätzlich auch zu den normalen Benchmarks aktiviert habe, womit auch ein direkter Vergleich möglich wird. Doch eigentlich ist SAM nicht Neuers, nur verbal schöner verpackt. Dahinter verbirgt sich nämlich nichts anderes als der clevere Umgang mit dem Base Address Register (BAR) und genau dieser Support muss zwingend auch im Unterbau aktiviert sein. Bei moderner AMD-Grafikhardware spielen größenveränderbare PCI-Bars (siehe auch PCI SIG vom 24.0.4.2008) schon länger eine wichtige Rolle, da die eigentlichen PCI BARs normalerweise ja nur auf 256 MB begrenzt sind, während man bei den neuen Radeon Grafikkarten nun bis zu 16 GB VRAM vorfindet.

Die Folge ist, dass nur ein Bruchteil des VRAM für die CPU direkt zugänglich ist, was ohne SAM eine ganze Reihe von Umgehungslösungen im sogenannten Treiber-Stack erfordert. Das kostet natürlich stets Performance und sollte demzufolge vermieden werden. AMD setzt bei SAM also genau dort an. Neu ist das nicht, muss aber sauber im UEFI implementiert und später auch aktiviert werden. Das wiederum geht nur, wenn das System im UEFI Modus läuft und CSM/Legacy deaktiviert sind.

CSM steht dabei für das Compatibility Support Module. Das Compatibility Support Module gibt es ausschließlich unter UEFI und es sorgt dafür, dass ältere Hardware und Software auch mit UEFI funktioniert. Das CSM ist immer dann hilfreich, wenn nicht alle Hardware-Komponenten zu UEFI kompatibel sind. Einige ältere Betriebssysteme sowie die 32-Bit-Versionen von Windows lassen sich auch nicht auf UEFI-Hardware installieren. Genau diese Kompatibilitätseinstellung verhindert jedoch die saubere und für die neuen AMD-Komponenten benötigte Windows-Variante oft schon bei der Installation.

Zunächst muss man im BIOS des Motherboards nachsehen, ob UEFI oder CSM/Legacy aktiv ist und falls nicht, diesen Schritt unbedingt machen. Erst dann kann man die größenveränderbaren PCI-BARs überhaupt aktivieren und nutzen, doch Stopp – bootet Euer Windows dann überhaupt noch? Wie man einen (älteren) Datenträger von MBR zu GPT konvertiert, damit er unter UEFI sauber erkannt wird, könnte Ihr unter anderem auch im Forum nachlesen, falls es diesbezüglich Fragen gibt, das führt hier jetzt zu weit.
 
Fakt ist, dass AMD hier die Hürden für die Nutzung von SAM recht hoch anlegt und das bisher auch nur spärlich kommuniziert hat. Man setzt eine aktuelle Zen3-CPU voraus, dazu ein B550- oder X570-Motherboard samt aktualisiertem BIOS. Das mit dem UEFI ist dann wiederum eine kleine, aber ungemein wichtige Randnotiz. Man sollte auch anmerken, dass NVIDIA und Intel bereits eigene Lösungen angekündigt haben bzw. in Zukunft nutzen wollen. Einer legt vor, die anderen ziehen nach, wobei man es längst hätte tun können. Hat man aber nicht, warum auch immer. Über 12 Jahre Schublade sind reichlich vertane Zeit. Aber lieber spät als nie.
 

Testsystem und Auswertungssoftware

Das Benchmarksystem ist neu und steht jetzt nicht mehr im Labor, sondern wieder im Redaktionsraum. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich NVIDIAs PCAD und eine eigene Entwicklung mit der Software von Powenetics, was den Komfort ungemein erhöht. Die Messung der Leistungsaufnahme und anderer Dinge erfolgt weiterhin im klimatisierten Labor auf einem redundanten und bis ins Detail identischem Testsystem, allerdings dann mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum).

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Kommentar

Lade neue Kommentare

RX480

Urgestein

1,217 Kommentare 611 Likes

Praktisch würde ich als Erstes den Fanstopp deaktivieren, ... damit entfällt dann auch das "kurze" Anspringen auf 1600rpm.
(per MPT lässt sich vermutlich minPWM auf 12% setzen, was ja auch auf dem Desktop erträglich wäre und minimales Coilwine übertönt)

positiv
Finde ich, das die [email protected] im Performance-Mode net ggü. dem SilentMode leidet.
(normalerweise würde Es ja ein mue schlechter werden, um so weiter man vom Sweetspot weg kommt)
und
Das die [email protected] anscheinend ordentlich vom besseren Vram(x) und fclk2050 profitieren.
(x) vermutlich gänge sogar noch bis zu [email protected]; ... ggf. mal 25mV mehr MVDD erf.

btw.
Die "gleichschnelle" 3090 SuprimX kostet derzeit bei MF schlappe 1969€.
Von Daher ist für reine Rastergamer die Pure keine schlechte Wahl.
(interessanterweise ist der avg.Verbrauch beider [email protected] fast identisch und erlaubt nen exakten Vgl., ... gute Wahl von Igor)
ansonsten
Kann man nur hoffen, das die Pure für den Preisaufschlag besser gebinnt ist als die Nitro.
(da gibts leider noch kaum Erfahrungswerte und gar keine Garantien)

@Igor Wallossek
Wie ist denn der ASIC-Wert bei der Pure ?

Antwort 1 Like

Klicke zum Ausklappem
grimm

Urgestein

2,240 Kommentare 1,356 Likes

Ich schließe mich an: im Vergleich zu vergleichbaren Grafikbrettern ist der Preis vertretbar. Meine 6900XT Toxic hat quasi gleichviel gekostet, die mag ich nicht wieder hergeben.

Antwort 2 Likes

ssj3rd

Veteran

130 Kommentare 70 Likes

Keine Raytracing Tests beim Gaming? Weil?
Auch im ursprünglichen Artikel der verlinkt wurde finde ich nichts zu Raytracing.

Antwort Gefällt mir

grimm

Urgestein

2,240 Kommentare 1,356 Likes

"NVIDIAs RT-Cores scheinen da allerdings deutlich komplexer vorzugehen, wie ich es beim Turing-Launch bereits ausführlich erläutert habe. Was zählt, ist allein das Ergebnis und genau dafür haben wir auch passende Benchmarks." - hab auch keine gefunden.

Antwort Gefällt mir

Göran

Veteran

135 Kommentare 52 Likes

Optisch schön und auch sonst gut designed. Aber, versteht nicht mich falsch, im Silent-Modus hat sie nur wenig mehr Leistung als eine 6900XT braucht aber schon bedeutend mehr Energie und im Performance-Modus ist die Leistung signifikant größer aber auch die Energieaufnahme schon in ganz anderen Welten.
Klar könnte man jetzt hergehen und dem Potential für UV argumentieren, aber das hat ja bei der 6900XT im Vergleich auch nicht stattgefunden.
Warum sollte man diese Karte einer 6900XT verziehen ... außer man möchte die maximale Mehrleistung haben und Effizienz ist kein Kriterium ?

Antwort Gefällt mir

Casi030

Urgestein

8,092 Kommentare 1,336 Likes

Weil die Chips noch mal ein klein wenig Effizienter sein sollten bei der 50er.
Klar so sieht man nicht viel davon,aber Optimiert sollten 2,8GHz bei unter 300Watt locker laufen und dann bringt sie doch schon eine ordentliche mehr Leistung on Top.

Antwort Gefällt mir

Igor Wallossek

Format©

7,642 Kommentare 12,805 Likes

Metro ist z.B.mit RT High.

Antwort 2 Likes

A
Arcbound

Mitglied

54 Kommentare 27 Likes

@Igor Wallossek Wäre es möglich, in Zukunft auch die Leistungsaufnahme bei (4k)-Videowiedergabe zu ermitteln? Bzw. würde da evtl auch pro Generation ein Vergleich Nvidia vs. AMD reichen. :unsure:

Antwort 1 Like

grimm

Urgestein

2,240 Kommentare 1,356 Likes

Da reiht sei sich dann bei den "1% Low FPS" konsequent (und sehr knapp) hinter der 3080Ti ein. Das ist ja schonmal ne Ansage dafür, dass AMD angeblich kein RT kann ;)

Antwort 2 Likes

Igor Wallossek

Format©

7,642 Kommentare 12,805 Likes

RT ist halt nicht RT. Man kann es sinnvoll nutzen, oder andere totspielen ;)

Antwort 2 Likes

P
Phelan

Veteran

116 Kommentare 94 Likes

Optisch und bei der Kühlung bekommt die Karte von mir 100% :)
Fast zu schade um sie in einen Gehäuse einzubauen.

400W ist mir trotzdem zu viel. Speziell weil sie eigentlich 325W TPD haben sollte.

Naja, positiv an den 6950XT allgemein ist das man jetzt einen 6900XT für unter 1000€ kaufen kann ;-)

Antwort 1 Like

Casi030

Urgestein

8,092 Kommentare 1,336 Likes

Die Kenner bekommen mit 300Watt mehr Leistung raus.;)

Antwort Gefällt mir

Igor Wallossek

Format©

7,642 Kommentare 12,805 Likes
Casi030

Urgestein

8,092 Kommentare 1,336 Likes

Oder so. ;)
War das jetzt so richtig mit 16AF?!Schon wieder vergessen.....

View image at the forums

Antwort 1 Like

Igor Wallossek

Format©

7,642 Kommentare 12,805 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung