Grafikkarten Testberichte VGA

Sapphire RX 6600XT Pulse 8GB im Test – Sparsamer kann auch sinnvoller sein

Platinenanalyse und Spannungsversorgung

Bei der Platine hat man etwas gespart, sie ist deutlich einfacher gehalten als die der RX 6800 und RX 6700 XT. Gut entzerrte Hotspots sind allerdings auch diesmal ein Pluspunkt, auch wenn man auf die sehr ordentliche Eingangsfilterung mit einem richtigen LC-Filter (Tiefpass) verzichtet und nur auf Längsspulen (Drosseln) und Sicherungen setzt. Mit einem 35217 von International Rectifier setzt Sapphire auf einen eher durchschnittlichen PWM-Controller, der die 6 Phasen für VDDC_GFX der RX 6600 XT ansteuert und die beiden Phasen für VDD_SOC generiert.

Die eher günstigen DrMOS NCP302155 von ON Semi (55 Ampere max.) bieten zwar keine echte MOSFET DCR, jedoch zumindest eine Temperatur-Schutzschaltung und einen Auslese-Ausgang. Man nutzt sie übrigens für alle Regler bis auf SoC und VDDCI, da kommen etwas kleinere NCP302145 mit 45A zu Einsatz. Der Spannungsspielraum bei VDDC_GFX liegt zwischen 0.7 und maximal 1.2 Volt, wobei der Maximalwert ohne spezielle Firm- und Software vom Endanwender eh nie überschritten werden kann. Das kann man erst einmal so lassen, zumal der DrMOS NCP302155, also die Kombination aus MOSFET Treiber, High- und Low-Side MOSFET in einem Package, auch recht effizient und kühl zu Werke geht.

Parallel dazu arbeitet noch ein NCP 81022N von On Semi für die Erzeugung anderen Teilspannungen wie VDD_MEM und eine Phase für VDDCI_MEM, so dass sich in der Summe insgesamt 10 Phasen für die verschiedenen Hauptspannungen ergeben, die allesamt mit den gleichen DrMOS bestückt sind.

Zur Eingangsglättung nutzt man jeweils eine Spule mit 470 mH für den 8-Pin und den PEG Motherboard-Slot. Außerdem sieht man die vier 2 GB großen GDDR6 Speichermodule mit den 16 Gbps von Samsung. Mehr Aufreger gibt es nicht.

 

Kühler und Demontage

Die Front wird geprägt von den zwei 8,7-cm-Lüfter-Modulen mit jeweils 8 Rotorblättern, die recht leise agieren. Mehr Besonderheiten gibt es von oben erst einmal nicht zu beobachten. Das Auseinandernehmen ist simpel, wenn man ein paar simple Regeln befolgt und ordentliche Schraubendreher besitzt.

Nach dem Abschrauben der oberen Abdeckung über die Backplate und der GPU-Schrauben lassen sich auch der Kühler und die Abdeckung recht einfach entfernen. Man muss nur das Lüfterkabel abziehen. Die sehr soften Pads auf den Speichermodulen und den VRM erledigen Ihren Job, sind aber nicht aus dem obersten Regal und kleben dafür wie die Hölle. Wir sehen insgesamt drei vernickelte 6-mm-Heatpipes aus Kupfer-Komposit-Material, die oberhalb der GPU am Kupfer-Heatsink angebracht wurden. Der Speicher wird über die 2 mm dicken Pads aus dem eher billigen Regalfach gekühlt, die Spannungswandler am Kühler auch.

Rückseitig findet man noch eine Backplate aus Leichtmetall, dazu leider keine Pads hinter den Speichern und den Spannungswandlern für eine passive Kühlfunktion. Schade.

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

296 Kommentare 300 Likes

Wenn's um Radeon Karten von AMD geht gibt's kein weg an Sapphire vorbei. Da gibt's immer gute Versionen anders wie bei Asus...

Antwort 4 Likes

RedF

Urgestein

4,651 Kommentare 2,549 Likes

Das wäre meine Wunschkarte für den Kinder PC.

Antwort 2 Likes

T
Toacon

Veteran

340 Kommentare 133 Likes

Und bei mir wärs der zweit PC :)

Antwort Gefällt mir

arcDaniel

Urgestein

1,569 Kommentare 837 Likes

Bin ech am überlegen eine solche zu kaufen. Habe zwar einen 4K Monitor allerdings kann ich mit Upscaling und leicht reduzierten Details leben. Zudem benötige ich maximal 60fps... sollte doch ok sein. Und der Preis ist zwar sehr teuer, für den aktuellen Markt aber irgendwo ok

Antwort Gefällt mir

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Das gehype um die AMD Karten wird mir ewig ein Rätsel bleiben. Das Ding ist langsamer als eine alte 2070 super/2080 super. No DLSS und RTX testen wir erst gar nicht weil AMD es ja nicht kann. Mit ersterem vollbringt meine alte 2080 super in meinem Zweitrechner am 4k TV mittlerweile wahre Wunder. Bei allem notwendigen Respekt, aber Fähigkeiten von Karten komplett auszublenden verzerrt (positiv formuliert) aus meiner Sicht das Bild.

Antwort Gefällt mir

RX480

Urgestein

1,859 Kommentare 853 Likes

Setz mal bitte Deine olle 2080 SUPER auf 100W und poste mal einen TS-Score.
(das ist für mich schon in Ordnung, wenn Igor net olle Grakas mit angehängtem Kraftwerk z.Vgl. dazunimmt, ...
falls doch für Dich interessant, dann schau Dir mal die minFps bei CB an)

Gurdi@100W kommt mit seiner 6600-Hellhound auf 9,5k= STOCK, wenn Das net effizient ist!? (x)
Bin mal gespannt, wie sein UVing-Guide ausschaut.(hatte wohl am WE noch net genug Zeit)

(x) für Rastergames am HTPC klingt das optimal für mich

@arcDaniel
Wenn das FSR-Tool von Steam mal irgendwann ordentlich funzt, wirds mit dem Scaling auch noch einfacher.
Bzw. verspreche ich mir auch noch von der INTEL-Supersampling -Lösung mit DP4a gute Ergebnisse.
(sollte ja demnächst mal OpenSource werden)

in the meantime, mal ein Schnappschuss von MYST mit RT=ON@FSR mit meiner 6800 am 4k-60Hz-Moni@chill 57fps

Antwort 3 Likes

S
Sternengucker80

Veteran

218 Kommentare 58 Likes

Wäre eine schöne Karte für meinen HTPC. Vielleicht, wenn die Preise mal wieder normal sind.

Antwort Gefällt mir

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Interessiert mich nicht. Ich will spielen in bester Qualität. Unter dem Aspekt wäre eine integrierte Graka Winner of the Year. Ausserdem ging es schwerpunktmäßig um die Unfähigkeit der aktuellen AMD Generation bezüglich RTX und diverser anderer Technologien. Aber so what, wenn denn der Verbrauch und die Effezienz das Maß aller Dinge sind. Das AMD Fans gerne auf den RTX/DLSS Vergleich verzichten ist schon Nachvollziehbar.

Antwort Gefällt mir

RX480

Urgestein

1,859 Kommentare 853 Likes

Du bist anscheinend im falschen Thread!? ...(x)

Mach doch einen super duper olle Grakas -Thread auf.
Da bekommste sicher von Kraftwerksbesitzern ordentlich Klicks.

(x) Igor verfasst nen Review zu "Weniger ist Mehr"
und
Da passen dumb Comments von 300W-Usern gar net in die moderne Zeit! ... meint GRETA

btw.
Nach m.E. eeh keine gute Wahl, ne 2080 Super für 4k anzuschaffen, weil Das ne 2080Ti viel effektiver kann.
Da war wohl der Geldbeutel net prall genug?

Antwort 2 Likes

RedF

Urgestein

4,651 Kommentare 2,549 Likes

Davon mal abgesehen steigt man ja nicht von einer 2080 auf eine 6600XT oder eine 3060 um.

Antwort 4 Likes

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Nö, bin ich nicht. Offenkundig hast du Probleme mit einem objektiven Vergleich aller Möglichkeiten, die die Karten bieten. Wir können aber gerne uns auch auf die aktuelle 3000 Serie beschränken. Da wird es ja noch bitterer.

Antwort Gefällt mir

arcDaniel

Urgestein

1,569 Kommentare 837 Likes

Also ich hatte schon den Finger auf der Bestellung, dann setzte doch die Vernunft ein zu warten bis nächstes Jahr. Wenn ich schon eine Mainstream Plattform aufbaue, möchte ich möglichst aktuelle Hardware und die nächste Gen steht zu kurz vor der Tür.

Zum Thema RTX blablabla, klar könnte finde ich dies mega. Es ist aber weit davon entfernt mainstream zu werden und ich habe jetzt noch kein Spiel gesehen wo es einen echten Unterschieb im Spielerlebnis macht.

Durch Steam Deck sehe ich zudem die Unterstützung von AMD unter Linux deutlisch besser. Hoffe mein neues Gaming System ohne Windows betreiben zu können.

Selbst finde ich jedenfalls die 6600XT interessant und spannend.

Antwort 1 Like

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Darum ging es ja gar nicht. Es geht darum, das hier ein Bild gezeichnet wird, wo entscheidende Leistungsmerkmale komplett ausgeblendet werden über die selbst die vorletzte Version eines Wettbewerbers verfügt. Ich bin beileibe kein NVDIA Fan, aber ich find es nicht wirklich ok.

Antwort Gefällt mir

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Also wenn du dir die Anzahl der Spiele anschaust, gibt es eine Menge und es werden immer mehr. Ich finde ebenfalls das dies schon einen erwähnenswerten Unterschied macht. Aber es geht doch gar nicht um mich oder um dich oder um unsere Meinung. Es geht um Leute, die sich vielleich objektiv informieren wollen. Und genau an diesem Punkt fehlt die Information. Ich finde das Schade und ehrlicherweise ziemlich einseitig. Wie einige offenkundig die Effizienz interessiert, interessiert andere DLSS oder RTX.

Ich will nicht wissen was hier los wäre, würde man sagen:"Ja, sorry NVIDIA kann leider nicht effiezent, das nehmen wir mal aus der Betrachtung raus:" Ist doch aberwitzig.

Antwort Gefällt mir

RedF

Urgestein

4,651 Kommentare 2,549 Likes

Nun ich kann eine neue graka kaufen die 100€ weniger als eine mit rtx kostet ( nein wir reden von Straßen Preisen ) und in vielen Spielen schneller ist.

Antwort 1 Like

RX480

Urgestein

1,859 Kommentare 853 Likes

Mal abgesehen davon, das ich arcDaniel Recht gebe bzgl. Aufwand/Nutzen von RT in Watt gibts doch auch in AMD-Games gescheite
RT-Anwendungen. Dort werden die Shadows und das AmbientOcclusion mit RT zu nem vernünftigen Preis/Aufwand besser dargestellt.
und
Das funzt auch mit der 6600 in FHD, wie beworben.

Das grüne Games overboardend mit RT@wave64 arbeiten und net gut mit AMD-Grakas können ist wohl Sooo gewollt.
(würde in den Games einfach net alle RT-Effekte aktivieren, dann läufts auch halbwegs normal@AMD, ....solange die Studios net Willens
sind/sein dürfen RT@wave32 für AMD passend zu machen per Patch)

Bzgl. Effekte auswählen können, mal ein Bsp. vom UE-Showcase mit meiner 6800.
oder
Mal Riftbreaker@FSR, das könnte in Zukunft ne feine Sache werden.

btw.
Ne olle 2080Ti ist auch Heute noch in 4k-RT sinnvoller als ne schwachbrüstige 3070.(Vram!?)
Man wird zunehmend den Texturpool in modernen Games reduzieren müssen mit nuuur 8GB !!!
Wer ne 2080s@8GB für 4k nutzt kann eeh net maxQuality, also nur dummes Gelaber.
und
Man vgl. mal die 375€ ner 6600XT mit dem Launchpreis 739€ der komischen 2080 SuperFE-Krücke!?

Antwort Gefällt mir

Klicke zum Ausklappem
Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Stimmt, solange wie das Spiel weder DLSS unterstützt und du auf RTX verzichtest. Aber damit du genau weiss was du tust, gehört diese Information dazu. Wenn du diese Informationen hast, kannst du dich ja immer noch für AMD entscheiden. Und Informationen sind meinem Selbstverständnis nach die Essenz von einem Test. Ich hab ja nicht behauptet, das man sich danach nicht trotzdem ( je nach Schwerpunkt halt ) für eine AMD entscheiden kann.

Antwort Gefällt mir

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Weniger ist bei Tests niemals mehr und Greta ist nicht so mein Thema.

Da das Thema dich aber offenkundig so emotionalisiert, das du glaubst grob Persönlich werden zu müssen.

Mach dir um meinem Geldbeutel keine Sorgen. Im Erstrechner läuft eine wassergekühlte 3090er und betreibt meine 4 Monitore unterstützt von eine Rotel Verstärker mit 2 Wharfdale Linton Lautsprecher und bei Bedarf mit einem Hifiman Kopfhörer. Die 2080 super war eine reine Übergangskarte und von Anfang für den Zweitrechner gedacht, für meine 3D Brille. An der Oculus Rift reicht sie noch eine Weile.

Antwort Gefällt mir

RX480

Urgestein

1,859 Kommentare 853 Likes

Wenn Du ein 3090-Besitzer bist, warum gibst Du dann Deinen Senf in einer gaaaanz anderen Kategorie ab?
... muss ich net verstehen

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung