GPUs Graphics Reviews

Sapphire RX 6600XT Pulse 8GB Review – More economical can also be more reasonable

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Board analysis and power supply

They have saved a bit on the circuit board, which is much simpler than that of the RX 6800 and RX 6700 XT. However, well equalized hotspots are also a plus point this time, even if the very decent input filtering with a real LC filter (low-pass) is omitted and only longitudinal coils (chokes) and fuses are used. With a 35217 from International Rectifier Sapphire uses a rather average PWM controller, which drives the 6 phases for VDDC_GFX of the RX 6600 XT and generates the two phases for VDD_SOC.

ON Semi’s rather inexpensive DrMOS NCP302155 (55 amps max.) doesn’t offer true MOSFET DCR, but it does at least offer temperature protection circuitry and a readout output. By the way, they are used for all controllers except SoC and VDDCI, where slightly smaller NCP302145 with 45A are used. The voltage range for VDDC_GFX is between 0.7 and maximum 1.2 Volt, whereby the maximum value can never be exceeded by the end user without special firmware and software. This can be left as it is, especially since the DrMOS NCP302155, i.e. the combination of MOSFET driver, high-side and low-side MOSFET in one package, is also quite efficient and cool to work with.

In parallel, an NCP 81022N from On Semi operates for the generation of other partial voltages such as VDD_MEM and a phase for VDDCI_MEM, resulting in a total of 10 phases for the various main voltages, all of which are equipped with the same DrMOS.

For input smoothing one coil each with 470 mH is used for the 8-pin and the PEG motherboard slot. You can also see the four 2GB GDDR6 memory modules with Samsung’s 16Gbps. That’s about as exciting as it gets.

 

Cooler and disassembly

The front is characterized by the two 8.7 cm fan modules with 8 rotor blades each, which act quite quietly. There are no more special features to observe from above for the time being. Disassembly is easy if you follow a few simple rules and have decent screwdrivers.

After unscrewing the top cover over the backplate and the GPU screws, the cooler and cover can also be removed quite easily. You just have to disconnect the fan cable. The very soft pads on the memory modules and the VRM do their job, but are not top shelf and stick like hell for it. We see a total of three nickel-plated 6mm heatpipes made of copper composite material attached to the copper heatsink above the GPU. The memory is cooled by the 2 mm thick pads from the rather cheap shelf, the voltage converters at the cooler too.

On the back side you find a backplate made of light metal, unfortunately there are no pads behind the memories and the voltage converters for a passive cooling function. Too bad.

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

297 Kommentare 300 Likes

Wenn's um Radeon Karten von AMD geht gibt's kein weg an Sapphire vorbei. Da gibt's immer gute Versionen anders wie bei Asus...

Antwort 4 Likes

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Das wäre meine Wunschkarte für den Kinder PC.

Antwort 2 Likes

T
Toacon

Veteran

340 Kommentare 133 Likes

Und bei mir wärs der zweit PC :)

Antwort Gefällt mir

arcDaniel

Urgestein

1,593 Kommentare 855 Likes

Bin ech am überlegen eine solche zu kaufen. Habe zwar einen 4K Monitor allerdings kann ich mit Upscaling und leicht reduzierten Details leben. Zudem benötige ich maximal 60fps... sollte doch ok sein. Und der Preis ist zwar sehr teuer, für den aktuellen Markt aber irgendwo ok

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Das gehype um die AMD Karten wird mir ewig ein Rätsel bleiben. Das Ding ist langsamer als eine alte 2070 super/2080 super. No DLSS und RTX testen wir erst gar nicht weil AMD es ja nicht kann. Mit ersterem vollbringt meine alte 2080 super in meinem Zweitrechner am 4k TV mittlerweile wahre Wunder. Bei allem notwendigen Respekt, aber Fähigkeiten von Karten komplett auszublenden verzerrt (positiv formuliert) aus meiner Sicht das Bild.

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Setz mal bitte Deine olle 2080 SUPER auf 100W und poste mal einen TS-Score.
(das ist für mich schon in Ordnung, wenn Igor net olle Grakas mit angehängtem Kraftwerk z.Vgl. dazunimmt, ...
falls doch für Dich interessant, dann schau Dir mal die minFps bei CB an)

Gurdi@100W kommt mit seiner 6600-Hellhound auf 9,5k= STOCK, wenn Das net effizient ist!? (x)
Bin mal gespannt, wie sein UVing-Guide ausschaut.(hatte wohl am WE noch net genug Zeit)

(x) für Rastergames am HTPC klingt das optimal für mich

@arcDaniel
Wenn das FSR-Tool von Steam mal irgendwann ordentlich funzt, wirds mit dem Scaling auch noch einfacher.
Bzw. verspreche ich mir auch noch von der INTEL-Supersampling -Lösung mit DP4a gute Ergebnisse.
(sollte ja demnächst mal OpenSource werden)

in the meantime, mal ein Schnappschuss von MYST mit RT=ON@FSR mit meiner 6800 am 4k-60Hz-Moni@chill 57fps

Antwort 3 Likes

S
Sternengucker80

Veteran

223 Kommentare 59 Likes

Wäre eine schöne Karte für meinen HTPC. Vielleicht, wenn die Preise mal wieder normal sind.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Interessiert mich nicht. Ich will spielen in bester Qualität. Unter dem Aspekt wäre eine integrierte Graka Winner of the Year. Ausserdem ging es schwerpunktmäßig um die Unfähigkeit der aktuellen AMD Generation bezüglich RTX und diverser anderer Technologien. Aber so what, wenn denn der Verbrauch und die Effezienz das Maß aller Dinge sind. Das AMD Fans gerne auf den RTX/DLSS Vergleich verzichten ist schon Nachvollziehbar.

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Du bist anscheinend im falschen Thread!? ...(x)

Mach doch einen super duper olle Grakas -Thread auf.
Da bekommste sicher von Kraftwerksbesitzern ordentlich Klicks.

(x) Igor verfasst nen Review zu "Weniger ist Mehr"
und
Da passen dumb Comments von 300W-Usern gar net in die moderne Zeit! ... meint GRETA

btw.
Nach m.E. eeh keine gute Wahl, ne 2080 Super für 4k anzuschaffen, weil Das ne 2080Ti viel effektiver kann.
Da war wohl der Geldbeutel net prall genug?

Antwort 2 Likes

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Davon mal abgesehen steigt man ja nicht von einer 2080 auf eine 6600XT oder eine 3060 um.

Antwort 4 Likes

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Nö, bin ich nicht. Offenkundig hast du Probleme mit einem objektiven Vergleich aller Möglichkeiten, die die Karten bieten. Wir können aber gerne uns auch auf die aktuelle 3000 Serie beschränken. Da wird es ja noch bitterer.

Antwort Gefällt mir

arcDaniel

Urgestein

1,593 Kommentare 855 Likes

Also ich hatte schon den Finger auf der Bestellung, dann setzte doch die Vernunft ein zu warten bis nächstes Jahr. Wenn ich schon eine Mainstream Plattform aufbaue, möchte ich möglichst aktuelle Hardware und die nächste Gen steht zu kurz vor der Tür.

Zum Thema RTX blablabla, klar könnte finde ich dies mega. Es ist aber weit davon entfernt mainstream zu werden und ich habe jetzt noch kein Spiel gesehen wo es einen echten Unterschieb im Spielerlebnis macht.

Durch Steam Deck sehe ich zudem die Unterstützung von AMD unter Linux deutlisch besser. Hoffe mein neues Gaming System ohne Windows betreiben zu können.

Selbst finde ich jedenfalls die 6600XT interessant und spannend.

Antwort 1 Like

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Darum ging es ja gar nicht. Es geht darum, das hier ein Bild gezeichnet wird, wo entscheidende Leistungsmerkmale komplett ausgeblendet werden über die selbst die vorletzte Version eines Wettbewerbers verfügt. Ich bin beileibe kein NVDIA Fan, aber ich find es nicht wirklich ok.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Also wenn du dir die Anzahl der Spiele anschaust, gibt es eine Menge und es werden immer mehr. Ich finde ebenfalls das dies schon einen erwähnenswerten Unterschied macht. Aber es geht doch gar nicht um mich oder um dich oder um unsere Meinung. Es geht um Leute, die sich vielleich objektiv informieren wollen. Und genau an diesem Punkt fehlt die Information. Ich finde das Schade und ehrlicherweise ziemlich einseitig. Wie einige offenkundig die Effizienz interessiert, interessiert andere DLSS oder RTX.

Ich will nicht wissen was hier los wäre, würde man sagen:"Ja, sorry NVIDIA kann leider nicht effiezent, das nehmen wir mal aus der Betrachtung raus:" Ist doch aberwitzig.

Antwort Gefällt mir

RedF

Urgestein

4,662 Kommentare 2,552 Likes

Nun ich kann eine neue graka kaufen die 100€ weniger als eine mit rtx kostet ( nein wir reden von Straßen Preisen ) und in vielen Spielen schneller ist.

Antwort 1 Like

RX480

Urgestein

1,871 Kommentare 864 Likes

Mal abgesehen davon, das ich arcDaniel Recht gebe bzgl. Aufwand/Nutzen von RT in Watt gibts doch auch in AMD-Games gescheite
RT-Anwendungen. Dort werden die Shadows und das AmbientOcclusion mit RT zu nem vernünftigen Preis/Aufwand besser dargestellt.
und
Das funzt auch mit der 6600 in FHD, wie beworben.

Das grüne Games overboardend mit RT@wave64 arbeiten und net gut mit AMD-Grakas können ist wohl Sooo gewollt.
(würde in den Games einfach net alle RT-Effekte aktivieren, dann läufts auch halbwegs normal@AMD, ....solange die Studios net Willens
sind/sein dürfen RT@wave32 für AMD passend zu machen per Patch)

Bzgl. Effekte auswählen können, mal ein Bsp. vom UE-Showcase mit meiner 6800.
oder
Mal Riftbreaker@FSR, das könnte in Zukunft ne feine Sache werden.

btw.
Ne olle 2080Ti ist auch Heute noch in 4k-RT sinnvoller als ne schwachbrüstige 3070.(Vram!?)
Man wird zunehmend den Texturpool in modernen Games reduzieren müssen mit nuuur 8GB !!!
Wer ne 2080s@8GB für 4k nutzt kann eeh net maxQuality, also nur dummes Gelaber.
und
Man vgl. mal die 375€ ner 6600XT mit dem Launchpreis 739€ der komischen 2080 SuperFE-Krücke!?

Antwort Gefällt mir

Klicke zum Ausklappem
Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Stimmt, solange wie das Spiel weder DLSS unterstützt und du auf RTX verzichtest. Aber damit du genau weiss was du tust, gehört diese Information dazu. Wenn du diese Informationen hast, kannst du dich ja immer noch für AMD entscheiden. Und Informationen sind meinem Selbstverständnis nach die Essenz von einem Test. Ich hab ja nicht behauptet, das man sich danach nicht trotzdem ( je nach Schwerpunkt halt ) für eine AMD entscheiden kann.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Weniger ist bei Tests niemals mehr und Greta ist nicht so mein Thema.

Da das Thema dich aber offenkundig so emotionalisiert, das du glaubst grob Persönlich werden zu müssen.

Mach dir um meinem Geldbeutel keine Sorgen. Im Erstrechner läuft eine wassergekühlte 3090er und betreibt meine 4 Monitore unterstützt von eine Rotel Verstärker mit 2 Wharfdale Linton Lautsprecher und bei Bedarf mit einem Hifiman Kopfhörer. Die 2080 super war eine reine Übergangskarte und von Anfang für den Zweitrechner gedacht, für meine 3D Brille. An der Oculus Rift reicht sie noch eine Weile.

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Wenn Du ein 3090-Besitzer bist, warum gibst Du dann Deinen Senf in einer gaaaanz anderen Kategorie ab?
... muss ich net verstehen

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung