PowerColor RX 7800XT Hellhound Spectral White im Test – Sehr speziell, sehr weiß und sehr leise

Prinzipiell ist das halt ziemlicher Mist, wenn ein Game speziell auf eine CPU oder GPU hin optimiert wurde und möglichersweise sogar versucht wurde, den Wettbewerber zusätzlich auch noch alt aussehen zu lassen. Auf so ein Niveau sollte sich eigentlich kein Hersteller begeben, egal wie er heisst. Leider scheinen sich irgendwie alle an diesem Spiel zu beteiligen. Was es aber nicht besser macht.
Das ist aber leider nicht erst seit Gestern so und wird sich auch nie ändern.
 
Ausserdem ist eh NIX FIX. Die Karten werden doch am Ende mit jedem Update, egal ob FSR oder DLSS, sowie jeder weiteren Softwareentwicklung neu gemischt. Dazu kommt auch noch, das keiner weiss, welches Upscaling am Ende auf dem Markt das Rennen macht.
Solange Nvidia DLSS nicht auf den Konsolen und anderen GPUs anbietet, bleibt es wohl weiterhin bei FSR, das kann und darf überall laufen (von XBox über PC mit Intel, Nvidia, AMD - bis hin zur Switch). Die Spieler mit DLSS3 (nur PC mit 40xx gpu) sind doch eher homeopathisch, DLSS2 ein bisschen mehr.
 
Prinzipiell ist das halt ziemlicher Mist, wenn ein Game speziell auf eine CPU oder GPU hin optimiert wurde und möglichersweise sogar versucht wurde, den Wettbewerber zusätzlich auch noch alt aussehen zu lassen. Auf so ein Niveau sollte sich eigentlich kein Hersteller begeben, egal wie er heisst. Leider scheinen sich irgendwie alle an diesem Spiel zu beteiligen. Was es aber nicht besser macht.
Außer Nvidia fallen auf dem PC nicht viele ein.
Spiele mit Konsolenversion (bis auf Switch) laufen zumindest auf AMD Hardware nicht schlecht, aus offensichtlichen Gründen.
 
Solange Nvidia DLSS nicht auf den Konsolen und anderen GPUs anbietet, bleibt es wohl weiterhin bei FSR, das kann und darf überall laufen (von XBox über PC mit Intel, Nvidia, AMD - bis hin zur Switch). Die Spieler mit DLSS3 (nur PC mit 40xx gpu) sind doch eher homeopathisch, DLSS2 ein bisschen mehr.
Man muss abwarten, wie sich DLSS2 entwickelt. Ich traue mir da keine Prognose zu. DLSS kann eine Menge und die Anzahl der Karten wächst. FSR hat den Charme, das es auf allen Karten läuft. Mal schauen, wo die Reise hingeht.

Außer Nvidia fallen auf dem PC nicht viele ein.
Spiele mit Konsolenversion (bis auf Switch) laufen zumindest auf AMD Hardware nicht schlecht, aus offensichtlichen Gründen.
Wie gesagt, ich halte diese Form des Marketings für ziemlich unredlich, unabhängig davon, wer sie betreibt. Das schadet am Ende nur dem Kunden.
 
Prinzipiell ist das halt ziemlicher Mist, wenn ein Game speziell auf eine CPU oder GPU hin optimiert wurde und möglichersweise sogar versucht wurde, den Wettbewerber zusätzlich auch noch alt aussehen zu lassen. Auf so ein Niveau sollte sich eigentlich kein Hersteller begeben, egal wie er heisst. Leider scheinen sich irgendwie alle an diesem Spiel zu beteiligen. Was es aber nicht besser macht.
Das Problem ist halt nur, dass wenn Spiele oder Anwendungen auf AMD schlecht laufen, heisst es gerne sofort, AMD hat es vergurkt.
Läuft mal was auf Nvidia mies oder es wird nicht gleich alles Unterstützt was Nvidia heisst, wird sofort eine oder mehrere VTs ausgepackt und der Mitbewerber hat die dunklen Mächte hervorgerufen. Das z.B. Team grün es einfach mal verbockt hat, wird quasi ausgeschlossen.
Das Problem dabei ist mMn, dass 80% Userbase halt lauter zu hören sind als die 20% des Rests.
Zudem ist es halt mittlerweile so, dass Irgendwer im Web Behauptungen aufstellt und genügend Leute das ohne kritisches hinterfragen als richtig darstellen und verbreiten (Bubble halt) . Und wenn genügend Leute sich als betroffen fühlen es deshalb schon als bewiesen gilt.
Hier als Hersteller, egal welcher, gegenzuhalten ist quasi unmöglich. Egal was man sagt, es ist entweder ein Einknicken oder eine Schutzbehauptung.

Die knausrige VRAM-Ausstattung von Nvidia wurde mal kurz als Sau durchs Dorf getrieben. Hört man kaum mehr was ( außer vielelicht Relativierungen), die fehlende DLSS unterstützung von DLSS in Starfield ist immer noch ein Totschlagargument gegen AMD, obwohl es jetzt offiziell nachgeliefert wird. Da kommt dann "Einknicken" als Argument.
Nvidia macht derweilen die Super-Karten markreif um nochmal abzusahnen. Karten die eigentlich von vorherein so kommen hätten müssen, um nicht auf Kante genäht zu sein was den VRAM angeht. Hier zuckt man nur mit den Schultern und freut sich drauf.

Cunhell
 
Das Problem ist halt nur, dass wenn Spiele oder Anwendungen auf AMD schlecht laufen, heisst es gerne sofort, AMD hat es vergurkt.
Ich denk immer, das es in erster Linie die Softwareschmiede vergurkt hat.

Läuft mal was auf Nvidia mies oder es wird nicht gleich alles Unterstützt was Nvidia heisst, wird sofort eine oder mehrere VTs ausgepackt und der Mitbewerber hat die dunklen Mächte hervorgerufen. Das z.B. Team grün es einfach mal verbockt hat, wird quasi ausgeschlossen.
Siehe oben.

Das Problem dabei ist mMn, dass 80% Userbase halt lauter zu hören sind als die 20% des Rests.

Naja, die AMD Fanbase ist schon ziemlich aktiv.
Zudem ist es halt mittlerweile so, dass Irgendwer im Web Behauptungen aufstellt und genügend Leute das ohne kritisches hinterfragen als richtig darstellen und verbreiten (Bubble halt) . Und wenn genügend Leute sich als betroffen fühlen es deshalb schon als bewiesen gilt.
Hier als Hersteller, egal welcher, gegenzuhalten ist quasi unmöglich. Egal was man sagt, es ist entweder ein Einknicken oder eine Schutzbehauptung.
Behauptungen sind so alt wie das Web. Man sollte immer bedenken, das die Lüge zwar mal den Sprint gewinnen kann, den Marathon aber immer verliert. Darum verstehe ich diverse Aussagen, aber auch vereinzelte Pressemitteilung manchmal nicht.

Die knausrige VRAM-Ausstattung von Nvidia wurde mal kurz als Sau durchs Dorf getrieben. Hört man kaum mehr was ( außer vielelicht Relativierungen), die fehlende
Die knausige Vram Ausstattung wird Imho ständig ausgepackt. Und das ehrlicherweise zurecht. Kein Artikel wo darauf nicht richtigerweise hingewiesen wird. Eine 4070/Ti mit 12 GB ist und bleibt ein Witz. Da gibt es für mich nichts zu relativieren.

DLSS unterstützung von DLSS in Starfield ist immer noch ein Totschlagargument gegen AMD, obwohl es jetzt offiziell nachgeliefert wird. Da kommt dann "Einknicken" als Argument.
Starfield lief schon ziemlich bescheiden, selbst auf auf den großen NV Karten. Und als es bei den großen AMD Karten besser lief, ging echt die Post im Netz ab. Da wurden wahre Freudentänze aufgeführt und Nvidia Besitzer kollektiv verhöhnt. Man wähnte dies nun quasi allen technichen Gegebenheiten zum trotz als kommender Normalzustand. War mir im Grunde egal. Erstens wusste ich, das NV nachlegt und die AMD Gemeinde Imho gerade sowas offenkundig auch mal gebraucht hat. Es sei Ihnen vergönnt. Ich mag nur nicht ohne Not persönlich angegangen werden. Da reagiere ich grad was empfindlich.

Ausserdem hat mich die Häme echt angewiedert, als die Nummer mit den Steckern der 4090 lief. Ich fand es im Gegenzug für die betroffenen AMD Kunden einfach nur extrem nervig, als die mit der Kühlungspoblematik konfrontiert wurden. Ich hab nichts davon, wenn sich wer anders mit technichen Unzulänglichkeiten rumquälen muss. Ich weiss nicht, was sowas soll.

Nvidia macht derweilen die Super-Karten markreif um nochmal abzusahnen. Karten die eigentlich von vorherein so kommen hätten müssen, um nicht auf Kante genäht zu sein was den VRAM angeht. Hier zuckt man nur mit den Schultern und freut sich drauf.
Das sehe ich so nicht. Zum Thema Ram haben ich mich ja weiter oben schon geäussert. Das ist und bleibt ziemlich mies. Das der eine oder andere sich vielleicht freut, wenn er hofft, eine 4070 S zu einem Kurs der 4070 mit 16 GB erwerben zu können, ist was völlig anderes. Die Restlaufabzocke läuft doch bei jeder Kartengeneration mit beiden Herstellern. AMD wird mit Sicherheit auch noch was nachlegen. War bei 6000er Serie genauso.

Mich stört das aber aus 2 Gründen nicht.

Erstens kaufe ich mir immer das größte Modell bei Release und dann ist gut.
Dann können sie sich Ihre S/TI oder XX50 Modelle, kurz vor erscheinen der Nachfolgegeneration in die Haare schmieren. Die sind in aller Regel eh aus den verschiedensten Gründen häufig fragwürdig.

Zweitens wird es für die Kunden mit beschränktem Budget in aller Regel günstiger. Sie bekommen mehr für Ihr Geld und haben auch eine größere Auswahl. Dafür ist es dann halt bald nicht mehr die aktuellste Hardware.

Da gibt es schlimmeres.

Wobei das die NV-Ram-Magerausstattung an dieser Stelle nicht relativieren soll. Ich kann jeden verstehen, der auf eine 4070/TI mit 12 GB keinen Bock und sich darüber geärgert hat.

Darum halte ich ja auch unterm Strich die jeweils größte Karte bei Release für die effizienteste und nervenschonenste Lösung. Man ist aus allen Diskussionen raus, hat ein Maximum an Ram, Fun ohne Ende und erzielt unterm Strich den höchsten Wiederverkauf. Schau dir doch an, wie über 3 Jahre alte 3090 noch gehandelt werden. Selbst für defekte Karten werden noch zwischen 300 - 470 Euro gezahlt.
 
Zuletzt bearbeitet :
Man muss abwarten, wie sich DLSS2 entwickelt. Ich traue mir da keine Prognose zu. DLSS kann eine Menge und die Anzahl der Karten wächst. FSR hat den Charme, das es auf allen Karten läuft. Mal schauen, wo die Reise hingeht.
Nvidia hat ja mal 2019/2020 eine Version parallel zu der Tensor Core Implementierung für Shader rausgebracht (wurde in Control genutzt). Der Weg wurde nicht weiter verfolgt. Und da es nicht frei ist, durfte das auch keiner weiter vefolgen. Vermutlich hat Nvidia da den Entschluss gefasst künftig weniger Shader zu verbauen und statt dessen Upscaling zum Standard bei ihren Karten zu erheben statt auf teure Rohleistung zu setzen - eine gute wirtschaftliche Entscheidung ;)
 
Nvidia hat ja mal 2019/2020 eine Version parallel zu der Tensor Core Implementierung für Shader rausgebracht (wurde in Control genutzt). Der Weg wurde nicht weiter verfolgt. Und da es nicht frei ist, durfte das auch keiner weiter vefolgen. Vermutlich hat Nvidia da den Entschluss gefasst künftig weniger Shader zu verbauen und statt dessen Upscaling zum Standard bei ihren Karten zu erheben statt auf teure Rohleistung zu setzen - eine gute wirtschaftliche Entscheidung ;)
Ich glaube nicht, das das langfristig funktioniert. FSR ist ja auch kein Schrott. Wäre AMD in der Rohleistung deutlich überlegen, würde DLSS aufgrund der geringeren Verbreitung das auf Dauer nicht rausreissen können. Das wäre auch für mich ein Grund, AMD wieder zu präferieren.
 
Ich glaube nicht, das das langfristig funktioniert. FSR ist ja auch kein Schrott. Wäre AMD in der Rohleistung deutlich überlegen, würde DLSS aufgrund der geringeren Verbreitung das auf Dauer nicht rausreissen können. Das wäre auch für mich ein Grund, AMD wieder zu präferieren.
Naja, die Rohleistung der RTX sinkt ja nochmal deutlich, wenn die Tensor Cores Strom ziehen. Daher müssen die TC irgendein Upscaling machen (und nicht für ein anderes Programm genutzt werden), sonst würde die deutlich geringere Renderleistung auffallen. Wenn Nvidia auch Richtung Modularität geht, klappt vielleicht beides und man kann im Hintergrund StableDiffusion laufen lassen während man beim Berechnen zockt XD
 
Naja, die Rohleistung der RTX sinkt ja nochmal deutlich, wenn die Tensor Cores Strom ziehen. Daher müssen die TC irgendein Upscaling machen (und nicht für ein anderes Programm genutzt werden), sonst würde die deutlich geringere Renderleistung auffallen. Wenn Nvidia auch Richtung Modularität geht, klappt vielleicht beides und man kann im Hintergrund StableDiffusion laufen lassen während man beim Berechnen zockt XD
Am Ende ist ja immer die Frage, was man auf die Straße an Leistung bekommt. So sehr ich ehrlicherweise ein Fan von DLSS bin, ist das nicht das alles entscheidende Kaufargument. 10-15% Leistungssteigerung sind ja jetzt nicht die Welt. Da bin ich guter Hoffnung, das AMD gleichzieht und dann schauen wir uns den ganzen Rest mal an.
 
Eine 7800M, welche auf einer beschnittenen 7800XT basiert (was ja die 7700xt eigentlich schon ist) kann ich mir einfach nicht in "gut" vorstellen.

Nun ja, sie wird deutlich weniger verbrauchen als eine RX 7900M, was nicht unwichtig für eine Notebook-dGPU ist, und - viel wichtiger - immer noch 12 GB an Speicher bieten, was es bei nVidia erst ab einer (dafür zu) teuren mobilen RTX 4080 gibt.

Denn darunter verhungern die Karten teilweise mit den selbst für Full-HD schon kanppen 8 GB Speicher (weswegen ich Leuten noch eher zu einem Gaming-Laptop mit mobiler RTX 3080Ti (oder RX 6800M) dann raten würde als zu einer mobilen RTX 4070 oder darunter, denn RT-RT spielt bei Gaming-Laptops meist noch eine untergeordnete Rolle für die meisten (auch wegen der Displaygrößen).

Mir würde die Leistung einer RX 7700XT (12 GB) Desktopkarte in Form einer RX 7800M Mobil-dGPU für ein Gaming-Laptop (vordergründig Full-HD Gaming mit passender Kühlung) vollkommen ausreichen und ich denke so eine mobile Grafikkarte wäre (auch preislich) ein guter Kompromiss und ist eigentlich überfällig (fehlt als 12GB Karte im Mobil-dGPU Aufgebot von AMD/RTG aktuell schon sehr offensichtlich).

Meine Hoffnung wäre zudem, dass eine RX 7800M nicht modell- oder boardpartnerexklusiv vertrieben wird im Gegensatz zur RX 7900M und es mehr Modell- und Herstellerauswahl (und Preiswettbewerb) zugunsten der möglichen Kundschaft geben wird.
 
In den Spiele-PC kam nun nach der Ende 2017, für 550€ gekauften GeForce 1080 Gainward GLH, eine Powercolor 7800xt, aber die Schwarze Variante. Die Karte kam 550€ und beschleunigt alle meine verwendeten Spiele in der genutzten FHD-Auflösung mit nun maximalen Details wieder auf Ruckelfreie Bildwiederholraten. Die Karte sollte nun also wieder 6 Jahre für Ruckelfreies Spielvergnügen sorgen. Die vor der GTX1080 verwendete Radeon HD 7850 mit 2 GB hat ja auch 6 Jahre zuverlässig Dienst geleistet. Stromverbrauch? Die RX7800XT läuft bedingt durch FHD und Vsync auf 60Hz mit nur geringer Last und dümpelt quasi nur so dahin, ganz im Gegenteil zur vorher verwendeten GTX1080, die oftmals voll ausgelastet war.

Ordentlich Strom verbrauchen die beiden Radeon VII, im Multi-GPU-Betrieb, beim Rendern von Videomaterial.
 
Die ziemlich leise (trotz nur 2x 95 mm Lüfter) Sapphire Pulse bekam man in den letzten Wochen öfters für 500€ (mit Cashback einbezogen + Spiel). An BF sogar wohl für 480€ (ohne Spiel)...

Da würde ich sie dann einer 6800XT im Angebot für 450€ schon vorziehen. Sie sollte mittlerweile nach einigen Treiberupdates bestimmt 10% schneller sein als die Vorgängerkarte. Dann hat man den besseren Streamingcodec, etwas besseres Raytracing und auch ca 50 Watt weniger Verbrauch. Aktiven Treibersupport wird es auch noch wesentlich länger geben...

Bei NV würde ich Radeon Image Sharpening schmerzlich vermissen. Ist mir viel wichtiger als DLSS oder FSR. Die Upscaling Techniken brauche ich für den WQHD Betrieb eh nicht (Cyberpunk mal ausgenommen... ). Upscaling wird dann eher wieder bei 4K wichtig. Und da würde ich mir generell eine deutlich leistungsfähigere Karte für kaufen. Wer kauft sich schon eine neue Karte um dann direkt Upscaling zu nutzen? Das ist doch eher eine langfristige Reserve für die Zukunft.

Man muss halt bei den ganzen Vergleichstests auch erwähnen, dass die 4070 im April rauskam und die 7800XT erst im September. Das sind 5 Monate die NV Zeit hatte die Treiber zu optimieren, um noch mehr rauszuholen. Ein Vergleichstest nach ca 6 Monaten wäre wohl da auch fairer. Man bedenke nur wie viel da aus der 6800XT mit der Zeit noch rausgeholt wurde...

12 GB ist halt auch etwas wenig VRAM. Ich hab schon Spiele gehabt, die 14-15 GB aktiv nutzen (nicht reservieren). Viele Spiele nutzen bei mir 11-12 GB. Das wird für die 4070 noch ein beschränkender Faktor werden.
 
Zuletzt bearbeitet von einem Moderator :
Ahoi,

ich lese hier schon seit vielen Jahren mit. Gestern habe ich diese Karte (auch aufgrund Igors Review) bestellt.

Gepaart wird das Ganze mit einem i3-12100 @ 5.2GHz allcore. Denke das wird ein schönes und ungewöhnliches Gespann :)

Gruß
letauch
 
Zuletzt bearbeitet :
Ahoi,

ich lese hier schon seit vielen Jahren mit. Gestern habe ich diese Karte (auch aufgrund Igors Review) bestellt.

Gepaart wird das Ganze mit einem i3-12100 @ 5.2GHz allcore. Denke das wird ein schönes und ungewöhnliches Gespann :)

Gruß
thornhill
Klingt jedenfalls leise - Pun intended ;)
 
Ahoi,

na toll, jetzt habe ich Angst

Gruß
letauch
😆
 
Hynix Speicher schafft übrigens mehr VRAM Takt als Samsung.

Die Hynix Karten bewegen sich alle im Bereich 2600Mhz. Bei Samsung ist wohl bei ca 50 Mhz weniger Schluss. Manche von den Karten sollen sogar nur 2500Mhz schaffen...

Meine Pulse Hynix läuft auf max 2700 MHZ GPU (Treiberregler), VRAM 2600Mhz (ohne Offset 2586Mhz) + Fast Timings @ 1060mV stabil.

Das sind dann +6% Leistung @245W. Also man muss PT nicht hochsetzen. Das bringt bei der 7800XT auch nichts. PT +15% hat man dann nochmal +2-3% Leistung bei 282W. Das ist dann nicht mehr effizient und wird wohl keiner machen. Also 2% mehr Leistung für fast 40W mehr Verbrauch.

Man bekommt also als Sweetspot +6% mehr Leistung, ohne zusätzlichen Verbrauch und Hitzeentwicklung. Nicht schlecht eigentlich (y)
 
Zuletzt bearbeitet von einem Moderator :
Sind die 1060mV bei über 2,8GHz wenn das PL nicht begrenzt?

PT nicht anrühren. Dann verbraucht die Karte halt teilweise fast 40 Watt mehr und das bringt dir fast keinen Leistungszuwachs. Das steht in keiner Relation zu einander. Sweetspot bei mir, und in anderen Foren das selbe Bild, ist ungefähr das gepostete. Also quasi +6% Leistung. Alles darüber produziert nur massiven extra Stromverbrauch für nochmal +2% mehr Leistung...

Er ist auf max 2700 Mhz begrenzt (geht in manchen Spielen auf 2680 Mhz hoch). Alles darüber (max 2800 Mhz) muss man dann PT anrühren. Sonst ist es nicht mehr überall stabil...

Was soll es halt bringen anstatt +6% dann + 8,5% Leistung zu haben, aber dann 40 Watt mehr Verbrauch? Wer merkt denn die 2% wirklich?

Dann merkst viel eher 40W mehr verbrauch und lauter aufdrehende Lüfter...
 
Zuletzt bearbeitet von einem Moderator :
PT nicht anrühren. Dann verbraucht die Karte halt teilweise fast 40 Watt mehr und das bringt dir fast keinen Leistungszuwachs. Das steht in keiner Relation zu einander. Sweetspot bei mir, und in anderen Foren das selbe Bild, ist ungefähr das gepostete. Also quasi +6% Leistung. Alles darüber produziert nur massiven extra Stromverbrauch für nochmal +2% mehr Leistung...

Er ist auf max 2700 Mhz begrenzt (geht in manchen Spielen auf 2680 Mhz hoch). Alles darüber muss man dann PT anrühren. Sonst ist es nicht mehr stabil...
Wenn die Karte in deinen Spielen nicht auf 2700MHz kommt,dann reicht im Treiber 2600MHz locker aus,damit musst die Spannungskurve zwar wieder leicht anheben,aber der Reale Verbrauch geht noch mal runter wie auch die reale Spannung.
Normaler weise solltest mit dem max - PL schon mehr FPS bekommen.
 
Oben Unten