Sapphire Radeon RX 7700 XT Pure 12 GB im Test - Ein echter Traum in Weiß und Alptraum beim Preis

Würd ich nicht sagen,weil er einfach nur Nvidia sieht.


Ich würde sagen,dass DigitalBlizzard viel weniger nur Nvidea sieht,als Du nur AMD.

Neutral über alle Spiele,gibt es eigentlich nicht...
Da muss jeder selber schauen,welche Spiele einem wertvoll erscheinen.

Bei reinen Raster-Spielen mag AMD sogar oft gleich auf oder besser sein.
Sobald RT oder jetzt Pathtracing dazu kommen,liegt AMD deutlich hinten.
Bei DLSS vs FSR hinkt AMD auch hinter her.
Energieverbrauch,fang ich gar nicht erst an...

Du bist derjenige für den es nur AMD zu geben scheint.
Sogar Intel,bei den CPU's, ist für Dich nicht existent.

Bevor man anderen Blindheit vorwirft, sollte man selbst vielleicht auch mal die Augen auf machen.
 
Fakt ist einfach, AMD hat ein Effizienzproblem, Nvidia ein RAM Problem, aber im echten Vergleich Preis/Leistung nicht Bezeichnungen der Karten ist Nvidia eben auch gar nicht wirklich teurer.
Ist nur die Frage woran das liegt, ist Nvidia günstiger geworden oder AMD schlicht teurer!?
 
Mit Recht, OCed und UVed sehen die Werte halt besser aus im Vergleich mit @ Stock, vertraue nie einer Statistik die Du nicht selbst manipuliert hast.
Was aber blödsinn ist weil man das bei beiden machen kann und mit verlaub bei nvidia viel besser in deiser Generation. Ich kann der 70ti glatt 80Watt nehmen und bekomme Stock ergebnisse bis auf 1-2%. gut sagen wir 50 Watt weil ich habe noch nie die 280 Watt gesehen egal welches spiel, für die, die Karte spezifiziert ist. Selbst mit OC nicht was rund 5-9% je nach Spiel geschenkte Performance ist.

Deswegen zählt was out of the box kommt bei Standardkonfiguration. Youtube Videos nur bei denen wo man weiß die bekommen die Karte Tatsächlich zum testen da gibt es soviele fakes für klicks. Ja auch den Afterburner overlay kann man locker drüberfaken. Auch werden da Modelle verglichen wie Monste Oc versionen mit Powerlimit aufgedreht bis zum geht nicht mehr und die andere ala Referenz da sind gut und gerne bis zu 10% unterschied. Das verfärbt das Ergebniss deswegen nichts wert.

Aber braucht man nicht für was haben wir so tolle Deutsche Tester? und auch internationale
 
Ich würde sagen,dass DigitalBlizzard viel weniger nur Nvidea sieht,als Du nur AMD.

Neutral über alle Spiele,gibt es eigentlich nicht...
Da muss jeder selber schauen,welche Spiele einem wertvoll erscheinen.

Bei reinen Raster-Spielen mag AMD sogar oft besser sein.
Sobald RT oder jetzt Pathtracing dazu kommen,liegt AMD deutlich hinten.
Bei DLSS vs FSR hinkt AMD auch hinter her.
Energieverbrauch,fang ich gar nicht erst an...

Du bist derjenige für den es nur AMD zu geben scheint.
Sogar Intel,bei den CPU's, ist für Dich nicht existent.

Bevor man anderen Blindheit vorwirft, sollte man selbst vielleicht auch mal die Augen auf machen.
Besser kann man es nicht auf den Punkt bringen. Ich besitze AMD und Nvidia Karten, schon seit Jahrzehnten, mit ist das Brand wurscht, für mich entscheidet sich das alleine durch meinen Bedarf im jeweiligen System und dann über Preis und Effizienz, und sorry , da hat leider Nvidia mit 40xx ne echte Duftmarke gesetzt, wobei die Deppen das mit dem RAM nie lernen werden.
 
Was aber blödsinn ist weil man das bei beiden machen kann und mit verlaub bei nvidia viel besser in deiser Generation. Ich kann der 70ti glatt 80Watt nehmen und bekomme Stock ergebnisse bis auf 1-2%. gut sagen wir 50 Watt weil ich habe noch nie die 280 Watt gesehen egal welches spiel, für die, die Karte spezifiziert ist. Selbst mit OC nicht was rund 5-9% je nach Spiel geschenkte Performance ist.

Deswegen zählt was out of the box kommt bei Standardkonfiguration. Youtube Videos nur bei denen wo man weiß die bekommen die Karte Tatsächlich zum testen da gibt es soviele fakes für klicks. Ja auch den Afterburner overlay kann man locker drüberfaken. Auch werden da Modelle verglichen wie Monste Oc versionen mit Powerlimit aufgedreht bis zum geht nicht mehr und die andere ala Referenz da sind gut und gerne bis zu 10% unterschied. Das verfärbt das Ergebniss deswegen nichts wert.

Aber braucht man nicht für was haben wir so tolle Deutsche Tester? und auch internationale
Richtig, entweder vergleiche ich gleiche FPS Ausgangsleistung und Effizienz @Stock miteinander, und dann beide OCed und UVed, oder eben gar nicht.
Stock und Tuned sind zwei Paar Stiefel, der DTM M4 ist auch nicht der gleiche wie der beim Händler mit Straßenzulassung.
 
Ich würde sagen,dass DigitalBlizzard viel weniger nur Nvidea sieht,als Du nur AMD.

Neutral über alle Spiele,gibt es eigentlich nicht...
Da muss jeder selber schauen,welche Spiele einem wertvoll erscheinen.

Bei reinen Raster-Spielen mag AMD sogar oft besser sein.
Sobald RT oder jetzt Pathtracing dazu kommen,liegt AMD deutlich hinten.
Bei DLSS vs FSR hinkt AMD auch hinter her.
Energieverbrauch,fang ich gar nicht erst an...

Du bist derjenige für den es nur AMD zu geben scheint.
Sogar Intel,bei den CPU's, ist für Dich nicht existent.

Bevor man anderen Blindheit vorwirft, sollte man selbst vielleicht auch mal die Augen auf machen.
Eben,ändere ich die Spiele schaut es wieder anders aus,somit kann man gar nicht sagen das es NUR Nvidia sein muss um mal NUR bei den Spielen zu bleiben.

Nö,nur Nvidia ist nun mal keine gute Alternative und da wir hier in einem Fachforum sind und nicht bei Media Markt und CO sind die meisten die hier unterwegs sind auch nicht auf den Kopf gefallen oder haben 2 Linke Hände.
Hier ist nun mal kein Platz für Trolle und Fanboys,hier kommen Leute hin die Beratung wollen von Erfahrenen Usern z.b.
 
Ich würde sagen,dass DigitalBlizzard viel weniger nur Nvidea sieht,als Du nur AMD.

Neutral über alle Spiele,gibt es eigentlich nicht...
Da muss jeder selber schauen,welche Spiele einem wertvoll erscheinen.

Bei reinen Raster-Spielen mag AMD sogar oft gleich auf oder besser sein.
Sobald RT oder jetzt Pathtracing dazu kommen,liegt AMD deutlich hinten.
Bei DLSS vs FSR hinkt AMD auch hinter her.
Energieverbrauch,fang ich gar nicht erst an...

Du bist derjenige für den es nur AMD zu geben scheint.
Sogar Intel,bei den CPU's, ist für Dich nicht existent.

Bevor man anderen Blindheit vorwirft, sollte man selbst vielleicht auch mal die Augen auf machen.
Hardware unboxed, 45 spiele neutral genug? besser wird es nicht ausreißer gibt es bei jeden hersteller selbst bei den intel arc gpus. Die teilweise in manchen games an die 3070 rankommen was schon extrem ist für die erste gen. aber das dann hernehmen für den durchschnitt ist halt käse.

Mw 2 ist amd auch extrem schnell. da sagt aber niemand das die da was gemacht haben wie bei nvidia bei cyberpunk....weil es nun einmal so ist auch starfield da hätte ich auch lieber die 7900xt perfromance aber ist halt so manche spiele werden manchmal extrem abweichen werde aber amd nie unsterstellen es zu sabotieren oder so einen kindischen unsinn. bis auf das DLSS blocken aber das hat sich ja erledigt wegen dem shitstorm. :)

 
Besser kann man es nicht auf den Punkt bringen. Ich besitze AMD und Nvidia Karten, schon seit Jahrzehnten, mit ist das Brand wurscht, für mich entscheidet sich das alleine durch meinen Bedarf im jeweiligen System und dann über Preis und Effizienz, und sorry , da hat leider Nvidia mit 40xx ne echte Duftmarke gesetzt, wobei die Deppen das mit dem RAM nie lernen werden.
Jupp wie ich schon sagte die Marke ist egal. Warum habe ich einen Ryzen statt einem Intel? Weil Ryzen einfach besser ist all in all. Ganz einfache Sache. Wäre Amd das bei den Gpus auch hätte ich eine gekauft. Warum sollte mich das jucken wer das herstellt? Diese gierlappen wollen nur unsere kohle. Bei nvidia mit extremen erfolg, aber wie sagt man so schön der Erfolg gibt ihnen Recht egal was wer sagt.
 
@ Stock laufen 90% aller Karten, maximal mit Werks OCBios, also fast alles out of the Box, die meisten User wollen nicht "basteln" sondern reinstecken und loslegen.
Das sind also auch die relevanten Vergleichsgrundlagen.
Wenn ein Hersteller zu blöd ist seine Karte vor Release so effizient wie möglich voreinszustellen, dann hat der Hersteller ein Problem, und dann würde ich mir es doppelt überlegen ob ich von dem Hersteller was kaufe. Was und wieweit noch etwas optimierbar ist, hat damit erst mal null zu tun, ich erwarte das ab Werk bestmöglich justiert, gerade bei den heutigen Preisen.
Ich kaufe ja keinen Bausatz, und wenn AMD das generell besser machen könnte, es aber nicht tut, dann ist die Frage ob die vielleicht lieber in Fleischwurst machen sollten, statt in Grafikkarten
 
Jupp wie ich schon sagte die Marke ist egal. Warum habe ich einen Ryzen statt einem Intel? Weil Ryzen einfach besser ist all in all. Ganz einfache Sache. Wäre Amd das bei den Gpus auch hätte ich eine gekauft. Warum sollte mich das jucken wer das herstellt? Diese gierlappen wollen nur unsere kohle. Bei nvidia mit extremen erfolg, aber wie sagt man so schön der Erfolg gibt ihnen Recht egal was wer sagt.
Ja, komischerweise bekommt AMD bei den CPU super effizienz und Leistung hin, bei den GPUs nicht, aber gut, das Eine ist AMD vs. Intel, das andere AMD vs Nvidia.
Intel ist offensichtlich bei CPUs genauso blöd in Sachen Effizienz, wie AMD bei den GPUs.
Wenn ich mir das Überlege, wäre es vielleicht an der Zeit, das Nvidia mal eine Desktop CPU entwickelt, das könnte was taugen
 
Ja, komischerweise bekommt AMD bei den CPU super effizienz und Leistung hin, bei den GPUs nicht, aber gut, das Eine ist AMD vs. Intel, das andere AMD vs Nvidia.
Intel ist offensichtlich bei CPUs genauso blöd in Sachen Effizienz, wie AMD bei den GPUs.
Wenn ich mir das Überlege, wäre es vielleicht an der Zeit, das Nvidia mal eine Desktop CPU entwickelt, das könnte was taugen
Das wollten die wohl machen aber durften ARM nicht kaufen. Wäre auf jeden Fall cool noch einen Cpu anbieter zu haben.
 
Mal im Ernst, wenn Nvidia ausgehend von dem, was sie bei CPUs hinbekommen in Leistung und Effizienz eine CPU entwickeln würden, könnte das schon eine feine Sache werden, Boardpartner hat Nvidia ja auch genug.
Ich meine wenn Intel auf dem dezidierten GPU Markt einsteigt, und für den ersten Wurf gar nicht so übel, warum nicht mal umgedreht und Nvidia steigt in den CPU Markt ein.
Kann dem Markt nur gut tun
Ich ruf die gleich mal an und mach den Vorschlag ;)
 
Fakt ist einfach, AMD hat ein Effizienzproblem, Nvidia ein RAM Problem,
Ja hast Du denn völlig vergessen, dass die Grünen auch eine effizientere Speicherverwaltung haben?
Der im WWW kursierende Tenor spricht von 1GB Vram, die das im Verhältnis zu den Roten ausmachen soll.
Also 12 GB bei Nvidia ist soviel wert wie 13 GB bei AMD.

Wie Du DAS bisher übersehen konntest ... SKANDAL!


Edit wg. Schreibrechtung.
 
Zuletzt bearbeitet :
Gut das weis ich nicht :) Aber es stimmt überein mit was der Afterburner anzeigt wenn ich die Pofile switche was ja mit via Profil auf tasten legen on the fly funktioniert und das auf das Watt genau. 🤷‍♂️

Mir ist natülich klar das Softwaremessungen nur ungefähr hinkommen aber das allegmeine bild bleibt ja Identisch. Auch logisch das für das exakte messen sowas wie das Nvidia Pcat gebraucht wird.
Siehste, daran erkennst dass Dein Messgerät falsch misst, weil zum Verbrauch im Afterburner musst noch das draufaddieren was das Netzteil an Effizienz verliert, und das dürfte je nach Netzteil bei um 200-250Watt Hardwarelast nochmal 10-15% sein.
Wenn HWInfo und co Dir 250 Watt Hardware System anzeigen, sind das zwischen Dose und Netzteil nochmal 7-20% mehr, es sei denn es wäre Netzteil mit 100% Effizienz und genau um den Prozentsatz der Effizienz am Netzteil geht das Pearl Messgerät entsprechend nach.
 
Siehste, daran erkennst dass Dein Messgerät falsch misst, weil zum Verbrauch im Afterburner musst noch das draufaddieren was das Netzteil an Effizienz verliert, und das dürfte je nach Netzteil bei um 200-250Watt Hardwarelast nochmal 10-15% sein.
Kommt darauf an bei welcher Last arbeiten Netzteile am effizientesten das spielt alles eine Rolle auch ob Bronze oder Platin. Hänge da bei 50-65%. Waren es 80% weiß ich nicht mehr.
 
OK, aber das ist jetzt so ne Sache, da hätte ich mir ein Messgerät von Trotec, Brennenstuhl, Voltcraft oder AVM gewünscht, Pearl ist jetzt nicht das Präzisionsgerätda rechnest nochmal 5-10% drauf, und dann wieder die Effizienz des Netzteils bei 200-300Watt 85% runter, dann landest bei real im Rechner 229,5Watt
Im Ernst,so Teure HW und nur ein billiges LC Netzteil mit 85% Wirkungsgrad.......Oder ist das wieder Schön rechnen da Nvidia verbaut ist?!
 
Kommt darauf an bei welcher Last arbeiten Netzteile am effizientesten das spielt alles eine Rolle auch ob Bronze oder Platin. Hänge da bei 50-65%. Waren es 80% weiß ich nicht mehr.
Einfach mal schreiben was für ein Netzteil verbaut ist kann schon recht hilfreich sein.
 
Ganz teuer wo ist das teuer ist nur midrange. Wenn du doch so schlau bist wirst du doch wohl bissl geld verdienen .^^ ich habe sogar 3 ada karten hier was nun?
 
Oben Unten