Sapphire Radeon RX 7700 XT Pure 12 GB im Test - Ein echter Traum in Weiß und Alptraum beim Preis

junge, junge diese Forum sollt man in AMD Fanboy heaven umbennen

Du legst Dich hier auch mit den Mitgliedern an, welche ( wie soll ich das jetzt sagen ),
ein sehr großes Herz für AMD-Produkte haben.
Da gibt es in der Mehrheit viele, die da weniger
"Marken-affin" an diese Analysen herantreten.

Deswegen das ganze Forum hier zu verunglimpfen,ist aber doch etwas über das Ziel hinaus zu schießen.
Come down und versuche nicht zu beleidigen und einfach sachlich zubleiben.
 
Zuletzt bearbeitet :
Blödsinn tut sie nicht. Wirf mal ein spiel an das fordert dann säuft das Ding trotz Uv über 300Watt warum? Weil Ampere genau so Powerlimitiert ist wie RDNA 3, da bringt Undervolt fast gar nichts je nach Spiel nur stabilere Taktraten und daher mehr Performance.

junge, junge diese Forum sollt man in AMD Fanboy heaven umbennen kein wunder das nix los ist. Hier wird rumfantasiert in der eigenen bubble das es kracht. Echte Reviewer mit jahrzehnten an Erfahrung werden als schwchsinn deklariert. Relaitätsfremd hoch 10 selten so etwas gesehen das wegen spielzeug. unfassbar :ROFLMAO:.
Zeig mal mehr Höflichkeit gegenüber Deinen Mitforisten. Das geht so nicht weiter. Wenn Du Akzeptanz für Deine Thesen willst, dann belege sie.

 
RDNA3 sagt mir im Moment nicht wirklich zu. Die Generation überspringe ich. Zu wenig Mehrleistung bei zu hohem Preis ggü. RDNA2.
RDNA3 ist doch gegenüber zur RDNA2 ca. 100€ runter im UVP.
Beispiel:
6900XT (UVP 999) vs 7900XT (UVP 899)
6800XT (UVP 649) vs 7800XT (UVP 549)
Die Leistung isr idR etwas besser, insbesondere beim RT.
 
welche thesen? ich dachte wir sind in einem forum wo sie leute plan haben lmao? starte mit der undervolteten 3080 zum beispiel ein RT game oder the division 2 zum beispiel oder auch unreal engine 4 games natürlich darfst du nicht in ein fps limit laufen logisch ne? da glühen die shader und du wirst sehen das dass uv fast nichts bringt. Das video oberhalb ist leider nicht so dolle. Ist doch hausverstand bei einer power limitierten karte. bei der 7700 und 7800 funktioniert es aber wesentlich besser als bei ampere und den 7900 karten. Das ist wenigstens schon mal gut und nicht so hoffnunglsoer müll wie die 7900 karten.


Trotzdem sind es dann 200 watt gegen 160 watt 4070 wenn beide optimiert wurden wobei wenn man 8_% opfert bei der 4070 dann ist man bei 130 watt auch hier variiert es natürlich stark. the divisi0n 2 langt jeder karte alles ab testet es und ihr werdet es sehen. da braujcht auch meine uv 4070ti 240 watt! statt den average 200 mit 2.7ghz. Das ballert richtig.
 
Hätte AMD etwas wie DLSS also in der Qualität, endlich keine nervigen treiber bugs mehr und den idle murks im griff DANN kann man davon reden das sie eine alternative sind. Och habe ich jetzt RT vergessn das natürlich auch noch gut wenn sie 20% dahinter sind dann wäre das jetzt nicht so schlimm aber die ergebnisse sind so inkonsistent. Aber so bietet mir AMD nur Vram denn man eh nie ausfahren wird und ein bisschen bessere standard Leistung und ne heizung, dass wars sonst nichts sonst ist alles bei Nvidia wesentlich besser. Weiß nicht warum man eine AMD Karte kaufen sollte mit diesen nachteilen aber soll jeder machen was er will :p
Wenn man teilweise die Realität leugnet dann stimmt das wohl. :D
 
also so wie ihr alle lmao


weiß auch nicht was man da noch beweisen soll als cih sagte mein pc brauchtbeim zocekn 280 watt

Gpu: 200-210 watt ( in vielen games auch oft darunter 160-180 Watt ;)) das bei 3090-3090ti leistung.
Cpu: 40 watt
Der Rest: 30 Watt

Strommessgerät zeigt 275-280 watt an bei vollauslastung. Aber ist ja fake ^^ weil mein pc weniger verbraucht als die scheiss 7900 karten alleine

APlagueTaleRequiem_x64_2023_09_20_10_05_22_784.jpg
 
Zuletzt bearbeitet :
Wenn die 300€ Karte mit 115 Watt deine 350 Watt Karte um 1000€ schlägt. Ist halt auch fake und so ne

Jetzt schauen wir nochmal auf das Nvidia-Logo neben dem Spiel und wundern uns nicht (die haben wohl ordentlich Geld dafür bezahlt das die Statstik so aussieht).

Aber wenn du mit ner 2500€ Karte in 1080p mit 60 FPS in einem fast 3 Jahre altem Spiel zufieden bist - ich würde mich verarscht fühlen.
 
Du legst Dich hier auch mit den Mitgliedern an, welche ( wie soll ich das jetzt sagen ),
ein sehr großes Herz für AMD-Produkte haben.
Da gibt es in der Mehrheit viele, die da weniger
"Marken-affin" an diese Analysen herantreten.

Deswegen das ganze Forum hier zu verunglimpfen,ist aber doch etwas über das Ziel hinaus zu schießen.
Come down und versuche nicht zu beleidigen und einfach sachlich zubleiben.
wie willst du sachlich bleiben wenn nur schwachisnn geredet wird und man als troll dargestellt wird obwohl ich nur das wiedergebe was 100e tester getestet haben die Daten liegen da im internet !!!! das ist als wenn man sagen würde 2+2 ist nicht 4 komplett realitätsfremd.

Wenn man als erwachsener marken affin ist sollte man wirklich mal in sich gehen. in dem moment wo amd eine bessere Karte mit allem drum und ran als nvidia releast steige ich wieder um nur wissen wir alle das dass nie passieren wird wie denn auch. nvidia ist generationen voraus wir haben glück wenn rdna 4 die 4090 erreicht. ist mir doch egal welches scheiss frimenlogo das ding trägt🤷‍♂️.

Nvidia GPU + AMD Cpu sind momentan das maß der Dinge und genau nach dem kaufe ich. aufegrüstet wird zu Am6 schauen wir mal wer da führt bei den Cpus. Ja ich weiß das der 13900k oft schneller ist aber für den 3 fachen stromverbrauch des 7800x3d das hat mit vernunft nichts mehr zu tun.
 
also so wie ihr alle lmao


weiß auch nicht was man da noch beweisen soll als cih sagte mein pc brauchtbeim zocekn 280 watt

Gpu: 200 watt
Cpu: 40 watt
Der rEst sind exakt 40 Watt

Strpmmesgerät zeigt 275-280 watt an bei vollauslastung. Aber ist ja fake ^^ weil mein pc weniger verbaiucht als die scheiss 7900 karten alleine

Anhang anzeigen 27947
Du bist so eine Lauchnummer und hast 0 Ahnung von der Materie.
Im Screen sind schon mal 208Watt und ob die Stimmung sei mal dahin gestellt.
Die CPU.....ist das das aktuelle PowerLimit oder nur die Kerne.......
Das allein sind schon 248Watt ohne Mainboard, Ram und Rest der auch einen Verbrauch hat.

248Watt : 0.9 sind schon 275Watt.

Du machst dich immer Lächerlicher.
 
Jetzt schauen wir nochmal auf das Nvidia-Logo neben dem Spiel und wundern uns nicht (die haben wohl ordentlich Geld dafür bezahlt das die Statstik so aussieht).

Aber wenn du mit ner 2500€ Karte in 1080p mit 60 FPS in einem fast 3 Jahre altem Spiel zufieden bist - ich würde mich verarscht fühlen.
Wieder schwachsinn AMD kann einfach kein Rt weil die hardware dafür nicht da ist und desto schwerer die Rt Last desto schwerer der Hit komplett logisch. Was glaubst du warum amd sponsored games fast kein rt haben ?

Wäre dem so was du sagst warum ist dann eine rx 6800 so schnell wie dei 4070 wenn man CP 2077 ohne RT zockt? ha? obwohl sie normal die 4070 normal so schnell ist wie die 6800XT? Komisch oder? würde das stimmen würde das auch bei non rt cyberpunk zutreffen tut es aber nicht. Schwachsinnige fanboy Verschwörungstheorie. Amd performt sehr gut in cyberpunk ohne rt.

Wieder schwachsinn. seit wann ist die 4090 eine 2500€ karte? wieder fanboy trauma. auch sind das werte ohne FG und ohne DLSS alles nativ. Pathtracing nativ mit 60 fps ist extrem beeindruckend das du das nicht raffst wundert nicht. immerhin ist die 1600€ karte 4-5 mal schenller als die 1000€ karte schau dieser blödisnn geht in die andere richtung auch das sogar mit weniger verbauch wenn man die 4090 uv das ohne leistungsverlust. soviel dazu. bin auf den nächsten tagtraum gespannt
 
welche thesen? ich dachte wir sind in einem forum wo sie leute plan haben lmao? starte mit der undervolteten 3080 zum beispiel ein RT game oder the division 2 zum beispiel oder auch unreal engine 4 games natürlich darfst du nicht in ein fps limit laufen logisch ne? da glühen die shader und du wirst sehen das dass uv fast nichts bringt. Das video oberhalb ist leider nicht so dolle. Ist doch hausverstand bei einer power limitierten karte. bei der 7700 und 7800 funktioniert es aber wesentlich besser als bei ampere und den 7900 karten. Das ist wenigstens schon mal gut und nicht so hoffnunglsoer müll wie die 7900 karten.


Trotzdem sind es dann 200 watt gegen 160 watt 4070 wenn beide optimiert wurden wobei wenn man 8_% opfert bei der 4070 dann ist man bei 130 watt auch hier variiert es natürlich stark. the divisi0n 2 langt jeder karte alles ab testet es und ihr werdet es sehen. da braujcht auch meine uv 4070ti 240 watt! statt den average 200 mit 2.7ghz. Das ballert richtig.
Ich finde Du solltest Dich bei AMD als Entwickler in höher Position bewerben. Dann wird es schnell besser laufenbei denen. Die warten auf so Leute wie Dich. Vor allem Dein überwältigender Charme wirkt super überzeugend.
 
Freunde, lassen wir die Kirche doch bitte mal im Dorf.
Hier werden Äpfel mit Ananas verglichen. Preise sind mal außen vor, das Nvidia teuere ist ist, klar, einfach weil sie es können.

Nehmen wir doch mal die Karten @ Stock, da hat AMD ganz klar eine Effizienzproblem FPS/Watt, und liegen da deutlich hinter den Nvidia 40xx, wenn man einfach mal bei den jeweiligen Vergleichskarten schaut, in 1440p, also eine 7800XT mit einer die eigentlich die 4070ti als Gegner hätte, aber mit der 4070 verglichen wird, die 4070 erreicht sie in der Leistung, liegt aber in der effzienz Meilenweit dahinter, die 4070 liefert@ Stock bei quasi identischer FPS Leistung einer 7800XT schon bei 200Watt ab während die 7800XT 250 Watt nimmt, das isn 20% mehr Strom bei gleicher Leistung.

Wenn ich die 4070ti in den Vergleich setze zur 7800XT liegen beide in der Energieaufnahme fast gleich, die 4070ti braucht 10% mehr, dafür liefert sie aber dann 20% mehr FPS , was bedeutet, @ Stock ist die Effizienz Watt/FPS einer 7800XT immer 20% schlechter als eine 4070 oder 4070ti

Dann der Preis, eine 4070 kostet 590€ eine 7800XT 580€, eine 4070ti 820€
Eine 4070 liefert quasi gleiche Leistung für gerade mal 10€ mehr als eine 7800XT und verbraucht dabei 20% weniger Energie für einen 2% höheren Preis
eine 4070ti liefert 20% mehr Leistung bei leider 40% höherem Preis im Vergleich zur 7800XT

wenn man Die Leistung als Grundlagen nimmt ist also die 4070 die bessere Wahl, weil sie bei gleicher Leistung und gleichem Preis viel effizienter ist.
will man etwas mehr Leistung die etwa auf Niveau einer 4070ti kommt, dann muss man bei AMD entweder auf die 6950XT zurückgreifen die zwar immer noch leicht schwächer ist als eine 4070ti, aber nah herankommt, die kostet dann aber auch 830€ wenn man nicht den XFX Merc Brüllaffen im Angebot nehmen will. und braucht dann aber auch satte 60Watt mehr, oder gute 30%.
Also auch hier ist die 4070ti der Sieger im Vergleich Effizienz und Preisleistung
Kannst natürlich die 7900XT nehmen, die liefert 10% mehr Leistung als die 4070ti, kostet nur 10€ mehr, braucht aber leider auch hier wieder 35Watt mehr.
Die beiden liegen also in Effizienz FPS/Watt gleichauf

Das heißt FAKT

  • 4070 ist der Leistungsgegner und der Preisgegner der 7800XT, dabei aber 20% effizienter
  • die 4070ti ist der Preisgegner der 7900XT , dabei ist sie 6% effizienter aber auch 10% schwächer und etwa 10€ günstiger
Die inzige Karte die da aus der Reihe tanzt ist die 7900GRE, die aber auch nicht regulär im Handel ist.

Das gleiche gilt für die 7700XT die in FPS/watt quasi gleichauf mit der 6800 liegt, in der Leistung 12 bzw 18% schwächer als eine 4070, und in der Effizienz FPS/ Watt 20% schlechter, dafür kosten sie nur 480-500€ statt 590€, das heißt sie sind bei 15% schlechterer Leistung und 20% schlechterer Effizienz gute 20% günstiger, nimmt sich als in Preis/Leistung wieder nichts.

Das belegt also ganz klar, das wenn man real Leistung, Effizienz und Preis gegenüberstellt, ist AMD mitnichten günstiger.


Jetzt kommt wieder das Argument, das man die AMD Karten ja OCen und UVen kann, richtig, aber auch hier sind zwei Punkte beim Vergleich zu betrachten.
  1. OCen und UVen kann ich auch Nvidia Karten ja auch noch, dann ist der Vorteil den man bei AMD daurch erziehlen kann auch wieder nutzlos
  2. Das ist etwas was maximal 10% der User überhaupt juckt, 90% wollen Plug `n Play @ Stock
Und einzelne besondere Werte sind nicht die Norm, da hat man vielleicht das Glück ein besonders gutes Sample erwischt zu haben, das geht eben nicht beliebig mit jeder Karte, selbt mit zwei Karten der gleichen GPU fallen die möglichen OC und UV Optionen krass Unterschiedlich aus, also ist es nicht generell möglich.
Das zu behaupten würde ja auch gleichzeitig bedeuten, dass AMD zu blöd zum Umfallen ist, weil sie nicht in der Lage wären via Treiber oder Kartenbios ihre Karten effizienter zu machen, und damit generell besser dazustehen. Fakt ist, die sind nicht zu blöd, sondern sie müssen einfach die Einstellungen wählen @Stock die einen sicheren und stabilen Betrieb zu 100% gewährleisten und das bei allen Karten, daher sind besonders effiziente AMD Modelle Einzelfälle die auch am Ende nicht wirklich an die Effizienz im Verhältnis zur Leistung der Nvidia 40xx herankommen und ggf instabil werden, mal abgesehen davon, das sie bei Bedarf die OC und UV Voreinstellungen ( wenn nicht gefixt ) umgehen und trotzdem hochziehen, bevor sie Abstürzen oder einbrechen würden.

Die einzigen Karten von AMD die sich also real mit der gleichen FPS/Watt Leistung von Nvidia messen können, sind die 7900GRE und die 7900XT, in diesem Fall mit der 4070ti, in dem Fall kosten sie aber das Gleiche, bzw im Falle der 7900GRE sind sie nicht frei einzeln verkäuflich.
Einziger Vorteil der AMD Karten ist da der 4GB bzw 8GB größere RAM


Es gibt also nicht DIE beste Karte, es ist immer eine Einzefallgeschichte, als erstes ist die Frage was brauche und will ich an maximalen FPS, da sollte der Monitor der ausschlaggebende Punkt sein, wenn ich einen 1440p mit 165Hz habe, macht auch eine Karte Sinn die in 1440p gute dreistellige FPS bis 165FPS erreicht, wenn ich auf 1080p 144Hz unterwegs bin, kann ich niedriger ansetzen.

Also vernünftige Karte angemessen zur Nutzung, bei besonderen Anwendungen sind dann vielleicht noch andere Merkmale der Karte wichtig, danach zählt Preis, Effizienz und ggf Lautstärke usw.

Jemand der auf 1080p 144Hz unterwegs ist, hat also selten bis nie mehr bedarf als maximal eine 4070 oder 7700XT maximal
 
Zuletzt bearbeitet :
wie willst du sachlich bleiben wenn nur schwachisnn geredet wird und man als troll dargestellt wird obwohl ich nur das wiedergebe was 100e tester getestet haben die Daten liegen da im internet !!!! das ist als wenn man sagen würde 2+2 ist nicht 4 komplett realitätsfremd.
Naja die Wortwahl geht schon in Richtung Troll (inklusiver authentischer Orthographie): "schwachsinn", "scheiss", "hoffnungsloser müll", "lächerliche witzfigur", ...

Auf den vielen Unsinn und Unterstellungen gehe ich da gar nicht mal ein.
 
Freunde, lassen wir die Kirche doch bitte mal im Dorf.
Hier werden Äpfel mit Ananas verglichen. Preise sind mal außen vor, das Nvidia teuere ist ist, klar, einfach weil sie es können.
Der Preis ist doch mit das Wichtigste - mehr Transistoren oder kleinere Herstellungsverfahren kostet halt erheblich mehr.
Mit beliebig mehr Geld ein besseres Ergebnis zu erzielen ist doch nichts besonderes.
Daher ist ja Preis/Leistung seit ewigen Zeiten ein probates Mittel zum Vergleichen.
 
Wieder schwachsinn AMD kann einfach kein Rt weil die hardware dafür nicht da ist und desto schwerer die Rt Last desto schwerer der Hit komplett logisch. Was glaubst du warum amd sponsored games fast kein rt haben ?

Wäre dem so was du sagst warum ist dann eine rx 6800 so schnell wie dei 4070 wenn man CP 2077 ohne RT zockt? ha? obwohl sie normal die 4070 normal so schnell ist wie die 6800XT? Komisch oder? würde das stimmen würde das auch bei non rt cyberpunk zutreffen tut es aber nicht. Schwachsinnige fanboy Verschwörungstheorie. Amd performt sehr gut in cyberpunk ohne rt.
Klar, muss ja auch auf den Konsolen laufen, die nutzen eine Variante von RDNA2 und bei der XBox Series S darf man eh nicht mit RT kommen.
Die ganze Nvidia-Optiierung hat wohl auch den Konsolen-Launch verkackt, wäre ein sehr hartes Indiz und nicht unbedingt eine reine Verschwörungstheorie.
 
Der Preis ist doch mit das Wichtigste - mehr Transistoren oder kleinere Herstellungsverfahren kostet halt erheblich mehr.
Mit beliebig mehr Geld ein besseres Ergebnis zu erzielen ist doch nichts besonderes.
Daher ist ja Preis/Leistung seit ewigen Zeiten ein probates Mittel zum Vergleichen.
DigitalBlizzard hat nicht unrecht. Nvidia spielt schon lange in einer anderen Liga und das nutzen sie selbstverständlich schamlos aus. Ohne Kryptohype und KI-Gedöns sähe es preislich anders aus. Da nimmt die GPU mal gerne 50% oder mehr der Gesamtkosten in Anspruch.
Eine 7800XT ist für mich persönlich erst unter 500 € attraktiv, ansonsten ganz klar 4070. Momentan bin ich bei WQHD mit der 3080 noch zufirden. Wie gesagt, Stromverbrauch bei UV spielt bei mir keine ganz so große Rolle, auch wegen Wakü. Von daher,jedem das seine.
 
RDNA3 ist doch gegenüber zur RDNA2 ca. 100€ runter im UVP.
Beispiel:
6900XT (UVP 999) vs 7900XT (UVP 899)
6800XT (UVP 649) vs 7800XT (UVP 549)
Die Leistung isr idR etwas besser, insbesondere beim RT.
Mal ganz davon abgesehen, dass ich damals für meine 6900XT Toxic um die 1.200,- EUR bezahlt hab.
 
DigitalBlizzard hat nicht unrecht. Nvidia spielt schon lange in einer anderen Liga und das nutzen sie selbstverständlich schamlos aus. Ohne Kryptohype und KI-Gedöns sähe es preislich anders aus. Da nimmt die GPU mal gerne 50% oder mehr der Gesamtkosten in Anspruch.
Eine 7800XT ist für mich persönlich erst unter 500 € attraktiv, ansonsten ganz klar 4070. Momentan bin ich bei WQHD mit der 3080 noch zufrieden. Wie gesagt, Stromverbrauch bei UV spielt bei mir keine ganz so große Rolle, auch wegen Wakü. Von daher,jedem das seine.
Würd ich nicht sagen,weil er einfach nur Nvidia sieht.
Betrachtet man es neutral über viele Spiele hinweg,dann liegt die 7800XT sehr gut zwischen der 4070 und der TI.
Nimmt man jetzt den Preis und die 4GB VRAM mit ins Spiel, dann ist die 7800XT der klare Sieger.

 
Jetzt postet der Typ tatsächlich ein Video von Youtube das fake ist der Typ hat diese Karten nicht. Das hattest du bei mir aber angezweifelt obwohl ich kein Video gepostet habe. Der Witz schreibt sich von selbst dann dem Blizzard mitglied auch noch was anwerfen? lmao


Nein die 7800xt ist gleichauf mit der 4070 und 6800Xt



PCGH, HWU,Hardware Nexus müssen wohl alles lügner sein was für eine clownsshow unfassbar.
 
Mal ganz davon abgesehen, dass ich damals für meine 6900XT Toxic um die 1.200,- EUR bezahlt hab.
Die UVPs sind vom Arsch fürn Arsch, ich habe für eine 6800 in 02.2022 1099€ gelöhnt, die ist heute 300 wert.
Und hier werden verglichen 6800XT mit 7800XT, schwachsinn, die 7800XT ist 5% stärker als die 6800XT und 5% effizienter, also sagen wir 10% besser.

Beide bekomme ich heute ab 550€ also hat die 7800XT einfach die besseren Argumente, ich kann nicht Preise aus irgendwelchen Zeiten von vor 1 oder 2 Jahren heranziehen zum Vergleich.

wer also jetzt noch eine eine 6800XT kauft hat den Schuss nicht gehört, aber wer mal genau drüber nachdenkt, bekommt bei gleicher Leistung auch eine 4070, die eben mal 25% weniger Strom braucht und mit 590€ gerade mal 40Euro mehr kostet, das isnd immerhin 50Watt weniger als ein 7800XT und 90 Watt weniger als ein 6800XT bei 1000Stunden Gaming pro Jahr braucht die 4070 also 50kwh weniger als die 7800XT und 90kwh weniger als die 6800XT, das sind 15 bzw 30€ weniger Strom pro Jahr, das sind in drei Jahren 45bzw90€ weniger.
Damit ist die 7800XT über drei jahre betrachtet gar nicht günstiger und die 6800XT sogar viel teurer.
Und dann reden wir noch vom Wiederverkaufwert nach drei Jahren, da sind die Nvidia preisstabiler.
Und was 50 oder 90Watt weniger Energie für Lautstärke und Kühlung bedeuten ist auch klar, natürlich ist die 200Watt Karte leiser und Kühler.
Einziger vorteil der 6800XT, als Student sparst im Winter in der Einzimmer Bude massig heizkosten, das erledigen die 90Watt extra der 6800XT gleich mit
 
Oben Unten