Sapphire Radeon RX 7700 XT Pure 12 GB im Test - Ein echter Traum in Weiß und Alptraum beim Preis

Wie groß ist denn dein Unterschied in Cyberpunk zwischen der 6900XT und der 4080?
Ich hab mit der 7900XTX gut 38% mehr FPS mit RT bei fast 50Watt weniger am Netzteil.
Ich hab CB2077 garnicht, weils auf mich den Eindruck eines spielbaren Benchmarks macht. Bei Hogwarts Legacy lag der Unterschied bei der Rasterleistung bei +30-40% bzw. +80-120% (RT on/kein DLSS) - WQHD outmaxed. RT on war mit der 6900XT und hohen Grafikeinstellungen nicht spielbar (sehr wenige Frames und miese Frametimes plus Abstürze).
Bei Metro Exodus EE war es nicht ganz so extrem, aber immer noch ruckelig. Nur Rastern ging mit der 6900XT in jedem Titel ganz okay, einzig bei Uncharted Legacy of Thieves Collection brachen die Frametimes ein, das lief trotz 75 FPS-Limit manchmal ruckelig. Mit der 4080 war das überhaupt kein Thema. War halt die alte Gen, ich war großer Fan meiner Toxic - bezogen auf die Grafik hat die 4080 aber ne ziemliche Schippe drauf gelegt, sonst wäre sie auch direkt zurück gegangen.
 
Außer du musst was mit viel Ram machen, denn das haben die bis heute nicht kapiert.

AMD ist in meinen Augen einfach der P/L Sieger, Nvidea der Leistungssieger. Ist ein wenig wie Intel vs Amd im CPU markt, wer für ein paar wenige % mehr Bereit ist viel zu zahlen geht zum Sieger, der rest vergleicht.

Außer du machst was mit viel Ram, dann eh AMD
Ja Modding Stuff aber selbst da kein Problem, die Leute die das wollen und machen nehmen eh ab 4080. Sonst ist diese vram geschichte unfug oder hat man je wo millionen von spieler jammern hören das der vram zu wenig ist? Nvidia hat teilweise 10 millionen Karten abgesetzt pro Quartal. Trotzdem hört man davon nix komisch oder? ^^

P/L Sieger waren sie mal mittlerweile nicht mehr wo denn bitte? Die zeiten sind seit 2018 vorbei. Die paar € die man spart hat man mit dem strom drinn in ein paar jahren und die ganzen anderen nachteile.... und nvidia läuft immer weiter davon. Das kann man gar nicht einholen außer nvidia macht mal pause aber das wird nie passieren.

Auch weil hier einige sagen markenfetischismus dies und das, den meisten also 99.99987'% ist die marke scheiss egal. Warum ?

Ryzen ist der beste beweis. Wenn das Produkt tatsächlich gut ist, verkauft es sich auch egal was draufsteht. So einfach ist die ganze Story :p.

Hätte AMD etwas wie DLSS also in der Qualität, endlich keine nervigen treiber bugs mehr und den idle murks im griff DANN kann man davon reden das sie eine alternative sind. Och habe ich jetzt RT vergessn das natürlich auch noch gut wenn sie 20% dahinter sind dann wäre das jetzt nicht so schlimm aber die ergebnisse sind so inkonsistent. Aber so bietet mir AMD nur Vram denn man eh nie ausfahren wird und ein bisschen bessere standard Leistung und ne heizung, dass wars sonst nichts sonst ist alles bei Nvidia wesentlich besser. Weiß nicht warum man eine AMD Karte kaufen sollte mit diesen nachteilen aber soll jeder machen was er will :p
 
Hmmmm,dann frag ich mich warum keiner mit AMD klar kommt.......Warum hab Ich 0 Probleme mit AMD.......Warum hab ich einfach die 6900XT raus genommen, die 7900XTX rein,Treiber drübergebügelt und es läuft.......
Weiß ich nicht. Wie gesagt vielleicht tolerierst du so etwas einfach mehr als andere, die meisten wollen einbauen und zocken und das liefert nvidia frag mal pc/karten händler ;)

Auch ist das nicht gut was du da machst nur weil du kein Problem hast oder das glaubst oder die kleinigkeiten einfach unter den tisch kehrst, heißt es nicht das es keine gibt. Setzt mal in relation wie viele karten nvidia verkauft hat und wie viele amd trotzdem findet man bei amd soviel dazu im internet(rx 5700XT alleine das war eine farce). Klar bei nvidia auch aber wie gesagt hätte nvidia diese Probleme wäre der andrang im internet um das 10 fache höher bei den zahlen was nur logisch ist.

Weiß nicht die Karte zieht ja auch 60 watt bei yotutbe solche sachen noch immer nicht gefixt ist eine farce und das betrifft jede Generation von AMD nur diese ganz besonders. Oder 90 Watt am desktop nur weil ein 4k 120hz Tv angeschlossen ist? Mein ganzer Pc braucht 60 watt am Desktop mit der 70ti. Sowas kann man einfach nicht bringen. Schon gar nicht 2023 das bei uns die höchsten Stromkosten der Welt. Ignoriesrt du das einfach?
 
@helprequired
Cyberpunk als showcase wird langsam langweilig.
Cyberpunk sagt für die Zukunft nichts aus, da CD Projekt auf die UE5 wechselt.
Mich würde ja eher interessieren, wie die aktuellen Grafikkarten aller Hersteller mit der UE5 in 2024 laufen ;-)
Forspoken und Immortals Of Aveum sind so schlecht optimiert, da kann man nichts ableiten.


Ich wechsel seit der Matrox Mystique/Voodoo 2 immer zwischen den Herstellern.
Es gibt keine guten Marken, nur gute Modelle und das ist auch noch abhängig vom Nutzer.
Um das Jahr 2000 hat man bei Nvidia und ATI noch Augenkrebs bei der 2D-Darstellung bekommen.
Matrox G400, Geforce 2 MX, 4200Ti, 6800GT, 9800GT, Radeon 6850/7870/R9 380/Geforce 1070, RX 5700XT/ RX 6700XT, RTX 3060, RX 7700XT (leise, kein Spulenfiepen und läuft stabil mit UV)
Es ist das technsich fortschrittlichste Spiel am Markt mit der besten Grafik für das kaufen wir doch grafikkarten oder nicht? Cp 2077 ist das moderne Crysis mit Pathtracing. Daher verstehe ich das nicht. Es ist kein showcase es ist ein ganzes spiel ^^ sogar relativ gut wenn man nur der Story folgt.

Daher verstehe ich diese Haltung nicht das in einem Technik Forum rund um Gpus, unverständlich. Kannst auch alan wake 2 nehmen sieht auch bombe aus.

Ue5 ist noch am anfang die wird 2026 besser aussehen und perfromen als jetzt wirst sehen war doch immer so.

Es gibt weder gute marken noch modelle sondern einfach gute produkte meiner meinung nach. :giggle: Ein Produkt messe ich an dem was es sonst noch gibt. Das ist nun einmal Nvidia in diesem Fall und Intel auch bald, die machen noch npaar windeljahre durch.
 
nein. das ist es auch nicht, weil OC hat sie nur 25. auf yt gibt es ein paar tests und die sind alle bei um die 30

ich glaube es liegt eher daran
Measurement distance is 50 cm. Our previous noise-level measurements took place at a distance of 1 m. We reduced the distance to be able to better distinguish acoustics of the very quiet graphics cards.
möglich, dass die auf yt direkt neben der karte gemessen haben und nicht 50cm entfernt
ist aber glaube ich auch nicht so wichtig. bei 30db wird in den meisten fällen der spiele sound lauter sein und wenn der PC unter dem tisch steht ist es sowieso nicht mehr zu hören
 
Ich hab CB2077 garnicht, weils auf mich den Eindruck eines spielbaren Benchmarks macht. Bei Hogwarts Legacy lag der Unterschied bei der Rasterleistung bei +30-40% bzw. +80-120% (RT on/kein DLSS) - WQHD outmaxed. RT on war mit der 6900XT und hohen Grafikeinstellungen nicht spielbar (sehr wenige Frames und miese Frametimes plus Abstürze).
Bei Metro Exodus EE war es nicht ganz so extrem, aber immer noch ruckelig. Nur Rastern ging mit der 6900XT in jedem Titel ganz okay, einzig bei Uncharted Legacy of Thieves Collection brachen die Frametimes ein, das lief trotz 75 FPS-Limit manchmal ruckelig. Mit der 4080 war das überhaupt kein Thema. War halt die alte Gen, ich war großer Fan meiner Toxic - bezogen auf die Grafik hat die 4080 aber ne ziemliche Schippe drauf gelegt, sonst wäre sie auch direkt zurück gegangen.
Deine Spiele waren mir bis her zu Teuer um sie zum Testen zu kaufen, Weinachten mal abwarten.
Das die 6000er in RT nicht so gut abschneidet ist klar,spielbar solle es aber dennoch in WQHD sein.
Grafik ist ja auch viel Einstellungssache im Treiber,Monitor.....
 
Weiß ich nicht. Wie gesagt vielleicht tolerierst du so etwas einfach mehr als andere, die meisten wollen einbauen und zocken und das liefert nvidia frag mal pc/karten händler ;)

Auch ist das nicht gut was du da machst nur weil du kein Problem hast oder das glaubst oder die kleinigkeiten einfach unter den tisch kehrst, heißt es nicht das es keine gibt. Setzt mal in relation wie viele karten nvidia verkauft hat und wie viele amd trotzdem findet man bei amd soviel dazu im internet(rx 5700XT alleine das war eine farce). Klar bei nvidia auch aber wie gesagt hätte nvidia diese Probleme wäre der andrang im internet um das 10 fache höher bei den zahlen was nur logisch ist.

Weiß nicht die Karte zieht ja auch 60 watt bei yotutbe solche sachen noch immer nicht gefixt ist eine farce und das betrifft jede Generation von AMD nur diese ganz besonders. Oder 90 Watt am desktop nur weil ein 4k 120hz Tv angeschlossen ist? Mein ganzer Pc braucht 60 watt am Desktop mit der 70ti. Sowas kann man einfach nicht bringen. Schon gar nicht 2023 das bei uns die höchsten Stromkosten der Welt. Ignoriesrt du das einfach?
Einbauen und Zocken ist ja auch kein Problem,nur dann zu behaupten der Treiber würde zickig sein nur weil man meint das der inkompatible Ram beim Ryzen 5000er z.b. mit 3600MHz laufen muss ohne das OC zu Testen obwohl der Treiber darauf empfindlich reagiert ist schon unterste Schublade.
Auch wollten in der Vergangenheit einige von mir Intel und NVIDIA verbaut haben,zufrieden waren sie nie wirklich........
Wie oft geschrieben,wenn man sich mit AMD auskennt,nicht jeden Werbemüll kauft hast mit AMD keine Probleme. Die meisten Probleme sind mit Windows 10 gekommen.
Das mit der 5700XT hab ich auch nie verstanden, hatte mir aber auch nur die 5700 gekauft und damit gab es auch keine Probleme.......

Hmmm 60Watt auf dem Desktop sagen nur nix aus und sind viel zu hoch wenn der 120Hz TV schon 80-100 Watt zusätzlich verbraucht, solltest mal drüber nach denken was dein Rechner und da gehört nun mal auch der Monitor zu aus der Dose nuckelt.

Und genau deswegen hab Ich z.b. AMD weil mir der Verbrauch wichtig ist.
Keinen TV mehr,oder 2-3 Monitore die über 100Watt ziehen.
Mein 41Zoll Monitor zieht 36-38Watt.
Der FullHD 24Zoll 18Watt.
Wenn ich 0815 Krempel mache wie hier schreiben,YouTube schauen...... dann läuft max der 5700G oder 5600G und da verbraucht das gesamte System mit Monitor max so viel wie dein Rechner ohne Monitor auf dem Desktop.Noch deutlich mehr Spare ich wenn ich zum Handy oder Tablet greife.
Um einen PC zu verwenden reicht nun mal nicht nur eine Grafikkarte die ein paar Watt weniger verbraucht als die Konkurrenz.
 
Deine Spiele waren mir bis her zu Teuer um sie zum Testen zu kaufen, Weinachten mal abwarten.
Das die 6000er in RT nicht so gut abschneidet ist klar,spielbar solle es aber dennoch in WQHD sein.
Grafik ist ja auch viel Einstellungssache im Treiber,Monitor.....
Ja klar, zocken war mit der AMD kein Thema. Das sah auch richtig gut aus. Ich bin der Lobhudelei bzgl Raytracing auf den Leim gegangen. Musste dann allerdings anerkennen, dass es grafisch nochmal ein deutlicher Sprung von 6900 > 4080 war.
Hogwarts hab ich wegen der Kids gekauft, die sind da immer noch dran. Metro EE gabs für Umme oben drauf (hatte das normale vor Jahren gekauft) und Uncharted war für Papa 😁

Edit: Vielleicht nochmal für dich @Casi030 als Hinweis: Ich habe weder den Durchblick noch die Zeit, so ausführlich zu optimieren. Ich bin erstaunt, was du aus den Karten und CPUs rausholst, ich bin aber nach meiner Erfahrung mit dem 5800X3D skeptisch, ob das im Dauerbetrieb stabil läuft. Mein OS ist, seitdem ich die UEFI-Einstellungen auf Normbetrieb gesetzt habe, komplett stabil. Es spricht viel dafür, dass die UV-CPU diese Fehler produziert hat (siehe anderer Thread). Allen Tests mit HWINfo, CoreCycler, CB usw. zum Trotz. Ich nutze jetzt beim zocken die UV Möglichkeiten des PBO Tuners. Das ist nur temporär, tut, was es soll und alles bleibt stabil.
 
Zuletzt bearbeitet :
Ja klar, zocken war mit der AMD kein Thema. Das sah auch richtig gut aus. Ich bin der Lobhudelei bzgl Raytracing auf den Leim gegangen. Musste dann allerdings anerkennen, dass es grafisch nochmal ein deutlicher Sprung von 6900 > 4080 war.
Hogwarts hab ich wegen der Kids gekauft, die sind da immer noch dran. Metro EE gabs für Umme oben drauf (hatte das normale vor Jahren gekauft) und Uncharted war für Papa 😁

Edit: Vielleicht nochmal für dich @Casi030 als Hinweis: Ich habe weder den Durchblick noch die Zeit, so ausführlich zu optimieren. Ich bin erstaunt, was du aus den Karten und CPUs rausholst, ich bin aber nach meiner Erfahrung mit dem 5800X3D skeptisch, ob das im Dauerbetrieb stabil läuft. Mein OS ist, seitdem ich die UEFI-Einstellungen auf Normbetrieb gesetzt habe, komplett stabil. Es spricht viel dafür, dass die UV-CPU diese Fehler produziert hat (siehe anderer Thread). Allen Tests mit HWINfo, CoreCycler, CB usw. zum Trotz. Ich nutze jetzt beim zocken die UV Möglichkeiten des PBO Tuners. Das ist nur temporär, tut, was es soll und alles bleibt stabil.
Bei DIR kommt auch nix was nicht Sachlich und glaubwürdig ist wie bei manch anderen auch hier,@Tronado sitzt ein wenig zwischen den Stühle,aber die Sticheleien sind immer wieder schön mit ihn.;)

Wenn Ich schreibe liefer mal vollständige Einstellungen und Daten zum Vergleichen dann kommen die auch von dir und wenn meine AMD Grafikkarte dann besser ist,dann kommt nix aller das ist Fake,das geht nicht oder sonst ein Fanboy gehabe.Das ist der Größe Unterschied.

Metro.....da hab ich auch irgend was von,hab ich mit der 6900XT jetzt aber nicht im Vergleich.

Ja der 5800X3D liegt hier auch noch seit ein paar Wochen rum,da bin ich auch drauf gespannt wie gut er sich auf nem x370er Optimieren lässt,aber gerade keine wirkliche Lust die beiden anderen Rechner noch um zu bauen,lieber erst noch die 7900XTX studieren.....😁
 
Zuletzt bearbeitet :
Einbauen und Zocken ist ja auch kein Problem,nur dann zu behaupten der Treiber würde zickig sein nur weil man meint das der inkompatible Ram beim Ryzen 5000er z.b. mit 3600MHz laufen muss ohne das OC zu Testen obwohl der Treiber darauf empfindlich reagiert ist schon unterste Schublade.
Auch wollten in der Vergangenheit einige von mir Intel und NVIDIA verbaut haben,zufrieden waren sie nie wirklich........
Wie oft geschrieben,wenn man sich mit AMD auskennt,nicht jeden Werbemüll kauft hast mit AMD keine Probleme. Die meisten Probleme sind mit Windows 10 gekommen.
Das mit der 5700XT hab ich auch nie verstanden, hatte mir aber auch nur die 5700 gekauft und damit gab es auch keine Probleme.......

Hmmm 60Watt auf dem Desktop sagen nur nix aus und sind viel zu hoch wenn der 120Hz TV schon 80-100 Watt zusätzlich verbraucht, solltest mal drüber nach denken was dein Rechner und da gehört nun mal auch der Monitor zu aus der Dose nuckelt.

Und genau deswegen hab Ich z.b. AMD weil mir der Verbrauch wichtig ist.
Keinen TV mehr,oder 2-3 Monitore die über 100Watt ziehen.
Mein 41Zoll Monitor zieht 36-38Watt.
Der FullHD 24Zoll 18Watt.
Wenn ich 0815 Krempel mache wie hier schreiben,YouTube schauen...... dann läuft max der 5700G oder 5600G und da verbraucht das gesamte System mit Monitor max so viel wie dein Rechner ohne Monitor auf dem Desktop.Noch deutlich mehr Spare ich wenn ich zum Handy oder Tablet greife.
Um einen PC zu verwenden reicht nun mal nicht nur eine Grafikkarte die ein paar Watt weniger verbraucht als die Konkurrenz.
Ok.

Die Karte alleine bräuchte das an Strom, schon wieder wird alles auf andere komponente geschoben oder gar auf den Kunden wo es reicht die Karte zu wechseln und alle probleme sind weg. :ROFLMAO: Was ist werbemüll bitte?Auch wenn es Windows 10 ist oder war, warum sollte man sich das antun bei Nvidia geht es doch auch. Wie gesagt paar € mehr und all diese Probleme existieren nicht.

Dann auch noch relativieren versuchen?! echt jetzt? soll ich mir nen anderen pc zum youtube anschauen und browsen benutzen weil amd nichts auf die Reihe bekommt? In welcher Welt lebst du bitte. Wenn interssiert hier die apu? paar watt? Der war gut. Mein Ganzer Pc braucht keine 280-300 Watt beim zocken das braucht doch die 7800XT alleine fast schon je mach modell und meine Karte ist schneller^^

Hier auf diesee Seite sogar: https://www.igorslab.de/community/t...er-energetischer-brechstange.8707/post-237216

Nein muss der Kunde sein oder was anderes im Pc :unsure::oops: DASS ist unterste Schublade was du da machst. Hättee der eine Nvidia Karte drin wäre das kein Problem.
 
Ok.

Die Karte alleine bräuchte das an Strom, schon wieder wird alles auf andere komponente geschoben oder gar auf den Kunden wo es reicht die Karte zu wechseln und alle probleme sind weg. :ROFLMAO: Was ist werbemüll bitte?Auch wenn es Windows 10 ist oder war, warum sollte man sich das antun bei Nvidia geht es doch auch. Wie gesagt paar € mehr und all diese Probleme existieren nicht.

Dann auch noch relativieren versuchen?! echt jetzt? soll ich mir nen anderen pc zum youtube anschauen und browsen benutzen weil amd nichts auf die Reihe bekommt? In welcher Welt lebst du bitte. Wenn interssiert hier die apu? paar watt? Der war gut. Mein Ganzer Pc braucht keine 280-300 Watt beim zocken das braucht doch die 7800XT alleine fast schon je mach modell und meine Karte ist schneller^^

Hier auf diesee Seite sogar: https://www.igorslab.de/community/t...er-energetischer-brechstange.8707/post-237216

Nein muss der Kunde sein oder was anderes im Pc :unsure::oops: DASS ist unterste Schublade was du da machst. Hättee der eine Nvidia Karte drin wäre das kein Problem.
Also Stromverbrauch ist Dir nicht wichtig.......Schublade.
Irgend welche Zahlen an den Kopf schmeißen ohne Belege und Fakten......Schublade.
Nvidia hat keine Probleme und ist Plug&Play und im anderen Thread rumheulen das deine 4070ti nicht richtig läuft......Schublade.
Verarschen kannst dich alleine.
 
Setzt den Troll doch einfach auf ignore 🙄
 
Wenn Du und ein paar andere Probleme mit Fakten haben dann ist das nun mal nicht Mein Problem.
Wohin soll ich noch mal Abhauen?!
Okay dann eghen wir das ganz vernünftig an. Von welchen Fakten sprichst du bitte?

Das der Idle Verbauch nicht viel höher ist als bei Nvidia? Dann musst du deine eigene Seite eröffnen denn dann liegen wohl alle falsch außer Du.
Fenster bewegen? Gehe einmal zurück da berichten schon in diesem Forum wer von diesem Problem bei seiner neuen 7800Xt, selbiges bei Yotube. Das RDNa 3 hoffnugslo Powerlimitiert ist? Bei der XTX kannst du den Takt auf 2000mhz reduzieren und die spannung trotzdem bist du bei fast 300 Watt. Siehe PCGH Big Yundol der hat das gemessen und auch geteilt. Aber liegt wohl auch falsch...

Welche andere? Ich mein das sit 20 sekunden googlen und du hast diese Daten frisch serviert. Das sind die Fakten.

Mit welchen Fakten habe ich ein Problem da bin ich jetzt aber gespannt?
 
Okay dann eghen wir das ganz vernünftig an. Von welchen Fakten sprichst du bitte?

Das der Idle Verbauch nicht viel höher ist als bei Nvidia? Dann musst du deine eigene Seite eröffnen denn dann liegen wohl alle falsch außer Du.
Fenster bewegen? Gehe einmal zurück da berichten schon in diesem Forum wer von diesem Problem bei seiner neuen 7800Xt, selbiges bei Yotube. Das RDNa 3 hoffnugslo Powerlimitiert ist? Bei der XTX kannst du den Takt auf 2000mhz reduzieren und die spannung trotzdem bist du bei fast 300 Watt. Siehe PCGH Big Yundol der hat das gemessen und auch geteilt. Aber liegt wohl auch falsch...

Welche andere? Ich mein das sit 20 sekunden googlen und du hast diese Daten frisch serviert. Das sind die Fakten.

Mit welchen Fakten habe ich ein Problem da bin ich jetzt aber gespannt?
Was irgend eine Klatschpresse schreibt ist mir herzlich egal.
Fakt ist aber bei rund 2GHz zieht die RX7900XTX 260Watt und die 4070ti um 250Watt bei gleicher Leistung z.b.. und das machen mit nem 5950X, gut 20Watt RGB,Wasserkühlung gerade mal 400Watt.Idle hab ich noch nicht getestet weil der Treiber für die 7900XTX min 6 Monate alt ist wie auch der Treiber von der 6900XT war und wenn man realistisch verglichen will,dann sollten die auch identisch sein.
Wenn RDNA3 nur im PowerLimit laufen würde,dann verstehe Ich nicht warum es so schwierig ist sie aufs PowerLimit zu Optimieren......Das PowerLimit ist viel zu hoch.
Das die 7000er schwierig zu Optimieren sind ist aber auch Fakt besonders wenn du ein beschissenen OC Bios hast.

Schickst deine Nvidia Karte jetzt eigentlich auch zurück mit dem VRAM Problem und nimmst ne AMD oder wartest ab bis Nvidia es im Treiber gefixt hat?

 
Zuletzt bearbeitet :
Weiß nicht die Karte zieht ja auch 60 watt bei yotutbe solche sachen noch immer nicht gefixt ist eine farce und das betrifft jede Generation von AMD nur diese ganz besonders. Oder 90 Watt am desktop nur weil ein 4k 120hz Tv angeschlossen ist?
Auch hier,wo soll das her kommen......
4K 120Hz Monitor und ich hab mit Browser,4K YouTube max 81Watt.......Und wie geschrieben ALTER Treiber.
unknown_2023.09.20-15.33.png
 
Fakt ist doch einfach, dass man jede Karte individuell einstellen kann und da sind solche Werte wie bei Casi030 sicherlich möglich. Und das belegt er auch. Die Verbrauchsdaten werden sowieso viel zu heiß gekocht. Jeder guckt nur noch auf den verbrauch. Als die 3090 rauskam waren alle geschockt und dachten die Reise geht für die Netzteile in Zukunft standardmäßig jenseits der 1000W. Bei mir läft eine 3080@UV 1830/0,825 bei max. 250W. Eine RTX 4070 ist da sicher ökonomischer. Na und bei 400h Maxauslastung im Jahr kommen da 500x0,06=30 kWh zusammen. Für Mehrspieler klar mehr. Aber das sind 10€ Mehrpreis. So what? Man kann das doch nicht alles momentan auf den Stromhunger runterbrechen. Und die Entwicklung geht nicht so wie angenommen nach oben sondern für die Mittelklasse eher runter. Da braucht AMD noch ein wenig Zeit um aufzuschließen. Ist doch kein Drama.
 
Das Geld ist doch bei den meisten nicht das primäre Thema. Wenn man nur mit Luft kühlt ist der Verbrauch und die damit verbundene Lüfterdrehzahl/Lautstärke doch das eigentliche Problem.
Sicher könnte ich meine RTX 4070Ti auch ausfahren und ihr die 285W geben...ich bin da eher für minimal weniger Leistung, aber dafür auch ~110W weniger Verbrauch, oder 90W weniger und selbe Leistung....was sich eben auch auf die Lüfterdrehzahl niederschlägt.

Wer eine Customwasserkühlung sein eigen nennt, wird sich weder um die Lautstärke, oder um die Stromjahresrechnung Gedanken machen.

Schlußendlich bestimmen doch die eigenen Ansprüche den Verbrauch. Wenn Optik und FPS reichen darf es ruhig ein wenig weniger Verbrauch sein.
Genauso wie mit der RX 6800 wird gedrückt was das Zeug hält :)

 
Zuletzt bearbeitet :
Wenn die 300€ Karte mit 115 Watt deine 350 Watt Karte um 1000€ schlägt. Ist halt auch fake und so ne :cry::ROFLMAO:performance-pt-1920-1080.png;)
 
Bei mir läft eine 3080@UV 1830/0,825 bei max. 250W
Blödsinn tut sie nicht. Wirf mal ein spiel an das fordert dann säuft das Ding trotz Uv über 300Watt warum? Weil Ampere genau so Powerlimitiert ist wie RDNA 3, da bringt Undervolt fast gar nichts je nach Spiel nur stabilere Taktraten und daher mehr Performance.

junge, junge diese Forum sollt man in AMD Fanboy heaven umbennen kein wunder das nix los ist. Hier wird rumfantasiert in der eigenen bubble das es kracht. Echte Reviewer mit jahrzehnten an Erfahrung werden als schwchsinn deklariert. Relaitätsfremd hoch 10 selten so etwas gesehen das wegen spielzeug. unfassbar :ROFLMAO:.
 
Oben Unten