Sapphire Radeon RX 7700 XT Pure 12 GB im Test - Ein echter Traum in Weiß und Alptraum beim Preis

Viel teurer ist Ansichtssache, klar sind sie Nvidia Karten teuerer, ist so, dafür spielen sie in einer anderen Liga, AMD hat bis heute keine ernst zu nehmende Antwort auf DLSS, wo ist eine AMD Karte, die mit einer 4080 mithalten könnte, wo ist AMDs Karte die in Leistung und Effizienz mit einer 4070 konkurrieren könnte!? Wo waren in der 8er Serie weiße Karten!?
Eine RX6800 musst erst massiv Ocen und Undervolten, damit sie wenigstens in die Nähe einer 4070 kommt, aber sie erreicht sie nicht, Brauch selbst dann immer noch mehr Strom und erreicht weniger Leistung.
AMD hat zu wenig Marktanteil, entsprechend wenig finanziellen Spielraum für Entwicklung.
Ein Aufguss nach dem Anderen.
Hat immer wieder Probleme mit Treibern und Software
Ich habe eine RX 6800, eine 3080ti, eine 4060ti 16, eine gerade Auserhäusige 3070 OC, eine hatte vorher 5700XT, 580, 2080 Super etc. Bishin zu den damals ATI Modellen.

Leider kann ich daher im direkten Vergleich sagen, dass AMD einfach kein ordentliches PlugNPlay hinbekommt, seien es immer wieder irgendwelche Treiber und Software Probleme, Inkompatibilitäten usw
Da ist Nvidia einfach eine sicherer Bank und das sehen offensichtlich 90% der Grafikkarten Käufer genauso, sonst wäre AMD nicht zuletzt bei 7% Marktanteil gelandet.

Nvidia geizt mit RAM und die Preise sind teilweise heftig.
Aber AMD schafft es einfach nicht eine ernsthafte Konkurrenz zu bilden, trotz der niedriger Preise.
Marktanteile von weniger als 10% ist nichts, worüber sich Nvidia Sorgen machen müsste.

Und wenn AMD plötzlich die besseren Karten hätte, dann würden sie Preise durch die Decke gehen, genau wie es bei den CPUs war.
Die AMD CPUs waren bis zur Ryzen 3000 Serie immer eine günstigere Alternative, seitdem sie wieder vorne mitspielen, sind sie die teuersten auf dem Markt.

Wenn sie die Grafikpreise nicht günstig gestalten würden, wären die letzten paar Marktanteile auch weg, das ist die Realität.

Also die Annahme, das AMD fairere Preise hätte, ist ein Irrglaube, die können sich im Moment einfach nur über den Preis überhaupt noch einen Rest Marktanteil halten.

Wenn die 7800XT eine Konkurrenz für z.B. die 4080 wäre, in Leistung und Effizienz, dann würde sie 1000€ kosten, minimum.
Wenn die 7900XT oben mitspielen könnte, würde sie mindestens 1500€ kosten, da kannst Gift drauf nehmen, die Rechtfertigung für die Preise geben aber Leistung, Effizienz und Markanteil schlicht nicht her, also geht es nur über Preis.

Wer den Markt dominiert, kann die Preise machen, leider ist das so und solange AMD nicht ernsthaft auf den Markt einwirken kann, wird sich auch an den Nvidia Preisen nichts ändern.
 
Zuletzt bearbeitet :
Ich verstehe einfach diesen Markenfetischismus nicht, weder Nvidia noch AMD sind irgendwie nett oder kundenorientiert, es sind riesige Konzerne die in erster Linie Geld verdienen wollen.
Geld verdienen lässt sich nur mit der Gunst der Kunden.
Nvidia hat sich diese in den letzten Jahren mehr oder weniger zu Recht in erheblichem Maße gesichert.
Für Nvidia ist AMD auf dem Markt lästig, wie eine Fliege, mehr aber auch nicht.
AMD nimmt Nvidia nichts mehr weg, was Nvidia auch nur im Entferntesten wirklich weg tun würde.
AMD hat die Arschkarte, weil sie einfach immer an Nvidia gemessen werden, hat aber realistisch keine Chance hier wirklich aufzuschließen, denn das einzige was Nvidia wirklich schaden kann, ist Nvidia selbst.
Sei es der RAM Geiz oder die absurde Preisgestaltung, aber das akzeptieren die Kunden, schlicht aus Mangel an echten Alternativen.
Intels Versuch, den ich für gar nicht soo schlecht halte, hat aber aufgrund der günstigen Preise und der Unsicherheit hauptsächlich im AMD Revier gewildert.

Bleibt abzuwarten was kommt, was liefert Intel mit den neuen Arc Karten, das könnte durchaus spannend werden, allerdings kommt Nvidia mit Blackwell und den GB2xx Im Chiplet Design mit nicht mehr Leistung, nochmal 20-30% besserer Effizienz, PCIe5, GDDR7 PAM3 und/oder 6 PAM4 mit gut 32Gbps.
Allerdings richtet Nvidia wieder den Blick in die Oberklasse, die 5090 wird mehr als doppelt so viel Leistung haben wie die 4090, das ist krank.
Die 5070 wird die 4080Locker toppen, aber wo das Preislich hinführt ist auch klar.
Alleine die Einstiegsklasse wird locker 50-100€ teurer, wobei man bei Blackwell 5060 gar nicht mehr von einer Einstiegsklasse reden kann, das wird aller Wahrscheinlichkeit nach auf dem Niveau einer 4070 stattfinden, als kleinste Karte.
Wie die letztliche RAM Gestaltung aussehen wird ist fraglich, momentan sieht es nach einer Basis von 10GB als Minimum aus, aber das ist bei Nvidia alles andere als sicher

Fazit, die Spiele gehen weiter.
 
Intel nicht vergessen. Die haben ganz andere Resourcen und gar keinen so schlechten "ersten" Wurf hingelegt.
 
Gut AI spielt ja (noch) beim Gaming keine große Rolle, FSR3/Hypr und Antilag sind Argumente dafür. Frage die sich dann stellt wie sehr der Unterscheid schon in den Benchmarks widerspiegelt. Ich würde erwarten das so etwas bei den Nvidea Karten an ist um auch den echten Unterscheid zu zeigen. Und dann bleiben ja am Ende wieder die Nackten FPS als Unterschied und der Verbrauch. Das der aber, so lange wir nicht bei 1€ pro KWh ankommen (und dann haben wir ganz andere Probleme) nicht so relevant ist bei Preisunterscheiden von 100€+ ist klar.
Wer gerade absolut max Leistung will geht Nvidea das ist auch klar. Nur diese Karte ist ja nicht max Leistung, sie liegt WQHD Feld für die meisten. Und da muss sie sich halt mit einer 4070, RX 6800/xt 6900xt und 6950xt neben 7800xt messen. Wobei die 6800xt und mehr eher direkt 4070 sind, die hier steht ja eher alleine da. In so fern ist die Aussage "andre Liga" hier doch arg falsch.
 
Intel nicht vergessen. Die haben ganz andere Resourcen und gar keinen so schlechten "ersten" Wurf hingelegt.
Hatte Intel explizit erwähnt, denke da kommt noch was, der Start war vielversprechend, wenn auch holprig
Gut AI spielt ja (noch) beim Gaming keine große Rolle, FSR3/Hypr und Antilag sind Argumente dafür. Frage die sich dann stellt wie sehr der Unterscheid schon in den Benchmarks widerspiegelt. Ich würde erwarten das so etwas bei den Nvidea Karten an ist um auch den echten Unterscheid zu zeigen. Und dann bleiben ja am Ende wieder die Nackten FPS als Unterschied und der Verbrauch. Das der aber, so lange wir nicht bei 1€ pro KWh ankommen (und dann haben wir ganz andere Probleme) nicht so relevant ist bei Preisunterscheiden von 100€+ ist klar.
Wer gerade absolut max Leistung will geht Nvidea das ist auch klar. Nur diese Karte ist ja nicht max Leistung, sie liegt WQHD Feld für die meisten. Und da muss sie sich halt mit einer 4070, RX 6800/xt 6900xt und 6950xt neben 7800xt messen. Wobei die 6800xt und mehr eher direkt 4070 sind, die hier steht ja eher alleine da. In so fern ist die Aussage "andre Liga" hier doch arg falsch.
Die andere Liga ist auf Preis und die Topmodelle bezogen.
AI wird in der Zukunft des Gamings eine immer größere und letztlich leider sogar entscheidende Rolle spielen, Nvidia hat hier schon oft bewiesen, was DLSS schon kann, da wird der Fokus hinwandern, die Ganze Leistungsarie wird da immer unwichtiger, wichtig wird die AI Performance werden.

eine 4070 ist einfach ein großer Wurf, eine Karte die für Nvidia Verhältnisse noch nezahlbar ist, massig Leistung liefert und DAS Maß an FPS/ Watt darstellt, an Effizienz einfach nicht einzuholen.
Eine 4070 kannst in 1440p bei AMD nur mit mindestens einer 6800XT oder 7800XT erreichen, wenn Raytracing ins Spiel kommt, liegen auch die 6800XT und die 7800XT wieder deutlicher dahinter.
jetzt kostet die 4070 aber auch nur 50€ mehr als eine 6800XT braucht aber deutlich weniger Strom, @ Stock 6800XT sind es satte 100 Watt mehr, selbst wenn man die 6800XT OCed und UVed liegen immer noch gute 30-40 Watt dazwischen bei minimal niedrigerer Leistung als eine 4070.
Die 7800XT kommt leicht über die 4070, zumindest ohne Raytracing, die 7800XT kostet gerade mal 10€ weniger als eine 4070, dafür braucht sie auch 60 Watt mehr.

Sprich AMD tut sich schwer in dem Segment gegen eine Waffe wie die 4070, die im Moment auch einfach noch die Bessere AI Lösung bietet
 
22 habe ich noch nicht gesehen. hab mir ein paar tests angesehen und die nitro+ liegt da im silent bios etwas unter 30 und im OC so um die 30dB
und ist damit auf einem level mit der hellhound, die eine wesentlich günstigere UVP und bessere hotspot temp hat
Asus Radeon RX 7800 XT TUF Gaming OC soll sehr ähnlich sein von lautstärke und kühlleistung
Ah, die messen im Quiet-Mode 22,8 dBA: https://www.techpowerup.com/review/sapphire-radeon-rx-7800-xt-nitro/36.html
 
Leider kann ich daher im direkten Vergleich sagen, dass AMD einfach kein ordentliches PlugNPlay hinbekommt, seien es immer wieder irgendwelche Treiber und Software Probleme, Inkompatibilitäten usw
Ich kann zu deinen anderen Punkten nix sagen, aber ich hatte sowohl 5700XT als auch ne 6900XT und die waren beide sehr wohl Plug'n'Play und haben über den Treiber hier und da richtige Leistungssprünge hingelegt. Von einer überragenden Ingame-Optik (im Vergleich 5700XT <> 2080S) mal abgesehen. Denn die 2080S hat RT garnicht auf die Straße gebracht und DLSS hat massive Fragmente produziert. Ist aber auch ein Weilchen her.
Da ist Nvidia einfach eine sicherer Bank und das sehen offensichtlich 90% der Grafikkarten Käufer genauso, sonst wäre AMD nicht zuletzt bei 7% Marktanteil gelandet.
Das Gerücht hält sich hartnäckig. Stromverbrauch ist bei AMD ein Thema, die Performance muss mit Blick auf RT/DXR besser werden, aber das Handling sicher nicht (mehr). Bevor jetzt aber jemand die Fanboy-Karte zieht: Ich bin grade auf ner 4080 unterwegs und sehr zufrieden.
 
Na gut ich verstehe die Argumentation zwar nicht wieso da Nvidea jetzt einen "großen Wurf" hat in dem sie mit der neuen Gen 1 Stufe über der alten sind aber seis drum.

Es ist immer so das bei jedem Gen wechseln die alte um min 1 nach unten gereicht wird. Ne 1080 war ne 2070, ne 3060 etc etc. Ne 5700x war ne 6600xt und wäre eine 7500xt wenns die gäbe. Ist halt so.

Das einzige was Nvidea in meinen Augen gerade besser als AMD hat ist Effizenz und KI/DLSS
DLSS ist in den Benchmarks normalerweise schon eh eingeflossen, da niemand ohne testest das ist Realitätsfern.
Effizenz ist nice, und würde bei selben Preis immer Nvidea gewinnen lassen aber rechtfertigt das den Preis?

Ne 4070ti ist, ich beziehe mich jetzt mal auf Igors Tests, ca 8% unter einer 7900xt. Im Mittel über mehrer Games, einzelne Abweichungen nicht ausgeschlossen.
Eine 6950xt ist, wieder laut seinen Tests, ca 7% unter einer 7900xt.
Ergo ist die 4070ti mehr oder weniger gleich mit der 6950xt. Netter Schritt bei Nvidea, somit hat AMD halt maximal 1 Stufe unter dem max von Nvidea etwas, aber das ist bekannt.
Wenn ich nun eine Solche Karte will (und das Beispiel kann man auch auf alle anderen Bereichen übertragen) gilt:
Nvidea ab 820€ ca.
AMD ab 650€ ca.

Wenn du nun nicht vergessen hast deinen Stromvertrag anzupassen zahlst du gerade ca 32-35 Cent pro KWh. Sagen wir mal 40, um Steigerungen einzubrechen.
4070TI 285W,
6950XT 335W.
Ob die beiden Zahlen genau stimmen sei eine Andere Frage, aber beide Stammen vom Techpowerup somit aus dem selben Messverfahren. Und das ist am Ende wichtig. Leider hat Igor keine 4070ti.

Somit braucht die AMD 50W mehr, hat zwar etwas mehr Ram aber trotzdem ist das gut. ABER der Preis.
Wenn wir nun die 170€ unterschied in KWh umrechnen sind es bei dem hohen Preis 425 KWh. Und bei 50W braucht es 20 STD für eine KWh, ergo müsstest du eine 4070ti ganze 8500 STD oder 354,2 Tage unter Vollast laufen lassen ehe sich das lohnt. So lange du also kein Pro bist der am Tag 12 STD+ zockt (und selbst dann sind das keine 12 Std Volllast) oder Mining wieder ein Thema ist, lohnt sich das gar nicht. Der Normale Gamer hat vlt 1-3 max 4 Std am Tag echte Volllast anliegen, da wären das dann 2125 Tage oder 5,8 Jahre ehe sich dei 170€ mehr lohnen.

So lange man also kein KI macht, wieso dann Nvidea? Treiber funktionieren gut, AMD hat vor einiger Zeit sogar mal nen Preis für guten Support ihrgendwo bekommen (wobei ich nicht weiß wie neutral die Vergabe war)

Nun kann mir gerne jemand ohne Fanboy, ohne "ach das ist so Geil" Pr mal in ruhe erklären wieso da Nvidea besser ist?

So wie ich das Sehe gilt im Bereich WQHD gerade diese Reinfolge was man kaufen sollte:
6950xt
4070/7800xt
6800xt
6800

Ne 4060ti ist zu klein, ne 3070ti hat nur 8GB Vram und 7000xt/4070ti sind zu teuer
 
Treiber funktionieren gut

Es gibt bei Nvidea noch einen wichtigen Vorteil, den Du nicht aufgezählt hast.
Basierend auf den von Nvidea verwendeten CUDA Kernen bieten diese in Verbindung mit zertifizierten Treibern, die Möglichkeit professionelle Programme einzusetzen.
Das betrifft einen natürlich nicht, wenn man nur spielen will, ist für Personen welche ihre Karten auch (semi-)professionell einsetzen wollen praktisch.
Man muss also nicht unbedingt auf die viel teureren Karten aus dem Profi-Segment gehen.
 
Hallöle :), warum Nvidia besser ist. Schneller, effizienter, verlässlicher,stabiler. Das bei kaum einen Preisunterschied, deswegen kauft auch jeder Nvidia. Ich danke Amd das sie die preise der Nvidia karten drücken, für mehr sind die nicht gut. Für wenn der die Karte braucht ausserhalb des Gamings braucht schon mal gar nicht.

Auch muss man bei Dlss beachten das Qualität wesentlich besser abschneidet als Fsr und das hievt die Karten höher als sie sind, da sie diese Fps liefern bei wesentlich höherer Bildqualität. In Cyberpunk sieht sogar Dlss Performance wahnsinnig gut aus auf meinem 4k schirm habe aber gleichzeitig wesentlich höhere fps als mit fsr. Wenn man das in reviews einberechnen würde wäre amd komplett obsolet, egal welche preisklasse. Jeder mit einer Nvidia Karte kann auf ein paar klicks vergleichen in manchen spielen zwischen alle 3 Lösungen DLSS/XESS/FSR. Deswegen finde ich es sehr amüsant wenn leute mit einer Amd karte über dlss motzen obwohl sie es live nicht gesehen haben.

Das führt den minimalen rasterperformance schub der amd karten ab absurdum, ich verwende dlss auch wenn ich nativ die wunsch fps habe weil es besser aussieht und den verbauch drückt. Sehe selten mehr als 160-220 watt mit der 70ti liefert dabei aber die RT perfromance der besten AMD Karte. In heavy rt sogar wesentlich mehr. Da kommt die xtx ja kaum über 2080ti hinaus.

Auch bekommt es Amd seit fast 20 jahren nicht hin das der idle verbrauch gut ist, geschweige den bei youtube oder fenster bewegen oder einfach nur browsen, da ist Nvidia überall wesentlich besser und das sind, sollten selbstverständlichkeiten sein nach der langen zeit.

Vram geht hoch lüfter springen an, da läuft noch nicht einmal das spiel. Von den ganzen beta treibern wo die lüfter rumzicken oder die treiber sich nicht einmal aufrufen lassen und balckscreens und was sonst noch alles. Sowas habe ich bei einer Nvidia karte noch nie erlebt. Deswegen zahlt man lieber mehr und hat keine kopfschmerzen. (rx 5700xt..), einfach Nv Karte eingebaut und alle probleme waren beseitigt. Nach so eienr Erfahrung wird niemand mehr AMD auch nur in erwägung ziehen.

Niemand wird die amd Karte kaufen wenn diese nur 50€ billiger ist oder gar 100€ und das spiegelt der Markt sehr gut wieder. Die müsssen wieder wie zu Rx 580 zeiten agressiv sein und nicht an Nvidias rockzipfel hängen, aber was wissen wir schon die werden schon wissen was sie da machen :D. Ich denke Amd wird in der bedeutongsigkeit versinken was grafikkarten angeht so schlecht wie jetzt sind sie noch nie dagestanden und das nach der relativ passablen 6000 Serie. Wenn Intel heranreicht, deren RT performance ist jetzt schon relativ gesehen besser und XESS ist auch besser als FSR noch die Raster performance und das wars.

Nvidia wird die Luxusmodell Marke.
Intel beerbt AMD als billig karten anbieter und kann sich vielleicht mit Nvidia prügeln irgendwann, wenn es wer kann dann Intel mit dem Budget und Manpower.
Amd bleibt bei Konsolen und APUS. Ryzen ist hammer nutze ich selber seit 2017 :) aber eine karte von denen würde ich nicht mit der kneifzange anfassen. Finde es auch geil wenn Reviewer sagen joa geile karte und zuhause haben sie all RTX eingebaut ALLE. Spiele ernsthaft damit und schon werden die kinderkrankheiten der Amd karten zum vorschein kommen. bissl benchen tut da nicht viel. Die Leute die AMD Karten mögen tolereieren das einfach die meisten wollen aber nur einabauen und fertig zocken das wars. Nicht problem shooting.

ui mittagspause ist zu ende schönen mittag jungs :p
 
Ich kann zu deinen anderen Punkten nix sagen, aber ich hatte sowohl 5700XT als auch ne 6900XT und die waren beide sehr wohl Plug'n'Play und haben über den Treiber hier und da richtige Leistungssprünge hingelegt. Von einer überragenden Ingame-Optik (im Vergleich 5700XT <> 2080S) mal abgesehen. Denn die 2080S hat RT garnicht auf die Straße gebracht und DLSS hat massive Fragmente produziert. Ist aber auch ein Weilchen her.

Das Gerücht hält sich hartnäckig. Stromverbrauch ist bei AMD ein Thema, die Performance muss mit Blick auf RT/DXR besser werden, aber das Handling sicher nicht (mehr). Bevor jetzt aber jemand die Fanboy-Karte zieht: Ich bin grade auf ner 4080 unterwegs und sehr zufrieden.
Also ich kann ein Lied singen mit der 5700XT Nitro+ und den Treiber Bugs, alles deinstallieren, wieder neu instalieren, trotzdem Fehler und inkompatilitäten, sobald man ein Game auch Sync stellte, fing das Bild an zu zappeln, hast die FPS allerdings in der Software gefixt, wars weg.
Oder zuletzt mit der 6800Red Dragon, Ende 22 nach einem Upgrade auf Win 11 ging nix mehr, das wurde dann Monate später erst behoben, ich meine Februar oder März 23, mit dem Ergebnis, das die Leistung der Karte deratig in den Keller ging und sie teilweise gerade mal die Hälfte der FPS schaffte. Nach einem 3D Mark run hatte die Karte keine 18.000 Punkte mehr, sondern plötzlich nur knapp 10.000.

Das sehe ich nicht als Plug n Play an, und das war nur der jüngste Auszug von größeren Bugs.
Das ist lästig und nervig, braucht kein Mensch.

Die 2080S war tatsächlich kein Ruhmesblatt, wobei ich keinerlei echte Probleme mit der Karte hatte.

Das "Gerücht" zur Kundenzufriedenheit bei Nvidia Karten wird sehr Eindrücklich von den Verkaufszahlen untermauert, und wenn Nvidia noch so sehr preislich auf die Kacke haut, die Meisten Kunden bleiben treu.
Und Verkaufzahlen sind Fakten und ein mehr als deutlicher Indikator, in dem Fall alles andere als ein Gerücht.
Bei AMD ist die Kundefluktuation trotz der guten Preise immer höher geworden, einige sind sogar verweifelt auf eine Intel Arc gewechselt, weil die Nvidia preislich keine Option war, aber die Kunden auch andererseits keine Radeon mehr wollten.

Von mal 30 und mehr Prozent Marktanteil auf bis zu 7% zu fallen, das schaffst einfach nicht, wenn alles in Butter ist und die Kunden hochzufrieden und man gute Preise hat.
Die guten Preise bei AMD sind ein Fakt, bleiben also eher die Zufreidenheiten als Grund.

Ich wäre sicher auch nicht gewechselt, nach vielen Jahren auf ATI, später AMD, wenn ich es nicht leid gewesen wäre, das jedes Positive Argument für eine Karte dann aber immer auch gleich zwei Negative mitbrachte.

Und im direkten Vergleich ist das Handling von der Softwareinstallation angefangen, über die Einstellung und Optimierung einer Karte bei Nvidia einfach Nutzerfreundlicher und besser gelöst.


Es mag vieles besser geworden sein, aber gut ist es aus meiner Sicht noch lange nicht. AMD braucht eine bessere Effizienz, sie brauchen eine sauber funktionierende und spürbar wirkende AI Lösung, und nicht nur in 5 ausgewählten Games, und sie brauchen einfach eine sauberere Treiber und Software Lösung, wo man ohne Stress einfach das automatische Udate laufen lassen kann, ohne deinstallation Tool, vorherige Bereinigung und mögliche Überraschungen nach der Installation.
 
Oh menno....ich will auch eine RTX 4080 haben...:cry:
 
Oh menno....ich will auch eine RTX 4080 haben...:cry:
kommt ja drauf an was man damit macht, wäre für meine Zwecke toooooo much, ich bekomme ja eine 4070 kaum genutzt.
Aber die 4080 deckt schon eine riesige Bandbreite ab, wenn Du 4k zockst, macht die wahrscheinlich sogar sinn, aber bei maximal 1440p ist eine 4070ti schon mehr als genug
 
Also meine 4080 läuft in diversen AAA-Titeln mit RT on in WQHD am Limit. Da muss ich schon die FPS begrenzen, um nicht ständig bei >90% Auslastung zu hängen. Mit DLSS ist es etwas entspannter, aber bei den richtig leckeren Titeln gehts auch nur selten über 120 FPS (mit Einstellung "Qualität").
 
kommt ja drauf an was man damit macht, wäre für meine Zwecke toooooo much, ich bekomme ja eine 4070 kaum genutzt.
Aber die 4080 deckt schon eine riesige Bandbreite ab, wenn Du 4k zockst, macht die wahrscheinlich sogar sinn, aber bei maximal 1440p ist eine 4070ti schon mehr als genug
Wollte ja nur edie Debatte ein wenig aufheitern. Man kann froh sein, dass die "Dürre" vorbei ist, wenn man bedenkt was man noch vor einem Jahr auf den Tisch legen musste. Bei mir läuft noch eine 3080/10G unter Wasser @1440p und das reicht momentan noch dicke für die meisten Spiele. Aber wir stoßen bereits heute an Grenzen wie z.B. bei Starfield. Unter 60fps sind nicht selten und wäre doch schön eine 4080 dauerhaft mi lässigen 80fps laufen zu haben. Und das liegt definitiv nicht am Speicher.
 
Die 6800 hat einen derartigen Preisverfall hingelegte, wenn ich bedenke das ich für die 6800 im Februar 22 noch noch 1099€ bezahlt habe und Du die jetzt deutlich unter 500 bekommst, war das ne Müll Investition.
Wenn ich die heute bei eBay einstellen würde, hätte ich maximal 300-350€ dafür bekommen, damit hätte ich in 18 Monaten 750-800€ verloren, das sind fast 50€ pro Monat, grauenhaft.
Zeug überteuert über der UVP gekauft und beschwert sich das es billiger wird wenn der Nachfolger auf dem Markt ist...
... solche Leute kaufen wohl auch Bitcoins bei maximalen Kurs ;)
aber mal ehrlich, Clocken und Undervolten bis ans Limit, nur damit die Karte in 1440p die gleichen und sogar weniger FPS bringt, als eine ganz reguläre nicht übertaktete 4070, und dann immer noch etwas mehr verbrauch.
eine 4070oc erreicht bei 200Watt deutlich höhere Werte.
4070@ Stock kommt auf ca 17.800-18.000 3dMark Score bei knapp 200 Watt und darunter, und da muss man nicht rumfummeln und probieren ob sie stabil läuft.
Ja, das stimmt absolut.
Eine Karte eine ganze Generation neuer bringt ähnliche Leistung bei weniger Verbrauch. Scheint nur dich zu überraschen.
Ich finde es gut, wenn er aus der "alten" 6800er noch ordentlich Leistung rauskitzelt - mit den 16GB ist die noch länger zukunftstauglich und man muss nicht wie bei Nvidia jede Generation die neueste Karte kaufen, um genug vRAM und die neuesten Software(!) Features freigeschaltet zu bekommen. Wenn er damit 2-3 Generationen überdauern kann ist es doch eine sehr sehr günstige Karte am Ende und die Umwelt freut es auch.
 
Es gibt bei Nvidea noch einen wichtigen Vorteil, den Du nicht aufgezählt hast.
Basierend auf den von Nvidea verwendeten CUDA Kernen bieten diese in Verbindung mit zertifizierten Treibern, die Möglichkeit professionelle Programme einzusetzen.
Das betrifft einen natürlich nicht, wenn man nur spielen will, ist für Personen welche ihre Karten auch (semi-)professionell einsetzen wollen praktisch.
Man muss also nicht unbedingt auf die viel teureren Karten aus dem Profi-Segment gehen.
Richtig, die AMD Karten sind etwas langsamer in den Benchmarks. Wenn man aber wie du sagst semi-professionell dabei ist, sind ein paar Minuten mehr warten bei Stunden auch kein riesiger Unterschied - man starrt eh nicht auf dem Bildschirm und wartet bis es fertig ist. Mag aber natürlich bei jedem anders sein.
Problematisch ist noch, das einige Programme (häufig die nicht Open Source) explizit eine Profi-Karte haben wollen, sonst laufen sie nicht oder bieten nur Softwareemulation. Da hilft dein Argument nicht mehr.
 
Gewöhn dich daran,für solch extreme Nvidia Fanboys sind selbst Live Fakten noch Fake und nur ihre Nvidia Karte das beste vom Besten.
Du meinst wenn wir nicht alles huldigen was uns ein AMD User vorsetzt ist man automatisch ein Nvidiafanboy?
Ich finde die max Ingame-Frequenz ja immer süß....wenn der Takt (Clockstretching) ins Leere läuft nützt das ja recht viel.
Bei Cyberpunk zieh ich den Takt Regler bei der RX 6800 auf Anschlag und trotzdem reichen max 200W/TGP überall hin.

Cyberpunk2077_2022_05_31_12_41_44_378.jpgCyberpunk2077_2022_05_31_12_43_35_377.jpgCyberpunk2077_2022_05_31_12_44_28_225.jpg
wie groß/MB dürfen hier Screens denn sein? Normal haben die hier über 13MB.

Viel Takt bedeuted ja nicht zwingend viel Leistung. Ohne den nötigen Kraftstoff auch weniger Kraft. Am Ende zählt was hinten rauskommt, oder eben wieviel die Karten brauchen darf.
Ich glaube nicht, dass jemand glaubt, dass ich das Ergebnis mit den 200W von Cyberpunk erreicht habe
TS max.jpg
 
nvidia karten sind auch das beste vom besten lol das ist nicht einmal eine frage sondern fakt. :p
 
Oben Unten