AMD füllt die Lücke und lässt auch noch das Einhorn frei: Radeon RX 7800XT und RX 7700XT flankiert mit FSR3

Nimm mal eine 7700XT und begrenze die maximale TBP von regulär über 245Watt auf 165/170 Watt, analog zur 4060ti, dann siehste was die 7700XT noch kann, dann erreicht sie in 1080p Ultra noch nicht mal mehr eine dreistellige FPS, mit Glück schafft sie dann in 1080p Ultra im Schnitt noch 70 FPS, da liegt das Problem, einfach zu viel Verbrauch im Verhältnis zur Leistung.

Bei gleicher TBP wie eine 4060ti sinkt die Leistung der 7700xt um mehr als 20-25%
Das bedeutet das die 4060ti im Verhältnis FPS/ Watt mindestens 20% stärker ist
 
Solltest mal alles lesen, nicht nur rudimentär, oder muss man sich für dich einfacher Sprache bedienen!?

Ich habe gesagt, dass die 7800xt eine extrem gute Karte ist, bei der auch die Effizienz erstmalig in der 7xxx Reihe stimmt.

Die 7700XT absolut mit der Brechstange rangeht und ineffizient ist .

Und das kann ich sehr genau sagen, denn ich hatte sie Freitag erstmalig in einem System, leider ist der Verbrauch für die gebotene Leistung viel zu hoch.
Und ich rede nicht gegen AMD, ich habe selbst auch eine 6800, davor eine 5700xt, usw.
AMD bekommt es außer bei der 7900GRE und der 7800XT endlich mal die TBP in ein Vernünftiges Verhältnis zur FPS Leistung zu bekommen.

Sie 7700XT hat eine TBP von über 240-250Watt, ist deutlich langsamer als die 4070 die nur 200Watt braucht, und nur minimal schneller als die 4060ti 16GB die nur 165 Watt braucht.
Und das beim gleichen Preis und 4 GB weniger.

Daher nochmal, die 7700XT kann man sich komplett schenken, entweder man kauft eine 7800XT oder 7900GRE oder darunter und darüber eine Nvidia
 
Nimm mal eine 7700XT und begrenze die maximale TBP von regulär über 245Watt auf 165/170 Watt, analog zur 4060ti, dann siehste was die 7700XT noch kann, dann erreicht sie in 1080p Ultra noch nicht mal mehr eine dreistellige FPS, mit Glück schafft sie dann in 1080p Ultra im Schnitt noch 70 FPS, da liegt das Problem, einfach zu viel Verbrauch im Verhältnis zur Leistung.

Bei gleicher TBP wie eine 4060ti sinkt die Leistung der 7700xt um mehr als 20-25%
Das bedeutet das die 4060ti im Verhältnis FPS/ Watt mindestens 20% stärker ist
Und das hat Herr Präsident natürlich schon getestet mit nem Nvidia Treiber,weil über den AMD Treiber gehen nur rund 10% weniger.
10% Energie weniger bedeutet bei AMD immer noch eine deutliche Übertaktung.

Merkst eigentlich nicht langsam mal selber das DU dich nur noch lächerlich machst!?
 
Oder viel einfacher ausgedrückt, um deutlich zu machen, dass es nicht um Nvidia oder AMD geht.

Wie haben zwei BMWs beim Händler stehen, beide nagelneu, beides 3er Kombis, beide Kosten 48.000€, beide 4 Zylinder, der erste ist ein 7700XT Modell, 190PS, 6 Gang Automatik, Höchstgeschwindigkeit 230kmh 0-100 4,1 Sek., Verbrauch 12 Liter Super auf 100km, und eine neues Fahrassistenzsystem FSR 3, dass aber in den Vorgängerversionen nicht gut funktionierte.
Der zweite, identischer 3er Kombi, 4060ti, 48.000 Euro, 180 PS, 8 Gang Automatik, Höchstgeschwindigkeit 220kmh, 0-100 4,2 Sek. Verbrauch 8 Liter/100km, und KI Fahrassistenzsystem DLSS3.5 dessen Vorgänger bisher 90% besser als das FSR.

Welches Modell würde man also am ehesten kaufen?

Den ersten der zwar 230auf dem Papier schafft, aber 12 Liter braucht und nur 6 Gänge hat, oder den anderen der nur 220 schafft, aber nur 8 Liter braucht und 8 Gänge hat und das bewährte Fahrassistenzsystem das super funktioniert?

Auf den Autobahnen gibt es eine Höchstgeschwindigkeit von 144 kmh, das heißt von der 10kmh höheren Endgeschwindigkeit profitiert man eben auch nicht, und der 4060ti kostet pro hundert km eben nur 14,40€ Sprit während der 7700XT pro 100km 21,60€ Sprit kostet, bei einem Spritpreis von 1,80€ pro Liter.

Alternativ gäbe es auch noch einen 3er Sechszylinder 4070 der 59.000€ kostet, eine 6 Gang Automatik hat, 275kmh schafft und 10 Liter braucht, und den identischen 7800xt der 55000€ kostet, eine 8 Gang Automatik hat und laut Hersteller 290schafft bei 13 Liter Verbrauch.
Da könnte man zum 7800xt greifen aufgrund des günstigeren Preise.

Die ganze Sache hat nur einen Haken, bei den 40xx Modellen sind Verbrauch und Leistung bereits tatsächlich real belegt, bei den 7xxx Modellen deutet alles daraufhin, dass der Hersteller ein wenig übertreibt in der Werbung, die Geschwindigkeit und das Fahrassistenzsystem betreffend.

Was sich bei ersten Tests auf dem 3D Mark Prüfstand zumindest so darstellt, was aber noch an den Treibern liegen könnte.

Grafikkarte3DMark Time Spy
RTX 4070 Ti22.341
RX 7900 GRE20.818
Radeon RX 6800 XT19.234
Radeon RX 7800 XT~ 19.000
Geforce RTX 407018.051
Radeon RX 7700 XT~ 17.000
Radeon RX 680016.253
Geforce RTX 4060 Ti13.427
Radeon RX 6700 XT12.834
Radeon RX 760010.791

Und genauso verhält es sich mit der 7700XT vs 4060ti die eigentlich mit einer 6750xt vergleichbar wäre, nur halt mit doppelt so viel RAM und weniger Verbrauch
 
Oder viel einfacher ausgedrückt, um deutlich zu machen, dass es nicht um Nvidia oder AMD geht.

Wie haben zwei BMWs beim Händler stehen, beide nagelneu, beides 3er Kombis, beide Kosten 48.000€, beide 4 Zylinder, der erste ist ein 7700XT Modell, 190PS, 6 Gang Automatik, Höchstgeschwindigkeit 230kmh 0-100 4,1 Sek., Verbrauch 12 Liter Super auf 100km, und eine neues Fahrassistenzsystem FSR 3, dass aber in den Vorgängerversionen nicht gut funktionierte.
Der zweite, identischer 3er Kombi, 4060ti, 48.000 Euro, 180 PS, 8 Gang Automatik, Höchstgeschwindigkeit 220kmh, 0-100 4,2 Sek. Verbrauch 8 Liter/100km, und KI Fahrassistenzsystem DLSS3.5 dessen Vorgänger bisher 90% besser als das FSR.

Welches Modell würde man also am ehesten kaufen?

Den ersten der zwar 230auf dem Papier schafft, aber 12 Liter braucht und nur 6 Gänge hat, oder den anderen der nur 220 schafft, aber nur 8 Liter braucht und 8 Gänge hat und das bewährte Fahrassistenzsystem das super funktioniert?

Auf den Autobahnen gibt es eine Höchstgeschwindigkeit von 144 kmh, das heißt von der 10kmh höheren Endgeschwindigkeit profitiert man eben auch nicht, und der 4060ti kostet pro hundert km eben nur 14,40€ Sprit während der 7700XT pro 100km 21,60€ Sprit kostet, bei einem Spritpreis von 1,80€ pro Liter.

Alternativ gäbe es auch noch einen 3er Sechszylinder 4070 der 59.000€ kostet, eine 6 Gang Automatik hat, 275kmh schafft und 10 Liter braucht, und den identischen 7800xt der 55000€ kostet, eine 8 Gang Automatik hat und laut Hersteller 290schafft bei 13 Liter Verbrauch.
Da könnte man zum 7800xt greifen aufgrund des günstigeren Preise.

Die ganze Sache hat nur einen Haken, bei den 40xx Modellen sind Verbrauch und Leistung bereits tatsächlich real belegt, bei den 7xxx Modellen deutet alles daraufhin, dass der Hersteller ein wenig übertreibt in der Werbung, die Geschwindigkeit und das Fahrassistenzsystem betreffend.

Was sich bei ersten Tests auf dem 3D Mark Prüfstand zumindest so darstellt, was aber noch an den Treibern liegen könnte.

Grafikkarte3DMark Time Spy
RTX 4070 Ti22.341
RX 7900 GRE20.818
Radeon RX 6800 XT19.234
Radeon RX 7800 XT~ 19.000
Geforce RTX 407018.051
Radeon RX 7700 XT~ 17.000
Radeon RX 680016.253
Geforce RTX 4060 Ti13.427
Radeon RX 6700 XT12.834
Radeon RX 760010.791

Und genauso verhält es sich mit der 7700XT vs 4060ti die eigentlich mit einer 6750xt vergleichbar wäre, nur halt mit doppelt so viel RAM und weniger Verbrauch
Wie immer kannst nix belegen sondern lieferst lediglich Fanboy Analysen.
Wenn du die Punkte mal zum Verbrauch rechnest und bedenkst das durch das Drossel der 7700XT auf die 4060ti die Effizienz deutlich rauf geht dann hat auch die 7700XT bei der gleichen Leistung max den Gleichen Verbrauch.
Und das DLSS um 90% besser sein soll als FSR.........Sorry aber allein schon deine Videos sehen so was von 🤮 aus,da bin ich froh ein anständiges Bild mit AMD Karten zu haben.
Selbst das Bild mit dem 5700G in 1080p auf mittel schaut da besser aus......
 
Zuletzt bearbeitet :
Wenn du die Punkte mal zum Verbrauch rechnest und bedenkst das durch das Drossel der 7700XT auf die 4060ti die Effizienz deutlich rauf geht dann hat auch die 7700XT bei der gleichen Leistung max den Gleichen Verbrauch.
Amen.
Auh wenn man neidlos zugestehen muß, daß ein 128bit Speicherinterface eines monolithisch gefertigten Chips der (annähernd) identischen Fertigungs-Node natürlich immer ein paar Watt (wahrscheinlich einstellig) weniger Strom zieht als ein 192bit Speicher-Interface verteilt auf 3 Chiplets.

Leider hat aber selbst der Scott Herkelman im Interview mit Club386 hierzu auch folgendes gesagt:
Power is definitely a prime initiative. You’ll see us over time get better and better at it. We need to catch up. There are still bugs that we need to fix. Idle power is one of them. We believe there is a driver fix for it. It’s a wonky one, actually. We do see some inconsistencies with idle power that shouldn’t be there, and we’re working with our partners to maybe help with that. It will be cleaned up, but it might take a bit more time.
Und da erhoffe ich mir, daß dies entweder zum Release oder zumindest nicht erst Jahre später noch in den Griff bekommen wird. Unklar, ob er sich dort direkt auf die Mittelklasse, auf die bereits in Tests aufgezeigten Probleme mit Navi31 oder einfach auf rdna3 mit Chiplets (also n31 + n32) bezieht. Meine rx580 wird mit 5..15Watt (fluktuierend auf dem 2d-Desktop) "angezeigt", je nachdem, ob gerade ein yt-video läuft oder nicht. Gleichzeitig dürfte die Videobeschleunigung bei neueren Formaten wie av1 nicht mehr greifen und die CPU stattdessen übernehmen (was vermutlich mehr Energie verbraucht). Also idle bis 20..25Watt in der Spitze wäre aus meiner persönlichen Sicht noch zu ertragen, denn es wäre unter dem Strich in vielen Situationen immer noch eine leichte Verbesserung - wenn auch unschön. Die n21-Karten sollen ja mit ungefähr um die 10 Watt sehr gut sein in der Beziehung (gemessen an der Chipgröße) - haben aber leider noch kein av1-encode, nur decode.
 
Amen.
Auh wenn man neidlos zugestehen muß, daß ein 128bit Speicherinterface eines monolithisch gefertigten Chips der (annähernd) identischen Fertigungs-Node natürlich immer ein paar Watt (wahrscheinlich einstellig) weniger Strom zieht als ein 192bit Speicher-Interface verteilt auf 3 Chiplets.

Leider hat aber selbst der Scott Herkelman im Interview mit Club386 hierzu auch folgendes gesagt:

Und da erhoffe ich mir, daß dies entweder zum Release oder zumindest nicht erst Jahre später noch in den Griff bekommen wird. Unklar, ob er sich dort direkt auf die Mittelklasse, auf die bereits in Tests aufgezeigten Probleme mit Navi31 oder einfach auf rdna3 mit Chiplets (also n31 + n32) bezieht. Meine rx580 wird mit 5..15Watt (fluktuierend auf dem 2d-Desktop) "angezeigt", je nachdem, ob gerade ein yt-video läuft oder nicht. Gleichzeitig dürfte die Videobeschleunigung bei neueren Formaten wie av1 nicht mehr greifen und die CPU stattdessen übernehmen (was vermutlich mehr Energie verbraucht). Also idle bis 20..25Watt in der Spitze wäre aus meiner persönlichen Sicht noch zu ertragen, denn es wäre unter dem Strich in vielen Situationen immer noch eine leichte Verbesserung - wenn auch unschön. Die n21-Karten sollen ja mit ungefähr um die 10 Watt sehr gut sein in der Beziehung (gemessen an der Chipgröße) - haben aber leider noch kein av1-encode, nur decode.
Mich interessiert das schon lange nicht mehr da zu 90% eh nur am Handy.
Für den Rest ist auch ein 5600G/5700G die Erste Wahl.
Ich schmeiß nur noch zum Testen den 5950X mit 6900XT bzw. Wenn umgebaut wird mit 7900XTX an.
 
Das Problem an der 7700XT ist ja auch ganz einfach, wenn ich die auf den Verbrauch einer 4060ti drosseln würde, würde sie nicht mal mehr im Ansatz die gleichen FPS einer 4060ti erreichen, ergo kann ich die Effizienz einer 7700XT hier und da ein wenig optimieren, aber ich kann sie NIE auf die gleiche Watt/ FPS Effizienz bringen in der jetzigen Form, dazu müsste sie nämlich mindestens 30% mehr FPS @ Stock abliefern als eine 4060ti, tut sie aber nicht im Ansatz, noch keine 15% mehr.

Mir ist auch klar, dass die 4060ti ein schmaleres Speicherinterface und nur 8 mechanische PCIe 4 Lanes hat, das ändert aber nichts an der realen Leistung, nämlich den realen FPS und Bilddarstellung in Ultra im Game.
Verglichen mit der 3070 macht die 4060ti ein fast besseres detailreicheres Bild, ich laufe in keine Speicherbegrenzung bei RDR2 mehr und ich erreiche +-2 FPS die gleichen FPS.

Ergo ich erreiche maximal 144FPS max durch Sync Begrenzung, im Schnitt deutlich über 100 FPS und 1080p Ultra, also alles was ich will und brauche, keine Nachteile für mich.
Dafür aber viel weniger Verbrauch, dadurch niedrigere Temps und leisere Kühlung.

Der L2 wurde bei der 4060ti im Vergleich zur 3070 verachtfacht, was auch dafür sorgt, das die reale Nutzung kein Nachteil im Vergleich zu einer 3070 spürbar sind, auch wenn die 3070 ein doppelt so breites Speicherinterface hatte usw.
Auch wenn die 4060ti einen 25% schnelleren RAM hat, und doppelt so viel, ist klar, dass das schmalere Interface hier die Maximale Leistung einschränkt , sonst wäre sieviel deutlicher über der 3070 und zu nah an der 4070.

Aber alles das sind reine Theoriezahlen und Benchmarkwerte, die haben mit der realen täglichen Anwendung NICHTS zu tun bei einer 1080p gelegeheitsgaming Karte.
Real habe ich die gleichen FPS, dank DLSS3 ein nicht viel besseres Bild und FPS als bei der 3070 und brauche im Vergleich gute 100 Watt weniger.
Also habe ich keinen realen Nachteil, nur Vorteile, insofern keinen Grund mir wieder eine Karte reinzuhängen, deren nominale Mehrleistung real nix bringt außer höheren Temps und mehr Verbrauch.
Meine 144 FPS max durch Sync bleiben gleich, juckt mich also null ob die 7700xt 160 erreichen würde, theoretisch. Dafür hätte ich eine Karte die seit Jahren immer wieder durch Treiber Bugs geglänzt hat, im Plug n Play nicht optimal läuft und deren bisheriges FSR einfach im Vergleich zu DLSS nix getaugt hat.

Daher Frage ich mich, wie man sich anmaßen kann zu behaupten, dass eine 7700XT ja die bessere Karte wäre, denn das ist sie für alle die bis 1080p 144 Hz auflösen eben nicht, es sei denn man will unbedingt Schwanzlängenvergleich per Benchmarks zum Besten geben und sich über 5-10 FPS mehr in der Benchmark freuen, die aber real gar nicht zum Tragen kommen. Und sich mit schlechter Software, Treibern und hohem Verbrauch rumschlagen.

Daher bleibt die Aussage genauso bestehen, für 1080p Gamer bis 144 Hz ist die 4060ti 16GB der Sweetspot, und eine 7700XT ist da nicht im Ansatz eine echte Alternative, außer man will unbedingt eine AMD, weil man Markenfetischist oder Fanboy ist.
 
Ergo ich erreiche maximal 144FPS max durch Sync Begrenzung, im Schnitt deutlich über 100 FPS und 1080p Ultra, also alles was ich will und brauche, keine Nachteile für mich.
das ist Deine Kernaussage. Das kann man gerne (und muß man eigentlich auch) genauso lesen und respektieren. Bitte aber bedenke auch: es gibt noch andere Menschen da draußen. Mit leicht bis deutlich anderen Anforderungen, wo dann eben dieses spezielle Kartenmodell eher nicht so gut funktionieren wird.
Ich möchte endlich meinen 3440x1440 Bildschirm in nativer Auflösung betreiben. Schwerpunkt: Rennsimulationen, aber auch andere casual-games. Bestimmte Nachbearbeitungseffekte, die massiv fps kosten, sind mir dabei entweder schnuppe oder stören sogar meinen subjektiven Bildeindruck: motion-blur, Filmkorn, etc...
Hingegen verwende ich gerne Rennstrecken-Mods mit massig Bäumen und anderem Gedöns, die meist von Spielern für andere Spieler "entwickelt" (besser: gebaut) wurden und die in der Natur der Sache natürlich nicht immer super "optimiert" daher kommen. Daher fällt ein 128bit Speicherinterface auf gddr6 für mich schon einmal per default durch das Raster durch. Ist einfach so.

Aber auch ich werde es tunlichst vermeiden, von meinen persönlichen Anforderungen auf die anderer zu schließen. Für 1080p und die allermeisten auch heutigen "Games ab Werk" ist eine 4060ti/16Gibyte sicherlich eine hervorragend "optimierte" Karte in 2023 - Gar keine Frage! Aber fast 500 Euro sind dann doch eine recht hohe Summe, die auch an der Steckdose erst einmal eingefahren werden wollen. Gut, inoffiziell sinken für das 16Gibyte Modell gerade (etwas) die Preise. Ein Beweis dafür, wie hoch die Industrieriesen abseits vernünftiger Konkurrenz gerade die Margen anziehen (wobei natürlich für den Endanwender leider kaum erfaßbar ist, ob diese überhöhten Margen eher bei nvidia/amd ((Stichwort bom-kit)), ihren Boardpartnern oder der Distributionskette insgesamt hängen bleiben).
 
Ich habe auch nie etwas anderes gesagt, und sorry in dem Segment gibt es keine andere 16GB Karte mit der Leistung und Effizienz.
Für 1440p und evtl FPS über 165 würde ich tatsächlich auch nur eine RX7800XT eine 7900 GRE oder eben die 4070ti wählen, wobei die 7800XT in Leistung und Verbrauch und 4 GB mehr RAM und dem besseren Preis hier die Argumente auf ihrer Seite hat

Mich gast dieses Schlechtreden der 4060ti 16GB an, denn sie ist alles andere als schlecht und AMD hat darauf leider keine Antwort in gleicher Effizienz/ Leistung/ RAM.

Und eine 7800xt würde bei mir nicht ausgenutzt, nicht im Ansatz, also völlig unsinnig für mich.

Und diese Aussagen, man könne eine 7700XT auf gleiche Leistung und Effizienz betreiben ist Unsinn, denn wenn es möglich wäre, lägen @ Stock keine 80 Watt mehr an bei max 10-15% Mehrleistung.
Dann wäre AMD derart unfähig, dass ich die Karte erst Recht nicht kaufen würde
Und die 16GB gäbe es da auch nicht und die 4GB weniger würden auch durch das breiter Interface nicht kompensiert.
 
Sapphire mit dem Niedlichem MBA Design.

Sollten Morgen die Reviews kommen, Launch ist am Mittwoch
bin ich gespannt wie gut eine 7800XT werden wird,- und wer dann von 6800 / 6800XT überhaupt aufrüstet auf jene Karte.
 
Verstehe das aufrüsten nach jeder Generation sowiso nicht, alle 2-3 Gens halte ich da für wesentlich sinnvoller, vor allem wenn man nicht Geld wie Heu hat
 
RX 7700XT, maximal 5% mehr Leistung, Durchschnittlich sogar die Gleiche wie eine 4060TI 16GB, 80Watt mehr verbrauch und gleicher Preis




Und Deine FSR3 vorabinfos kannste alle in die Tonne treten, weil sie keine Realwerte mit realen Serientreibern sind, die sind nämlich noch gar nicht verfügbar
Besser ist doch erst mal nachdenken bevor man Schreibt.
Also DU behauptest das die RX 7700XT max 5% schneller ist als dein Nvidia Müll.
Belegst es dann mit einem Video was gut Eine Woche alt ist.

Und dann behauptest DU das die vorabinfos von FSR3 für die Tonne sind weil der Serientreiber noch gar nicht draußen ist.......

Also AMD hat den Treiber noch nicht aber DEINE YouTube Quelle?!
Darauf kann ich nur mit deinen Fachlichen Antworten drauf Antworten.
erst mal nachdenken bevor man redet, das hilft.
also einfach mal alle Faktoren vergleichen statt einfach immer halbgaren Mist loszulassen
Also wer im Glashaus sitzt sollte nicht mit Steinen werfen und fakten verdrehen
Also verschon mich bitte mit Deinem unsachlichen Fanboy gequatsche
 
Das Problem an der 7700XT ist ja auch ganz einfach, wenn ich die auf den Verbrauch einer 4060ti drosseln würde, würde sie nicht mal mehr im Ansatz die gleichen FPS einer 4060ti erreichen, ergo kann ich die Effizienz einer 7700XT hier und da ein wenig optimieren, aber ich kann sie NIE auf die gleiche Watt/ FPS Effizienz bringen in der jetzigen Form, dazu müsste sie nämlich mindestens 30% mehr FPS @ Stock abliefern als eine 4060ti, tut sie aber nicht im Ansatz, noch keine 15% mehr.

Mir ist auch klar, dass die 4060ti ein schmaleres Speicherinterface und nur 8 mechanische PCIe 4 Lanes hat, das ändert aber nichts an der realen Leistung, nämlich den realen FPS und Bilddarstellung in Ultra im Game.
Verglichen mit der 3070 macht die 4060ti ein fast besseres detailreicheres Bild, ich laufe in keine Speicherbegrenzung bei RDR2 mehr und ich erreiche +-2 FPS die gleichen FPS.

Ergo ich erreiche maximal 144FPS max durch Sync Begrenzung, im Schnitt deutlich über 100 FPS und 1080p Ultra, also alles was ich will und brauche, keine Nachteile für mich.
Dafür aber viel weniger Verbrauch, dadurch niedrigere Temps und leisere Kühlung.

Der L2 wurde bei der 4060ti im Vergleich zur 3070 verachtfacht, was auch dafür sorgt, das die reale Nutzung kein Nachteil im Vergleich zu einer 3070 spürbar sind, auch wenn die 3070 ein doppelt so breites Speicherinterface hatte usw.
Auch wenn die 4060ti einen 25% schnelleren RAM hat, und doppelt so viel, ist klar, dass das schmalere Interface hier die Maximale Leistung einschränkt , sonst wäre sieviel deutlicher über der 3070 und zu nah an der 4070.

Aber alles das sind reine Theoriezahlen und Benchmarkwerte, die haben mit der realen täglichen Anwendung NICHTS zu tun bei einer 1080p gelegeheitsgaming Karte.
Real habe ich die gleichen FPS, dank DLSS3 ein nicht viel besseres Bild und FPS als bei der 3070 und brauche im Vergleich gute 100 Watt weniger.
Also habe ich keinen realen Nachteil, nur Vorteile, insofern keinen Grund mir wieder eine Karte reinzuhängen, deren nominale Mehrleistung real nix bringt außer höheren Temps und mehr Verbrauch.
Meine 144 FPS max durch Sync bleiben gleich, juckt mich also null ob die 7700xt 160 erreichen würde, theoretisch. Dafür hätte ich eine Karte die seit Jahren immer wieder durch Treiber Bugs geglänzt hat, im Plug n Play nicht optimal läuft und deren bisheriges FSR einfach im Vergleich zu DLSS nix getaugt hat.

Daher Frage ich mich, wie man sich anmaßen kann zu behaupten, dass eine 7700XT ja die bessere Karte wäre, denn das ist sie für alle die bis 1080p 144 Hz auflösen eben nicht, es sei denn man will unbedingt Schwanzlängenvergleich per Benchmarks zum Besten geben und sich über 5-10 FPS mehr in der Benchmark freuen, die aber real gar nicht zum Tragen kommen. Und sich mit schlechter Software, Treibern und hohem Verbrauch rumschlagen.

Daher bleibt die Aussage genauso bestehen, für 1080p Gamer bis 144 Hz ist die 4060ti 16GB der Sweetspot, und eine 7700XT ist da nicht im Ansatz eine echte Alternative, außer man will unbedingt eine AMD, weil man Markenfetischist oder Fanboy ist.
Übrigens schon die Zweite AMD Karte die locker mit deiner,in der Effizienz mithalten kann.
Die Erste war die 6900XT die DEUTLICH weniger Verbrauchte und DEUTLICH mehr FPS brachte.

Die Zweite ist die RX6700XT die die gleiche Leistung liefert bei Gleichem Verbrauch.

Wenn man Jetzt kein(Ich Zitiere dich mal)
Markenfetischist oder Fanboy ist.
dann liegt die Leistung der 7700XT min über der 6800 und wenn man dann noch 1+1 Rechnen kann,dann sollte auch nem Einzeller klar sein das selbst die 7700XT Effizienter ist als die 4060TI 16GB.

Wenn DU ein (Ich Zitiere Dich mal wieder)
Markenfetischist oder Fanboy
bist und nicht dazu in der Lage,dann ist es ALLEIN dein Problem aber nicht das von Tausenden anderen Menschen die sich dafür auch in Foren Hilfe suchen.
Ja richtig,ein HW Forum ist besonders dafür da um anderen zu Helfen und nicht irgend welche Propaganda zu Verbreiten.
 
und wenn man dann noch 1+1 Rechnen kann,dann sollte auch nem Einzeller klar sein das selbst die 7700XT Effizienter ist als die 4060TI 16GB.
Aha, kann außer dir niemand rechnen, oder warum heißt es im PCGH-Test zum einen

"Der hohe Takt fordert seinen Tribut: Die Radeon RX 7700 XT ist die bis dato ineffizienteste Grafikkarte der RDNA-3-Generation. Dieses Bild kennen wir von früheren Modellen der Gattung "Beschnittener Chip, hoher Takt als Kompensation."

und weiter

"Verlässt man jedoch den Rasterizing-Korridor, wird die Radeon RX 7700 XT in den meisten Fällen von der direkten Konkurrenz überboten. Da wäre Raytracing, das sich in immer mehr Spielen findet: Im brandneuen "Next-Gen"-Leistungsindex 2023/2024 berechnet die Geforce RTX 4060 Ti 16GB durchschnittlich elf Prozent mehr Bilder pro Sekunde. Damit nicht genug, sie benötigt bei alldem auch deutlich weniger Energie, es steht rund 165 (Nvidia) zu 230 Watt (AMD), sodass die Nvidia-Grafikkarte um rund 50 Prozent energieeffizienter arbeitet."
 
Oben Unten