Frage AMD RX 7900 XTX Launch Event

Naja, da mich RT nicht interessiert und ich einfach nur 4k in 1:1 haben möchte , ist AMD auf jedenfall erstmal gut ins Rennen gestartet.
50% schneller mit den selben Netzteilen ohne Kabeladapter ;-) *hust*

Negativ ist IMO das es noch viele viele Monate dauern wird bis die neuen Mainstream GRafikkaten von Nvidia und AMD kommen und das die Fertigungsprozesse seit Jahren so viel teuerer werden das neue Grafikkarten Pro € kaum noch mehr FPS / Euro haben und fast genauso viel teurer werden wie sie schneller werden.
 
Ja weil man das wieder überall reinwürgen wollte... VR ist schon toll, im Simulatorbereich zB. aber es lässt sich halt nicht in jede Nische pressen ... Das Marketing wird halt auch immer versuchen jedem Excel User einen Joystick anzudrehen xD
Wir nutzen VR beruflich, da sehe ich den größten Mehrwert... Ein Teamsmeeting mit meinen Kollengen aus der Prozessentwicklung am Auslandsstandort und Bilck in eine Laserschweißanlage ist schon geil.
 
Weitere Benchmark Werte:

Valhalla
Red Redemption II
God Of War


Achtung: Was bedeuted jedoch die _1_ oben Rechts

@edit

  1. Testing done by AMD performance labs November 2022 on RX 7900 XTX, on 22.40.00.24 driver, AMD Ryzen 9 7900X processor, 32GB DDR5-6000MT, AM5 motherboard, Win11 Pro with AMD Smart Access Memory enabled. Tested at 4K in the following games: Call of Duty: Modern Warfare, God of War, Red Dead Redemption 2, Assassin’s Creed Valhalla, Resident Evil Village, Doom Eternal. Performance may vary. RX-842


auf AMD.com

 
Zuletzt bearbeitet :
Ich denke der Preis der XTX gegenüber der 6900XT ist gut.
grob >60% mehr Performance und 50% mehr Speicher, gleicher Listenpreis ($)
Die XT ist aber Nachfolger der 6800XT und da ist der Perfomancevorteil nicht mehr so hoch (45-55% geschätzt) aber immerhin der Speicher noch 25% größer aber dann auch der Preis fast 30% höher (699 > 899$).
Der Preis der 7900XTX ist Marketing pur, besonders auf die unter 1000$ Marke bezogen. ' Für "gerade mal 10%" (rechnerisch 11%) nehme ich doch die viel bessere Karte.'
Genau wie Nvidia mit der 4080 12 GB hat es hier AMD 7900XT versemmelt. Mit ca 12% weniger CUs und 15% weniger Takt ist das keine 7900er mehr.
Mit 80 CUs (45-50% Mehrperfomance durch Taktanpassung), 7800XT Namen und 749$ wäre es meiner Meinung nach angemessener. 84 CUs wären was für ein 7850XT Refresh.

Gruß
Odd.

Edit
Vielleicht hat AMD etwas beim Verkauf der AM5 und Ryzen 7000er gelernt. Auch in den VSA gibt es eine Inflation, wie besten Deutschland aller Zeiten.
Ja, genau der gleiche Sch...-Trend wie bei Nvidia.

Die 7900 XT hat verglichen mit der XTX:
- 12.5% CU
- 13% Takt
- 16.7% RAM/Bandbreite und Infinity Cache

Wieso zur Hölle ist der Preis dann nur 10% tiefer?
Früher waren die letzten 10% Leistung die teuersten, heute haben 4090 und 6900XTX das beste P/L Verhältnis aller aktuell angekündigten Karten... o_O
 
@Staarfury

Wenn Du nicht so viel Geld ausgeben willst, dann warte doch einfach auf eine 7800XT oder 7700XT. Auch die werden noch genügend Leistung haben. Ebenso eine 4070 oder 4060.

Niemand zwingt Dich High-End zu kaufen, wenn es Dir zu teuer ist. Dieses schmipfen auf den Preis im HE kommt mir immer etwas merkwürdig vor. Als ob es ein Grundrecht wäre, dass man HE bezahlen können müsste, auch wenn man nicht so viel Geld für das Hobby übrig hat oder einfach nicht so viel investieren will.
 
@Staarfury

Wenn Du nicht so viel Geld ausgeben willst, dann warte doch einfach auf eine 7800XT oder 7700XT. Auch die werden noch genügend Leistung haben. Ebenso eine 4070 oder 4060.

Niemand zwingt Dich High-End zu kaufen, wenn es Dir zu teuer ist. Dieses schmipfen auf den Preis im HE kommt mir immer etwas merkwürdig vor. Als ob es ein Grundrecht wäre, dass man HE bezahlen können müsste, auch wenn man nicht so viel Geld für das Hobby übrig hat oder einfach nicht so viel investieren will.
Das ist aber leider nur die halbe Wahrheit, da die ganzen "kleinen" Karten durch den High-End und Enthusiast-Kram preislich immer mit anzieht. Auch wenn der Vergleich etwas hinkt, eine 1080 Ti hast Du damals für deutlich unter 1000€ bekommen. Das ist der Bereich der bei NVIDIA und AMD jetzt gefühlt zum oberen Mid-Range degradiert wurde.
 
Das ist aber leider nur die halbe Wahrheit, da die ganzen "kleinen" Karten durch den High-End und Enthusiast-Kram preislich immer mit anzieht. Auch wenn der Vergleich etwas hinkt, eine 1080 Ti hast Du damals für deutlich unter 1000€ bekommen. Das ist der Bereich der bei NVIDIA und AMD jetzt gefühlt zum oberen Mid-Range degradiert wurde.
Ja, sicher. Dafür wird eine 7700XT eine 1080Ti auch im Regen stehen lassen.

Man kann nicht erwarten, dass der Zyklus von immer schnellerer HW für den gleichen Preis ewig weitergeht. Die Technik kommt an die Grenzen und der Aufwand steigt exponentiell. Und das ist nicht übertrieben!
 
Nun, auf den ersten Blick sieht erst mal nichts schlecht aus, wird sich aber in der Realität beweisen müssen, wenn es dann soweit ist.

Extrapolation der angegebenen Werte würde auf ein 10-15% Leistungsdefizit ggü. einer 4090 hindeuten. So viel zum Schönwetterflug. Sollte dem so sein, gar nicht mal schlecht unter Anbetracht der jeweiligen MSRPs.

Als nativer 4Kler ist RT auf der einen, noch auf der anderen Seite wirklich erwähnenswert, wenn die Frames gleichzeitig noch rollen sollen. Denke, dass sich das auch erst in einigen Generation ergeben wird.

Somit bleiben die Flagschiffe wohl recht hochindividuell, während die "untere Klassen" Seitens Nvidia durchaus unter Druck geraten dürften, wenn man sich den Spec-Spread einer 4090 und 4080 (und kommenden 4070) verglichen zur bspw. 7900XT und 7900XTX anschaut.

Die Die-Size ist höchst interessant mit gerade mal 308mm² zzgl. "Rest". Rein wirtschaftlich könnte das AMDs GPU Zen Moment werden.
 
Zuletzt bearbeitet :
Bin wie so viele von der Präsentation entäuscht. Zu viel wages und Marketing Bla bla mit wenig handfestem.

Generell freut mich die UVP von 999$ trotzdem. Das macht nämlich Hoffnung auf eine 7800 mit ~225 Watt im 600$ Bereich was mich schon eher interressieren würde.

Ich verstehe aber die 899$ der 7900 XT nicht. Laut Daten ist sie ja geschätzt 25 - 30% langsamer als die XTX (weniger Cores und weniger Takt). Aber nur 10% geringere UVP? Im Endeffekt muss die reale Ladenpreis natürlich nicht viel mit der UVP zu tun haben, aber wirkt trotzdem komisch.
 
@Staarfury

Wenn Du nicht so viel Geld ausgeben willst, dann warte doch einfach auf eine 7800XT oder 7700XT. Auch die werden noch genügend Leistung haben. Ebenso eine 4070 oder 4060.

Niemand zwingt Dich High-End zu kaufen, wenn es Dir zu teuer ist. Dieses schmipfen auf den Preis im HE kommt mir immer etwas merkwürdig vor. Als ob es ein Grundrecht wäre, dass man HE bezahlen können müsste, auch wenn man nicht so viel Geld für das Hobby übrig hat oder einfach nicht so viel investieren will.
Das geht aber nur auf, solange du daran glaubst, dass irgendwann im Produktestack der grosse P/L Sprung noch kommt.

Herbst 2020 kam die 3080 für $700 und danach weitere Produkte von AMD und Nvidia, die sich in der UVP entsprechend darunter ziemlich gut eingeordnet haben. Darüber gabs eine 6900 und 3090 die alle für das Plus an Leistung ein Riesenplus an Preis verlangt haben, aber damit kann ich leben. Extremprodukt zu Extrempreis. Leider gab's dann noch den Miningboom und alle UVPs waren reine Makulatur.

2 Jahre später haben wir neue Spitzenprodukte mit massiv höherer Leistung bei der (fast) gleichen UVP, aber darunter skaliert der Preis plötzlich nicht mal mehr linear. Die angekündigten Nr.2 haben ein schlechteres P/L Verhältnis als die Top Produkte...

Die 4090 hat doppelte Leistung einer 3080 zum doppelten Preis, die 4080 hat dann etwa +50% Leistung für +50% Preis. Die 4080 12G wäre bei +10-20% Leistung für +30% Preis gelandet. Wo soll sich da eine 4070 denn einordnen?

Fortschritt wäre für mich eine Karte mit 3080er Leistung zum 3070er Preis. Oder +30% zur 3080 für den 3080er Preis. Aber wenn so ein Produkt kommt, dann macht eine 4080 bei $1200 absolut keinen Sinn mehr.
 
Aus der Perspektive eines Spielers mit begrenztem Budget ( bis 500 € ) frage ich mich welche Grafikkarte wird mindestens benötigt um z.B. Cyberpunkt 2077 flüssig ( > 50 FPS AVG, ohne Raytracing, kein FSR / DLSS ) wiederzugeben ?
Die ermittelten GPU Vergleichswerte in den drei gängigen Bildschirmauflösungen zeigen folgende Auswahl an:

1080p = AMD RX 6600 ( ab 265 € ) ; NVIDIA RTX 2060 Super ( ab 299 € ) ; INTEL Arc A750 ( ab 360 € ) ; NVIDIA RTX 3060 ( ab 380 € )

1440p = AMD RX 6700 XT ( ab 450 € ) ; NVIDIA RTX 3060 Ti ( ab 480 € ) ; INTEL Arc A770 ( ab 470 € )

2160p = RTX 4090 ( ab 2300 € ) :poop:

Und dann reden alle Marketingabteilungen etwas von "8K Gaming" obwohl das "4K Gaming" für die Mehrheit schon unbezahlbar ist. :rolleyes:

Also bis wir dieses Spiel auf einer bezahlbaren GPU mit 50 FPS AVG und Raytracing ( ohne FSR / DLSS ) erleben ist schon das Jahr 2030 (y)
 
@Staarfury

Man kann sich der Realität nicht verschließen. Und die Technik ist wie gesagt an einem Punkt angekommen, bei der es Verdopplung der Leistung alle 2 Jahre bei gleichem Preis einfach nicht mehr gibt. Das kann man Sch... finden, die Realität wird sich dem eigenen Empfinden aber nicht unterordnen.
 
@McFly_76

Einfach die Regler nach links schieben oder FSR / DLSS zuschalten. Warum diese extreme Abneigung dagegen? Die ist einfach extrem irrational.
 
Da hast du Recht, den 8K Irrsinn hat seiner Zeit NVIDIA von Zaun gebrochen. Dafür gab es auch entsprechend einen Shit-Storm... jetzt bekommt ihn AMD gleichermaßen ab. Warum soll es AMD damit besser gehen? Gleiches Recht für alle...
Ich habe die Präsentation aufmerksam verfolgt und bei mir blieben die 8K Ultrawide hängen und keine an den Haaren herbeigezogenen "echten" 8K verbunden mit einer Garantie für flüssige 8K bei MAX. Übersptitzt ausgedrückt - und ohne dir irgendwelche Worte in den Mund legen zu wollen.

Bitte nicht falschverstehen. Das ist nur mein Eindruck der Präsentation. Aus der Perspektive erscheint die Cooperation bzgl. des erwähnten Monitors eben mit 8K Ultrawide, der DP 2.1 Unterstützung (eben für solch hohe Auflösungen), dem vielen VRAM, der Ausblicke bzgl. FSR3 (was die 8K (Ultrawide) zum greifen nahe bringen könnte), AV1 Decoding (8K Videos bitte nicht vergessen) und dem Umwerben für Kunden, die die Graka ein paar Jahre nutzen wollen, tatsächlich angemessen und rund. Es erweckt bei mir den Eindruck, dass die Graka als 8K ready eingeortnet werden kann und voraussichtlich auch deutlich besser für 8K Videos (De-/Encoding) geeignet wäre.

Auf der anderen Seite wird AMD diese Kommentare kaum bis garnicht mitbekommen. Daher trifft der Shitstorm so oder so nur jene, welche das auf sich persönlich beziehen. Mehr als sich an anderen abarbeiten ist das dann leider auch nicht :/
 
Aus der Perspektive eines Spielers mit begrenztem Budget ( bis 500 € ) frage ich mich welche Grafikkarte wird mindestens benötigt um z.B. Cyberpunkt 2077 flüssig ( > 50 FPS AVG, ohne Raytracing, kein FSR / DLSS ) wiederzugeben ?
Die ermittelten GPU Vergleichswerte in den drei gängigen Bildschirmauflösungen zeigen folgende Auswahl an:

1080p = AMD RX 6600 ( ab 265 € ) ; NVIDIA RTX 2060 Super ( ab 299 € ) ; INTEL Arc A750 ( ab 360 € ) ; NVIDIA RTX 3060 ( ab 380 € )

1440p = AMD RX 6700 XT ( ab 450 € ) ; NVIDIA RTX 3060 Ti ( ab 480 € ) ; INTEL Arc A770 ( ab 470 € )

2160p = RTX 4090 ( ab 2300 € ) :poop:

Und dann reden alle Marketingabteilungen etwas von "8K Gaming" obwohl das "4K Gaming" für die Mehrheit schon unbezahlbar ist. :rolleyes:

Also bis wir dieses Spiel auf einer bezahlbaren GPU mit 50 FPS AVG und Raytracing ( ohne FSR / DLSS ) erleben ist schon das Jahr 2030 (y)
Naja 2160p geht auch mit der RX 6800 XT bzw. 6900 XT usw. sowie mit RTX 3080 und darüber. Wenn man RT aus lässt, dann geht das schon ganz gut. Und da sind die Preise jetzt nicht bei 2.000 Euro
 
Moin,

hab ne ASUS TUF RTX 4090 am Releasetag für 1949,90 Euro im Asus eShop geschossen und die is auch extrem geil. Was meint ihr: verkaufen und auf 7900 XTX setzen ("Preis-Leistung") oder genießen?
Bin gerade eeeetwas verunsichert. Kacke fand ich, wie Igor schrieb, dass kein Benchmarkvergleich mit der 4090 gezeigt wurde, obwohl die Karte ja schon 3 Wochen verfügbar ist und die mit Sicherheit auch eine am Start haben...
 
Da hast du Recht, den 8K Irrsinn hat seiner Zeit NVIDIA von Zaun gebrochen. Dafür gab es auch entsprechend einen Shit-Storm... jetzt bekommt ihn AMD gleichermaßen ab. Warum soll es AMD damit besser gehen? Gleiches Recht für alle...

Am meisten stört mich das Thema DP 2.1 und die damit verbunden Aussagen. AMD hätte folgendes machen können: "Wir haben unseren Karten DP 2.1 verpasst." Ende

Bis das Thema in der Masse zu Anwendung kommt bzw. einen Nutzen bringt, ist die RX 7900 XTX ein Relikt der Vergangenheit. Das Marketing-Gelabber von Zukunftssicherheit, kann ich auch nicht mehr hören. AMD ist wie Intel und NIVIDA ein Börenunternehmen. Wer glaubt, dass die ein Interesse daran haben, dass man mit der 7900 XTX in fünf Jahren noch mit dann aktuellen Spielen in UHD HDR und 480 Hz socken kann, der glaubt auch, dass Zitronenfalter - Zitronen falten.
Was ist denn das fürn Rant hier? Klar, du bist enttäuscht, aber hey - mehr ging bei den Roten diesmal nicht. Kauf dir halt ne 4090 und gut is.
Sämtliche Kritikpunkte kannst du zur ein oder anderen Präsentation bei jedem Team anmerken. Bei Kritik an RT/DLSS ist hier immer großes Theater - auch wenn es auf den ersten beiden Gens ein eher fragwürdiges und rares Feature war, von wegen Blick in die Zukunft. Es sind Grafikkarten und du kriegst in nicht mal zwei Jahren die Nächste Gen in dann noch vieel geiler vorgesetzt ;)

Ich finde es deutlich bemerkenswerter, dass die Speicherbandbreite signifikant erhöht wurde - das war doch immer der Flaschenhals. Meine 6900XT hat noch 256Bit - laut Launch-Folien wurde der sehr deutlich auf 320 bzw. 384 Bit erhöht.
 
Ich habe die Präsentation aufmerksam verfolgt und bei mir blieben die 8K Ultrawide hängen und keine an den Haaren herbeigezogenen "echten" 8K verbunden mit einer Garantie für flüssige 8K bei MAX. Übersptitzt ausgedrückt - und ohne dir irgendwelche Worte in den Mund legen zu wollen.

Bitte nicht falschverstehen. Das ist nur mein Eindruck der Präsentation. Aus der Perspektive erscheint die Cooperation bzgl. des erwähnten Monitors eben mit 8K Ultrawide, der DP 2.1 Unterstützung (eben für solch hohe Auflösungen), dem vielen VRAM, der Ausblicke bzgl. FSR3 (was die 8K (Ultrawide) zum greifen nahe bringen könnte), AV1 Decoding (8K Videos bitte nicht vergessen) und dem Umwerben für Kunden, die die Graka ein paar Jahre nutzen wollen, tatsächlich angemessen und rund. Es erweckt bei mir den Eindruck, dass die Graka als 8K ready eingeortnet werden kann und voraussichtlich auch deutlich besser für 8K Videos (De-/Encoding) geeignet wäre.

Auf der anderen Seite wird AMD diese Kommentare kaum bis garnicht mitbekommen. Daher trifft der Shitstorm so oder so nur jene, welche das auf sich persönlich beziehen. Mehr als sich an anderen abarbeiten ist das dann leider auch nicht :/
Das sehe ich etwas anderes als du. Die Folien zeigen beides 8K Ultrawide und 8K Native.

Und eins ist klar, das Thema in Bezug auf 8K und 8K Ultrawide werde ich noch offiziell kommentieren. Dazu werde ich vielleicht mal einen gesonderten Artikel bringen. Fakt ist: Wer sich jetzt eine 4090 oder 7900 XTX holt, der wird 1440p oder 2160p von mir aus auch 3440x1440p oder 3840x1600p zocken. 8K Ultrawide braucht man im Grunde nicht.
 
Oben Unten