Frage AMD RX 7900 XTX Launch Event

Ich warte gespannt auf Igor's Präsentation mit echten, vergleichbaren Daten. Dann wissen wir, ob sie nur die Schuhe durch die Hosen aufblasen.
 
Ich kann mir auch gut vorstellen, dass AMD einfach massiv hinter ihrem Zeitplan liegt und jetzt trotzdem "irgendwas" ankündigen musste.
Announcement knapp 1 Monat nach Markteinführung der RTX 4090 mit wenig belastbaren Zahlen, Markteinführung der RX 7900 dann erst 2 Monate nach RTX 4090 Markteinführung...
Immerhin haben sie aber auch ein komplett neue GPU Architektur im Chiplet Design entwickeln und Treiber und Spiele darauf anpassen müssen.
Das ist sicherlich etwas mehr Aufwand als "einfach nur" das alte Konzept aufzubohren. Sieht man ja auch daran, dass die ganzen neuen Software Features alle erst irgendwann in 2023 kommen sollen.
 
Ich sehe nur fsr Angaben mit der Fussnote siehe rdna829 /830 ;) was nicht gezeigt und gesagt wurde in welchen Einstellungen diese 1.x, usw erreicht wurden.

Wenn AMD da was im köcher hätte womit sie Nvidia irgendwas entgegenzusetzen hätten hätten Sie es gemacht ;) ich denke eher diese 7900xtx wird so maximal auf 4080 Niveau liegen liegen und man werkelt noch an einer 7950 aber das wird eben nicht so schön zu der Energieeffizienz passen 😅 abwarten am 12/13.12 wissen wir alle mehr.

Was man auch bedenken muss dieses chiplett Design muss auch voll unterstützt werden von den Entwicklern das auch so ein Faktor den man eben bedenken muss
Mei, aktuell kennt man nur die 4090, der Rest ist Spekulation. Richtet man sich nach den bisherigen Angaben der Hersteller und vertraut diesen, das sollte das Ergebis in etwa so aussehen
TS TS ex. PoR FS ex
4090 35k 19k 25k 45k
4080 26-27 14 19-20 37-38
79xtx 33-35 17 18-19 47-50
79xt 28-30 14 15-16 42-45

Damit ist klar, die 90er bleibt klar die schnellste, insbes. bei RT, aber zu exorbitanten Preisen.
Darunter wird es spannend. Ich denke ( dlss/ fsr ausgeklammert) dürfte die xtx in Rt nur max 10-15% langsamer als die 80er sein( hat ja immerhin 20% mehr Cores bei angeblich 50% mehr leistung pro RtC), und dafür in der Rasterierung schneller.
Ich vermute, dass dies der preisliche Schachzug ist ggü NV. Etwas langsamer aber immer noch ziemlich gut in Rt , dafür der Rest schneller zu gut 10% weniger Preis als die 4080.
Und mal ehrlich, wirklich jeder hat mit Unverständnis auf den Preis der 4080 reagiert, da sollte es möglich sein, für ein paar Euro weniger, eine ebenbürtige GPU auf den Markt zu bringen, die trotzdem reichlich Gewinn abwirft.
Falls sich das so halbwegs bewahrheitet, bleibt die 90er der King( sogar mit nicht ganz so üblen P/L Verhältnis), aber darunter als nr2 zum nr3 Preis könnte die xtx und evrl sogar die xt, der 4080er den Rang ablaufen.
 
Ich hatte die 7900XT schon damals leicht unterhalb der 4080 16 GB verortet und ich befürchte, auch da mal wieder recht zu behalten. Ich kann nur hoffen, falls sich das so bewahrheitet, dass sich mal einige entschuldigen :D
Das ist nach dem was man jetzt "gesehen" (haha gesehen...) hat nicht unplausibel... Wahrscheinlich wird die XTX auch nur etwas über der 4080 16 liegen wenn man dann den großen Schnitt macht. Dort vermute ich sie zumindest aktuell eher als sehr dicht an der 4090.
 
Hatte irgendwie auf einen Nachfolger für die 6800 gehofft. Also den Effizienzmeister. Naja, weiter warten.
Bei der Preis Klasse mit 300W + bin ich raus.
 
Hatte irgendwie auf einen Nachfolger für die 6800 gehofft. Also den Effizienzmeister. Naja, weiter warten.
Bei der Preis Klasse mit 300W + bin ich raus.
Na gut das war ewartbar schwierig ... von den alten Karten sind einfach noch zu viele da. Allein wie viele 6700 seitens AMD noch irgendwo auf Lager liegen ... Da kann einem schlecht werden ;) Also man wird sich wie auch bei Nvidia hüten das Sortiment nach unten hin all zu schnell mit neuen Chips abzurunden.
 
Nach dem Event ist doch einiges klar(er):
1. an die 4090 kommt man nicht ran.
2. alles andere wird man sehen.

Nvidia hat genau eine Karte, die mal wieder kaum verfügbar und preislich komplett eskaliert ist. Die 4080 16GB wird ggf. etwas über der 7900XTX liegen, das kann man schon an den kolportierten Preisen ablesen. Ich kann daran weder was Gutes noch was Schlechtes finden, denn beide Hersteller liefern aktuell sowohl technologisch als auch Performance-seitig in der gehobenen Mittelklasse bis Highend ordentlich ab.
Die gute Nachricht ist doch: man kann mit beiden Teams UHD in extrem chic daddeln - zu halbwegs erträglichen Preisen, vorausgesetzt, die produzieren mehr, als beim letzten Mal und die Mining-Bubble greift nicht wieder alles ab.
 
Das ist nach dem was man jetzt "gesehen" (haha gesehen...) hat nicht unplausibel... Wahrscheinlich wird die XTX auch nur etwas über der 4080 16 liegen wenn man dann den großen Schnitt macht. Dort vermute ich sie zumindest aktuell eher als sehr dicht an der 4090.
Ist doch Ok.
Die 4090 wird eine Sonderstellung haben, ist ein Brett und ja fast für gaming zu stark.
Aber rein von der P/L hat da NV zu hoch gegriffen
Neue Gen. im Schnitt 50% mehr leistung bei beiden, aber dafür ist bei NV auch der Preis um 50% hoch gegangen, während er bei AMD halbwegs konstant bleibt ( für Euro Schwäche kann keiner der beiden was).
Deswegen kann ich tatsächlich nicht nachvollziehen, wo das Problem liegt, dass die 4090 nicht erreicht wird.
 
Ist doch Ok.
Die 4090 wird eine Sonderstellung haben, ist ein Brett und ja fast für gaming zu stark.
Aber rein von der P/L hat da NV zu hoch gegriffen
Neue Gen. im Schnitt 50% mehr leistung bei beiden, aber dafür ist bei NV auch der Preis um 50% hoch gegangen, während er bei AMD halbwegs konstant bleibt ( für Euro Schwäche kann keiner der beiden was).
Deswegen kann ich tatsächlich nicht nachvollziehen, wo das Problem liegt, dass die 4090 nicht erreicht wird.
Hab doch nicht gesagt das es ein Problem ist, war nur eine leistungstechnische Einschätzung.
 
Mal sehn wie die Karten in den Benchmarks ist. RT ist noch nicht so mein Augenmerk habe nur mit Cyberpunk ein Spiel das es könnte daher mal sehen wie es in der Zukunft damit noch aussieht.
 
Hab doch nicht gesagt das es ein Problem ist, war nur eine leistungstechnische Einschätzung.
War nicht auf Dich persönlich bezogen, sondern allgemein, sorry
Mich wundert nur was erwartet wurde, und falls das so alles halbwegs stimmt, liefert AMD ordentlich für den Preis.
 
Dass eine 7900XTX an eine 4090 heran reicht - hat daran wirklich jemand geglaubt? Ehrlicherweise war ich von Beginn an darauf eingestellt, dass die Karten zwar sparsamer und günstiger sein werden, dafür aber auch eben weniger performant.
 
Was auch kaum angesprochen wird, ist der Preis der XT. Es ist diesmal wie bei nVidia auch: Das besser PL Verhältnis hat die größte Karte. Was ja widersinnig ist, normalerweise bezahlt man doch unverhältnismäßig viel für die letzten %...
so ist die XTX "deutlich" schneller als sie teurer ist - wenns keine Verfügbarkeitsschlachten gibt, ist die XT wohl bei diesem Preispunkt maximal uninterresant. $200 hätten da wohl minimum dazwischen liegen müssen
 
Ist eher die Frage wie die 7900XTX sich gegen die anderen Karten behauptet in RT wird sie wohl nicht gegen die hohen Modelle von NV ankommen was aber auch klar sein müsste.
 
Mal sehn wie die Karten in den Benchmarks ist. RT ist noch nicht so mein Augenmerk habe nur mit Cyberpunk ein Spiel das es könnte daher mal sehen wie es in der Zukunft damit noch aussieht.
Vermute mal das sie RT in QHD bis maximal UWQHD für die Radeons einigermaßen brauchbar möglich machen wird.
Daran sind sie ja bisher eher schon zerbrochen, zumindest gehts mir mit meiner 6900XT so ;)
Das ist ok weil wir hier in einer gut vertretenen Auflösung unterwegs sind, aber auch noch kein Burner. Da müssen sie jetzt langsam
den Hebel ansetzten sons laufen sie Gefahr das es ein zweites "CUDA" wird... Und wenn man dann nicht nur wegen irgendwelcher
"Profi" Software sondern auch wegen RT irgendwann gezwungenermaßen zu NVIDIA greifen muss dann wird es sehr sehr schwierig
für AMD ....
 
In manchen anderen Forum wird schon spekuliert das sie auf Niveau einer 3080TI sich wohl einpendeln wird, also von RT-Leistung . Aber wie gesagt abwarten.
 
Bin gespannt was passiert. Werden die Preise der 4090 nun langsam sinken oder nicht?
Mit der RTX 4080 muss NVidia reagieren, denn die wird im Bereich Preis/Leistung klar von AMD geschlagen (nicht bei Raytracing, aber in der Rasterisierung). Bei der RTX 4090 wird NVidia eher nicht reagieren. Die Karte steht weiterhin an der Spitze und ist ja eh als Karte für Enthusiasten positioniert, die immer das Beste benötigen.
 
Das Thema 8K muss ich an der Stelle nochmal aufgreifen.

Was bedeutet 8K? Die doppelte Pixel-Anzahl von UHD? Nein!

UHD = 3840 x 2160 = 8.294.400 Pixel

8K = 7680 x 4320 = 33.177.600

Ups: Das ist das vierfache... Wenn man zwei Faktoren verdoppelt und diese dann miteinander multipliziert, vervierfacht sich das Ergebnis. What a Jeopardy!

Was bedeutet 8K? Im Grunde, außer, dass die Monitore wieder zu völlig übertriebenen Kosten auf den Markt geworfen werden und die Leistung der Grafikkarte völlig einbricht, nicht viel. Was hat man als Kunde davon? Richtig, noch weniger als nix - nämlich gar nix! Diese Auflösung ist für den PC-Anwender so sinnvoll wie dem Papst die eigenen Nüsse.

Bisher weigert sich die Filmindustrie - Content in 8K zu produzieren - und das aus gutem Grund. Der Mehrwert ist überschaubar. TV-Content läuft in 720 oder 1080i also FHD. Der UHD Content (Streaming) nimmt derzeit erst so richtig fahrt auf. Was ich natürlich sehr begrüße. Jetzt aber mal zum Kern der Sache. Auf einem 65 Zoll TV bei einem Sitzabstand von 2-3 Metern sieht man keinen Unterschied zwischen UHD und "8K". Auch bei noch deutlich größeren TVs wird man bei einem Abstand von 3 Metern keinen Unterschied sehen. Da muss man schon (< 2 m) davor sitzen, um überhaupt Unterschiede auszumachen.

Für PC Gaming ist 8K einfach nur das dümmste Marketing - seit Anbeginn der Wetteraufzeichnungen! Warum? 27" QHD vs. UHD wird schon schwierig in Bezug auf Unterschiede auszumachen. Ab 32" ist UHD im Grunde ein Muss - ab >42" muss man es schon wollen - mit 80 cm Abstand zum Bildschirm sitzen. Genickstarre usw.

Ich sehe grundsätzlich für keinen Anwendungsfall einen 8K Monitor auf den Schreibtischen dieser Welt. Einzige Ausnahme könnte ein Super Ultrawide (z.B. Samsung Odyssey Neo G9) sein. Da sprechen wir aber von 1/2 8K 7680 x 2160p. Auch diese lächerlichen Aussagen über das Thema DP 2.1, oh man...

Es gibt derzeit nur eine ganz überschaubare Anzahl von UHD 240 Hz Monitoren und von den den Preisen reden wir lieber gar nicht erst... Schauen wir bei QHD dort wird es bald die ersten 1440p 360 Hz Monitore geben und 1080p wird es mit 500 Hz geben. Ihr seht also, das ganze Gelabber von Gestern über DP 1.4 lenkt im Grunde nur von den eigenen Verfehlungen ab. Man hat es leider nicht geschafft - mit NVIDIA ans Ende der Fahnenstange zu klettern. Versteht das bitte richtig: Das bedeutet nicht, dass die RX 7000er schlecht sind, keines Wegs...

Die Monitortechnologie kann aktuell nicht größer 500 Hz (Pixel-Response!) TN wird kommen, IPS und VA liegen bei 2.5 ms das ist zwar knapp dran, aber eben nur knapp (Montion-Clarity wird damit schwierig)... OLED feiert seit diesem Jahr seinen Einzug im Gaming-Monitor-Markt. Die Preise sind entschprechend nicht Mainstream-Kompatibel. OLED ist aktuell die einzige Technologie, die Bildwiederholraten > 500 Hz NUTZBAR auf die Straße bringt. Am meisten dürften gesternabend die eSportler in die Maus gebissen haben. Die zocken auf 360 Hz in 1080p mit teils > 600 FPS und dann sagt AMD, wir geben euch DP 2.1 damit ihr in UHD mit 480 Hz Monitoren zocken könnt. Das war einfach nur lächerlich! Auch die Aussage, dass man keinen Mehrwert von z.B. 400 FPS auf 240 Hz hat, war ein Schlag in mein Gesicht und in das aller eSportler, die seit Jahren auf 240 Hz FHD zocken und gar nicht gwusst haben, das ihnen die 600 FPS in CS:GO gar nix bringen... Eine glatte Lüge seitens AMD!

Anstatt AMD über UHD HDR-Gaming spricht, wird völlig verwirrt - über 8K - eine Marketing-Opera abhalten und völlig sinnbefreit über Bildwiederholraten philosphiert, die es in den nächsten zwei Jahren wenig - bis gar nicht geben wird. Hätte man sich auf UHD und HDR Gaming fokusiert, wäre das alles nachvollziehbar und ehrlich gewesen. Denn dafür wird es jetzt endlich entsprechend bezahlbare Hardware geben. Sowohl VA und IPS-Panels kommen. (Da sind zwei IPS-Monitore mit Mini-LED und FLAD im Zulauf - Tests noch dieses Jahr!)

Nichts hätte ich mir lieber gewünscht als AMD und NVIDIA im direkten Kampf - um die schnelleste GPU. Leider wird daraus vorerst nix... Ich nehmen den einzigen ehrlichen Satz von Gestern für mich mit: Ab dem 13. Dezember wird die RX 7900 XTX die schnelleste Gaming-GPU für unter 1.000 $ sein. Immerhin

Habe fertig...
 
Zuletzt bearbeitet :
Gemischte Gefühle. Mir scheint, als wären die 3Ghz ein letzlich nicht erreichtes Ziel gewesen, welche uns wahrscheinlich ein echten Gegner für die 4090 gebracht hätten. Gut, die Architektur wurde umgebaut, da gibts jetzt so lustige AI-Units (die scheinbar noch für nichts genutzt werden?) - dessen Anteil an der Rechenleistung nun brach zu liegen scheint, dafür aber DP 2.1, AV1 De-/Encode, eine höhere Effizienz, 12Bit Support (was auch immer das bringen mag), die Uuterstützung extrem hoher Refrehraten, bald FSR3 und ein paar andere Details. Ach und jetzt zu einem halbwegs anständigen Preis, der ein wenig zu gering angesetzt erscheint.

Das muss mal als echter Gegner für die 4090 gedacht gewesen sein. Zu einem ähnlichen Preis. Nur das jetzt halt der dafür nötige Takt fehlt. Klar, mit all dem anderen Gedöns (DP, AV1, FSR3, ...) wäre das Teil eingeschlagen wie eine Bombe. Nun fühle ich mich hier stark an Vega erinnert. Sie wagen neue Wege. Nur schade, dass es (wieder) nicht so gut lief.

Die Präsentation finde ich gelungen. Von einem Account- und Telemetriezwang bei nVidia wusste ich bisher nichts. Lustiges NoGo für mich :D

Wenn ich dann mal dieses "Nur die höchste Leistung ist geil" weglasse, dann wäre die 7900XTX für mich perfekt - sofern die effektive Effizienz tatsächlich besser wäre als bei meiner jetzigen. FPS habe ich bereits genug, AV1 kann ich gut gebrauchen, die 8Pin Stecker sind mir wegen der geringeren Brandgefahr und der Kompatibilität zu meinem NT lieber, die geringere Abwärme kommt mir ganz gut gelegen, mehr RT-Performance kann nicht schaden und das Geld muss weg.

So, jetzt habe ich mir das etwas schön geredet *sniff* 😅
 
Oben Unten