Frage AMD RX 7900 XTX Launch Event

Also die Präsentation war schön gemacht.
.
.
.
sonst gab es ja nix weiter.
 
Zumindest der Fußboden war voll spiegelnd auf DXR-Steroiden :D
 
Ja, interessant. Deshalb habe ich es geschrieben, weil mich dann im Gegenzug interessiert, wie andere das wahrnehmen.

Es gibt halt immer mehrere Ebenen, die rein inhaltliche, und die emotionale. Da ich ab und an auch selbst Vertrieb und Marketing mache, sehe ich solche Events vielleicht mit anderen Augen. Ich bin aus eigener Erfahrung sicher, dass für viele die Botschaften, die abseits harter Fakten unterschwellig kommuniziert werden, viel wichtiger für die spätere Kaufentscheidung sind, als viele das wahrhaben wollen.

Deshalb bin ich auch überhaupt nicht der Meinung, wie weiter oben von @FritzHunter01 geschrieben wurde, das wäre schlechtes Marketing. Ich hielte es im Gegenteil für eine ziemlich bekloppte Idee, selbst einen Vergleich zum Marktbegleiter aufzumachen, bei dem man direkt im Bereich der Performance verliert. Dazu kommt ja noch, dass es das adäquate Vergleichsprodukt von Nvidia ja gar nicht gibt, denn welche Karte, zu der man Performancewerte hat, sollte das sein?

Na ja, wenn ich in der Rolle des Kunden bin, ist es für mich jedenfalls immer auch wichtig, dass ich die Personen und die Firma irgendwie "mag", und ich will auch gerne unterhalten werden. Da ich ja in meinem Beruf oft auf der anderen Seite stehe, weiß ich natürlich, dass dieser Eindruck meist nicht echt ist. Aber wenn ich das nicht merke, dann sind sie es entweder doch, oder sie machen es wenigstens professionell. Damit kann ich dann gut leben.
Komisch finde ich diese Argumentation irgendwie schon. Aktuell wird das ganze so verwendet, dass es gutes Marketing ist, sich nicht zu offenbaren - wo man tatsächlich steht. Und diesen Punkt so klarzumachen das man aus dem Standpunkt heraus das positive darstellt. Aber offen und transparent zum Wettbewerb.

Denn meine Argumentation weiter oben kommt später so oder von allem AMD Besitzern, die sich damit rechtfertigen… z.B. 120 FPS in UHD reicht doch völlig… die 24 FPS mehr der 4090 braucht doch eh keiner…

warum also nicht gleich von Anfang an so kommunizieren? Verstehe ich nicht… die Harten Fakten auf den Tisch und dann über Gimmicks sprechen.

Wenn ich so abgeholt werde, dann kauf ich bei 33% weniger Kosten auch eine Produkt, das zwar im Grunde 20% messbar langsamer ist (Betonung liegt auf messbar). Messbar bedeutet nicht spürbar!

das ist doch rational und sollte klar sein… wer das anders sieht, der weiß morgens auch nicht, ob er eher aufs Frauen- oder Männerklo gehen sollte… 😂Schwierige Gesellschaft
 
Zuletzt bearbeitet :
Deshalb bin ich auch überhaupt nicht der Meinung, wie weiter oben von @FritzHunter01 geschrieben wurde, das wäre schlechtes Marketing. Ich hielte es im Gegenteil für eine ziemlich bekloppte Idee, selbst einen Vergleich zum Marktbegleiter aufzumachen, bei dem man direkt im Bereich der Performance verliert. Dazu kommt ja noch, dass es das adäquate Vergleichsprodukt von Nvidia ja gar nicht gibt, denn welche Karte, zu der man Performancewerte hat, sollte das sein?

Da stimme ich dir absolut zu. Vergleiche mit der 4090 wären ein Eigentor gewesen, wenn der grüne Balken dann überall länger ist.
Und wenn sie irgendwo 2 Titel finden, bei denen sie leicht schneller/gleich schnell wären, dann wäre ihnen der Vergleich um die Ohren gehauen worden, sobald die Tests dann im Schnitt 20% Differenz messen.
Und die Überlegung "Die 4090 ist nur 20% schneller kostet aber 60% mehr" überlässt man brav dem Kunden. Wenn du das laut aussprichst, bleibt nur "Die 4090 ist 20% schneller" hängen.

Ich war einfach enttäuscht, dass sie in 45 Minuten so wenig konkretes über ihre neue Architektur zu erzählen hatten. Und sowas wie "FSR 3 ist bis zu doppelt so schnell wie FSR2 und kommt nächstes Jahr" (also in 2 bis 14 Monaten) ist auch reichlich dünn, auch wenn man keine Kristallkugel braucht um vorauszusagen, dass das ihre Version von Frame Generation wird.
 
Ey Warriors of the great war Red VS Green.
Es ging eigentlich mal ums Launch-Event und was uns dort Präsentiert wurde. Die letzten 5 Seiten sind ja fast nur noch Unsinn, bitte nicht mit unendlicher AMD vs Nvidia vs Preis, vs geschätzter Leistung, vs eigener Glaube den Thread Hijacken, der doch sehr gut und gesitted gestartet ist.
 
Ey Warriors of the great war Red VS Green.
Es ging eigentlich mal ums Launch-Event und was uns dort Präsentiert wurde. Die letzten 5 Seiten sind ja fast nur noch Unsinn, bitte nicht mit unendlicher AMD vs Nvidia vs Preis, vs geschätzter Leistung, vs eigener Glaube den Thread Hijacken, der doch sehr gut und gesitted gestartet ist.
Recht hast du… danke für zurückholen auf die Metaebene
 
Das AMD sich so bedeckt hält, hat sicher mehrere Gründe. Man weiß z.B. sicher auch nicht genau, wie schnell so eine 4080 im Detail performt. Da kann man notfalls auch nach deren Launch noch reagieren und ggf. auch noch am Takt rumfummeln. Was mich jedoch sehr stört ist dieses "up to". Irgendeinen perfekten Use-Case hat man ja immer... Ich habe so ein wenig das Gefühl, dass man erst mal abwartet ohne sich genau festzulegen. Das erklärt dann auch die imaginären 355 Watt... Das waren ja eigentlich mal deutlich weniger, wenn man den ganzen Leakern Glauben geschenkt hat.

Mit 55 Watt am PEG ist man aber schon arg an der Kante angelangt. Zuzüglich der 3.3 Volt ist man dann auch schon über 360 Watt+.
 
Tjo, das "up to" kann ja leider verschiedene Hintergründe haben. Entweder a) die konservative Sicht ("in der Regel passt das so, gibt aber ein paar Fälle wo nicht und bevor wir uns das vorwerfen lassen...") oder b) die marktschreierische Sicht ("es gibt ein paar Fälle wo's passt also lügen wir nicht und wenn das einem dann mal auffällt haben wir ja nur "up to" gesagt...").

In der heutigen Zeit wird leider a) immer weniger und b) gefühlt die Regel.
 
@Igor Wallossek
Bezüglich der Stromaufnahme:
Bis man nachgemessen hat, ist das aus meiner Sicht pure Spekulation. Es kann ja auch sein, dass alles innerhalb der Spezifikationen ist.
 
Zuletzt bearbeitet :
Du müsstest das eigentlich besser wissen. ;)

Entweder, man legt die Phasen alle an die externen Buchsen, oder eine von denen an den PEG. Load Balancer haben sie nicht. Zwei 8-Pin liefern bis zu 300 Watt, also zieht man sich bis zu 55 zusätzlich am PEG. Ohne GPU ist das zu viel, also wird dann mindestens eine Phase mit am PEG hängen (müssen). Deshalb haben ja die AIB-Karten auch drei 8-Pin und nicht zwei. Ohne OC passt das natürlich, nur will die Gemeinde ja auch draufpulvern. Dann sind die 11 Watt Reserve schnell erreicht :)
 
Bis man nachgemessen hat, ist das aus meiner Sicht pure Spekulation. Es kann ja auch sein, dass alles innerhalb der Spezifikationen ist.
Naja 55W ist ja bei AMD eh noch harmlos.. war da nicht was mit RX480 und über 80Watt aus dem PEG ? ;)

Ich trau ihnen das im Notfall aus Erfahrung leider durchaus zu das es eng wird und lieber wieder nachher bad news gibt
statt 3 Stromstecker auf der Referenz auch wenn sie im Normalfall gar nicht notwendig wären ...
Und dann hätten Sie sich den Schenkelklopfer mit dem Adapter und der Treiberregistrierung vielleicht besser gespart ;)

Hoffen wir das Beste !
 
Zuletzt bearbeitet :
Da AMD nicht die Heilsarmee ist, lässt der Preis irgendwie nichts Gutes erahnen.
Da schließe ich mich direkt an. Auch der verschobene "Launch" passt da für mich ganz gut ins Bild. Spekulatius....
Schade, dass man nicht so richtig zu seinem guten Produkt steht und immer alles in die Superlative quatschen muss. Aber vielleicht will der gemeine Käufer ja auch dumm gelaabert werden, die Amis zeigen in ihren TV Commercials ja seit Jahren wie´s geht.
Ich lehne mich zurück und warte ab, bis der Tester meines Vertrauens die Karten physisch in der Hand hält und Fakten aufzeigt. :coffee::coffee::coffee:
 
@Igor Wallossek
Ohne OC gehe ich dennoch davon aus, dass die Specs eingehalten werden.
Edit: Ich gebe zu, dass ich OC nicht einrechne. Mir ist wichtig, wie etwas @Stock läuft.
 
Dann musst Du die Slider im Wattman ausgrauen 😉
Da ich weiß, wie das normalerweise verteilt wird und was mal angedacht war, denke ich schon, dass man AMD mit der 4090 auf dem falschen Fuß erwischt hat und man dort jetzt drauflegen musste. Davon sprechen die Boardpartnerkarten Bände. 😉
 
Komisch finde ich diese Argumentation irgendwie schon. Aktuell wird das ganze so verwendet, dass es gutes Marketing ist, sich nicht zu offenbaren - wo man tatsächlich steht. Und diesen Punkt so klarzumachen das man aus dem Standpunkt heraus das positive darstellt. Aber offen und transparent zum Wettbewerb.

Vielleicht haben wir ja unterschiedliche Veranstaltungen gesehen. In der die ich verfolgt habe, wurde durchaus dargestellt, wo man tatsächlich steht. Da wurde eine Verbesserung um Faktor 1,5 bis 1,7 gegenüber dem Vorgänger angegeben. Damit ist doch die Marke gesetzt, hinter die man kaum ohne vollständigen Gesichtsverlust zurückfallen kann, und man kann die Karte damit ganz gut einordnen, finde ich.

Anders hat Nvidia im übrigen doch auch nicht argumentiert, oder hat Jensen die 4090 irgendwo mit AMD verglichen? In der Keynote gab es doch sogar noch weniger Details, ich habe mir das eben nochmal reingezogen. Da wird die 4090 in drei Spielen, von denen nur eines (MSFS) real greifbar ist, gegen eine 3090 TI gestellt. Warum also sollte AMD das anders , und sich damit selbst klein machen. Fände ich ziemlich ungeschickt.

Denn meine Argumentation weiter oben kommt später so oder von allem AMD Besitzern, die sich damit rechtfertigen… z.B. 120 FPS in UHD reicht doch völlig… die 24 FPS mehr der 4090 braucht doch eh keiner…

Ehrlich gesagt habe ich meine 3090 auf 100Hz bei 4K begrenzt. 😁

Ich sehe in meinen Anwendungsfällen da keinen Unterschied bei höheren Frequenzen. Habe mir gerade einen neuen 65"-TV bestellt, der dann - HOFFENTLICH!!!1!11!1!!1!! - auch endlich VRR mit gleichzeitigem Local Dimming beherrscht (und die volle Bandbreite von 48Gbps bei HDMI unterstützt). Dann werde ich schon bei 90Hz kappen, das ist für mich der Sweetspot.

warum also nicht gleich von Anfang an so kommunizieren? Verstehe ich nicht… die Harten Fakten auf den Tisch und dann über Gimmicks sprechen.

So funktioniert guter Vertrieb halt einfach nicht. Das verstehen Techniker meist nicht, aber man holt die meisten Menschen nicht über "harte Fakten" ab, sondern über "Nutzen". Und das sind völlig unterschiedliche Kategorien.

das ist doch rational und sollte klar sein… wer das anders sieht, der weiß morgens auch nicht, ob er eher aufs Frauen- oder Männerklo gehen sollte… 😂Schwierige Gesellschaft

Darauf einen Brüderle (n)
 
AMD macht Nvidia den Blödsinn mit der Namensgebung nach, 7900 XTX vs. XT :rolleyes: Was soll das? Warum die kleine Karte nicht 7800 XT oder XTX nennen? Der Preisunterschied ist aber so gering, da werden die meisten Käufer eh bei der XTX zugreifen.

Und dann hypen sie FSR 3.0 so wie Nvidia ihr DLSS 3.0 :rolleyes: Für schwächere Karten ist das ja okay, beim Topmodell finde ich solche Softwarekrücken einfach nur befremdlich. Aber wenigstens kann das jeder nutzen und es ist nicht RDNA3 exklusiv.

Die Raster Performance pro EUR und Watt dürfte allerdings weit vor Nividia liegen, bei Raytracing werden wir es sehen, $999 ist auf jeden Fall eine Kampfansage. Die kleinen Seitenhiebe am Ende der Präsentation waren ganz amüsant😁
 
Vielleicht haben wir ja unterschiedliche Veranstaltungen gesehen. In der die ich verfolgt habe, wurde durchaus dargestellt, wo man tatsächlich steht. Da wurde eine Verbesserung um Faktor 1,5 bis 1,7 gegenüber dem Vorgänger angegeben. Damit ist doch die Marke gesetzt, hinter die man kaum ohne vollständigen Gesichtsverlust zurückfallen kann, und man kann die Karte damit ganz gut einordnen, finde ich.

Anders hat Nvidia im übrigen doch auch nicht argumentiert, oder hat Jensen die 4090 irgendwo mit AMD verglichen? In der Keynote gab es doch sogar noch weniger Details, ich habe mir das eben nochmal reingezogen. Da wird die 4090 in drei Spielen, von denen nur eines (MSFS) real greifbar ist, gegen eine 3090 TI gestellt. Warum also sollte AMD das anders , und sich damit selbst klein machen. Fände ich ziemlich ungeschickt.



Ehrlich gesagt habe ich meine 3090 auf 100Hz bei 4K begrenzt. 😁

Ich sehe in meinen Anwendungsfällen da keinen Unterschied bei höheren Frequenzen. Habe mir gerade einen neuen 65"-TV bestellt, der dann - HOFFENTLICH!!!1!11!1!!1!! - auch endlich VRR mit gleichzeitigem Local Dimming beherrscht (und die volle Bandbreite von 48Gbps bei HDMI unterstützt). Dann werde ich schon bei 90Hz kappen, das ist für mich der Sweetspot.



So funktioniert guter Vertrieb halt einfach nicht. Das verstehen Techniker meist nicht, aber man holt die meisten Menschen nicht über "harte Fakten" ab, sondern über "Nutzen". Und das sind völlig unterschiedliche Kategorien.



Darauf einen Brüderle (n)
Das werde ich nie verstehen… das ist auch der Grund, warum wir politisch an vielen Stellen scheitern… nur noch show ohne Fakten…

Erbärmlich ist das… 😡
 
Oben Unten