Sehe ich zum Glück nicht so. [...]
Es ist ja schön, wenn du meine Postings "eigentlich" gerne liest, dann solltest du sie aber auch richtig lesen, denn andernfalls war die Aussage reiner Euphemismus.
Ich habe nirgends auch nur im Ansatz geschreiben, dass "
AMD kein Land sehen wird" und ich habe ebenso nirgends geschrieben, dass "
AMD kein gutes Hardware-Raytracing haben darf".
Ersterer Punkt ist per se völlig absurd, letzteren Punkt scheinst du nicht zu verstehen (oder verstehen zu wollen).
nVidia hat ein volles LineUp von RTX 2060, 2070, 2080 und 2080 Ti mit einer beträchtlichen Bandbreite von Raytracing-fähigen GPUs und aktuell ist man hier schon mit etwa 400 € dabei.
Wenn
(und das ist ein explizites "Wenn", denn dem Bericht von wccftech bzw. dem PPT Forum darf man durchaus eine gewisse Skepsis entgegenbringen) AMD nun tatsächlich ausschließlich nur für das Top-Modell (oder die zwei?) Raytracing anbieten wird, muss es dafür einen triftigen Grund geben, denn das werden die nicht zum Spaß machen. Und wie in den allermeisten Fällen sind hier keine konspirativen AMD-feindlichen Aluhut-Verschwörungen im Hintergrund am Werk, sondern schlicht (markt)wirtschaftliche Mechanismen.
Und genau zu diesem Punkt habe ich überlegt, wie diese Mechanismen (bzw. Gründe) aussehen könnten, dass AMD so verfährt. Nicht mehr und nicht weniger (
und immer noch unter der Annahme des eingangs unterstrichenen "Wenn").
AMD hat seine (ursprüngliche) Raytracing-Technologie in 2017/18 entwickelt und im Laufe von 2018 hat man das Ganze in ein SoC-Design überführt, dessen Chips bereits ab spätestens Mitte 2019 bei Spieleentwicklern vor Ort genutzt werden (ggf. gar noch früher, aber ab da sind zumindest erste Infos durchgesickert). AMD hat zweifelsfrei nicht aus Spaß so lange auf einer Raytracing-fähigen Technologie gesessen und nun nVidia über 24 Monate lang alleine den PC-Markt überlassen, sondern schlicht weil sie es mussten, bspw. sich im Rahmen der Vertragsverhandlungen dazu entschieden hatten, da man mit den Konsolen lange, stetige, gesicherte Einnahmen fahren wird, die nun einmal als wichtiger eingestuft wurden, als ein paar PC-Gamer glücklich zu machen, was auch nicht schwer nachzuvollziehen ist, denn AMD hatte zu dem Zeitpunkt der Verhandlungen <= 25 % Marktanteil bei AIBs, d. h. hier auf das sichere Pferd zu setzen, ist zweifelsfrei eine geschäftstechnisch sinnvolle Entscheidung gewesen.
Wenn AMD jedoch jetzt noch darüber hinaus (ggf. bis 2Q21 oder Mitte 2021?) kein Raytracing anbieten wird für PC-GPUs, die größen- und preistechnisch grob mit den Konsolen-SoCs (bzw. dessen iGPU) vergleichbar sein werden, dann heißt das, dass sie weiterhin nVidia diesen Markt überlassen und auch dafür muss es eine wirtschaftlich nachvollziehbare Erklärung geben.
Und die meiner Meinung nach wahrscheinlichste ist in diesem Fall (
immer noch unter Berücksichtigung des "Wenn"s), dass sie hier weiterhin vertraglichen Einschränkungen unterliegen und keine direkt konkurrierenden, vergleichbaren Produkte um den Konsolen-Launch herum veröffentlichen dürfen.
Eine ebenso valide (jedoch m. M. n. eher unwahrscheinlichere) Erklärung wäre, dass ihre technische Implementation schwächer ist und man einen direkten Vergleich mit nVidia vermeiden möchte und stattdessen HBM2-gepimpte HighEnd-GPUs in den Ring schickt. Diese Überlegung hat aber rein gar nichts damit zu tun "
dass AMD kein gutes Hardware-Raytracing haben darf", ich ihnen das nicht gönne oder gar der Meinung bin, dass sie das aus irgendwelchen (ideologischen?) Gründen nicht haben dürfen; das war schlicht deine überzogene Auslegung.
Ergänzend dazu könnte man die technische Variante auch mit der vertragstechnischen verheiraten und mit dem Gerücht einer
deutlich weiterentwickelten RDNA2-Architektur kombinieren. Wenn das RDNA2 der kommenden, dedizierten GPUs signifikant weiterentwickelt wäre, könnte das noch einmal mehr ein Grund für Sony/Microsoft sein, sich zusichern zu lassen, dass es keine frühen, unmittelbaren Vergleichsmöglichkeiten geben wird, weil sonst offenkundig wird, dass das SoC-Design bereits zwei bis drei Jahre alt ist, was Vertriebler durchaus als "Hemmnis" bewerten werden.
Wie auch immer, wenn diese News zutrifft und erst mal nichts im Mid Range- und Upper Range-Segment mit Raytracing kommt, dann wird das Gründe haben und zweifelsfrei einige enttäuschen, unterm Strich zweifelsfrei eher mehr als nur wenige, denn viele haben hier ihre Hoffnungen auf AMD gesetzt, aber vielleicht sieht AMD (vorerst) den Weg ihres wirtschaftlichen Erfolgs nun einmal auf anderen Pfaden.
Man wird sehen wohin das am Ende führt und ob diese News hier zutreffen wird oder nur heiße Luft war, wie so viele Gerüchte. Aber so langsam nähert man sich dem Release-Zeitpunkt und die Gerüchte beginnen sich zu verdichten, sodass man durchaus mal spekulieren darf und hier habe nicht einmal ich das eigentliche Spekulieren übernommen, sondern nur nach plausiblen Gründen für diesen Spekulatius gesucht (u. a. um diesen ggf. zu widerlegen).
Und abseits dessen, wo finden sich die in Stein gemeiselten Gesetzestafeln, die vorgeben, dass man nur wohlwollend über AMD berichten oder auch nur spekulieren darf. Auch bei AMD ist längst nicht alles Gold was glänzt und das eingefärbt überzogene, einseitige Berichten, Schreiben oder auch nur Spekulieren übernehmen andere schon zuhauf; da muss ich mich nicht auch noch einreihen, mein Hirn ausschalten und alles unreflektiert nachplappern, nur um einem gerade angesagten Trend zu entsprechen.
Manches ist gut, manches ist schlecht und beides muss gleichermaßen angesprochen werden dürfen, denn ansonsten ist eine Diskussion in einem Technikforum wertlos und man sollte sich eher einer Diskussionsgruppe zu seiner persönlichen Ideologie anschließen.
Nicht dafür, ist ein frei zugänglicher Link, der keinen großen Suchaufwand erforderte.
Zum Thema: Wünschenswert wäre es alle Mal, aber in diesem markigen "
disrupt the 4K gaming segment" springt einen erst Mal AMDs Marketingabteilung unverhohlen an.
Schlussendlich, rein auf AMDs eigene, bisherige Produkte bezogen ist das wahrscheinlich sogar schon eine selbsterfüllende Prophezeiung und damit per se nicht falsch. Die wesentlichere Frage wird am Jahresende aber sein, wie sie im Vergleich zu nVidia abschneiden werden (
entweder nur leistungs- oder aber P/L-technisch, je nachdem worauf man den Fokus legt). HBM und ein großer Chip haben auf jeden Fall Potential aber man wird erst mal abwarten müssen, was sie am Ende tatsächlich abliefern, denn die Navi-Architektur in Verbindung mit dem N7P ist nur mäßig konkurrenzfähig zu Turing (
insbesondere, wenn man berücksichtigt, wie weit der modernere Prozess von dem 16/12nm-Prozess von Turing entfernt ist) und fertigungsprozesstechnische Zugewinne werden mit RDNA2 wohl anscheinend entfallen, sodass es rein architektonische Zugewinne richten müssen mit Blick auf den Hauptkonkurrenten.
(
Und schlussendlich tritt auch noch Intel in den Markt ein, wobei hier aber aktuell nur wenige davon ausgehen, dass die schon zum Jahresende mit HighEnd aufwarten werden und von denen gab es leider bisher auch noch keine Leaks zu deren LP-Entwicklerkarten, deren Auslieferung mögicherweise aber auch mit einem NDA belegt ist, sodass eine Abschätzung zu deren Architektur bisher kaum möglich ist. Mal ganz abgesehen von der Frage, ob Intel hier überhaupt einen Fokus auf Consumer-Produkten sieht oder ob man die eher als Abfallprodukt der Datacenterbestrebungen versteht.)