News Get Amped! Nvidia teasert den ausgefallenen Online-Stream für den 14. Mai an. Sehen wir dann Ampere?

Davon ab: Von wem ich das kriege ist mir relativ egal - vom (vermeintlichen) Underdog wäre mir lieber, aber die Grünen liefern hier bisher gut ab.
 
Doch von AMD kann man da wirklich etwas spannendes erwarten. [...]

In wie fern? Das wahrscheinlichste, realistische Best Case-Szenario ist, dass ihnen gelingt das gleiche Leistungsniveau wie NextGen-Turing zu erreichen, also liefern sie nur das, was der Marktführer schon längst liefert und zum Jahresende hin noch einmal ausbauen wird. Dass sie in einer Generation nicht nur aufschließen, sondern auch signifikant überholen werden, erscheint eher das unwahrscheinlichere Szenario zu sein. Wahrscheinlich wird AMD am Ende wieder über die Preisschiene konkurrieren und noch weiterhin bestehende, kleinere Defizite ausgleichen müssen.

Nicht falsch verstehen; Konkurrenz ist immer gut und von daher bin ich auch sehr gespannt *) was Intel bringen wird, insbesondere auch, wann man von denen HighEnd erwarten kann, denn diese GPUs könnten möglicherweise gar noch später kommen (2HJ21?).
Aber allgemein wirklich spannend ist das eher nicht. Am Ende will ich Leistung X für eine preisliche Obergrenze von Y und daran hängen noch diverse Nebenbedingungen wie Treiber/Software-Support, etc. und ob da schlussendlich AMD, Intel oder nVidia der Hersteller ist, ist mir reichlich egal. Und wenn am Ende bei zwei Auswahlmöglichkeiten ein relativer Gleichstand zwischen den Hauptkriterien erreicht wird, würde ich sicherheitshalber eher zum Marktführer mit ger größeren Unterstützung greifen der zudem einen stabilen und dauerhaften Support unter Beweis gestellt hat. (AMD ist hier noch längst nicht auf dem Niveau von Intel oder nVidia angekommen, was aufgrund ihrer Größe aber auch nicht verwunderlich ist. So etwas braucht Zeit, Geld und weitere Ressourcen.)

*) Hier würde ich tatsächlich den Begriff "gespannt/spannend" verwenden, denn AMD ist schon seit langen im GPU-Markt, hat in den letzten Jahren nie wirklich überrascht und ist nVidia immer mehr oder weniger hintergetrottet und hat primär Low/MidRange bedient und konkurrierte über die Preisschiene. (Das letzte hier wirklich spannende war vielleicht der Versuch mit HBM etwas Boden gut zu machen, was ihnen aber nie gelungen ist und mittlerweile wird "ihr" HBM weitaus mehr von anderen Firmen verwendet als von ihnen selbst.)
Intel kommt dagegen nach langer Abwesenheit komplett neu in den Markt, hat zweifelsfrei Potential und sehr viel KnowHow und man wird sehen welches Engagement sie hier im Consumer-Bereich an den Tag legen werden (denn im worst case geht es ihnen mit Xe primär um das Datacenter). Hier muss man einfach abwarten ...
 
Ich glaube nicht, dass AMD es schaffen wird, zu den neuen Ampere-Topmodellen aufzuschließen, das käme einem kleinen Wunder gleich. Um weiter Marktanteil abzugrasen reicht es imho aber auch schon, wenn man mit einer kommenden RTX 3070 gut mithalten kann.
 
Da wäre ich mir nicht so sicher. Der Leuchtturm 3080Ti würde dann so stark strahlen, dass Thomas Müller Durchschnittsuser das auf die kleineren Karten herunterbricht und dort ebenfalls bessere Leistung vermutet.
Wenn AMD wirklich was in der Breite reissen will, muss oben mitgemischt werden fürchte ich.
Mir soll es gleich sein. Wenn ich ein 2080TI Niveau erreichen kann mit einer AMD Karte, ist die gekauft.
 
Die Navi 10 Karten verkaufen sich aber trotz Leuchtturm 2080 ti doch recht oredntlich.
 
Sicherlich. Ich glaube jedoch fest, dass mit den High-End-Produkten nicht so viel verdient wird und diese hauptsächlich dazu dienen, die anderen Produkte zu pushen. Und das fehlt AMD schon recht lange.
7-8 Jahre? 290x war damals ziemlich vorne wenn ich mich recht erinnere.
 
war da nicht vor Corona ein Artikel über AMDs HBM Heini und seinen Wechsel zu Intel?
 
Sicherlich. Ich glaube jedoch fest, dass mit den High-End-Produkten nicht so viel verdient wird und diese hauptsächlich dazu dienen, die anderen Produkte zu pushen. Und das fehlt AMD schon recht lange.
7-8 Jahre? 290x war damals ziemlich vorne wenn ich mich recht erinnere.

Das hängt davon ab, wen man betrachtet. nVidia wird damit zweifelsfrei sehr gut verdienen, denn die Verkaufen bspw. den TU102 im Consumer-Segment, im Professional Visualization Segment als Quadro RTX 6000 und 8000, dazwischenliegend als Titan RTX und zudem als Cloud-Variante RTX T10-8 und deren Stückzahlen werden insgesamt um ein Vielfaches höher liegen als die von vergleichbaren AMD-Produkten. AMD setzt im professionellen Umfeld weitaus weniger GPUs um, insbesondere im Datacenter, was man im Earnings Call auch noch einmal indirekt zu verstehen gab.


Darüber hinaus in Anlehnung an "überraschend" und "spannend": Wenn die "News" (bzw. hier) richtig liegt, wäre es schon ein wenig enttäuschend, wenn tatsächlich nur AMDs Top-Modell(e?) Raytracing unterstützen würden.
Entweder ist AMD weiterhin vertraglich gebunden und darf keine Raytracing-Hardware in der Größenordnung der neuen Konsolen-SoCs zu früh in den PC-Markt bringen oder aber die Leistungsfähigkeit der Implementation ist beschränkt, sodass man mit nVidia im Mid/Upper Range-Bereich nicht konkurrieren will. Wie dem auch sei, für einige PC-Gamer nicht unbedingt die beste News.
Immerhin wird man beim Top-Modell nun wohl mit 16 GiB HBM2 rechnen dürfen, wobei jedoch vorerst auch die Frage bleibt, ob sie dieses zumindest potentielle Performance-Plus auch diesmal tatsächlich auf die Straße bringen können. ;)
 
Zuletzt bearbeitet :
Sehe ich zum Glück nicht so. Weder behaupte ich, dass die neue Generation der Überhammer wird, noch das er schlecht ist und kein Land sieht (so wie du). Wo nimmst du eigentlich die Gewissheit her, solche Sachen zu behaupten?

Irgendwie sind deine Posts immer mit einer gewissen Verbitterung gespickt, vor allem bei AMD Produkten.

Wie kommst du nur auf solche Dinge? AMD darf kein "gutes" Hardware-Raytracing haben weil Konsolendeal. Würfelst du solche Aussagen dir zusammen? Weil bisher waren die einzigen Gerüchte eher in die Richtung, das AMD nicht RDNA2 vor dem Konsolenlaunch veröffentlichen sollte, weil Sony angeblich bei der Entwicklung mit eingebunden war.

Ich lese ja eigentlich deine Posts recht gerne, da diese ausführlich sind. Aber manchmal sind sie dann doch recht wirr und beinhalten zu wenig Belegbares.
 
Danke @gerTHW84 für den Link!

Was ich darin besonders spannend finde:

The AMD RDNA 2 based Radeon RX Navi 2x graphics card family is also touted to disrupt the 4K gaming segment similar to how Ryzen disrupted the entire CPU landscape.

Wenn das wahr wird, dann könnte ich demnächst auch bei GPUs wieder AMD-Käufer werden... wobei ich aber schon noch abwarten würde, was Nvidia bringt und dann zählt dann auch ein bisserl, wer wann mit seinem Zeuch auch tatsächlich rauskommt...
 
Sehe ich zum Glück nicht so. [...]

Es ist ja schön, wenn du meine Postings "eigentlich" gerne liest, dann solltest du sie aber auch richtig lesen, denn andernfalls war die Aussage reiner Euphemismus.
Ich habe nirgends auch nur im Ansatz geschreiben, dass "AMD kein Land sehen wird" und ich habe ebenso nirgends geschrieben, dass "AMD kein gutes Hardware-Raytracing haben darf".

Ersterer Punkt ist per se völlig absurd, letzteren Punkt scheinst du nicht zu verstehen (oder verstehen zu wollen).
nVidia hat ein volles LineUp von RTX 2060, 2070, 2080 und 2080 Ti mit einer beträchtlichen Bandbreite von Raytracing-fähigen GPUs und aktuell ist man hier schon mit etwa 400 € dabei.
Wenn (und das ist ein explizites "Wenn", denn dem Bericht von wccftech bzw. dem PPT Forum darf man durchaus eine gewisse Skepsis entgegenbringen) AMD nun tatsächlich ausschließlich nur für das Top-Modell (oder die zwei?) Raytracing anbieten wird, muss es dafür einen triftigen Grund geben, denn das werden die nicht zum Spaß machen. Und wie in den allermeisten Fällen sind hier keine konspirativen AMD-feindlichen Aluhut-Verschwörungen im Hintergrund am Werk, sondern schlicht (markt)wirtschaftliche Mechanismen.
Und genau zu diesem Punkt habe ich überlegt, wie diese Mechanismen (bzw. Gründe) aussehen könnten, dass AMD so verfährt. Nicht mehr und nicht weniger (und immer noch unter der Annahme des eingangs unterstrichenen "Wenn").

AMD hat seine (ursprüngliche) Raytracing-Technologie in 2017/18 entwickelt und im Laufe von 2018 hat man das Ganze in ein SoC-Design überführt, dessen Chips bereits ab spätestens Mitte 2019 bei Spieleentwicklern vor Ort genutzt werden (ggf. gar noch früher, aber ab da sind zumindest erste Infos durchgesickert). AMD hat zweifelsfrei nicht aus Spaß so lange auf einer Raytracing-fähigen Technologie gesessen und nun nVidia über 24 Monate lang alleine den PC-Markt überlassen, sondern schlicht weil sie es mussten, bspw. sich im Rahmen der Vertragsverhandlungen dazu entschieden hatten, da man mit den Konsolen lange, stetige, gesicherte Einnahmen fahren wird, die nun einmal als wichtiger eingestuft wurden, als ein paar PC-Gamer glücklich zu machen, was auch nicht schwer nachzuvollziehen ist, denn AMD hatte zu dem Zeitpunkt der Verhandlungen <= 25 % Marktanteil bei AIBs, d. h. hier auf das sichere Pferd zu setzen, ist zweifelsfrei eine geschäftstechnisch sinnvolle Entscheidung gewesen.

Wenn AMD jedoch jetzt noch darüber hinaus (ggf. bis 2Q21 oder Mitte 2021?) kein Raytracing anbieten wird für PC-GPUs, die größen- und preistechnisch grob mit den Konsolen-SoCs (bzw. dessen iGPU) vergleichbar sein werden, dann heißt das, dass sie weiterhin nVidia diesen Markt überlassen und auch dafür muss es eine wirtschaftlich nachvollziehbare Erklärung geben.
Und die meiner Meinung nach wahrscheinlichste ist in diesem Fall (immer noch unter Berücksichtigung des "Wenn"s), dass sie hier weiterhin vertraglichen Einschränkungen unterliegen und keine direkt konkurrierenden, vergleichbaren Produkte um den Konsolen-Launch herum veröffentlichen dürfen.
Eine ebenso valide (jedoch m. M. n. eher unwahrscheinlichere) Erklärung wäre, dass ihre technische Implementation schwächer ist und man einen direkten Vergleich mit nVidia vermeiden möchte und stattdessen HBM2-gepimpte HighEnd-GPUs in den Ring schickt. Diese Überlegung hat aber rein gar nichts damit zu tun "dass AMD kein gutes Hardware-Raytracing haben darf", ich ihnen das nicht gönne oder gar der Meinung bin, dass sie das aus irgendwelchen (ideologischen?) Gründen nicht haben dürfen; das war schlicht deine überzogene Auslegung.
Ergänzend dazu könnte man die technische Variante auch mit der vertragstechnischen verheiraten und mit dem Gerücht einer deutlich weiterentwickelten RDNA2-Architektur kombinieren. Wenn das RDNA2 der kommenden, dedizierten GPUs signifikant weiterentwickelt wäre, könnte das noch einmal mehr ein Grund für Sony/Microsoft sein, sich zusichern zu lassen, dass es keine frühen, unmittelbaren Vergleichsmöglichkeiten geben wird, weil sonst offenkundig wird, dass das SoC-Design bereits zwei bis drei Jahre alt ist, was Vertriebler durchaus als "Hemmnis" bewerten werden.
Wie auch immer, wenn diese News zutrifft und erst mal nichts im Mid Range- und Upper Range-Segment mit Raytracing kommt, dann wird das Gründe haben und zweifelsfrei einige enttäuschen, unterm Strich zweifelsfrei eher mehr als nur wenige, denn viele haben hier ihre Hoffnungen auf AMD gesetzt, aber vielleicht sieht AMD (vorerst) den Weg ihres wirtschaftlichen Erfolgs nun einmal auf anderen Pfaden.

Man wird sehen wohin das am Ende führt und ob diese News hier zutreffen wird oder nur heiße Luft war, wie so viele Gerüchte. Aber so langsam nähert man sich dem Release-Zeitpunkt und die Gerüchte beginnen sich zu verdichten, sodass man durchaus mal spekulieren darf und hier habe nicht einmal ich das eigentliche Spekulieren übernommen, sondern nur nach plausiblen Gründen für diesen Spekulatius gesucht (u. a. um diesen ggf. zu widerlegen).
Und abseits dessen, wo finden sich die in Stein gemeiselten Gesetzestafeln, die vorgeben, dass man nur wohlwollend über AMD berichten oder auch nur spekulieren darf. Auch bei AMD ist längst nicht alles Gold was glänzt und das eingefärbt überzogene, einseitige Berichten, Schreiben oder auch nur Spekulieren übernehmen andere schon zuhauf; da muss ich mich nicht auch noch einreihen, mein Hirn ausschalten und alles unreflektiert nachplappern, nur um einem gerade angesagten Trend zu entsprechen.
Manches ist gut, manches ist schlecht und beides muss gleichermaßen angesprochen werden dürfen, denn ansonsten ist eine Diskussion in einem Technikforum wertlos und man sollte sich eher einer Diskussionsgruppe zu seiner persönlichen Ideologie anschließen.


Nicht dafür, ist ein frei zugänglicher Link, der keinen großen Suchaufwand erforderte. ;)
Zum Thema: Wünschenswert wäre es alle Mal, aber in diesem markigen "disrupt the 4K gaming segment" springt einen erst Mal AMDs Marketingabteilung unverhohlen an.
Schlussendlich, rein auf AMDs eigene, bisherige Produkte bezogen ist das wahrscheinlich sogar schon eine selbsterfüllende Prophezeiung und damit per se nicht falsch. Die wesentlichere Frage wird am Jahresende aber sein, wie sie im Vergleich zu nVidia abschneiden werden (entweder nur leistungs- oder aber P/L-technisch, je nachdem worauf man den Fokus legt). HBM und ein großer Chip haben auf jeden Fall Potential aber man wird erst mal abwarten müssen, was sie am Ende tatsächlich abliefern, denn die Navi-Architektur in Verbindung mit dem N7P ist nur mäßig konkurrenzfähig zu Turing (insbesondere, wenn man berücksichtigt, wie weit der modernere Prozess von dem 16/12nm-Prozess von Turing entfernt ist) und fertigungsprozesstechnische Zugewinne werden mit RDNA2 wohl anscheinend entfallen, sodass es rein architektonische Zugewinne richten müssen mit Blick auf den Hauptkonkurrenten.
(Und schlussendlich tritt auch noch Intel in den Markt ein, wobei hier aber aktuell nur wenige davon ausgehen, dass die schon zum Jahresende mit HighEnd aufwarten werden und von denen gab es leider bisher auch noch keine Leaks zu deren LP-Entwicklerkarten, deren Auslieferung mögicherweise aber auch mit einem NDA belegt ist, sodass eine Abschätzung zu deren Architektur bisher kaum möglich ist. Mal ganz abgesehen von der Frage, ob Intel hier überhaupt einen Fokus auf Consumer-Produkten sieht oder ob man die eher als Abfallprodukt der Datacenterbestrebungen versteht.)
 
Zuletzt bearbeitet :
Tjo. Was man so von Intel las ging wenig in Richtung von für „mich“ brauchbare high end GPUs. Erstmal bei mir aus dem Fokus gerutscht bis man denn mal was greifbares erfährt (von unabhängigen Reviews) zu der Frage, was denn die ersten real existierenden So... äh... GPUs so leisten.

Bei AMD ist ja in Sachen High end in der Tat auch etwas Vorsicht geboten. HBM heißt erstmal gar nichts und viel Speicher auch nicht. Die VII war jedenfalls in meinen Augen auch schwer „underwhelming“.

Bleibt aber trotzdem die gewisse Vorfreude, dass man noch fröhlich spekulieren und fachsimpeln darf und es dieses Jahr definitiv auch noch neue Kaufoptionen geben wird. Meine Regierung hat jedenfalls bereits eine Anschaffung genehmigt und so lehne ich mich zurück, werde erst die Show von AMD und NVIDIA (und ein bisschen auch der Fanbois) genießen und vielleicht am Ende irgendwann auch ein neues Stück Hardware in den Händen halten, was dann hoffentlich auch sichtbaren Mehrwert bringt. Win-win-win sozusagen. :D
 
Ich finde es auch spannend. In jeder Hinsicht. Vor allem werde ich davon abhängig machen, ob ich auch das Display wechsle (4K, G-Sync, FreeSync).
 
Den Punkt Raytracing halte ich allerdings nach wie vor für nicht wirklich relevant. Das frisst Leistung ohne Ende und man kann kaum einen Unterschied erkennen, zumindest geht mir das in SotTR so. Sollte sich jemand eine RTX 2060(S) ernsthaft für oder wegen Raytracing kaufen, dann kann man Nvidias Marketingabteilung nur beglückwünschen.

Ich bin weiterhin der Meinung, dass AMD nicht an die Spitzenleistung einer möglichen 3080ti von Nvidia heranreichen wird. Das ist aber auch nicht verwunderlich, weil AMD einfach nicht auf allen "Schlachtfeldern" gleich erfolgreich kämpfen kann, dazu ist das Unternehmen immer noch zu klein und in Sachen GPU-Entwicklung scheint auch kein Jim Keller verfügbar zu sein. Daher muss man sich mit kleineren Schritten begnügen und versuchen, an Nividia dranzubleiben, in der Einstiegs- und Mittelklasse ist man ja durchaus konkurrenzfähig und da wird Geld über die Menge der abgesetzten GPUs verdient.

Von Intel erwarte ich im High End-Bereich erstmal gar nichts, die kochen auch nur mit Wasser und man kann auch nicht jedes Problem mit noch immer mehr Geld lösen, siehe 10nm Fertigung. Ich würde meinen, dass die sich auch erstmal auf HPC konzentrieren werden, um im Data Center Produkte aus einer Hand anbieten zu können.

Noch was zu AMD: angeblich soll RDNA2 schon in einem verbesserten Node als 7nm gefertigt werden. Vorsicht, link führt zu 3D-Center: https://www.3dcenter.org/news/gerue...ht-angeblich-unter-besserer-fertigung-als-7nm
 
Wenn man bedenkt wie jung NV`s RTX Implementierung via DXR erst ist und welche klasse Ergebnisse es für so einen evulotinären Sprung selbst mit Gen 1. schon gibt find ich das schon Top.
Benkt mal wie lange es gedauert hat bis sich 3D Beschleuinigung durchsetzte , selbst wesentlich einfacher zu integrierende Features wie Bumpmaps oder Tesslation haben ewig gebraucht bis sie in der Masse und gut umgesetzt ankamen.
Falls AMDs RT Ansatz in zukünftigen Generationen halbwegs passabel und DXR kompatiebel wird kann sich die Druchsetzung des Features noch beschleunigen.
Ich bin da recht optimistisch für die Zukunft .
 
Wie schnell Raytracing salonfähig und ein "must have"-Feature wird dürfte auch davon abhängen, wie gut sich das in den Konsolengames implementieren lässt und ob das dann einfach zum PC zu portieren sein wird.
 
Da bin ich Zwiegespalten , initial sicherlich ja ,aber durch die lange Standzeit ( die letzte Gen hat 7 Jahre auf dem Buckel )und "relativ schwache" Hardware in den Konsolen wird das mM mittelbis langfristig eher zum Bremschuh.
 
[...] Noch was zu AMD: angeblich soll RDNA2 schon in einem verbesserten Node als 7nm gefertigt werden. Vorsicht, link führt zu 3D-Center.

Gemäß WikiChip nutzt Navi 10 bereits den N7P von TSMC, d. h. da wird es keine Prozessverbesserung dieses Jahr geben. Der N5 ist noch zu früh dran und vor allem zu teuer, der N7+ (mit EUV) ist bzgl. der Design Rules inkompatibel, sodass wesentliche Chipelemente komplett neu entwickelt werden müssten und der N6 (eine zus. EUV-Lage ggü. dem N7+) steht erst frühestens ab Jahresende zur Verfügung.
Der N7+ käme nur infrage, wenn die Konsolen-SoCs auf diesen ausgelegt wurden, was aber nicht übermäßig wahrscheinlich ist, da man das Zen2-CCX dann auf zwei unterschiedlichen Prozessen hätte implementieren müssen und darüber hinaus spielt das per se auch nur eine untergeordnete Rolle, denn die PPA-Unterschiede zwischen N7P und N7+ sind vergleichsweise gering (der Mehrwert von EUV beläuft sich in diesem konkreten Vergleich größtenteils auf die Flächenverkleinerung, dier hier jedoch recht überschaubar ist).
AMD wird etwaige Verbesserungen auf rein architektonische Weise beisteuern (müssen), was aber keinesfalls heißen muss, dass RDNA2 schlecht wird, denn wenn man sich das Alter von RDNA2 ansieht, dann war RDNA alias Navi 10 wohl eher so etwas wie eine "abgespeckte" (parallel entwickelte) Variante davon, schlicht weil man die RDNA2-IP nicht zu früh in den Markt bringen durfte.
 
Zuletzt bearbeitet :
Gibt es denn zu der Aussage, das AMD nicht launchen darf eine Konkrete Info? Außer den Indizien die du aus dem Interview mit Cerny herausgedeutet hast. Würde mich wirklich interessieren. Auch das RDNA1 paralell entwickelt wurde usw. irgendwie wären bei solchen Aussagen Quellen ganz nett.
 
Oben Unten