News Kommt AMDs FidelityFX Super Resolution bereits im Juni als DLSS-Konkurrent auf den Markt?

Doch tun, sie, sogar mit extrem deutlichem Abstand, d. h. das "dominieren" ist hier sogar ganz und gar zutreffend. Schaut man sich die Statistiken über die Abermillionen Steam-Systeme an...

Zur Art der Implementation...

...auf Basis der Steam-März-Zahlen (d. h. mittlerweile sind weitere RT-GPUs von Nvidia und auch ein paar von AMD hinzugekommen)
Steam ist tatsächlich Mist, weil man an Umfragen teilnehmen muss. Ich persönlich habe es deaktiviert. Also weder meine AMD noch Nvidia Karte fließt so in diese Statisitk ein. Um das mal anders darzustellen, werden ca. 50mio Konsolen pro Jahr verkauft und da werkelt keine einzige RTX Nvidia GPU.

Nein, Metro EE zeigt nichts anderes, dort wird für jede Lichtquelle 1Ray pro Pixel berechnet, die vorhergehende Exodus Version berechnete deutlich weniger. Der Unterschied ist, man berechnet jetzt für "jede" Lichtquelle Rays ohne die Bounce zu kappen und es gibt immer noch direkte und indirekte (genau deshalb bricht es in Innenbereichen auch so ein), das ist der Unterschied. Daher ist das gesamte Bild heller. Die Strahlen laufen aus und wenn man sieht wie nahe AMD teilweise herankommt, ist das ehrlich gesagt erschreckend für den Aufwand den man dafür bei Nvidia betreibt und genau da passt auch Nvidias DLSS.

Was das andere angeht, nein. Superres ist nicht neu. Es ist keine AI basierende Variante, ein NN braucht es nicht und damit auch kein Groundtrue (Vorlage). Es geht schlicht um Approximierung die lokal und realtime stattfindet auf Basis eines Samplingtheorem. Sampler und Quantizer auf Pixelebene sind bereits vorhanden. Es geht dann lediglich darum wie man Metadaten der quantitativen Comparisation auswertet und anpasst (anhand des jeweiligen Image).

Der größte Vorteil daran ist das die Rauschunterdrückung und Farbkorrektur wunderbar funktioniert, weil man "echte" Bildvorlagen vergleicht und nicht abgescannte. Mehr Leistung bei geringerem Aufwand, was auch bedeutet ich brauche nicht zig dedizierte Ausführungseinheiten dafür.

Es gibt verschiedene Modelle wie pixel-wise-loss, content-wise-loss und oder textur-loss-function für Texturkorrleationen und differend feature channels, was das manuelle Anpassen der Bewertungsmetriken ermöglicht. Es bleibt damit wie beschrieben in der Hand der Entwicklers, natürlich hängen die Ergebnisse dann auch von ihm ab.
 
Zuletzt bearbeitet von einem Moderator :
Ich bin gewiss kein Experte und meine Argumentation beruht auf Logik.

Es würde für die Entwickler doch gar kein Sinn machen. Raytracing so zu entwickeln, das es auf den Konsolen nicht läuft. Die werden doch ihr Engine und Raytracing dementsprechend anpassen das es auf Rdna2 läuft. Die ersten Raytracing Spiele waren nur für PC, meist auch von Nvidia gefördert. Jetzt haben aber auch Konsolen Raytracing und halt Rdna2.

Zu FidelityFx Super Resolution:

Scott Herkelman:


Wir wollen es dieses Jahr auf den Markt bringen. Wir glauben, dass wir das dieses Jahr schaffen können, aber gleichzeitig haben wir noch viel Arbeit vor uns. Wir müssen sicherstellen, dass die Bildqualität stimmt. Wir müssen sicherstellen, dass es von verschiedenen Auflösungen skaliert werden kann. Und gleichzeitig, dass unsere Spieleentwickler mit dem, was wir produzieren, zufrieden sind.

Ich lese das Zitat so: Fidelityfx Super Resolution ist schon bei den Entwicklern. Sie sind es am testen und geben uns Feedback. Sobald die Entwickler damit zufrieden sind wird es veröffentlicht.
 
"Das Interessanteste an FidelityFX Super Resolution ist allerdings, dass AMD seine Kompatibilität auch für NVIDIA-GPUs öffnen könnte."

Der Satz verwirrt etwas. Angesichts der Tatsache, dass AMD einen offenen Ansatz versprochen hat, stellt sich die Frage doch eigentlich gar nicht. Zudem verfügt AMDs Hardware auch über keinerlei Spezialeinheiten, d. h. die Berechnung erfolgt über die ganz normalen ALUs und damit dürfte grundsätzliche jede GPU, die leistungsfähig genug ist, die Technik unterstützen. Würde es auf nVidia-Hardware nicht laufen, wäre das schlicht ein von AMD absichtlich implementierter Vendor-Lock. (Eine zumindest nicht undenkbare Alternative wäre, dass nVidia sich der Implementation zugunsten seines DLSS und dessen Verbreitung verschließt, was jedoch auf Dauer nur ginge, wenn FSR nicht vollends konkurrenzfähig zu DLSS wäre.)
Sieh Dir an, wie lange Nvidia sich "Adaptive Sync" (FreeSync) verschlossen hat oder weiterhin DX11 gegenüber DX12 favorisiert hat.
Nvidia wird DLSS solange puschen, so lange sie sich davon Vorteile versprechen und erst, wenn es gar nicht anders geht, umschwenken.
Nvidia hat die eigenen Karten auf DLSS hin designed bzw. die GPGPU-Features, die eh da waren, dafür verwendet. Werden die Hardware-Features nicht verwendet, würden sie Balast mitschleppen, der die Karten unnötig komplex und damit teurer macht.

Wichtig wäre daher eigentlich nur, dass die Spielehersteller FidelityFX Super Resolution gleichwertig zu DLSS implementieren.
Leider habe ich da so meine Zweifel, lass mich aber gerne positiv überraschen.

Cunhell
 
Und was man noch wissen sollte, all diese Verfahren basieren auf einer Rastergrafik also Rasterization, deren grafische Primitive und dazugehöriger geometrischer Transformation. Zu behaupten das sei Raytracing ringt mir jedesmal ein Lächeln ab.

Wie gutgläubig die Leute doch sind und den Marketingabteilungen vertrauen, die Presse hilft ja nach. DLSS gäbe es also ohne Rastergrafikanteil oder Rasterization nicht. Lustig oder? Das zeigt eigentlich wie die Hersteller die Käufer rund um Raytracing verbl*den.
 
Steam ist tatsächlich Mist, weil man an Umfragen teilnehmen muss. Ich persönlich habe es deaktiviert. Also weder [...]
Die Aussage ist nur in der Form haltbar, "Steam ist tatsächlich Mist, weil man an Umfragen teilnehmen muss.", nämlich als reine Meinungsäußerung. Was hier tatsächlich der Fall ist, kannst du nicht belegen; ebensowenig wie ich. Was man jedoch sagen bzw. mit sehr hoher Wahrscheinlichkeit annehmen kann ist, dass Steam ein kommerzielles Interesse daran hat möglichst akkurate Daten abzuliefern, denn die verkaufen ihre Statistiken an Puslisher, Studios, Entwickler und wer auch immer sonst noch bereit ist dafür zu zahlen und du kannst dir sicher sein, dass die Statistiken um ein Vielfaches mehr Details hergeben als das, was sie "netterweise" der Community als Urheber der Daten frei zur Verfügung stellen. Abgesehen von reinem Clustering in der Hardware wird man hier möglicherweise gar Verknüpfungen zu Spieledaten herstellen können und eruieren können, welcher Spieltyp oder bspw. gar welches Spiel mit gemittelt welcher Hardware gespielt wird, usw.
Darüber hinaus ist deine "Argumentation" grundsätzlich unsinnig oder würdest du in einer Statistikvorlesung deine Studenten mit Messern und Handfeuerwaffen bewaffnet in die Innenstadt schicken um eine Umfrage zu erstellen und um ja sicherzugehen, dass sie auch immer eine Antwort erhalten, den ohne wäre der Versuch von vornherein zum Scheitern verurteilt und damit sinbefreit?
Und dass Du keine Daten mitteilen/preisgeben möchtest, ist erst mal vollkommen irrelevant, weil du in keinerlei Verhältnis zu Gesamtmenge der potentiell befragbaren Teilnehmer stehst. Darüber hinaus haben die Konsolen nichts mit GPUs auf dem PC zu tun. Hier hast du dich komplett verrannt. Aber du bist in guter Gesellschaft, den RX480 hat es ja noch problemlos geschafft deinen Fehlgriff mit deutlichem Abstand zu toppen. Was zum Teufel haben 4K-HDR oder OLED-Geräte mit der GPU-Verteilung zu tun? Ist vielleicht noch relevant ob die Eigentümer eher Addidas, Nike oder Puma tragen? Und ich weiß nicht was so schwer am Lesen einfacher Zahlen und deutscher Sprache ist, abgesehen natürlich davon, dass einem der eigene Confirmation Bias im Wege steht:

o relatives Verhältnis an RDNA2- zu Ampere-Desktop-GPUs bei Steam: 1:18 Karten, anders ausgedrückt bei LatestGen-Desktop-CPUs sind von 100 Karten gerade mal 5,4 Karten RDNA2-Karten
o Minimalabschätzung für Kartenstückzahlen bei Steam: angenommene Minimal-Grundgesamtheit = 24,8 Mio. Systeme, d. h. Ampere rd. 780k, RDNA2 rd. 50k

Anmerkung: Bei den 24,8 Mio. Systeme wurde die Anzahl maximal gleichzeitg reporteten Spieler auf der Steam-Plattform als Basis genommen, d. h. das hier ist schon einmal gesichert das unterste, mögliche Limit für die Anzahl der PC-Systeme. Jedoch mit sehr hoher Wahrscheinlichkeit wird die System-Anzahl deutlich höher liegen, denn bereits die Anzahl von aktiven Usern pro Tag liegt bei über 60 Mio. Spielern und hier werden im Mittel sicherlich nicht 3 Spieler sich einen PC teilen. Dazu lag die Anzahl von monatlich aktiven Usern bei über 120 Mio.

Zu guter letzt enthalten die Zahlen sicherlich auch einen gewissen (Erfassungs)Fehler, aber diese werden zweifellos nicht so groß sein, dass sich hier nennenswert was an dem Gesamtbild ändern wird. Eine RDNA2-Karte wird sich sicherlich nicht heimlich als Ampere darstellen und es gibt auch keinen Grund anzunehmen, warum AMD-User mehr unter eine Befragungsphobie leiden sollten als alle übrigen Steam-User und sich daher kategorisch der Teilnahme verwehren.
Steam passt die Daten regelmäßig an und da RDNA2 schon seit vielen Monaten auf dem Markt (und in der Statistik) ist, gibt es hier ebensowenig einen Grund anzunehmen, dass hier auf magische Art und Weise eine relevante Menge an Karten nicht erfrasst wird. Eher im Gegenteil. Die erfolgten Korrekturen der letzten paar Monate habe ich recht gut mitbekommen und Anpassungen an den Zahlenwerten waren vergleichsweise gering.

Den Rest im Schnelldurchlauf, weil schon zu lang/zeitaufwändig:

4A Games erklärte bereits zum originalen Metro: "this equates to a budget of roughly three rays per pixel per frame". Darüber hinaus ist die Enhanced-Edition in der Art deutlich erweitert worden, denn im Original wurden im Wesentlichen nur zwei Lichtquellen berücksichtigt: Die Sonne und das Skylight. In der Enhanced-Edition dagegen: "now we have the sun, the sky, emissive geometry, and up to 256 analytical lights, all potentially contributing to each sample and thus encoded into each pixel."
Dazu kommt, dass Mehfach-Bounces (also noch mehr Strahlen) mittels eines ansynchron laufenden Dynamic Diffuse Global Illumination-Buffers abgebildet werden. Die Zahl ProPixel/ProFrame erhöht sich damit nicht in direktem Maße, jedoch muss auch der DDGI mit separaten Rays gefüllt werden, d. h. die mittlere, anrechenbare Strahlenzahl erhöht sich effektiv noch einmal ggü. dem Ur-Metro.

Es würde für die Entwickler doch gar kein Sinn machen. Raytracing so zu entwickeln, das es auf den Konsolen nicht läuft. Die werden doch ihr Engine und Raytracing dementsprechend anpassen das es auf Rdna2 läuft. Die ersten Raytracing Spiele waren nur für PC, meist auch von Nvidia gefördert. Jetzt haben aber auch Konsolen Raytracing und halt Rdna2. [...]
Wer hat so etwas behauptet? Das einzige was sich aktuell herauszukristialisieren scheint ist, dass RDNA2-Hardware etwas langsamer zu sein scheint bzgl. Raytracing-Berechnungten und eher mit Turing bzgl. des Durchsatzes konkurriert.
Bei den Konsolen ist jedoch zu beachten, dass die vergleichsweise nur wenig Raytracing-Berechnungen durchführen können, weil die GPUs deutlich kleiner sind. Die Entwickler werden hier also mit weniger Strahlen auskommen müssen oder bspw. auf Teileffekte verzichten müssen oder mit einer niedrigeren Qualität vorlieb nehmen müssen. Mit den Top-Chips wie Navi21 oder GA102 kann man die Konsolen schon nicht mehr vergleichen. Beispielsweise die XBox mit der leistungsfähigsten GPU hat nur 52 CUs bei nur etwa 1,8 GHz. Bereits AMDs Topmodelle haben 72 respektive 80 CUs und einem Game-Takt von 2,02 GHz, d. h. die können bereits schon deutlich mehr Raytracingberechnungen durchführen.
Abschließend: nVidia-spezifisches war es teilweise nur, weil nVidia auch viele leistungsstarke APIs & Libs bietet, die den Entwicklern das Leben einfacher gemacht haben und ohne ein Konkurrenzprodukt im Markt hatten Entwickler hier damals keinen Grund auf die Implementation zu verzichten. Zukünftig wird absehbar Raytracing grundsätzlich auf beiden Architekturen laufen, so bspw. in der Unreal und Unity Engine.
 
Doch tun, sie, sogar mit extrem deutlichem Abstand, d. h. das "dominieren" ist hier sogar ganz und gar zutreffend. Schaut man sich die Statistiken über die Abermillionen Steam-Systeme an, dann stellt man fest, dass es bereits mehr RTX-Desktop-GPUs auf Steam gibt, als es überhaupt AMD-GPUs insgesamt dort gibt (also sogar inklusive der AMD-Mobile-GPUs). ;-)
Sorry, aber das ist keine Aussage über Raytracing-Hardware. Wenn man daran denkt, dass Nvidia schon eine Generation länger RT hat und dass AMD bis vor Kurzem nicht im Highend konkurriert hat und dass Navi2x kaum erhältlich ist, wird deutlich warum es vermeintlich viel RT Hardware in den Surveys gibt. Seit Ende 2018 hat es sich ja kaum gelohnt, andere Hardware zu kaufen. Davon ausgehend darauf zu schließen, dass die Hardware wegen RT gekauft wurde, ist nicht nur irreführend, sondern meiner Meinung nach grundlegend falsch. Wenn es in der 2000er Serie auch eine parallele Schiene GTX-Karten gegeben hätte (GTX 2080 z.B.), dann wäre die RT Hardware bestimmt weitgehend liegen geblieben
 
Wenn es in der 2000er Serie auch eine parallele Schiene GTX-Karten gegeben hätte (GTX 2080 z.B.), dann wäre die RT Hardware bestimmt weitgehend liegen geblieben
Die 20er-Serie hat in den 16-Hundertern eine parallele Serie. 1650, 1650 Super, 1660, 1660 Super, 1660 Ti
Aber das sind die schwächeren Karten. Die Wahl hatte man vor allem zwischen einer GTX 1660 Super oder Ti und der GTX 2060. Ob man den Aufpreis dann wegen RTX gezahlt hat oder einfach weil man mehr Leistung will, sagt eine Statistik nicht aus.

Momentan wird so oder so alles gekauft, was man auf den Markt wirft. Also zeigt die Statistik vor allem was auf dem Markt gelandet ist.
 
nur bis zur 2060 gab es gleichwertige non-RT-Karten, alles drüber hatte keinen Gegenpart. So absurd teuer wie die 2000er waren haben es sich viel halt überlegt ob die das wert sind und einen Neukauf eher verschoben.
 
Die 20er-Serie hat in den 16-Hundertern eine parallele Serie. 1650, 1650 Super, 1660, 1660 Super, 1660 Ti
Aber das sind die schwächeren Karten. Die Wahl hatte man vor allem zwischen einer GTX 1660 Super oder Ti und der GTX 2060. Ob man den Aufpreis dann wegen RTX gezahlt hat oder einfach weil man mehr Leistung will, sagt eine Statistik nicht aus.

Momentan wird so oder so alles gekauft, was man auf den Markt wirft. Also zeigt die Statistik vor allem was auf dem Markt gelandet ist.
Ja meine ich ja! Wenn es die großen Karten auch ohne RTX gegeben hätte, dann wären die RTX Karten wahrscheinlich liegen geblieben, weil die RT-Hardware sich einfach noch nicht lohnte (BF5 mit 45 fps? → Super spaßig :cautious:).

Da das so nicht war, und es letzte Generation im Highend erstens nur Nvidia-Karten gab, zweitens diese allesamt RT Hardware haben, ist viel RT Hardware aktuell im Umlauf. Dies lässt jedoch nicht den Schluss zu, dass diese Karten wegen RT gekauft wurden. Man könnte genauso gut behaupten, dass sie trotz RT gekauft wurden.
 
Sorry, aber das ist keine Aussage über Raytracing-Hardware. [...]
Selbstredend ist sie das. Nur weil du die Aussage nicht anerkennen möchtest, heißt dass nun nicht, dass alle unter dem "RTX"-Label geführten GPUs im Markt plötzlich ihre Raytracingfähigkeiten verlieren. ;-)
Wenn über 70 % aller Autobesitzer/fahrer VM gekauft haben und nun besitzen, dann ist VW schlicht die dominierende Automarke. Da spielt es keine Rolle, ob vielleicht von diesen Käufern 50 % die Marke vollkommen egal ist und weitere 20 % das jeweilige Modell nur gekauft haben, weil VW hier einen besonders schönen violetten Perlglanzlack anbot. Egal welche Motivation die Käufer auch immer hatten, an den Statistiken ändert das nichts (die haben alle nun einen VW und entsprechend sehen die Statistiken aus ... und in der gleichen Art haben alle diese Gamer auf Steam nun auch raytracingfähige Hardware).

Darüber hinaus habe ich auch keinerlei Aussagen dazu getroffen, warum der Markt so aussieht wie er aussieht. Ich habe nur den Ist-Stand beschrieben und auf dem PC spielt hier nun einmal der Großteil mit nVidia-Hardware. Das muss dir und mir nicht gefallen, interessiert die Zahlen und den Markt insgesamt aber auch nicht und deshalb ändern sich die Zahlen auch nicht einfach und die Aussagen der Statistiken bleiben unverändert weiterbestehen.
Ergänzend dazu ist die geringe Verbreitung von RDNA2-Hardware letzten Endes auch AMDs eigenes "Problem" (wenn man es so bezeichnen will). AMD hatte die Architektur schon zum Jahreswechsel 2018/19 fertig und hat die für die Konsolen aufgrund der Exklusivverträge mit Sony/Micrsoft zurückgehalten, weshalb man Navi einschieben musste, um zwischenzeitlich im GPU-Segment etwas zu verdienen und um nicht marketing/brandtechnisch komplett in Vergessenheit zu geraten im GPU-Markt. Dass man RDNA2 erst Ende 2020 bringen würde, wusste AMD schon Ende 2016, spätestens in 2017. Und zudem haben sie jetzt die Fertigung runterpriorisiert und fertigen Vorzugsweise die Konsolen-SoCs und Zen-Chiplets, schlicht weil sie Kapazitätsbeschränkt sind, was nun mal ein grundlegendes Problem ist, wenn man fabless ist, da man sich dann mit der jeweiligen Foundry und den anderen Kunden arrangieren muss. Das ist einfach wie es ist (völlig wertfrei).
Aber das ändert auch nichts an der Ist-Situation. RDNA2-Hardware ist kaum im Markt verfügbar ... und jetzt, ganze 6 Monate nach dem offiziellen Lauch spricht AMD im Earnings Call von einem "GPU-RampUp", d. h. mal will den Produktausstoß erhöhen. Etwas amüsant ist das schon, denn eigentlich hätte man das schon vor dem Launch erwarten können, inbesondere da Azor und Herkelman den Mund ja im unmittelbaren Vorfeld diesbezüglich auch ziemlich voll genommen haben.
Schlussendlich hat AMD hier einfach eine wirtschaftliche und auch durchaus nachvollziehbare Entscheidung getroffen und nun müssen sie mit dem entsprechend daraus resultierenden Hit leben ... blödsinnig erscheint mir nur, wenn man in der Fanbase nun versucht deren Entscheidungen irgendwie umzudeuten und resultierende negative und billigend in Kauf genommene Effekte wegzudiskutieren versucht.

Wenn es in der 2000er Serie auch eine parallele Schiene GTX-Karten gegeben hätte (GTX 2080 z.B.), dann wäre die RT Hardware bestimmt weitgehend liegen geblieben
Na du bist ja witzig. Wenn AMD eine parallele HW-Architektur ohne Raytracing für einen etwas günstigeren Preis im Portfolio hätte, hätte es sein können, dass hier AMD in dieser Generation niemals Fuß gefasst hätte, weil die Kunden sich vielleicht preisbewusst entschieden hätten?
Wenn AMD den höchsten CCD-Takt nicht den/m 3950/5950X vorbehalten hätte, sondern auch entsprechende 8-Kern-Modelle angeboten hätte, hätten vielleicht mehr Kunden zu den 8-Kernern gegriffen und die Verbreitung der hochkernigen CPUs wäre noch geringer ausgefallen.
Ein derartiger Portfolioaufbau ist simples marktstrategisches Kalkül, wie es alle Player im Markt betreiben. Sollte das tatsächlich neu oder gar überraschend für dich sein?

Darüber hinaus ist derartiges "hätte/wäre/wenn" immer problematisch, da man die Marktentwicklung in einer alternativen Zeitlinie nur schwer vorhersagen kann. Vielleicht war nVidia's Marketing auch so gut, dass ein nennenswerter Teil des Marktes "zukunftstaugliche" Hardware kaufen wollte? Dein Aussage ist genau so unsinnig, wie das immer gerne zum Besten gegebene "ohne AMD wären wird heute noch bei Intel mit 4-Kern im HighEnd unterwegs". Diese dient im wesentlichen dazu dem eigenen Bias ausdruck zu verleihen, hat aber nichts mit einer differenzierten Betrachtung tatsächlicher Marktereignisse zu tun.
Darüber hinaus zu deiner Anti-Raytracing-Vermutung ... die kann man aber auch in unserer Zeitlinie aushebeln, wenn man einen genaueren Blick auf Navi10 wirft. Die Modelle kamen zeitgleich mit den Turing-Refreshes in den Markt und verkauften sich nachweislich schlechter und das obwohl die eine vollends vergleichbare Performance zu ihren direkten Turing-Gegenstücken boten, speicherausbautechnisch auf dem gleichen Nivau waren und zudem deulich günstiger. Deren Marktentwickung auf Steam hängt den Turing-Refreshes deutlich hinterher, d. h. obwohl es hier anscheinend "gleichwertige" und gar noch signifikant günstigere Karten gab und das reflektiert sich auch in allen anderen Bereichen. AMD hat in 2020 pro Quartal sukzessive an AIB-Marktanteilen verloren und liegt in 4Q20 auf einem langjähringen Tiefstand (die Zahlen für 1Q21 wurden noch nicht veröffentlicht). Und auch die Sales-Zahlen bei Mindfactory lassen hier tief blicken:

2Q20 (in 1Q20 sahen die Verhältniss bei MF sehr ähnlich aus) :
9795 x RX 5700XT für gemittelte 418 €
3780 x RX 5700 für gemittelte 339 €
dagegen
11720 x RTX 2070 S für gemittelte 563 € (+20 % GPUs trotz +35 % höherem Preis)
6060 x RXT 2060 S + alte 2070 für gemittelte 438 € (+60 % mehr GPUs trotz +29 % höherem Preis)

Obwohl man rein basierend auf der Rasterizer-Leistung was durchaus Gleichwertiges hätte haben können, haben sich Konsumenten dennoch überwiegend für nVidia-Hardware entschieden, obwohl sie dafür gar noch tiefer in die Tasche greifen mussten. Insbesondere beim kleineren AMD-Modell spielten andere Gründe öffensichtlich eine größere Rolle, als es der deutlich niedrigere Preis hätte ausgleichen können.
Und dementsprechend zeigt sich heute auf Steam auch die deutliche Schieflage: Die beiden kleineren Super-Modelle haben zusammen 3,92 % Verbreitung gefunden, die beiden RDNA-Gegenstücke kommen gerade mal auf 1,21 %, d. h. auf eine doch eigentlich gleichwertige RDNA-Karte kommen derzeit immer noch 3,2 aktuelle Refresh-Gegenstücke.
Ganz so einfach ist es dann wohl offensichtlich doch nicht mit dem Was-wäre-wenn. ;-)

Entsprechend wenig Sinn ergibt auch dein abschließender Erklärungsversuch "nicht wegen, sondern trotz RTX gekauft", der möglicherweise deiner persönlichen Sichtweise und Meinung entgegen kommt, aber nicht das Marktgeschehen insgesamt erklären kann, denn hier muss es offensichtlich etwas geben, das zumindest zu einem gewissen Teil eine Wirkung entfaltet hat und die Käufer dazu verleitete überwiegend bei nVidia zuzugreifen ... und Kaffeekochen und Wäschewaschen können nVidia-Karten meines Wissens nach bisher noch nicht. ;-)
 
Zuletzt bearbeitet :
Oben Unten