Moin Männers ...
Was ich immer wieder höre, ist das NVIDIA zu wenig Speicher dazu gibt.
So sind z.B. bei einer RTX 2080 die 8gb VRAM zu wenig und nicht zukunftssicher.
Das ist komplett Banane.
Wer sich eine Grafikkarte für 650+ € kauft, der ist kein User von Traurigkeit und hat natürlich kein Problem damit in 2 Jahren auf die nächste Generation zu wechseln (RTX 3080 mit 16gb Vram). Denn das sind High-End Karten für Enthusiasten und nicht für Spieler die eine Karte für die nächsten 4 Jahre um zu "überleben" kaufen.
Für jene die sich preislich für eine RTX 2060 entscheiden, die spielen auch in 1080p und dafür reicht die Leistung der Karte sowie der verbaute VRam über Jahre hinweg. Mit einer RTX 2060, oder einer GTX 1070, ja sogar mit einer GTX 1060 oder auch GTX 970 lässt sich jeder AAA+ Titel in very high details mit ausreichenden FPS spielen und auch genießen.
Selbst wenn eine 1060/970 bei einigen speziellen Spielen nicht mehr ausreicht für very high details, so haben die Besitzer so einer Karte auch kein Problem damit, die Schatten von very high mal auf mittel zu stellen, sowie andere Abstriche in den Grafik-Optionen hinzunehmen. Das wusste man mit dem Kauf dieser (~300€) Grafikkarte damals schon, das man nicht ultra details für die nächsten 4 Jahre gekauft hat.
Weiterhin, währen Entwickler von AAA+ Titeln schön blööd, ihre Spiele auf 8+ GB Vram bei very high details in 1080p aufzubauen, weil dann lediglich 2% ihrer Spielerschaft in den Genuß dieser Grafikpracht käme. Und somit kann ich mit meinem i7 4770k @ 4,5GHz, 16GB 2400MHz Ram und einer GTX 970 mit 4GB VRam auf 21:9 @ 2560x1080p auch noch heute ein Shadow of the Tombraider in very high details spielen, inklusive Nvidia hair Geschichten auf on und habe durchweg über 40 FPS. Und diese meine Grafikkarte ist von Ende 2014 - also immerhin 4 Jahre alt.
Jetzt mal zu der AMD Karte:
Sie hat 16gb Vram, was "zukunftssicherer" ist. Aber glaubt mal dran das Spieler die diese Grafikkarte kaufen (~650€), sich mit Navi 7nm schon wieder die nächste Karte zulegen oder spätestens dann eben ende 2020 mit RTX 30XX. Denn das sind Spieler die 4k Monitore zum Gamen verwenden, eventuell sogar mit Gsync/Freesync und eben auf 90+ FPS geil sind. Diese 90+ FPS leisten die aktuellen Karten ja kaum, und somit wird man sicherlich bei Navi oder RTX 30XX wieder zugreifen.
Fazit: Der größte Fehler ist, davon auszugehen, das Spieler welche sich High-End bzw. Referenzkarten kaufen, diese Dinge aufgrund von "Zukunftssicherheit" kaufen. Der größte Wertverfall liegt bekanntlich immer bei den Top-Modellen in der GPU & CPU Sparte bzw. das P/L ist in dieser Sparte IMMER sehr schlecht. Das ist ein bissle so, als würde man wirklich davon ausgehen, das Menschen die sich ein Apple Iphone für 800+ € kaufen, das Smartphone wirklich für die nächsten 5 Jahre verwenden würden?! Ähm nein?! Mit wenigen Ausnahmen, wird natürlich immer das aktuelle Smartphone gekauft, oder wenn überhaupt mal eine Generation übersprungen. Ebenso wer sich einen Mercedes Benz C230 V6 2,5 Liter mit 204 PS und 245km/h Vmax als Neuwagen zulegt, der wird sich auch 3-4 Jahre später bei 100 000km wiederum ein neueres Modell zu legen. Währenddessen ein Golf Fahrer die Kiste gebraucht kauft und 10+ Jahre fährt bis sie auseinander fliegt.
Somit ist es imho völlig egal ob man für 650€ sich 16GB Vram kauft, oder wahlweise eben für DLSS & RT entscheidet.
Das ist gehupft wie gerupft: Die 16GB Vram wird man genauso wenig total elitär ausreizen/verwenden können wie eben "dauerhaft" DLSS & RT in den nächsten 2-3 Jahren.
Edit: Auch das allseits beliebte Stromkosten Rechen-Beispiel finde ich doch etwas zu sehr an den Haaren herbeigezogen. Als ob jemand der 650+ € in eine Grafikkarte investiert, wirklich interessiert an seinem Stromverbrauch ist. Ob das nun 40€ pro Jahr mehr oder weniger sind, ist dann doch komplett egal.
lg