Standardisierungen haben ein Pro und ein Contra.
Pro- Es kann leichter implementiert werden.
Contra- Es wird weniger technischen Fortschritt geben, da die Marktzugangsschwelle für neue Technologien/Konkurrenten steigt, wenn die Technik standardisiert wurde. Darüber hinaus gibt es dann ein konzernübergreifendes Gremium der Mitgliedsunternehmen, die als Gatekeeper dafür sorgen werden, das der Standard unter ihrer Kontrolle bleibt.
Deswegen stehen Standardisierungen normalerweise am Ende einer Entwicklung, nicht am Anfang. Erst mal müssen AMD und andere Firmen, die sich mit KI-Upscaling befassen, ihre Lösungen auf den Markt bringen. Die beste wird sich mit der Zeit durchsetzen und dann standardisiert werden. Das muss nicht mal DLSS sein.
Mit einem Standard rechne ich nicht vor Ablauf von 2-3 Jahren.
Es gab zu dem Zeitpunkt keine andere Wahl, jetzt gibts die.
Es gibt immer eine andere Wahl
Ich hatte damals noch eine gtx 970, habe Pascal übersprungen und wollte eigentlich ein Turing Oberklassemodell kaufen, aber die Preise waren mir zu hoch, der Vram zu niedrig. Also schlug ich bei der 2070 im Abverkauf zu und habe die Differenz zur 2080 zurückgelegt, um dann bei Ampere etwas höher einzusteigen. Daher peile ich nun die 3080ti an, die im Vergleich zur 2080 in allen Belangen besser ist, vor allem die 20GB VRam sind herausragend. Da war mir Turing einfach zu schlecht, um einen größeren Betrag auf den Tisch zu legen.
Würde ich die Cudacores/RT nicht benötigen, sondern mehr Rasterisierung, hätte ich eine 5700 XT genommen und übertaktet, die Differenz des Kaufpreises zur 2080S zurückgelegt, um ihn bei der 6800/6900 zu verwenden.
Die Strategie wäre dann: Gegenwärtiger (Spaß)verzicht, der später bei besserer Gelegenheit nachgeholt wird.
Deine Strategie war: Lieber jetzt etwas mehr ausgeben und sofort Spaß haben. Ist auch gut, Lebenszeit bekommt man nicht zurück.