Irgendwie wird die von mir wahrnehmbare Stimmung im Netz immer seltsamer.
Richtig erkannt.
Es wird immer extremer. Bei allem. Das wird durch die Art, wie "social media" funktioniert verstärkt: Jemand mit vielen "Followern" hat Recht. Wer was anderes sagt, hat Unrecht. Was zählt sind "Likes".
Wie bekommt man viel Zustimmung: Durch Polarisierung. Gib den Leuten etwas, was einfach ist. Das muss nicht richtig sein, eine reine Glaubensphrase reicht und die Leute werden richtig schön militant.
Das ist einfach für den einfachen Geist: Man ist dafür oder dagegen. Es gibt keine anstrengenden eigenen Überlegungen, denn das Ergebnis ist vorgegeben. Und wer etwas anderes sagt und nicht zur Mehrheit oder zumindest zur eigenen Glaubensrichtung gehört, der muss per Definition falsch liegen. Oder gleich "dumm" sein. Und da man allen zeigen will, dass man selbst ja nicht dumm ist, wird derjenige öffentlich niedergemacht. Das bringt dann wieder soziale Anerkennung im eigenen Dunstkreis - auch durch Likes...
Und wenn man dann zur Objektivität mahnt, bzw bei einseitigen Postings auch "des Teufels Advokat" spielt, wird man niedergeknüppelt.
Da bleibt nur noch eines zur Aufheiterung: Zum Glück ist das nur ein Forum... Leider benehmen sich zunehmend die Menschen auch im echten Leben maximal dumm und niemand gewährt ihnen mehr Einhalt. :-(
Bei den genannten Technologien ist auch nicht alles auf der gleichen Stufe.
DLSS ist eine Bildverbesserung, die darauf beruht Details zu erraten. Und das "professionelle Raten" wird auf einem Supercomputer trainiert.
Letztendlich ist das eine Variante von: "Für echtes Rendering auf 4k reicht die Rechenleistung nicht, also berechnen wir weniger und raten das, was fehlt"
Toll ist anders, auch wenn es hübsch aussieht.
DLSS ist wohl grob vergleichbar mit AMDs neuem "Superresolution". Das ist nicht exakt das Gleiche, soll jedoch ähnliche Effekte bringen.
Das erinnert mich an frühere Bildverschlimmbesserungen, um mehr Leistung zu erreichen. z.B. Kantenglättung nur bei bestimmten Winkeln, etc. Das gab es früher schon und war da bereits ziemlich blöd, da jeder Hersteller eine andere "Optimierung" gefunden hat, die dann eben mehr oder weniger Leistung kostete und die Bildqualität ebenfalls mehr oder weniger gut war. Natürlich sagte jeder Hersteller, dass seine Lösung die beste war.
Und wie damals wird man wieder überprüfen müssen, wann welche Technologie wo hilft und wo schadet, wer mehr Rechenleistung in mehr Bildqualität steckt und wer Qualität durch Quantität (Frameraten) tauscht. DLSS und Superresolution sind hierbei natürlich beide gleich zu behandeln.
Ich habe ein paar Beispiele für DLSS gesehen, die recht beeindruckend wareb. Und trotzdem ist das nichts, was ich haben möchte. Geratene Details anhand von irgendwelchen neuronalen Netzen, Mustererkennungen, etc möchte ich eigentlich nicht. Eine Grafikkarte sollte genau den Bildinhalt berechnen, der per Algorithmus und Texturen definiert wird. Reproduzierbar pixelidentisch.
Dabei ist mir klar, dass es für ein dummes Computerspiel irrelevant ist, ob sich kleine Details dann mit einem Treiberupdate verändern (neue Berechnungen auf dem Supercomputer können besagen, dass mit der höchsten Wahrscheinlichkeit nach einem neuen Algorithmus etwas anderes zu sehen ist...) Mir scheckt einfach dieses "Raten" nicht. Und da ist mir vollkommen egal, welcher Hersteller nun rät und ob er das mit einem Supercomputer unterstützt, mit einem Wachsmalstift oder einfach random Unfug einfügt. Das ist ähnlich wie "Schönheits-OPs": Die Filmstars werden dadurch auch nicht jünger, sie sehen nur anders aus.
RT: Nunja, letztendlich zählt wohl das, was in DirectX implementiert ist, solange keine "hauseigene Implementierung" versucht wurde. Raytraycing in Vulkan geht ja offensichtlich auch; offensichtlich auch recht performant. Nur eben nicht so wirklich standardisiert, wie ich es bisher verstanden habe.
Solange DirectX verwendet wird, haben AMD und NVidia die gleiche Ausgangsposition: Eine definierte Schnittstelle und damit wird gearbeitet. Das ist GPU-Hersteller unspezifisch und somit "fair". Ob NVidia seine Implementation nun RTX anstelle von DXR nennt, ist dabei relativ egal, solange DXR genutzt wird. Das ist vergleichbar mit den unterschiedlichen Bezeichnungen der Recheneinheiten innerhalb der GPUs. Was für den einen CU, ... mir ist der Marketingname egal, solange es das berechnet, was es soll. ^^
SAM bezieht sich, zumindest durch die Art, wie es jetzt präsentiert wurde, nicht mehr nur auf die Grafikkarte oder den Treiber oder einen optimierten Renderpfad. Plötzlich wird andere Hardware als Voraussetzung angesehen.
Und da zwischen CPU und GPU stink normaler PCIe ist, also keine proprietäre Verbindung, die etwas besonderes könnte, wenn man eine andere CPU hat, zudem auch kein neuer Befehlssatz in den CPUs angekündigt wurde, fällt es mir gerade SEHR schwer zu glauben, dass es diese suggerierte Hardwareabhängigkeit gibt. Und auch wenn es sie gibt: Dann werde ich das prinzipiell nicht gut finden.
Und auch wenn das irgendwem, der super harmoniebedürftig ist, nicht passt: Das ist meine Ansicht, die ich argumentativ untermauern kann. Historisch und objektiv.
Abweichende Meinungen finde ich nicht schlimm, solange diese sachlich bleiben.
Und solange keine Graka lieferbar wird, warte ich ab, schaue nach Benchmarks und wenn dann beide lieferbar werden, schlage ich bei der Karte zu, die mir zu dem gegebenen Zeitpunkt die beste Wahl erscheint. Und egal welche das ist, es wird sicherlich irgendwo wer im Forum als Beweis nehmen, dass er Recht hatte. Auch wenn das keine Rolle spielt.
Mir sind die Namen der Technologien Wurscht, mir sind die Namen der Hersteller Wurscht, mir ist auch der Name meines OS Wurscht.
Ideal wäre für mich zur Zeit eine Graka, die eine fehlerfreie Bildqualität liefert, auch unter Last nicht laut ist und auf 4k in jeder Situation alles flüssig darstellen kann.
Da darf dann auch gerne "Höpdendöp" als GPU-Hersteller draufstehen, es ist mir sowas von egal, hauptsache das Teil funktioniert wie es soll.