News Kommt AMDs FidelityFX Super Resolution bereits im Juni als DLSS-Konkurrent auf den Markt?

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Es ist schon eine Weile her, dass AMD sich selbst das Frühjahr 2021 für seinen DLSS-Konkurrent FidelityFX Super Resolution als zeitliches Ziel gesetzt hatte. Jetzt spekuliert der TechTuber Coreteks, dass man wohl nur noch einen Monat vom Start entfernt sein könnte. Das ist zwar erst einmal mit der üblichen Vorsicht zu sehen, aber es ist […]

Hier den ganzen Artikel lesen
 
But,
DLSS funzt nur sauber ohne HDR. Kein Wunder das Gurdi nie so richtig mit DLSS warm wurde.

Ob DLSS+RT mit HDR dann intern ein Bandbreiten-Problem hat, who knows.
Auf jeden Fall hat man Smearing.
 
Mpf, bisher hat mich Raytracing in Spielen nicht wirklich angefixt oder überzeugt. Gerade in schnellen shootern sehe ich da keinen Vorteil - wer da noch ein Auge für solche Gimmicks hat sollte einen höheren Schwierigkeitsgrad wählen. Wenn die AMD-Lösung kommt und ausgereift ist und dann vielleicht noch open source und Nvidia dann einen Umfaller macht wie bei Gsync wird es vielleicht spannend. Vor allem für zukünftige proprietäre Lösungen. Die haben sich dann nämlich zumindest im Spielebereich als Sackgasse erwiesen. Was mir recht wäre.
 
ein Auge für solche Gimmicks

Ohne Dir zu Nahe treten zu wollen,gibt es viele Gamer,welche einigen Wert auf eine möglichst
detailgetreue Darstellung legen.
Shooter mit 144 FPS spielen ist eine Sache...
In Welten eintauchen,die bis ins letzte Detail sauber dargestellt werden ist die Andere....

Raytracing ist meiner Meinung nach kein Gimmick sondern der Versuch eine Umgebung
möglichst „realistisch“ zu gestalten.

Ich wäre auf jeden Fall angenehm überrascht,wenn AMD diese Lücke zu Nvidea (DLSS und Raytracing) sobald als möglich schließt.
Konkurrenz belebt das Geschäft,ebnet den Weg für Innovation und lässt auf lange Sicht die Preise purzeln...
 
Zuletzt bearbeitet :
But,
DLSS funzt nur sauber ohne HDR. Kein Wunder das Gurdi nie so richtig mit DLSS warm wurde.

Ob DLSS+RT mit HDR dann intern ein Bandbreiten-Problem hat, who knows.
Auf jeden Fall hat man Smearing.
Oh echt. Das wusste ich gar nicht. Woher kommt die Info?
 
Wenn AMDs FidelityFX Super Resolution "nur" halb so gut funktioniert wie NVidias DLSS und die Messungen eine Leistungssteigerung zwischen
30 - 120 % bescheinigen dann ist es ein sehr guter Anfang.

Sollten auch noch die älteren NVidia Grafikkarten ( ohne DLSS Support ) von AMDs FidelityFX Super Resolution profitieren dann wird es für Nvidia peinlich :whistle:

Und dass die Benchmarks fast immer ohne HDR gemacht werden obwohl es vom Spiel unterstützten wird wirkt auf mich manchmal wie eine "stille Absprache" um negative Zeilen zu vermeiden.
 
Wenn AMDs FidelityFX Super Resolution "nur" halb so gut funktioniert wie NVidias DLSS und die Messungen eine Leistungssteigerung zwischen
30 - 120 % bescheinigen dann ist es ein sehr guter Anfang.

Sollten auch noch die älteren NVidia Grafikkarten ( ohne DLSS Support ) von AMDs FidelityFX Super Resolution profitieren dann wird es für Nvidia peinlich :whistle:

Und dass die Benchmarks fast immer ohne HDR gemacht werden obwohl es vom Spiel unterstützten wird wirkt auf mich manchmal wie eine "stille Absprache" um negative Zeilen zu vermeiden.
Zumal HDR ja nun mal deutlich mehr in der Breiter angekommen ist als Drölftracing wie ich finde. Jeder zammelige TV hat das und es stellt auch wirklich einen Mehrwert dar ohne nennenswerte Leistungskosten, mal abgesehen vom erhöhten Vram Bedarf.
 
Oh echt. Das wusste ich gar nicht. Woher kommt die Info?
Wurde heiß im ME enhanced-Review-Thread bei CB diskutiert und auch im ME-Thread von PCGH.
 
"Das Interessanteste an FidelityFX Super Resolution ist allerdings, dass AMD seine Kompatibilität auch für NVIDIA-GPUs öffnen könnte."

Der Satz verwirrt etwas. Angesichts der Tatsache, dass AMD einen offenen Ansatz versprochen hat, stellt sich die Frage doch eigentlich gar nicht. Zudem verfügt AMDs Hardware auch über keinerlei Spezialeinheiten, d. h. die Berechnung erfolgt über die ganz normalen ALUs und damit dürfte grundsätzliche jede GPU, die leistungsfähig genug ist, die Technik unterstützen. Würde es auf nVidia-Hardware nicht laufen, wäre das schlicht ein von AMD absichtlich implementierter Vendor-Lock. (Eine zumindest nicht undenkbare Alternative wäre, dass nVidia sich der Implementation zugunsten seines DLSS und dessen Verbreitung verschließt, was jedoch auf Dauer nur ginge, wenn FSR nicht vollends konkurrenzfähig zu DLSS wäre.)

Der direkte Vergleich gegen DLSS 2.x wird auf jeden Fall interessant sein.

[...] Raytracing ist meiner Meinung nach kein Gimmick sondern der Versuch eine Umgebung
möglichst „realistisch“ zu gestalten.

Ich wäre auf jeden Fall angenehm überrascht,wenn AMD diese Lücke zu Nvidea (DLSS und Raytracing) sobald als möglich schließt. [...]
Die Lücke schließen wird mit dieser Gen nicht funktionieren. Nach aktuellem Stand ist RDNA2 bei Raytracing weniger leistungsstark als Ampere, d. h. daran kann dann auch FSR nichts ändern. Dieses hilft nur unmittelbar "gegen" DLSS (egal ob in Kombination mit Raytracing oder ohne).
Die Lücke "schließen" wäre nur möglich, wenn es FSR gar gelänge für eine Zielauflösung von bspw. 1080p mit effektiv 540p zu rendern und dabei das gleiche qualitative Ergebnis zu erreichen wie DLSS, das dann in diesem Falle mit 720p rendern müsste. Ich wäre jedoch sehr überrascht, wenn man nicht nur etwas konkurrenzfähiges, sondern etwas klar überlegenes und vollkommen ohne AI zuwege bringt ... aber letzten Endes überraschen lassen würde ich mich gerne, schließlich profitiere ich auch davon. ;-)

Anmerkung zu HDR: Das erfordert mit Blick auf DLSS vermutlich ein angepasstes und größeres NN (bspw. alleine schon der größere Kontrastumfang sollte dem aktuellen NN hier Probleme bereiten). Da HDR aber noch nicht so verbreitet ist und gar auf vielen Monitoren durchwachsene Resultate liefert, wenn man nicht gerade zu den teuersten Geräten greift, ist es naheliegend, dass sich nVidia hier erst mal auf 8 Bit beschränkt hat.
 
Zuletzt bearbeitet :
Je mehr Zeit zum vergangenen Release von RDNA2 verstreicht, desto besser reift AMDs Generation gegenüber Ampere!
HDR ist m.M. noch mehr Nischenprodukt im Monitorvwreich als RT und DLSS.
 
Warum sollte Nvidia denn Super Resolution unterstützen wollen?

Das ist eine Variante die zwischen scaled und AI Renderer liegt, aber kaum schlechter aussieht. Nur braucht man dafür absolut kein NN und damit auch keine Tensorcores. DLSS ist ein AI x4 Modus eben mit seinen Schwächen (dedizierte Tensorcores), sicher wird auch FX Superres Stärken und Schwächen haben. Superres dürfte x2 sein, heißt also zur nächst höheren Auflösung Leistung freisetzen (1080p to 1440p/1440p to 2160p).

Letztlich stammt es von Microsoft und AMD entwickelt auf Basis eines Featuresets oder einer Kern API keine Lowlevel-Kerntechnologie für Nvidia, wozu auch. Das sollen die schön selbst machen und auf Cuda selbst anpassen. Da wird schon wieder ein Haufen "Kauderwälsch" unter die Leute gestreut. Das sie es für die Konsolen anpassen wird sicher unumgänglich sein (RDNA2 - und wer versteht mehr davon als AMD?)

Fidelity FX SuperRes ist für AMDs GPUs, wie Nvidia das nennt ist denen überlassen. Gsync Super Res oder was auch immer. Wenn sie es überhaupt unterstützen wollen, was sie ja nicht müssen, da sie eine AI Variante am Start haben.

Wenn Nvidia AMD Fidelity FX Superres auf Nvidia GPUs anpassen wollen müssen sie das selbst, es ist open source und für jeden frei zugänglich.

*....wer die Double image res von Photoshop kennt, wird wissen wie flink das arbeitet, in welcher Stufe es nachschärft und man absolut kein Artefakte provozieren kann, was bei DLSS fast zu jedes mal der Fall ist. Ich denke das wird der größte Vorteil von Superres sein, es "denkt" nicht = es arbeitet einfach und verschlimmbessert daher nichts. Bleibt damit absolut unter Kontrolle des Devs.
 
Zuletzt bearbeitet von einem Moderator :
Je mehr Zeit zum vergangenen Release von RDNA2 verstreicht, desto besser reift AMDs Generation gegenüber Ampere! [...]
Da es sich hier um festverdrahtete Hardware handelt und die voraussichtlichtlich auch keinerlei Überarbeitung erfahren wird bis zum Ende ihres Lebenszyklus (und wenn doch, hätten die EarlyAdopters nichts davon ohne eine kostenlose Umtauschaktion) kann hier schon per Defintion nichts "reifen" und ebensowenig kann man hier versuchen ein "besser" oder "schlechter als" herauszustellen.
Zudem ist RDNA2 deutlich älter als das Releasedatum vermuten lässt, d. h. man müsste eigentlich eher zu anders herum gelagerten Schlüssen kommen. ;-)

Warum sollte Nvidia denn Super Resolution unterstützen wollen? [...]
Um ein "wollen" geht es ja auch voraussichtlich nicht. Der Markt wird nVidia möglicherweise zu diesem Schritt zwingen. Da viele Hersteller zwecks maximalem Profit die Konsolen mit im Auge haben, bzw. es sich bei vielen PC-Titeln eigentlich eher um einen Konsolen-Port handelt, darf man vermuten, dass zukünftig die Mehrzahl aller Titel aus dieser Ecke grundsätzlich FSR implementiert haben wird. Sofern das ausreichend gute Resultate liefert (auf den Konsolen stellt sich die Frage nicht, da es dort nur diese eine Technik gibt), wird sich der eine oder andere Hersteller natürlich schon fragen, warum er da nochmal zusätzliche Aufwändungen für nVidia's DLSS betreiben sollte (auch wenn das nun in etlichen Engines schon integriert ist, bzw. die Hersteller sich den größten Teil des Implementationsaufwandes schon gemacht haben). Und insbesondere, wenn es tatsächlich von AMD frei zur Verfügung gestellt wird (wie angekündigt), wird es zumindest ohne technische Vorteile von DSLL schwer sein für nVidia, seinen Kunden zu erklären, warum man diese freie Technik nicht unterstützt und in so manchem Titel als nVidia-Kunde ohne ein Upscaling auskommen muss.

Letzten Endes wird man hier aber erst mal abwarten müssen, was die Technik abzuliefern vermag. Wenn DLSS bspw. eine höhere Qualität liefert oder aber bspw. bei gleicher Qualität mehr Performance freigibt, hat es immer noch seine Daseinsberechtigung. Darüber hinaus bleibt für nVidia immer noch der Pluspunkt, dass der PC-Markt insgesamt von nVidia dominiert wird, was eine Optimierung für deren Hardware für PC-Titel noch mal wahrscheinlicher macht, d. h. es könnte auch so sein, dass man das Konsolenfeature unangepasst (als ausreichend gut) übernimmt und zusätzliche Optimierungsarbeiten für die PC-Version stattdessen auf die Anpassung der nVidia-Hardware legt. Hier wird man einfach abwarten müssen wie sich das entwickelt.

Ergänzender Hinweis: Auch für DLSS braucht man keine Tensor Cores. Das Inferencing kann man auch über die ALUs implementieren, wie es nVidia auch in ersten Pre-Releases von DLSS 2 getan hat. Über die Tensor Cores prozessiert wird es einfach nur noch ein wenig schneller und nVidia kann hier natürlich auch zwei Fliegen mit einer Klappe schlagen und das gleichzeitig als Vermarktungsinstrument nutzen. (AMD hat sowas ja auch schon vielfach versucht, nur halt weniger erfolgreich, weil ihnen die Marktmacht fehlt und man voraussichtlich zumeist immer unter Ressourcenmangel litt.)
Ebenso: Auch bei DLSS "denkt" nichts, das ist schlicht ein komplexer Algorithmus, und hat mit dem was Laien typischerweise unter dem BuzzWork KI verstehen, nichts zu tun, sondern hierbei handelt es sich schlicht um eine neuronale statistische Datenanalyse, ein häufiger Fehler, wenn es um das Thema ML und dessen Einordnung geht.
 
Zuletzt bearbeitet :
Mpf, bisher hat mich Raytracing in Spielen nicht wirklich angefixt oder überzeugt. Gerade in schnellen shootern sehe ich da keinen Vorteil - wer da noch ein Auge für solche Gimmicks hat sollte einen höheren Schwierigkeitsgrad wählen. Wenn die AMD-Lösung kommt und ausgereift ist und dann vielleicht noch open source und Nvidia dann einen Umfaller macht wie bei Gsync wird es vielleicht spannend. Vor allem für zukünftige proprietäre Lösungen. Die haben sich dann nämlich zumindest im Spielebereich als Sackgasse erwiesen. Was mir recht wäre.
Wer schnelle Shooter bevorzugt, muss noch ein paar Jahre warten, bis RT interessant wird. Aber man munkelt, dass es ja noch andere Spielgenres gebe.
 
@gerTHW84 Das es natürlich NICHT um die HW an sich geht, sollte dir wohl klar sein. Treiber und Spielesupport! Wenn man sich auf diversen Seiten rumtreibt und sich die Reviews zu Gemüte führt, ist es erkennbar.
 
Der nun von dir konkretisierte Punkt bedarf aber auch keiner Erwähnung sondern ist vollkommen normal. Erwähnenswert wäre der nur, wenn er ausbliebe oder viel zu langsam vonstatten ginge. *) RDNA2 ist eine "neue" **) Architektur (Ampere ist schon die zweite Raytracing-Generation) und von daher erfolgt hier nun natürlicherweise schrittweise eine Adaption im Markt.

Schlussendlich bleibt für mich als Konsument der positive Schluss, dass man nun wieder Konkurrenz im GPU-Markt über das gesamte Spektrum hat. Da die Features und setzbaren Schwerpunkte unterschiedlich sind, kann sich hier jeder nach seinem Gusto etwas heraussuchen ... natürlich sofern er/sie bereit ist, die aktuellen Preise zu bezahlen. ;-)

*) Letzteres könnte zumindest theoretisch drohen, denn RDNA2 kommt auf dem PC aktuell überhaupt nicht in Fahrt, wenn man sich die Verbreitung ansieht. Praktisch wird dies nur deswegen nicht passieren, weil die Konsolen auf der gleichen Hardware basieren, d. h. spätestens hierüber kommen indirekt Erfahrungen und Weiterentwicklungen auch den PC'lern zugute, auch wenn RDNA2-Hardware derzeit eher eine Seltenheit auf dem PC ist.

**) "Neu" dann jedoch nicht so ganz, da AMD die Architektur über ein Jahr lang aus wirtschaftlichen Gründen zurückgehalten hat (und damit natürlich auch die Marktentwicklung etwas ausgebremst hat).
 
Mag sein das sie den PC Markt dominieren, aber gewiss nicht auf Basis der RT Hardware und ansonsten braucht es kaum DLSS, DLAA vllt.

Ob AMD gleich eine Detailrekonstruktion inklusive Glättung auf dem Level von DLSS anstrebt glaube ich eher nicht, die werden erstmal zusehen das sie die FPS Ratio steigern, genauso wie Nvidia das macht. Denn DLSS ist nichts weiter als dafür gedacht, RT überhaupt erst lauffähig zu bekommen.

Der Marktanteil von RT Hardware ist verschwindet gering, es wird noch min 5 Jahre dauern um überhaupt 15-25% Marktanteil aufzubauen/anzusprechen und derzeit sind die Preise dafür ins Nirvana abgestürzt (ich meine damit den gesamten Markt und nicht Nvidias Anteile). Zu vermuten ist das die komplette Amperegen ins Leere läuft, weil die Miner alles aufkaufen. Dort wird nicht ge"raytraced".

Soweit mir bekannt wird auch Intel Superres unterstützen und im Mainstream haben die ausreichend Potential den Markt mit aufzumischen, also das Eis wird für Nvidia immer dünner. Die Problematik um Ampere und Crytpo haben sie selbst verbockt.

Aus Nvidias Sicht wäre es daher nicht sinnvoll DLSS (als Art Schlüsseltechnologie für RTX) fallen zu lassen (oder als Art Luxusfeature anzubieten), vllt. für non RT Hardware. Ich vermute sie werden Superres daher vorerst nicht unterstützen. Daher muss man sich auch keine Gedanken machen ob es funktionieren würde. Selbst Unity arbeitet an einer Variante, dann hätten auch die meistgenutzten Engines eine Basisimplementierung für DLSS.

Für die Zukunft wird es darum gehen wer RTGI bei 1Ray pro Pixel (Auflösungsanteile für Lichtquellen) darstellen kann, weil alles andere zuviel Rechenleistung kostet (heute sind wir dabei bei ca. 40% des Bildanteiles maximal, aber genau dort kann man visuell am meisten Unterschiede aufzeigen = RT vs. non RT ). Ob man dabei mit Gimmicks wie in der Vergangenheit GPU-PhysX glänzt, wird kaum wichtig sein.
 
Zuletzt bearbeitet von einem Moderator :
Mag sein das sie den PC Markt dominieren, aber gewiss nicht auf Basis der RT Hardware und ansonsten braucht es kaum DLSS, DLAA vllt. [...]
Doch tun, sie, sogar mit extrem deutlichem Abstand, d. h. das "dominieren" ist hier sogar ganz und gar zutreffend. Schaut man sich die Statistiken über die Abermillionen Steam-Systeme an, dann stellt man fest, dass es bereits mehr RTX-Desktop-GPUs auf Steam gibt, als es überhaupt AMD-GPUs insgesamt dort gibt (also sogar inklusive der AMD-Mobile-GPUs). ;-)
Noch schräger wird es beim Vergleich RDNA2 gegen Ampere, denn hier kommen auf eine RDNA2-Karte 18 Ampere-Karten. Und letzteres ist gerade mal die 2nd Gen, d. h. wenn man hier gar gegen RTX-Karten vergleichen würde (von denen es noch deutlich mehr dort gibt), wird der Vergleich noch viel schiefer, d. h. ohne die Konsolen in der Hinterhand wäre derzeit der Martktdruck für RDNA2 zu optimieren denkbar gering.
Und auch insgesamt gesehen spielt der PC-Gamer weitestgehend auf Nvidia-Hardware. Beispielsweise im März hatten auf dem Desktop AMD-GPUs bei Steam gerade mal einen Anteil von nur knapp über 12 %.

Die übliche Reaktion von Fans, wenn sie mit solchen Zahlen konfrontiert werden, ist dann schlicht die Zuverlässigkeit der Steam-Zahlen anzuzweifeln (bzw. eher gar kategorisch zu verneinen :-D) und dann werden typischerweise solche Anektoden ausgegraben wie "aber ich und meine dröfzig Freunde wurden ja noch nie befragt", nur haben diese Leute offensichtlich wenig Ahnung von Statistik und erkenne daher nicht wie irrelevant derartige Einzelbeobachtungen sind.
Darüber hinaus stehen die Zahlen ja auch nicht isoliert im Raum, denn beispielsweise der Marktforscher JPR gibt regelmäßig auf Quartalsbasis Zahlen heraus *) und bspw. in den vergangenen Quartalen hat AMD hier gar fortwährend Marktanteile an Nvidia verloren. Beispielsweise für 4Q20 lag der Anteil bei abgesetzten AddInBoards (sämtliche PCIe-Karten; Stückzahlen) von AMD bei gerade mal nur noch 17 %, d. h. rd. 83 % entfielen auf Nvidia, d. h. die dominieren grundsätzlich den Grafikmarkt.
Erst wenn man die iGPUs der APUs und die der Konsolen-SoCs mit in die Statistiken einrechnet, kommen AMD und nVidia in etwa auf einen gleichgroßen GPU-Marktanteil, jedoch müssen sich dann beide in einer allgemeinen Betrachtung des GPU-Marktes mit deutlichem Abstand dem weitaus größeren Player geschlagen geben: Intel.

*) Leider nur selektiv, da man den erstellten Report für teuer Geld unters Volk bringen will. Wenn man diese Info-Happen jedoch länger verfolgt und auch Alt-Daten von ihen zur hand hand, kann man dennoch manchmal gar mehr Daten offenlegen, als sie freiwillig bereit waren zu teasern. ;-)

Zur Art der Implementation: Da würde ich eigentlich nicht spekulieren wollen, denn da es keine Infos gibt, bliebe da nicht viel mehr als das, aber angelehnt an deinen Satz "Ob AMD gleich eine Detailrekonstruktion inklusive Glättung auf dem Level von DLSS anstrebt glaube ich eher nicht" dürfte das eher nicht zutreffen. Ohne eine Detailrekonstruktion könnte FSR nicht einmal ansatzweise mit DLSS 2.x mithalten, d. h. ich würde annehmen, dass die so etwas durchaus bieten werden.
Darüber hinaus noch mal als Erinnerung: DLSS funktioniert vollkommen unabhängig von Raytracing und hat nichts damit zu tun, was konkret im BIld gerendert wird. Wenn ein normaler Rasterizer-Output nur 80 Fps in WQHD erreicht, weil man alle Regler auf maximum gestellt hat (ohne Raytracing) und man will dennoch mehr Fps, kann man hier, wenn es implementiert ist (was aber zukünftig absehbar noch weniger ein Problem werden wird), DLSS aktivieren und hat dann vielelicht gemittelte 110 oder gar 130 Fps zur Verfügung. Oder aber man spielt Maxed-Out in WQHD, würde aber liefer in 4K spielen nur wird es damit absehbar nicht reichen. Mit DLSS geht das dann durchaus.
DLSS bietet sich inbesondere in Verbindung mit Raytracing an, schlicht weil Raytracing viel Rechenleistung fordert und damit die Ressourcen auf der GPU schnell knapper werden, aber die Technik ist nicht daran gebunden und komplett unabhängig davon.

"Markanteil von RT-Hardware": Das Thema war eigentlich schon mit obigem Absatz widerlegt, aber hier noch mal konkret auf Basis der Steam-März-Zahlen (d. h. mittlerweile sind weitere RT-GPUs von Nvidia und auch ein paar von AMD hinzugekommen):
Der Desktop-Anteil and RTX-GPUs liebt bei knapp über 21 % (nicht erst in zwei oder gar fünf Jahren, sondern dort lag er schon vorletzten Monat ... überraschenderweise trotz der horrenden Preise derzeit).

Bei Intel geistert ein Projektname "XeSS" durch den Äther. Das wird vermutlich eine ähnliche Technik sein, schlicht weil das Problem alle GPUs haben: Die Hardwareleistung reicht nie für das, was Enthusiasten-Gamer sich am liebsten zu haben wünschen. ;-)

"DLSS fallen lassen"? Nein, natürlich nicht, insbesondere, da die das zu einem elementaren Bestandteil ihrer Vermarktungsstrategie gemacht haben. Hardware wie Tensor Cores könnte man noch für viele schöne andere Dinge in einer GameEngine nutzen, aber da AMD und auch die Konsolen nichts derartiges haben, wird eine Verwendung an derartiger Stelle nur schleppend vorrankommen in den nächsten Jahren (trotz Microsofts DirectML). Aber eine Implementation von FSR heißt ja auch nicht gleichzeitig, dass man DLSS fallen lassen muss ... zumal, man erst mal abwarten muss, wie sich AMDs erster Wurf im direkten Vergleich darstellen wird.
(Btw ... Unity arbeitet an keiner "Variante", die implementieren zusammen mit Nvidia DLSS 2.x in den Release-Zweig Unity 2021.2.)

"Für die Zukunft wird es darum gehen wer RTGI bei 1Ray pro Pixel" ... in dem Falle nein, denn Metro Exodus Enhanced, auch wenn ein detailerter TechTalk noch aussteht, zeigt schon, dass die mit mehr Strahlen arbeiten.

"Ob man dabei mit Gimmicks wie in der Vergangenheit GPU-PhysX glänzt, wird kaum wichtig sein." Hier weiß ich nicht, was du mit Gimmicks vergleichst bzw. gleichstellst, deshalb sein nur angemerkt, dass auch AMD es mit gleichartigen Gimmicks versucht hat. Dass die teilweise weniger adaptiert wurden, lag bisher nur schlicht an deren geringerer Verbreitung und Marktmacht.
Mit den aktualisierten Konsolen wird sich da sicherlich nun einiges ändern, wie weit die an der oberen grafiktechnischen Spitze aber noch langfristig wirken können, wird man abwarten müssen, denn ich würde erwarten, dass der leistungstechnische Abstand zu den 2022er-GPUs bereits derart groß wird (insbesondere mit Blick auf Raytracing und MCM-Designs), dass ihre Bedeutung hier hier schnell abfallen wird.
 
Schaut man sich die Statistiken über die Abermillionen Steam-Systeme an, dann stellt man fest, dass ...
Das Statistik nur Quark ist.

Wieviele Ampere´s ab 3060Ti aufwärts gibts denn. Und wieviel Leute davon spielen in 4k-HDR am neuen OLED-TV?

Für 1440p brauchts kein DLSS und man hat keine Probs mit HDR.

btw.
Im Gegensatz dazu gibts zig Millionen Konsoleros an rel. preiswerten HDR-TV´s der ersten Generation.
Und Das schon seit 2016/17.
 
Die Créme de la Créme an Entwickler. Wie zb die von Naughty Dog, Rockstar, Japan Studio, Gurriala Games u.v.m werden FidelityFx Super Resolution lieben und in ihre Engines einbauen. Sie werden es auch sein die das Feature voranbringen werden. Da mache ich mir keine Gedanken. Amd hat hier den Grundstein gelegt, und die Weiterentwicklung sowie Optimierung den Studios überlassen.

Man stelle sich vor was man auf Konsolen damit erreichen kann. Sowas in der Art gibt es ja auf Konsole viel länger. Es nennt sich Checkerboard Rendering. 4k 60 und Raytracing halte ich mit FidelityFx Super Resolution auf Konsole realistisch.
 
Zuletzt bearbeitet :
Wäre die Frage was in RE-Village als Interlaced verkauft wird.

Ist Das Checkerboard oder doch nur konventionell Halbbild?
Leider, nach m.E. zusammen mit VRS, rel. schlechtes AA. (flimmert mehr an den golden Rahmen der Wandvertäfelung)

btw.
Zwecks 4k-HDR wäre auch mal ein MEA-Benchmark mit Half16=ON interessant mit den neuen Grakas.
Das schaffte damals im PromoVideo nur ein fettes SLi-System.
(auf VegaCf liefs auch gut)
Natürlich könnte man auch Godfall und ME Enhanced Edition mit HDR benchen, da anscheinend auch FP16 genutzt wird.
(bei ME leider net erklärt bei CB im Review, Was genau mit FP16 beschleunigt wird)
 
Zuletzt bearbeitet :
Oben Unten