News AMD stellt den Radeon Adrenalin 2020 21.6.1 Treiber mit FSR ‘FidelityFX Super Resolution’ Unterstützung in ausgewählten Spielen online

Habt ihr eine Idee, warum nicht noch Karten wie die R9 200 Serie oder die HD 7000 Serie (natürlich nur die, welche GCN haben und somit DirectX 12 supporten) unterstützt werden? Das Gleiche gilt für Maxwell und eventuell noch Kepler (Bei Letzterem funkts ja nur halbwegs, wenn ich richtig informiert bin).
 
Verstehe nicht so recht wie das mehr FPS als Nativ produziert, wenn doch irgendwie mehr Rechenleistung und mehr aufwand, anläuft?

Ist das Bild dann nun schlechter oder besser mit FSR?

Habe ja ein 4K und nutze den auch nur Nativ, also wenn ich nun FSR zuschalte bekomme ich mehr FPS und es sieht besser aus, obwohl mehr zu tun ist, kapier ich nicht?

Meine Vega wird ja auch unterstützt...
 
@LeovonBastler: Ohne explizite Details schwer zu beantworten. Bei PCGH ist zumindest die Notwendigkeit für eine FP16-Unterstützung zu lesen. Beispielsweise nVidia führte FP16 weitestgehend mit Pascal ein (auch wenn es auch ein paar Maxwell-Ableger mit FP16 gab, so den Jetson TX1).
Absehbar wird hier Half-Precision aus Performancegründen gewählt.

Ergänzend vielleicht noch: Die FP16-Performance von Pascal war noch vergleichsweise gering, da diese hier weitestgehend zu Kompatibilitätszwecken implementiert war. Erst ab Turing gibt es einen vollumfänglichen und doppelt so hohen FP16-Durchsatz i. V. z. FP32.
Beispielsweise AMDs Vega10 dagegen dürfte schon mit einem 1:2-Durchsatz unterwegs sein.

@rockys82: Für die GPU ist es ein beträchtlicher Unterschied, ob bspw. 8 MPixel oder bspw. nur 5 MPixel pro Frame gerendert werden müssen, noch dazu, da typischerweise nicht nur einfache Texturen gemappt werden, sondern komplexe Shaderprogramme pro Pixel die Objektoberfläche berechnen müssen. Die Einsparungen durch die Verringerung der nativen Renderauflösung überwiegen deutlich den zusätzlichen Rechenaufwand für das Upscaling und dadurch können mehr Fps generiert werden, auch wenn am Ende beispielsweise in beiden Fällen 4K ausgegeben wird.
Btw., ist ja nichts anderes, als wenn du einfach nativ in WQHD renderst und deinen 4K-Monitor das Upscaling übernehmen lässt. Damit erzielst du gleichermaßen auch mehr Fps (theoretisch gar noch minimal mehr). FSR wird jedoch eine höhere Bildqualität erzielen (zumindest wenn du nicht gerade den Performance-Mode wählst ;-)).
 
Zuletzt bearbeitet :
Nun, die großen Outlets haben ihre Reviews draussen.

In der Summe recht ordentlich, insofern man >=WQHD unterwegs ist und nicht auf Balanced oder niedriger geht.

Quality kann auf WQHD schon grenzwertig werden.

Upscaling sollte man wohl vermeiden ;)
 
Solch unsinnige Themen versuche ich grundsätzlich zu umschiffen, inbesondere in einem Technikforum, denn die sind genau so schwer oder problematisch zu diskutieren wie bspw. religiöse Themen ... und im Kontext hochkomplexer Halbleiter- und Softwaretechnik erscheint mir das zudem reichlich absurd.
In meinem Post ging es ausschließlich darum, dass man derartigen Großkonzernen solche Atribute wie "fair" u. ä. zuzuschreiben versucht, nur das ist zweifellos unzutreffend denn AMD ist keinen Deut fairer als nVidia, Intel oder Apple und übrigens natürlicherweise auch ebeso gierig wie diese. Dass sich deren effektiv wirkendes Verhalten nach Außen hin zuweilen anders darstellt, hat schlicht markttechnische Gründe und dass es AMD auch anders kann, haben sie ja schon vielfach unter Beweis gestellt, auch wenn hier das Kurzzeitgedächnis den "Betroffenen" eher schnell zur Hilfe eilt und den einen oder anderen Sachverhalt kurzerhand durchs Raster fallen lässt. ;-)

Dass es nun was von denen gibt, ist zweifellos zu begrüßen, inbesondere für deren Kunden, wobei die hier schon wieder spät dran sind und das ist natürlich ebenso keine "Nettigkeit", denn die darauf angesetzten Ressourcen hätte sich das kleinere AMD zweifellos auch gerne erspart, nur zwang der Markt AMD hier in diesem Bereich zu investieren, da diese Techniken einen signifikanten Mehrwert zu generieren vermögen und ohne diesen oder ein vergleichbares Äquivalent würde selbst gleichwertige AMD-Hardware mit einem handfesten Nachteil im Markt auftreten müssen und die haben es auch so schon schwer genug gegen nVidia zu bestehen, d. h. es führte schlicht kein Weg daran vorbei hier mit etwas Vergleichbarem aufzuwarten, auch wenn man letzten Endes voraussichtlich nicht vollends gegenhalten kann.


Vielleicht haben die eher Angst vor deiner zuweilen recht unverblümten Art?
Beispielsweise PCGH hat zwar ein recht eindeutiges Schlussfazit gezogen, am Ende aber dennoch eine Zweig für AMD gebrochen und das etwas relativiert und quasi sinngemäß erklärt, dass AMD mit FSR ja gar nicht angetreten ist, um ein vollwertiger DLSS-Ersatz zu sein. Nein, natürlich nicht, selbst die eingefleischtesten AMD-Jünger werden sich hier nur zweite Wahl erhofft haben und ja niemals im Traum daran gedacht oder gar spekuliert haben, dass man nVidia vielleicht gar noch übertreffen könnte. Schlussendlich, wie man vielleicht schon herausliest, scheint mir, dass sich da wer reichlich Mühe gegeben hat, das abschließende Fazit nicht ganz so eindeutig dastehen zu lassen. Unterm Strich scheint es mir eher so, dass FSR DLSS nicht das Wasser reichen kann. Für AMD'ler ist das kein Beinbruch, da die Wahl zwischen Nichts und zumindest etwas Brauchbarem nicht schwer fällt, aber ... ;-)
Ich finde es total spannend. Du schreibs im ersten Abschnitt das du solche Themen zu umschiffen versuchst, sprichst aber im dritten von eingefleichten AMD Jüngern. :cool:

Selbst ich muss gestehen, das ich eine lange Zeit AMD unterm Strich für das anständigere Unternehmen (im Vergleich zu Intel und NVDIA) hielt. Aber meine Erfarungen mit dem Threadripper Sockel (mittlerweile ist die dritte Version draußen) sowie der Einführung der 6000er Serie haben mich eines besseren belehrt. Erst eine Rießenwelle, dann das Eingeständnis der RT Schwäche. Bei Einführung der 480er lief das ähnlich. Erst die backen gebläht bis zum Anschlag und dann wollte man plötzlich nur die beste Karte für FD produzieren. Auch anfangs der Versuch die maximale Leistung der 6000er Serie an ein Board der 500er Serie zu binden, hatte für mich einen faden Beigeschmack.

Das Intel und NVIDIA versuchen einem den letzten Euro aus der Tasche zu ziehen, war ja bekannt. Aber in der Form von AMD für mich neu.

Dieses beginnende FSR Desaster war aus meiner Sicht vorhersehbar. DLSS konnte anfangs selbst mit den Tensorkernen nichts. Aber kann eine Softwarelösung besser sein, als eine Kombi aus Soft+Hardware? Mal schauen wie sich FSR entwickelt. Es bleibt zu hoffen, das FSR zumindet die Qualität und die Leistungsfähigkeit entwickelt die man mit der 2000er Serie hat.
 
@LeovonBastler: Ohne explizite Details schwer zu beantworten. Bei PCGH ist zumindest die Notwendigkeit für eine FP16-Unterstützung zu lesen. Beispielsweise nVidia führte FP16 weitestgehend mit Pascal ein (auch wenn es auch ein paar Maxwell-Ableger mit FP16 gab, so den Jetson TX1).
Absehbar wird hier Half-Precision aus Performancegründen gewählt.

Ergänzend vielleicht noch: Die FP16-Performance von Pascal war noch vergleichsweise gering, da diese hier weitestgehend zu Kompatibilitätszwecken implementiert war. Erst ab Turing gibt es einen vollumfänglichen und doppelt so hohen FP16-Durchsatz i. V. z. FP32.
Beispielsweise AMDs Vega10 dagegen dürfte schon mit einem 1:2-Durchsatz unterwegs sein.
Ah, gut zu wissen, dass eine FP16-Unterstützung notwendig ist. Mich wundert es dann allerdings, warum es bei Pascal trotz schlechterer Leistung so gut funktioniert.
Beantwortet für mich auch nicht, warum die älteren GCN-Karten nicht unterstützt werden, da diese FP32 unterstützen, wenn auch nicht mit 1:2 (ist nämlich erst ab GCN 4.0 drinnen) sondern 1:1. Wenn allerdings es schon mit 32:1 bei Pascal funkt, warum nicht bei den älteren GCN Karten?

Danke auf jeden Fall für die Info!

Zitat @Moeppel (Hab's nicht geschafft nativ das Zitat nachträglich einzubinden)
Nun, die großen Outlets haben ihre Reviews draussen.

In der Summe recht ordentlich, insofern man >=WQHD unterwegs ist und nicht auf Balanced oder niedriger geht.

Quality kann auf WQHD schon grenzwertig werden.

Upscaling sollte man wohl vermeiden
Ich denke nicht, dass es die ganze Geschichte ist. Bei einer GTX 1050 wäre ich froh, wenn ich plötzlich in 1080p auf quality spielen kann, anstelle in 720p herumzudümpeln, gerade wenn ich 144+FPS haben will. Hatte die Situation bis vor 1. Jahr mit meiner R9 380.
 
Ich finde es total spannend. Du schreibs im ersten Abschnitt das du solche Themen zu umschiffen versuchst, sprichst aber im dritten von eingefleichten AMD Jüngern. :cool:

Selbst ich muss gestehen, das ich eine lange Zeit AMD unterm Strich für das anständigere Unternehmen (im Vergleich zu Intel und NVDIA) hielt. Aber meine Erfarungen mit dem Threadripper Sockel (mittlerweile ist die dritte Version draußen) sowie der Einführung der 6000er Serie haben mich eines besseren belehrt. Erst eine Rießenwelle, dann das Eingeständnis der RT Schwäche. Bei Einführung der 480er lief das ähnlich. Erst die backen gebläht bis zum Anschlag und dann wollte man plötzlich nur die beste Karte für FD produzieren. Auch anfangs der Versuch die maximale Leistung der 6000er Serie an ein Board der 500er Serie zu binden, hatte für mich einen faden Beigeschmack.

Das Intel und NVIDIA versuchen einem den letzten Euro aus der Tasche zu ziehen, war ja bekannt. Aber in der Form von AMD für mich neu.

Dieses beginnende FSR Desaster war aus meiner Sicht vorhersehbar. DLSS konnte anfangs selbst mit den Tensorkernen nichts. Aber kann eine Softwarelösung besser sein, als eine Kombi aus Soft+Hardware? Mal schauen wie sich FSR entwickelt. Es bleibt zu hoffen, das FSR zumindet die Qualität und die Leistungsfähigkeit entwickelt die man mit der 2000er Serie hat.
"Spannend" ist da wohl relativ. Das Problem ist, dass sich dieser spezielle Personenkreis in dem Kontext nicht sinnvoll heraushalten lässt, da der zumeist für eine völlig unrealisitsche Erwartungshaltung verantwortlich ist, was das eigene Lieblingsbrand wohl demnächst veröffentlichen wird und in dem Zuge reihum und unermüdlich davon spricht die Konkurrenz auszustechen, zu deklassieren, zu zerstören oder sonst was zu wollen, zumeist vollkommen ungeachtet der wirtschaftlichen oder technischen Möglichkeiten ... quasi ... the sky is the limit.
Das erschreckende ist nur, dass diese Personen mit ihren Vorhersagen ganz offensichtlich regelmäßig auf die Nase fallen (müssen), der Confirmation Bias ihnen aber anscheinend ein reflektiertes Auseinandersetzen damit verbietet, sodass es anscheinend niemals zu einer Überarbeitung und Neubewertung dieser Sichtweise und Bewertungsmechniken kommt und bei der nächstbesten Gelegenheit werden wieder aufs Neue vollkommen unhaltbare, unbegründete Spekulationen in den Raum gestellt.

Bzgl. "anständig" würde ich das an derartigen Details wie einem Threaripper-Sockel gar nicht festmachen wollen. Die Firmen sind in dem Rahmen anständig, wie es ihrem wirtschaftlichen Treiben zugute kommt, nicht mehr und nicht weniger. Das sind börsennotierte Großunternehmen, die auf eine Gewinnmaximierung aus sind, mehr nicht. Das Problem scheint mir vielmehr, das einige Personen nicht in der Lage sind zu unterscheiden zwischen den tatsächlichen Beweggründen, was eine Firma macht und den Auswirkungen, die das bspw. für mich als Konsument im konkreten Einzelfall hat. Beispielsweise AMD ist in 2017 im Consumer-Segment mit einem Blick auf PC-Gamer aus rein wirtschaftlichen Erwägungen zurückgekommen (mit mehr Kernen und einen niedrigeren Preis) und Lisa Su wurde über 2 Jahre lang nicht müde fast jede Präsentation mit einem "we love gamers" einzuleiten. Das ist am Ende das gleiche Marketing, wie es auch alle anderen großen Firmen anwenden, hier nur mit einigen anderen Floskeln. AMD hatte überhaupt keine andere Möglichkeit anders in den Markt zurück zu kommen, aber naütrlich versucht man das nach außen hin natürlich ins bestmögliche Licht zu stellen und der aktuellen Zielgruppe so zu verkaufen bzw. das Gefühl zu geben, als wenn die das einzige wäre, das zählt. Verhalten wir uns im Privatleben nicht im Allgemeinen ähnlich? ;-)

Und Intel, nVidia und alle anderen versuchen da nichts einem aus der Tasche zu ziehen. Die legen einfach einen Preis fest, von dem sie wissen, dass ihnen der Markt diesen zugesteht und entsprechend verdienen die auch. Zum "aus der Tasche ziehen", gehören am Ende (bis auf wenige Ausnahmesituationen) immer noch zwei. ;-)
AMD hat Anfang 2020 den Markanalysten explizit erklärt (nach einer anfänglichen Etablierungsphase), dass man die Marge nun sukzessive steigern werde und nichts anders werden die auch machen, denn die schauen natürlich auf Firmen wie Intel, nVidia & Co und sagen sich "da wollen wir auch hin". Die nehmen aktuell nur so (relativ gesehen) niedrige Preise, weil der Markt sie dazu zwingt, den andernfalls wären ihre Umsatzzahlen und Gewinne an Marktanteilen gefährdet. Und entsprechend konnte man Ende letzten Jahres und jetzt mit der umfangreich aktualisierten Produktpalette auch beobachten, wie AMDs Produkte nahezu über alles durch die Bank weg teuerer wurden (Basispreise wohlgemerkt, ich rede hier nicht von den zusätzlichen Aufschlägen aufgrund von Lieferschwierigkeiten, etc.). Selbstredend können die nicht über Nacht +60 % aufschlagen, aber sie haben durchgehend bei allem den Preis angehoben und das wird sich mit einer weiteren Etablierung und gefestigten Marktmacht auch bei denen fortsetzen. Das ist schlichtes wirtschaftliches Gebaren, nichts ungewöhnliches oder gar überraschendes.

Btw., welches "FSR Desaster"? Es war von vorne herein anzunehmen, dass die Wahrscheinlichkeit gering ist, dass AMD aus dem Stegreif nVidias Technik vollends erreichen oder gar überbieten kann. Dafür hat der Marktführer zu viele Ressourcen und zu viel KnowHow und hinzu kommt noch, dass AMDs Technik zwangsweise einfacher gestrickt sein muss, weil man hier weniger Hardwareressourcen zur Verfügung hat und zudem auch noch die leistungsschwächeren Konsolen (PS5 und Xbox Series X) hier explizit unterstützt werden sollen. Das schränkte AMDs Möglichkeiten zusätzlich ein. Am Ende haben sie genau das geliefert, was ich auch so in etwa erwartet habe. Sie kommen qualitativ nicht ganz an DLSS 2.x heran, sind aber auch nicht allzu weit davon entfernt, wobei letzteres jedoch quasi auch schon fast einer Art Gesetzmäßigkeit gleichkommt, denn in diesem Fall als deutlich verspäteter Nachzüglicher und dann auch noch mit einer gar deutlich schlechteren Technik den Markt zu betreten, verbietet sich quasi schon von selbst.

Am Ende ist es ja auch nicht so, als wenn die Bemühungen umsonst waren. DLSS bleibt zwar vorerst das Maß aller Dinge (jedoch auch nur, wenn man eine RTX-GPU hat oder sich zu kaufen gedenkt) und der Rest wird unzweifelhaft auch einen Mehrwert durch die höheren FSR-Modi mitnehmen können. Zudem kommen hier nun auch grundsätzlich viele Alt-GPU-Besitzer in den Genuss einer modernen Upscale-Technik.

*) Und auch hier wieder eine Demonstration von Marktmacht und -druck: nVidia hat es zurzeit schlicht nicht nötig sein DLSS allgemein freizugeben, denn das könnten sie durchaus, weil die Tensor Cores nicht zwingend dafür notwendig sind (die beschleunigen lediglich einen Teil der Berechnungen). Und solange dieser Druck nicht existiert, ist es für die auch vollkommen legitm die Technik als zusätzliches Vermarktungsinstrument zu nutzen. Das ist nun einmal das Privilieg des Marktführers, der über ein besonderes Feature als Alleinstellungsmerkmal verfügt. Mit Gut und Böse hat derartiges Marktverhalten jedoch nichts zu tun. ;-)
Und genau die gleiche Marktsituation hat in umgekehrter Weise dazu geführt, dass AMD kein wirklich anderer Weg blieb, als ihre Alternativtechnik als eine Art "freien Standard" zu veröffentlichen. Auch das hat nichts mit gut, fair, lieb, pro-gamer, etc. zu tun, sondern ist schlicht das Resultat wirkender Marktmechaniken. Als proprietäres AMD-Gegenstück wäre FSR weitestgehend ein reines Konsolen-Feature geblieben, denn auf dem PC ist die Verbreitung von AMD-Hardware viel zu gering und das hätte wiederum der Konkurrenz in die Hände gespielt.
 
Zuletzt bearbeitet :
Ich meine das wenn ich bei Nativ, also 4k bleibe und FSR noch zuschalte, so lese ich raus mehr FPS und Bildquail zu bekommen... aber das ergibt rein logisch doch überhaupt keinen Sinn?
 
Ich meine das wenn ich bei Nativ, also 4k bleibe und FSR noch zuschalte, so lese ich raus mehr FPS und Bildquail zu bekommen... aber das ergibt rein logisch doch überhaupt keinen Sinn?
FSR rendert in einer geringeren Auflösung und skaliert dann (mit neuem Algorithmus) hoch. Warum sollte da kein Performance-Zuwachs kommen?
Wenn du FSR anmachst, dann spielst du nicht mehr nativ, per Definition.
 
AMD hat mich diesmal auch nicht in denn Vorabtests drin, man hätte zu wenige Slots. Nun ja, das muss man erst mal glauben :D
Auf einigen Seiten, die dabei sind, waren unlängst bezahlte AMD-Artikel drauf. Solche Zufälle sind auch so eine Sache für das Gewissen.
Die Methodik kennen wir ja von Nvidia zu Genüge und das Saubermannimage hat AMD nie geholfen. Es interessiert schlicht niemanden. Bezahlte AMD Titel? liest das Marketing sicher ungern. Dann sorgst du in gewisser Weise selbst dafür, dass du im ersten Slot nicht dabei bist.

Andersherum gäbe es ja zu Hauf bezahlte Nvidia Titel. Liest sich für mich zu sehr nach Krimi, auch wenn jeder Artikel zählt, für den Autor und sein Portal als Sprachrohr gleichermaßen wie für den Hersteller. Imo passt so eine frustrierend wirkende Aussage nicht zu Igorslab und liest sich herstellerlastig.
 
Zuletzt bearbeitet von einem Moderator :
Um den Support muss sich Nvidia allein kümmern, ob sie das wollen, ist wieder eine ganz andere Frage. AMDs FSR ist vor allem ein spatiales Upscaling auf Basis von Microsofts Superresolutionssupport.

Nvidia setzt eher auf intelligentes TAA und da gibt es Unterschiede in der Bildrekonstruktion. Der Bench auf der 1060 ist für mich nichts weiter als zu zeigen, dass es auf Mitbewerberhardware lauffähig ist, ob gut oder schlecht ist sicher nicht AMDs Baustelle und damit nicht closed oder Blackbox. Um mehr ging es dem Marketing nicht.

Es wäre für AMD sicher sehr schwierig Nvidias Treiber dahingehend zu optimieren, zumal es nicht erlaubt ist.
 
Zuletzt bearbeitet von einem Moderator :
Die Methodik kennen wir ja von Nvidia zu Genüge und das Saubermannimage hat AMD nie geholfen. Es interessiert schlicht niemanden. Bezahlte AMD Titel? liest das Marketing sicher ungern. Dann sorgst du in gewisser Weise selbst dafür, dass du im ersten Slot nicht dabei bist.

Andersherum gäbe es ja zu Hauf bezahlte Nvidia Titel. Liest sich für mich zu sehr nach Krimi, auch wenn jeder Artikel zählt, für den Autor und sein Portal als Sprachrohr gleichermaßen wie für den Hersteller. Imo passt so eine frustrierend wirkende Aussage nicht zu Igorslab und liest sich schwer herstellerlastig.
So liest das jeder anders. Ich fand die ganzen AMD Grafikkartentests ohne RT und DLSS eindeutig viel Herstellerlastiger. Und ehrlich, lieber im ersten Test nicht dabei sein, als zu Kreuze vor dem Marketing zu kriechen. Der Test von Igor wird kommen. Ich freu mich drauf.
 
Das war kein Vorwurf, ich teile nur mit wie man es "verstehen" kann. Das Igor für AMD auch mal die eine oder andere Lanze gebrochen hat, kann man hier nachlesen.
 
Ich meine das wenn ich bei Nativ, also 4k bleibe und FSR noch zuschalte, so lese ich raus mehr FPS und Bildquail zu bekommen... aber das ergibt rein logisch doch überhaupt keinen Sinn?
Nein, FSR reduziert die Render-Auflösung und skaliert sie hoch.

Dadurch erhälst du im besten Fall ~30% mehr Performance (Ultra Quality @ 4K) bei gleicher oder (idealerweise nicht wahrnehmbarer) leicht schlechter Bildqualität.

Umso niedriger deine Native Auflösung ist, desto schlechter ist FSR, weil der Pixelbrei deutlich mehr hervorsticht.

Kategorisch sollte nativ stets besser als FSR sein, wenn es um Qualität geht.

Mit genug Pixelüberschuss (4K) bietet sich die Mitnahme der Extraperformance aber durchaus an, sofern man bestimmte FPS thresholds halten will.

Kategorisch weisen die Tests im Grunde folgendes Regelwerk auf:

4K: Nativ, Ultra oder Quality Preset

WQHD (2560x1440): Nativ, oder Ultra

FullHD: Lieber ganz auslassen, oder in WQHD rendern bzw. andere Settings runterschrauben.

Upscaling einer niedrigeren Auflösung: Finger weg.
 
Zuletzt bearbeitet :
Habt ihr eine Idee, warum nicht noch Karten wie die R9 200 Serie oder die HD 7000 Serie (natürlich nur die, welche GCN haben und somit DirectX 12 supporten) unterstützt werden? Das Gleiche gilt für Maxwell und eventuell noch Kepler (Bei Letzterem funkts ja nur halbwegs, wenn ich richtig informiert bin).
Ja, es bleibt Deep Learning und muss unterstützt werden. Würde behauten es scheitert schlichtweg am Shaderprotokoll. Die Learning base methods sowie Subset characteristics müssen unterstützt werden. Der Groundtrue liese sich auch bilinear ausgeben, was dem gewünschten Scalingfaktor aber nicht entsprechen würde.
 
Immerhin hat Igor trotz alledem eine News heraus gebracht, GameStar war da wohl bockig, nicht ein Piep xD

Im Endeffekt ist FSR also genau so gekommen, wie ich es geahnt habe, mehr FPS ja, aber durch Einbußen der Bildqualität. Und Cyberpunk 2077 ist nicht mit dabei, nicht einmal CDPR als Ganzes, dabei hätte das Spiel es definitiv nötig. Behelfsmäßig kann man immerhin FX CAS auf 75% stellen und im Treiber Image Sharpening aktivieren, bringt auch FPS und die Bildqualität leidet nicht allzu sehr. Hätte es gern gegen FSR Ultra Quality gegen getestet, aber da das Spiel FSR nicht unterstützt...

Von den Spielen zu Release und die kommenden habe ich eh keins, Terminator Resistance wollte ich mir mal holen, aber konnte mich bisher nicht dazu durchringen, die Anno Reihe hat mich zwischendurch auch irgendwo verloren. Far Cry 6 kommt irgendwann, aber zu release werde ich mir das wohl auch nicht gönnen. Tjoa, für mich also nicht so viel dabei.
 
Ich finde nicht schlecht ein Bild statt in 2k dann in 5k ausgeben zu können. DLSS ist auch nicht der heilige Gral. Letztlich nur weil es RT beschleunigen muss, da geht es FSR nicht anders.

In Cyberpunk ohne RT kann eine 6000 auch mal vorne liegen.

Vor allem ist es Konsolen geeignet (Xbox lässt grüßen) und lässt sich deutlich einfacher implementieren, ist dabei open source. Die Chance ist groß das FSR mehr erreicht als DLSS, zumal du für hohe Qualität zwingend Tensor brauchst.
 
Zuletzt bearbeitet von einem Moderator :
Die Methodik kennen wir ja von Nvidia zu Genüge und das Saubermannimage hat AMD nie geholfen. [...]
Welches Saubermannimage ... das existiert bestenfalls in den Köpfen einiger Fans, darüber hinaus gibt es keinen nennenswerten Unterschied. AMD kauft sich genau so Titel wie nVidia auch. Die haben bestenfalls ein kleineres Budget dafür und dementsprechend können die nicht mit ganz so viel auf der Liste aufwarten, ist aber ansonsten die exakt gleiche Mechanik. Und ja, derartig schräg, maulkorbähnliches Verhalten kennt man auch tatsächlich von AMD, die mal bspw. einem Medienvertreter vor einigen Jahren unmittelbar vor einem bevorstehenden GPU-Launch unangekündigt die Hardware verweigert haben, weil dessen AMD-kritische Untertöne nicht gewollt waren.
Und nein, das kann man von dir nicht als Erklärungsansatz verstehen. Das wäre bestenfalls ein Beleg dafür, dass es keinen relevanten Unterschied zwischen AMD und nVidia gibt und der letzten Endes nur in den Köpfen der Fanbase existiert, die sich ihr jeweiliges Lieblingsbrand schönzureden versuchen.

Du bist übrigens der erste, der meint interne Details zur Arbeitsweise von FSR zu kennen. Irgendwo anders konnte ich derartiges bisher nicht nachlesen. Hast du hier einen Link, der das erläutert bzw. untermauert?

Zudem ist es reichlich absurd in den Raum zu stellen, dass AMD was an nVidia's Treiber optimeren soll, könnte und/oder nicht darf, denn das entlastet nicht AMD und ändert nichts am Sachverhalt, zudem überhaupt die Frage ist, ob hier der Treiber von nVidia eine Rolle spielt, denn FSR ist in erster Linie schlicht über die Shader implementiert und kann daher als reines Shaderprogramm prozessiert werden.
Bei dem, was auf der GTX 1060 zu sehen war, bleibt erst mal zu vermuten, dass das auf einer AMD-Karte in keinerster Weise anders aussehen wird und wenn doch, dann hätte AMD gut daran getan, das nicht als Quality-Mode sondern als irgend einen niedrigeren Mode zu betiteln. So war das schlicht eine schwache Demonstration bzgl. der Fähigkeiten von FSR (und weniger was, was man in irgend einer Art nVidia anlasten könnte).

So wie sich das aktuell darstellt, sind im Wesentlichen die obersten beiden Modi brauchbar und danach wird es schnell Pixelbrei.
Und nein, DLSS ist sicherlich nicht der heilige Gral, das würde sich so manch spezieller Personenkreis auch verbitten, aber nach aktuellem Stand ist DLSS anscheinend im Bereich Upscaling-Technik derzeit schlicht immer noch das Maß aller Dinge.

Und noch mal, da das eine gern zitierte Fehlannahme ist: DLSS hat grundsätzlich nichts mit Raytracing zu tun. Mit welchen konkreten Rendertechniken das Bild erstellt wurde, spielt für DLSS keine Rolle. Die Kombination Raytracing zzgl. DLSS bietet sich nur in besonderem Maße an weil Raytracing das grundlegende Problem der zu knappen Rechenleistung noch einmal verschärft, jedoch lässt sich dieses auch durchaus leicht mit überzogen hohen Grafiksettings ohne Raytracing erreichen.
AMD braucht FSR per se mehr, weil sich eine derartige Technik über die Jahre zu einer wichtigen "Tuningmöglichkeit" gemausert hat, die mehr visuelle Qualität bei gegebener Hardwareleistung ermöglicht und bei AMD hakt es mit RDNA2 sowohl bei 4K als auch oder gar insbesondere in Verbindung mit Raytracing, d. h. es geht für AMD nicht nur darum einen softwaretechnischen Rückstand auszugleichen, sondern auch darum die Software zu verwenden, um noch einige Schwächen der Hardware zu kaschieren.
Und dann noch abschließend zu Fehlannahme Nr. 2: Die Tensor Cores für die Implementation eines Inferencings sind ebensowenig eine zwingende Voraussetzung. Mit denen geht es einfach nur ein wenig schneller. Eine erste Vorab-Implementation von DLSS 2 war komplett über die Shader implementiert und dass sich nVidia nun dazu entschlossen hat die Technik ausschließlich via Tensor Cores zu realisieren, hat vornehmlich andere Gründe.

*) Nettes Marketing-BSBingo von AMD in dem Kontext zu lesen bei THW: "AMD also notes that over 45 games now have one or more FidelityFX elements enabled. That's slightly behind the more than 55 games that now come with DLSS, and of course, many of the games with FidelityFX aren't using FSR right now." - Da bekommt man einen Äpfel-und-Birnen-Vergleich gleich frei Haus von AMD mitgeliefert. ;-)
 
Das ist ja dein Problem, du schreibst viel ohne etwas wesentliches auszusagen. Hast du eigentlich auch eine eigene Meinung? Was auf den Werbefolien steht kann ich allein lesen.

Die Redaktionen sind eher überrascht wie FSR aussehen kann, dass was man auf einer 1060 zeigte war eher Absicht (ist zu vermuten). Es hat keine eigene temporale Komponente und muss auf die im Spiel implementierte setzen, während Nvidia die temporale Komponente durch DLSS ersetzt. Das wird der einzige Vorteil bleiben, wobei man aber Tensor braucht.

Auf den Rest, was AMD alles braucht und was nicht, antworte ich erst gar nicht und wer sich im Devblog mit Superresolution beschäftigt hat weiß wie es funktioniert. Das gabs seit 2019 schon zu bestaunen, ganz ohne Tensor. Nur interessiert das die meisten Gamerredaktionen nicht. AMD deutete aber an das machine learning auch für die wichtig ist und sie kamen sogar eher damit als Nvidia (jedenfalls was die Fähigkeit auf Gamerhardware anging).

Sie berechnen nichts ausschließlich über die Tensorcores, sie brauchen sie für ein höheres Qualitätsniveau inklusive des temporalen Feedbacks.

Der Nachteil an DLSS höherer Versionen ist, das Alte nicht nachgepatcht werden können, weil sie auf ein anderes Inferenzmodell setzen (das muss kein ausgeprägt kognitives sein). Oder Nvidia inklusive Spieleentwickler implementiert es neu (was man kaum glauben kann). Immer dann ist das Development Kit nicht abwärtskompatibel. Denke mal solcherlei Probleme hat AMD nicht.

Bekannt ist das Microsoft auf der Siggraph 2019 ein Modell mit 4 Stufen vorstellte und AMD heute genau damit kommt. Wäre schon komisch wenn es sich nicht gleichen sollte. Das ist ja jeweils auf und ab kompatibel (SR->HR und andersherum). Vor allem 4K FSR ist eine Option und die Konsolen dürften 2.954 x 1.662 oder 2.560 x 1.440 schaffen. Die Skalieren das Bild auf Flat's schon ewig und es stört sie nicht.

DLSS ohne RT war für Nvidia erst wichtig, als bekannt wurde wie schnell die 6000 Serie wird und das sie mit was ähnlichem kommen. Zu aller erst hat es den Impact abgefangen den RT mitbrachte und Nvidia bleibt bis heute den Modi schuldig, der höher als nativ oder besser aussehend als nativ rendert. Es hat vor allem ein Problem, wenn ein Bild viele Fehler enthält, enthält sie auch DLSS und verstärkt sie noch. Wie sollte das auch anders gehen wenn ich Bildvorlagen vergleiche?
 
Zuletzt bearbeitet von einem Moderator :
Dadurch erhälst du im besten Fall ~30% mehr Performance (Ultra Quality @ 4K) bei gleicher oder (idealerweise nicht wahrnehmbarer) leicht schlechter Bildqualität.
Probier mal die Kingshunt beta auf Steam aus. Bei 2160p sind die Unterschiede minimal, aber die Framerates machen schon einen guten Sprung nach oben. 2160p Balanced oder Performance wäre da auf einer 5700XT sowohl optisch als auch von der Framerate her gut spielbar, nativ nicht. Da hat die Beta sonst weitaus auffallendere grafische Probleme unabhängig von FSR. Für den Indie-dev ist es da sich sicher einfacher FSR anzubieten als in der Beta schon eine perfekte Optimierung herzuzaubern, nur hoffentlich passiert das dann auch noch.


Kingshunt ist aber nur ein zeitlich limitierter Playtest. Schade auch, dass "22 Racing Series" nicht öffentlich verfügbar zu sein scheint. Der Punkt, dass nicht alle für gestern angekündigten Spiele mit FSR auch erhältlich sind steht also weiterhin.
 
Zuletzt bearbeitet :
Oben Unten