AMDs FSR 3.0 emuliert: Frame Generation mit DLSS 3.0, FSR 2.1 und XeSS im Benchmark- und Qualitätsvergleich

Ohman.... das CPU Limit ist ja tragisch....
Ich hatte wirklich gehoft die zeiten der schlechten Konsolen Ports sind vorbei.
Feature mässig ist das spiel ja wirklich Top. Aber das die Engine in so ein Übles CPU Limit rennt hätte ich nicht gedacht.
Dabei hat CB die Tests ja auch schon so gemacht...
https://www.computerbase.de/2022-08/spider-man-remastered-pc-benchmark-test/4/



Ich wette wenn man da so ein 13900k an die Kotzgrenze für SingleCore übertaktet könnte man noch so einiges mehr rausholen.
1668293046201.png


@Igor Wallossek mit welchem Takt läuft denn der 12900k denn du benutzt hast? da steht im Text nur "Übertaktet"
Bestimmt es gibt da so eine einzige Einstellug wie Volumetric Fog oder irgend so nen physics ding das nur SingleThreaded programmiert wurde und alles in den Abrund reisst. Denn auch Computerbase hat mit "Max Details" gebencht.

Würde auch erklären wieso DLSS/FSR Ohne FrameGeneration so gut wie kein Leistungszuwachs bringt. Typisches CPU Limit halt.

Interessant wäre mal zu sehen wie sie das ganze mit Minimalen Details verhält. Ob man da in die FPS Limitierung der Engine rennt?

Aber sehr interessant zu sehen das die FrameGeneration zu lange dauert.
Wenn wir 124.9FPS haben, also ziemlich exakt 8ms zum rendern eines Bildes und mit FrameGeneration 167.6FPS also 5.966ms, aufgerundet 6ms, dann müsste im Frame Time Graph ja eigentlich immer zwischen 8 und 4 ms hin und her schwanken. (denn einmal 8 ms und einmal 4ms ergeben die mittel 6ms) (Was aber auch bedeuten würde das es nicht möglich ist mit FG über 250 FPS zu kommen, weil es 4ms dauert ein Bild zu berechnen. Alles über 250FPS würde Nativ schneller berechner als das zwischenbild fertig ist.)

Sieht man da aber leider nicht weil zu viele Balken drin sind.

Wäre es möglich diesen Graphen mit NUR Nativ FG on und off zu sehen? Wobei das maximal ein 10 sekunden ausschnitt sein sollte ja man ja bei 1670 Datenpunken auch noch unterschiede/ up and downs erkennen möchte.



Ob das auf Dauer so gesund ist, ich hätte da Probleme.
Mach dein Hobby zum Beruf und du musst keinen Tag im Leben Arbeiten.... sagt man so...

Ich träum davon, daß es bald Framegeneration für alle möglichen Sachen auf dem PC gibt. Wennn schon alles höher aufgelöst wird, sieht man ja alles stottern. Bei einem niedrig aufgelösten Video stotterts nicht so bei seitwärts gerichteten Kameraschwenks. Also wenn z.B. das Video oder der Film in der ursprünglichen Auflösung dargestellt wird.
Ähhh...
Bei Filmen wird alles in 24FPS aufgenommen und hinter Motion Blur versteckt. Zbsp der Hobbit gab es sogar in HFR 48 FPS. (Leider nie selber im Kino gesehen...) Aber zuhause gibt es seit Jahren software die für Videos Live Zwischenbilder berechnet... da ist eine Latenz von 1 Sekunde auch völlig irrelevant und es ist problemlos möglich korrekte zwischenbilder zu berechnen weil man das nächste ja bereits kennt!
 
Sa. Morgen um 5:30 Igor arbeitet schon wieder für uns. (y) Schöner Artikel bin echt mal gespannt wie sich Frame Generation entwickelt. Auf jeden fall ein netter ansatz bei dieser Technologie aber komplett abgeholt hat sich mich bisher nicht. Die Bildfehler die bei DLLS Frame Generation entstehen können wenn etwas für die KI unerwartetes geschieht sind dann doch noch etwas zu krass für mich.
Als HTPC Nutzer würde mich am meisten Zwischenbildberechnung für z.B Sportübertragungen interressieren. Mache TV's bieten soetwas ja schon, aber die leistungsfähigkeit einer aktullen Graka sollte das bei weiten übertreffen können
 
Das sieht ja alles ganz schick aus. Wenn ich aber die Games ansehe die ich spiele, hab ich meistens nur fsr 1.0 oder eben gö nix.
Finde ich wirklich schade weil die Software hier ordentlich FPS bringen bzw. Strom sparen könnte :(
 
Es scheint so als wäre FG ganz gut dazu geeignet CPU Limitierungen zu umgehen.
Aber sobald eine GPU Limitierung vorliegt scheint der Nutzen im höheren fps Bereich ziemlich schnell gegen 0 zu gehen.
Anscheinend hat FG hier einen ziemlich heftigen Performance Overhead und ich habe Bedenken, ob die kleineren Karten wie 4070 und darunter bei echten Spielen hier überhaupt genug Rohleistung haben werden, um FG sinnvoll zu nutzen.
Aber genau dafür ist doch FG da. FG gibt es ja auch z.B. auf Fernsehern und ist an sich ein "Post" Effekt den man anwendet. Auf dem PC bedeutet das, dass dieser Effekt - wenn Leistung auf der GPU kostet. Es "entlastet" die CPU weil die für die FG Bilder keinerlei Daten berechnen übermitteln muss..

Daher ja, wenn deine GPU am Limit ist und du dann FG zuschaltest - wird es mit der Mehrleistung tendenziell schlechter aussehen...
Wobei ich mich Frage ob da nicht auch programmiertechnisch noch was ging... Man könnte beim feststellen das die GPU im Limit ist ja diese einige native Frames weniger berechnen lassen dafür dann die FG Bilder erzeugen lassen - würde unterm Strich vermutlich mehr FPS bedeuten...
 
Als HTPC Nutzer würde mich am meisten Zwischenbildberechnung für z.B Sportübertragungen interressieren. Mache TV's bieten soetwas ja schon, aber die leistungsfähigkeit einer aktullen Graka sollte das bei weiten übertreffen können
Jeder moderne Fernseher heute macht das... Gut hilft dir für dein HTPC nix ;)
 
Aber genau dafür ist doch FG da. FG gibt es ja auch z.B. auf Fernsehern und ist an sich ein "Post" Effekt den man anwendet. Auf dem PC bedeutet das, dass dieser Effekt - wenn Leistung auf der GPU kostet. Es "entlastet" die CPU weil die für die FG Bilder keinerlei Daten berechnen übermitteln muss..

Daher ja, wenn deine GPU am Limit ist und du dann FG zuschaltest - wird es mit der Mehrleistung tendenziell schlechter aussehen...
Wobei ich mich Frage ob da nicht auch programmiertechnisch noch was ging... Man könnte beim feststellen das die GPU im Limit ist ja diese einige native Frames weniger berechnen lassen dafür dann die FG Bilder erzeugen lassen - würde unterm Strich vermutlich mehr FPS bedeuten...
Wäre nur der Performancegewinn sehr gering würde das ja nicht so weh tun.
Das Problem ist, dass immer wenn FG nicht annähernd 2x fps liefert der Input Lag in die Höhe schießen wird.
Gut mit Reflex verhindert man zumindest dass die CPU dann die Renderqueue anfüllt aber ich frage mich wie AMD mit dem Problem umgehen will.
 
Oben Unten