AMD zeigt mit eigenen Benchmarks, wie FSR 2 und Raytracing mit den Radeon RX 7900 RDNA 3 GPUs harmonieren (sollen).

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.839
Bewertungspunkte
8.909
Punkte
1
Standort
Redaktion
Im eigenen Blogbeitrag „Erleben Sie maximale Raytracing-Leistung mit AMD FSR 2 und der neuen AMD Radeon RX 7900 Series Grafikkarten“ präsentiert das rote Team die Vorteile, die sich durch die Aktivierung von FSR 2 in verschiedenen Raytracing-Spielen ergeben sollen. Dank der offenen Struktur und der nahtlosen Integration in Spiele-Engines wächst die Liste der FSR-kompatiblen Titel (den ganzen Artikel lesen...)
 
Aber die Welt wartet gespannt auf FSR 3.0! Ist es dann doch nicht der große Sprung? Will man vorabgreifen, dass die Bringschuld schon beglichen wurde?
 
Ich sage es mal so: Mit meiner 6900XT lief Hogwarts Legacy rund und sah dank FSR 2.0 richtig gut aus. Mit der 4080 RTX sieht es dank Raytracing nochmal deutlich besser aus (in Innenräumen fällt es krass auf), dafür gibts "nur" DLSS 2.0 und auch das kann - dank massiver Fehler - mit FSR nicht mithalten. Zum Glück bietet die 4080 ausreichend bums, denn ich rastere inzwischen wieder nativ.
Mal gucken, wie sich das in Guardians of the Galaxy auswirkt, das wartet auf den Test.
 
Ich nutze DLSS2 in jedem spiel das es hat. spart auch Strom und die 30 % nimm ich geren mit auch wenn es ohne reicht.

In RDR 2 ist es Grottig da bin ich auch Nativ aber da schaffe ich locker 60. :)

Fand das RT in Hogwarts nicht wirklich gut und schlecht implementiert. Auch Frame Genration mag da irgendiwe nicht so recht.

Aber ist das nicht ein wiederspruch? Maximale RT Performance gibts mit der 4090.:alien:
 
Aber die Welt wartet gespannt auf FSR 3.0! Ist es dann doch nicht der große Sprung? Will man vorabgreifen, dass die Bringschuld schon beglichen wurde?
Das Problem mit FSR3 ist die hohe Latenz (sieht man ja auch bei Nvidia). Viele sehen hohe FPS ja als Möglichkeit die Latzenz zu reduzieren, was die Frameverdopplung ja zunichte macht. Daher sind es technisch eigentlich zwei verschiedene Sachen FSR(1,2) und FSR3, die nur ähnlich heißen.
 
Das Problem mit FSR3 ist die hohe Latenz (sieht man ja auch bei Nvidia). Viele sehen hohe FPS ja als Möglichkeit die Latzenz zu reduzieren, was die Frameverdopplung ja zunichte macht. Daher sind es technisch eigentlich zwei verschiedene Sachen FSR(1,2) und FSR3, die nur ähnlich heißen.
FSR 3 exisitiert noch nicht also weißt du das nicht. DLSS3 im idealfall erhöht es die Latenz fast gar nicht. In Cyberpunk ist es eine Wucht doppelte Fps quasi ohne nachteile.
 
Das Problem mit FSR3 ist die hohe Latenz (sieht man ja auch bei Nvidia). Viele sehen hohe FPS ja als Möglichkeit die Latzenz zu reduzieren, was die Frameverdopplung ja zunichte macht. Daher sind es technisch eigentlich zwei verschiedene Sachen FSR(1,2) und FSR3, die nur ähnlich heißen.
Die Latenz bleibt doch gleich, nur die Anzahl der FPS ändert sich. Warum begreift das denn keiner?
Keines dieser KI-Zwischenbilder hat einen positiven oder negativen Einfluss auf die Latenz.
 
Ich dachte es gibt die Latenz der ursprungs fps an und man bekommt halt die smoothheit des Bildes das generiert wird?

40 in cyberpunk 75 mit FG sieht aus wie 75 fps aber fühlen sich an wie 40 grob gesagt? Hab ich den Raff falsch verstanden ^^
 
Die Latenz bleibt doch gleich, nur die Anzahl der FPS ändert sich. Warum begreift das denn keiner?
Keines dieser KI-Zwischenbilder hat einen positiven oder negativen Einfluss auf die Latenz.
Dann funktioniert FSR3 doch anders als DLSS3? Läßt sich wohl erst in der Praxis nachmessen und verifizieren.

Bei DLSS3 jedenfalls geht die Latenz noch höher als sonst (beispielsweise gemessen vom PCGH):
Die Bildraten liegen mit DLSS und ohne Frame Generation oft schon jenseits 100 Fps - und mit Frame Generation häufig um 130 bis über 150.
 
Ich dachte es gibt die Latenz der ursprungs fps an und man bekommt halt die smoothheit des Bildes das generiert wird?

40 in cyberpunk 75 mit FG sieht aus wie 75 fps aber fühlen sich an wie 40 grob gesagt? Hab ich den Raff falsch verstanden ^^
Fast. Die Generierung des DLSS Bildes braucht ja auch Zeit, also sind die Daten, welche in die Generierung des Bildes einfließen "älter" je mehr man mit denen rumrechnet - beim zeitlichen Interpolieren werden ja bewußt auch ältere Daten genutzt. So können Daten, welche zur Generierung des aktuell anzusehenden Bildes genutzt wurden schon einige Zeit alt sein (bei DLSS3 beispielsweise bis zu 150ms, gemessen von PCGH). So können auch Schlieren und Ghosting entstehen, da alte und neuere Daten gemischt sind. Bei nativen 40 fps wären es nur 25ms Latenz (1000ms/40) plus Overhead.
 
Fast. Die Generierung des DLSS Bildes braucht ja auch Zeit, also sind die Daten, welche in die Generierung des Bildes einfließen "älter" je mehr man mit denen rumrechnet - beim zeitlichen Interpolieren werden ja bewußt auch ältere Daten genutzt. So können Daten, welche zur Generierung des aktuell anzusehenden Bildes genutzt wurden schon einige Zeit alt sein (bei DLSS3 beispielsweise bis zu 150ms, gemessen von PCGH). So können auch Schlieren und Ghosting entstehen, da alte und neuere Daten gemischt sind. Bei nativen 40 fps wären es nur 25ms Latenz (1000ms/40) plus Overhead.
In Atomic Hearts bringt Fg mir nur 10% mehr FPS aber viel höheren input lag. Es ist auch denke ich die Implementierung beziehungsweise ist das spiel im Gpu Limit oder Cpu. FG brauchst eh nur bei RT anwendungen. DLSS reicht normal in 4k Locker. :) Aber so hütten wie Cyperpunk mit Rt braucht es definitiv. Das ist quasi das neue Crysis^^
 
FSR 3 exisitiert noch nicht also weißt du das nicht. DLSS3 im idealfall erhöht es die Latenz fast gar nicht. In Cyberpunk ist es eine Wucht doppelte Fps quasi ohne nachteile.
Laut Messungen der PCGH von DLSS2 zu DLSS3 um bis zu 50ms auf 150ms(!).
 
Laut Messungen der PCGH von DLSS2 zu DLSS3 um bis zu 50ms auf 150ms(!).
Merkst das? Ich finde ms angaben immer geil. Fast wie in Hifi Foren wo die Leute meinen sie hören besser als fledermäuse^^

Mit der Maus in Competetive spielen ja, sonst definitv nein und schon gar nicht an einem Controller :). Für mich ist es so.
 
Merkst das? Ich finde ms angaben immer geil. Fast wie in Hifi Foren wo die Leute meinen sie hören besser als fledermäuse^^

Mit der Maus in Competetive spielen ja, sonst definitv nein und schon gar nicht an einem Controller :). Für mich ist es so.
Manche Leute bestimmt - es merken ja auch einige Leute angeblich mehr als 60 fps. Ich spiele lieber nativ am PC, wenn man mit Maus spielt merkt man Latenz stärker als beim Controller imho.
 
dafür gibts "nur" DLSS 2.0 und auch das kann - dank massiver Fehler - mit FSR nicht mithalten.
Was für Fehler meinst du? Nur beim Übergang aus einem dunkleren Raum ins helle, sonnige Freie gibt es einen sichtbaren Übergang, wenn man schon rausgetreten ist, dauert es noch eine Sekunde, bis die Umgebung auch hell wird. Ansonsten läuft DLSS 2 gut.
 
Die Latenz bleibt doch gleich, nur die Anzahl der FPS ändert sich. Warum begreift das denn keiner?
Keines dieser KI-Zwischenbilder hat einen positiven oder negativen Einfluss auf die Latenz.
Ja, lass sie ruhig mal machen.

Ein Vorteil, wenn man älter wird. ;)

Was ist die Kompensation niedriger Bildraten?

Die Kompensation niedriger Bildraten (Low Framerate Compensation – LCF) macht es möglich, dass die FreeSync Technologie dann arbeitet, wenn die Bildrate unter die Mindestbildrate des Monitors fällt. Fällt die Bildrate unter die Mindestbildrate des Monitors, werden Bilder (Frames) dupliziert und mehrfach angezeigt, sodass sie der Bildrate angeglichen werden, die im Bereich des Monitors liegt. Wenn ein Monitor beispielsweise eine Aktualisierungsrate zwischen 60 und 144 Hz hat, könnten die Bilder in einem Spiel mit 40 Bildern pro Sekunde (BpS) verdoppelt werden. Sie werden dann mit 80 Hz dargestellt, sodass der Monitor synchronisieren kann. Ein Monitor mit LCF beseitigt im Endeffekt die Grenze der Mindest-Aktualisierungsrate. Alle Monitore der FreeSync Premium und FreeSync Premium Pro Reihen sind auf die Einhaltung der verpflichtenden LCF-Anforderungen zertifiziert.
ZURÜCK NACH OBEN
Source Code: https://www.amd.com/de/technologies/free-sync-faq
 
Man man man... Ich will FSR 3.0 sehen. Der Rest ist von Gestern...
 
Was für Fehler meinst du? Nur beim Übergang aus einem dunkleren Raum ins helle, sonnige Freie gibt es einen sichtbaren Übergang, wenn man schon rausgetreten ist, dauert es noch eine Sekunde, bis die Umgebung auch hell wird. Ansonsten läuft DLSS 2 gut.
Ich hab krasse Artefakte bei der Beleuchtung in Innenräumen. Da wird ausgeleuchtet, als ob es keine Wände gibt. Kann morgen mal nen Screenshot anhängen, bin heute nur noch am Handy…
 
Ich hab krasse Artefakte bei der Beleuchtung in Innenräumen. Da wird ausgeleuchtet, als ob es keine Wände gibt. Kann morgen mal nen Screenshot anhängen, bin heute nur noch am Handy…
HDR geht inzwischen bis 800 Lumen pro Square Meter.
HDR10+ bei 144Hz hat HDR1500, also knapp 2 mal soviel.

Die Neuen 2023 HDR10+ kommen auf HDR3000 und mehr.

Schon abgefahren, welche Leuchtkraft dahinter steckt.
 
Oben Unten