Gaming Picture Story Testberichte VGA

Days Gone – auch beim Zocken, leider. Ein richtig gutes Spiel, das von der Story lebt!

Über das Spiel ist viel geschrieben worden, da muss ich nicht noch einmal extrem weit ausholen. Und auch wenn es eigentlich ja ein Konsolen-Port ist, das Spiel bereits aus 2019 stammt und mal PS4 exklusiv war – der PC darf hier erneut zeigen, was er kann (und der Spieler umso mehr). Deacon St. John als Hauptfigur ist der sympathische Anti-Held der Spitzenklasse, immer einen dummen Spruch auf den Lippen, einen guten Freund im Schlepptau und jede Menge Zombies zum Schnetzeln. Klingt nach der üblichen Post-Apokalypse und ja, das ist es auch. Aber eben nicht nur.

Das übliche “Gehe dorthin”, “Mache dies und jenes” und “Bringe den oder jenen um und vor allem seinen Hut mit als Beweis” sind natürlich der übliche Quest-Füllstoff, der lange Spielzeiten garantiert, aber das stört hier gar nicht so sehr. Eine in sich sehr schlüssige Story, eine erträgliche und vor allem atmosphärisch überzeugende Grafik, recht wenige Fehler und viele nette Übergangszenen (die fast manchmal fast schon zu viel des Guten sind und sich nicht immer überspringen lassen), runden das sehr positive Bild ab. Ja, das kann man spielen und sollte es auch.

Ich habe mir das Spiel gekauft, obwohl eigentlich kaum Zeit für so einen doch sehr komplex gefüllten Titel ist, aber ich habe immer mal wieder eine Stunde gefunden, um weiterzusuchten. Ja, es macht fast schon süchtig und wer nicht wirklich einen starken Willen besitzt und weiß, wann ein Break nötig ist, der wird solange zocken, bis ihm die Augen zufallen. Das sehe ich mal als Kompliment und überlasse Euch den nächsten Seiten mit chronologisch erstellen UHD-Screenshots. Allerdings will ich ja auch nichts spoilern und habe dann an einer doch sehr wichtigen Stelle aufgehört. Zu Ende spielen sollte es wirklich jeder selbst. Viel Spaß bis nächste Woche, dann gibt es wieder Grafikhardware von Feinsten.

Lade neue Kommentare

John_Doe

Mitglied

10 Kommentare 2 Likes

Lieber Igor,

ich empfinde es ganz genauso...das Spiel bindet durch eine tolle Story und eine schöne Atmosphäre. Es macht viel Spaß und man will / kann nicht aufhören weil man "nur noch diese eine Mission" zu ende spielen möchte.

Es ist gespickt von tollen Videosequenzen und für mich zumindest, nicht übertrieben mit Schockerszenen....da bin ich dann wohl doch zu sehr Weichei für Resident Evil oder ähnliche Titel....

Auf der 6800XT sieht es super aus und läuft richtig gut. Manche User Meinungen von Ruckelorgien kann ich nicht bestätigen..

Ich bin mit der Story durch und mache nun die ganzen Nebenquests.....Jetzt hast Du mich natürlich auch noch neugierig gemacht auf das "Extra"

Klare Spielempfehlung meinerseits ! Hoffe auch auf ein Update bzw Nachfolger.

Momentan warte ich sehnsüchtig auf "The Day before"......erhoffe mir eine ähnliche Atmosphäre und viel Spielspaß mit Freunden...

Schönen Sonntag noch....

Gruß JohnDoe

Antwort 1 Like

Klicke zum Ausklappem
G
Guest

Warum auch nicht, eine UE4 Variante für die Konsole wird auf RDNA2 nicht schlechter laufen oder aussehen, eher besser. Vor allem ging es um einfache Iteration, viel Flexibilität, Generierung gewünschter Qualität und Portierung für Plattformen.

Siehe UE5 das nunmehr vermehrt auf Software Raytracing setzen wird und damit voll kompatibel zu RDNA2 ist.

Dedizierte Einheiten sind einfach nicht leistungsfähig genug und beschränken den Output auf 100.000 Instanzen pro Frame und das kostet damit einfach zu viel Leistung und Qualität. Was auch seit Jahren von einigen als Argument vorgehalten wurde, dass eben ein Fullsizeraytracing auf Basis dedizierter Einheiten lange, lange Zeit brauchen wird.

Epic ist (wenn auch nicht immer unumstritten) eine Entwicklerschmiede die sich dessen Erkenntnis bewusst ist. Auch wenn sie früher eher Nvidia lastig entwickelt haben, kann man das nur begrüßen. So gibt es auch Engine-Iterationen von denen RDNA2 profitiert, soweit Large World keine Rolle spielt ist es auch ausreichend und bringt RT für alle. Ansonsten unterstützen dedizierte Cores und das wird vorerst die Zukunft sein, egal was einige behaupten.

Ruckelorgien?, liegt oder kann an vielem mehr liegen, dass muss kein Problem der Hardware x oder z oder dessen Treiber sein. Eher passt das persönliche Preset nicht zur Hardware, oder diese nicht wirklich zusammen.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

Format©

5,777 Kommentare 8,953 Likes

Vorm ersten Patch haben ein paar Medien über unrunde Frame Times trotz hoher FPS geschrieben. Kann ich so leider nicht nachvollziehen.

Antwort Gefällt mir

g
gerTHW84

Veteran

377 Kommentare 226 Likes

@gastello: Ein zwei Anmerkungen:

a) RDNA2 ist grundsätzlich voll kompatibel; der SW-basierte Raytracing-Ansatz in der UE5 hat damit nichts zu tun.
b) Lumen verwendet diverse SW-basierte Techniken, so Screen (Space) Tracing und ein SW-Raytracing gegen Mesh Distant Fields oder für noch schnellere, noch ungenauere Ergebnisse gegen Global Distant Fields; die diversen, teilweise zusammenarbeitenden SW-Ansätze haben jedoch auch diverse Nachteile, so werden bspw. nur Static Meshes berücksichtigt und bspw. transparente Materialien bleiben ebenso unberücksichtigt.
c) Entsprechend verfügt Lumen ebenso über Hardware-Raytracing-Support und verwendet entsprechend dedizierte Hardwarefunktionalität, wenn die Szene es vorsieht. Beispielsweise an stark reflektierenden und insbesondere gekrümmten Flächen führt bei entsprechendem Qualitätsanspruch kein Weg an einem HW-Raytracing gegen das echte Mesh vorbei.

Der zweigleisige Ansatz, den Epic hier verfolgt ist im Wesentlichen der "beschränkten" Leistungsfähigkeit der NextGen- bzw. jetzt CurrentGen-Konsolen zuzuschreiben, die gerade mal über 36 bzw. 52 CUs verfügen (letztere bei deutlich niedrigerem Takt) und damit deutlich beschränkter sind, insbesondere wenn man bedenkt, dass in knapp über 12 Monaten bereits die nächste HW-Iteration vor der Tür steht, die zweifellos noch einmal eine gehörige Schippe drauflegen wird (und CPUs sind jetzt schon deutlich weiter).
Entsprechend stehen hier Minimalanforderungen für die Konsolen ganz oben auf der Prioritätsliste um eine NextGen-Grafik zu realisieren und das macht schlicht die Verwendung von vereinfachenden SW-Ansätzen erforderlich und intern ist das Target hier gar ein Rendern in 1080p mit einem implizit vorgesehenen Upscaling mittels des Engine-eigenen TSR auf 4K.
Die UE5 wird zweifelsfrei auch aktuelle und zukünftige Hardware(weiter)entwicklungen vollumfänglich nutzen, nur wird sich bei der Konsolenhardware in den nächsten Jahren nichts mehr ändern und dementsprechend muss man sehen, dass man das Bestmögliche dort herausholen kann und für einen umfangreich hardwarebasierten Ansatz reicht es auf der Hardware wohl bei Weitem nicht aus.

*) Nicht falsch verstehen: Die NextGen-Konsolen stellen leistungstechnisch einen beträchtlichen Sprung dar ... und vor allem sind sie eine unschlagbares Budget-Angebot. Ihr (technisches) Pech ist nur, dass die Entwicklung auf dem PC derzeit auch recht rasant verläuft. ;-)

**) Letzten Endes eine leicht nachvollziehbare Priorisierung von Epic, wenn man bedenkt, dass die LastGen sich am Ende rund 150 Mio. Mal verkauft hat, d. h. ein imenser Markt, den man selbstredend nicht ignorieren wird.

***) Beispielsweise dürfte es wohlkalkuliert sein, dass die "beiden" Demos zur UE5 in der Wüste spielen, denn Lumen hat zurzeit noch Probleme mit transparenten Materialien, die in den Distant Fields (softwarebasiert) als undurchlässige Materialien gehandhabt werden und daher mit Blick auf bspw. Vegitation zu extremen Überschattungen führen würden. Das dürfte wohl der Grund sein, warum man keinen dichten Wald oder einen Dschungel demonstrierte.

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Bevor du das nächste mal einen Roman verfasst, Lumen unterstützt Software- und Hardwareraytracing und das hat mit den Konsolen und RDNA2 gar nichts zu tun, vermutlich weil du mit dem Begriff Large Worlds nichts anfangen kannst. Der Softwarebasierende Anteil unterstützt ab Shaderprotokoll 5.0 und ist damit auch auf non RT Hardware lauffähig. Warum unterstützt es wohl RTX und GTX?

Und was den dichten Wald angeht, warum kann die tolle dedizierte Hardware in BF5 nicht mal bewegte Geometrieanteile inklusive dazugehöriger Verschattungen darstellen, so das sie entfernt werden mussten. Viel schreiben bedeutet nicht viel richtig schrieben und sich dabei selbst zu kommentieren schon gar nicht.

Vor allem hat, was du anzusprechen versuchst, das etwas mit der Framerate zu tun, da Lumen auf 30fps und 1080p auf Konsolen konzipiert ist (Upscaling auf 4K inklusive), aber auch 60fps über Skalierbarkeitsstufen zulässt (Level). Vor allem auch, über einen Superresolutionsalgorithmus.

Die Engine (Nanite und Lumen inklusive) wurde in direkter Zusammenarbeit mit Nvidia entwickelt, es wäre schon komisch wenn die Qualität deiner Aussage auch nur im Kern stimmen würden und es läge an Konsolenhardware der Konkurrenz. Ganz bestimmt nicht. Das würde bekannterweise Nvidia überhaupt nicht interessieren.

Ewig gestern, war gestern! Unter DXU unterstützt es nur bestimmte Hardwareiterationen und die Qualität leidet dort überhaupt nicht, eher ist es umgekehrt. Es hat kompetitive Wirkungen auf das Gameplay unter Nvidia GPUs und kann die Latenz merklich minimieren. Für die gesamte Entwicklung wurden Nvidia-GPUs eingesetzt. Beispielsweise ist es so möglich das Nanite Proxy Mesh zu deaktivieren und sie über Lumen Proxy anzuzeigen. UE5EA steht dabei für Reflektionen und Schatten die über dedizierte Cores berechnet werden können, aber nicht müssen. Dazu kann man verschiedene Methoden, darunter auch globale aufrufen, was die Flexibilität extrem steigert. Letztlich ist es eine Mischung aus Voxel-GI, Screen Space und Signed Distance, die anders als unter RTX die Berechnungen der Beleuchtungsmodelle nicht auf den Geometrieanteil stützen, aber genauso in realtime abgerufen werden kann. Anders als unter rein dedizierten Cores und dessen Impact, bleibt es somit flexibel anpassbar inklusive TAA Upsampler.

Es gibt seit jeher unterschiedliche Ansätze visuelle Qualität zu erzeugen, wobei man sich schlussendlich für einen hybriden Weg entschieden hat, der vor allem auf hohen Detailgrad innerhalb des 3D-Modells im Abstand zum Betrachter setzt. Nanite aber so tausende 3D-Objekte zeichnen kann, ohne das der Geometrieanteil wesentlich die abrufbare Leistung bestimmt. Die Komprimierung ermöglicht dabei fast zu unendliche Detaillevel. Ob man dieses Level oder diese Stufe auf einer Konsole letztendlich anwendet, ist Aufgabe und Entscheidung des Devs.

Ich halte UE5 in dem Fall für fortschrittlich, weil es letztlich Ressourcen schonend ausgelegt ist und damit nicht nur dem Dev, sondern auch dem Geldbeutel der Spieler abhilft.

Das dies so manchem RTX Jünger nicht gefällt, ist mir persönlich ziemlich Schnuppe. Letztlich zählt, was ich für mein Geld zu Gesicht bekomme, wenn es mehr für weniger ist hilft das der gesamten Community und gleichermaßen der Technologieverbreitung. Extravaganz war also gestern, wer's braucht soll es bezahlen, nur halten sich unter dergleichen Modellen die Unterschiede in Grenzen.

Das ist im Zeitalter extrem überteuerter Hardware und weiter-höher-schneller bzw. aufgrund knapper Ressourcen fast zu eine Revolution. Hat dort womöglich jemand seine Hausaufgaben nicht gemacht, vermutlich!

Antwort Gefällt mir

Klicke zum Ausklappem
R
Ryzen1988

Veteran

192 Kommentare 28 Likes

Ich kam dem nur zustimmen. Das Spiel macht einfach nur süchtig. Ich bin jetzt auch im Endgame und bin traurig das es bald zu Ende ist.

Was ich nicht nachvollziehen kann das einige mit Rdna2 Karten keine Ruckler haben. Ich habe Ruckler zu Fuß und mit dem Motorrad. Langsam denke ich das meine Karte defekt ist oder ein anderes Problem hat.

Bezüglich Konsolen kann ich sagen. Das sie sehr gut ausgestattet sind, vor allem die X. Der PC wird immer voraus sein von der Hardware und Leistung. Was aber viele vergessen das magische Wort "Optimierung" man schaue sich Last Of Us 2 - Ghost of Tsushima - Rdr2 oder auch Days Gone an. Wie die auf den Konsolen aussehen auf der verhältnismäßig schwachen Hardware. Ja es werden viel Tricks eingesetzt aber trotzdem sieht das sehr gut aus. Auch darf man nicht vergessen das nicht jeder Spieler 60 Fps braucht auch wenn es vorzuziehen ist.

Antwort Gefällt mir

Klicke zum Ausklappem
RedF

Urgestein

1,497 Kommentare 554 Likes

Habe das spiel gestern mal angespielt. Groß stottern habe ich nicht gemerkt. Werde es noch mal ausgiebiger testen.

@Ryzen1988 was hast du für Grafik einstellungen. ( habe sie gestern auf default gelassen )

Antwort Gefällt mir

G
Guest

Das Spiel bzw. deren Entwicklerstudio nimmt weder am AMD noch Nvidia Entwicklerprogramm teil, wenn ihr auf das Preset: "hoch" zurückgeht und eine hohe Auflösung bei 60fps wählt (1440p/2160p), müsste das Ruckeln weitgehend verschwinden (das wird vermutlich auch durch das dynamische Upsampling der Engine ausgelöst, dass von 10 bis 200% automatisiert in 1er Stufen abläuft, aber keine Technik beider Hersteller expliziet unterstützt, bspw. VSR oder DS Faktoren seitens Nvidia). Da sie keinen Herstellersupport in Anspruch genommen haben, sind Optimierungen für beide Hersteller schwierig. Das kann wenn, nur von ihnen selbst kommen, kann man also AMD oder Nvidia nicht anlasten. RDNA2 gewinnt tatsächlich etwas mehr hinzu, als Nvidia (im direkten Vergleich), wenn ihr das Preset anpasst. Ansonsten läuft RDNA2 in ein CPU Limit, was UE4 typisch ist, solange DX11 genutzt wird.

Das reine FPS Ruckeln ist ein Frametimeproblem das nicht herstellergebunden ist und auf Nvidia genauso ruckeln verursachen kann. Dann sollte man die Framerate synchronisieren. Gut ist das es trotz hoher Auflösung kaum VRAM frisst, 6GiB sollten auch unter 4K reichen.

Antwort Gefällt mir

Klicke zum Ausklappem
R
Ryzen1988

Veteran

192 Kommentare 28 Likes

Bei mir hat es was mit der Deep Sleep funktion zu tuen. Sobald ich die über MPT ausschalte dann geht es. Im Spiel habe ich alles auf Ultra und 2540 x 1440p am Monitor oder am Tv 3840 x 2160. Ich poste mal meine Einstellungen vom Treiber und MPT. Mit diesen Einstellungen habe ich so gut wie keine ruckler und alles läuft flüssig.

Antwort Gefällt mir

R
Ryzen1988

Veteran

192 Kommentare 28 Likes

Btw ich poste auch mal ein Bild :cool:

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung