Reviews Days Gone – auch beim Zocken, leider. Ein richtig gutes Spiel, das von der Story lebt!

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Über das Spiel ist viel geschrieben worden, da muss ich nicht noch einmal extrem weit ausholen. Und auch wenn es eigentlich ja ein Konsolen-Port ist, das Spiel bereits aus 2019 stammt und mal PS4 exklusiv war – der PC darf hier erneut zeigen, was er kann (und der Spieler umso mehr). Deacon St. John als […]

Hier den ganzen Artikel lesen
 
Über das Spiel ist viel geschrieben worden, da muss ich nicht noch einmal extrem weit ausholen. Und auch wenn es eigentlich ja ein Konsolen-Port ist, das Spiel bereits aus 2019 stammt und mal PS4 exklusiv war – der PC darf hier erneut zeigen, was er kann (und der Spieler umso mehr). Deacon St. John als […]

Hier den ganzen Artikel lesen
Lieber Igor,

ich empfinde es ganz genauso...das Spiel bindet durch eine tolle Story und eine schöne Atmosphäre. Es macht viel Spaß und man will / kann nicht aufhören weil man "nur noch diese eine Mission" zu ende spielen möchte.

Es ist gespickt von tollen Videosequenzen und für mich zumindest, nicht übertrieben mit Schockerszenen....da bin ich dann wohl doch zu sehr Weichei für Resident Evil oder ähnliche Titel....

Auf der 6800XT sieht es super aus und läuft richtig gut. Manche User Meinungen von Ruckelorgien kann ich nicht bestätigen..

Ich bin mit der Story durch und mache nun die ganzen Nebenquests.....Jetzt hast Du mich natürlich auch noch neugierig gemacht auf das "Extra"

Klare Spielempfehlung meinerseits ! Hoffe auch auf ein Update bzw Nachfolger.

Momentan warte ich sehnsüchtig auf "The Day before"......erhoffe mir eine ähnliche Atmosphäre und viel Spielspaß mit Freunden...

Schönen Sonntag noch....

Gruß JohnDoe
 
Warum auch nicht, eine UE4 Variante für die Konsole wird auf RDNA2 nicht schlechter laufen oder aussehen, eher besser. Vor allem ging es um einfache Iteration, viel Flexibilität, Generierung gewünschter Qualität und Portierung für Plattformen.

Siehe UE5 das nunmehr vermehrt auf Software Raytracing setzen wird und damit voll kompatibel zu RDNA2 ist.

Dedizierte Einheiten sind einfach nicht leistungsfähig genug und beschränken den Output auf 100.000 Instanzen pro Frame und das kostet damit einfach zu viel Leistung und Qualität. Was auch seit Jahren von einigen als Argument vorgehalten wurde, dass eben ein Fullsizeraytracing auf Basis dedizierter Einheiten lange, lange Zeit brauchen wird.

Epic ist (wenn auch nicht immer unumstritten) eine Entwicklerschmiede die sich dessen Erkenntnis bewusst ist. Auch wenn sie früher eher Nvidia lastig entwickelt haben, kann man das nur begrüßen. So gibt es auch Engine-Iterationen von denen RDNA2 profitiert, soweit Large World keine Rolle spielt ist es auch ausreichend und bringt RT für alle. Ansonsten unterstützen dedizierte Cores und das wird vorerst die Zukunft sein, egal was einige behaupten.

Ruckelorgien?, liegt oder kann an vielem mehr liegen, dass muss kein Problem der Hardware x oder z oder dessen Treiber sein. Eher passt das persönliche Preset nicht zur Hardware, oder diese nicht wirklich zusammen.
 
Zuletzt bearbeitet von einem Moderator :
Vorm ersten Patch haben ein paar Medien über unrunde Frame Times trotz hoher FPS geschrieben. Kann ich so leider nicht nachvollziehen.
 
@gastello: Ein zwei Anmerkungen:

a) RDNA2 ist grundsätzlich voll kompatibel; der SW-basierte Raytracing-Ansatz in der UE5 hat damit nichts zu tun.
b) Lumen verwendet diverse SW-basierte Techniken, so Screen (Space) Tracing und ein SW-Raytracing gegen Mesh Distant Fields oder für noch schnellere, noch ungenauere Ergebnisse gegen Global Distant Fields; die diversen, teilweise zusammenarbeitenden SW-Ansätze haben jedoch auch diverse Nachteile, so werden bspw. nur Static Meshes berücksichtigt und bspw. transparente Materialien bleiben ebenso unberücksichtigt.
c) Entsprechend verfügt Lumen ebenso über Hardware-Raytracing-Support und verwendet entsprechend dedizierte Hardwarefunktionalität, wenn die Szene es vorsieht. Beispielsweise an stark reflektierenden und insbesondere gekrümmten Flächen führt bei entsprechendem Qualitätsanspruch kein Weg an einem HW-Raytracing gegen das echte Mesh vorbei.

Der zweigleisige Ansatz, den Epic hier verfolgt ist im Wesentlichen der "beschränkten" Leistungsfähigkeit der NextGen- bzw. jetzt CurrentGen-Konsolen zuzuschreiben, die gerade mal über 36 bzw. 52 CUs verfügen (letztere bei deutlich niedrigerem Takt) und damit deutlich beschränkter sind, insbesondere wenn man bedenkt, dass in knapp über 12 Monaten bereits die nächste HW-Iteration vor der Tür steht, die zweifellos noch einmal eine gehörige Schippe drauflegen wird (und CPUs sind jetzt schon deutlich weiter).
Entsprechend stehen hier Minimalanforderungen für die Konsolen ganz oben auf der Prioritätsliste um eine NextGen-Grafik zu realisieren und das macht schlicht die Verwendung von vereinfachenden SW-Ansätzen erforderlich und intern ist das Target hier gar ein Rendern in 1080p mit einem implizit vorgesehenen Upscaling mittels des Engine-eigenen TSR auf 4K.
Die UE5 wird zweifelsfrei auch aktuelle und zukünftige Hardware(weiter)entwicklungen vollumfänglich nutzen, nur wird sich bei der Konsolenhardware in den nächsten Jahren nichts mehr ändern und dementsprechend muss man sehen, dass man das Bestmögliche dort herausholen kann und für einen umfangreich hardwarebasierten Ansatz reicht es auf der Hardware wohl bei Weitem nicht aus.

*) Nicht falsch verstehen: Die NextGen-Konsolen stellen leistungstechnisch einen beträchtlichen Sprung dar ... und vor allem sind sie eine unschlagbares Budget-Angebot. Ihr (technisches) Pech ist nur, dass die Entwicklung auf dem PC derzeit auch recht rasant verläuft. ;-)

**) Letzten Endes eine leicht nachvollziehbare Priorisierung von Epic, wenn man bedenkt, dass die LastGen sich am Ende rund 150 Mio. Mal verkauft hat, d. h. ein imenser Markt, den man selbstredend nicht ignorieren wird.

***) Beispielsweise dürfte es wohlkalkuliert sein, dass die "beiden" Demos zur UE5 in der Wüste spielen, denn Lumen hat zurzeit noch Probleme mit transparenten Materialien, die in den Distant Fields (softwarebasiert) als undurchlässige Materialien gehandhabt werden und daher mit Blick auf bspw. Vegitation zu extremen Überschattungen führen würden. Das dürfte wohl der Grund sein, warum man keinen dichten Wald oder einen Dschungel demonstrierte.
 
Zuletzt bearbeitet :
Bevor du das nächste mal einen Roman verfasst, Lumen unterstützt Software- und Hardwareraytracing und das hat mit den Konsolen und RDNA2 gar nichts zu tun, vermutlich weil du mit dem Begriff Large Worlds nichts anfangen kannst. Der Softwarebasierende Anteil unterstützt ab Shaderprotokoll 5.0 und ist damit auch auf non RT Hardware lauffähig. Warum unterstützt es wohl RTX und GTX?

Und was den dichten Wald angeht, warum kann die tolle dedizierte Hardware in BF5 nicht mal bewegte Geometrieanteile inklusive dazugehöriger Verschattungen darstellen, so das sie entfernt werden mussten. Viel schreiben bedeutet nicht viel richtig schrieben und sich dabei selbst zu kommentieren schon gar nicht.

Vor allem hat, was du anzusprechen versuchst, das etwas mit der Framerate zu tun, da Lumen auf 30fps und 1080p auf Konsolen konzipiert ist (Upscaling auf 4K inklusive), aber auch 60fps über Skalierbarkeitsstufen zulässt (Level). Vor allem auch, über einen Superresolutionsalgorithmus.

Die Engine (Nanite und Lumen inklusive) wurde in direkter Zusammenarbeit mit Nvidia entwickelt, es wäre schon komisch wenn die Qualität deiner Aussage auch nur im Kern stimmen würden und es läge an Konsolenhardware der Konkurrenz. Ganz bestimmt nicht. Das würde bekannterweise Nvidia überhaupt nicht interessieren.

Ewig gestern, war gestern! Unter DXU unterstützt es nur bestimmte Hardwareiterationen und die Qualität leidet dort überhaupt nicht, eher ist es umgekehrt. Es hat kompetitive Wirkungen auf das Gameplay unter Nvidia GPUs und kann die Latenz merklich minimieren. Für die gesamte Entwicklung wurden Nvidia-GPUs eingesetzt. Beispielsweise ist es so möglich das Nanite Proxy Mesh zu deaktivieren und sie über Lumen Proxy anzuzeigen. UE5EA steht dabei für Reflektionen und Schatten die über dedizierte Cores berechnet werden können, aber nicht müssen. Dazu kann man verschiedene Methoden, darunter auch globale aufrufen, was die Flexibilität extrem steigert. Letztlich ist es eine Mischung aus Voxel-GI, Screen Space und Signed Distance, die anders als unter RTX die Berechnungen der Beleuchtungsmodelle nicht auf den Geometrieanteil stützen, aber genauso in realtime abgerufen werden kann. Anders als unter rein dedizierten Cores und dessen Impact, bleibt es somit flexibel anpassbar inklusive TAA Upsampler.

Es gibt seit jeher unterschiedliche Ansätze visuelle Qualität zu erzeugen, wobei man sich schlussendlich für einen hybriden Weg entschieden hat, der vor allem auf hohen Detailgrad innerhalb des 3D-Modells im Abstand zum Betrachter setzt. Nanite aber so tausende 3D-Objekte zeichnen kann, ohne das der Geometrieanteil wesentlich die abrufbare Leistung bestimmt. Die Komprimierung ermöglicht dabei fast zu unendliche Detaillevel. Ob man dieses Level oder diese Stufe auf einer Konsole letztendlich anwendet, ist Aufgabe und Entscheidung des Devs.

Ich halte UE5 in dem Fall für fortschrittlich, weil es letztlich Ressourcen schonend ausgelegt ist und damit nicht nur dem Dev, sondern auch dem Geldbeutel der Spieler abhilft.

Das dies so manchem RTX Jünger nicht gefällt, ist mir persönlich ziemlich Schnuppe. Letztlich zählt, was ich für mein Geld zu Gesicht bekomme, wenn es mehr für weniger ist hilft das der gesamten Community und gleichermaßen der Technologieverbreitung. Extravaganz war also gestern, wer's braucht soll es bezahlen, nur halten sich unter dergleichen Modellen die Unterschiede in Grenzen.

Das ist im Zeitalter extrem überteuerter Hardware und weiter-höher-schneller bzw. aufgrund knapper Ressourcen fast zu eine Revolution. Hat dort womöglich jemand seine Hausaufgaben nicht gemacht, vermutlich!
 
Zuletzt bearbeitet von einem Moderator :
Ich kam dem nur zustimmen. Das Spiel macht einfach nur süchtig. Ich bin jetzt auch im Endgame und bin traurig das es bald zu Ende ist.

Was ich nicht nachvollziehen kann das einige mit Rdna2 Karten keine Ruckler haben. Ich habe Ruckler zu Fuß und mit dem Motorrad. Langsam denke ich das meine Karte defekt ist oder ein anderes Problem hat.

Bezüglich Konsolen kann ich sagen. Das sie sehr gut ausgestattet sind, vor allem die X. Der PC wird immer voraus sein von der Hardware und Leistung. Was aber viele vergessen das magische Wort "Optimierung" man schaue sich Last Of Us 2 - Ghost of Tsushima - Rdr2 oder auch Days Gone an. Wie die auf den Konsolen aussehen auf der verhältnismäßig schwachen Hardware. Ja es werden viel Tricks eingesetzt aber trotzdem sieht das sehr gut aus. Auch darf man nicht vergessen das nicht jeder Spieler 60 Fps braucht auch wenn es vorzuziehen ist.
 
Habe das spiel gestern mal angespielt. Groß stottern habe ich nicht gemerkt. Werde es noch mal ausgiebiger testen.

@Ryzen1988 was hast du für Grafik einstellungen. ( habe sie gestern auf default gelassen )
 
Das Spiel bzw. deren Entwicklerstudio nimmt weder am AMD noch Nvidia Entwicklerprogramm teil, wenn ihr auf das Preset: "hoch" zurückgeht und eine hohe Auflösung bei 60fps wählt (1440p/2160p), müsste das Ruckeln weitgehend verschwinden (das wird vermutlich auch durch das dynamische Upsampling der Engine ausgelöst, dass von 10 bis 200% automatisiert in 1er Stufen abläuft, aber keine Technik beider Hersteller expliziet unterstützt, bspw. VSR oder DS Faktoren seitens Nvidia). Da sie keinen Herstellersupport in Anspruch genommen haben, sind Optimierungen für beide Hersteller schwierig. Das kann wenn, nur von ihnen selbst kommen, kann man also AMD oder Nvidia nicht anlasten. RDNA2 gewinnt tatsächlich etwas mehr hinzu, als Nvidia (im direkten Vergleich), wenn ihr das Preset anpasst. Ansonsten läuft RDNA2 in ein CPU Limit, was UE4 typisch ist, solange DX11 genutzt wird.

Das reine FPS Ruckeln ist ein Frametimeproblem das nicht herstellergebunden ist und auf Nvidia genauso ruckeln verursachen kann. Dann sollte man die Framerate synchronisieren. Gut ist das es trotz hoher Auflösung kaum VRAM frisst, 6GiB sollten auch unter 4K reichen.
 
Bei mir hat es was mit der Deep Sleep funktion zu tuen. Sobald ich die über MPT ausschalte dann geht es. Im Spiel habe ich alles auf Ultra und 2540 x 1440p am Monitor oder am Tv 3840 x 2160. Ich poste mal meine Einstellungen vom Treiber und MPT. Mit diesen Einstellungen habe ich so gut wie keine ruckler und alles läuft flüssig.
 

Anhänge

  • Screenshot 2021-05-31 163803.png
    Screenshot 2021-05-31 163803.png
    390,9 KB · Aufrufe : 16
  • Screenshot 2021-05-31 163832.png
    Screenshot 2021-05-31 163832.png
    36,4 KB · Aufrufe : 16
Btw ich poste auch mal ein Bild :cool:
 

Anhänge

  • 2021.05.31-16.13.32.png
    2021.05.31-16.13.32.png
    5,4 MB · Aufrufe : 21
Zuletzt bearbeitet :
Deep Sleep. Dann liegt es daran das Zeitintervalle falsch ausgelesen werden. Das führt intern zu unnötigen Spannungserhöhungen was natürlich den Arbitrator negativ beeinflusst, weil diese als Lastszenarien interpretiert werden.

Bei dir ist eher zu vermuten, dass die CPU unter DX11 zu schwach ausgelegt ist, für eine 6900. Jedenfalls deinem Zitatbereich nach.
 
Seid ich die Einstellungen übernommen habe, läuft es bei mir rund. Als Prozessor benutze ich den 5600x.
 
Du könntest mal testen SMT aus zu schalten, COD läuft ohne SMT auch runder.

Days Gone alles auf Max.
DaysGone.png

Nicht perfekt aber schon ziemlich gut.
 
Oben Unten