Reviews Cyberpunk 2077 - Gefährliches Suchtmittel auf Raytracing-Sterioden oder massentauglicher Freizeitkiller? Viele Benchmarks inklusive

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.198
Bewertungspunkte
18.814
Punkte
114
Alter
59
Standort
Labor
Es ist sogar beides! Nach einigen Stunden Spielzeit, dem etwas zähen Prolog samt Intermezzo und einigen Crashs (inclusive Patches), bin ich nun um einige Nerven ärmer und viele Erfahrungen (sowie ein wohl dauersüchtig machendes Spiel) reicher. Hätte ich einfach der Versuchung widerstanden, gleich am ersten Tag loslegen zu wollen, hätte ich mir wohl sicher auch noch Einiges an Ärger erspart. Aber egal. Mit der Version 1.04 kann man jetzt schon ganz gut leben (und auch mal benchmarken). Passt also...

>>> Hier den ganzen Test lesen <<<
 
So, habe gestern mal den Ryzen Tweak ausprobiert und subjektiv ruckelt es nun weniger, aber auch vorher gab es keine gröberen Probleme. Ich hoffe allerdings, dass der 1.05er Patch sehr bald kommt und das Thema dann offiziell regelt.
Ansonsten bin ich nach wie vor sehr angetan von Cyberpunk.
 
Ich schaus mir erst an wenn der Bughaufen aufgekehrt wurde, da hab ich derzeit keinen Nerv für.
 
Hat hier jemand eigentlich etwas ähnliches beobachten können ?

Ich habe eine Gigabyte RTX 2080 ti in der OC-Variante, die auch ausgenutzt wird: Sprich, das Powerlimit ist auf das Maximum gesetzt per Afterburner (122%, entspricht 366W). Die werden auch ohne DLSS voll ausgenutzt. Sobald ich allerdings DLSS ingame aktiviere, werden von dem Powerlimit "nur" noch ~300W genutzt - bei sonst gleiche Einstellungen (alles Ultra bzw. Psycho, RTX psycho). Zwackt hier DLSS zuviel vom Budget ab ?
Das klingt eher nach einem Limit, entweder durch die Framerate (VSync oder Limiter) oder durch die CPU.

Bei meiner 3090 läuft die GPU auf Volllast, auch mit DLSS.
 
Juhu, endlich wieder die Raytracing-Diskussion!
Nein, "RTX" heißt nicht spiegelnd glatte Oberflächen.
Jede Oberfläche "spiegelt" – nur ist eben die Streuung (Diffusion) stark unterschiedlich. Möchte man fotorealistische Bilder aus dem Computer, muss man berücksichtigen, dass jedes Objekt die "Schattierung" von anderen beeinflusst. Ist die Oberfläche sehr glatt ist es eher eine Spiegelung, ist sie eher matt würde man von Effekten indirekter Beleuchtung (GI) sprechen.
Dahinter steckt aber überall das selbe Prinzip: Ein Strahl von der Lichtquelle trifft auf eine Oberfläche, nimmt deren Färbung/Intensität an und projiziert bei spiegelnden Oberflächen ihre Herkunft 1:1 auf die Oberfläche, bei diffuseren Reflexionen wird die Spiegelung eben sehr weit vergrößert bzw. verschwommen und mehr Objekte in der Umgebung bekommen noch Strahlen davon ab.
Der Grad an Realismus lässt sich durch Rasterisierung nicht unendlich steigern. Braucht man eigene Puffer und Workarounds für Beleuchtung, Reflexionen, Ambiente Occlusion, GI, Glanzlichter einzeln ist es irgendwann effektiver das alles mit einem Schlag abzudecken. Da muss man sich keine Gedanken um Integration der einzelnen Effekte ins Gesamtbild machen – es ist eben alles automatisch nah an physikalisch korrekt und somit für's Auge stimmig.
Es braucht dann nur noch vernünftige Performance, wobei neuronale Netze hier ein guter Ansatz sind um aus verrauschten, gröberen Annäherungen via einzelner Strahlen ein sauberes Gesamtbild zu generieren.
 
Wenn ich auf FullHD zB Ultra oder RTX Medium Preset spiele habe ich einen CPU Bottleneck. Die Graka läuft mit ca. 80% und CPU ist permanent bei 100% womit die Temperaturen teilweise auf knappe 70 grad steigen (CPU). Aber wenn man sich einige Benchmarks anschaut schneiden Intel CPU´s ohne Hyphertr. teilweise deutlich schlechter ab als AMD´s mit SMT. Die Frage ist welche Intel CPU ist sinnvoll als Upgrade? Mein Mainboard ist ein Z370 welches bis zur 9. Gen Intel unterstützt.
CPU: i5-8400
GPU: ASUS ROG Strix 3070 OC
RAM: 32 GB Corsair Venegance RGB Pro C15 bei 3000Mhz
9900k den gab es zuletzt immer mal für 299 neu im abverkauft damit hast ne ganze Weile ruhe.
Ich hab einen i5-10400@4100 Allcore und 32gb ddr4000 c16 mit einer 3080fe an der Glotze hängen und selbst beim Rennen durch den redlight District ~ knapp 60 fps CPU bound.
Ein gebrauchter in etwa gleich schneller 8700k könnte dir also evtl.auch reichen wenn du nicht so anspruchsvoll bist.
 
Das klingt eher nach einem Limit, entweder durch die Framerate (VSync oder Limiter) oder durch die CPU.

Bei meiner 3090 läuft die GPU auf Volllast, auch mit DLSS.

VSync ist aus, Limiter ist keiner drin - Powerlimits sind auch gecheckt, sollte alles passen. Dann schau ich einfach nächste Woche (hoffentlich) noch einmal, das neue Brett und der 5950x liegen schon hier und warten nur noch auf die Lieferung des passenden Wasserblocks. :D Ich mein, es wird Winter, da muss man seine Powerlimits auch ausreizen wenns kalt wird ;)
 
9900k den gab es zuletzt immer mal für 299 neu im abverkauft damit hast ne ganze Weile ruhe.
Ich hab einen i5-10400@4100 Allcore und 32gb ddr4000 c16 mit einer 3080fe an der Glotze hängen und selbst beim Rennen durch den redlight District ~ knapp 60 fps CPU bound.
Ein gebrauchter in etwa gleich schneller 8700k könnte dir also evtl.auch reichen wenn du nicht so anspruchsvoll bist.
Das Problem mit den 9900k ist das die viel zu warm werden, einen neuen Lüfter kaufen wäre kein Problem jedoch bin ich mit 16 cm max. Höhe vom Gehäuse und wegen den sehr hohen Ram sehr begrenzt
 
So, jetzt endlich in 4k:

Und du magst dieses Pixelflimmern in Bewegung und das mässige Streaming dem DLSS nicht abhilft? Standbilder sind ok. Zudem auf einer 3090 vieles auf High wo Nvidia die Karte für 8k bewirbt. Naja...

Diese Unschärfeeffekte dienen vor allem dazu die Weitsicht runterzudrücken und damit direkt aufs LoD, zu hart erkauft wenn du micht fragst. Das kann auch DLSS nicht kaschieren, weil es zwar mit einer höher ausgelösten Groundtruth vergleicht, aber dafür die originale Bildausgabe braucht, Frame für Frame.

Virtueller Smock? um Leistung zu sparen?
 
Zuletzt bearbeitet von einem Moderator :
So, jetzt endlich in 4k:

Danke für den Video-Vergleich. "Balanced" sah - nach "Off" - am besten aus. Musste auf dem MacBook gucken, das hat zumindest ein Retina-Display. Allerdings lädt das alle 3 Sekunden nach. Hab dann in WQHD mit "DLSS off" verglichen - der Unterschied ist fein, aber recht deutlich zu sehen. Ob man das jetzt "braucht" ist wirklich Geschmackssache.
Mir ist dann noch unten links der blaue Glow aufgefallen - da "tropft" (?) irgendwas in den Boden - wahrscheinlich ein Grafikfehler, zumindest sieht es so aus. Das macht dann wieder das ganze schöne Setting kaputt.
Bei Metro Exodus hab ich auch immer die Landschaft gefeiert, dann kommt ein NPC zum Gespräch mit seinem Krapfengesicht und die ganze Illusion ist dahin. Ist vielleicht nicht so verkehrt, wenn man noch mitkriegt, dass es sich um ein Spiel handelt ;)
 
Und du magst dieses Pixelflimmern in Bewegung und das mässige Streaming dem DLSS nicht abhilft? Standbilder sind ok. Zudem auf einer 3090 vieles auf High wo Nvidia die Karte für 8k bewirbt. Naja...
Es ist ja nicht so, dass das ständig ins Auge fällt. Ich habe doch absichtlich die eine Szene gefilmt, WEIL es da so sehr auffällt. Ein echtes Worst-Case Szenario.

Also ist Deine Frage für mich leicht zu beantworten:

Wenn ich die Wahl habe, zwischen 30 fps und immer stabilen (aber dennoch mit Alias- und Unterabtastungsartefakten versehenem) Bild oder statt dessen 50 fps aber an seltensten Stellen ein Pixelflimmern in Bewegung, dann ist die Antwort absolut klar.

Übrigens zeigt das Video sehr plastisch, dass bei DLSS 2 mehrere Frames mit versetzen Sub-Pixeln zusammengerechnet werden (ähnlich wie Checkerboarding), so dass die Endauflösung bei einem stehenden Bild gar nicht mehr geringer ist - dafür aber in Bewegung geringer.

Also eine Art "Variable Rate Shading" auf die Bewegung bezogen. Bei ruhigem Bild hohe Auflösung, bei stark bewegtem eine geringere Auflösung.
 
Zuletzt bearbeitet von einem Moderator :
"Balanced" sah - nach "Off" - am besten aus.
Ich finde "Quality" schon noch mal nen Tick besser. Der Unterschied ist an der Stelle aber gering.

Das "blaue Tropfen" soll wohl irgendwas von dem beschädigtem Panzerwagen sein, neben dem ich stehe (vorher gab es da einen Kampf an der Stelle).

Wenn gewünscht kann ich das Save-Game an der Stelle zur Verfügung stellen.
 
An der Hardware liegt es nicht (nur so - war die auch nicht gemeint), es ist einfach schlecht programmiert oder bad codiert. Und wenn das so auf einer 3090 läuft, ist das ziemlich grenzwertig. Wie gesagt kann DLSS einer schlechten Vorlage nicht abhelfen und wie man in meinen verlinkten Video sieht, stülpt Nv Denoiser und Schärfefilter drüber was den Content schon merklich verändert.

Alles für eins ist vielleicht doch nicht so gut, wenn die Entwickler damit nicht klar kommen und mehr Zeit brauchen, das sind ja definitiv zusätzliche Anpassungen, ggf. kann das NN wenn Nv die Daten sichtet noch was rausholen.

Genauso (VSR), wenn du in einem Restaurant stehst und durch eine Scheibe nach draussen guckst, sieht du nur Matsch, nun stellt dir mal vor was DLSS mit dieser Vorlage anstellen soll. Da passt eins nicht zum anderen. Man wollte wohl als Art Vorzeigeteitel alles einbauen was so geht, neue Maßstäbe setzen, nur weiß man gar nicht wie und wurde es äußert mäßig ungesetzt, weil wahrwscheinlich die Entwicklung auf völlig anderer Basis begann. Das Spiel ist was Feature angeht komplett overpowered und zuletzt dann kaputt entwickelt. Manchmal ist weniger einfach mehr.
 
Zuletzt bearbeitet von einem Moderator :
Ich hab ja "nur" ne 2080S. Und massakriere mich grade durch Doom Eternal. Cyberpunk wird erst Mitte 2021 meine Festplatte erreichen. Ggf auf einem neuen System und ganz vielleicht dann auch in 4K. Vielleicht fahren wir aber nach dem verkackten Jahr einfach mal etwas dekadenter in den Urlaub :cool:
 
Die Zeit wird es zeigen, es gibt aber viele Szenarien und Feature die gegeneinander arbeiten, und das ist in der Entwicklung völlig kontraproduktiv, kostet dann auch zuviel Leistung und zusätzlich völlig unnötigen Overhead, wobei die Hardware zu oft in Bottlenecks rennt (eigentlich das Gegenteil was man erreichen will). Manchmal sind kleinere Schritte viel sinnvoller. Mit einer Brechstange kommt man oft nicht weiter und sie reisst riesige Löcher.

SSD hoffentlich als Festplatte, M.2 wäre deutlich Sinnvoller.:)

Hier mal Linus TT, stellenweise recht interessant, mal abgesehen von dem medialen Selbstdarstellungsm*ll:
 
Ja klar. Ist ja schon ne SSD - idealerweise dann schon M.2 mit PCIe 4.0.
 
Das Problem mit den 9900k ist das die viel zu warm werden, einen neuen Lüfter kaufen wäre kein Problem jedoch bin ich mit 16 cm max. Höhe vom Gehäuse und wegen den sehr hohen Ram sehr begrenzt
Der 9900k wird eigendlich nur entkorkt und mit entsprechender Last also mit offenem Le Limit etc. Heiß , beim zocken bist du da recht save.
 
Bin ja fast ein wenig enttäuscht, dass keine CPU Benchmarks dazu gepackt wurden, grade weil es mit AMD und SMT ja wohl Probleme gibt....
 
Also ich bekomme unter 1080p mit allem drin was geht und Vega64 meine 50-60FPS rein, dazu noch mit Process Lasso die ersten 4 Threads nur für das System, dann wirklich nur 10 echte Kerne auf Prio HOCH zuteilen und SMT "AUS" damit läuft CB2077 deutlich besser, da die SMT/HT threads nichts bringen und zuviel switchen.

Blöd nur nicht nativ auf 4K Bildschirm...

Leider fehlt wie zb. bei Ubisoft üblichen Spielen ein simpler integrierter Benchmark und eine einfache FPS anzeige ingame ohne externe Tools.

Das sollte heute Standard sein in Spielen soetwas zu integrieren!
 
Zuletzt bearbeitet :
Oben Unten