Reviews Cyberpunk 2077 - Gefährliches Suchtmittel auf Raytracing-Sterioden oder massentauglicher Freizeitkiller? Viele Benchmarks inklusive

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.201
Bewertungspunkte
18.827
Punkte
114
Alter
59
Standort
Labor
Es ist sogar beides! Nach einigen Stunden Spielzeit, dem etwas zähen Prolog samt Intermezzo und einigen Crashs (inclusive Patches), bin ich nun um einige Nerven ärmer und viele Erfahrungen (sowie ein wohl dauersüchtig machendes Spiel) reicher. Hätte ich einfach der Versuchung widerstanden, gleich am ersten Tag loslegen zu wollen, hätte ich mir wohl sicher auch noch Einiges an Ärger erspart. Aber egal. Mit der Version 1.04 kann man jetzt schon ganz gut leben (und auch mal benchmarken). Passt also...

>>> Hier den ganzen Test lesen <<<
 
Klar,aber er ist der einzige glaubwürdige Tester auf YouTube und man kann alles reproduzieren,dafür hast aber nen vollen Videobeweis.
Nachteil ist natürlich das es nicht immer aktuell ist.
woher weiß man das? Ich kenne kleine die vorher dir alle karten zeigen und eindeutigen beweis das sie die karten haben aber ja sonst. Tun ja nicht viele und die offiziellen testen cpus in 1080p😒
 
woher weiß man das? Ich kenne kleine die vorher dir alle karten zeigen und eindeutigen beweis das sie die karten haben aber ja sonst. Tun ja nicht viele und die offiziellen testen cpus in 1080p😒
Erfahrung,Daten,gegentesten.Dann verlinkt er normal immer die HW die er Testet und anhand der Daten vom OSD kannst es z.b. nach prüfen.
Tolle bunte Balken sind ja klasse,nur siehst nicht ob das Spiel überhaupt flüssig läuft....
Du hast keine genauen Einstellungen und und und.
Bei TG hast immer die Einstellungen und so kannst auch mit etwas Arbeit sogar ältere Tests noch vergleichen.
13900K z.b. lieferte vor 4Monaten 150FPS,mit dem neusten Patch jetzt nur noch 100FPS.
Dein 5600 lieferte da 100FPS,selbst wenn kein aktuelles Video da ist kannst davon aus gehen das es jetzt min 35% weniger FPS sind.

Ein CPU Test in 1080p ist mittlerweile auch so ne Sache,je kleiner das Bild um so weniger Daten müssen verarbeitet werden die durch die mehr Bilder wieder leicht ausgeglichen werden,nur geht mir bei 1080p mit aktuellen Spielen zu viel verloren, deswegen müsste im CPU Test eigentlich in 1440p getestet werden,aber dafür fehlt die Grafikkarten Leistung.
 
Deswegen zocke ich seit gestern 7 Stunden Cyberpunk mit Rt in 4k mit 60 fps.....mit einer 4070. Pathtracing ist gut 120% anspruchsvoller als normales ultra Rt kannst ja von meinem bench da oben ableiten was das bedeuted mit Dlss3 :). Das läuft sogar ohne framegeneration ganz gut mit dlss . 3.Gen rt cores hauen hier rein :D.

Aber danke leider sind das nur top modell cpus^^ ich wollte alles gemischt normaler test halt. Mit meinem undervolteten ryzen 5600 bei 0.9mv @ 3900 mhz bin ich definitiv in einem cpu limit gelandet ab und zu das mal auf 4200mhz gehievt seitdem 99% im Gpu Limit. RT geht krass auf die cpu.

Mit der 4090 kannst Pathtracing sogar locker in 60 fps zocken mit hoher auflösung. Weiß also nicht wovon du sprichst.(mal wieder) Solltest mal ne nvidia gpu testen persönlich! dann siehst das die 3 mal soviele fps liefern wie die beste amd gpu in cyberpunk

Anhang anzeigen 25624
ok, DLSS auf Auto ist schon mal fragwürdig, bedeutet von gestochen scharf bis matschig und
DLSS Schärfe auf 0,4 bedeutet nur 40% von der nativen Auflösung bedeutet 1536:864....
Was bedeutet, wie ich es vermutet habe.... Pampe am Monitor...
Ich würde mal 0,8 anstreben und den Test wiederholen ;)
 
Kommt hin mit Undervolt schaffe ich keine 60 fps zu jeder zeit. 65-75 Fps sind jetzt drin Da ich Gpu Technisch bei fast 63 festgetackert bin passt das jetzt ganz gut. Ist auch das einzige spiel was das benötigt :)

Gegentesten ist so eine Sache. Stock alles andere ist zu ungenau. Da spielen zu viele Faktoren mit rein. Außer man hat einen Benchmark wo alles schön angeführt ist was eingestellt wurde.

Mit einer 4090 mag es zwar klappen in 1080p aber trotzdem 720p als Standard ist halt simpler. Der cpu ist es wurst welche Auflösung man einstellt. Man will ja nur sehen was die cpu leisten kann bei 100% mehr nicht. Würde mein 5600 nur 45 fps schaffen in 720p wäre das auch in 4k so, dann wäre ich gearscht denn die Gpu kann mehr und dann schaust halt blöd rein :D bei gleichen settings da das sonst verfälscht außer man zockt mit allem auf low.^^
 
ok, DLSS auf Auto ist schon mal fragwürdig, bedeutet von gestochen scharf bis matschig und
DLSS Schärfe auf 0,4 bedeutet nur 40% von der nativen Auflösung bedeutet 1536:864....
Was bedeutet, wie ich es vermutet habe.... Pampe am Monitor...
Ich würde mal 0,8 anstreben und den Test wiederholen ;)
DLSS Schärfe ist nichts anderes als schärfe das ändert gar nichts an der auflösung.....:ROFLMAO:. mensch erkundige dich bitte vorher.

Auto = DLSS Performance.

Habe ich erläutert wieso, weil das Preset Overdrive das Automatisch so einstellt auf jeder GPU! Würde ich das verstellen stünde da die Settings wurden angepasst und man könnte es nicht nachvollziehen was . Ich habe auch gesagt ich zocke das auf Ausgewogen/Balanced. Mit Qualität schaffe ich Pathtracing nicht über 30 fps aber Reguläre Ultra RT funktioniert gut damit. ;9 Also bitte
 
Halte ich für ein Gerücht, mich gibts auch noch :D
Natürlich, nur DU machst Lesertests und auf YouTube alles um die HW womit Du völlig ausgelastet bist.
TG liefert quasi deine Tests als Video.;)
Auch wenn der ein oder andere auch nicht schlecht ist liefern die mir zu wenig Daten,ich sehe nix und bekomme in Spielen dann nur die Bunten Balken,in Anwendungen sind die ja OK,aber nicht in Spielen dafür sind die Spiele mittlerweile zu Problematisch geworden.
 
Gegentesten ist so eine Sache. Stock alles andere ist zu ungenau. Da spielen zu viele Faktoren mit rein. Außer man hat einen Benchmark wo alles schön angeführt ist was eingestellt wurde.
Zu CB und Luxx Zeiten wollten mich die NVIDIA Fanboys auch immer verarschen indem sie bestimme Punkte geändert hatten um den längsten zu haben was aber dann doch aufgefallen ist.
Screens wurden auch nur ungern gemacht, aber die konnte man ja noch manipulieren, bei Videos sind sie dann aber an die Decke gegangen weil ein Video zu manipulieren war vor über 10Jahren schon aufwändiger........

Der Unterschied ist nur in 720p z.b. das die CPU viel zu stark gedrosselt wird und nicht mehr ihre Reale Leistung und Potenzial zeigen kann.
Vor rund 3 Jahren passte das noch,aber mit den heutigen Spielen überhaupt nicht mehr.
 
In den ganzen YT Videos gibts keine Varianzen und viele andere wichtigen Metriken. Das würde mir komplett fehlen. Overlays sind Kinderkram :D
 
DLSS Schärfe ist nichts anderes als schärfe das ändert gar nichts an der auflösung.....:ROFLMAO:. mensch erkundige dich bitte vorher.

Auto = DLSS Performance.

Habe ich erläutert wieso, weil das Preset Overdrive das Automatisch so einstellt auf jeder GPU! Würde ich das verstellen stünde da die Settings wurden angepasst und man könnte es nicht nachvollziehen was . Ich habe auch gesagt ich zocke das auf Ausgewogen/Balanced. Mit Qualität schaffe ich Pathtracing nicht über 30 fps aber Reguläre Ultra RT funktioniert gut damit. ;9 Also bitte
genau, es ist die Schärfeeinstellung und 0,4 ist ganz schön matschig und wirkt wie die beschriebene skalierung ;)
 
Zu CB und Luxx Zeiten wollten mich die NVIDIA Fanboys auch immer verarschen indem sie bestimme Punkte geändert hatten um den längsten zu haben was aber dann doch aufgefallen ist.
Screens wurden auch nur ungern gemacht, aber die konnte man ja noch manipulieren, bei Videos sind sie dann aber an die Decke gegangen weil ein Video zu manipulieren war vor über 10Jahren schon aufwändiger........

Der Unterschied ist nur in 720p z.b. das die CPU viel zu stark gedrosselt wird und nicht mehr ihre Reale Leistung und Potenzial zeigen kann.
Vor rund 3 Jahren passte das noch,aber mit den heutigen Spielen überhaupt nicht mehr.
Ich wäre zu blöd dazu. Ich habe nicht einmal Ahnung wie man ein Video aufzeichnet ich bin tatsächlich nur ein reiner Zocker.

Das verstehe ich nicht die Aiuflösung hat nichts mit der Cpu Auslastung zu tun man nimmt die niedrige Auflösung damit die Gpu nicht mehr auf 99% läuft weil die cpu nicht hinterher kommt. Hast du schon vestanden wie ein Cpu limit funktioniert? Daran hat sich seit 20 Jahren gar nichts geändert. Bis auf singlecore---->multicore in spielen. Bzw was soll sich daran auch ändern? Du kannst auch in 16k benchen mit der cpu der ist das egal^^ aber da die gpu nicht nachkommt wirst nie wissen was die cpu könnte wenn es die gpu erlauben würde.
 
genau, es ist die Schärfeeinstellung und 0,4 ist ganz schön matschig und wirkt wie die beschriebene skalierung ;)
Nein tut sie nicht kannst de endlich mit diesem FUD aufhören. Die Fps verändern sich weder auf 0 schärfe noch auf 100 . Troll wenn anderen . ignored. Das ist nichts anders wie ein TAA/DLAA schärfeslider......jesus christus.
 
Nein tut sie nicht kannst de endlich mit diesem FUD aufhören. Die Fps verändern sich weder auf 0 schärfe noch auf 100 . Troll wenn anderen . ignored. Das ist nichts anders wie ein TAA/DLAA schärfeslider......jesus christus.
Dann bist du der einzige bei dem sich da an den FPS nichts ändert 🤗
Aber bitte glaub dran
 
In den ganzen YT Videos gibts keine Varianzen und viele andere wichtigen Metriken. Das würde mir komplett fehlen. Overlays sind Kinderkram :D
Klar die lieferst ja auch DU.
Du könntest zu deinen Tests einfache Videos bringen mit den Einstellungen und wo du Testest,den Rest lieferst ja immer in den Artikeln.Nur kostet das halt deutlich mehr Zeit.;)
Deswegen hab Ich mir aus den vielen Youtubern einen zuverlässigen raus gefiltert.

Klar das OSD ist immer so ne Sache was jetzt genau genommen wurde,nur wenn ich z.b. sehe das Nvidia 300Watt verbaut und AMD 200Watt und avg 20FPS drunter liegt obwohl die Karten gleich schnell sind,dann kannst schon mal davon aus gehen das die Nvidia ne OC Karte ist und die AMD ne Standard,das zeigt z.b. auch der Takt.Oder auch die VRam auslastung.
Wenn die Karten dann noch verlinkt sind bekommst auch noch die Bestätigung.
Du kannst sehen ob die CPU Übertaktet ist,mit festem Takt läuft,wurde der Ram übertaktet........
Alles schon bei den "Schlauen" Fanboys gesehen auf YouTube.

Es ist halt ein guter Mix aus Eich beiden um für Mich ein klarres Bild zu bekommen.
 
Klar die lieferst ja auch DU.
Du könntest zu deinen Tests einfache Videos bringen mit den Einstellungen und wo du Testest,den Rest lieferst ja immer in den Artikeln.Nur kostet das halt deutlich mehr Zeit.;)
Deswegen hab Ich mir aus den vielen Youtubern einen zuverlässigen raus gefiltert.

Klar das OSD ist immer so ne Sache was jetzt genau genommen wurde,nur wenn ich z.b. sehe das Nvidia 300Watt verbaut und AMD 200Watt und avg 20FPS drunter liegt obwohl die Karten gleich schnell sind,dann kannst schon mal davon aus gehen das die Nvidia ne OC Karte ist und die AMD ne Standard,das zeigt z.b. auch der Takt.Oder auch die VRam auslastung.
Wenn die Karten dann noch verlinkt sind bekommst auch noch die Bestätigung.
Du kannst sehen ob die CPU Übertaktet ist,mit festem Takt läuft,wurde der Ram übertaktet........
Alles schon bei den "Schlauen" Fanboys gesehen auf YouTube.

Es ist halt ein guter Mix aus Eich beiden um für Mich ein klarres Bild zu bekommen.
Ja, dein YTler macht das ganz gut, wie seriös nun seine Videos sind weiß ich nicht, aber zumindest sind sie seriöser als von anderen,
habe mir auch einige Videos von ihm angesehen zum vergleichen und um meine Hardwarevorstellungen einzugrenzen.

Die 1660ti habe ich mir nur gekauft, weil es eine TI ist :rolleyes:
die 1660 Super die im LAN-System von meinem Bruder verbaut ist, aber ich wegen @Igor Wallossek Video zur GTX 1660 (gut gut) SUPER (gut) :ROFLMAO:
geholt, weil die damals um fast 80€ günstiger war als die TI und fast das gleiche leistet
 
Ich wäre zu blöd dazu. Ich habe nicht einmal Ahnung wie man ein Video aufzeichnet ich bin tatsächlich nur ein reiner Zocker.

Das verstehe ich nicht die Aiuflösung hat nichts mit der Cpu Auslastung zu tun man nimmt die niedrige Auflösung damit die Gpu nicht mehr auf 99% läuft weil die cpu nicht hinterher kommt. Hast du schon vestanden wie ein Cpu limit funktioniert? Daran hat sich seit 20 Jahren gar nichts geändert. Bis auf singlecore---->multicore in spielen. Bzw was soll sich daran auch ändern? Du kannst auch in 16k benchen mit der cpu der ist das egal^^ aber da die gpu nicht nachkommt wirst nie wissen was die cpu könnte wenn es die gpu erlauben würde.
Eben nicht das war früher mal so aber heute nicht mehr eben weil du auch aus nem "Single Core" Spiel ein Multicore machen kannst,da hab ich auch schon ein Video zu gemacht.
Die letzten Jahre hat sich viel geändert auch mit den Spielen.
Auch steigt die Auslastung der CPU ja mit den FPS an,so das diese anfängt zu begrenzen,nur je kleiner das Bild wird um so weniger Daten sind es und die CPU würde mit ner höheren Auflösung sogar noch mehr Bilder liefern können.

PPT um 50Watt vs PPT um 30Watt bei recht identischen 60FPS.
Achte auf die Kernauslastungen und Takt.
 
Zuletzt bearbeitet :
Lächerlicher Troll hier damit du schön blöd dastehst, habe sogar mehr fps auf 1 weißt du warum weil es nichts ausmacht und ich die karte auf knapp über 3ghz geprügelt habe für diesen run.
:ROFLMAO: :ROFLMAO:
Anhang anzeigen 25629
Mir fehlt das Vergleichsbild :whistle:
Und warum prügelst du deine Graka, hast du sie nicht lieb? :cautious:

PS: DAS ist trolling.
Nur weil ich frage und sage, trolle ich nicht, sondern will diskutieren
 
Eben nicht das war früher mal so aber heute nicht mehr eben weil du auch aus nem "Single Core" Spiel ein Multicore machen kannst,da hab ich auch schon ein Video zu gemacht.
Die letzten Jahre hat sich viel geändert auch mit den Spielen.
Auch steigt die Auslastung der CPU ja mit den FPS an,so das diese anfängt zu begrenzen,nur je kleiner das Bild wird um so weniger Daten sind es und die CPU würde mit ner höheren Auflösung sogar noch mehr Bilder liefern können.

PPT um 50Watt vs PPT um 30Watt bei recht identischen 60FPS.
Achte auf die Kernauslastungen und Takt.
Lets agree that we disagree.

Weiß nicht was optimierte cpus jetzt auf einmal damit zu tun haben und du schon wieder fakten ignoriers und auch noch mit geschichtn ausm paulanergarten daherkommst, sag wie man kan aus einem singlecore spiel ein mutlicore spiel machen alos spieler ? Das kann nur der entwickler und die kämpfen damit.

ja das ist logisch das die Auslastung steigt mit höheren fps wer hätte das geahnt aber nicht mit höherer auflösung = größeres bild?. was soll das bedeuten je kleiner das bild wird? das ergibt absolut keinen Sinn. Die Cpu juckt die Auflösung nicht das weis ein volksschüler. g

Gar nichts hat sich geändert nur das die entwickler mittlerweile auch auf mehrkernoptimierung gehen(gibt trotzem noch sehr viele games die auf singlecore leistung schwören und ein 4 kerner mehr als genug ist) was aber viel schwieriger ist deswegen hast so einen müll wie Jedi survivor und Redfall. 2 UE4 spiele das eine mit mörder geometrie das andere open world das auf einer engine die auf 4 kerne ausgelegt ist und quasi nur 2 vollgas benutzt oder benutzen kann effektiv. Hier kommt dx12 ins spiel und entwickler können oder in diesem fall nicht können oder kein bock und keine zeit. Dank publisher

Jedi wird nur bessere fps erreichen indem sie die grafik downgraden und die cpu entlasten so einfach ist das. falsche engine für das spiel.

ue 5 sollte das verbessern aber auf wunder würde ich nicht hoffen. denn vieles zeigt das sich gar nichts ändern wird auch wenn gamer auf das wunder warten was mit jeder unreal engine verion versprochen wird^^ die engine ist müll für alles was nicht schlauch level sind.

Einfach zu benutzen das ist sie ja, sieht man ja an dem schrott in steam, 95% ist in der ue 4 erstellt worden weil map erstellen und assets kaufen das bekommt jeder depp hin in wenigen wochen.

was kommen wird ist mit brutaler hardware dagegen ankämpfen was bei jedi nicht mehr reicht da das limit bei weitem überschritten wurde.

Den tag will ich noch erleben an dem ein unreal engine spiele mit großer open world und viel geometrie(klar sieht gut aus aber die engine soll es auch abkönnen ohne high end hardware auf 50 fps zu zwingen) nicht stottert oder die cpu killt bei 30% gpu auslastung^^

a plage tale requiem das selbe spiel, unreal engine 4 mit viel geometrie, cpu limits keine seltenheit bei einem fast schlauch spiel wohlgemerkt. aber da ging es gerade noch weil es nicht sehr weitläufig war wenn es dann mal open war. Trotzdem klasse game. :)

Problem alle gehen auf ue 5 der einfachheitshalber. Leute sagen heute ist es schwerer als je zuvor ein game zu entwicklen. kompletter schwachsinn es war noch nie leichter. deswegen hats off an die entwickler die vor 20 jahren dabei waren und noch mit extremen tricks und einfallsreichtum probleme angehen mussten damit es läuft und nicht einfach ja das packen wir da jetzt rein und der regelt das schon bzw die spieler können ja aufrüsten wenn es nicht läuft oder mit 60 fps max leben was für viele ja unmöglich ist anscheinend. wobei alles in 16.6ms zu redner eine exstreme aufgabe ist.

Next egn games mit der hardware von heute kannst 60fps +vergessen.

Das angekündigte EA Spiel wird die nächste katastrophe. 2080 super als minimal anforderung mit cpu killer on top. Flop in advance.
 
Oben Unten