Palit GeForce RTX 4080 GameRock 16 GB im DLSS 3.0 Test – CPU-Limitierung ausgehebelt

Wer warum das alles nicht braucht und wieso das alles irgendwie nix taugt und weshalb wer eine Konsole für die bessere Alternative hält, oder ob in China ein Sack Reis umfällt.
Es ist eigentlich gar kein so großes Mysterium warum Leute so etwas schreiben. Auch wenn das niemand hören will.
 
Das ist wie in dieser unheimlichen Zahnarztserie mit Sculder und Mully: 'The tooth is out. There.'
 
@Megaone
Wenn du diese Erfahrung mit billigen Panels noch nicht hattest, schön für dich. Aber ein billiges Teil stelle ich mir einfach nicht mehr hin, weil ich schon die übelsten Geschichten damit erlebt habe. Und gerade die "Gaming-Bildschirme" alla Samsung werden gerne nach ca 2 Jahren das zeitliche segnen. Das liegt einfach daran, dass billige Bauteile eingebaut werden, um solche Preise irgendwie machbar zu machen. Und das sollte kein Geheimnis sein, dass dabei die Ausfallrate nach 2 Jahren deutlich höher ist, als die Teile, die es etwas länger machen.

Und nur so nebenbei: es gibt sogar 28'' und 4K als Bildschirm. Wie schräg ist das denn? Ich habe 2k 27''-Displays im Einsatz und da ist mir das schon fast zu klein. Welchen Sinn soll dann bitte ein Zoll mehr (2,5cm) in 4K bringen? Da sehe ich dann überhaupt nichts mehr.

Und mit dem TV meinte ich genau das selbe: 4K erst ab 40 Zoll und diesen Platz werden die wenigsten auf dem Schreibtisch haben.

Auf Nvidia habe ich nicht eingeschlagen, bin auch keiner, der irgendwas anderes in den Himmel lobt.
Aber ich bin eben allergisch gegen BS und da muss ich mir eben manchmal Luft verschaffen. Vor allem, wenn man selbst oder andere unberechtigt als dumm oder unfähig hingestellt wird. (Zitat: "....von Leuten, die von Spieleentwicklung keine Ahnung haben...") Vor allem, wenn es von Leuten kommt, die wohl noch nicht mal in der Planung waren, als ich das erste Mal am PC gezockt habe.
Man kann ein Spiel (in dem Fall ja Cyberpunk) gerne verteidigen, wenn man das möchte. Aber die Realität sollte man dabei eben nicht vergessen: Das Spiel ist eine Vollkatastrophe, es war von Anfang an eine und ist es nach fast 2 Jahren immer noch.
 
Ich versteh Dich nicht, @weedeater

Da beschwerst Du Dich, dass PC Gaming so teuer ist:

siehe Das hat sich leider gewandelt und jetzt haben wir als PC-Spieler leider den Nachteil, dass wir uns mit den Ports rumschlagen müssen. Und da bin ich voll bei dem, was @grimm geschrieben hat. Das sollte nicht sein, dass ich am PC die Einstellungen reduzieren muss, mit Hardwäre, die 4-5 Mal soviel wert ist wie so eine popelige Konsole, um ein Spiel flüssig spielen zu können. Und wenn das so ist, ist es auch das: schlecht optimiert, zumindest für den PC.

und dann erzählst Du uns was von mangelnder Qualität bei 4k Monitoren. Das passt doch hinten und vorne nicht zusammen. Als ob Monitore etwas mit PC Gaming zu tun haben.

Außerdem: Ich habe zwei Monitore. Einen hochertigen, HDR 1000 mit FALD, und einen relativ preiswerten 4k daneben. Da ich auch arbeiten muss, benötige ich zwei Schirme. Ich kann jetzt nicht sagen, dass der preiswerte ein schlechtes Bild liefert für sein Geld. Klar, ich würde bei dem niemals HDR nutzen (auch wenn er formal ein HDR400 Gerät ist), aber ansonsten gibt es an dem nichts auszusetzen für seinen Preis.
 
Cyberpunk sieht von der Grafik nett aus, mehr aber auch nicht.
 
@Gaymer
Du verstehst es einfach nicht und um dir das jetzt nochmal genau aufzudröseln, ist mir meine Zeit zu schade. Denn von Beschwerde aufgrund teuerem PC, oder was immer du dir da zusammenfantasierst, habe ich nichts geschrieben.
Du solltest vielleicht lernen, das Geschriebene auch richtig einzuordnen.
Zur Displayqualität: Kann man Glück haben, sicher. Haben aber genügend Leute keines....
 
@Megaone
Wenn du diese Erfahrung mit billigen Panels noch nicht hattest, schön für dich. Aber ein billiges Teil stelle ich mir einfach nicht mehr hin, weil ich schon die übelsten Geschichten damit erlebt habe. Und gerade die "Gaming-Bildschirme" alla Samsung werden gerne nach ca 2 Jahren das zeitliche segnen. Das liegt einfach daran, dass billige Bauteile eingebaut werden, um solche Preise irgendwie machbar zu machen. Und das sollte kein Geheimnis sein, dass dabei die Ausfallrate nach 2 Jahren deutlich höher ist, als die Teile, die es etwas länger machen.

Und nur so nebenbei: es gibt sogar 28'' und 4K als Bildschirm. Wie schräg ist das denn? Ich habe 2k 27''-Displays im Einsatz und da ist mir das schon fast zu klein. Welchen Sinn soll dann bitte ein Zoll mehr (2,5cm) in 4K bringen? Da sehe ich dann überhaupt nichts mehr.

Und mit dem TV meinte ich genau das selbe: 4K erst ab 40 Zoll und diesen Platz werden die wenigsten auf dem Schreibtisch haben.

Auf Nvidia habe ich nicht eingeschlagen, bin auch keiner, der irgendwas anderes in den Himmel lobt.
Aber ich bin eben allergisch gegen BS und da muss ich mir eben manchmal Luft verschaffen. Vor allem, wenn man selbst oder andere unberechtigt als dumm oder unfähig hingestellt wird. (Zitat: "....von Leuten, die von Spieleentwicklung keine Ahnung haben...") Vor allem, wenn es von Leuten kommt, die wohl noch nicht mal in der Planung waren, als ich das erste Mal am PC gezockt habe.
Man kann ein Spiel (in dem Fall ja Cyberpunk) gerne verteidigen, wenn man das möchte. Aber die Realität sollte man dabei eben nicht vergessen: Das Spiel ist eine Vollkatastrophe, es war von Anfang an eine und ist es nach fast 2 Jahren immer noch.
Dann haben wir wohl sehr unterschiedliche Erfahrungen. Wenn mir oder in unserem Schreibbüro oder bei Bekannten mal ein Monitor kaputt gegangen ist, dann immer frühestens nach 4-5 Jahren. Wobei dies auch sicherlich der miesen Qualität der Bauteile geschuldet ist und ich es sehr früh fand. Allerdings handelt es sich in der Tat um günstige Geräte.

4K/32 Zoll bezog sich auf TV`s. wobei sich richtiges 4K 3.840 x2.160 für mich erst ab 40 Zoll wirklich lohnt.

Ansonsten halte ich die aktuellen 34 Zoll Geräte mit 3.440 x 1.440 für eine gute Alternative.
 
@Megaone
Ja, das wird wohl so sein. Aber ein Monitor, der überwiegend im Büro eingesetzt wird, hat natürlich auch nicht die Belastung, die ein Display zum Zocken oder für andere aufwendige Grafiksachen leisten muss.
Und ein TV unter 40 Zoll ist irgendwie (für mich) nicht wirklich als solches zu bezeichnen, egal welche Auflösung.
Die Meinung, dass 4K erst ab einer bestimmten Größe Sinn macht, teilen wir ja auch ;)

Ich nutze seit meiner Zeit als Maschinenbau-Techniker auch privat nur noch 2 Displays, macht also bei meinem großen Eckschreibtisch 4 Displays bei 2 Rechnern. Das wäre zum einen für mich die Investition nicht wert und ein ziemliches Platzproblem mit 2x 32 oder 34 Zoll würde sich ebenfalls auftun. Aber ich bin mit 2K sehr zufrieden, zum Zocken reicht mir das. Und da ich überwiegend Spiele zocke, die ich mir nach gut Dünken zusammenstellen kann (Mods), habe ich auch da ziemlich oft ein Aha-Erlebnis, das ich echt genießen kann. Ist natürlich kein 4K, aber mir reicht es.

Und für neue Spiele bin ich wohl schon zu alt. Kann mich mit dem Zeug nicht anfreunden und hab auch oft das Gefühl, das es den Spielen sicher nicht an grafischen Raffinessen fehlt, aber die Story bleibt da oft zu schnell auf der Strecke. Denn bei einer guten Story habe ich im Normalfall gar keine Zeit, die Grafik zu geniessen. Hat sicher was, wenn es auch noch schön aussieht, aber ist für mich dann eben zweitrangig.
Und ich bin halt auch kein Fan davon, als Beta-Tester zum Vollpreis degradiert zu werden.
CP 2077 war mit Sicherheit das letzte Spiel, das ich im Vorverkauf erstanden habe.
 
@Megaone
Ja, das wird wohl so sein. Aber ein Monitor, der überwiegend im Büro eingesetzt wird, hat natürlich auch nicht die Belastung, die ein Display zum Zocken oder für andere aufwendige Grafiksachen leisten muss.
Und ein TV unter 40 Zoll ist irgendwie (für mich) nicht wirklich als solches zu bezeichnen, egal welche Auflösung.
Die Meinung, dass 4K erst ab einer bestimmten Größe Sinn macht, teilen wir ja auch ;)

Ich nutze seit meiner Zeit als Maschinenbau-Techniker auch privat nur noch 2 Displays, macht also bei meinem großen Eckschreibtisch 4 Displays bei 2 Rechnern. Das wäre zum einen für mich die Investition nicht wert und ein ziemliches Platzproblem mit 2x 32 oder 34 Zoll würde sich ebenfalls auftun. Aber ich bin mit 2K sehr zufrieden, zum Zocken reicht mir das. Und da ich überwiegend Spiele zocke, die ich mir nach gut Dünken zusammenstellen kann (Mods), habe ich auch da ziemlich oft ein Aha-Erlebnis, das ich echt genießen kann. Ist natürlich kein 4K, aber mir reicht es.

Und für neue Spiele bin ich wohl schon zu alt. Kann mich mit dem Zeug nicht anfreunden und hab auch oft das Gefühl, das es den Spielen sicher nicht an grafischen Raffinessen fehlt, aber die Story bleibt da oft zu schnell auf der Strecke. Denn bei einer guten Story habe ich im Normalfall gar keine Zeit, die Grafik zu geniessen. Hat sicher was, wenn es auch noch schön aussieht, aber ist für mich dann eben zweitrangig.
Und ich bin halt auch kein Fan davon, als Beta-Tester zum Vollpreis degradiert zu werden.
CP 2077 war mit Sicherheit das letzte Spiel, das ich im Vorverkauf erstanden habe.
Ich bin Punkt für Punkt bei dir. Darum versteh ich die ganze Aufregung nicht. Im Prinzip ist doch aktuell für jeden was dabei. Und das mit den neuen Spielen sehe ich ebenso. Ich bin 60 und das Rumgehopse in den aktuellen Doom Versionen geht mir ziemlich auf die...,

Aber jeder Mann braucht seinen Fetisch und da ich im Winter mit meiner Can am Ryker nicht fahren kann und nach 3 Vollnarkosen 2022 meine größte Sorge ist, in die Kiste zu springen und ich hab noch Geld auf der Bank, ist zumindest eine 4090 nicht die schlechteste Investition.

Es gibt halt Dinge, die betreibe ich nicht mehr zwingend mit Sinn und Verstand, sondern nur weil sie mir Spaß machen. Und irgendwann ist das das einzige was zählt.

Spätestens im Alter hat man begriffen, das das Schöne an der Versuchung ist, ihr einfach nachzugeben. ;)
 
Zuletzt bearbeitet :
@Megaone
Kann ich gut verstehen, auch wenn mir bis dahin noch knapp 10 Jahre fehlen.
Da ich leider schon in Rente gehen musste (ja, den das wollte ich sicher nicht), ist, oder besser sind meine Rechner genau das Hobby und der Zeitvertreib, den ich mir gerne gönne. Zumal das auch etwas ist, womit meine bessere Hälfte mal so gar kein Problem hat. Bei sechs Rechnern plus Server ist sicher klar, das ich die nicht alle alleine nutze.
Bin da eben so eingestellt, dass ich gerne solide Sachen habe. Und da ist es dann eben immer bessere Hardware, als ich es eigentlich benötigen würde. Frickeln an den Einstellungen ist eben nicht so meins, und dem gehe ich damit aus dem Weg. Was aber nicht heißen soll, das ich es mir nicht zutrauen würde. Aber empfinde ich mit der passenden Hardware unnötig. Auch, wenn man sicher immer was verbessern kann.....man muss ja nicht.
Wie vieles andere auch nicht :cool:
 
Man kann DLSS 3.0 auch als Zukunftsoption sehen, wenn die Verfügbarkeit in zwei Jahren flächendeckend gegeben ist. Dann kann so eine Karte, die heute einfach nur abartig teuer ist, eine Langzeitinvestition sein. Siehe RTX 2000, diese Karten profitieren heute von DLSS und FSR.

Das kann man sicherlich so einseitig positiv sehen, aber dazu stimmen die Preise fuer Ada Lovelace Grafikkarten leider ueberhaupt nicht (im Vergleich zum Vorgaenger und zur Konkurrenz) und ja, gerade RTX 2000 war so lange auf Versprechen und verbuggte, unfertige RTX Spiele aufgebaut, dass dieses sicherlich kein ruehmliches Beispiel fuer eine Langzeitinvestition ist, denn zum Marktstart von Turing gab es lange Zeit gar nichts - was das unfertige RTX genutzt, geschweige denn ausgereizt, hat - nur von nVidia in der Praesentation gezeigte bis dann irgendwann etliche Monate spaeter Battlefield V kam (und mehrfach nachgebessert werden musste) .

Aehnlich sehe ich das bei Ada Lovelace, denn aktuell werden die High-End Modelle noch nicht ausgereizt aber man bezahlt trotzdem entsprechende Aufpreise als Early Adopter, womit es praktisch ein "mit Kanonen auf Spatzen schiessen" ist und noch ueberhaupt nicht lohnt (was auch dieser Testartikel hier verdeutlicht) und selbst bei einer Handvoll Computerspiele, die DLSS 3.0 dann ansatzweise irgendwann ausreizen wuerden von diesen Kartenmodellen, sehe ich keine gesunde Relation zum Aufpreis und diese Art - fuer in Aussicht gestellte Zukunfts-Features auf Basis des Marketings eines Unterehmens und ohne aktuellen Nutzen/Mehrwert - heftige Vorschussaufpreise zu verlangen, finde ich jedenfalls alles andere als loeblich, kundenfreundlich und unterstuetzenswert.

Was die Palit Midnight Kaleidoscope GameRock (RTX 4080) Karte angeht, so ist das fuer RGB-Fans sicherlich ein richtiger Hingucker und wenn auch wenn die technischen Produktdaten durchaus ueberzeugend sind, so ist die Presipolitik von nVidia - die das kaputt macht - sicherlich alles andere, bei quasi einer Preisverdoppelung im Vergleich zum Vorgaenger (RTX 3080) im aktuellen Marktumfeld.

Wenn der Preis fuer eine RTX 4080 bei 800 Euro ankommen sollte - was aber eventuell ueber die Verkaufspreriode dieser Karten auch niemals erreicht werden koennte - kann man ueber einen Kauf sicherlich nachdenken, aber ansonsten bleibe ich bei meiner kritischen Sicht hinsichtlich des aktuell ungenuegenden Preis-Leistungs-Verhaeltnisses (auch im Vergleich zu einer RTX 4090).
 
Das kann man sicherlich so einseitig positiv sehen, aber dazu stimmen die Preise fuer Ada Lovelace Grafikkarten leider ueberhaupt nicht (im Vergleich zum Vorgaenger und zur Konkurrenz) und ja, gerade RTX 2000 war so lange auf Versprechen und verbuggte, unfertige RTX Spiele aufgebaut, dass dieses sicherlich kein ruehmliches Beispiel fuer eine Langzeitinvestition ist, denn zum Marktstart von Turing gab es lange Zeit gar nichts - was das unfertige RTX genutzt, geschweige denn ausgereizt, hat - nur von nVidia in der Praesentation gezeigte bis dann irgendwann etliche Monate spaeter Battlefield V kam (und mehrfach nachgebessert werden musste) .

Aehnlich sehe ich das bei Ada Lovelace, denn aktuell werden die High-End Modelle noch nicht ausgereizt aber man bezahlt trotzdem entsprechende Aufpreise als Early Adopter, womit es praktisch ein "mit Kanonen auf Spatzen schiessen" ist und noch ueberhaupt nicht lohnt (was auch dieser Testartikel hier verdeutlicht) und selbst bei einer Handvoll Computerspiele, die DLSS 3.0 dann ansatzweise irgendwann ausreizen wuerden von diesen Kartenmodellen, sehe ich keine gesunde Relation zum Aufpreis und diese Art - fuer in Aussicht gestellte Zukunfts-Features auf Basis des Marketings eines Unterehmens und ohne aktuellen Nutzen/Mehrwert - heftige Vorschussaufpreise zu verlangen, finde ich jedenfalls alles andere als loeblich, kundenfreundlich und unterstuetzenswert.

Was die Palit Midnight Kaleidoscope GameRock (RTX 4080) Karte angeht, so ist das fuer RGB-Fans sicherlich ein richtiger Hingucker und wenn auch wenn die technischen Produktdaten durchaus ueberzeugend sind, so ist die Presipolitik von nVidia - die das kaputt macht - sicherlich alles andere, bei quasi einer Preisverdoppelung im Vergleich zum Vorgaenger (RTX 3080) im aktuellen Marktumfeld.

Wenn der Preis fuer eine RTX 4080 bei 800 Euro ankommen sollte - was aber eventuell ueber die Verkaufspreriode dieser Karten auch niemals erreicht werden koennte - kann man ueber einen Kauf sicherlich nachdenken, aber ansonsten bleibe ich bei meiner kritischen Sicht hinsichtlich des aktuell ungenuegenden Preis-Leistungs-Verhaeltnisses (auch im Vergleich zu einer RTX 4090).
Du hast ja in allen Punkten recht. Aber wie definiert man Langzeitinvestion im Bereich High-End Game. Jenseits allen Geschwafel läuft meine 3090 richtig gut am 60HZ TV. Hier gehe ich von einer einer Nuntzungsdauer von weiteren 2 Jahren aus. Kaufe ich mir einen anderen TV mit 120MHZ (was Gott behüten möge) wäre die Karte aber völlig am Ende. Hier komme ich dann zur 4090. Die sollte auch 4 Jahre tun. Die Dinger wandern halt alle 2 Jahre vom Haupt zum Zweit PC.

Den Mehrwert der 4090 sehe ich in 4 K mit hohen Framezahlen sowie in VR und kommenden Gameengines. DLSS 3.0 wird sich schon durchsetzen, da bin ich relativ zuversichtlich. Ansonsten hab ja noch DLSS2, FSR und XESS. Irgendwas geht immer.

Deine kritischen Sicht hinsichtlich des aktuell ungenuegenden Preis-Leistungs-Verhaeltnisses kann man getrost auf alle neuen Karten zurecht anwenden.

Aber ich denke, und das ist der Punkt. Die wenigsten 4090er Kunden kaufen die Karten aus rein rationellen Erwägung heraus, sofern sie nicht damit arbeiten. .

Du kannst es, du willst es, also tust du es. Mich haben rationale Erwägungen überhaupt nicht interessiert. Ich wollte 3 Dinge

Power, Power, Power. Das die nicht zum Nulltarif zu haben ist, war klar. Genauso wie der Fakt das Sie völlig überteuert ist.

Vereinfacht hat den Kauf die Tatsache, das ich daran glaube, das es ohnehin aus meiner Sicht nicht mehr billiger wird.

Was macht man dann? Konsequenterweise auf PC Gaming verzichten? Oder doch zahlen?

Darüber kommt in meinem Alter die Frage der Nutzungsdauer ins Spiel. Ich hab weder Lust noch Zeit auf irgendwas zu warten. Mit 20 sieht man das sicher anders aus.

Jeder hat halt so seine Abwägungen und Archiellesfersen. Es ist einfacher mir eine Gafikkarte für 2 K oder ein paar Lautsprecher für 5 K zu verkaufen als einen Cappucino für 4.20 Euro oder Currywurst Pommes für 8.90 Euro oder teure Markenklamotten etc. Genau da hört es dann bei mir auf.
 
Zuletzt bearbeitet :
Es gibt keinen Grund sich den Kauf einer Lovelace schönzureden oder rational zu erklären. Wenn man die Karte nicht beruflich braucht, gibt es schlicht KEINEN rationalen Grund, soviel Geld auszugeben.

Allerdings: Ein Hobby ist auch nie rational. Niemand, der viel Geld für sein Hobby ausgibt, wird dafür echte rationale Gründe finden. Auch Gesundheit und Bewegung lässt sich fast zum Nullpreis erzielen...

Also, akzeptiert einfach, dass sich Leute eine dieser Karte kaufen, weil sie wollen und es sich leisten können. Niemand muss sich schlechter fühlen, weil er das nicht kann.

Und was die Technologie angeht: Sie wird nach unten durch"tröpfeln". Erst in Form der kleinen Lovelace und in ein paar Jahren ist es Common Ground in allen Preisregionen. So ist es doch immer.
 
Ich kann leider nicht jeden einzelnen Benchmark Test nachvollziehen, da ich nicht alle Spiele habe. Aber eines kann ich 100 Prozent sagen: Meine Palit Gamerock 4090 OC ist in Cyberpunk 2077 und 2160p in DLSS Qualität, genau 21 FPS schneller als die 4080 des gleichen Herstellers. Habe als CPU nur ein 10900K mit leichter Übertaktung auf 5Ghz (5,3Ghz möglich) all Cores, ein Asus Z490 E Gaming Mainboard, 16GB DDR4-3600 CL16. Glaube aber eher weniger, das die CPU in der Auflösung noch einen unterschied macht.
Und ja ich würde sagen, ich würde mir die 4090 wieder kaufen und keine 4080, die gerade einmal 400/500 Euro weniger kostet 😉
Zumal meine alte Msi X Trio 3090 OC mit den neuen Nvidia Treibern gerade einmal 7/8 Prozent langsamer ist als die 4080 🤷‍♂️
 
Leute, nur weil ein Spiel sehr anfordernd ist, muss es nicht gleich "schlecht optimiert" sein. Ich kann das schon nicht mehr hören. Wem die Framerate in 4k zu niedrig ist, soll entweder die Einstellungen reduzieren - dazu sind sie da - oder endlich mal das Dogma vergessen, dass Upscaling oder auch Frame Interpolation total evil sein muss.

Für mich ist diese Abneigung schon fast pathologisch.

P.S.: Bei mir sind auch fast alle embedded Links zu den Videos "broken", speziell auf den Seiten weiter hinten.
 
Also wer behauptet das neue Call of Duty wäre gut optimiert, hat wirklich von nichts eine Ahnung. Frage mich wo die bescheidene Qualität der Grafik von diesem Spiel rechtfertigt 240 FPS zu haben, aber trotzdem auf einer 4090 zu Ruckeln? Und dabei spielt keine Rolle, ob man ein 10900K hat oder ein13900K. Oder DDR4-3600 oder DDR5-6000. Eine Nvme oder eine HDD. Die scheisse ist schlecht Optimiert und ruckelt und das mit allen Treibern, fertig. Ich würde den Schrott für 70 Euro nicht mehr kaufen und habe leider nicht Direkt bei Steam gekauft, sondern Battlenet. Sonst hätte ich den Schrott sofort zurück an den Absender geschickt.
Soviel zum Thema Optimierung, Details und Ruckeln. Da sieht Cyberpunk 2077 tausend mal besser aus und läuft flüssig auf 4090 und 3090 Grafikkarten 😉
 
Also wer behauptet das neue Call of Duty wäre gut optimiert, hat wirklich von nichts eine Ahnung. Frage mich wo die bescheidene Qualität der Grafik von diesem Spiel rechtfertigt 240 FPS zu haben, aber trotzdem auf einer 4090 zu Ruckeln? Und dabei spielt keine Rolle, ob man ein 10900K hat oder ein13900K. Oder DDR4-3600 oder DDR5-6000. Eine Nvme oder eine HDD. Die scheisse ist schlecht Optimiert und ruckelt und das mit allen Treibern, fertig. Ich würde den Schrott für 70 Euro nicht mehr kaufen und habe leider nicht Direkt bei Steam gekauft, sondern Battlenet. Sonst hätte ich den Schrott sofort zurück an den Absender geschickt.
Soviel zum Thema Optimierung, Details und Ruckeln. Da sieht Cyberpunk 2077 tausend mal besser aus und läuft flüssig auf 4090 und 3090 Grafikkarten 😉
Bei mir ruckelt da nix ;)
 
Oben Unten