Reviews Geplante NVIDIA-Obsoleszenz in Far Cry 6? Wenn der Speicher selbst eine RTX 3080 Ti plötzlich in die Knie zwingt

RT ist für mich nach wie vor kein Kaufargument. Es gibt vielleicht zwei, drei Spiele in denen das mit 4K a) gut aussieht bzw. auch auffällt und b) auch performant läuft - 3080 (Ti) oder 3090 vorausgesetzt.
Das kommt ganz auf das eigene Setup an. Je größer der Bildschirm, desto eher fällt Raytraying auf. Habe einen LG CX als Monitor in Verwendung und wenn ich dort CONTROL oder Cyberpunk spiele... hui,hui, hui. Will ich nie wieder missen. Mega geil.

Richtig ist auf jedenfall, dass RT nicht in jedem Spiel gut implementiert ist und in manchen Spielen kaum auffällt und dennoch massiv Leistung frisst. Hier muss ganz dringend besser optimiert werden. Aber das wird erst kommen, wenn die Next-Gen Console Games released werden und dabei RT unterstützen. Richtig ist auch, dass für ordentliches RT eine lächerlich teure GPU erforderlich ist - unter einer 3080 braucht man da in 4K erst garnicht hallo sagen. Und dann läuft man fix ins VRAM Limit.
 
Also wenn dann die 4xxx Karten mal kommen, für Preise zwischen 2900- 4200€ mit min. 32 respektive 48GB und die gesamte Nachfolge vom AM 4
werden wir wohl keinen PC im Premiumsegment unter 5000.-€ sehen. Das stellt sich für mich langsam die Frage ob der PC nicht irgendwie ein Auslaufmodell für Gamer wird. Vielleicht sollte Sony und Microsoft konfigurierbare Konsolen anbieten, wie z.B.
5600x/16GB ram/ 6700xt/ rtx3070 FullHD ~90-€
5800X/32GBram/6800xt/rtx3080tifür wqhd ~150.-€
5950x/64GB ram/690xt/rtx 3090 für 4K ~250.-€
inkl. Strom-, DSL Vertrag monatl. Miete. Somit wäre es den Herstellern mal möglich ordentliches Recycling zu betreiben und nicht noch mehr Elektronikschrott zu produzieren
 
Vielleicht kommt es ja ganz anders, Intel bekommt es mit finanziellen Polster hin, dedizierte GraKas im Bereich WQHD zu anständigen Preisen die 3 Macht zu stellen.
 
RT ist für mich nach wie vor kein Kaufargument. Es gibt vielleicht zwei, drei Spiele in denen das mit 4K a) gut aussieht bzw. auch auffällt und b) auch performant läuft - 3080 (Ti) oder 3090 vorausgesetzt.
Ja, aber da bist/wärst du in dem Käufersegment wohl eher in der Minderheit.

Die meisten, die einen vierstelligen Betrag für eine GPU zu Zahlen bereit sind, wollen keine Features deaktivieren, um gute Performance zu haben. Und da hat die RTX 3000er Serie im High-End Bereich einfach das bessere Paket als die RX 6000er Serie.

Und was die Zukunftssicherheit angeht: Gemäss Steam Hardware Survey sind aktuell 20% der GPUs RT fähig. Im Vergleich dazu hat weniger als 1% aller GPUs mehr als 12GB VRAM (0.4% 3090 und 3x <0.16% für 6800/6900). Und während 100% der verkauften (aktuellen) Grafikkarten den RT Anteil erhöhen, wird es wohl noch ein Jahr dauern, bis mehr als 10% der verkauften GPUs mehr als 12GB VRAM haben.

Dass RT bei AMD in der Zukunft ein Problem wird, ist so gut wie sicher. Wie's beim Speicher aussieht, muss sich erst noch zeigen.
 
Zukunft und aktuelle Hardware sind Synonyme, die sich selten vereinbaren lassen.
Im 1000 € Segment war für mich die 6900XT die bessere Wahl. Allerdings spiele ich nur in WQHD.
Die Frage ist, wieviel $ ist man bereit in den (schlimmstenfalls beim next Game/VGA Gen.) in den Sand zu setzen.
Nun bin ich nicht der ausgesprochene Game Spezi, kann aber Dank Igorslab ab und an zur 3070 rüberschauen und das derzeit einzige Game, was mit RT besser aussieht, ist Fortnite.(haben jetzt nicht soooo viele Games drauf, vor allem kein Cherry Picking)
RDR2 sieht bei mir besser aus.....finde ich (hat ja nun auch pseudo RT, oder?). Aber das bedeutet nix, bin nicht die Referenz^^

Die Frage ist, was geht einem ehr aus, Speicher oder RT?
Ich kann es nicht beantworten und eine 10GB Karte kam für mich nicht in Frage, die 3080Ti/3090 war ein unbezahlbares Einhorn und ich erinner mich noch an die 20GB Gerüchte für Ti, also fällt eigentlich die Ti auch weg.
Es hätte auch eine 6800XT getan, aber man nimmt was man bekommt.
 
Zuletzt bearbeitet von einem Moderator :
Meine Meinung: RT my a§§. Auch auf einer 3090 kostet das bei 4K so übel Performance, dass man das nicht (voll) aufdrehen kann. Und dann muss man die Effekte auch echt mit der Lupe suchen. Schatten? Reflexionen? Ey, das interessiert mich (!) im normalen Spielgeschehen (1st/3rd Person, Strategie) nicht die Bohne! Sind einfach NULL spielentscheidend und auch der WOW-Effekt stellt sich bei mir weder ein noch bleibt er aus.

Ich will RT für die ganz normale Beleuchtung auf ganz normalen Gegenständen wie Gebäuden, Mobiliar, Pflanzen und vor allem anderen Personen/Gegnern/Fahrzeugen! DA spielt die Musik, DA schaue ich dauernd hin - nicht auf die blöde Pfütze oder den überflüssigen Schatten am unteren Bildrand. Aber dafür reicht die Power heute noch lange nicht!

Und ich werde ganz bestimmt kein DLSS oder anderen Unfug anschalten, der das was zählt schlechter aussehen lässt damit man das was ich nicht brauche sehen kann.

Sorry, das musste mal raus.

Und das sage ich als jemand, der mit seiner 3090 durchaus happy ist und keinen Euro dafür bereut! Performance in allen Spielen endlich ohne Kompromisse mit 4K - tja solange kein RT dazu kommt. Dass RT (noch) nichts kann, zumindest auf 4K, war mir vorher klar, wenn man verfolgt hat, was mit/seit der 2000er Generation passiert ist. Das ist halt Technik in ihren Kinderschuhen - so ein bisserl wie das klassische antialiasing früher, was anfangs auch übel Performance gekostet hat und jetzt sorgt das bei den GPUs nur noch für ein müdes Schulterzucken. Das ist für mich eher so eine Entwicklung in die richtige Richtung, die ich durchaus unterstütze, und fällt aber in die Kategorie „schön, wenn was funzt“ - aber nicht als entscheidendes Merkmal für meine Kaufentscheidung. Da hat Nvidia halt einfach das Glück mit mir, dass sie bei ihrem Flagship eben sowohl genug Speicher, „normale Performance“ am oberen Limit, vernünftige Treiber sowie ein paar technische Bonusfeatures mitbringen. Würd ich die wieder kaufen? Jupp - zu dem Preis wie ich meine bekommen habe jederzeit. Würde ich dafür 1.000 Euro mehr ausgeben wie
AMDs aktuelles Gegenstück? Never ever.
 
Ja, aber da bist/wärst du in dem Käufersegment wohl eher in der Minderheit.

Die meisten, die einen vierstelligen Betrag für eine GPU zu Zahlen bereit sind, wollen keine Features deaktivieren, um gute Performance zu haben. Und da hat die RTX 3000er Serie im High-End Bereich einfach das bessere Paket als die RX 6000er Serie.

Und was die Zukunftssicherheit angeht: Gemäss Steam Hardware Survey sind aktuell 20% der GPUs RT fähig.
Das mit der Minderheit mag sein. Aber wie du ja schreibst: RT-fähig heißt nicht, dass RT auch (flüssig) läuft. Ich hab ne 2080S verbaut und spiele auf WQHD - mit RT on läuft die vor allem in aktuellen Titeln voll ins Geruckel - und sieht für mich dabei nicht soo viel besser aus, als dass ich das haben muss. Bedeutet doch aber auch, dass 3070/60 ... zwar einen ordentlichen Market Share haben, aber mit denen auch niemand RT on mit schicken Details zocken kann. Also wird das deaktiviert. Oder die spielen alle schmerzbefreit im Ruckelmodus. Oder in FHD?!

Ist mir am Ende auch egal, alle RT Effekte, die ich bisher gesehen habe, brauche ich nicht. Ich bin eher scharf auf HDR in 4K-Auflösung. Und da fehlt es schlicht an bezahlbaren Displays.
 
Das mit der Minderheit mag sein. Aber wie du ja schreibst: RT-fähig heißt nicht, dass RT auch (flüssig) läuft. Ich hab ne 2080S verbaut und spiele auf WQHD - mit RT on läuft die vor allem in aktuellen Titeln voll ins Geruckel - und sieht für mich dabei nicht soo viel besser aus, als dass ich das haben muss. Bedeutet doch aber auch, dass 3070/60 ... zwar einen ordentlichen Market Share haben, aber mit denen auch niemand RT on mit schicken Details zocken kann. Also wird das deaktiviert. Oder die spielen alle schmerzbefreit im Ruckelmodus. Oder in FHD?!

Ist mir am Ende auch egal, alle RT Effekte, die ich bisher gesehen habe, brauche ich nicht. Ich bin eher scharf auf HDR in 4K-Auflösung. Und da fehlt es schlicht an bezahlbaren Displays.
Ähem, ich will jetzt nicht das sich der Eindruck verfestigt ich wiederspreche dir aus Prinzip, aber mir gefällt RT in Games ganz gut. Sobald man DLSS zuschalten kann, werden auch akzeptable Frames generiert. Selbst mit meiner alten 2080 super.

Was die Monitore angeht, so finde ich 34 Zoll mit 3440 x 1440 hochattraktiv. Die Immersion ist gut, die Auflösung Top aber immer noch unter 4K. Darüberhinaus sind diese Modelle im Vergleich eigentlich ganz gut bezahlbar.

 
Ähem, ich will jetzt nicht das sich der Eindruck verfestigt ich wiederspreche dir aus Prinzip, aber mir gefällt RT in Games ganz gut. Sobald man DLSS zuschalten kann, werden auch akzeptable Frames generiert. Selbst mit meiner alten 2080 super.
Das ist doch wunderbar. Mir gefällt es auch gut - wenn ich mich nicht bewege und die Gelegenheit habe, jedes Detail zu betrachten. Ich komme mit meinem G-Sync Display und der 2080S auch auf akzeptable Frames, aber nicht in allen Spielen und die Karte wird echt laut. Das sind mir die Effekte bisher nicht wert. Und von DLSS lasse ich aus denselben Gründen wie @Besterino die Finger. Zusätzlich hat das bei mir in einigen Spielen (u. a. Metro Exodus) massive Grafikfehler produziert. Ich bin aber auch nicht grundsätzlich dagegen. Sieht ja wirklich gut aus. Aber Mehrwert und Kosten (Geld, Leistung) stehen aktuell in keinem Verhältnis.

Zu DLSS nur so viel: Allein die Tatsache, dass man eine Technologie schafft, die Grafik nicht mehr berechnet, sondern "zufällig" generiert, ist für mich im Kern kein echter Fortschritt. Auch wenn die KI dahinter wirklich beeindruckend arbeitet. Ich hätte lieber ein High-End Modell, bei dem DLSS nicht an Bord ist und dafür weniger kostet, weil man sich die Tensor-Kerne spart. Sofern das möglich ist. Ansonsten bleibt bei mir der fade Beigeschmack, dass ich mit meiner Hardware Nvidias KI trainiere...
 
Das ist doch wunderbar. Mir gefällt es auch gut - wenn ich mich nicht bewege und die Gelegenheit habe, jedes Detail zu betrachten. Ich komme mit meinem G-Sync Display und der 2080S auch auf akzeptable Frames, aber nicht in allen Spielen und die Karte wird echt laut. Das sind mir die Effekte bisher nicht wert. Und von DLSS lasse ich aus denselben Gründen wie @Besterino die Finger. Zusätzlich hat das bei mir in einigen Spielen (u. a. Metro Exodus) massive Grafikfehler produziert. Ich bin aber auch nicht grundsätzlich dagegen. Sieht ja wirklich gut aus. Aber Mehrwert und Kosten (Geld, Leistung) stehen aktuell in keinem Verhältnis.

Zu DLSS nur so viel: Allein die Tatsache, dass man eine Technologie schafft, die Grafik nicht mehr berechnet, sondern "zufällig" generiert, ist für mich im Kern kein echter Fortschritt. Auch wenn die KI dahinter wirklich beeindruckend arbeitet. Ich hätte lieber ein High-End Modell, bei dem DLSS nicht an Bord ist und dafür weniger kostet, weil man sich die Tensor-Kerne spart. Sofern das möglich ist. Ansonsten bleibt bei mir der fade Beigeschmack, dass ich mit meiner Hardware Nvidias KI trainiere...
Ist in der Tat ein möglicher Standpunkt. Allerdings habe ich bei Spielen die ich erst ohne und dann mit RT gespielt habe eine andere Form der Immersion. ( Bei der Gelegenheit würde ich dir gern nochmal die 34 Zoll Monitore ans Herz legen. Nicht umsonst hab ich 4 davon). Meine 2080 Super steckt im Wohnzimmer an meinem Zeit- PC. Und da steckt Sie eigentlich nur noch dank DLSS und nun FSR an einem 4 K 70 Zoll. Ohne diese Techniken wäre ich wahrscheinlich wieder um 2000 Euro ärmer.

DLSS und FSR hilft mir und vielen anderen, die möglicherweise irreale Hoffnung aufrecht zu erhalten, es würde irgendwann wieder günstiger.

Das mit der Lautsärke stimmt leider. Aber ich hab für meine Karte beim besten willen keinen Wasserkühler mehr gefunden.
 
Das mit der Minderheit mag sein. Aber wie du ja schreibst: RT-fähig heißt nicht, dass RT auch (flüssig) läuft. Ich hab ne 2080S verbaut und spiele auf WQHD - mit RT on läuft die vor allem in aktuellen Titeln voll ins Geruckel - und sieht für mich dabei nicht soo viel besser aus, als dass ich das haben muss. Bedeutet doch aber auch, dass 3070/60 ... zwar einen ordentlichen Market Share haben, aber mit denen auch niemand RT on mit schicken Details zocken kann. Also wird das deaktiviert. Oder die spielen alle schmerzbefreit im Ruckelmodus. Oder in FHD?!

Ist mir am Ende auch egal, alle RT Effekte, die ich bisher gesehen habe, brauche ich nicht. Ich bin eher scharf auf HDR in 4K-Auflösung. Und da fehlt es schlicht an bezahlbaren Displays.
Erwähnt werden sollte hier, dass die RTX 3000er Generation deutliche Steigerungen in Bezug auf RT Leistung hat. Mit einer RTX 2000er Karte fährt man hier grundsätzlich schlecht (war ja schon zu Release klar, 1st Gen halt). Mit einem RTX 3000er Pendant läuft das ganze deutlich flüssiger.
 
Das mit der Minderheit mag sein. Aber wie du ja schreibst: RT-fähig heißt nicht, dass RT auch (flüssig) läuft. Ich hab ne 2080S verbaut und spiele auf WQHD - mit RT on läuft die vor allem in aktuellen Titeln voll ins Geruckel - und sieht für mich dabei nicht soo viel besser aus, als dass ich das haben muss. Bedeutet doch aber auch, dass 3070/60 ... zwar einen ordentlichen Market Share haben, aber mit denen auch niemand RT on mit schicken Details zocken kann. Also wird das deaktiviert. Oder die spielen alle schmerzbefreit im Ruckelmodus. Oder in FHD?!

Ist mir am Ende auch egal, alle RT Effekte, die ich bisher gesehen habe, brauche ich nicht. Ich bin eher scharf auf HDR in 4K-Auflösung. Und da fehlt es schlicht an bezahlbaren Displays.
Nein, mir ging es tatsächlich nicht um genügende RT Performance, sondern um "technisch möglich".

Bei 20% RT fähigen Karten und 0.x% >12 GB VRAM Karten auf Steam (und einem schneller wachsenden RT Anteil) halte ich es einfach für wahrscheinlicher, dass es mehr Spiele geben wird, in denen das mangelhafte RT ein Problem ist, als Spiele, in denen die 12 GB Speicher einer 3080 Ti ein Problem sind.
 
Erwähnt werden sollte hier, dass die RTX 3000er Generation deutliche Steigerungen in Bezug auf RT Leistung hat. Mit einer RTX 2000er Karte fährt man hier grundsätzlich schlecht (war ja schon zu Release klar, 1st Gen halt). Mit einem RTX 3000er Pendant läuft das ganze deutlich flüssiger.
Mit RT on auf WQHD und max. Details braucht man halt ne Karte, die einfach viel zu teuer ist. Lieber noch ne Gen warten. Unter Umständen ergibt sich demnächst die Möglichkeit, ne 3090 zu ergattern. Ob ich das aber wirklich mache, weiß ich noch nicht.
 
So, jetzt habe ich einen Knoten im Kopf. Ich hab nach der Diskussion hier nochmal ein paar Experimente mit RT gemacht. Und hab "Control" angeworfen (lag noch auf meiner Pile of Shame).
Einstellungen: WQHD, alles maxed out, DirectX 12, DLSS off
Mit RT max > trotz G-Sync ziemlich ruckelig und manchmal unter 30 FPS.
Mit RT mittel > spielbar.
RT off > super flüssig, aber die Karte wurde plötzlich laut, Lüfter drehten hoch

Zum Look: Der sieht bei Control ohne RT natürlicher aus als mit, weil die das mit den Reflexionen übertrieben haben.

RT mag zwar mehr Leistung fressen, aber irgendwie bleibt die Karte dabei erstmal kühler. Kann mir das jemand erklären? Oder ist das einfach eine miese Umsetzung?
 
Vieleicht wartet der rest der Karte auf die RT berechnung. Nur 30 FPS für die Rastereinheit ist halt stromsparender wie 100 FPS.

Aber eigentlich habe ich davon keine ahnung : )
 
Mit RT max > trotz G-Sync ziemlich ruckelig und manchmal unter 30 FPS

Versuche doch mal Dein „maxed out Programm“ für einen Test aufzugeben und
anstatt Ultra (oder wie auch immer) „nur“ in very high (1 Stufe vor max.) zu
spielen.
Oft sind die Unterschiede sehr klein...

Dann mit RTX (volle Kanne)....
Kommst Du dann nicht auf einige FPS mehr,bei gleichzeitig sehr guter Bildqualität ?
 
Die Raytracingleistung von der 2080 kannst du leider knicken.
Deswegen bin ich von 2080 S Strix (ansonsten tolle Karte, hab ich für 500 an einen netten jungen Mann verkauft) auf 3080 Suprim. Cyberpunk war es mir das Wert und ich habs auch nicht bereut. Ist aber tatsächlich auch fast das einzige Spiel, welches ich mit Raytracing on gespielt habe.

Das mit dem Speicher finde ich auch nicht toll. Denke aber, dass ich mit den 10 GB noch eine Weile klar komme. (WQHD) Bisher ist auch noch kein Speicherfresser rausgekommen, der mich interessiert. Ist natürlich nur eine Frage der Zeit.

Schönes we für euch ;-)
 
Zuletzt bearbeitet :
Ich bin da ganz bei grimm. Mir ist Rasterleistung bis jetzt massiv wichtiger als RT.
RT schön und gut, aber in der Action nehm ich das gar nicht oder kaum wahr.
Während hohe FPS mit schicker Grafik immer auffällt.

Da gibts auch n gutes Video von LTT, die haben diverse Games im Blindtest mit RT on und off
verglichen. Wenn man sich nicht auskennt wie das Rendering funktioniert tippen die meisten
falsch, was jetzt RT ist und was nicht. Sprich es fällt kaum auf, kost aber massig Leistung.

RT wird für mich in 1-2 Grafikkartengens langsam interessant, wenn die Leistung dafür gut genug ist
und nicht nur Licht, Schatten und Reflexion mit RT daherkommt.

Daher Stand jetzt genug VRAM und Rasterpower 3x so wichtig wie RT.
 
Zuletzt bearbeitet :
Ich bin da ganz bei grimm. Mir ist Rasterleistung bis jetzt massiv wichtiger als RT.
RT schön und gut, aber in der Action nehm ich das gar nicht oder kaum wahr.
Während hohe FPS mit schicker Grafik immer auffällt.

Da gibts auch n gutes Video von LTT, die haben diverse Games im Blindtest mit RT on und off
verglichen. Wenn man sich nicht auskennt wie das Rendering funktioniert tippen die meisten
falsch, was jetzt RT ist und was nicht. Sprich es fällt kaum auf, kost aber massig Leistung.

RT wird für mich in 1-2 Grafikkartengens langsam interessant, wenn die Leistung dafür gut genug ist
und nicht nur Licht, Schatten und Reflexion mit RT daherkommt.

Daher Stand jetzt genug VRAM und Rasterpower 3x so wichtig wie RT.
Da kannst du ruhig noch 5-10 Jahre mehr draufschlagen. Falls Echtzeit Pathtracing überhaupt jemals kommen wird.
Aber grundsätzlich ist schon "nur" Licht, Schatten und Reflexionen ein Riesensprung vorwärts was die Grafik (und auch das Leveldesign) angeht.

Realistische Beleuchtung ist mit den aktuellen Grafiktricks immer mit grossem Aufwand verbunden und das Resultat ist trotzdem nicht immer allzu überzeugend. Mit RT Beleuchtung kriegst du einen Teil davon einfach gratis dazu (beim Leveldesign, nicht beim Rendern) Und wenn's gut gemacht ist, sieht die Welt und die Objekte darin deutlich mehr aus einem Guss aus - vor allem in Bewegung.

Aber letztendlich muss natürlich auch da das Spiel darauf ausgelegt sein. Ein paar RT-Pfützen reichen da halt leider nur für's Häkchen in der Featureliste und den Performanceverlust ohne grossen visuellen Zugewinn.

Und was du auch nicht unterschätzen darfst: Wir hatten 2 Jahrzehnte Zeit, uns an die künstliche 3D Beleuchtung und die damit verbundenen Artefakte als "normal" zu gewöhnen. Da sieht RT häufig erst mal einfach nur anders oder sogar übertrieben aus.

Ich hoffe einfach, dass RDNA2 auf den Konsolen genug RT Leistung hat, damit in Zukunft mehr Spiele tatsächlich voll auf RT Beleuchtung setzen. Sonst haben wir an der Front eine Generation verloren.

Was das mit dem VRAM angeht: "In der Action" siehst du weder die RT Effekte noch das UHD Texturpack. Von daher brauchst du weder RT noch 16GB ;)
 
Ich denke auch das Fare Cry 6 nur ein Symthom ist, und nicht das Problem. Klar, so wie Igor es dastellt, hat man hier gegen Nvidia geschossen, aber was ist dan, mit dem nächsten Spiel, das dan wirklich mehr als 12GB ausnutzt. Und man den Mehraufwand auch Optisch sieht?

Ich denke, Nvidia hat sich da in eine Sackgasse manöfriert. Starke GPUs mit cooler Technik, aber dahinter zu wenig speicher? Das wird nichtmehr lange gutgehen.
 
Oben Unten