Reviews Geplante NVIDIA-Obsoleszenz in Far Cry 6? Wenn der Speicher selbst eine RTX 3080 Ti plötzlich in die Knie zwingt

Guten Morgen Igor,

weisst du noch wie wir diskutiert haben 3080TI respektive 3090 bezüglich des Speichers und du der Meinung warst, das 12 GB auch auf Dauer genug wären. Ging jetzt schneller als ich dachte. Ich hoffe aber, sowas bleibt ein EInzelfall. Dennoch war es Imho nur eine Frage der Zeit, bis der geringe Speicherausbau NVDIA vor die Füße fällt.
Mit etwas Kompetenz (und/oder guten Willen) des Entwicklers ist es ja auch.
Das schlimme hier ist ja, dass die HD Texturen 1. kaum einen Mehrwert bieten und 2. das Spiel offenbar einfach das Speichermanagement so vernachlässigt, dass die Performance komplett einbricht.

Wenn die Performance von Anfang an mies wäre, wäre die Speichermenge offensichtlich zu gering. Wenn's erst nach einiger Zeit passiert, dann behandelt das Spiel den VRAM so, wie ich meinen Keller: "Vielleicht kann ich's ja später irgendwann nochmals brauchen..."
 
Naja, das dürfte wohl entscheidend davon abhängen, mit wie viel Speicher und zu welchem Preis 4070 und 4080 daher kommen werden, zumal die Leistung der 4080 die der 3090 wohl einigermaßen deutlich übertreffen dürfte ...
Abwarten und locker durch die Hose atmen. Wie ich NVDIA kenne, kann der Käufer Froh sein, wenn er dann 16 GB bekommt. Und welchen Ram wissen wir auch nicht. Und deutlich ist eine Definitionsfrage. Die 3080er war erstmal attrakiv zur 2080ti aufgrund des vermuteten günstigen Preises. Leistungsmäßig Spaß hattes du erst, (kostenunabhängig) 2080ti VS 3090.

Wenn es dumm läuft, stehen 16 Gb+15 Prozent mehr Leistung gegen 24 GB. Und billig wird das ganze sicher wieder nicht. Aber wie Igor so schön sagt, alles Spekulatius.

Jedenfalls war der Kauf einer 3090 kein Griff ins klo.
 
Zuletzt bearbeitet :
Mit etwas Kompetenz (und/oder guten Willen) des Entwicklers ist es ja auch.
Das schlimme hier ist ja, dass die HD Texturen 1. kaum einen Mehrwert bieten und 2. das Spiel offenbar einfach das Speichermanagement so vernachlässigt, dass die Performance komplett einbricht.

Wenn die Performance von Anfang an mies wäre, wäre die Speichermenge offensichtlich zu gering. Wenn's erst nach einiger Zeit passiert, dann behandelt das Spiel den VRAM so, wie ich meinen Keller: "Vielleicht kann ich's ja später irgendwann nochmals brauchen..."
Leider sind aber Kompetenz und guter Wille jeweils schon Mangelware und im Team so gut wie nie anzutreffen. Und die 16 GB von AMD sind halt verführerisch. Und Mehrwert hin oder her, die Leute werden unruhig wenn ihre Graka irgendwas nicht kann. Unabhängig von der Sinnhaftigkeit. Darüberhinaus befürchte ich, ist es nur eine Zeitfrage bis sich der Mehrwert bei neuen Games einstellt.

Und dann hast du die Qual der Wahl bei 4K

Entweder 16Gb mit möglicherweise zu kleinem Cache oder schnellen, aber zuwenig Ram oder 3090.

Wir werden es ja sehen.
 
Zuletzt bearbeitet :
Im VRAM sammeln sich eimerweise Dinge an, die keiner braucht. Wenn es hoppelt, geht man z.B. nach einem Speicherpunkt direkt ins Hauptmenü und lädt dort dann wieder den letzen Autosave. Es sieht alles gleich viel besser aus, die Matschtapeten sind weg, die Performance ist wieder da und 4 GB Binärmull wurde entsorgt. Und nun frage ich mich, warum das immer wieder passiert, aber nie auf einer AMD-Karte mit 16 GB. Dort wir nie so viel allokiert, dass es knapp wird. Wenn man aber den Cut erst bei etwas über 12 GB so brutal ansetzt und vorher alles gnadenlos zubombt, hat das schon einen gewissen Beigeschmack. Denn im aufgräumten Zustand reichen auch < 10 GB noch locker aus.
 
Im VRAM sammeln sich eimerweise Dinge an, die keiner braucht. Wenn es hoppelt, geht man z.B. nach einem Speicherpunkt direkt ins Hauptmenü und lädt dort dann wieder den letzen Autosave. Es sieht alles gleich viel besser aus, die Matschtapeten sind weg, die Performance ist wieder da und 4 GB Binärmull wurde entsorgt. Und nun frage ich mich, warum das immer wieder passiert, aber nie auf einer AMD-Karte mit 16 GB. Dort wir nie so viel allokiert, dass es knapp wird. Wenn man aber den Cut erst bei etwas über 12 GB so brutal ansetzt und vorher alles gnadenlos zubombt, hat das schon einen gewissen Beigeschmack. Denn im aufgräumten Zustand reichen auch < 10 GB noch locker aus.
Ohne jetzt Impertinent erscheinen zu wollen, aber vielleicht liegt es daran, das NVDIA zu den meistgehassten Firmen im PC Universum zählt.
 
Naja, ob jetzt durch Gameworks oder durch übermäßigen Konsum von Speicher die Leistung der Konkurrenz madig gemacht wird, spielt doch eigentlich keine Rolle. Es hat so oder so einen faden Beigeschmack.

Ich persönlich finde aber nach wie vor, dass gute Texturen einen wesentlich größeren Effekt auf die Optik eines Spiels haben, als spiegelnde Glatzen und weiche Schatten.

Grüße!
 
Du mustest nur richtig ausgeben und nicht Pfennigfuchsen. Die 3090er Besitzer ärgern sich definitv nicht.;)

Gerade ist der Wert der 3090er im Wiederverkauf bei erscheinen der 4090er enorm gestiegen. Wo immer der Preis dann auch sein mag.

Das Motto ist: Einfach alle reden lassen und symply the best kaufen. Ist zwar teuer aber sicher. Die 300-400 Euro von der 3080ti zur 3090er machen aucht den Kohl nicht Fett. Und die ganzen ausgelachten 3090er Käufer haben am Ende Recht behalten.
Also, mich freuts, dass 3090 Käufer happy sind, aber 350€ bis 800€ (die meisten greifen wohl eher zu der nicht-maßlos überteurten TI) mehr für ein bis zwei Spiele fällt jetzt bei mir nicht so sehr unter "hat sich doch gelohnt!".
Den Aufpreis kann man sich sparen, jetzt eine 3080 kaufen und einfach direkt beim Release der 4000er Serie nochmal eine neue kaufen. Oder man kauft sich jetzt einfach noch eine AMD Karte und switched zwischen seinen Karten, wenn AMD und Nvidia sich zoffen.
 
Jedenfalls war der Kauf einer 3090 kein Griff ins klo.
Nee, ganz sicher nicht, vor allem dann, wenn man sie zu einem halbwegs vernünftigen Preis bekommen hat. Ich habe mich ja selbst schon dabei ertappt, darüber nachzudenken - kaufen und erst mal recht lange Zeit Ruhe haben ist, gerade in Zeiten wie diesen, echt verführerisch.

Angesichts der Tatsache, dass ja auch schon 1080Ti und 2080Ti keine wirklich schlechten Käufe waren (gut, Letztere vielleicht etwas teuer), sollte ich das bei der 4090 vielleicht noch mal ernsthaft erwägen ...
 
Ironischer Sarkasmus, beide Seiten betrachtend und sinnvoll analysiert. Super geschrieben!;)

NVidia lebte seinen Vormachtstellungen im Bereich Innovation und Ausstattung immer aus, warum sollte AMD es nicht auch tun. Non DLAA für AMD, resultiert dann in Non VRAM für NVidia. Beide Probleme sind allein bei NVidia gelagert.

Leider baden wir es aus, aber (und jetzt kommt es): "sie lernen voneinander" (und sich zu akzeptieren), also kann es für uns nur besser werden.

NVidia hat es ja schon bewiesen, siehe gsync compatible, was nichts anderes als Adaptiv Sync ist, schön grün verpackt, wobei AMD eben FSR auch auf NVidia zulässt. Wenn Intel noch kommt, werden die sicher noch "dicker" zusammenhalten. Dann ändert sich das "Feindbild" in blau.:)

* was ich noch anfügen möchte: bitte nicht VRAM "usage" mit "allocation" verwechseln. Natürlich hat man wenn man neu startet weniger Daten im Speicher, erst wenn man sich durch die Map bewegt werden die dazugehörigen Daten usw. im VRAM abgelegt.

Die VRAM usage dabei zu kappen und oder den Rest auszulagern ist Aufgabe des Treibers, wer hat da geschlafen? Bei CoD und HZD klappt es ja auch und beide Spiele belegen sonst mehr als 10GIB. Die memory size dafür ist nicht allociert, sondern der gemeinsame Pool VRAM/RAM. Unter FC6 (Dunia) hat man das Problem, dass dann die Qualität reduziert wird und es sofort sichtbar wird.
 
Zuletzt bearbeitet von einem Moderator :
Ist nicht schade drum. Viel verpasst Du nicht. Habe die Beta ausgiebig getested. Grafisch ein Rückschritt, laggy, buggy, den Netcode haben sie wieder kaputt gemacht... das Spiel ist aktuell late Alpha, early Beta state. Keine Ahnung, wie die das noch zeitig fixen wollen. Vermutlich wird das entweder verbugged released oder tatsächlich (wenn die Gerüchte recht haben) auf 03/2022 verschoben.
Hätte es trotzdem gerne Mal getestet :) Vielleicht gibt's das ja zum neuen Intel dazu :) Es wird vermutlich dann ein Cyberpunk 2.0 Release? Unfertige Spiele werden wie gesagt immer öfter Released...
 
Also, mich freuts, dass 3090 Käufer happy sind, aber 350€ bis 800€ (die meisten greifen wohl eher zu der nicht-maßlos überteurten TI) mehr für ein bis zwei Spiele fällt jetzt bei mir nicht so sehr unter "hat sich doch gelohnt!".
Den Aufpreis kann man sich sparen, jetzt eine 3080 kaufen und einfach direkt beim Release der 4000er Serie nochmal eine neue kaufen. Oder man kauft sich jetzt einfach noch eine AMD Karte und switched zwischen seinen Karten, wenn AMD und Nvidia sich zoffen.
Wenn es die dann geben wird? BTW hast du das Problem ja immer: Nächstes Jahr kommt dann die bessere ... raus, dann Kauf ich mir die. Ich bin der Meinung immer am Release kaufen dann hat man "am längsten das neuste"
 
Du mustest nur richtig ausgeben und nicht Pfennigfuchsen. Die 3090er Besitzer ärgern sich definitv nicht.;)

Gerade ist der Wert der 3090er im Wiederverkauf bei erscheinen der 4090er enorm gestiegen. Wo immer der Preis dann auch sein mag.

Das Motto ist: Einfach alle reden lassen und symply the best kaufen. Ist zwar teuer aber sicher. Die 300-400 Euro von der 3080ti zur 3090er machen aucht den Kohl nicht Fett. Und die ganzen ausgelachten 3090er Käufer haben am Ende Recht behalten.
Das Problem ist einfach die Anschaffung auch bei der Finanzministerin durchzubringen :ROFLMAO:
Und bei nem vierstelligen Betrag für ein PC Teil kenne ich das Urteil schon (n)
Aber ist eh jammern auf hohem Niveau, gibt es halt nicht alles auf Ultra und gut ist.

Aber die 3090 Besitzer haben dann vllt Angst vor dem plötzlichen Ableben ihrer Karten... Wobei im Moment jede GPU die Stirbt schmerzhaft ist. Zur Not hab ich hier noch eine Voodoo 1 mit dem passenden Unterbau, dann gibt es halt Retro Games ohne HD und so einen Schnulli in 640x480 🥴

Und ich bin auf AMD gespannt ob in der nächsten Gen die 7 als führende Zahl vorkommt, weil ne 7700 hab ich noch rumfliegen.
 
Dann kann ich mir den Download des HD-Pakets ja sparen.

Im Moment geht sowieso nix, Ubisoft Connect kommt ueber den Status "Initialisierung" nicht hinaus :poop:
 
12Gbyte Ram ist halt zu wenig, wenn man alles max machen will.
Die Konsolen können 16Gbyte VRam nutzen und tun das auch.

Wer weniger als 16 Gbyte VRam hat, muss bei den Texturen eine Stufe runter.
Die Specs der Konsolen sind seit mindestens 1 Jahr bekannt und diese sezten nunmal die allgemeinen Harrdwareanforderungen der nächten Jahre. .

Und jetzt rummjammern ist halt zu spät. Die 3080 und 3080ti sind High FPS Karten für normale bis hoher Bildqualität.
Für maximale Bildqualität haben sie zu wenig Ram, auch das wurde von anfang an bemängelt und genannt.
 
Im VRAM sammeln sich eimerweise Dinge an, die keiner braucht. Wenn es hoppelt, geht man z.B. nach einem Speicherpunkt direkt ins Hauptmenü und lädt dort dann wieder den letzen Autosave. Es sieht alles gleich viel besser aus, die Matschtapeten sind weg, die Performance ist wieder da und 4 GB Binärmull wurde entsorgt. Und nun frage ich mich, warum das immer wieder passiert, aber nie auf einer AMD-Karte mit 16 GB. Dort wir nie so viel allokiert, dass es knapp wird. Wenn man aber den Cut erst bei etwas über 12 GB so brutal ansetzt und vorher alles gnadenlos zubombt, hat das schon einen gewissen Beigeschmack. Denn im aufgräumten Zustand reichen auch < 10 GB noch locker aus.
Ich bin leider jetzt nicht so in der Materie drin dass ich es einfach behaupten geschweige denn sagen wollte, dass es so ist. Ich frage mich allerdings, ob es ein könnte, dass der Infinity-Cache bei AMD eine "bereinigende" Funktion hat und das unnötige Dinge aus dem VRAM dadurch entfernt werden. Wenn das Game auf AMD RX6000er optimiert sein sollte, könnten Optimierungen für den Cache bei Nvidia Probleme machen.

Ist nur eine von mir gesponne Idee ohne Hardwarehintergrundwissen und kann komplett daneben sein, aber wenn der VRAM bei Nvidia vermüllt wird und bei AMD nicht, warum sollte es nicht die Optimierung auf RX6000 und deren zweistufige VRAM-Implementierun sein, die Nvidia Probleme macht.

Cunhell
 
Lieber Igor, danke für den Test. Dein OLED von LG hat nativ aber 4096x2160, also echtes 4K und nicht nur 3840x2160. Das Bild wird gestreckt und dadurch verzerrt wenn du nur 3840x2160 einstellst. Ich speiele seit 3 Jahren auf diversen LG OLED Fernsehern (Aktuell 48" CX, davor 55" B7 und B9) und mir ist es die ersten 2 Jahre auch nicht aufgefallen bis ich auf einen entsprechenden Forenbeitrag gestoßen bin. G-Sync und Freesync bei 120 Hz funktionieren trotzdem.

PS: Ich bin am Anfang des Jahres von einer wassergekühlten RTX 3090 auf eine wassergekühlte 6900 XT umgestiegen und bereue es keine Sekunde. (Habe beide neu für 1500 bzw 1000 Euro bekommen, nach laaaaaanger Suche)
 
Im VRAM sammeln sich eimerweise Dinge an, die keiner braucht. Wenn es hoppelt, geht man z.B. nach einem Speicherpunkt direkt ins Hauptmenü und lädt dort dann wieder den letzen Autosave. Es sieht alles gleich viel besser aus, die Matschtapeten sind weg, die Performance ist wieder da und 4 GB Binärmull wurde entsorgt. Und nun frage ich mich, warum das immer wieder passiert, aber nie auf einer AMD-Karte mit 16 GB. Dort wir nie so viel allokiert, dass es knapp wird. Wenn man aber den Cut erst bei etwas über 12 GB so brutal ansetzt und vorher alles gnadenlos zubombt, hat das schon einen gewissen Beigeschmack. Denn im aufgräumten Zustand reichen auch < 10 GB noch locker aus.
Oh je, was für ein Mimimi.

Niemand ist gezwungen, das HD-Texturenpack zu installieren. Wozu auch, wenn es doch (angeblich) keinen optischen Mehrwert bietet.

Also kann man es doch auch weglassen. Auch wenn das möglicherweise einen tiefen Schmerz in der Psyche eines nVidia-12 GB-Kartenbesitzers hinterlässt.
 
12Gbyte Ram ist halt zu wenig, wenn man alles max machen will.
Die Konsolen können 16Gbyte VRam nutzen und tun das auch.

Wer weniger als 16 Gbyte VRam hat, muss bei den Texturen eine Stufe runter.
Die Specs der Konsolen sind seit mindestens 1 Jahr bekannt und diese sezten nunmal die allgemeinen Harrdwareanforderungen der nächten Jahre. .

Und jetzt rummjammern ist halt zu spät. Die 3080 und 3080ti sind High FPS Karten für normale bis hoher Bildqualität.
Für maximale Bildqualität haben sie zu wenig Ram, auch das wurde von anfang an bemängelt und genannt.
Genau mein reden. Anfang Oktober hatte man für viel Geld die Wahl zwischen dem Teufel und dem Belzebub. Entweder 16 GB mit rudimentären RT Fähigkeiten oder lächerlichen 10 GB Ram. Das die Konsolen Druck auf die Karten mit weniger Ram machen, fand ich selbsterklärend. Ich hab echt minutenlang mit mir gerungen. Und da ich weiss, das Lebensgefährtin von Lebensgefahr kommt, haben wir getrennte Kassen und ich kann all meine Hobbys Rechenschaftsfrei frönen. Habe mir gerade einen Rotel Ra 1572, aber das ist ein anderes Thema.

Ernsthaft, die 3090 schien mir aktuell die zukunftsfähigste Karte. Da haben mich dann sogar letztendlich die Kosten für die Waküaufrüstung weniger gestört, für die 3080/TI wären sie genauso hoch gewesen.


Andy197

---Wenn es die dann geben wird? BTW hast du das Problem ja immer: Nächstes Jahr kommt dann die bessere ... raus, dann Kauf ich mir die. Ich bin der Meinung immer am Release kaufen dann hat man "am längsten das neu----

Das ist übrigens ein mitenscheidendes Kriterium. Während ein großteil lamentiert spiele ich seit 11/20 damit.
Ausserdem bekommst du hochwertige Produkte immer gut verkauft. Mein altes 1080er SLI Waküsetup hat am ende den Preis der 3090 auf knapp 1000 Euro gedrückt. Das wird beim nächsten mal kaum anders sein.

shaboo

------Angesichts der Tatsache, dass ja auch schon 1080Ti und 2080Ti keine wirklich schlechten Käufe waren (gut, Letztere vielleicht etwas teuer), sollte ich das bei der 4090 vielleicht noch mal ernsthaft erwägen ...---

In der Tat, solltest du. Einfach auf bezahlen drücken und 3 Monate nicht aufs Konto gucken.;) Ab da liegt das schlimmste hinter dir. Zumal du jetzt für die 2080 Ti doch noch richtig Geld bekommst.

vonXanten


------- Aber die 3090 Besitzer haben dann vllt Angst vor dem plötzlichen Ableben ihrer Karten...-----

Nö gar nicht. Die Aorus MAster hat 4 Jahre Garantie. Und dank Igor weiss ich wie ich sie so zurückbaue, das man das nicht merkt.

Die werde ich noch mit Garantie verkaufen.
 
Zuletzt bearbeitet :
Dafür, dass der erste Satz so lautet:
"Nein, ich will Ubisoft und der freundlichen Unterstützung durch AMD bei Far Cry 6 nichts unterstellen"
werden hier aber ordentlich Unterstellungen schon fast als Fakt dargestellt :rolleyes:
 
Muss man den Artikel eigentlich mit gewisser Ironie genießen?
Die Überschrift "geplante Nvidia Obsolezenz" beinhaltet eine von Nvidia absichtlich herbeigeführte Alterung und von AMD eventuell unterstützt.
Ergo AMD unterstützt aktiv Nvidia. So tief wird die Liebe zwischen AMD und NV wohl ehr nicht sein, oder was soll das bedeuten?
Ohne Nvidia Eingriff in Far Cry 6 wäre es keine Obsolezenz....
Wie muss ich mir das vorstellen?
FC5 machte über 300Mio Umsatz (Ubis eigene Rekord) und Analysten bei Ubi kennen sicherlich die Prognosen.
Wer soll also wieviel wem zahlen, um einige wenige 4K Nvidia Gamer mit HD Pack zu zanken, bei einer GraKa die ursprünglich 700 Kosten sollte und so eigentlich mit 10GB dann ein guter Deal gewesen wäre.
Die geplante Obsolezenz besteht eigentlich nur darin, den Minern in die Hände gespielt zu haben.
Der Rest ist Geschichte.

Far Cry ist halt der Anfang. Als 3080 Besitzer mit entsprechenden Ausgaben wäre ich auch sauer.
Es werden mehr Games kommen. So ganz aus Jux hatte ich mich nicht für WQHD entschieden.
Damals war schon klar: Für 4K sollten noch 2 Gen abgewartet werden um ohne Reue daddeln zu können.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten