Testreihe mit Karten von NVIDIA und AMD - Wenn plötzlich der Speicher der Grafikkarte nicht mehr reicht

@Supie ist eine valide Erklärung, stimmt, hab nicht daran gedacht. Aber im Ernst, der Hauptgrund, weshalb man keine 4080/4090 "möchte", liegt wohl primär am Preis.

@Igor Wallossek das Speicherinterface ist so eine Sache, die dem Durchschnitt noch weniger bekannt ist, als VRAM selbst. Und ja das Interface ist dünn, sehr dünn. Dennoch wird die 16GB Version die Käufer erreichen, wegen Unwissenheit.

@eastcoast_pete ich denke, Nvidia wollte mit VRAM Geiz einfach wieder eine Generation mehr durch mogeln, aber eben weil die Game Hersteller so verschwenderisch mit Speicher umgehen, haben die 8GB Karten nun Probleme. Und wie Igor sagt, entwickelt ist entwickelt, nur die nächste Generation wird hoffentlich (!) besser. Denn mit so Druck und Stress, wie Games heute raus geschleudert werden, ist VRAM Optimierung sicher nie drin. Das darf keine Schule machen.
 
@Supie ist eine valide Erklärung, stimmt, hab nicht daran gedacht. Aber im Ernst, der Hauptgrund, weshalb man keine 4080/4090 "möchte", liegt wohl primär am Preis.
Das sehe ich auch so.

@eastcoast_pete ich denke, Nvidia wollte mit VRAM Geiz einfach wieder eine Generation mehr durch mogeln, aber eben weil die Game Hersteller so verschwenderisch mit Speicher umgehen, haben die 8GB Karten nun Probleme. Und wie Igor sagt, entwickelt ist entwickelt, nur die nächste Generation wird hoffentlich (!) besser. Denn mit so Druck und Stress, wie Games heute raus geschleudert werden, ist VRAM Optimierung sicher nie drin. Das darf keine Schule machen.

Ich glaube das das die reine Absicht ist. Es gibt 2 Gründe eine neue Karte erwerben zu wollen. Das eine ist die Chipleistung, der andere zu wenig Speicher bei aktuellen Games.

Bei dem Fortschritt den die aktuellen Beschleuniger wie FSR und DLSS erleben, ist zu wenig Speicher definitiv die zuverlässigere Variante, um den Kunden zum Neukauf zu bewegen.

Man ist doch schon heute wahrscheinlich mit einer 3090 perspektivisch besser gestellt, als mit einer 4070Ti, trotz DLSS 3. Und wie lange die 16 GB der 4080 eine sichere Bank sind, wird die Zukunft erweisen.
 
Zuletzt bearbeitet :
Danke @ Igor

Ganz kurze Frage, da ich es nicht im Text finden konnte:
Du verwendest keine Monitor Synchronisierungen wie VRR und auch kein simples HDR ?
 
Nein, aus Prinzip nicht. Alles, was verfälscht, fliegt raus :)
 
Privat nutze ich G-Sync und Framelimiter knapp unterhalb der Monitorfrequenz des OLED. Aber das muss man ja nun nicht benchmarken :D
 
Privat nutze ich G-Sync und Framelimiter knapp unterhalb der Monitorfrequenz des OLED. Aber das muss man ja nun nicht benchmarken :D
Pardon, nicht Falsch verstehen.
Mein Dank, war nicht Ironisch gemeint.

VRR zwischen 48 und 120Hz.
Also P1 unter 48 geht gar nicht.

P.S. ohne FSR2.0
 
Ich glaube das das die reine Absicht ist. Es gibt 2 Gründe eine neue Karte erwerben zu wollen. Das eine ist die Chipleistung, der andere zu wenig Speicher bei aktuellen Games.

Bei dem Fortschritt den die aktuellen Beschleuniger wie FSR und DLSS erleben, ist zu wenig Speicher definitiv die zuverlässigere Variante, um den Kunden zum Neukauf zu bewegen.

Man ist doch schon heute wahrscheinlich mit einer 3090 perspektivisch besser gestellt, als mit einer 4070Ti, trotz DLSS 3. Und wie lange die 16 GB der 4080 eine sichere Bank sind, wird die Zukunft erweisen.
Volltreffer. Es gibt so viele gekaufte Karten in all den PCs da draussen, und es gibt einige neuere Karten auf dem Markt, die noch verkauft werden möchten, welchen von der Rohleistung (noch) ganz ok wären, aber wegen zu wenig VRAM nicht performen können wie sie eigentlich könnten und sollten! Der Grossteil daran hat klar Nvidia zu verschulden. Was vor allem Nvidia bis heute immer noch bezgl. VRAM abzieht, ist einfach eine abgrundtiefe Unverschämtheit! Generation für Generation immer noch bei diesen verkrüppelten 8GB Varianten zu bleiben, und diese dermassen perfide auf den Markt zu werfen, diese so unverschämt all den Kunden für sehr teures Geld anzudrehen, unverständlich, unbeschreiblich.
 
Naja, aber das "Argument" der Anwendungen kommt gerne vom pickeligen dreizehnjährigen Gamer mit seiner 1030ti.
Jeder sieht wohl ein, das wegen "Software sells Hardware" jemanden mit entprechendem Bedarf eine 4090 oder 6000 kauft - welche ja auch genügend vRAM haben.
Aber das Argument für kleine Karten ist real gesehen Unsinn.
Um einmal im Monat mit Freeware etwas berechnen/rendern zu lassen kommt es auf ein paar Minuten nicht an (und auch hier kann mehr vRAM zu höherer Geschwindigkeit führen). Und wer es täglich mit einem 10000€ Programm macht wird sich nicht die billigste Karte dazu kaufen. Auf dem Mac klappt das ganze ja auch ohne Nvidia.
Nun wußte ich nicht, daß dieses Forum hier nur für selbsternannte "Profis" mit dickem Bankkonto und voll ausgestatteter Workstation (MacPro?) ist. In meinem Fall mache ich eben bestimmte Dinge heute als Hobby. Die Zeiten, als ich Dual Xeon Workstations für Bildanalysen und 3D Rekonstruktionen benutzt habe, sind schon etwas her. Und ja, einige Programme, die ich ab und an gerne benutze (inklusive solcher, die man sich kaufen muss, auch wenn sie keine € 10000 kosten) laufen einfach nicht stabil, wenn man nicht mindestens 8 GB VRAM hat.
Aber, mit Deiner Haltung und Wortwahl von wegen pickeligen Gamern, da passt der Satz mit dem Mac auch gut dazu. Würde aber gerne wissen, ob und wie da eine 4090 läuft (?!) Viel Spaß damit!
 
Bedarf ist relativ... Ich kann in Maya auch 48 GB vollballern und ärgere mich dann noch über zu langame SSDs beim Nachladen. Geht nicht, gibts nicht. :D
 
@Igor Wallossek : Zum NV-Graphen bei Bedarf=RAM: Du meinst Puls, ich denk mir eher Bass drum bei ner Techno-version von Gimme Gimme Gimme (more RAM before midnight) :p
 
Alte Fragen der neueren Geschichte: Who put the RAM in the Rama-lama-ding-dong?
War es Black Betty? Oder Paul McCartney?
 
Nun wußte ich nicht, daß dieses Forum hier nur für selbsternannte "Profis" mit dickem Bankkonto und voll ausgestatteter Workstation (MacPro?) ist. In meinem Fall mache ich eben bestimmte Dinge heute als Hobby. Die Zeiten, als ich Dual Xeon Workstations für Bildanalysen und 3D Rekonstruktionen benutzt habe, sind schon etwas her. Und ja, einige Programme, die ich ab und an gerne benutze (inklusive solcher, die man sich kaufen muss, auch wenn sie keine € 10000 kosten) laufen einfach nicht stabil, wenn man nicht mindestens 8 GB VRAM hat.
Pivat mache ich ab und zu etwas mit iClone (kostet nur ein paar hundert Euros). Das ging auch schon problemlos mit meiner alten RX480 (8GB), das war vor 6 Jahren. Seitdem musste man sich schon anstrengen kein 8GB vRAM zu bekommen (bei AMD). Ja, da gibt es auch ein Plugin für Nvidia, um das Rendern etwas zu beschleunigen, aber ob man da ein paar Minuten mehr braucht macht hobbymäßig kein großer Unterschied (bei mir jedenfalls), man kann eh nicht "live" drauf warten.
 
Volltreffer. Es gibt so viele gekaufte Karten in all den PCs da draussen, und es gibt einige neuere Karten auf dem Markt, die noch verkauft werden möchten, welchen von der Rohleistung (noch) ganz ok wären, aber wegen zu wenig VRAM nicht performen können wie sie eigentlich könnten und sollten! Der Grossteil daran hat klar Nvidia zu verschulden. Was vor allem Nvidia bis heute immer noch bezgl. VRAM abzieht, ist einfach eine abgrundtiefe Unverschämtheit! Generation für Generation immer noch bei diesen verkrüppelten 8GB Varianten zu bleiben, und diese dermassen perfide auf den Markt zu werfen, diese so unverschämt all den Kunden für sehr teures Geld anzudrehen, unverständlich, unbeschreiblich.
Das Problem ist, (wenn du es dir leisten kannst und willst), du zwingend zu dem Schluss kommst, das die größte NV Karte seit erscheinen der 1080Ti nicht nur immer die schnellste, sondern auch die günstigste Karte ist.

Zumindest wenn du Aspekte wie Spielspaß, Nutzungdauer und Wiederverkaufswert mit einbeziehst.

Ich bin mir sicher, das ich für meine 3090 beim Verkauf mehr bekomme, als für eine 4070ti. Und meine 4090 wird auch in 3 Jahren noch einigermaßen gut verkäuflich sein.

Für die ganzen 8-10-12 GB Karten wird es spätestens dann wahrscheinlich nur noch Peanuts geben.

Der ganze Rest bekommt gerade "beigebracht", das man selbst aktuelle Mittelklassekarten in absehbarer Zeit ersetzen darf, oder in mittleren Auflösungen die Details reduzieren muss, weil man in die Speicherfalle getappt ist.

Das wird in großem Umfang die Treffen, die ahnungslos, aber voller Gottvertrauen sich irgendwo einen "Gaming" - PC der mittleren Preisklasse gekauft haben. Und die, die Bescheid wissen, schauen ratlos in die Zukunft oder kaufen sich eine Konsole.

Andersrum wird das gute alte FULL HD für viele das neue 4K und die Parole lautet.

No Ram, no Future.
 
Zuletzt bearbeitet :
Ewe, baaaad choice.
Best baa none:
 
Das Problem ist, (wenn du es dir leisten kannst und willst), du zwingend zu dem Schluss kommst, das die größte NV Karte seit erscheinen der 1080Ti nicht nur immer die schnellste, sondern auch die günstigste Karte ist.

Zumindest wenn du Aspekte wie Spielspaß, Nutzungdauer und Wiederverkaufswert mit einbeziehst.

Ich bin mir sicher, das ich für meine 3090 beim Verkauf mehr bekomme, als für eine 4070ti. Und meine 4090 wird auch in 3 Jahren noch einigermaßen gut verkäuflich sein.

Für die ganzen 8-10-12 GB Karten wird es spätestens dann wahrscheinlich nur noch Peanuts geben.

Der ganze Rest bekommt gerade "beigebracht", das man selbst aktuelle Mittelklassekarten in absehbarer Zeit ersetzen darf, oder in mittleren Auflösungen die Details reduzieren muss, weil man in die Speicherfalle getappt ist.

Das wird in großem Umfang die Treffen, die ahnungslos, aber voller Gottvertrauen sich irgendwo einen "Gaming" - PC der mittleren Preisklasse gekauft haben. Und die, die Bescheid wissen, schauen ratlos in die Zukunft oder kaufen sich eine Konsole.

Andersrum wird das gute alte FULL HD für viele das neue 4K und die Parole lautet.

No Ram, no Future.
Stimmt alles, aber nur für Nvidia.
Bei AMD entspannt sich das beim Preis und Langlebigkeit. Z.B. eine 6800 mit 16GB vRAM für 399€ im Angebot oder eine 7900XT mit 20GB für 799€.
 
Was ich bedenklich finde, ist dass der Trend hin zu KI Zeugs geht wie DLSS und FSR, bis hin zu Frame Generation bei DLSS3. Dass man mit solchen Funktionen ein Manko an Leistung / Speicher puffern möchte, in Grenzfällen, wäre ja ok. Aber dass die Nutzung solcher Upscaler quasi zum Alltag werden soll, passt mir persönlich gar nicht. Ich möchte bitte das Spiel nativ, so wie es talentierte Designer erstellt haben. Keine hochgerechnete Auflösung, keine dazwischen gerechnete oder erfundene Details, oder gar eingeschobene Fake Frames. Anti Aliasing / Stabilität bekommt die KI sehr gut hin. Mehr möchte und brauche ich nicht. Der Druck hin zu KI beschönigt den Herstellern, dass ihre Karten den Games nicht mehr gewachsen sind. Und der Druck unterstützt die Game Hersteller quasi darin, schlechter zu optimieren, weil sie ja im Programm von Nvidia drin sind, und Unterstützung erhalten, weil DLSS integriert wird, und weil das neueste DLSS so zu Verkaufsargument wird. Es lenkt einfach von Problemen ab, zu wenig Leistung / VRAM, und/oder schlecht optimiertes Game.

KI "optimierte" Grafik ist für mich nicht wie ein Turbo/Kompressor, der wirklich mehr rohe Leistung bringt, sondern mehr wie aufgeklebte Lufteinlässe und Spoilerchen, die bessere rohe Leistung nur vorgaukeln.
 
Zuletzt bearbeitet :
Aber im Ernst, der Hauptgrund, weshalb man keine 4080/4090 "möchte", liegt wohl primär am Preis.
Das ist mir schon klar, man muss nur bedenken, das ist dann eine aktive Userentscheidung, das er eben das Angebot so für sich nciht passend empfindet. Einige tun das ja, und sind glaube ich auch recht zufrieden mit den Karten, auch wenns erstmal "weh" getan haben mag.......

Hab ausser Spuhlenfiepen (vereinzelt, dazu kann man aber aber vor bestimmte Fiep und Rasselthreads besuchen und gucken, ob das Wunschmodell dabei ist) habe ich nach dem "Steckerhype" bzgl. der Leistung der Karten noch nie was anderes als "WOW" in den Kommentaren gelesen.
 
Oben Unten