AMD zeigt NVIDIA amüsiert die kalte Schulter wegen deren knauseriger VRAM beim Launch der RTX 4070.

Ist der 4070 Käufer denn der 4k-UltraHDTexturenTrippelAJunkieZielgruppentyp? Vllt. auch nur der Gelegenheitsspieler, Indigamer etc. Die Steamhardwarestatistik scheint der überwiegende Teil der Spielergemeinschaft mit 6-8GB VRAM klarzukommen. Ein Upgrade auf 12 GB erscheint da eher sinnvoll. Nicht jeder hat das Geld oder das Bedürfniss so viel Geld für mehr als 12GB auszugeben 🙃
Liegt aber vielleicht auch daran, dass viele Käufer schlicht nicht das Geld haben/hatten Karten mit mehr als 8GB VRAM zu kaufen.
Wie viele so schön breittreten hat Nvidia 80%-90% Marktanteil und bei Nvidia gibt es halt mehr als 8GB VRAM nur bei den sehr teueren Karten die sich nicht jeder leisten kann oder will.
Die Steamstatistik zeigt das doch sehr schön. Fast nur Nvidia-Karten auf den ersten Plätzen. Genau der Hersteller, der mit VRAM sehr "sparsam" umgeht. Einzige Ausnahme ist doch die 3060 mit 12GB in den etwas gemäßigten Preisbereichen.

Deine zitierte Statistik verdeutlicht also doch genau diesen Zusammenhang. Daraus abzuleiten, dass die User mit 8GB problemlos klarkommen, ist daher schon etwas absurd. Der Marktführer verbaut wenig bis fast zu wenig VRAM und daraus wird dann, die User wollen/brauchen gar nicht mehr.
In der DDR hatten fast alle nur Trabis. Daraus abzuleiten, sie wollten und brauchten nichts besseres würde wohl niemanden einfallen, oder?

Cunhell
 
@cunhell
Ich habe mit keiner Silbe behauptet und nicht mal im entferntesten impliziert, dass die User mit 8GB problemlos klarkommen.

Die Steamhardwarestatistik scheint der überwiegende Teil der Spielergemeinschaft mit 6-8GB VRAM klarzukommen.
Mit "scheint" impliziere ich eine Vermutung und als möglichen Grund nannte ich Geld und Bedürfniss. Auf die DDR bemünzt also: "in der DDR hatten scheinbar fast alle einen Trabi, weil das Geld für andere (Import-) Autos fehlte, kein ausreichender Bedarf (für (Import-) Autos) bestand und/oder die Verfügbarkeit (von (Import-) Autos) nicht gegeben war". Das nur als Beispiel zur Klarstellung.
 
@cunhell
Ich habe mit keiner Silbe behauptet und nicht mal im entferntesten impliziert, dass die User mit 8GB problemlos klarkommen.


Mit "scheint" impliziere ich eine Vermutung und als möglichen Grund nannte ich Geld und Bedürfniss. Auf die DDR bemünzt also: "in der DDR hatten scheinbar fast alle einen Trabi, weil das Geld für andere (Import-) Autos fehlte, kein ausreichender Bedarf (für (Import-) Autos) bestand und/oder die Verfügbarkeit (von (Import-) Autos) nicht gegeben war". Das nur als Beispiel zur Klarstellung.
Sorry, aber genau so klingt Dein Posting. Es impliziert, dass die User gar nichts anderes benötigen, sonst würden sie ja Karten mit mehr VRAM kaufen. Wenn Du was anderes meinst, dann schreib es auch so.

Cunhell
 
Das Foto...😄
 
Sorry, aber genau so klingt Dein Posting. Es impliziert, dass die User gar nichts anderes benötigen, sonst würden sie ja Karten mit mehr VRAM kaufen. Wenn Du was anderes meinst, dann schreib es auch so.
Es ist nicht mein Fehler, wenn "scheinbar [...] klarzukommen" (Annahme) für dich wie "problemlos klarkommen" (Gewissheit) klingt. Ich habe dazu höflich Stellung bezogen und möchte ich es gerne dabei belassen 😘
 
Was so alles in letzter Zeit (an Grafikkarten) bei AMD verkauft wurde,-
könnte man wieder knapp um 18 bis 20% Marktanteil knabbern,- würde ich mal schnell behaupten.
 
@Gregor Kacknoob: du hättest den Teil mit der meistgenutzten Auflösung noch hinzufügen sollen. Für 1080p langen die 6 oder 8 GB, umso mehr in den PCs von anpassungsfähigen Menschen.
 
Das Portfolio der nVidia Karten der letzten zwei Generationen erinnert mich zunehmend an ein gestaffeltes Abo-Modell bei dem das günstigste Angebot für niemanden so richtig genügt, das mittlere für die meisten Fälle irgendwie ausreichend ist, aber auf mittlere Sicht alles andere als gewiss erscheint, also kauft man besser gleich das Komplett- oder Ultimate-Paket.
Und welche Preise offenbar viele zu zahlen bereit sind, trotz allen Unverständnisses meinerseits, statt mit dem Austausch der vorhandenen Hardware einfach mal 1-2 Jahre abzuwarten bis sich der Markt wieder beruhigt hat, bekommen wir jetzt als Quittung, indem bspw. der nVidia-Chef deutlich gemacht hat, dass die Preise nicht wieder gesenkt werden würden. Die Engpässe der letzten Jahre waren ein effektiver Stresstest für die Investionstoleranz in Produkte mit auf wenige Jahre begrenzter Nutzungsdauer und die Konsumenten haben dabei ungeachtet der Folgen die Hosen herunter gelassen.
Aufgrund der besseren Unterstüzung für Linux kommt für mich ohnehin nur AMD in Frage, sodass ich an der Stelle auf der CPU zum StreamEncoding mehr als 8 Kerne brauche, aber somit bleibt mir zumindest ein Teil des Wucherwahns erspart.
 
Ist der 4070 Käufer denn der 4k-UltraHDTexturenTrippelAJunkieZielgruppentyp? Vllt. auch nur der Gelegenheitsspieler, Indigamer etc. Die Steamhardwarestatistik scheint der überwiegende Teil der Spielergemeinschaft mit 6-8GB VRAM klarzukommen. Ein Upgrade auf 12 GB erscheint da eher sinnvoll. Nicht jeder hat das Geld oder das Bedürfniss so viel Geld für mehr als 12GB auszugeben 🙃
Gelegenheitsspieler bei dem Preis - wenn allein die Graka mehr als eine 4k Konsole kostet sind wir nicht beim Gelegenheitsspieler.
 
Nun hat AMD traditionell eher mehr VRAM fürs Geld geboten als NVIDIA; zumindest das stimmt. Allerdings kann man sich dann natürlich auch fragen, warum AMD's Karten bei gleichen Preisniveau dann nicht auch immer besser/schneller sind als die von NVIDIA. Sollten sie doch sein, da sie ja mehr Speicher haben, sind sie aber oft nicht. Und da liegt der Hase eben im Pfeffer.
Unabhängig davon ist es mE sehr bedauerlich, daß die sogenannte Mittelklasse bei dGPUs jetzt bei ca. € 600 los geht.
 
AMD sollte sich den Spruch "Die Geister, die ich rief." zu Herzen nehmen.

Sollte Nvidia jemals aufhören beim VRam zu knausern, gibt es keinen einzigen Grund mehr AMD zu kaufen...
 
Naja :) Da müsste man doch auch oder zuerst den Spieleproduzenten einen Vorwurf machen. Bestes Beispiel Hogwarts Legacy in UHD, alles Ultra und RTX an mit bis zu 16 GB Speicherfüllung.
 
Eigentlich... also, eigentlich eigentlich eher AMD, wie bei den CPUs und der absurden Kerninflation. Gäbe es Mittelklassekarten mit nur 6 bis 8 GB wären reichlich mehr Spieleprogrammierer damit beschäftigt (gewesen), ihr Geraffel ordentlich zu basteln und nicht den Speicher sinnlos zu befüllen. Gleiches gilt für sonstwelche Programme, bei denen irgendwas künstlich aufgebläht wird anstatt ressourcenschonend zu arbeiten.
Gestern habe ich mein neues und hier vorzüglichst passendes LIeblingsautokennzeichen gesehen, noch besser als WI-XA, nämlich BS-HQ 1. Faust, Auge oder Arsch und Eimer.
 
Eigentlich... also, eigentlich eigentlich eher AMD, wie bei den CPUs und der absurden Kerninflation. Gäbe es Mittelklassekarten mit nur 6 bis 8 GB wären reichlich mehr Spieleprogrammierer damit beschäftigt (gewesen), ihr Geraffel ordentlich zu basteln und nicht den Speicher sinnlos zu befüllen. Gleiches gilt für sonstwelche Programme, bei denen irgendwas künstlich aufgebläht wird anstatt ressourcenschonend zu arbeiten.
Gestern habe ich mein neues und hier vorzüglichst passendes LIeblingsautokennzeichen gesehen, noch besser als WI-XA, nämlich BS-HQ 1. Faust, Auge oder Arsch und Eimer.
Wahre Worte.
 
Eigentlich... also, eigentlich eigentlich eher AMD, wie bei den CPUs und der absurden Kerninflation. Gäbe es Mittelklassekarten mit nur 6 bis 8 GB wären reichlich mehr Spieleprogrammierer damit beschäftigt (gewesen), ihr Geraffel ordentlich zu basteln und nicht den Speicher sinnlos zu befüllen. Gleiches gilt für sonstwelche Programme, bei denen irgendwas künstlich aufgebläht wird anstatt ressourcenschonend zu arbeiten.
Gestern habe ich mein neues und hier vorzüglichst passendes LIeblingsautokennzeichen gesehen, noch besser als WI-XA, nämlich BS-HQ 1. Faust, Auge oder Arsch und Eimer.
Also manchmal frag ich mich schon ein wenig. Jetzt ist also AMD, neben der Tatsache, dass sie die Hardware eh nicht hinbekommen auch noch schuld, wenn Nvidia-Karten der VRAM ausgeht.

Heisst es nicht immer, Nvidia unterstützt die Spielehersteller so super? Wenn Nvidia meint, mit weniger Speicher auszukommen, da mehr unnötig ist, dann müssen sie halt bei den Spieleherstellern vorstellig werden und diese zum Optimieren des Resourcenverbrauchs drängen. AMD-Karten nutzt doch eh kaum einer, wie man hört, da muss man doch dann keine Rücksicht drauf nehmen.

Man man man.

Cunhell
 
Gegenfrage: wie deutest du denn das Mehr an Speicher bei AMD?
 
 
Oben Unten