Frage Wie lange reichen die 10Gb VRam einer RTX 3080 ?

@Case39 kommt bei 1440p ganz auf das Game an - die Auflösung ist genau der Knack- und Drehpunkt beim Thema 10+ Gb Vram...

Vor zwei Jahren habe ich noch gesagt das 8Gb für 2k dicke reichen, da waren auch die 11Gb einer 1080 Ti für 4k ausreichend... Da aber die Texturen immer Fotorealistischer bzw detailreicher werden und bei der Texturkompression der GPU Architekturen nicht sehr viel passiert ist kann das mitunter schon sehr eng werden.

Klar sind es wenige Spiele bisher, aber weniger werden es definitiv nicht...

Btw glaube ich fast das für 1440p nicht mal unbedingt eine 3080 notwendig ist, eine 3070 reicht mmn völlig bzw sollte es (dann aber bitte mit 16Gb 😉) - Texturen nehmen den größten Teil des Vrams ein und da ist es fast egal wie stark die GPU darunter ist, hast du den Speicher, kannst du die [Textur]Details hochdrehen - hast du ihn nicht, kann die GPU darunter noch so stark sein, aber du musst die Details runter drehen weil es sonst nachladeruckler gibt...
 
Nun, vereinzelt könnte es der Fall sein/werden, aber da bin ich durchaus entspannt.
Fraglich ist dann ebenfalls, ob es mich, bei meiner persönlich, begrenzten Auswahl an Spielen betreffen würde.
 
Genau das meine ich, es kommt dann klar auf die persönlichen Präferenzen an... Ich z.b. verzichte lieber auf Kantenglättung und super-duper Schatten, kann aber die Texturen auf voller Auflösung fahren als das die GPU alles ausfahren kann, es aber dennoch nicht toll aussieht weil die Texturen einfach nicht der Auflösung / dem Detailgrad entsprechend..

Deshalb ist momentan die Vega FE aus dem Ruhestand geholt worden für No man's sky und die eigentlich stärkere 5700 XT steht im Regal...

Keinen Bock mehr auf aufploppende Pflanzen und Matschige Bodentexturen... Da verzichte ich lieber auf Schattendetails die man eh kaum wahr nimmt und Postprocessing (weil der FE da die Puste ausgeht) - aber das ist eben meine Präferenz. 🙂

LG
 
@Pirate85

Lass die 10 GB Fraktion in 4K in den kommenden Titlen doch einfach mit ihren matschigen Texturen oder Mikroruckler spielen, ja 10 GB reicht noch locker 2 Jahre und mehr für alle kommenden Titel.
 
Es liegt ja nicht nur an den persönlichen Präferenzen. Der Optimierungsgrad des gewünschten Games, spielt da ebenfalls ne Rolle💁‍♂️
 
Du kannst Treiber auf ne Engine hin optimieren für eine Architektur.
An Texturen kannst du nix optimieren, da sich bei der entsprechenden Texturkompression seit Generationen quasi fast nichts getan hat... - außer das Spiel hat nen Speicherleck... Aber das ist dann das Spiel und nicht die Hardware bzw die Treibersoftware. 😉
 
Im Speicher der Grafikkarte komprimiert man Texturen auch nicht. Auf der HD/SSD sind die Daten komprimiert, damit sie weniger Platz brauchen. Wenn sie geladen werden, entpackt man sie, damit man sie schnell verwenden kann.
 
Im Speicher der Grafikkarte komprimiert man Texturen auch nicht. Auf der HD/SSD sind die Daten komprimiert, damit sie weniger Platz brauchen. Wenn sie geladen werden, entpackt man sie, damit man sie schnell verwenden kann.
Doch, es gibt auch Texturkompression im Speicher der Graka. ... ich glaube S3 hat damit damals mal angefangen und das ist inzwischen Standard.

An andere Beitragende:
Ich finde es echt verblüffend: Da wird ein Chart gepostet, der belegt, dass Spiele auf 4k in der Regel deutlich weniger als 10 GB RAM verbrauchen und das wird komplett ignoriert und weiterhin gebetsmühlenartig wiederholt, dass man mit 10 GB RAM nicht vernünftig spielen könnte, da das zu wenig RAM wäre.
Es ist erstaunlich, wie weit die Meinungen von den gebotenen Fakten entfernt liegen.

Meine alte Graka hat 3 GB RAM und damit kann ich einiges auf 4k spielen. Ja, die Frameraten sind teilweise (verständlicher Weise, die Karte ist alt) grütze, aber immerhin. Die neuen Grakas sind, wie man es in Benchmarks gesehen hat, mehr als nur potent genug. Das Balkendiagramm aus dem Beitrag weiter oben zeigt, dass man noch reichlich Luft hat, was den Speicher betrifft - bei normalen bzw gängigen Spielen.
Und ja: Es wird sicherlich für irgendwelche Spiele wieder "Super-duper-high-res-Textur-Packs" geben, die jede Karte zum Kotzen bringen.

Das ist nicht der Normalfall. Und das gab es auch schon immer: Crysis lief auch auf ungefähr keiner Karte. Liegt das an den Grafikkarten oder daran, dass das Spiel schrott ist, wenn andere Spiele ähnliches bieten und funktionieren? Kann man so sehen, muss man aber nicht.

Und wenn der Ursprungsposter nach FullHD (1920x1080) fragt, was auch mit viel weniger RAM kein Problem ist, kein Problem war und auch kein Problem mehr werden wird, verstehe ich nicht, dass so viele sagen: "Oh, die nächsten 2 Jahre wird das bereits schwierig..."
Wird es nicht! Bei FullHD, nicht UHD, kann er sich selbst die wildesten Textur-Packs installieren und wird mit 10 GB RAM auf der Karte keine Probleme haben.
Ja, 10 GB können bei 4k Titeln mit extremen Details und hochauflösenden Texturen unter Umständen knapp werden. Allerdings würde ich da ganz dreist behaupten: Heute noch kein Problem und "in Zukunft" vielleicht.

Davon zu reden, dass Leute mit 10 GB Karten nur "mit matschigen Texturen und Mikrorucklern" spielen könnten, ist einfach fern ab jeglicher Realität. Und ja, ich habe den Artikel von Igor auch gelesen, indem die Menge von 3 Leuten unter nicht näher genannten Bedingungen zugestimmt hat, dass ein nicht genauer zu definierender Unterschied zu merken war.
Lasst doch mal die Kirche im Dorf.
Mehr RAM wird nicht schaden, da sind wir uns wohl gerade alle einig. Mehr RAM wäre auch "ganz nett", doch 10 GB sind "hinreichend" für 4k/UHD und mehr als genug für FullHD.

Und ansonsten verweise ich nochmal auf das Balkendiagramm von Obse:
6 Spiele im Vergleich, maximal 8,3 GB RAM auf 4k RAM in Verwendung.

Und auch wenn da mal wieder von "VRAM" die Rede ist, obwohl GDDR (6X) verwendet wird und kein VRAM: 8,3 ist weniger als 10 - das sollte auch das schlichteste Gemüt erkennen können. ;)
 
Mmh, ich finde 10 GB knapp, jedenfalls wenn es noch einige backportierte Spiele gibt ähnlich Horizon Zero Dawn.
Da werden bei mir bei 4K die 11 GB der 2080Ti fast komplett belegt.
 
Doch, es gibt auch Texturkompression im Speicher der Graka. ... ich glaube S3 hat damit damals mal angefangen und das ist inzwischen Standard.

An andere Beitragende:
Ich finde es echt verblüffend: Da wird ein Chart gepostet, der belegt, dass Spiele auf 4k in der Regel deutlich weniger als 10 GB RAM verbrauchen und das wird komplett ignoriert und weiterhin gebetsmühlenartig wiederholt, dass man mit 10 GB RAM nicht vernünftig spielen könnte, da das zu wenig RAM wäre.
Es ist erstaunlich, wie weit die Meinungen von den gebotenen Fakten entfernt liegen.

Meine alte Graka hat 3 GB RAM und damit kann ich einiges auf 4k spielen. Ja, die Frameraten sind teilweise (verständlicher Weise, die Karte ist alt) grütze, aber immerhin. Die neuen Grakas sind, wie man es in Benchmarks gesehen hat, mehr als nur potent genug. Das Balkendiagramm aus dem Beitrag weiter oben zeigt, dass man noch reichlich Luft hat, was den Speicher betrifft - bei normalen bzw gängigen Spielen.
Und ja: Es wird sicherlich für irgendwelche Spiele wieder "Super-duper-high-res-Textur-Packs" geben, die jede Karte zum Kotzen bringen.

Das ist nicht der Normalfall. Und das gab es auch schon immer: Crysis lief auch auf ungefähr keiner Karte. Liegt das an den Grafikkarten oder daran, dass das Spiel schrott ist, wenn andere Spiele ähnliches bieten und funktionieren? Kann man so sehen, muss man aber nicht.

Und wenn der Ursprungsposter nach FullHD (1920x1080) fragt, was auch mit viel weniger RAM kein Problem ist, kein Problem war und auch kein Problem mehr werden wird, verstehe ich nicht, dass so viele sagen: "Oh, die nächsten 2 Jahre wird das bereits schwierig..."
Wird es nicht! Bei FullHD, nicht UHD, kann er sich selbst die wildesten Textur-Packs installieren und wird mit 10 GB RAM auf der Karte keine Probleme haben.
Ja, 10 GB können bei 4k Titeln mit extremen Details und hochauflösenden Texturen unter Umständen knapp werden. Allerdings würde ich da ganz dreist behaupten: Heute noch kein Problem und "in Zukunft" vielleicht.

Davon zu reden, dass Leute mit 10 GB Karten nur "mit matschigen Texturen und Mikrorucklern" spielen könnten, ist einfach fern ab jeglicher Realität. Und ja, ich habe den Artikel von Igor auch gelesen, indem die Menge von 3 Leuten unter nicht näher genannten Bedingungen zugestimmt hat, dass ein nicht genauer zu definierender Unterschied zu merken war.
Lasst doch mal die Kirche im Dorf.
Mehr RAM wird nicht schaden, da sind wir uns wohl gerade alle einig. Mehr RAM wäre auch "ganz nett", doch 10 GB sind "hinreichend" für 4k/UHD und mehr als genug für FullHD.

Und ansonsten verweise ich nochmal auf das Balkendiagramm von Obse:
6 Spiele im Vergleich, maximal 8,3 GB RAM auf 4k RAM in Verwendung.

Und auch wenn da mal wieder von "VRAM" die Rede ist, obwohl GDDR (6X) verwendet wird und kein VRAM: 8,3 ist weniger als 10 - das sollte auch das schlichteste Gemüt erkennen können. ;)

Sorry für Fullquote, aber sowas muss man einfach in der Form der Nachwelt erhalten.

Aber als erstes einmal: Danke für die Bestätigung für die Texturkompression... ist ja nicht so das die GPU Hersteller die Formate aus Spaß supporten, wenn die nicht benötigt werden würden. :coffee:

Aber nun zum Wall of Text...
Nen Chart der eine nicht näher definierte Spieldauer / Szene eines Spieles zeigt / misst ist also der Beleg, das der VRAM völlig ausreicht - herzlichen Glückwunsch...

Das kann man gerne bei Spielen wie "Rage" (2011) machen, wo die Texturen in einem einzigen großen "Mega-Bild" gespeichert waren und quasi sofort komplett geladen wurde, nicht aber in 2020 wo immer mehr auf die Bildqualität fokusiert wird was die nächsten Jahre definitiv nicht weniger wird.

Selbst der User der hier seit 6+ Jahren auf 4k unterwegs ist meint, das 10Gb keine Probleme geben werden Zitat: "vorausgesetzt man kann die Regler bedienen"... und das hat auch keiner ernsthaft angezweifelt, das Verhältnis zwischen Leistungsstärke der GPU und dem zur Verfügung stehenden Speicher ist einfach nur, sagen wir mal "nicht optimal".

Ich klinke mich mit meinem Subjektiven Fall hier mal aus, ich bin wahrscheinlich einfach nur zu blöde das ich keinen Bock habe mal 2 Stufen in der Texturqualität zurückzugehen nur um meine RX 5700 XT in No Mans Sky ohne Nachladeprobleme der Bodentexturen sowie Flora/Fauna @1440p nutzen zu können und lieber eine alte Vega10 GPU mit 16Gb HBM2 Vram nutze - geschenkt (Weil es eben einfach nur ein Beispiel ist). Das ganze beginnt aber eben auch erst nach 45min+ Gameplay und vielem Reisen zu einem Problem zu werden, vorher sind 8Gb Vram dicke ausreichend... ein Speichern und Neu laden behebt das ganze (dasselbe Problem existiert im übrigen auch auf der Xbox One X, ich hoffe das die neue Box das ganze behebt), aber darauf habe ich eben keine Lust denn nach 11,5+Gb Vram pendelt es sich ein und ist Stabil.

Problem:
GPUz zeigt mir zu diesem Zeitpunkt bei der RX 5700XT einen Verbrauch von knapp 7 Gb Vram an (o.g. Problem mit matschigen Texturen und aufploppender Flora/Fauna) - ergo: Vram MUSS voll sein.
Bei der FE sind es 11+Gb und ich habe diese Probleme nicht... also ganz so akkurat ist die Anzeige also auch nicht.


Zusätzlich zitiere ich hier einfach mal den User @Najuno dessen Beitrag du ebenfalls geliked hast:

Das hängt ganz einfach damit zusammen, dass erstens viele Leute bisher noch gar kein 4K hatten/haben bzw. so langsam umsteigen wollen. Und man hört ja immer nur die Horror-Szenarien, dass 4K jegliche GPU zum Frühstück verspeist. Dabei vergessen viele der 4K Interessierten leider auch, dass die Benchmarks oder Benchmark-Szenarien der Magazine etc. immer Extremsituationen sind.

Bei weitem nicht jedes Spiel ist in 4K, mit ner halbwegs potenten GPU, ne große Herausforderung oder ein VRAM Fresser. Gibt genug Spiele die in 4K nen FPS Limiter brauchen, und es ist halt auch Fakt, dass mit steigender Auflösung die Kantenglättung verringert werden kann (das ist u.a. auch damit gemeint "Regler bedienen"). Klar gibts auch genug Spiele, die eine GPU in 4K schnell an ihr Limit bringen, aber ich muss sagen seit der 2080Ti kämpfe ich eigentlich in keinem Game mehr damit 60FPS zu schaffen ohne dabei die Settings unter "Hoch" stellen zu müssen und meist sind die "Ultra"-Settings reine Hardwarefresser ohne großen optischen Zugewinn.

Und zweitens gibts einfach genug Leute, die gar kein 4K und/oder Highend-GPUs besitzen aber einfach mal "gute" Ratschläge geben, basierend darauf was sie im Netz und in Foren aufschnappen.
Ich nutze 4K seit bald 6 Jahren und kenne noch die Zeiten mit SLI, Stuttering und co. Das ist seit geraumer Zeit aber alles kein Thema mehr und 4K sehe ich bei PC Gamern, die sich in solch einschlägigen Foren rumtreiben o.ä. schon lange keine Nische mehr gerade im Hinblick auf die 3080/3090 und AMD´s Big Navi (auch wenn man die finale Performance hier Stand 14.10.2020 noch nicht kennt 4K sollte solide machbar sein).

Der VRAM der 3080 ist meiner Meinung nach mit 10GB zwar nicht extrem üppig ausgelegt, aber auch nicht so, dass man sagen müsste man kann damit nix anfangen. Meiner persönlichen Einschätzung nach, wird man die kommenden 2 Jahre kaum mit Einschränkungen in 4K zu kämpfen haben, vorausgesetzt man kann die Regler bedienen ;). Und wer das nicht kann dem wird auch die 3090 nicht langen, denn da gibts zwar genug VRAM aber da geht dem Chip dann die Luft aus :).


Das einzige dem ich aus dem Beitrag nicht zustimmen kann ist, das im ersten Absatz geschrieben wird "dass die Benchmarks oder Benchmark-Szenarien der Magazine etc. immer Extremsituationen sind" - das ist keines Falls belegt und ich habe bisher auch keinen Hinweis darauf gefunden das Gamestar dort extra Szenen/Savegames verwendet hat die das Extreme an Vram Nutzung zeigen, sondern vermutlich - da es nirgends erwähnt wird - dass das die entsprechenden Szenen/Savegames sind die die GPU am meisten fordern (sprich die vom normalen Performance Test)... was 2 völlig unterschiedliche Paar Schuhe sind.

Der Rest ist im Endeffekt exakt das was ich unter "Persönliche Präferenzen" verstehe... den Rest nagelst du ja an einem 1-Zeilen Kommentar fest.

Es gibt Spiele die sehr effizient mit Vram umgehen, es gibt Spiele die dies nicht tun oder deren "Welten" einfach so groß sind das niemals alles in den Vram geladen werden kann und es dann dort auf ein effizientes Speichermanagement ankommt.


Allerdings, wie schon einmal erwähnt, klinke ich mich hier an der Stelle aus.
Es macht schlicht keinen Sinn über persönliche Präferenzen zu diskutieren - Ich kann nur sagen das ich genügen Kunden/Clienten... wie auch immer man es nennen soll... habe die @4k daddeln, oder 2k mit einem Dual/Tripple Monitor Setup, oder oder oder und dort spätestens sind 10Gb ähnlich knapp an die Kante genäht wie z.b. bei der RX480 4Gb seinerzeit oder der GTX 1060 3Gb... und diese GPUs haben mittlerweile 4 Jahre auf dem Buckel und sind - mmn - unbrauchbar für 1080p+ wenn man ernsthaft was spielen möchte, während ihre Pendants mit doppeltem Vram selbst auf 2k noch gut dabei sind. (WoT, Warthunder, Amored Warefare, Sea of Thieves, GTA Online... etc pp - Qualitative MMO Games eben).

Kurz und Knapp: Für 1080p sind die 10Gb easy noch die nächsten Jahre kein Problem und die Frage im Eingangspost vom Thread war eben ob zumindest 1080p... - ob man für diese Auflösung eine 3080 braucht sei mal dahingestellt.
Ab 1440p sollte man dann aber schon gucken was man spielt und ob die Anschlagsszenarien den Vram nicht überfordern - denn die GPU an sich ist wesentlich potenter als die Vram Bestückung es herzugeben vermag.

LG
Marti

Edit: Prell- und Textkorrekturen
 
Zuletzt bearbeitet von einem Moderator :
Tach!

Eigentlich ging es ja auch primär um die 1080p Frage.
Und die ist eindeutig zu beantworten - da waren wir uns auch auf Anhieb einig.


GPUz zeigt mir zu diesem Zeitpunkt bei der RX 5700XT einen Verbrauch von knapp 7 Gb Vram an (o.g. Problem mit matschigen Texturen und aufploppender Flora/Fauna) - ergo: Vram MUSS voll sein.
Hmmm, nö, nicht unbedingt. Diese Aussage finde ich viel zu kurz gesprungen.
Daher hole ich da etwas aus...
Mit den gegebenen Informationen ist das nicht eindeutig. Allein schon deswegen, da bei 7 GB belegtem Speicher noch immer 1 GB frei ist...
Es gibt mehr an einem Spiel, was dazu führen kann, dass es nach längerer Zeit anfängt zu ruckeln und nach einem Neustart dann wieder sauber läuft, als "VRAM auf der Karte ist voll".

SCNR: VRAM ist heute immer voll, denn die letzten Grafikkarten mit VRAM wurden in den 90ern gebaut... Bei exakt 0 VRAM ist also immer VRAM "voll".

Das kann ein Speicherleck in der Engine sein. Es könnte auch ein Speicherleck im Graka-Treiber sein oder ungefähr 1000 andere Gründe haben... Da kannte ich früher ein Spiel mit vergleichbarem Verhalten. "Runes of Magic" (MMORPG). Nach ein paar Stunden Spielzeit, manchmal dauerte es auch nur 15 Minuten - z.B. im "Gildenkrieg") wurde es immer langsamer, die Framerate sackte zunehmend ab, in Extremfällen bis zum Stillstand, Texturen fingen an rumzuspinnen, fehlten, tauchten verspätet auf, waren verzerrt, die Positionierung der Charactere funktionierte nicht mehr korrekt, etc.
Das war in diesem speziellen Beispiel allerdings vollkommen Hardwareunabhängig.
Einfach mal als ein Gegenbeispiel, dass die beschriebenen Effekte nicht daran liegen müssen, dass der Speicher auf der Graka voll ist.
(Vor allem der Gildenkrieg spielte in einem stark begrenzten Teil, einer eigenen "Welt", die nur für dieses Event war. Keine besonderen Effekte auf der Map, nicht einmal Wasser...)
In dem Spiel gab es sogar mal derartig kaputte Grafikmodelle auf Ausrüstungsgegenständen, dass das Anlegen dazu führte, dass andere Spieler sofort aus dem Game geflogen sind. Beliebt war in Gildenkriegen auch ein Ausrüstungsgegenstand, was bei den Gegnern dann massive Lags bzw Framerateeinbrüche verursacht hat.
Das Spiel war sehr buggy und soll nicht als Referenz für alle Spiele gelten, es soll hier nur zeigen, Textur-Fehler, Framerate-drops, lags und sogar komplette Abstürze auch durch beliebige andere Ursachen auftreten können.

Zum Grafikkartenwechsel, der die Probleme löste:
Wenn Du dann die Graka wechselst und alles geht: Dann wechselst Du auch den Grafikkartentreiber. Nein, damit meine ich nicht die Versionsnummer auf der Grafiksuite, sondern den kleinen Teil, der diese spezielle GPU anspricht, vielleicht sind auch die angepassten Renderpfade entscheidend, die für die andere GPU anders/besser optimiert sind, etc.
Also auch da ist es nicht so einfach zu unterscheiden, was das Problem Beseitigt. Dafür müsste man die Situation mit mehreren unterschiedlichen Grafikkarten, die die gleiche Menge an RAM haben, möglichst präzise nachstellen. Tritt der Fehler bei allen mit 8 GB auf, bei allen mit "mehr" dann nicht, DANN wäre es hinreichend bewiesen.
Ansonsten hat man zuviele Variablen, die gleichzeitig ausgetauscht wurden.

Und ja: Es kann auch am vollen Speicher liegen. Dem kann niemand widersprechen. Es ist nur nicht eindeutig.

Doch eigentlich liegt es erst dann an "vollem Speicher", wenn er wirklich voll ist. Und nicht, wenn 1 GB noch frei ist - wobei ich nicht weiß, wie oft GPU-z die Werte ausliest. Könnte also einen Spike von 7 auf 8 geben und dann ist der Speicher voll. Doch was soll da plötzlich geladen werden, was 1 GB frisst, wenn nach "stundenlanger Spielzeit" schon quasi die gesamte Welt geladen ist und auch permanent Speicher für das Rendering verwendet wird? Es ist ja nicht so, dass 7 GB voll sind und die Graka erst dann anfängt etwas zu berechnen und deswegen spontan x-GB mehr RAM verschlingt.
Das ist also ein Logik-Loch in der Begründung, wenn das Tool Dir anzeigt, dass der RAM eben nicht voll ist.

Wenn lange nicht mehr benötigte Texturen einfach nicht weggeräumt werden, also die Garbage-Collection nicht (richtig) implementiert wurde, dann ist das Spiel einfach buggy bzw schlecht implementiert.
1. Es ist nicht jedes Spiel derartig buggy.
2. Ich bezweifel, dass es der richtige Weg ist, wenn man miserable Programmierung mit übertriebener Hardware erschlägt. Das sage ich in meinen Projekten den Dev-Teams ebenfalls, wenn etwas unverständlich hohe Anforderungen hat - und lasse es dann korrigieren. Nein, keine Spiele.
3. Natürlich gibt es auch immer Extremfälle, in denen "der Normalfall" nicht zutreffend ist. Hatte ich allerdings auch erwähnt.

Es würde mich freuen, wenn Sonderfälle nicht als Normalfall hingestellt würden. Es mag für Dich relevant sein, da die von Dir bevorzugten Spiele (No man's sky, ...) auf hohen Settings RAM Bergeweise zumüllen. Das ist dann aus Deiner Sicht natürlich vollkommen OK und nachvollziehbar.
Dennoch bin ich weiterhin davon überzeugt, dass wenige Ausnahmen eher die Regel bestätigen.

Und wenn es denn so offensichtlich ist, kann ich nur folgendes schreiben:
Bitte entsprechende Benchmarks / Graphen zum RAM-Verbrauch über Zeit in mehreren Spielen erstellen. Gerne auch belegen, dass die zuvor genannten Spiele in dem verlinkten und geposteten Graph über Zeit dann doch plötzlich 10GB+ belegen, obwohl sie weit darunter angegeben waren.

Ich bin jederzeit bereit eine fundierte Begründung anzunehmen und werde danach "die frohe Botschaft" verbreiten.
Allerdings sicherlich nicht basierend auf "No man's sky frisst viel RAM und räumt nicht auf".

Und dual oder tripple Monitor-Setups standen irgendwie nicht zur Diskussion, oder habe ich das bisher überlesen?

Grüße und schönen Abend!

---

Edit: SCNR-Zeile. Ja, kleinlich, doch VRAM war einfach ein toller Standard, der DRAM deutlich überlegen war und mit DDR-Technologie (nicht das Land) heutigem Speicher ebenfalls deutlich überlegen wäre.
 
Zuletzt bearbeitet :
Lustigerweise habe ich exakt das in dieser Woche getestet...

Xbox One X: Polaris (RX400/500)
16Gb Shared ---> Problem (da ist denke ich die GPU an sich aber auch ziemlich underpowered für, in Kombination mit den alten Jaguar-Kernen)

Rechner Vega10 (Vega 64/FE)
Vega10 mit 8Gb ---> Problem
Vega10 mit 16Gb ---> Kein Problem
Navi10 mit 8Gb ---> Problem

Ich hätte gerne noch Vega20 dazu genommen, leider habe ich keine Radeon VII mehr und bei Kunden habe ich sie nicht verbaut da ich sie einfach nicht empfehlen konnte.
Auch habe ich derzeit keine nVidia zur Hand, hätte gerne mal mit ner 1080ti, Titan XP oder 2080ti getestet - aber ich konnte kurzfristig keine auftreiben.

Ich fange jetzt hier nicht an noch extra Graphen zu machen oder anderen Firlefanz, dafür habe ich schlicht und ergreifend keine Zeit.
Es sind reine Erfahrungswerte die ich hier zum besten gegeben habe und keine Längenvergleiche für irgendwelche Balken.


Hatte es extra so geschrieben das ich das eine Beispiel - sprich meines - rausnehme, eben weil es nur EIN Spiel ist, habe es dennoch dem Verständnis zuliebe ausgeführt da ich der Meinung bin dass das in nicht allzu ferner Zukunft eher die Regel als die Ausnahme sein wird. Nicht mehr und nicht weniger.

NMS ist aber halt auch eines der Spiele wo die Welt gigantisch ist und es für jeden "kleinen Mist" massive Variablen gibt wo halt nicht einfach mal Texturen aus dem Speicher genommen werden können. (Prozedural generiert alles... sprich die unterschiedlichsten Kombinationen aus 3D Modellen und ihren dazugehörigen Texturen, die ebenso nochmal x Variablen haben).

Die neuen Konsolen geben den Entwicklern halt auch wieder interessante Möglichkeiten in die Hand, wobei der Speicher der Konsolen halt auch wieder "shared" ist - da blickt man sowieso nie durch was für was in welchem Spiel verwendet wird.

Ich habe bspw. auch nur 32Gb Ram für VM Spielereien drin, zum zocken reichen 16Gb RAM easy... und dennoch gibts auch darüber Diskussionen ohne Ende.

Wofür?

Ich will dich nicht davon überzeugen das meine Meinung die richtige ist (ich habe kein Ego welches ich "befriedigen" muss)...
ich wollte sie lediglich darlegen und begründen - das habe ich getan.

Wenn du dafür Graphen und Balken benötigst, ist das - zum Glück - nicht mein Problem. :)


Btw... ich hoffe das die Gerüchte falsch sind das nVidia die 3070 16Gb und die 3080 20Gb gestrichen hat... weil dann würde ich quasi automatisch wieder bei AMD landen... darf mir oft genug anhören das ich nen Fanboy sei, obwohls mir ganz ehrlich völlig Wumpe ist was für ne GPU oder CPU in nem System werkelt.

LG
Marti

Edit: Ich kenne keinen Speicherstandard der Vram hieß und als Arbeitspeicher verwendet wurde - wäre schön wenn du mir diesbezüglich Mal ne Info zukommen lassen könntest, man lernt schließlich nie aus.

Ich kenne lediglich volatilen und nicht-volatilen RAM, das gibt's aber afaik nicht als entsprechende Bezeichnung und ist lediglich die Bezeichnung für flüchtig / nicht flüchtig. 🤔

Edit: Ahhhh, jetzt hat es Klick gemacht. 🤩

https://de.wikipedia.org/wiki/Video_Random_Access_Memory?wprov=sfla1

Das war für mich normaler DRAM. 🙈
 
Zuletzt bearbeitet von einem Moderator :
Einfach traurig, dass Grafikkartenkäufer, die im späten Jahr 2020 800-1000 Euro (aktuelle Straßenpreise) für ne Grafikkarte ausgeben, mit 10 GB Vram abgespeist werden... wenn selbst die 1080 ti vor Jahren schon 11 hatte 😂

Zumal "offiziell" (NVidia Jargon) die 3080 ja die "Nachfolge" der 2080 Ti antritt, denn die 3090 beerbt die RTX Titan! Das heißt, dass es in Sachen VRam sogar "offiziell" einen Downgrade gab. Oh wei..
 
Beleg für die beiden "e?
 
Die 3080 beerbt die 2080, außer NV hat seine Meinung geändert😉
 
Benchmarks bilden mMn auch kein realistisches Szenario ab, da die Spiele üblicherweise in zum Teil komplett sinnlosen Maximaleinstellungen gebencht werden, was für einen Benchmark durchaus Sinn macht, aber zu zocken halt nicht mehr. .
So Geschichten wie Ultra Texturen für Gras und Himmel sind meist nicht sichtbar besser gegenüber "Hoch", fressen aber mitunter mal eben 10% mehr Leistung und benötigen u.U. auch mehr vRAM.

Im CB Forum gibt's da nen tollen Thread von HisN, der anhand des Beispiels GTA V aufzeigt dass selbst ein einziger Regler den Unterschied zwischen flüssig spielbar und Diashow ausmachen kann.
 
Im CB Forum gibt's da nen tollen Thread von HisN, der anhand des Beispiels GTA V aufzeigt dass selbst ein einziger Regler den Unterschied zwischen flüssig spielbar und Diashow ausmachen kann.
Lass mich raten: Der Grafik-Qualitäts-Regler? :sneaky:
Btw... ich hoffe das die Gerüchte falsch sind das nVidia die 3070 16Gb und die 3080 20Gb gestrichen hat... weil dann würde ich quasi automatisch wieder bei AMD landen... darf mir oft genug anhören das ich nen Fanboy sei, obwohls mir ganz ehrlich völlig Wumpe ist was für ne GPU oder CPU in nem System werkelt.
Macht doch nix... ich habe hier auch schonwieder gelesen, dass ich mich schützend vor NVidia schmeißen würde... Dabei ist mein anliegen Herstellerunspezifisch: Etwas mehr Objektivität.
Und entgegen der scheinbaren Ansichten vieler hier, ist meiner Erfahrung nach NVidia auch nicht der "große böse" Hersteller und AMD "der gute nette".
Da könnte ich nun wieder alte Geschichten ausgraben, lasse es jedoch. Kurz: AMD verkündet viel, hält davon jedoch extrem wenig, was Developer Support betrifft. OpenCL ist das ein Musterbeispiel für. AMD hat das damals über Monate massivst beworben, Support für Entwickler versprochen, unzählige Pressemitteilungen herausgegeben, usw.
... währenddessen gab es bei NVidia ein komplettes SDK zum kostenlosen Download samt Dokumentation. Kein großes PR-tamtam; das war einfach da. Bei AMD gab es hingegen gar nichts außer PR-Mitteilungen. --- und ja, die OpenCL Unterstützung in den Grafikkarten ist bei AMD besser.

Edit: Ahhhh, jetzt hat es Klick gemacht. 🤩

https://de.wikipedia.org/wiki/Video_Random_Access_Memory?wprov=sfla1

Das war für mich normaler DRAM. 🙈
Herzlich willkommen im Club derjenigen, die von VRAM gehört haben. ;)
Ich hatte sogar früher eine MiroCrystal 20SV (Das V stand für VRAM; die Grafikkarte war extrem schnell für die Zeit damals. Die Treiber waren außerdem sehr gut - das war damals noch nicht selbstverständlich).
Und diese Grafikkarte war über einen langen Zeitraum "neuren" Karten (mit DRAM) überlegen. Ich behaupte auch heute noch, dass ich keinen Unterschied zur hochgelobten Matrox Mystique feststellen konnte. Es ist halt ein entscheidender Vorteil, wenn man *gleichzeitig* lesen und schreiben kann. Der Untergang dieses Speichertyps war leider durch den hohen Preis begründet.
Aber schon damals haben einige es nicht begriffen, dass VRAM für den Speichertyp stand und kein Synonym für "Speicher auf Grafikkarten" stand und mit der Einführung von VRAM dann VRAM auch für andere Grafikkarten verwendet, die mit SDRAM ausgestattet waren.

Und das hat sich dann verbreitet, auch zu manch einem Schreiberling in irgendeiner Redaktion, der gar nicht so genau wusste, was er da schreibt, und so nahm das dann seinen lauf. Bis heute. Und da heute quasi keiner mehr den Ursprung kennt, also den tatsächlichen VRAM, wird man glatt noch angefeindet, wenn man darauf hinweist, dass Grafikkarten heute nicht über VRAM verfügen.
Die Masse hat entschieden: Wenn etwas massenhaft und lange genug falsch verstanden wird ("V in VRAM steht doch für Video..."), da man es nicht besser weiß, wird irgendwann falsch zu vermeintlich richtig.
Wer es nicht anders kennt, stört sich nicht dran.
 
Da muss man aber auch ziemlich tief graben um die entsprechenden Infos zu finden - wenn man nicht weiß nach was man sucht, findet man es logischerweise auch nicht.
Wie du schon schreibst... VRAM steht überall für Video Random Access Memory, was an sich ja richtig ist - aber vor dem Hintergrund das es ihn wirklich direkt so mit der Bezeichnung gab im nachhinein auch falsch. :)

Der Standard ist untergegangen und die Bezeichnung wurde weiter verwendet - So läuft es halt. ^^

Auf jeden Fall lieben Dank für den entsprechenden Seitenhieb - für mich war das, wie oben geschrieben, Standard DRAM damals. (Schande über mein Haupt :LOL:)
 
Oben Unten