Gaming GPUs Graphics Practice Reviews

Test series with cards from NVIDIA and AMD – When suddenly the memory of the graphics card is no longer enough

AMD is poking fun at the almost homeopathic memory expansion of the NVIDIA Ada mid-range, and NVIDIA feels secure enough with smart memory management, and in the end, the customer no longer knows what to buy. Although I do not question the issue of the too tightly measured memory expansion, because it is what it is and cannot be glossed over. However, one can also test the side effects and behavior of the cards of both manufacturers in the borderline area, where memory demand and memory expansion meet exactly. Because there, the behavior of the respective solution approaches could not be more different. And it is also interesting to see what happens with only 6 GB in Ultra HD. Doesn’t work? Yes, it does! But somehow differently than expected.

Preface and system requirements

In order to be able to test all this at all, you need a graphics card from AMD and NVIDIA respectively, with at least 32 GB of memory. For this I have both the Radeon Pro W7800 with 32 GB and the RTX 6000 Ada with 48 GB of memory. In addition, I play “The Last of Us Part 1” (TLOU1), a game in which both cards are confronted with a memory requirement of 10 GB in identical settings and still deliver playable frame rates with sufficient free memory. It is also not an NVIDIA game like Cyberpunk 2077, but a console port with slight advantages for AMD.

We tested it with the latest Steam version and the latest drivers from AMD and NVIDIA on an MSI X670E Ace with a water-cooled Ryzen 9 7950X and DDR5 6000, two fast 2 TB PCIe 4.0 NVMe SSDs for the system and the game, and the two workstation graphics cards mentioned above with an enormous amount of memory. I can artificially reduce this between each session by reserving (i.e. allocating) the appropriate blocks with memtestcl. This is quite easy to do by executing a single run of the command line program via batch file and then simply making the window an icon on the pause command and dropping it in the task bar. Until you press a key in the respective window, the memory is not released. You can repeat this with as many windows as you like. It is only important to close the game in each case and only restart it after the new “memory expansion” has been created.

By the way, the Ryzen 9 7950X offers a rather unexpected hurdle here, because an activated iGP is always seen as graphics card device 0 (i.e. the first one), which of course has to go grandly wrong in some cases. You always have to select the second device manually in the program or, more sensibly, simply deactivate iGP in the BIOS (see picture above). This also avoids runtime problems with certain programs, where the wrong GPU is always detected at startup. That’s just in passing, but it seemed important to me to mention (e.g. for older Solidworks programs, which then refuse to start components due to lack of certified graphics hardware).

The right benchmark was not easy to find. A normal savegame is not really 100% reproducible if you want to discuss variances. In the end I decided to use a movie sequence, which is also long enough for statistical surveys. With the sequence “Adios” from “Tommy’s Dam” you have a whopping 163 seconds of absolutely consistent content with lots of camera cuts, changing perspectives and lots of forest, landscape and light shows. Even savegames or sequences with city panoramas were less challenging and varied there. Both maps were fully warmed up in the menu and only the second run of the sequence was finally recorded as a benchmark. And by the way: Shader pre-caching was of course taken into account.

 

First measurement and reason for this article

I’ll just start with a cumulative result of the P1 Low (Min FPS) now and feel my way to reality with all detailed measurements later. This is highly interesting and even more exciting than this first, rather superficial summary. Since the FPS rates of both cards differ, I did a percentage evaluation for the first direct comparison to become comparable. Interesting side information: the RTX 6000 Ada even gets a tad slower above 24 GB. I therefore set the reference point for my 100% mark to the respective measured values at 24 GB memory expansion. I could have also taken the slightly faster Radeon Pro W7900, but it would not have changed anything about the actual result and findings. By the way, I will still test ALL workstation cards in a special with what they were actually made for. Only the effort of the preparation is quite high and I can currently because of my still positive tests in no company to borrow over the weekend times the licenses of the full programs for the benchmarks.

The P1 Low used here (i.e. the new Min FPS) shows very impressively that the AMD card already collapses very strongly 2 GB BEFORE reaching the memory expansion, to then reach the low at the 10.07 GB, while the NVIDIA card only collapses at the 10 GB, but then all the more for it. You can also see that NVIDIA’s memory management always fails exactly when memory requirements and memory expansion are pretty much the same. Then it’s completely over. The game only runs again with 8 GB and even with a measly 6 GB everything is still smoother and more playable than with 10 GB. However, you will also see errors in the stream, textures remain muddy and every now and then something is completely missing or pops up at some point. Flickering included. The drop is smaller with the AMD card, but the FPS curve does not really recover later. Now, of course, you can speculate which is more pleasant, but with the NVIDIA card you could at least still play. In a bit uglier, but at least it worked.

Of course, just one game is not 100% representative, but you can observe these effects in other games as well. With FarCry 6, the whole thing is even more blatant (RTX 6000 Ada at 10 GB only with a measly 12 FPS), but the benchmarks of all my savegames are unfortunately never really consistent (as is the integrated benchmark). Similar results are also seen in other games, such as Horizon Zero Dawn, where you then already have to upscale during rendering to get the memory full. But the bottom line is that it’s always the same. However, we’ll see how the individual frame progressions present themselves, I’ve created lots of individual metrics for this, which you should really take a close look at. After all, the percentiles are way too rough, so you really need to look at the variances and frame times to understand where AMD and NVIDIA really differ.

 

113 Antworten

Kommentar

Lade neue Kommentare

Smartengine

Veteran

146 Kommentare 134 Likes

Hmmm.....
2 Spiele die gerne viel VRAM benötigen in meiner Liste wären jetzt Diablo IV und Cities Skylines (modded).
Es wär auch interessant ob und wie Shader-pre-caching dabei eine Rolle spielt.
Korrigiert mich wenn ich falsch liege aber das pre-caching berücksichtigt auch den Speicherausbau der Grafikkarte oder?

In diesem Fall müsste man mit wenig speicher anfangen und dann vergrößern oder das pre-caching vor jedem test-run löschen.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,475 Kommentare 833 Likes

Interessante Messungen! Das Verhalten der großen NVIDIA Karte wenn über 24 GB VRAM abgerufen werden könnten ist auch irgendwie bizarr, oder? Gibt also doch so etwas wie zuviel RAM, zumindest hier!
Und ja, beide, grün und rot, bekleckern sich beim Speicherausbau nicht mit Ruhm. NVIDIA macht's etwas schlimmer, aber leicht schlauer, und beide könnten schon mehr RAM geben bei den Preisen, die sie abrufen. Das Perfide bei Karten ist eben auch, daß man als User nicht nachbessern kann. Außer man hat viel Ahnung, Geld und Mut (weil Garantie sofort futsch) und eine sehr ruhige Hand beim Löten.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Das ergibt sich von allein, denn der "Gebäude-Cache" wurde jedes Mal neu erstellt. So doof bin ich nun auch wieder nicht. Aber es spielt keine (große) Rolle ;)

Es ist auch nett zu sehen, wie selbst im Menü erst mal neu aufgebaut werden muss, bevor die Maus nicht mehr hängt :D
Hier liegt der Vorteil eindeutig bei NVIDIA.

Das Problem: solche Tests sind extrem zeitintensiv. Allein dieses einzige Spiel hat fast 12 Stunden verschlungen. Erst einmal das Finden der optimalen Szene... Und wenn man die dann hat: Das sind ja allein pro Setting und Karte rund 12 bis 15 Minuten, wenn man keine Pause macht. Konfiguration, Neustart des Spiels, Cache (heizt die Grafikkarte wenigstens gleich mit auf), Temperieren, erster Run just for fun, zweiten Run messen, Plausibilitätstest, Spiel beenden. Und das für 2 Karten in insgesamt 7 Settings.

Zu Diablo IV und Cities Skylines:
Viel RAM fressen und gleichzeitig konsistente Ergebnisse zu bekommen ist nicht immer in Einklang zu bringen. Wenn man aber nicht zu 100% identische Abläufe messen kann, dann sind die Ergebnisse nichts wert. GTA V habe ich auch als Record laufen lassen, wenn ich das gebenchmarkt habe. Sonst bekommt man bei 3 Runs satte 5 Ergebnisse :D

Antwort 5 Likes

Klicke zum Ausklappem
Arnonymious

Veteran

191 Kommentare 72 Likes

Sehr interessant mit für mich unerwarteten Ergebnissen, was die grünen Karten betrifft. Danke dafür.

Was die positiven Tests angeht, bei mir hat sich das mit Omikron damals auch zwei Wochen hingezogen, bis die Werte wieder im Lot waren, also weiter gute Besserung und durchhalten. 🤞

Antwort Gefällt mir

s
summit

Veteran

150 Kommentare 73 Likes

Also eigentlich entzieht sich der nvidia Treiber den Testbedingungen, was/wie will man denn da wirklich vergleichen?
Wenn die Texturen bei nvidia DEUTLICH niedriger aufgelöst sind, dann brauchen die auch weniger VRAM. Insofern cheatet nvidia hier einfach nur. Was? Der User stellt UltraTexturen ein? -> Nö, nix is!

Antwort 1 Like

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Ich schrieb bewusst nicht permanent oder alles. Man sieht es durchaus ab und zu, wenn man weiß, wonach man sucht und vor allem auch wo, aber ohne eine gewisse Absicht wird man es eher kaum bemerken. Das ist schon echt clever gelöst. Hier hilft die KI gut nach, das ist schon reichlich smart. Die Bereiche, wo Du primär hinschaust, sehen nämlich knackig aus. Das ist wie Texturen-DLSS :D

Antwort 1 Like

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Ich habe Arcturus, eine neue und leider auch ansteckendere Variante. Das Schlimmste sind, auch in der dritten Woche, die permanenten Halsschmerzen, der trockene Reizhusten und das Aussetzen der Stimme sowie ein permanenter Druck auf der Brust als würde jemand draufsitzen. Die anfängliche Bindehautentzündung ist fast weg, ich war ja tagelang fast blind. Ich wünsche das keinem, nicht mal den Querleugnern und Impfmückenzüchtern :(

Aktuell geht leider nur sowas an Tests, oben im Labor fasse ich lieber nichts an. Meine Konzentrationsfähigkeit hat den Level einer Schokolinse. Ich bin schon mit D in die Waschanlage gefahren und habs erst im letzten Moment gecheckt. Oder Wasserkocher angeschaltet und dann das Wasser gesucht, weil er gleich wieder abgeschaltet hat. Da stand der fertige Tee nur 30 cm daneben :D

Ich kann aktuell nur 2-3 Stunden am Stück was machen, dann brauche ich eine Pause. Ich teste gerade eine SSD für morgen, das läuft Gott sei Dank weitgehend automatisiert ab. Bilder habe ich gleich früh gemacht, di zu bearbeiten ist dann die Idiotenarbeit für den Nachmittag, wenn sonst nichts mehr flutscht.

Antwort 6 Likes

s
summit

Veteran

150 Kommentare 73 Likes

Wäre es eine zuschaltbare Option, dann wäre ich näher bei dir.
Aber so ist es ein reduzieren der Texturequallität um, im VRAM Limit, höhere FPS zu erreichen -> cheaten.
Wie möchte man denn da wirklich noch vergleichbare Benchmarks machen?

Antwort 5 Likes

T
Tyrunur

Neuling

5 Kommentare 9 Likes

Ich schließe mich den Vorrednern mal an... einen riesengroßen Dank für solche interessanten Tests! Es ist schön zu sehen das sich jemand diesen Fragen mit soviel Detailliebe annimmt und damit Fakten schafft wo es vorher nur Vermutungen gab. Das sind genau die Fragen die wir uns ja alle stellen und die wir uns mit unseren Ressourcen nicht wirklich beantworten können.

Früher habe ich wegen solchen tiefgreifenden Tests die CT gekauft und das tue ich heute aus anderen Gründen immer noch, aber so spannenden Artikel bekommt man aktuell nur bei dir! Vielen lieben Dank für deine Arbeit und deine Neugier!

War eine dumme Frage. Ich habe eine monatliche Spende eingerichtet und habe mich dabei am Computerbase Abo orientiert. Das kommt mir zwar sowohl für deine als auch für deren Arbeit etwas niedrig vor, aber ich hoffe das es über Crowdsourcing am Ende passt.

Ich wünsche dir von Herzen gute Besserung!

Antwort 4 Likes

D
Denniss

Urgestein

1,516 Kommentare 548 Likes

Dreht AMD auch an der Texturenqualität wenn der VRAM eng wird oder ist das nur ein "Feature" bei NVidia?
HWUB hatte ja mal die 3070 mit Hogwards an die VRAM-Grenze getrieben und ähnliches bemerkt, anfangs fehlten da viele Details und nach einem Update vom Spiel oder Treiber war das nicht mehr ganz so heftig aber immer noch sichtbar.

Antwort Gefällt mir

T
TRX

Mitglied

60 Kommentare 47 Likes

Hm, die Ergebnisse überraschen mich jetzt doch. Gut, die AMD-Karte bricht schon etwas früher ein. Das liest man ja auch ständig, dass bei Nvidia die Karten mit etwas weniger Speicher klar kommen. So weit, so bekannt.

Insgesamt nehme ich für mich persönlich aber mit, dass das AMD-Speichermanagement deutlich besser ist. Die FPS brechen anders als bei Nvidia im Speichermangel kaum ein. Ruckler gibt es laut Test nur bei Szenewechseln einzelne, dafür heftige. Das ist MIR persönlich deutlich lieber als der dauerhaft unrunde Verlauf. Deutlich zu sehen bei 6, 8 und 10 GB; AMD hat mal nen richtigen Ruckler, ist sonst aber ruhig. Nvidia stockt und schwankt dauerhaft.

Danke Igor, interessanter Test! Da die AMDs mehr Speicher fürs gleiche Geld bieten, denke ich, wird es trotzdem keine Diskussion geben, bei welchem Hersteller man nachher bezüglich Speicher besser aufgestellt ist.

Antwort Gefällt mir

Y
Yumiko

Veteran

476 Kommentare 207 Likes

Das gibt es bei Nvida aber schon länger - seit sie das 3,5GB "Problem" gefixt haben. Daher sind die ja auch ganz unverkrampft mit verlustbehaftetem Upscaling. Grundsätzlich ist dagegen ja nichts zu sagen, wenn man MANUELL dies anschalten kann. Aber automatisch in Spielen schlechtere Grafik vorgesetzt zu bekommen geht gar nicht, das grenzt an Betrug am Kunden (klappt auch nur weil Videoqualität nicht getestet wird, nur die Einstellungen).

Antwort 2 Likes

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Bei NV sieht man es bei 8 und 6 GB nicht, denn schau mal auf die Achse mit den ms. 10 bis 15 ms sind keine echten Drops. Das ist bei AMD deutlich schlechter.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Jetzt bin ich fast schon wieder auf die 4060ti 16G gespannt ^^

Ne 60er mit 16Gb und die 70er mit 12Gb ... Applaus 👏 Applaus 👏 Nvidia...

Antwort 2 Likes

T
The_Invisible

Neuling

2 Kommentare 1 Likes

Wenn du schon eine 48GB Karte hast: Könntest du mal Diablo 4 testen wie viel da belegt wird? Bei meiner 4090 ist man recht schnell auf 22,x GB, wäre interessant wie weit das wächst ; )

Antwort 1 Like

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Hallo Igor, weist du noch wie wir seinerzeit über die 3080TI vs 3090 diskutiert haben und du damals noch meintest 12 GB wären völlig ausreichend?

So ändern sich die Zeiten.

Gottseidank hab ich die 3080ti verkauft und die 3090 für den Zweitrechner behalten, als ich die 4090 erworben hab.

Am Ende ist es immer gleiche.

Haben ist besser als brauchen.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Das Spiel allokiert angeblich alles, was es kann ohen es wirklich zu brauchen. Ich habs leider nicht und nur für die Beantwortungs dieser Frage wärs mir zu teuer :D

Antwort Gefällt mir

Arnonymious

Veteran

191 Kommentare 72 Likes

Schokolinsen denken nicht besonders lange geradeaus. Dass das einen so lange einschränkt ist schon heftig. Von der neuen Variante ist mein Umfeld zum Glück bislang verschont geblieben.
Auch wenn ich mich damit wiederhole, gute Besserung.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

Hmm, sehr schwierig etwas Konkretes sagen zu können, mMn. Es sieht so aus, als seie das reale Fazit abhängig von persönlichen Vorlieben, und nicht der blanke Schluss einer Messung...

Die einen mögen es bevorzugen, dass Nvidia an der Qualität der Texturen "schraubt", um mit zu wenig VRAM klar zu kommen, und letztlich so ein flüssig(er)es Bild zustande bringt, oder eben (nur) den Anschein, es laufe flüssig, aber eben mit weniger Textur-Qualität.
Ich bin da hingegen auf der anderen Seite und möchte ein pures unverfälschtes Bild von dem, was meine Hardware bringt, mit meinen Einstellungen, ohne heimliches verringern der Qualität.

Vielen Dank für den aufwändigen Test, sehr interessant. Meiner pers. Meinung nach aber fehlt die Qualität des Bildes durchwegs, denn wer die Qualität des Bildes ohne Zutun des Users verändert, kann nicht verglichen werden. Es zeichnet sich dadurch ein für Nvidia zu positives Bild ab, weil mit "anderen" Karten gespielt wird.

Ich verurteile Nvidias VRAM Geiz aufs Schärfste! Ich kann nicht verstehen, weshalb man mehr Energie als AMD (vermeintlich) ins Speicher-Management investiert, um den Mangel zu kaschieren - anstatt einfach mehr VRAM zu verbauen, oder mehr Optionen seitens VRAM anzubieten, nach *Bedarf* des individuellen Kunden.

Antwort 2 Likes

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung