Gaming Grafikkarten Praxis Testberichte VGA

Testreihe mit Karten von NVIDIA und AMD – Wenn plötzlich der Speicher der Grafikkarte nicht mehr reicht

AMD stichelt wegen des fast schon homöopathischen Speicherausbaus der NVIDIA-Ada-Mittelklasse und NVIDIA fühlt sich durch ein smartes Speichermanagement sicher genug und am Ende weiß der Kunde nicht mehr, was er denn kaufen soll. Wobei das mit dem zu knapp bemessenen Speicherausbau auch von mir nicht in Frage gestellt wird, denn es ist wie es ist und kann nicht schöngeredet werden. Allerdings kann man auch einmal die Begleiterscheinungen und das Verhalten der Karten beider Hersteller im Grenzbereich abtesten, wo sich Speicherbedarf und Speicherausbau genau treffen. Denn dort könnte das Verhalten der jeweiligen Lösungsansätze nicht unterschiedlicher sein. Und außerdem ist es interessant zu sehen, was bei nur 6 GB in Ultra-HD passiert. Geht nicht? Doch! Aber irgendwie anders als erwartet.

Vorwort und Systemvoraussetzungen

Um das alles überhaupt testen zu können, benötigt man jeweils eine Grafikkarte von AMD und NVIDIA, deren Speicher mindestens 32 GB groß ist. Dafür habe ich sowohl die Radeon Pro W7800 mit 32 GB als auch die RTX 6000 Ada mit 48 GB Speicherausbau. Dazu nehme ich mir mit „The Last of Us Part 1“ (TLOU1) ein Spiel vor, in dem beide Karten in identischen Settings mit reichlich 10 GB Speicherbedarf konfrontiert werden und mit auseichend freiem Speicher trotzdem noch spielbare Frameraten abliefern. Es ist zudem kein NVIDIA-Spiel wie Cyberpunk 2077, sondern ein Konsolenport mit leichten Vorteilen für AMD.

Getestet wurde mit der tagesaktuellen Steam-Version und den jeweils neuesten Treibern von AMD und NVIDIA auf einem MSI X670E Ace samt eines wassergekühlten Ryzen 9 7950X sowie DDR5 6000. Dazu kommen zwei schnelle 2 TB große PCIe 4.0 NVMe SSDs für System und Spiel sowie die beiden bereits erwähnten Workstation-Grafikkarten mit enorm hohem Speicherausbau. Diesen kann ich zwischen jeder Session künstlich reduzieren, indem ich die passenden Blöcke mit memtestcl reserviere (also allokiere). Das ist recht einfach, indem man per Batch-Datei einen einzelnen Run des Kommandozeilenprogramms ausführt und dann beim Pause-Befehl das Fenster einfach zum Symbol macht und in der Task-Leiste ablegt. Bevor man keine Taste im jeweiligen Fenster drückt, wird der Speicher nicht freigegeben. Das kann man dann auch mit beliebig vielen Fenstern wiederholen. Es ist nur wichtig, das Spiel jeweils zu schließen und erst nach dem Erzeugen des neuen „Speicherausbaus“ wieder zu starten.

Hier bietet der Ryzen 9 7950X übrigens eine eher unerwartete Hürde, denn eine aktivierte iGP wird immer als Grafikkarten-Device 0 (also der erste) angesehen, was natürlich in einigen Fällen grandios schief gehen muss. Man muss manuell im Programm stets den zweiten Device wählen oder sinnvollerweise die iGP im BIOS einfach deaktivieren (siehe Bild oben). Das vermeidet zudem auch Laufzeitprobleme mit gewissen Programmen, wo die beim Start immer die falsche GPU erkannt wird. Das nur mal am Rande, aber es schien mir wichtig zu erwähnen (z.B. für ältere Solidworks-Programme, die mangels zertifizierter Grafikhardware dann den Start von Komponenten verweigern).

Der richtige Benchmark war nicht ganz einfach zu finden. Ein normales Savegame ist nicht wirklich zu 100% reproduzierbar, wenn man über Varianzen diskutieren will.  Ich habe mich am Ende für eine Filmsequenz entschieden, die für statistische Erhebungen auch lang genug ist. Mit der Sequenz „Adios“ aus „Tommys Staudamm“ hat man satte 163 Sekunden absolut konsistenter Inhalte mit vielen Kameraschnitten, wechselnden Perspektiven und viel Wald, Landschaft und Lichtspielen. Selbst Savegames oder Sequenzen mit Städtepanoramen waren da weniger fordernd und abwechslungsreich. Beide Karten wurden im Menü voll aufgewärmt und erst der zweite Durchlauf der Sequenz wurde final als Benchmark aufgezeichnet. Und übrigens: Das Shader-pre-Caching wurde natürlich berücksichtigt.

 

Erste Messung und Grund für diesen Artikel

Ich beginne jetzt einfach mal mit einem kumulierten Ergebnis des P1 Low (Min FPS) und taste mich später mit allen Detailmessungen an die Realität heran. Das ist hochinteressant und noch viel spannender als diese erste, eher oberflächliche Zusammenfassung. Da die FPS-Raten beider Karten abweichen, habe ich für den ersten direkten Vergleich eine prozentuale Auswertung vorgenommen, um vergleichbar zu werden. Interessante Nebeninformation: die RTX 6000 Ada wird oberhalb von 24 GB sogar einen Tick langsamer. Ich habe deshalb den Bezugspunkt für meine 100% Marke auf die jeweiligen Messwerte bei 24 GB Speicherausbau gesetzt. Ich hätte auch die etwas schnellere Radeon Pro W7900 nehmen können, aber es hätte am eigentlichen Ergebnis und den Erkenntnissen nichts geändert. Im Übrigen werde ich ALLE Workstation-Karten noch in einem Spezial mit dem testen, wofür sie eigentlich gemacht wurden. Nur ist der Aufwand der Vorbereitung recht hoch und ich kann aktuell wegen meiner immer noch positiven Tests in keine Firma, um mir übers Wochenende mal die Lizenzen der Vollprogramme für die Benchmarks zu borgen.

Das hier genutzte P1 Low (also die neuen Min FPS) zeigt sehr eindrucksvoll, dass die AMD-Karte bereits 2 GB VOR dem Erreichen des Speicherausbaus sehr stark einbricht, um dann bei den 10,07 GB den Tiefststand zu erreichen, während die NVIDIA-Karte erst bei den 10 GB einbricht, dann dafür aber umso mehr. Man sieht auch, dass das von NVIDIA beschworene Speichermanagement immer genau dann versagt, wenn sich Speicherbedarf und Speicherausbau ziemlich genau decken. Dann ist komplett Schicht im Schacht. Erst bei 8 GB läuft des Spiel wieder und selbst mit mickrigen 6 GB ist alles noch smoother und spielbarer als mit 10 GB. Allerdings sieht man dann auch Fehler im Stream, Texturen bleiben matschiger und ab und zu fehlt auch etwas komplett oder ploppt irgendwann mal auf. Flimmern inklusive. Bei der AMD-Karte ist der Einbruch zwar geringer, aber der FPS-Verlauf erholt sich später nicht mehr wirklich. Jetzt kann man natürlich spekulieren, was angenehmer ist, aber mit der NVIDIA-Karte konnte man wenigstens noch spielen. In etwas hässlicher, aber es ging zumindest.

Natürlich ist nur ein einziges Spiel nicht zu 100% repräsentativ, aber man kann diese Effekte bei anderen Spielen genauso beobachten. Bei FarCry 6 ist das Ganze sogar noch krasser (RTX 6000 Ada bei 10 GB nur mit mickrigen 12 FPS), aber die Benchmarks meiner ganzen Savegames sind leider nie wirklich konsistent (so wie der integrierte Benchmark auch). Ähnliche Resultate gibt es auch bei anderen Spielen wie z.B. bei Horizon Zero Dawn, wobei man dann schon beim Rendern hochskalieren muss, um den Speicher vollzubekommen. Aber unterm Strich ist es immer wieder das Gleiche. Wir werden jedoch sehen, wie sich die einzelnen Frameverläufe darstellen, ich habe dazu jede Menge Einzelmetriken erstellt, die man wirklich genau betrachten sollte. Die Perzentile sind nämlich viel zu grob gefasst, so dass man wirklich die Varianzen und Frame Times betrachten muss, um zu verstehen, wo sich AMD und NVIDIA wirklich unterscheiden.

 

113 Antworten

Kommentar

Lade neue Kommentare

Smartengine

Veteran

146 Kommentare 134 Likes

Hmmm.....
2 Spiele die gerne viel VRAM benötigen in meiner Liste wären jetzt Diablo IV und Cities Skylines (modded).
Es wär auch interessant ob und wie Shader-pre-caching dabei eine Rolle spielt.
Korrigiert mich wenn ich falsch liege aber das pre-caching berücksichtigt auch den Speicherausbau der Grafikkarte oder?

In diesem Fall müsste man mit wenig speicher anfangen und dann vergrößern oder das pre-caching vor jedem test-run löschen.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,543 Kommentare 876 Likes

Interessante Messungen! Das Verhalten der großen NVIDIA Karte wenn über 24 GB VRAM abgerufen werden könnten ist auch irgendwie bizarr, oder? Gibt also doch so etwas wie zuviel RAM, zumindest hier!
Und ja, beide, grün und rot, bekleckern sich beim Speicherausbau nicht mit Ruhm. NVIDIA macht's etwas schlimmer, aber leicht schlauer, und beide könnten schon mehr RAM geben bei den Preisen, die sie abrufen. Das Perfide bei Karten ist eben auch, daß man als User nicht nachbessern kann. Außer man hat viel Ahnung, Geld und Mut (weil Garantie sofort futsch) und eine sehr ruhige Hand beim Löten.

Antwort Gefällt mir

Igor Wallossek

1

10,276 Kommentare 19,020 Likes

Das ergibt sich von allein, denn der "Gebäude-Cache" wurde jedes Mal neu erstellt. So doof bin ich nun auch wieder nicht. Aber es spielt keine (große) Rolle ;)

Es ist auch nett zu sehen, wie selbst im Menü erst mal neu aufgebaut werden muss, bevor die Maus nicht mehr hängt :D
Hier liegt der Vorteil eindeutig bei NVIDIA.

Das Problem: solche Tests sind extrem zeitintensiv. Allein dieses einzige Spiel hat fast 12 Stunden verschlungen. Erst einmal das Finden der optimalen Szene... Und wenn man die dann hat: Das sind ja allein pro Setting und Karte rund 12 bis 15 Minuten, wenn man keine Pause macht. Konfiguration, Neustart des Spiels, Cache (heizt die Grafikkarte wenigstens gleich mit auf), Temperieren, erster Run just for fun, zweiten Run messen, Plausibilitätstest, Spiel beenden. Und das für 2 Karten in insgesamt 7 Settings.

Zu Diablo IV und Cities Skylines:
Viel RAM fressen und gleichzeitig konsistente Ergebnisse zu bekommen ist nicht immer in Einklang zu bringen. Wenn man aber nicht zu 100% identische Abläufe messen kann, dann sind die Ergebnisse nichts wert. GTA V habe ich auch als Record laufen lassen, wenn ich das gebenchmarkt habe. Sonst bekommt man bei 3 Runs satte 5 Ergebnisse :D

Antwort 5 Likes

Klicke zum Ausklappem
Arnonymious

Veteran

192 Kommentare 74 Likes

Sehr interessant mit für mich unerwarteten Ergebnissen, was die grünen Karten betrifft. Danke dafür.

Was die positiven Tests angeht, bei mir hat sich das mit Omikron damals auch zwei Wochen hingezogen, bis die Werte wieder im Lot waren, also weiter gute Besserung und durchhalten. 🤞

Antwort Gefällt mir

s
summit

Veteran

150 Kommentare 73 Likes

Also eigentlich entzieht sich der nvidia Treiber den Testbedingungen, was/wie will man denn da wirklich vergleichen?
Wenn die Texturen bei nvidia DEUTLICH niedriger aufgelöst sind, dann brauchen die auch weniger VRAM. Insofern cheatet nvidia hier einfach nur. Was? Der User stellt UltraTexturen ein? -> Nö, nix is!

Antwort 1 Like

Igor Wallossek

1

10,276 Kommentare 19,020 Likes

Ich schrieb bewusst nicht permanent oder alles. Man sieht es durchaus ab und zu, wenn man weiß, wonach man sucht und vor allem auch wo, aber ohne eine gewisse Absicht wird man es eher kaum bemerken. Das ist schon echt clever gelöst. Hier hilft die KI gut nach, das ist schon reichlich smart. Die Bereiche, wo Du primär hinschaust, sehen nämlich knackig aus. Das ist wie Texturen-DLSS :D

Antwort 1 Like

Igor Wallossek

1

10,276 Kommentare 19,020 Likes

Ich habe Arcturus, eine neue und leider auch ansteckendere Variante. Das Schlimmste sind, auch in der dritten Woche, die permanenten Halsschmerzen, der trockene Reizhusten und das Aussetzen der Stimme sowie ein permanenter Druck auf der Brust als würde jemand draufsitzen. Die anfängliche Bindehautentzündung ist fast weg, ich war ja tagelang fast blind. Ich wünsche das keinem, nicht mal den Querleugnern und Impfmückenzüchtern :(

Aktuell geht leider nur sowas an Tests, oben im Labor fasse ich lieber nichts an. Meine Konzentrationsfähigkeit hat den Level einer Schokolinse. Ich bin schon mit D in die Waschanlage gefahren und habs erst im letzten Moment gecheckt. Oder Wasserkocher angeschaltet und dann das Wasser gesucht, weil er gleich wieder abgeschaltet hat. Da stand der fertige Tee nur 30 cm daneben :D

Ich kann aktuell nur 2-3 Stunden am Stück was machen, dann brauche ich eine Pause. Ich teste gerade eine SSD für morgen, das läuft Gott sei Dank weitgehend automatisiert ab. Bilder habe ich gleich früh gemacht, di zu bearbeiten ist dann die Idiotenarbeit für den Nachmittag, wenn sonst nichts mehr flutscht.

Antwort 6 Likes

s
summit

Veteran

150 Kommentare 73 Likes

Wäre es eine zuschaltbare Option, dann wäre ich näher bei dir.
Aber so ist es ein reduzieren der Texturequallität um, im VRAM Limit, höhere FPS zu erreichen -> cheaten.
Wie möchte man denn da wirklich noch vergleichbare Benchmarks machen?

Antwort 5 Likes

T
Tyrunur

Neuling

5 Kommentare 9 Likes

Ich schließe mich den Vorrednern mal an... einen riesengroßen Dank für solche interessanten Tests! Es ist schön zu sehen das sich jemand diesen Fragen mit soviel Detailliebe annimmt und damit Fakten schafft wo es vorher nur Vermutungen gab. Das sind genau die Fragen die wir uns ja alle stellen und die wir uns mit unseren Ressourcen nicht wirklich beantworten können.

Früher habe ich wegen solchen tiefgreifenden Tests die CT gekauft und das tue ich heute aus anderen Gründen immer noch, aber so spannenden Artikel bekommt man aktuell nur bei dir! Vielen lieben Dank für deine Arbeit und deine Neugier!

War eine dumme Frage. Ich habe eine monatliche Spende eingerichtet und habe mich dabei am Computerbase Abo orientiert. Das kommt mir zwar sowohl für deine als auch für deren Arbeit etwas niedrig vor, aber ich hoffe das es über Crowdsourcing am Ende passt.

Ich wünsche dir von Herzen gute Besserung!

Antwort 4 Likes

D
Denniss

Urgestein

1,539 Kommentare 555 Likes

Dreht AMD auch an der Texturenqualität wenn der VRAM eng wird oder ist das nur ein "Feature" bei NVidia?
HWUB hatte ja mal die 3070 mit Hogwards an die VRAM-Grenze getrieben und ähnliches bemerkt, anfangs fehlten da viele Details und nach einem Update vom Spiel oder Treiber war das nicht mehr ganz so heftig aber immer noch sichtbar.

Antwort Gefällt mir

T
TRX

Mitglied

60 Kommentare 47 Likes

Hm, die Ergebnisse überraschen mich jetzt doch. Gut, die AMD-Karte bricht schon etwas früher ein. Das liest man ja auch ständig, dass bei Nvidia die Karten mit etwas weniger Speicher klar kommen. So weit, so bekannt.

Insgesamt nehme ich für mich persönlich aber mit, dass das AMD-Speichermanagement deutlich besser ist. Die FPS brechen anders als bei Nvidia im Speichermangel kaum ein. Ruckler gibt es laut Test nur bei Szenewechseln einzelne, dafür heftige. Das ist MIR persönlich deutlich lieber als der dauerhaft unrunde Verlauf. Deutlich zu sehen bei 6, 8 und 10 GB; AMD hat mal nen richtigen Ruckler, ist sonst aber ruhig. Nvidia stockt und schwankt dauerhaft.

Danke Igor, interessanter Test! Da die AMDs mehr Speicher fürs gleiche Geld bieten, denke ich, wird es trotzdem keine Diskussion geben, bei welchem Hersteller man nachher bezüglich Speicher besser aufgestellt ist.

Antwort Gefällt mir

Y
Yumiko

Urgestein

501 Kommentare 216 Likes

Das gibt es bei Nvida aber schon länger - seit sie das 3,5GB "Problem" gefixt haben. Daher sind die ja auch ganz unverkrampft mit verlustbehaftetem Upscaling. Grundsätzlich ist dagegen ja nichts zu sagen, wenn man MANUELL dies anschalten kann. Aber automatisch in Spielen schlechtere Grafik vorgesetzt zu bekommen geht gar nicht, das grenzt an Betrug am Kunden (klappt auch nur weil Videoqualität nicht getestet wird, nur die Einstellungen).

Antwort 2 Likes

Igor Wallossek

1

10,276 Kommentare 19,020 Likes

Bei NV sieht man es bei 8 und 6 GB nicht, denn schau mal auf die Achse mit den ms. 10 bis 15 ms sind keine echten Drops. Das ist bei AMD deutlich schlechter.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Jetzt bin ich fast schon wieder auf die 4060ti 16G gespannt ^^

Ne 60er mit 16Gb und die 70er mit 12Gb ... Applaus 👏 Applaus 👏 Nvidia...

Antwort 2 Likes

T
The_Invisible

Neuling

2 Kommentare 1 Likes

Wenn du schon eine 48GB Karte hast: Könntest du mal Diablo 4 testen wie viel da belegt wird? Bei meiner 4090 ist man recht schnell auf 22,x GB, wäre interessant wie weit das wächst ; )

Antwort 1 Like

Megaone

Urgestein

1,758 Kommentare 1,659 Likes

Hallo Igor, weist du noch wie wir seinerzeit über die 3080TI vs 3090 diskutiert haben und du damals noch meintest 12 GB wären völlig ausreichend?

So ändern sich die Zeiten.

Gottseidank hab ich die 3080ti verkauft und die 3090 für den Zweitrechner behalten, als ich die 4090 erworben hab.

Am Ende ist es immer gleiche.

Haben ist besser als brauchen.

Antwort Gefällt mir

Igor Wallossek

1

10,276 Kommentare 19,020 Likes

Das Spiel allokiert angeblich alles, was es kann ohen es wirklich zu brauchen. Ich habs leider nicht und nur für die Beantwortungs dieser Frage wärs mir zu teuer :D

Antwort Gefällt mir

Arnonymious

Veteran

192 Kommentare 74 Likes

Schokolinsen denken nicht besonders lange geradeaus. Dass das einen so lange einschränkt ist schon heftig. Von der neuen Variante ist mein Umfeld zum Glück bislang verschont geblieben.
Auch wenn ich mich damit wiederhole, gute Besserung.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Hmm, sehr schwierig etwas Konkretes sagen zu können, mMn. Es sieht so aus, als seie das reale Fazit abhängig von persönlichen Vorlieben, und nicht der blanke Schluss einer Messung...

Die einen mögen es bevorzugen, dass Nvidia an der Qualität der Texturen "schraubt", um mit zu wenig VRAM klar zu kommen, und letztlich so ein flüssig(er)es Bild zustande bringt, oder eben (nur) den Anschein, es laufe flüssig, aber eben mit weniger Textur-Qualität.
Ich bin da hingegen auf der anderen Seite und möchte ein pures unverfälschtes Bild von dem, was meine Hardware bringt, mit meinen Einstellungen, ohne heimliches verringern der Qualität.

Vielen Dank für den aufwändigen Test, sehr interessant. Meiner pers. Meinung nach aber fehlt die Qualität des Bildes durchwegs, denn wer die Qualität des Bildes ohne Zutun des Users verändert, kann nicht verglichen werden. Es zeichnet sich dadurch ein für Nvidia zu positives Bild ab, weil mit "anderen" Karten gespielt wird.

Ich verurteile Nvidias VRAM Geiz aufs Schärfste! Ich kann nicht verstehen, weshalb man mehr Energie als AMD (vermeintlich) ins Speicher-Management investiert, um den Mangel zu kaschieren - anstatt einfach mehr VRAM zu verbauen, oder mehr Optionen seitens VRAM anzubieten, nach *Bedarf* des individuellen Kunden.

Antwort 2 Likes

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung