Arbeitsspeicher Grundlagenartikel Praxis System Testberichte

Wie übertaktet man den Arbeitsspeicher richtig? Basics und Tutorial für das RAM-OC

Vertrauen ist gut, Kontrolle ist besser – Asrock Timing Configurator (Intel) / Zentimings (AMD)

Wie bei jedem OC ist es wichtig zu überprüfen, ob die geänderten Einstellungen auch tatsächlich übernommen wurden und ob es keine unvorhergesehenen Wechselwirkungen mit anderen Einstellungen gibt, zumal viele Boards heutzutage über eingebaute Recovery-Funktionen verfügen, die nach mehreren erfolglosen Speichertrainingsversuchen anspringen. Aus diesem Grund ist es unabdingbar, ein Tool zu verwenden, das alle Speichertimings in einem Zustand ausliest, in dem der PC vollständig gebootet und das OS geladen ist. Die besten Tools für diese Aufgabe sind der ASRock Timing Configurator (AsrTC), der für alle Mainboards einer bestimmten CPU-Generation auf Intel funktioniert, und Zentimings für AMD Ryzen basierte Systeme.

Der AsrTC ist eigentlich gar kein Tool, um die Timings zu konfigurieren, d.h. sie in Echtzeit zu ändern, während das System läuft. Stattdessen liest es die Timings nur aus und stellt sie auf einer Seite recht übersichtlich dar, was auch besonders praktisch für Screenshots ist. Es kann sein, dass man spezielle Versionen des Tools für bestimmte CPU-Generationen und Mainboards suchen muss, wie z.B. 4.0.9 für Z590, 4.0.3 für Z490 usw., wenn man kein ASRock-Board hast, bei dem die Software mitgeliefert wird. Auch wenn es ein wenig Zeit und Recherche braucht, um die richtige Version zu finden, ist dieses Tool definitiv sehr praktisch und sehr empfehlenswert für RAM OC auf Intel Plattformen.

AMD Ryzen-Besitzer haben es etwas einfacher, da Zentimings ein herstellerunabhängiges Tool ist, das in der Regel auf jedem Ryzen-Mainboard und jeder CPU funktioniert, wenn man nur die neueste verfügbare Version verwendet. Neben den Speichertimings zeigt das Tool auch einige weitere Parameter wie Spannungen und Widerstände an, von denen die meisten ebenfalls angepasst werden müssen, um das Setup zu optimieren.

Eine lobende Erwähnung geht auch an MemTweakIt, ein Tool von Asus, mit dem man die meisten Speichertimings in Echtzeit ändern kann! Ja, man kannst die Timings ändern, während das System läuft und die Auswirkungen während eines Stabilitätstests beobachten. Allerdings funktioniert dies nur auf Intel-Plattformen und eine kompatible Version für ein jeweiliges Mainboard zu finden ist eine Herausforderung für sich, sogar wenn es sich um ein Asus-Mainboard handelt.

Spannungen und Temperaturen – Hwinfo

Da Spannungen und Temperaturen ebenfalls wichtige Parameter für jede Übertaktung sind, ist es natürlich wichtig, auch diese zu überwachen. Vor allem, wenn man nicht auf der AMD-Plattform ist, wo Zentimings bereits die meisten für den Speicher wichtigen Spannungen ausliest, kann HWinfo sehr nützlich sein. Interessant ist hier oft, welche Spannungs-Werte das Mainboard mit „Auto“-Einstellungen gewählt hat oder ob die manuellen Einstellungen auch tatsächlich übernommen wurden. Neben der eigentlichen RAM-Spannung, auch bekannt als DRAM Voltage oder Vdimm, sind auch andere Spannungen von Bedeutung, wie z.B. die SOC Voltage bei AMD oder die SA Voltage bei Intel, von der der IMC der CPU ausgeht, sowie unterstützende Spannungen wie VDDG bei AMD oder IO Mem (IO 2) bei Intel.

Da diese Spannungen plattform- und oft auch generationsspezifisch sind, ist es schwer, hier konkrete Empfehlungen für sichere Spannungswerte zu geben, so dass auch hier wieder ein wenig eigene Recherche von jedem gefragt ist. In jedem Fall ist es aber wichtig, die Spannungen zu überwachen, während das System läuft, um sicherzustellen, dass die Einstellungen auch tatsächlich angewendet werden oder, falls man sie auf Auto belassen hat, worauf sie gesetzt wurden. Einige BIOS haben auch eine integrierte Auslesefunktion für Auto-Spannungen, die hierfür ebenfalls nützlich sein kann.

Die Temperatur der RAM-Sticks kann auch einen Einfluss auf die Stabilität haben, besonders bei höheren Spannungen. Das kann deutlich werden, wenn der RAM OC stabil ist, wenn man nur den Speicher selbst testet, aber nach ein paar Minuten Spielbetrieb instabil wird, weil die GPU und CPU Wärme in das Gehäuse abgeben und so den Speicher indirekt aufheizen. Für die Stabilität ist es also wichtig, auf eine repräsentative Art und Weise zu testen, die tatsächlich dem späteren Anwendungsfall entspricht.

Einige Speichermodule haben sogar eingebaute Temperatursensoren, die in HWinfo angezeigt werden und die Diagnose von hitzebedingter Instabilität erheblich erleichtern können. Wenn man Module ohne Temperatursensor hat und einer vermeintlichen Temperatur-bedingten Instabilität auf den Grund gehen möchte, hilft nur ein externer Temperatursensor. Da hitzebedingte Instabilitäten ein häufiges Problem sind, weisen wir in unseren Testberichten immer darauf hin, ob das getestete Kit über eingebaute Sensoren verfügt und machen dem Hersteller den Vorschlag, solche Sensoren hinzuzufügen, insbesondere wenn es sich um ein auf Übertaktung ausgerichtetes Kit handelt.

Leistungstest – ist es tatsächlich schneller?

Wie bereits erwähnt, sollte man die Leistung vor, während und nach dem Speicher-OC überprüfen. Ich mache das gerne an bestimmten „Checkpoints“, also Zuständen von Speichereinstellungen, von denen ich weiß, dass sie reproduzierbar stabil sind. Hier sind die Benchmarks, die ich erfahrungsgemäß hierfür gerne verwende:

  • Aida64 Cache und Memory Benchmark: Synthetisch, aber schneller Test um etwaige größere Probleme zu finden , z.B. wenn die Lese- oder Schreibperformance plötzlich stark abgenommen haben, meist verursacht durch Auto-Tertiäre.
  • Geekbench 3 Multicore Memory Score: Mittelweg zwischen synthetisch und real-world. Berechnet gewichteten Performance-Score, der die Taktrate und Latenz berücksichtigt. Nützlich als eine einzige Metrik, um verschiedene Speicher-Setups einer Plattform miteinander zu vergleichen.
  • Spiele-/Anwendungsleistung: Wie bereits erwähnt, ist der repräsentativste Anwendungsfall zum Testen ein tatsächlicher Anwendungsfall. Wir verwenden hier gerne einen bestimmten Gameplay-Abschnitt in Cyberpunk 2077, von dem wir wissen, dass er empfindlich auf die Speicher-Performance reagiert. Durch die mit Nvidia Frameview aufgezeichneten FPS und Frametimes können wir dann verschiedene Speicher-Setups miteinander vergleichen. Dieses Spiel hat auch die nützliche Eigenart, dass es sehr leicht beim Laden eines Savegames abstürzt, wenn dein Speicher nur ein wenig instabil ist, also dient er indirekt auch als Stabilitäts-Stichprobe.

Natürlich gibt es auch eine Menge anderer Spiele, einige mit eingebauten Benchmarks, wie Shadow of the Tomb Raider, die sich als nützliche Metriken für die Speicherleistung etabliert haben. Wenn man vorhat, sein System für Arbeiten wie Rendering zu nutzen, kann der Vergleich der Exportzeit eines Projekts auch eine nützliche Benchmark-Metrik sein. Es kommt wirklich darauf an, für was man sein System optimieren will.

Stabilitätstests – 1 Fehler ist 1 zu viel

Um die Stabilität einer RAM-Übertaktung zu testen, gibt es eine Menge verschiedener Tools, die diese Aufgabe übernehmen. Grundsätzlich ist die Funktionsweise immer gleich, da sie versuchen, alle verschiedenen Kombinationen von Lese-, Schreib- und Kopierbefehlssequenzen in den Speicher abzudecken, um sicherzustellen, dass das System in allen Fällen stabil ist. Da buchstäblich jede Kombination für jedes Stückchen Speicher getestet werden muss, steigt die für den Test benötigte Zeit proportional mit der Größe des Systemspeichers und sinkt mit der Geschwindigkeit, mit der der Speicher läuft. Viel, langsamer Arbeitsspeicher braucht also viel Zeit zum Testen, wenig, schneller Arbeitsspeicher ist viel schneller zu testen, eigentlich intuitiv.

Alle der folgenden Tools haben ihre Vor- und Nachteile, vor allem in der Benutzerfreundlichkeit und ob sie kostenlos sind oder gekauft werden müssen.

  • HCI Memtest: Kostenlose Version verfügbar, kann aber nur 2000 MB pro Instanz testen. Automatisches oder Batch-Starten von mehreren Instanzen ist nur in der kostenpflichtigen Pro-Version verfügbar. Eine Abdeckung von 400 % wird als stabil angesehen.
  • Karhu Memtest: Nur als kostenpflichtige Version verfügbar, aber sehr einfach und leicht zu bedienen, kann den gesamten Systemspeicher auf einmal testen. Eine Abdeckung von 4000 % wird als stabil angesehen.
  • TestMem5 (TM5): Kostenlos, aber umständlich in der Bedienung, kann aber den gesamten Systemspeicher auf einmal testen. Hat auch Unterstützung für verschiedene Testprofile. Wir verwenden das Profil „Extreme1@Anta777“ für RAM-Tests und sehen einen kompletten Durchlauf, bestehend aus 3 Zyklen, als stabil an.
  • Google Stress App Test (GSAT): Kostenlos, benötigt Windows Subsystem für Linux auf Windows-Systemen, läuft nativ unter Linux oder mit einer Live-DVD. Kann auch andere Teile des Systems auf Stabilität testen. Ein „warmer“ Lauf mit 3600 Sekunden Dauer (1 Stunde) pro 16 GB RAM wird als stabil angesehen.

Wenn andere Teile des Systems übertaktet sind, wie z.B. die CPU, Infinity Fabric, Cache etc. kann deren Instabilität einen Einfluss auf die Stabilität des Speichers haben. Bevor man also die Stabilität des Arbeitsspeichers überprüft, solltest man sich sicher sein, dass auch alle anderen Komponenten stabil sind. Auch wenn dies den Rahmen dieses Leitfadens sprengen würde, sind gängige Tools zum gemeinsamen Testen von CPU, Cache und Speicher LinX bzw. LinpackXtreme oder Prime95 mit Einstellungen, die den gesamten oder einen Großteil des Systemspeichers belegen.

Aber zurück zu unserem RAM-OC. Um die Stabilität zu überprüfen, startet man einfach eines der genannten Programm und lässt es so lange laufen, bis es sein Ende oder einen „als stabil angesehenen“ Fortschritt erreicht hat. Wenn keine Fehler aufgetreten sind, ist die Speicherübertaktung stabil, super! Wenn jedoch nur 1 einziger Fehler aufgetreten ist, ist die Speicherübertaktung als instabil anzusehen und die Einstellungen müssen angepasst werden. Je nachdem, wann und wie viele Fehler aufgetreten sind, kann man ggf. ableiten, welche Einstellungen geändert werden müssen. Aber unter keinen Umständen sollte man sein tägliches Betriebssystem oder irgendeine wichtige Datenverarbeitung mit einem Speicher-Setup laufen lassen, das in Stabilitätstest auch nur 1 Fehler pro Durchlauf wirft.

Das bedeutet, dass man zurück ans metaphorische Zeichenbrett gehen und die Speichereinstellungen anpassen muss, bis man ein Setup gefunden hast, das einen Stresstest in einem als stabil angesehenen Zustand beendet. Für den abschließenden Stabilitätstest empfehle ich daher auch, Stresstests mit zwei verschiedenen Tools durchzuführen, um auf absolute Nummer sicher zu gehen. So würde ich zum Beispiel wollen, dass mein System einen Lauf von TM5 mit Extreme1@Anta777 und dann 400% mit HCI memtest mit 0 Fehlern besteht, bevor ich es als sicher für den täglichen Gebrauch betrachte. Klingt vielleicht ein bisschen paranoid, aber wenn man darüber nachdenkt, kann ein System nie zu stabil sein.

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,082 Kommentare 2,035 Likes

In nahezu jedem Beitrag mit Thema Ram-OC kommt der Hinweis, dass man ggf fehlerhafte Daten produziert, die zwar im Alltag nicht schlimm, aber bei bestimmten Anwendungen problematisch werden können.
Wenn ich auf Daten-Integrität angewiesen bin, übertakte ich nicht. Wenn es um schiere Leistung, also die letzte Nachkomma-Stelle geht, dann ist das sicher ein Weg. Mir ist der (Test-)Aufwand für das, was hinten rauskommt, deutlich zu groß. Bin dankbar für die XMP-Profile 😉

Antwort 3 Likes

skullbringer

Veteran

306 Kommentare 328 Likes

Zugegebenermaßen muss man schon ein besonders experimentierfreudiger und leidensfähiger Typ Enthusiast sein, um den Sprung ins kalte Wasser des Arbeitsspeicher Übertaktens zu wagen. ...erinnert mich irgendwie an Dark Souls-Spieler...

Davon gibt es aber, wie ich in den Kommentaren zu den letzten RAM-Tests feststellen musste, überraschend viele. Also denjenigen bestenfalls vor dem Sprung noch ein paar Schwimmflügel in die Hand drücken oder hinterherwerfen, wenn man selbst schon grenzwertige Erfahrungen gemacht hat ;)

Antwort 3 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

' (...) wenn man darüber nachdenkt, kann ein System nie zu stabil sein.'
Genau. Warum also das ganze Bullshitbingo? Ja, ist Nische, ist schön nerdy und hat somit die perfekte Plattform hier, aber wenn man die reine Testzeit als Arbeitszeit berechnet (und was ist es anderes als eben das?), dann kann man sich gradsogut gleich den schnellsten Speicher kaufen, mit dem das Board offiziell klarkommt und gut is.

Antwort 2 Likes

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Schöner Artikel und vor allem der eindringliche Hinweis, dass man hier nicht mit Murmeln spielt sondern mit rohen Eiern rumrennt, ist sehr wichtig.

OC ist langsam immer mehr zum Volkssport geworden und hier sollte man jedem erklären, was er da eigentlich macht.

Wie sagte schon die Oma: Vorsicht ist die Mutter der Porzellankiste. Oder Opa: Vorbeugen ist besser als auf die Schuhe kotzen.

mfg

Antwort 2 Likes

RedF

Urgestein

4,660 Kommentare 2,552 Likes

Also ich hatte einen haufen Spaß beim ausloten meiner Speicher. Das hat sogar ein gewisses Suchtpotenzial.
Und wenn ich nach dem Spaß sogar noch ein schnelleres System habe, um so besser.

Antwort 2 Likes

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

So habe ich Deinen Artikel auch verstanden.

Die Grundregeln und aktuellen Programme vorzustellen,welche plattformabhängig aktuell sind,
ebnet wohl den Weg fürs übertaktungsfreudige Publikum.
Deine Tipps sind da eine große Hilfe.

Habe meine 3200er Samsung b-dies auch auf 3600 übertaktet und inklusive Timings
etwas an Durchsatz gewonnen....
Wäre sicherlich noch etwas mehr möglich gewesen,aber nach dem Motto“Das Bessere ist des Guten Feind“ mich dann damit zufrieden gegeben.

In Bezug auf die restliche Hardware (CPU und GPU),bin ich zwischenzeitlich eher ein Freund des Undervoltings geworden.
30 % mehr Strom für 5 bis 10% Mehrleistung finde ich bei diesen Stromvernichtern einfach nicht mehr zeit gemäß. Außerdem hält die Hardware,dank der niedrigeren Temperaturen wahrscheinlich länger und die Lärmbelastung nimmt auch deutlich ab...:)

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Hab ich die wichtigen Widerstände bei AMD überlesen?

Antwort Gefällt mir

n
not-A-fanboy

Mitglied

10 Kommentare 3 Likes

"Karhu: ... Eine Abdeckung von 1000 % wird als stabil angesehen."

Da fehlt denke ich eine Null. 10000% sollte Karhu schon durchlaufen.

Antwort 2 Likes

skullbringer

Veteran

306 Kommentare 328 Likes

Kosten/Nutzen muss man natürlich immer abwägen. Wenn man dann aber wirklich maximal stabil unterwegs sein möchte, dürfte man eigentlich nur noch eine Server/Workstation-Plattform mit ECC RAM verwenden. Und auf der anderen Seite, auch wenn man ein teures XMP Kit mit ordentlich Performance out-of-the-box kauft, lässt man durch nicht optimierte Sekundär- und Tertiär-Timings meistens trotzdem noch einiges an Potential liegen. ;)

Hab ich hinzugefügt, danke für die Ergänzung. Gibt's übrigens auch bei Intel

Ist natürlich Definitions- bzw. Ansichtssache. Mir sind mehrere verschiedene Tests mit jeweils weniger Abdeckung lieber als sämtliche Hoffnung auf einen Test mit ewig Laufzeit zu setzen. Daher auch nur 400% bei HCI, wo andere vielleicht 1000% als "stabil" bezeichnen würden.

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Mit Intel werd ich nicht Warm,deswegen kenne ich das nur von AMD.;)

Du kannst auch noch nach 2-3000% nen Fehler bekommen,deswegen teste Ich immer mit rund 25mV weniger und stell es dann wieder hoch.
Du hast mehr Sicherheit auf lange Zeit,geringe Spannungswandler, Zeitliche Abnutzung alles schon mit drinne.
Was mir an dem guten Tutorial aber noch fehlt sind Aussagen von 2-3 Herstellern uüber ihre Kompatibilitätsliste beim Ram,besonders bei AMD da ja jeder davon ausgeht das z.b.4000MHz Ram auch mit 4000MHz läuft weil er in der Liste steht und angeblich so getestet wurde.
Da wäre ne Richtigstellung mal gut das es eben nicht so ist und das der Ram nur JEDEC laufen muss beim Test.

Antwort 1 Like

K
Kurt Krampmeier

Mitglied

15 Kommentare 13 Likes

Hallo!

das ganze Timing-gewürfel am Limit muss nicht zwangsläufig langwierig werden. Man könnte zb. für Tm5 die 1usmus config (im public ctr 2.1 Archiv enthalten) nutzen. Dazu gibt es eine Fehlerdokumentation in diesem google Spreadsheet

die Fehlerbeschreibungen für die einzelnen Subtests decken sich mit meinen Beobachtungen. anta777 extreme läuft zb bei mir >10min fehlerfrei bei leicht zu enger trfc, während tm5 mit 1usmus nach 2min fehler in "1" auweist. vor allem wackelige RTT und cad Einstellungen bekommt man hier mit Fehler in 2 und 6 nach kürzester Zeit aufgedeckt; der OCCT Speichertest läuft bei den genannten Instabilitäten übrigens "fehlerfrei" 1 Stunde durch. überhaupt nicht zu empfehlen.

Antwort Gefällt mir

Klicke zum Ausklappem
Pascal TM-Custom

Urgestein

1,122 Kommentare 1,361 Likes

sehr schön erklärt der Herr Kollege besser kann man es nicht beschreiben und erklären. Ram oc ist für mich eine absolute Leidenschaft geworden ich finde Ram oc ist die Königsklasse GPU und CPU das kann praktisch fast jeder aber Ram OC ist absolut anspruchsvoll und ist nicht mal so eben gemacht.

Ich hab ewig gebraucht für mein Extrem OC mit meinem Flair X und hat mich viel nerven gekostet und Kaffee aber es hat spaß gemacht.

Antwort Gefällt mir

H
Hovac

Mitglied

22 Kommentare 3 Likes

Das ist dann doch ein bisschen freaky.
OC ist Hobby, Arbeitszeit bedeutet Ergebnisse liefern, von Lohn->Brutto->Netto ganz zu schweigen. Zudem gibt es dass was man mit langem Testen bekommen kann meist nicht als kaufbares Pendant.

Antwort Gefällt mir

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Du vergisst die "Fummler". Mir ist das auch zu stressig bzw meine Zeit zu rar. Aber wenn man halt MUSS, dann bin ich bei @skullbringer: Eine Schwimmhilfe schadet sicher nicht.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

MUSS? Huh. Wer zwingt da wen? Und wie?
Mein Eindruck ist der, dass sich da ne gewisse Verzweiflung offenbart. Mein Hobby ist das Übertakten von RAM? Srsly?
CPUs geben kaum noch was her, GPUs dito, also wird am Speicher rumgefrickelt, was ner Springprozession ziemlich ähnelt.
Da bleib ich lieber stolzer Nichtschwimmer^^.

Antwort Gefällt mir

grimm

Urgestein

3,082 Kommentare 2,035 Likes

Das Optimieren des Systems ist das Hobby 😉 Meins auch, aber eher auf Komponenten-Basis. Trotzdem schau ich immer mal wieder in solche Artikel rein. Der Guide entspricht in etwa dem, was ich seit Jahrzehnten lese - früher auf THW, heute hier. Nur halt bezogen auf aktuelle Hardware.
Neben ein zwei Prozent mehr Leistung lernt man auch was über die Komponenten im allgemeinen - daher lesenswert.

Antwort Gefällt mir

B
Besterino

Urgestein

6,727 Kommentare 3,321 Likes

Ich halte es da mit der 80-20-Regel, die hier ganz gut passt: Die ersten 80% Mehrwert kosten 20% des Aufwands - für die restlichen 20% Mehrwert brauchste dann aber quasi 80% Aufwand.

Die ersten 80% nehm ich in diesem Sinne gerne mit - da wird’s mit der Stabilität & Zuverlässigkeit dann in der Regel auch noch nicht kritisch. Ansonsten beschäftige ich mich halt lieber mit Dingen, die mir mehr (Spaß) bringen - Netzwerke, Virtualisierung usw… aber das Schöne ist, kann ja jeder halten wie er will. :D

Antwort 3 Likes

r
rossi94

Mitglied

12 Kommentare 3 Likes

Wie viel vdimm hast du bei 3800 cl14?

Antwort Gefällt mir

R
Rattenhack

Veteran

137 Kommentare 52 Likes

Kommt auch etwas auf die IC an. Bei Samung B-Die braucht man je nach Güte des Kits zwischen 1,45 und 1,6 V.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung