Basics DDR-RAM Practice Reviews System

RAM OC: Basics you need to know for getting started – A rough guide and overview for memory overclocking

Even though compared to CPU and GPU, RAM overclocking probably has the smallest impact on your daily computing experience, specific memory sensitive applications can see a big boost from optimizing your PC’s memory, like we covered in our Cyberpunk 2077 memory roundup. So today we want to show how we overclock and – equally important – stability test RAM kits, and how you can do it, too. This is intended to be a general guide and overview of the factors that you should be aware of when overclocking your system memory. 

Since these include many variables, often platform-, motherboard- or sometimes even BIOS-specific, it’s hard to give exact recommendations in this scope. However we try to provide a complete picture and will update the guide, should new facts come to our attention. Of course, if you already know most of the basics like clocks, timings etc. and you don’t feel like fact checking, you can of course skip those pages. This guide of course is by no means the perfect be-all and end-all tutorial, but rather aims to summarize the best practices and things you should watch out for, created by the community, for the community

Possible Data Corruption – A big caveat that you should definitely read before proceeding

First of all, we have to start with an important disclaimer. If you overclock your CPU or GPU, in the worst case your system crashes or bluescreens, then restarts and you are back to a clean sheet of OC paper. But when a RAM OC is unstable you might for one not notice it right away and secondly face severe consequences in case of file corruption on your system or complete irreparable damage to your operation system installation.

Think of it this way, if your PC is a brain that’s constantly processing data, an unstable memory overclock is basically like introducing Alzheimer’s into that brain. Memories might get corrupted, changed or outright lost. Needless to say, you don’t want to do important work in this state or even worse do any file system repair, like is often triggered automatically by system crashes at next startup, as these “repairs” in an unstable state will often do even greater harm.

So validating the stability of your systems RAM overclock is imperative for maintaining integrity of your OS installation and data that you are processing on a daily basis, even if it’s just Windows doing stuff in the background. So how do you validate stability while the system is running, while you should not run your daily OS install at the same time in fear of corruption?

Basically it always comes down to having a separate boot medium that you do the stability checking with, before you go back to your actual boot medium, as in your actual OS. A probably well-known tool for this is Memtest86, which has been around for a long time and is available in ISO images ready to go for thumb drives to boot off of, do stability tests an nothing else. Also some motherboard BIOS’s even have Memtest86 integrated, so you don’t even need to bother with separate media.

For quick testing this approach is fine, e.g. to validate if your RAM kit is actually stable at the manufacturers XMP spec or if an individual module might even be defective. However for manually overclocking and tuning memory for best performance, I would always recommend a separate and entire Windows installation. The reason simply being that from there you can run multiple different stability testing programs, which we will get to later, and you can also check if performance has actually improved and not worsened, which can happen, especially if you only tune part of the memory timings manually.

So my recommendation is, get a dedicated small SSD, like 120 GB which you can get relatively cheap these days, and create a separate Windows installation on it with the apps needed for testing stability and performance. Then, before you start overclocking your RAM, unplug all media like SSDs or HDDs that carry any important data from the system, connect only the dedicated Windows install SSD for RAM testing and only then start tuning your memory. ONLY once you have validated your system for full stability, connect again your regular media and boot your daily OS.

This probably sounds like an overkill approach, but trust me, once you have lost sensitive data to an only very slightly unstable RAM OC, it really isn’t. Foresight is always better than hindsight. 😉

Platform limits and performance validation

Another aspect you should be aware of before starting to overclock, are the limitations of the platform you are working with. A prime example for this is the Infinity Fabric clock limit on modern AMD Ryzen CPUs, where you do not want to exceed the memory clock beyond the highest stable value for 1:1 synchronous operation with the memory controller and cache, to avoid regressions in performance.

So in a case where the maximum stable IF Clock Limit of your given CPU is 1900 MHz, in 99% of cases you want to be operating your RAM at DDR4-3800 and not higher. However, this does not mean, you can’t “overclock” your RAM beyond this point, since timings are equally important for the performance of your memory. So being able to tighten the timings, while keeping the memory clock the same, can also yield a big performance increase.

In that vein, you can also face limits caused by how many memory channels and ranks per channel you are running and therefore how much load the integrated memory controller (IMC) of your CPU has to deal with, what memory topology the motherboard has that you are running, what memory ICs are on your RAM modules and even how the PCB of the RAM modules is laid out. Mostly, you won’t know about the limits until you run into them, but you should be aware that there are factors that are outside or only indirectly in your control, while doing RAM overclocking.

Equally important is the use case you are doing the memory overclock for. So basically, what you want to get out of it? Since all applications are different in how they use CPU instructions and therefore also the system memory, some are more sensitive to increases in bandwidth, while others rather prefer lower latencies for better performance.

While synthetic benchmarks like the AIDA64 Cache & Memory Benchmark or the Geekbench 3 Multi-Core Memory Performance score, which we use in our RAM kit tests, can give you a rough impression of how performance might be affected, you should also always test the actual application(s) that you want to speed up. That might mean rendering a specific project in Adobe Premiere or Cinema 4D, or playing a specific part of a game while recording the FPS with a tool like FrameView, to effectively have a benchmark that you can use for before/after comparisons.

As mentioned already, some applications’ performance only scales with bandwidth or latency and not both. And in other cases, increasing the memory clock while leaving some timings at auto, can cause those auto timings to be set way too loose by the motherboard, which in turn causes you to actually lose bandwidth or latency with an overclock.

Hence, as also with CPU and GPU overclocks, you should always do a before test run in your benchmarks, run the same benchmark after having done your overclock and then compare the two results to ensure that you haven’t actually taken a step back in performance.

Lade neue Kommentare

grimm

Urgestein

1,323 Kommentare 518 Likes

In nahezu jedem Beitrag mit Thema Ram-OC kommt der Hinweis, dass man ggf fehlerhafte Daten produziert, die zwar im Alltag nicht schlimm, aber bei bestimmten Anwendungen problematisch werden können.
Wenn ich auf Daten-Integrität angewiesen bin, übertakte ich nicht. Wenn es um schiere Leistung, also die letzte Nachkomma-Stelle geht, dann ist das sicher ein Weg. Mir ist der (Test-)Aufwand für das, was hinten rauskommt, deutlich zu groß. Bin dankbar für die XMP-Profile 😉

Antwort 3 Likes

skullbringer

Veteran

158 Kommentare 133 Likes

Zugegebenermaßen muss man schon ein besonders experimentierfreudiger und leidensfähiger Typ Enthusiast sein, um den Sprung ins kalte Wasser des Arbeitsspeicher Übertaktens zu wagen. ...erinnert mich irgendwie an Dark Souls-Spieler...

Davon gibt es aber, wie ich in den Kommentaren zu den letzten RAM-Tests feststellen musste, überraschend viele. Also denjenigen bestenfalls vor dem Sprung noch ein paar Schwimmflügel in die Hand drücken oder hinterherwerfen, wenn man selbst schon grenzwertige Erfahrungen gemacht hat ;)

Antwort 2 Likes

Derfnam

Urgestein

5,986 Kommentare 1,336 Likes

' (...) wenn man darüber nachdenkt, kann ein System nie zu stabil sein.'
Genau. Warum also das ganze Bullshitbingo? Ja, ist Nische, ist schön nerdy und hat somit die perfekte Plattform hier, aber wenn man die reine Testzeit als Arbeitszeit berechnet (und was ist es anderes als eben das?), dann kann man sich gradsogut gleich den schnellsten Speicher kaufen, mit dem das Board offiziell klarkommt und gut is.

Antwort 2 Likes

[
[wege]mini

Mitglied

11 Kommentare 6 Likes

Schöner Artikel und vor allem der eindringliche Hinweis, dass man hier nicht mit Murmeln spielt sondern mit rohen Eiern rumrennt, ist sehr wichtig.

OC ist langsam immer mehr zum Volkssport geworden und hier sollte man jedem erklären, was er da eigentlich macht.

Wie sagte schon die Oma: Vorsicht ist die Mutter der Porzellankiste. Oder Opa: Vorbeugen ist besser als auf die Schuhe kotzen.

mfg

Antwort 2 Likes

RedF

Urgestein

999 Kommentare 333 Likes

Also ich hatte einen haufen Spaß beim ausloten meiner Speicher. Das hat sogar ein gewisses Suchtpotenzial.
Und wenn ich nach dem Spaß sogar noch ein schnelleres System habe, um so besser.

Antwort 1 Like

ipat66

Veteran

159 Kommentare 137 Likes

So habe ich Deinen Artikel auch verstanden.

Die Grundregeln und aktuellen Programme vorzustellen,welche plattformabhängig aktuell sind,
ebnet wohl den Weg fürs übertaktungsfreudige Publikum.
Deine Tipps sind da eine große Hilfe.

Habe meine 3200er Samsung b-dies auch auf 3600 übertaktet und inklusive Timings
etwas an Durchsatz gewonnen....
Wäre sicherlich noch etwas mehr möglich gewesen,aber nach dem Motto“Das Bessere ist des Guten Feind“ mich dann damit zufrieden gegeben.

In Bezug auf die restliche Hardware (CPU und GPU),bin ich zwischenzeitlich eher ein Freund des Undervoltings geworden.
30 % mehr Strom für 5 bis 10% Mehrleistung finde ich bei diesen Stromvernichtern einfach nicht mehr zeit gemäß. Außerdem hält die Hardware,dank der niedrigeren Temperaturen wahrscheinlich länger und die Lärmbelastung nimmt auch deutlich ab...:)

Antwort 1 Like

Klicke zum Ausklappem
Casi030

Urgestein

4,620 Kommentare 575 Likes

Hab ich die wichtigen Widerstände bei AMD überlesen?

Antwort Gefällt mir

n
not-A-fanboy

Neuling

6 Kommentare 1 Likes

"Karhu: ... Eine Abdeckung von 1000 % wird als stabil angesehen."

Da fehlt denke ich eine Null. 10000% sollte Karhu schon durchlaufen.

Antwort 1 Like

skullbringer

Veteran

158 Kommentare 133 Likes

Kosten/Nutzen muss man natürlich immer abwägen. Wenn man dann aber wirklich maximal stabil unterwegs sein möchte, dürfte man eigentlich nur noch eine Server/Workstation-Plattform mit ECC RAM verwenden. Und auf der anderen Seite, auch wenn man ein teures XMP Kit mit ordentlich Performance out-of-the-box kauft, lässt man durch nicht optimierte Sekundär- und Tertiär-Timings meistens trotzdem noch einiges an Potential liegen. ;)

Hab ich hinzugefügt, danke für die Ergänzung. Gibt's übrigens auch bei Intel

Ist natürlich Definitions- bzw. Ansichtssache. Mir sind mehrere verschiedene Tests mit jeweils weniger Abdeckung lieber als sämtliche Hoffnung auf einen Test mit ewig Laufzeit zu setzen. Daher auch nur 400% bei HCI, wo andere vielleicht 1000% als "stabil" bezeichnen würden.

Antwort Gefällt mir

Klicke zum Ausklappem
Casi030

Urgestein

4,620 Kommentare 575 Likes

Mit Intel werd ich nicht Warm,deswegen kenne ich das nur von AMD.;)

Du kannst auch noch nach 2-3000% nen Fehler bekommen,deswegen teste Ich immer mit rund 25mV weniger und stell es dann wieder hoch.
Du hast mehr Sicherheit auf lange Zeit,geringe Spannungswandler, Zeitliche Abnutzung alles schon mit drinne.
Was mir an dem guten Tutorial aber noch fehlt sind Aussagen von 2-3 Herstellern uüber ihre Kompatibilitätsliste beim Ram,besonders bei AMD da ja jeder davon ausgeht das z.b.4000MHz Ram auch mit 4000MHz läuft weil er in der Liste steht und angeblich so getestet wurde.
Da wäre ne Richtigstellung mal gut das es eben nicht so ist und das der Ram nur JEDEC laufen muss beim Test.

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung