Basics DDR-RAM Practice Reviews System

RAM OC: Basics you need to know for getting started – A rough guide and overview for memory overclocking

But how do I actually do it?

Well, basically it’s all down to trial and error. And if you value your time, you can try to make this trial and error procedure as efficient as possible. In the following I describe how I go about overclocking a kit of RAM, so take that for what it is. First I usually want to figure out the maximum memory clock, before I start bothering with the timings. So I loosen the primary timings, like e.g. XMP timings + 5 for each, set the memory voltage to XMP voltage + 100 mV, leave all other timings on auto and then try to increase the memory clock step by step. From 3600, I might go to 3866, then 4000, then 4266 and so on until it does not post or train anymore.

Once I have found my maximum memory clock, I try to fully boot the system with these settings to the operating system and run a stability test to see if just the memory clock alone without pushing the timings is stable. Often this is indicative of the quality of the memory slots and traces of the used motherboard. Usually I’m a bit in a rush and therefore cut the test short at about 15 minutes in which 0 errors must occur of course. If it fails, walk the memory clock back one step until you found a stable one.

Then I go back to the BIOS and start tweaking the timings. Now you will have to find a compromise between testing accurately, by changing only one timing at a time, but which takes a long time, or testing fast by changing multiple timings at a time and risk not knowing what’s to blame if the settings are not stable. What I like to do here is changing timings one at a time, but only test if they post, not if they are stable. Then once I have tweaked all timings of a given “category”, like all primary timings, for as low as they will post, I boot fully into the OS and run the stability test. If the test passed, fine, onto the next batch of timings. If the test detects an instability, boot back into the bios and loosen timings.

For maximum efficiency, you basically want to alternate between success and failure in stability testing with different settings as fast as possible. You might know the mathematical thought experiment of having to find the lighter one of 12 identically looking spheres by only weighing subsets of them 3 times in total. The solution is to divide the spheres in subsets and weigh them against each other. You can apply the same principal here, basically divide all timings that could be the cause of instability into two halves, change all timings of one half to auto and test again. This way you save time and don’t need to actually test one timing at a time.

Now you can probably see, why memory overclocking is a very time intensive endeavor. Because of that, you might want to save a certain state of settings and return to it later. For that, BIOS profiles are especially handy, so for instance you can switch between your known stable daily setting and work in progress unstable OC setting. Alternatively, you can of course also note down what settings you changed or make screenshots, from the BIOS or from the OS with tools that can readout all timings, which we will also get to. Long story short, it’s highly to keep records of the changes you make, also to avoid getting confused or simply losing progress.

For the same reason, I also recommend “making checkpoints”, so once you have validated stability for a certain set of settings, make a screenshot of all settings, voltages and the successful stability test. This way, you always have a known good state that you can return to later if you find yourself in a situation where nothing seems to work anymore. And this will very likely happen to everyone. So if you don’t make notes or “checkpoints”, you will go insane. Trust me and thank me later. 😀

So that’s basically all that there is to memory overclocking. It’s quite time intensive, but by knowing some tricks and with experience, one will get faster at it. And as we have discussed many times before, depending on the use case, the gain in performance by overclocking your system memory can be very noticeable. If you have any feedback, spotted any errors or would like something to be added, please let me know in the forums. As mentioned already, this is intended to be an evolving document that every community member can chip in for. 😉

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,084 Kommentare 2,040 Likes

In nahezu jedem Beitrag mit Thema Ram-OC kommt der Hinweis, dass man ggf fehlerhafte Daten produziert, die zwar im Alltag nicht schlimm, aber bei bestimmten Anwendungen problematisch werden können.
Wenn ich auf Daten-Integrität angewiesen bin, übertakte ich nicht. Wenn es um schiere Leistung, also die letzte Nachkomma-Stelle geht, dann ist das sicher ein Weg. Mir ist der (Test-)Aufwand für das, was hinten rauskommt, deutlich zu groß. Bin dankbar für die XMP-Profile 😉

Antwort 3 Likes

skullbringer

Veteran

306 Kommentare 328 Likes

Zugegebenermaßen muss man schon ein besonders experimentierfreudiger und leidensfähiger Typ Enthusiast sein, um den Sprung ins kalte Wasser des Arbeitsspeicher Übertaktens zu wagen. ...erinnert mich irgendwie an Dark Souls-Spieler...

Davon gibt es aber, wie ich in den Kommentaren zu den letzten RAM-Tests feststellen musste, überraschend viele. Also denjenigen bestenfalls vor dem Sprung noch ein paar Schwimmflügel in die Hand drücken oder hinterherwerfen, wenn man selbst schon grenzwertige Erfahrungen gemacht hat ;)

Antwort 3 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

' (...) wenn man darüber nachdenkt, kann ein System nie zu stabil sein.'
Genau. Warum also das ganze Bullshitbingo? Ja, ist Nische, ist schön nerdy und hat somit die perfekte Plattform hier, aber wenn man die reine Testzeit als Arbeitszeit berechnet (und was ist es anderes als eben das?), dann kann man sich gradsogut gleich den schnellsten Speicher kaufen, mit dem das Board offiziell klarkommt und gut is.

Antwort 2 Likes

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Schöner Artikel und vor allem der eindringliche Hinweis, dass man hier nicht mit Murmeln spielt sondern mit rohen Eiern rumrennt, ist sehr wichtig.

OC ist langsam immer mehr zum Volkssport geworden und hier sollte man jedem erklären, was er da eigentlich macht.

Wie sagte schon die Oma: Vorsicht ist die Mutter der Porzellankiste. Oder Opa: Vorbeugen ist besser als auf die Schuhe kotzen.

mfg

Antwort 2 Likes

RedF

Urgestein

4,665 Kommentare 2,553 Likes

Also ich hatte einen haufen Spaß beim ausloten meiner Speicher. Das hat sogar ein gewisses Suchtpotenzial.
Und wenn ich nach dem Spaß sogar noch ein schnelleres System habe, um so besser.

Antwort 2 Likes

ipat66

Urgestein

1,357 Kommentare 1,355 Likes

So habe ich Deinen Artikel auch verstanden.

Die Grundregeln und aktuellen Programme vorzustellen,welche plattformabhängig aktuell sind,
ebnet wohl den Weg fürs übertaktungsfreudige Publikum.
Deine Tipps sind da eine große Hilfe.

Habe meine 3200er Samsung b-dies auch auf 3600 übertaktet und inklusive Timings
etwas an Durchsatz gewonnen....
Wäre sicherlich noch etwas mehr möglich gewesen,aber nach dem Motto“Das Bessere ist des Guten Feind“ mich dann damit zufrieden gegeben.

In Bezug auf die restliche Hardware (CPU und GPU),bin ich zwischenzeitlich eher ein Freund des Undervoltings geworden.
30 % mehr Strom für 5 bis 10% Mehrleistung finde ich bei diesen Stromvernichtern einfach nicht mehr zeit gemäß. Außerdem hält die Hardware,dank der niedrigeren Temperaturen wahrscheinlich länger und die Lärmbelastung nimmt auch deutlich ab...:)

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Hab ich die wichtigen Widerstände bei AMD überlesen?

Antwort Gefällt mir

n
not-A-fanboy

Mitglied

10 Kommentare 3 Likes

"Karhu: ... Eine Abdeckung von 1000 % wird als stabil angesehen."

Da fehlt denke ich eine Null. 10000% sollte Karhu schon durchlaufen.

Antwort 2 Likes

skullbringer

Veteran

306 Kommentare 328 Likes

Kosten/Nutzen muss man natürlich immer abwägen. Wenn man dann aber wirklich maximal stabil unterwegs sein möchte, dürfte man eigentlich nur noch eine Server/Workstation-Plattform mit ECC RAM verwenden. Und auf der anderen Seite, auch wenn man ein teures XMP Kit mit ordentlich Performance out-of-the-box kauft, lässt man durch nicht optimierte Sekundär- und Tertiär-Timings meistens trotzdem noch einiges an Potential liegen. ;)

Hab ich hinzugefügt, danke für die Ergänzung. Gibt's übrigens auch bei Intel

Ist natürlich Definitions- bzw. Ansichtssache. Mir sind mehrere verschiedene Tests mit jeweils weniger Abdeckung lieber als sämtliche Hoffnung auf einen Test mit ewig Laufzeit zu setzen. Daher auch nur 400% bei HCI, wo andere vielleicht 1000% als "stabil" bezeichnen würden.

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Mit Intel werd ich nicht Warm,deswegen kenne ich das nur von AMD.;)

Du kannst auch noch nach 2-3000% nen Fehler bekommen,deswegen teste Ich immer mit rund 25mV weniger und stell es dann wieder hoch.
Du hast mehr Sicherheit auf lange Zeit,geringe Spannungswandler, Zeitliche Abnutzung alles schon mit drinne.
Was mir an dem guten Tutorial aber noch fehlt sind Aussagen von 2-3 Herstellern uüber ihre Kompatibilitätsliste beim Ram,besonders bei AMD da ja jeder davon ausgeht das z.b.4000MHz Ram auch mit 4000MHz läuft weil er in der Liste steht und angeblich so getestet wurde.
Da wäre ne Richtigstellung mal gut das es eben nicht so ist und das der Ram nur JEDEC laufen muss beim Test.

Antwort 1 Like

K
Kurt Krampmeier

Mitglied

15 Kommentare 13 Likes

Hallo!

das ganze Timing-gewürfel am Limit muss nicht zwangsläufig langwierig werden. Man könnte zb. für Tm5 die 1usmus config (im public ctr 2.1 Archiv enthalten) nutzen. Dazu gibt es eine Fehlerdokumentation in diesem google Spreadsheet

die Fehlerbeschreibungen für die einzelnen Subtests decken sich mit meinen Beobachtungen. anta777 extreme läuft zb bei mir >10min fehlerfrei bei leicht zu enger trfc, während tm5 mit 1usmus nach 2min fehler in "1" auweist. vor allem wackelige RTT und cad Einstellungen bekommt man hier mit Fehler in 2 und 6 nach kürzester Zeit aufgedeckt; der OCCT Speichertest läuft bei den genannten Instabilitäten übrigens "fehlerfrei" 1 Stunde durch. überhaupt nicht zu empfehlen.

Antwort Gefällt mir

Klicke zum Ausklappem
Pascal TM-Custom

Urgestein

1,122 Kommentare 1,361 Likes

sehr schön erklärt der Herr Kollege besser kann man es nicht beschreiben und erklären. Ram oc ist für mich eine absolute Leidenschaft geworden ich finde Ram oc ist die Königsklasse GPU und CPU das kann praktisch fast jeder aber Ram OC ist absolut anspruchsvoll und ist nicht mal so eben gemacht.

Ich hab ewig gebraucht für mein Extrem OC mit meinem Flair X und hat mich viel nerven gekostet und Kaffee aber es hat spaß gemacht.

Antwort Gefällt mir

H
Hovac

Mitglied

22 Kommentare 3 Likes

Das ist dann doch ein bisschen freaky.
OC ist Hobby, Arbeitszeit bedeutet Ergebnisse liefern, von Lohn->Brutto->Netto ganz zu schweigen. Zudem gibt es dass was man mit langem Testen bekommen kann meist nicht als kaufbares Pendant.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

Du vergisst die "Fummler". Mir ist das auch zu stressig bzw meine Zeit zu rar. Aber wenn man halt MUSS, dann bin ich bei @skullbringer: Eine Schwimmhilfe schadet sicher nicht.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

MUSS? Huh. Wer zwingt da wen? Und wie?
Mein Eindruck ist der, dass sich da ne gewisse Verzweiflung offenbart. Mein Hobby ist das Übertakten von RAM? Srsly?
CPUs geben kaum noch was her, GPUs dito, also wird am Speicher rumgefrickelt, was ner Springprozession ziemlich ähnelt.
Da bleib ich lieber stolzer Nichtschwimmer^^.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

Das Optimieren des Systems ist das Hobby 😉 Meins auch, aber eher auf Komponenten-Basis. Trotzdem schau ich immer mal wieder in solche Artikel rein. Der Guide entspricht in etwa dem, was ich seit Jahrzehnten lese - früher auf THW, heute hier. Nur halt bezogen auf aktuelle Hardware.
Neben ein zwei Prozent mehr Leistung lernt man auch was über die Komponenten im allgemeinen - daher lesenswert.

Antwort Gefällt mir

B
Besterino

Urgestein

6,731 Kommentare 3,328 Likes

Ich halte es da mit der 80-20-Regel, die hier ganz gut passt: Die ersten 80% Mehrwert kosten 20% des Aufwands - für die restlichen 20% Mehrwert brauchste dann aber quasi 80% Aufwand.

Die ersten 80% nehm ich in diesem Sinne gerne mit - da wird’s mit der Stabilität & Zuverlässigkeit dann in der Regel auch noch nicht kritisch. Ansonsten beschäftige ich mich halt lieber mit Dingen, die mir mehr (Spaß) bringen - Netzwerke, Virtualisierung usw… aber das Schöne ist, kann ja jeder halten wie er will. :D

Antwort 3 Likes

r
rossi94

Mitglied

12 Kommentare 3 Likes

Wie viel vdimm hast du bei 3800 cl14?

Antwort Gefällt mir

R
Rattenhack

Veteran

137 Kommentare 52 Likes

Kommt auch etwas auf die IC an. Bei Samung B-Die braucht man je nach Güte des Kits zwischen 1,45 und 1,6 V.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung