Arbeitsspeicher Grundlagenartikel Praxis System Testberichte

Wie übertaktet man den Arbeitsspeicher richtig? Basics und Tutorial für das RAM-OC

Aber wie mache ich das eigentlich?

Nun, im Grunde ist das eigentliche Doing nur eine Frage von Trial and Error. Und wenn du man seine Zeit wertschätzt, sollte man versuchen, dieses Trial-and-Error-Verfahren so effizient wie möglich zu gestalten. Im Folgenden beschreibe ich, wie ich bei der Übertaktung eines RAM-Kits vorgehe, also nehmt das bitte mit einer angemessenen Prise Salz. Zuerst möchte ich in der Regel den maximalen Speichertakt herausfinden, bevor ich mich an den Timings zu schaffen mache. Also lockere ich die primären Timings, z.B. auf XMP Timings + 5 für jedes, stelle die Speicherspannung auf XMP Spannung + 100 mV, lasse alle anderen Timings auf Auto und versuche dann, den Speichertakt schrittweise zu erhöhen. Von 3600 gehe ich vielleicht auf 3866, dann 4000, dann 4266 und so weiter, bis das System nicht mehr posten bzw. trainieren will.

Sobald ich meinen maximalen Speichertakt gefunden habe, versuche ich, das System mit diesen Einstellungen vollständig zu booten und einen Stabilitätstest durchzuführen, um zu sehen, ob nur der hohe Speichertakt allein, ohne die Timings zu pushen, stabil ist. Oft ist dies ein Indiz für die Qualität der DIMM-Slots und Traces des verwendeten Mainboards. Meistens bin ich etwas in Eile und kürze daher den Test nach etwa 15 Minuten ab, in denen natürlich 0 Fehler auftreten dürfen. Wenn dies nicht der Fall ist, gehe ich den Speichertakt eine Stufe zurück, bis ich einen stabilen gefunden habe.

Dann geht es zurück ins BIOS und es geht damit los, die Timings zu tweaken. Jetzt musst man einen Kompromiss finden zwischen genauem Testen, indem man nur ein Timing auf einmal ändert, was aber sehr lange dauert, oder schnellem Testen, indem man mehrere Timings auf einmal ändert und riskiert, nicht zu wissen, woran es liegt, wenn die Einstellungen nicht stabil sind. Was ich hier gerne mache, ist, die Timings einzeln zu ändern, aber nur zu testen, ob sie posten, aber erstmal nicht ob sie stabil sind. Wenn ich dann alle Timings einer „Kategorie“, wie z.B. alle primären Timings, so niedrig wie möglich eingestellt habe, boote ich das Betriebssystem und führe den Stabilitätstest durch. Wenn der Test bestanden wurde, gut, weiter zur nächsten Kategorie der Timings. Wenn der Test eine Instabilität feststellt, boote ich zurück ins Bios und lockere die Timings.

Für maximale Effizienz will man im Grunde so schnell wie möglich zwischen Erfolg und Misserfolg im Stabilitätstest mit verschiedenen Einstellungen hin und her springen. Ihr kennt vielleicht das mathematische Gedankenexperiment, bei dem man von 12 gleich aussehenden Kugeln die eine leichtere finden muss, indem man alle Kugeln insgesamt nur 3 Mal wiegt. Die Lösung ist, die Kugeln in gleich große Teilmengen aufzuteilen und diese gegeneinander zu wiegen. Das gleiche Prinzip kann man auch hier anwenden. Alle Timings, die die Ursache für die Instabilität sein könnten, in zwei Hälften teilen, die eine Hälfte auf Auto ändern und erneut testen. Auf diese Weise spart man Zeit und man muss nicht tatsächlich ein Timing nach dem anderen testen.

Jetzt wird wahrscheinlich verständlich, warum Speicherübertaktung ein sehr zeitintensives Unterfangen ist. Aus diesem Grund möchte man vielleicht einen bestimmten Zustand der Einstellungen speichern und später wieder dort weitermachen. Dafür sind BIOS-Profile besonders praktisch, so kann man zum Beispiel zwischen stabilen Profil für den täglichen Gebrauch und den bisher noch instabilen OC-Einstellungen hin und her wechseln. Alternativ kann man natürlich auch Notizen oder Screenshots machen, im dem BIOS oder aus dem OS mit Tools, die wir vorhin schon gezeigt hatten. Langer Rede kurzer Sinn, es ist sehr wichtig, regelmäßig die Änderungen der Einstellungen zu dokumentieren, um nicht durcheinander zu kommen oder einfach den Fortschritt zu verlieren.

Aus dem gleichen Grund empfehle ich auch „Checkpoints“ zu machen, d.h. sobald man die Stabilität für ein bestimmtes Set von Einstellungen validiert hat, macht man einen Screenshot von allen Einstellungen, Spannungen und dem erfolgreichen Stabilitätstest. Auf diese Weise hat man immer einen bekannten validierten Zustand, zu dem man später zurückkehren kann, wenn man in eine Situation geraten ist, in der gar nichts mehr zu funktionieren scheint. Und das wird sehr wahrscheinlich jedem mal passieren. Wer denkt, sich Notizen oder „Checkpoints“ sparen zu können, wird ziemlich sicher wahnsinnig werden. Vertraut mir und dankt mir später. 😀

Das ist also im Grunde alles, was es im Großen und Ganzen zu Speicherübertaktung zu sagen gibt. Das ganze ist ziemlich zeitintensiv, aber wenn man einige Tricks kennt und Erfahrungen gesammelt hat, wird man mit der Zeit schneller darin. Und wie wir schon des Öfteren thematisiert haben, kann der Leistungsgewinn durch Übertaktung des Systemspeichers je nach Anwendungsfall durchaus deutlich spürbar sein. Es kann sich also wirklich lohnen. Wenn ihr Feedback habt, Fehler entdeckt habt oder gerne etwas hinzugefügt haben möchtet, lass es mich bitte im Forum wissen. Wie bereits erwähnt, soll dies ein sich ständig weiterentwickelndes Dokument sein, bei dem jedes Community-Mitglied gerne mithelfen kann. 😉

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,071 Kommentare 2,023 Likes

In nahezu jedem Beitrag mit Thema Ram-OC kommt der Hinweis, dass man ggf fehlerhafte Daten produziert, die zwar im Alltag nicht schlimm, aber bei bestimmten Anwendungen problematisch werden können.
Wenn ich auf Daten-Integrität angewiesen bin, übertakte ich nicht. Wenn es um schiere Leistung, also die letzte Nachkomma-Stelle geht, dann ist das sicher ein Weg. Mir ist der (Test-)Aufwand für das, was hinten rauskommt, deutlich zu groß. Bin dankbar für die XMP-Profile 😉

Antwort 3 Likes

skullbringer

Veteran

296 Kommentare 297 Likes

Zugegebenermaßen muss man schon ein besonders experimentierfreudiger und leidensfähiger Typ Enthusiast sein, um den Sprung ins kalte Wasser des Arbeitsspeicher Übertaktens zu wagen. ...erinnert mich irgendwie an Dark Souls-Spieler...

Davon gibt es aber, wie ich in den Kommentaren zu den letzten RAM-Tests feststellen musste, überraschend viele. Also denjenigen bestenfalls vor dem Sprung noch ein paar Schwimmflügel in die Hand drücken oder hinterherwerfen, wenn man selbst schon grenzwertige Erfahrungen gemacht hat ;)

Antwort 3 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

' (...) wenn man darüber nachdenkt, kann ein System nie zu stabil sein.'
Genau. Warum also das ganze Bullshitbingo? Ja, ist Nische, ist schön nerdy und hat somit die perfekte Plattform hier, aber wenn man die reine Testzeit als Arbeitszeit berechnet (und was ist es anderes als eben das?), dann kann man sich gradsogut gleich den schnellsten Speicher kaufen, mit dem das Board offiziell klarkommt und gut is.

Antwort 2 Likes

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Schöner Artikel und vor allem der eindringliche Hinweis, dass man hier nicht mit Murmeln spielt sondern mit rohen Eiern rumrennt, ist sehr wichtig.

OC ist langsam immer mehr zum Volkssport geworden und hier sollte man jedem erklären, was er da eigentlich macht.

Wie sagte schon die Oma: Vorsicht ist die Mutter der Porzellankiste. Oder Opa: Vorbeugen ist besser als auf die Schuhe kotzen.

mfg

Antwort 2 Likes

RedF

Urgestein

4,602 Kommentare 2,521 Likes

Also ich hatte einen haufen Spaß beim ausloten meiner Speicher. Das hat sogar ein gewisses Suchtpotenzial.
Und wenn ich nach dem Spaß sogar noch ein schnelleres System habe, um so besser.

Antwort 2 Likes

ipat66

Urgestein

1,343 Kommentare 1,335 Likes

So habe ich Deinen Artikel auch verstanden.

Die Grundregeln und aktuellen Programme vorzustellen,welche plattformabhängig aktuell sind,
ebnet wohl den Weg fürs übertaktungsfreudige Publikum.
Deine Tipps sind da eine große Hilfe.

Habe meine 3200er Samsung b-dies auch auf 3600 übertaktet und inklusive Timings
etwas an Durchsatz gewonnen....
Wäre sicherlich noch etwas mehr möglich gewesen,aber nach dem Motto“Das Bessere ist des Guten Feind“ mich dann damit zufrieden gegeben.

In Bezug auf die restliche Hardware (CPU und GPU),bin ich zwischenzeitlich eher ein Freund des Undervoltings geworden.
30 % mehr Strom für 5 bis 10% Mehrleistung finde ich bei diesen Stromvernichtern einfach nicht mehr zeit gemäß. Außerdem hält die Hardware,dank der niedrigeren Temperaturen wahrscheinlich länger und die Lärmbelastung nimmt auch deutlich ab...:)

Antwort 1 Like

Casi030

Urgestein

11,913 Kommentare 2,329 Likes

Hab ich die wichtigen Widerstände bei AMD überlesen?

Antwort Gefällt mir

n
not-A-fanboy

Mitglied

10 Kommentare 3 Likes

"Karhu: ... Eine Abdeckung von 1000 % wird als stabil angesehen."

Da fehlt denke ich eine Null. 10000% sollte Karhu schon durchlaufen.

Antwort 2 Likes

skullbringer

Veteran

296 Kommentare 297 Likes

Kosten/Nutzen muss man natürlich immer abwägen. Wenn man dann aber wirklich maximal stabil unterwegs sein möchte, dürfte man eigentlich nur noch eine Server/Workstation-Plattform mit ECC RAM verwenden. Und auf der anderen Seite, auch wenn man ein teures XMP Kit mit ordentlich Performance out-of-the-box kauft, lässt man durch nicht optimierte Sekundär- und Tertiär-Timings meistens trotzdem noch einiges an Potential liegen. ;)

Hab ich hinzugefügt, danke für die Ergänzung. Gibt's übrigens auch bei Intel

Ist natürlich Definitions- bzw. Ansichtssache. Mir sind mehrere verschiedene Tests mit jeweils weniger Abdeckung lieber als sämtliche Hoffnung auf einen Test mit ewig Laufzeit zu setzen. Daher auch nur 400% bei HCI, wo andere vielleicht 1000% als "stabil" bezeichnen würden.

Antwort Gefällt mir

Casi030

Urgestein

11,913 Kommentare 2,329 Likes

Mit Intel werd ich nicht Warm,deswegen kenne ich das nur von AMD.;)

Du kannst auch noch nach 2-3000% nen Fehler bekommen,deswegen teste Ich immer mit rund 25mV weniger und stell es dann wieder hoch.
Du hast mehr Sicherheit auf lange Zeit,geringe Spannungswandler, Zeitliche Abnutzung alles schon mit drinne.
Was mir an dem guten Tutorial aber noch fehlt sind Aussagen von 2-3 Herstellern uüber ihre Kompatibilitätsliste beim Ram,besonders bei AMD da ja jeder davon ausgeht das z.b.4000MHz Ram auch mit 4000MHz läuft weil er in der Liste steht und angeblich so getestet wurde.
Da wäre ne Richtigstellung mal gut das es eben nicht so ist und das der Ram nur JEDEC laufen muss beim Test.

Antwort 1 Like

K
Kurt Krampmeier

Mitglied

15 Kommentare 13 Likes

Hallo!

das ganze Timing-gewürfel am Limit muss nicht zwangsläufig langwierig werden. Man könnte zb. für Tm5 die 1usmus config (im public ctr 2.1 Archiv enthalten) nutzen. Dazu gibt es eine Fehlerdokumentation in diesem google Spreadsheet

die Fehlerbeschreibungen für die einzelnen Subtests decken sich mit meinen Beobachtungen. anta777 extreme läuft zb bei mir >10min fehlerfrei bei leicht zu enger trfc, während tm5 mit 1usmus nach 2min fehler in "1" auweist. vor allem wackelige RTT und cad Einstellungen bekommt man hier mit Fehler in 2 und 6 nach kürzester Zeit aufgedeckt; der OCCT Speichertest läuft bei den genannten Instabilitäten übrigens "fehlerfrei" 1 Stunde durch. überhaupt nicht zu empfehlen.

Antwort Gefällt mir

Klicke zum Ausklappem
Pascal TM-Custom

Urgestein

1,122 Kommentare 1,358 Likes

sehr schön erklärt der Herr Kollege besser kann man es nicht beschreiben und erklären. Ram oc ist für mich eine absolute Leidenschaft geworden ich finde Ram oc ist die Königsklasse GPU und CPU das kann praktisch fast jeder aber Ram OC ist absolut anspruchsvoll und ist nicht mal so eben gemacht.

Ich hab ewig gebraucht für mein Extrem OC mit meinem Flair X und hat mich viel nerven gekostet und Kaffee aber es hat spaß gemacht.

Antwort Gefällt mir

H
Hovac

Mitglied

21 Kommentare 3 Likes

Das ist dann doch ein bisschen freaky.
OC ist Hobby, Arbeitszeit bedeutet Ergebnisse liefern, von Lohn->Brutto->Netto ganz zu schweigen. Zudem gibt es dass was man mit langem Testen bekommen kann meist nicht als kaufbares Pendant.

Antwort Gefällt mir

grimm

Urgestein

3,071 Kommentare 2,023 Likes

Du vergisst die "Fummler". Mir ist das auch zu stressig bzw meine Zeit zu rar. Aber wenn man halt MUSS, dann bin ich bei @skullbringer: Eine Schwimmhilfe schadet sicher nicht.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

MUSS? Huh. Wer zwingt da wen? Und wie?
Mein Eindruck ist der, dass sich da ne gewisse Verzweiflung offenbart. Mein Hobby ist das Übertakten von RAM? Srsly?
CPUs geben kaum noch was her, GPUs dito, also wird am Speicher rumgefrickelt, was ner Springprozession ziemlich ähnelt.
Da bleib ich lieber stolzer Nichtschwimmer^^.

Antwort Gefällt mir

grimm

Urgestein

3,071 Kommentare 2,023 Likes

Das Optimieren des Systems ist das Hobby 😉 Meins auch, aber eher auf Komponenten-Basis. Trotzdem schau ich immer mal wieder in solche Artikel rein. Der Guide entspricht in etwa dem, was ich seit Jahrzehnten lese - früher auf THW, heute hier. Nur halt bezogen auf aktuelle Hardware.
Neben ein zwei Prozent mehr Leistung lernt man auch was über die Komponenten im allgemeinen - daher lesenswert.

Antwort Gefällt mir

B
Besterino

Urgestein

6,671 Kommentare 3,266 Likes

Ich halte es da mit der 80-20-Regel, die hier ganz gut passt: Die ersten 80% Mehrwert kosten 20% des Aufwands - für die restlichen 20% Mehrwert brauchste dann aber quasi 80% Aufwand.

Die ersten 80% nehm ich in diesem Sinne gerne mit - da wird’s mit der Stabilität & Zuverlässigkeit dann in der Regel auch noch nicht kritisch. Ansonsten beschäftige ich mich halt lieber mit Dingen, die mir mehr (Spaß) bringen - Netzwerke, Virtualisierung usw… aber das Schöne ist, kann ja jeder halten wie er will. :D

Antwort 3 Likes

r
rossi94

Mitglied

12 Kommentare 3 Likes

Wie viel vdimm hast du bei 3800 cl14?

Antwort Gefällt mir

R
Rattenhack

Veteran

137 Kommentare 52 Likes

Kommt auch etwas auf die IC an. Bei Samung B-Die braucht man je nach Güte des Kits zwischen 1,45 und 1,6 V.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung