Arbeitsspeicher Grundlagenartikel Praxis System Testberichte

Wie übertaktet man den Arbeitsspeicher richtig? Basics und Tutorial für das RAM-OC

Auch wenn die Übertaktung des Arbeitsspeichers im Vergleich zu CPU und GPU wahrscheinlich den geringsten Einfluss auf dein tägliches Computererlebnis hat, können bestimmte speicherempfindliche Anwendungen einen großen Schub durch die Optimierung des Arbeitsspeichers deines PCs erfahren, wie wir in unserem Cyberpunk 2077 Speicher-Roundup behandelt haben. Deshalb wollen wir heute zeigen, wie wir RAM-Kits übertakten und – ebenso wichtig – Stabilitätstests durchführen, und wie du das auch tun kannst. Dies soll ein allgemeiner Leitfaden und Überblick über die Faktoren sein, die du bei der Übertaktung deines Systemspeichers beachten solltest. 

Da diese viele Variablen beinhalten, die oft Plattform-, Mainboard- oder manchmal sogar BIOS-spezifisch sind, ist es schwer, in diesem Rahmen genaue Empfehlungen zu geben. Wir versuchen jedoch, ein vollständiges Bild zu vermitteln und werden den Guide aktualisieren, sollten uns neue Fakten zu Ohren kommen. Wenn ihr die meisten Grundlagen wie Takte, Timings etc. bereits kennt und keine Lust auf Faktencheck habt, könnt ihr die jeweiligen Seiten natürlich auch überspringen. Dieser Leitfaden ist keineswegs das perfekte Tutorial, sondern soll viel mehr eher eine Sammlung von Best Practices und Dingen, auf die man achten sollte, erstellt von der Community, für die Community.

Hier noch einmal die Erinnerung zu Cyberpunk 2077:

Mögliche Datenkorruption – Ein wichtiger Disclaimer, den jeder unbedingt vorher lesen sollte

Zuallererst müssen wir mit einem wichtigen Disclaimer beginnen. Wenn man seine CPU oder GPU übertaktest, stürzt das System im schlimmsten Fall ab oder hat einen Bluescreen, startet dann neu und man ist wieder auf einem sauberen Blatt OC-Papier. Aber wenn ein RAM-OC instabil ist, kann es sein, dass man es erstens nicht sofort bemerkt und dies zweitens schwerwiegende Folgen hat, in Form von Datenkorruption oder komplett irreparablen Schäden am Betriebssystem.

Wenn ein PC ein Gehirn ist, das ständig Daten verarbeitet, ist eine instabile Speicher-Übertaktung im Grunde so, als würde dieses Gehirn Alzheimer bekommen. Erinnerungen können korrumpiert, verändert oder ganz verloren werden. Natürlich sollte man in diesem Zustand keine wichtigen Arbeiten erledigen oder gar Dateisystemreparaturen durchführen willst, wie sie bei Systemabstürzen oft automatisch beim nächsten Start ausgelöst werden, da diese „Reparaturen“ in einem instabilen Zustand oft noch größeren Schaden anrichten können.

Daher ist die Überprüfung der Stabilität der RAM-Übertaktung eines Systems unerlässlich, um sicherzustellen dass Daten intakt bleiben und sich das Betriebssystem nicht langsam selbst kaputt repariert. Wie stellt man aber die Stabilität sicher, während das System läuft, wenn man gleichzeitig aber nicht sein normales Betriebssystem hierfür verwenden möchte?

Im Grunde läuft es immer darauf hinaus, ein separates Bootmedium zu haben, mit dem man die Stabilitätsprüfung durchführt, bevor man auf das eigentliche Bootmedium, also das eigentliche OS, zurück wechselt. Ein sehr bekanntes Tool dafür ist Memtest86, das es schon lange gibt und in Form von ISO-Images zum Booten von USB-Sticks erhältlich ist. Damit kann man seinen RAM auf Stabilität testen und sonst nichts. Auch einige Mainboard-BIOS haben Memtest86 mittlerweile bereits integriert, so dass man sich nicht einmal mit separaten Medien herumschlagen muss.

Für schnelle Tests ist dieser Ansatz gut geeignet, z.B. um zu überprüfen, ob ein RAM-Kit tatsächlich stabil ist und die XMP-Spezifikationen des Herstellers erfüllt oder ob ein einzelnes Modul vielleicht sogar defekt ist. Für die manuelle Übertaktung und das Tuning des Arbeitsspeichers für die beste Performance würde ich jedoch immer eine separate und vollständige Windows-Installation empfehlen. Der Grund dafür ist einfach, dass man von dort aus mehrere verschiedene Stabilitätstest-Programme laufen lassen kann, zu denen wir später noch kommen werden. Zudem kann man so auch überprüfen, ob sich die Leistung tatsächlich verbessert und nicht verschlechtert hat, was vor allem dann passieren kann, wenn man nur einen Teil der Speichertimings manuell tunet.

Ich empfehle daher sich eine kleine SSD zu besorgen, etwa 120 GB, die man heutzutage ja relativ günstig bekommen kann. Darauf kommt dann eine separate Windows-Installation mit den Apps, die du zum Testen von Stabilität und Leistung des RAM-OCs verwendet. Bevor man dann mit dem Übertakten deines Arbeitsspeichers beginnt, entfernt man alle Medien wie SSDs oder HDDs, die wichtige Daten tragen, vom System. Jetzt schließt man nur die dedizierte Windows-Installations-SSD für die RAM-Tests an und beginnt erst dann mit dem Tuning deines Speichers. Und erst wenn man das System erfolgreich auf vollständige Stabilität geprüft hat, schließt man wieder seine regulären Medien an und starte das tägliche Betriebssystem.

Das hört sich wahrscheinlich nach Overkill an, aber vertraut mir, wenn man einmal sensible Daten durch einen nur geringfügig instabilen RAM-OC verloren hat, ist es das nicht mehr. Vorsicht ist bekanntlich besser als Nachsicht.

Plattformgrenzen und Leistungsüberprüfung

Ein weiterer Aspekt, über den man sich bewusst sein sollte, bevor man mit dem Übertakten beginnt, sind die Grenzen der Plattform, mit der man arbeitet. Ein Paradebeispiel dafür ist das Infinity Fabric-Taktlimit bei modernen AMD Ryzen CPUs, bei dem man den Speichertakt nicht über den höchsten stabilen Wert für den 1:1-Synchronbetrieb mit dem Speichercontroller und dem Cache hinaus überschreiten will, um Leistungseinbrüche zu vermeiden.

In einem Fall, in dem das maximale stabile IF Clock Limit einer gegebenen CPU bei 1900 MHz liegt, will man also in 99% der Fälle den RAM mit DDR4-3800 und nicht darüber betreiben. Das bedeutet jedoch nicht, dass man den RAM nicht über diesen Punkt hinaus „übertakten“ kann, da die Timings ebenso wichtig für die Leistung des Speichers sind. Die Timings zu straffen, während der Speichertakt gleich bleibt, kann nämlich auch einen großen Leistungszuwachs bringen.

Auch die Anzahl der Speicherkanäle und Ranks pro Kanal und damit die Belastung des integrierten Speichercontrollers (IMC) deiner CPU, die Speichertopologie deines Mainboards, die Speicher-ICs auf deinen RAM-Modulen und sogar der Aufbau des PCBs der RAM-Module können Limitierungen sein. Meistens wird man sich dieser gar nicht bewusst sein, bis man dann auf sie stößt. Aber man sollte in jedem Fall wissen, dass es beim RAM-OC Faktoren gibt, die man nicht oder nur indirekt kontrollieren kann.

Genauso wichtig ist der wirkliche Anwendungsfall, für den man die Speicher-Übertaktung durchführt. Also im Grunde genommen, was will man damit erreichen? Da sich alle Anwendungen unterscheiden, wie sie CPU-Befehle und damit auch den Systemspeicher nutzen, reagieren einige empfindlicher auf eine Erhöhung der Bandbreite, während andere eher niedrigere Latenzen für eine bessere Leistung bevorzugen.

Synthetische Benchmarks, wie der AIDA64 Cache & Memory Benchmark oder der Geekbench 3 Multi-Core Memory Performance Score, den wir in unseren RAM-Kit-Tests verwenden, liefern lediglich einen groben Leistungsindikator. Man sollte daher auch immer die tatsächliche(n) Anwendung(en) testen, die man beschleunigen möchte. Das könnte bedeuten, dass man ein bestimmtes Projekt in Adobe Premiere oder Cinema 4D rendert oder einen bestimmten Teil eines Spiels spielt und dabei die FPS mit einem Tool wie FrameView aufzeichnet, um effektiv einen Benchmark zu haben, den man für Vorher/Nachher-Vergleiche nutzen kann.

Wie bereits erwähnt, skaliert die Leistung einiger Anwendungen nur mit der Bandbreite oder der Latenz, oder beidem. Und in anderen Fällen kann eine Erhöhung des Speichertaktes, während man einige Timings auf Auto belässt, dazu führen, dass diese Auto-Timings vom Mainboard viel zu locker eingestellt werden. Das wiederum kann dazu führen, dass man mit einer Übertaktung tatsächlich Bandbreiten- oder Latenz-Einbußen bewirkt. Daher sollte man, wie auch bei CPU- und GPU-Übertaktungen, immer einen Vorher-Testlauf in den Benchmarks durchführen, den gleichen Benchmark nach der Übertaktung laufen lassen und dann die beiden Ergebnisse vergleichen, um sicherzustellen, dass man nicht tatsächlich einen Rückschritt bei der Leistung gemacht hat.

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,081 Kommentare 2,035 Likes

In nahezu jedem Beitrag mit Thema Ram-OC kommt der Hinweis, dass man ggf fehlerhafte Daten produziert, die zwar im Alltag nicht schlimm, aber bei bestimmten Anwendungen problematisch werden können.
Wenn ich auf Daten-Integrität angewiesen bin, übertakte ich nicht. Wenn es um schiere Leistung, also die letzte Nachkomma-Stelle geht, dann ist das sicher ein Weg. Mir ist der (Test-)Aufwand für das, was hinten rauskommt, deutlich zu groß. Bin dankbar für die XMP-Profile 😉

Antwort 3 Likes

skullbringer

Veteran

306 Kommentare 328 Likes

Zugegebenermaßen muss man schon ein besonders experimentierfreudiger und leidensfähiger Typ Enthusiast sein, um den Sprung ins kalte Wasser des Arbeitsspeicher Übertaktens zu wagen. ...erinnert mich irgendwie an Dark Souls-Spieler...

Davon gibt es aber, wie ich in den Kommentaren zu den letzten RAM-Tests feststellen musste, überraschend viele. Also denjenigen bestenfalls vor dem Sprung noch ein paar Schwimmflügel in die Hand drücken oder hinterherwerfen, wenn man selbst schon grenzwertige Erfahrungen gemacht hat ;)

Antwort 3 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

' (...) wenn man darüber nachdenkt, kann ein System nie zu stabil sein.'
Genau. Warum also das ganze Bullshitbingo? Ja, ist Nische, ist schön nerdy und hat somit die perfekte Plattform hier, aber wenn man die reine Testzeit als Arbeitszeit berechnet (und was ist es anderes als eben das?), dann kann man sich gradsogut gleich den schnellsten Speicher kaufen, mit dem das Board offiziell klarkommt und gut is.

Antwort 2 Likes

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Schöner Artikel und vor allem der eindringliche Hinweis, dass man hier nicht mit Murmeln spielt sondern mit rohen Eiern rumrennt, ist sehr wichtig.

OC ist langsam immer mehr zum Volkssport geworden und hier sollte man jedem erklären, was er da eigentlich macht.

Wie sagte schon die Oma: Vorsicht ist die Mutter der Porzellankiste. Oder Opa: Vorbeugen ist besser als auf die Schuhe kotzen.

mfg

Antwort 2 Likes

RedF

Urgestein

4,652 Kommentare 2,549 Likes

Also ich hatte einen haufen Spaß beim ausloten meiner Speicher. Das hat sogar ein gewisses Suchtpotenzial.
Und wenn ich nach dem Spaß sogar noch ein schnelleres System habe, um so besser.

Antwort 2 Likes

ipat66

Urgestein

1,354 Kommentare 1,353 Likes

So habe ich Deinen Artikel auch verstanden.

Die Grundregeln und aktuellen Programme vorzustellen,welche plattformabhängig aktuell sind,
ebnet wohl den Weg fürs übertaktungsfreudige Publikum.
Deine Tipps sind da eine große Hilfe.

Habe meine 3200er Samsung b-dies auch auf 3600 übertaktet und inklusive Timings
etwas an Durchsatz gewonnen....
Wäre sicherlich noch etwas mehr möglich gewesen,aber nach dem Motto“Das Bessere ist des Guten Feind“ mich dann damit zufrieden gegeben.

In Bezug auf die restliche Hardware (CPU und GPU),bin ich zwischenzeitlich eher ein Freund des Undervoltings geworden.
30 % mehr Strom für 5 bis 10% Mehrleistung finde ich bei diesen Stromvernichtern einfach nicht mehr zeit gemäß. Außerdem hält die Hardware,dank der niedrigeren Temperaturen wahrscheinlich länger und die Lärmbelastung nimmt auch deutlich ab...:)

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,337 Likes

Hab ich die wichtigen Widerstände bei AMD überlesen?

Antwort Gefällt mir

n
not-A-fanboy

Mitglied

10 Kommentare 3 Likes

"Karhu: ... Eine Abdeckung von 1000 % wird als stabil angesehen."

Da fehlt denke ich eine Null. 10000% sollte Karhu schon durchlaufen.

Antwort 2 Likes

skullbringer

Veteran

306 Kommentare 328 Likes

Kosten/Nutzen muss man natürlich immer abwägen. Wenn man dann aber wirklich maximal stabil unterwegs sein möchte, dürfte man eigentlich nur noch eine Server/Workstation-Plattform mit ECC RAM verwenden. Und auf der anderen Seite, auch wenn man ein teures XMP Kit mit ordentlich Performance out-of-the-box kauft, lässt man durch nicht optimierte Sekundär- und Tertiär-Timings meistens trotzdem noch einiges an Potential liegen. ;)

Hab ich hinzugefügt, danke für die Ergänzung. Gibt's übrigens auch bei Intel

Ist natürlich Definitions- bzw. Ansichtssache. Mir sind mehrere verschiedene Tests mit jeweils weniger Abdeckung lieber als sämtliche Hoffnung auf einen Test mit ewig Laufzeit zu setzen. Daher auch nur 400% bei HCI, wo andere vielleicht 1000% als "stabil" bezeichnen würden.

Antwort Gefällt mir

Casi030

Urgestein

11,923 Kommentare 2,337 Likes

Mit Intel werd ich nicht Warm,deswegen kenne ich das nur von AMD.;)

Du kannst auch noch nach 2-3000% nen Fehler bekommen,deswegen teste Ich immer mit rund 25mV weniger und stell es dann wieder hoch.
Du hast mehr Sicherheit auf lange Zeit,geringe Spannungswandler, Zeitliche Abnutzung alles schon mit drinne.
Was mir an dem guten Tutorial aber noch fehlt sind Aussagen von 2-3 Herstellern uüber ihre Kompatibilitätsliste beim Ram,besonders bei AMD da ja jeder davon ausgeht das z.b.4000MHz Ram auch mit 4000MHz läuft weil er in der Liste steht und angeblich so getestet wurde.
Da wäre ne Richtigstellung mal gut das es eben nicht so ist und das der Ram nur JEDEC laufen muss beim Test.

Antwort 1 Like

K
Kurt Krampmeier

Mitglied

15 Kommentare 13 Likes

Hallo!

das ganze Timing-gewürfel am Limit muss nicht zwangsläufig langwierig werden. Man könnte zb. für Tm5 die 1usmus config (im public ctr 2.1 Archiv enthalten) nutzen. Dazu gibt es eine Fehlerdokumentation in diesem google Spreadsheet

die Fehlerbeschreibungen für die einzelnen Subtests decken sich mit meinen Beobachtungen. anta777 extreme läuft zb bei mir >10min fehlerfrei bei leicht zu enger trfc, während tm5 mit 1usmus nach 2min fehler in "1" auweist. vor allem wackelige RTT und cad Einstellungen bekommt man hier mit Fehler in 2 und 6 nach kürzester Zeit aufgedeckt; der OCCT Speichertest läuft bei den genannten Instabilitäten übrigens "fehlerfrei" 1 Stunde durch. überhaupt nicht zu empfehlen.

Antwort Gefällt mir

Klicke zum Ausklappem
Pascal TM-Custom

Urgestein

1,122 Kommentare 1,361 Likes

sehr schön erklärt der Herr Kollege besser kann man es nicht beschreiben und erklären. Ram oc ist für mich eine absolute Leidenschaft geworden ich finde Ram oc ist die Königsklasse GPU und CPU das kann praktisch fast jeder aber Ram OC ist absolut anspruchsvoll und ist nicht mal so eben gemacht.

Ich hab ewig gebraucht für mein Extrem OC mit meinem Flair X und hat mich viel nerven gekostet und Kaffee aber es hat spaß gemacht.

Antwort Gefällt mir

H
Hovac

Mitglied

21 Kommentare 3 Likes

Das ist dann doch ein bisschen freaky.
OC ist Hobby, Arbeitszeit bedeutet Ergebnisse liefern, von Lohn->Brutto->Netto ganz zu schweigen. Zudem gibt es dass was man mit langem Testen bekommen kann meist nicht als kaufbares Pendant.

Antwort Gefällt mir

grimm

Urgestein

3,081 Kommentare 2,035 Likes

Du vergisst die "Fummler". Mir ist das auch zu stressig bzw meine Zeit zu rar. Aber wenn man halt MUSS, dann bin ich bei @skullbringer: Eine Schwimmhilfe schadet sicher nicht.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

MUSS? Huh. Wer zwingt da wen? Und wie?
Mein Eindruck ist der, dass sich da ne gewisse Verzweiflung offenbart. Mein Hobby ist das Übertakten von RAM? Srsly?
CPUs geben kaum noch was her, GPUs dito, also wird am Speicher rumgefrickelt, was ner Springprozession ziemlich ähnelt.
Da bleib ich lieber stolzer Nichtschwimmer^^.

Antwort Gefällt mir

grimm

Urgestein

3,081 Kommentare 2,035 Likes

Das Optimieren des Systems ist das Hobby 😉 Meins auch, aber eher auf Komponenten-Basis. Trotzdem schau ich immer mal wieder in solche Artikel rein. Der Guide entspricht in etwa dem, was ich seit Jahrzehnten lese - früher auf THW, heute hier. Nur halt bezogen auf aktuelle Hardware.
Neben ein zwei Prozent mehr Leistung lernt man auch was über die Komponenten im allgemeinen - daher lesenswert.

Antwort Gefällt mir

B
Besterino

Urgestein

6,709 Kommentare 3,309 Likes

Ich halte es da mit der 80-20-Regel, die hier ganz gut passt: Die ersten 80% Mehrwert kosten 20% des Aufwands - für die restlichen 20% Mehrwert brauchste dann aber quasi 80% Aufwand.

Die ersten 80% nehm ich in diesem Sinne gerne mit - da wird’s mit der Stabilität & Zuverlässigkeit dann in der Regel auch noch nicht kritisch. Ansonsten beschäftige ich mich halt lieber mit Dingen, die mir mehr (Spaß) bringen - Netzwerke, Virtualisierung usw… aber das Schöne ist, kann ja jeder halten wie er will. :D

Antwort 3 Likes

r
rossi94

Mitglied

12 Kommentare 3 Likes

Wie viel vdimm hast du bei 3800 cl14?

Antwort Gefällt mir

R
Rattenhack

Veteran

137 Kommentare 52 Likes

Kommt auch etwas auf die IC an. Bei Samung B-Die braucht man je nach Güte des Kits zwischen 1,45 und 1,6 V.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung