Synthetische Benchmarks
Die Synthetics sind eine gute Möglichkeit, die großen Zahlen einmal so richtig auszufahren, wenn sie denn stimmen. Wie gut das dann in der Realität bei den echten Anwendungsbenchmarks funktioniert, sehen wir dann später noch. Deshalb beginne ich mit dem CrystalDiskMark und vier verschiedenen Dateigrößen. Die SSDs war zum Testzeitpunkt nicht mehr ganz neu und ich hatte vor dem mehrmaligen Löschen der Daten auch schon einmal Füllstände von reichlich 50%. Die angegebenen Maximalwerte aus dem Datenblatt hat die SSD allerdings nie erreicht, aber die hier ermittelten Werte sind konstant und entsprechen auch dem Ist-Stand des gerade eingebauten, noch jungfräulichen Produktes.
Man erkennt sehr gut, dass der dynamische pSLC genau das macht, was er soll, wohlgemerkt bei einer leeren (wenn auch nicht jungfräulichen) SSD. Das Ärgerliche an einer 1 TB SSD ist ja, dass noch so viel Menge Platz bleibt und man sie deshalb trotzdem besser nie mehr als 2/3 mit Daten füllen sollte. Das muss man bei der Planung vorab stets berücksichtigen. Dem Lesen tut eine höhere Auslastung keinen Abbruch, nur beim Schreiben gerät der dynamische SLC dann mit Sicherheit irgendwann an seine Grenzen. Und wenn man es immer und immer wieder tut, wird auch der Switch der Speichermodule zwischen beiden Methoden irgendwann nicht mehr möglich sein.
Sehr interessant agiert diesmal ATTO, wobei ich hier mit nur zwei Größen arbeite, was am Ende aber aufs Gleiche rausläuft. Die daten ähneln denen des CrystalDiskMarks durchaus.
Video Streams
Doch was passiert, wenn man ein Video streamt? Dafür nutzt die Industrie den AJA Benchmark, der faktisch eine Schnittstelle zwischen synthetischen Benchmarks und praktischer Anwendung darstellt. Auch hier patzt die Acer Predator GM7 nicht, wenngleich es bereits doch schon etwas von der theoretischen Schreib- und Leserate abweicht.
Wir sehen, dass die auf der vorigen Seite gemachten Anmerkungen zum dynamischen pSLC Cache und dem Verhalten bei den größeren Dateiblöcken vollends zutreffen. Kleinere Dateibewegungen wären nämlich durchaus noch schneller, wenn man den Overhead des Dateisystems mal weglässt. Das sieht man vor allem am Ende des Durchlaufs.
Für die Neugierigen habe ich auch noch das Messprotokoll mit allen Details als PDF:
BENCHMARK-TABLE
13 Antworten
Kommentar
Lade neue Kommentare
Urgestein
Veteran
Urgestein
Urgestein
1
Veteran
Urgestein
Neuling
Mitglied
Urgestein
Mitglied
Urgestein
Urgestein
Alle Kommentare lesen unter igor´sLAB Community →