Synthetische Benchmarks
Die Synthetics sind eine gute Möglichkeit, die großen Zahlen einmal so richtig auszufahren, wenn sie denn stimmen. Wie gut das dann in der Realität bei den echten Anwendungsbenchmarks funktioniert, sehen wir dann später noch. Deshalb beginne ich mit dem CrystalDiskMark und vier verschiedenen Dateigrößen. Die SSDs war zum Testzeitpunkt nicht mehr ganz neu und ich hatte vor dem mehrmaligen Löschen der Daten auch schon einmal Füllstände von reichlich 50%. Die angegebenen Maximalwerte aus dem Datenblatt hat die SSD allerdings beim Schreiben großer Blöcke nie ganz erreicht, aber die hier ermittelten Werte sind recht konstant und entsprechen auch noch dem Ist-Stand des gerade eingebauten, noch jungfräulichen Produktes.
Man erkennt sehr gut, dass der dynamische pSLC genau das macht, was er soll, wohlgemerkt bei einer leeren (wenn auch nicht jungfräulichen) SSD. Das Ärgerliche an einer 2 TB SSD ist ja, dass noch so viel Menge Platz bleibt und man sie deshalb trotzdem besser nie mehr als 2/3 bis zu 3/4 mit Daten füllen sollte. Das muss man bei der Planung vorab stets berücksichtigen. Dem Lesen tut eine höhere Auslastung keinen Abbruch, nur beim Schreiben gerät der dynamische SLC dann mit Sicherheit irgendwann an seine Grenzen. Und wenn man es immer und immer wieder tut, wird auch der Switch der Speichermodule zwischen beiden Methoden irgendwann nicht mehr möglich sein.
Sehr interessant agiert diesmal ATTO, wobei ich hier mit nur zwei Größen arbeite, was am Ende aber aufs Gleiche rausläuft. Die Daten ähneln denen des CrystalDiskMarks nämlich nicht ganz, sondern real werden die Herstellerangaben deutlich unterschritten. Wobei man natürlich sagen muss, dass auch das hier Gemessene noch völlig ausreichend ist. Deshalb auch das „Bis zu“ und man ist fein raus.
Video Streams
Doch was passiert, wenn man ein Video streamt? Dafür nutzt die Industrie den AJA Benchmark, der faktisch eine Schnittstelle zwischen synthetischen Benchmarks und praktischer Anwendung darstellt. Auch hier patzt die NETAC NV7000-t 2TB nicht, wenngleich es bereits doch wie bereits ATTO schon etwas von der theoretischen Schreib- und Leserate abweicht.
Wir sehen, dass die auf der vorigen Seite gemachten Anmerkungen zum dynamischen pSLC Cache und dem Verhalten bei den größeren Dateiblöcken vollends zutreffen. Kleinere Dateibewegungen wären nämlich durchaus noch schneller, wenn man den Overhead des Dateisystems mal weglässt. Das sieht man vor allem am Ende des Durchlaufs.
Für die Neugierigen habe ich auch noch das Messprotokoll mit allen Details als PDF:
BENCHMARK-TABLE
18 Antworten
Kommentar
Lade neue Kommentare
Urgestein
Urgestein
Veteran
Urgestein
1
Mitglied
Urgestein
Veteran
Veteran
Urgestein
Mitglied
1
Urgestein
Mitglied
Mitglied
1
Mitglied
Urgestein
Alle Kommentare lesen unter igor´sLAB Community →