Reviews KIOXIA EXCERIA PLUS 2 TB NVMe M.2 SSD im Test – Ist relativ teuer auch richtig gut?

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
SSDs sind aus dem normalen PC-Alltag kaum noch wegzudenken und die flachen NVMe-SSDs im M.2-Slot erst recht nicht. Mit der EXCERIA PLUS, TLC NAND und 5 Jahren Garantie möchte KIOXIA (also quasi Toshiba) die EXCERIA-Serie nach oben hin erweitern und setzt dabei überwiegend auf Komponenten aus eigener Produktion. Das zieht sich hin bis zum Platinen-Layout, […]

Hier den ganzen Artikel lesen
 
Alternate bietet aktuell einen Upgradeservice an für Samsung SSD´s. Ich denke das werde ich mal nutzen, die überspielen direkt auch alle Daten auf die neue Platte, das spart mir einiges an Arbeit. Ich werde dann wohl die 970 Evo Plus verwenden auch wenn diese recht teuer ist. Die 980 scheint ja ein Flop zu sein.
 
Alternate bietet aktuell einen Upgradeservice an für Samsung SSD´s. Ich denke das werde ich mal nutzen, die überspielen direkt auch alle Daten auf die neue Platte, das spart mir einiges an Arbeit. Ich werde dann wohl die 970 Evo Plus verwenden auch wenn diese recht teuer ist. Die 980 scheint ja ein Flop zu sein.
Gerade für Notebook wäre die 980 doch optimal. Hat genug pSLC-Cache - den Einbruch wirst DU nicht so schnell erleben. Und das wichtigste - ist im Vergleich zu der leicht besseren aber sehr heißen 970Evo+ nicht einmal lauwarm - für aktuelle 109,- recht OK. Alternativ - SN750 beim Blöd-/Geiz- Markt für 109,90 minus NL-GS -> für 99,90€ holen! Und 970Evo+ ist sicherlich gut, würde sie aber erst für Desktop empfehlen!
 
Das Thema Hitze ist natürlich eine relevanter Punkt. Wobei ich eigentlich selten solche Datenmengen schiebe dass die SSD sich groß aufheizt, wichtig ist aber tatsächlich das bis zum Füllstand die Leistung erhalten bleibt und genau da hat die 980er wohl gravierende Probleme.
 
Das Thema Hitze ist natürlich eine relevanter Punkt. Wobei ich eigentlich selten solche Datenmengen schiebe dass die SSD sich groß aufheizt, wichtig ist aber tatsächlich das bis zum Füllstand die Leistung erhalten bleibt und genau da hat die 980er wohl gravierende Probleme.
 
Ich verstehe nicht, warum die meisten Seiten bei Diskmark nur 1GB messen. Wir wissen alle wie schnell DRAM ist, geht es nicht eigentlich darum die SSD zu testen? Ich weiß es geht schneller und man macht es halt schon lange so aber 5-10 GB würden wahrscheinlich die Unterschiede zwischen einzelnen Modellen herausstellen.
 
Jo, 1GB Tests sind bestenfalls ein Test des Controllers... interessant wird es erst, wenn der Cache voll ist, und RICHTIG interessant erst „hinter“ einem etwaigen pseudo-SLC Cache. Aber wer hat schon Lust, 100-200GB zu schaufeln?

Daher taugt CDM auch nicht wirklich, weil man bei dem Tool nicht festlegen kann, wie genau es auf den Datenträger zugreift. Hab mich länger nicht mehr damit beschäftigt und keine Ahnung, ob/wie das ggf mit Windows Boardmitteln geht. Bei linux & co. kann man zum Beispiel bei diversen Tools zumindest per Parameter mitgeben, ob es den Datenträger-Write-Cache nutzen darf oder nicht. Auch lässt sich da eben DRAM-Caching verhindern.

Ich hatte mit CDM schon Werte, die bei einer SSD völlig jenseits der maximal möglichen BUS-Geschwindigkeit lagen. Drum ist CDM für mich eher nur eine grobe Indikation: wenn’s da Scheiss-Werte gibt, liegt irgendwas richtig im Argen - gute Werte bedeuten hingegen eher nix außer „scheint nix richtig im Argen zu liegen...“. ;)

Und davon ab: was ist das realistische Einsatzszenario? Wenn man eher kleine Datenmengen liest & schreibt, ist ein Test mit Cache durchaus aussagekräftig. Wer dauernd 100+GB am Stück schaufelt, sollte wohl eh einen anderen Datenträger wählen...
 
Und davon ab: was ist das realistische Einsatzszenario?
Ich denke, bei den meisten wird im Alltag vor allem gelesen und nur wenig geschrieben. Man installiert ja nicht dauernd alles neu. Wer aber 4K-Videos rendert oder eine SSD für einen Server sucht testet besser mit grösseren Mengen.

Der Userbenchmark lässt 6 Tests mit je 10 Sekunden laufen. Das gibt schon eine rechte Menge und man sieht häufig, wie die Schreibrate einbricht. Wenn eine SSD stark gefüllt ist, bricht es meist noch schneller ein.
 
Ich verstehe nicht, warum die meisten Seiten bei Diskmark nur 1GB messen. Wir wissen alle wie schnell DRAM ist, geht es nicht eigentlich darum die SSD zu testen? Ich weiß es geht schneller und man macht es halt schon lange so aber 5-10 GB würden wahrscheinlich die Unterschiede zwischen einzelnen Modellen herausstellen.
5 Testläufe @ 1GB ist nun mal "default"-Einstellung und wird halt von den meisten benutzt, weil sie zur groben und vor allem schnellen Einschätzung der Leistung taugt. DRAM wird da nicht mitgetestet und System-RAM, so gut wie unter Windows nur möglich ist, umgegangen. Um etwas genauer zu testen habe ich, nachdem ich viele Szenarios/Einstellungen durchgetestet habe, SO WIE DU SAGST, 5-10 GB als optimal empfunden. Es gibt aber keine 5GB-Einstellung, deswegen teste ich aktuell für mich alle SSDs mit 4GB-Einstellung bei CrystalDiskMark (+1GB zur Vergleichbarkeit) und 10GB-Einstellung bei AS-SSD (+1GB zu Vergleichbarkeit). Überlege aber bei CDM auf 8GB hoch zu gehen, noch höher macht aber aus meiner Sicht keinen Sinn. Du kannst natürlich gerne 16/32 oder gar 64GB einstellen und testen. :geek:

Jo, 1GB Tests sind bestenfalls ein Test des Controllers... interessant wird es erst, wenn der Cache voll ist, und RICHTIG interessant erst „hinter“ einem etwaigen pseudo-SLC Cache. Aber wer hat schon Lust, 100-200GB zu schaufeln?...
Nein, 1GB ist sicherlich mehr als nur COntroller-Test. DRAM-Cache des Controllers wird auch nicht für Daten benutzt, sondern für die Mapping-Tabelle und FLT (=Flash Transition Layer). DRAM-lose SSDs "kacken" sehr schnell ab (vor allem SATA-SSDs!) nicht weil sie die Daten nicht zwischen buffern können, sondern, weil sie mit dem Organisieren und Strukturieren nicht nachkommen, wenn sie arg belastet werden.
Und für das was "RICHTIG interessant" ist, also Leistung nach dem pSLC-Cache, gibt es halt besondere Tests bei fast allen Hardware-Seiten, siehe neure Extra-Tests bei CB&Co.
...
Daher taugt CDM auch nicht wirklich, weil man bei dem Tool nicht festlegen kann, wie genau es auf den Datenträger zugreift. Hab mich länger nicht mehr damit beschäftigt und keine Ahnung, ob/wie das ggf mit Windows Boardmitteln geht. Bei linux & co. kann man zum Beispiel bei diversen Tools zumindest per Parameter mitgeben, ob es den Datenträger-Write-Cache nutzen darf oder nicht. Auch lässt sich da eben DRAM-Caching verhindern.
...
Doch, klar taugt CDM zum Testen von SSDs, wird letzte Zeit sogar richtig bevorzugt, auch wenn's lange nicht perfekt ist. Es gibt in der letzten Version (8+) auch sehr viele Einstellungen und Test-Profile.
Ja, man merkt, dass Du Dich lange nicht damit beschäftigt hast ;). Windows ist leider schon etwas eingeschränkt. Man kann jedoch den Datenträger-Write-Cache im Gerätemanager oder direkt im Explorer in den Datentröger-Eigenschaften ausschalten. Macht man aber nie - wir wollen ja schließlich realistische Tests und realistische Nutzungs-Szenarien. Die Tools versuchen ja schon selbst den RAM nicht mitzutesten und solange man keine extra-caching-Tools im Hintergrund benutzt - gelingt es ja recht gut.

...
Ich hatte mit CDM schon Werte, die bei einer SSD völlig jenseits der maximal möglichen BUS-Geschwindigkeit lagen. Drum ist CDM für mich eher nur eine grobe Indikation...
Das ist doch direkte Indikation, dass System-RAM mitgetestet wurde. War mal vor Jahren bei CDM, jetzt läuft doch ganz ordentlich. Vor 2-3 Jahren habe ich das letztens bei AS-SSD erlebt. Vor allem 4K-64T-Test war ganz zauberhaft unrealistisch... o_O(y)
 
CDM hat für mich Null Praxisrelevanz und die 1 GB-Tests mache ich nur wegen der Vergleichbarkeit. Sinnvoller sind da da schon Aja und der WPC. Der kostet zwar ewig Zeit, ist aber das einzige Kriterium, Controller und Firmware sauber zu vergleichen. Es ist auch der einzige Gradmesser, bei zwei eigentlich baugleichen Platinen mit unterschiedlicher Firmware noch Unterschiede zu finden. Das ist Praxisrelevanz. Da ich dort drei Runs laufen lasse, kostet mich das bei jedem Test bis zu 5 Stunden. Gerade das Gecheate mit der Firmware legt den CDM galant rein, den wir auch bei Grafikkarten wird oft auf Standardbenchmarks hin optimiert. :)
 
5 Testläufe @ 1GB ist nun mal "default"-Einstellung und wird halt von den meisten benutzt, weil sie zur groben und vor allem schnellen Einschätzung der Leistung taugt. DRAM wird da nicht mitgetestet und System-RAM, so gut wie unter Windows nur möglich ist, umgegangen. Um etwas genauer zu testen habe ich, nachdem ich viele Szenarios/Einstellungen durchgetestet habe, SO WIE DU SAGST, 5-10 GB als optimal empfunden. Es gibt aber keine 5GB-Einstellung, deswegen teste ich aktuell für mich alle SSDs mit 4GB-Einstellung bei CrystalDiskMark (+1GB zur Vergleichbarkeit) und 10GB-Einstellung bei AS-SSD (+1GB zu Vergleichbarkeit). Überlege aber bei CDM auf 8GB hoch zu gehen, noch höher macht aber aus meiner Sicht keinen Sinn. Du kannst natürlich gerne 16/32 oder gar 64GB einstellen und testen. :geek:


Nein, 1GB ist sicherlich mehr als nur COntroller-Test. DRAM-Cache des Controllers wird auch nicht für Daten benutzt, sondern für die Mapping-Tabelle und FLT (=Flash Transition Layer). DRAM-lose SSDs "kacken" sehr schnell ab (vor allem SATA-SSDs!) nicht weil sie die Daten nicht zwischen buffern können, sondern, weil sie mit dem Organisieren und Strukturieren nicht nachkommen, wenn sie arg belastet werden.
Und für das was "RICHTIG interessant" ist, also Leistung nach dem pSLC-Cache, gibt es halt besondere Tests bei fast allen Hardware-Seiten, siehe neure Extra-Tests bei CB&Co.

Doch, klar taugt CDM zum Testen von SSDs, wird letzte Zeit sogar richtig bevorzugt, auch wenn's lange nicht perfekt ist. Es gibt in der letzten Version (8+) auch sehr viele Einstellungen und Test-Profile.
Ja, man merkt, dass Du Dich lange nicht damit beschäftigt hast ;). Windows ist leider schon etwas eingeschränkt. Man kann jedoch den Datenträger-Write-Cache im Gerätemanager oder direkt im Explorer in den Datentröger-Eigenschaften ausschalten. Macht man aber nie - wir wollen ja schließlich realistische Tests und realistische Nutzungs-Szenarien. Die Tools versuchen ja schon selbst den RAM nicht mitzutesten und solange man keine extra-caching-Tools im Hintergrund benutzt - gelingt es ja recht gut.


Das ist doch direkte Indikation, dass System-RAM mitgetestet wurde. War mal vor Jahren bei CDM, jetzt läuft doch ganz ordentlich. Vor 2-3 Jahren habe ich das letztens bei AS-SSD erlebt. Vor allem 4K-64T-Test war ganz zauberhaft unrealistisch... o_O(y)

Ich spreche vom dram cache der ssd. Wenn du die 1gb direkt in den 1gb cache schreibst und liest testest du ja nicht wirklich die Geschwindigkeit vom nand.
 
Ich spreche vom dram cache der ssd. Wenn du die 1gb direkt in den 1gb cache schreibst und liest testest du ja nicht wirklich die Geschwindigkeit vom nand.
Dann hast Du wohl nicht verstanden, wie DRAM Cache einer SSD funktioniert. Man kann sehr wohl mit 1GB-Testfile-Größe NAND-Flash testen, nicht umsonst ist das die Standardeinstellung bei den meisten Benchmarks. Andere Story ist halt, dass je nach SSD evtl. zuerst im pSLC-Modus geschrieben wird.
Der DRAM-Cache einer SSD ist nicht für Nutzdaten sondern für den Flash Transaction Layer AKA Mappingtabelle
Danke, Ja, Flash Translation Layer.
 
Fakt ist: die CDM Versionen bis einschließlich 6.x liefern nur Müll als Ergebnisse.

Mit der 8er schaut’s auf den ersten Blick etwas besser aus. Aber ich trau dem Prog nach wie vor nicht für belastbare Ergebnisse.
 
So ich kram das mal hoch. Die SSD wurde heute in der 2 TB Version für 65 € verkauft bei Alternate.
Da ich noch Platz für meinen Frankenstein Server gebraucht habe, hab ich mal zugeschlagen.
Mal sehen wie sie so ist.
 
Oben Unten