Frage Das perfekte DIY-NAS?

Besterino

Urgestein
Mitglied seit
Jul 22, 2018
Beiträge
6.801
Bewertungspunkte
3.386
Punkte
112
Ich lese hier ja immer wieder (durchaus gerne) Testberichte zu fertig-NASen. Da juckt es mich jedes Mal in den Fingern, darunter ein "ja fein, aber..." zu schreiben gefolgt von einer hübschen Konfig für ein Eigenbau-NAS. :D Also dachte ich mir, ich schreib das einfach mal hier zusammen und kann dann zukünftig bequem nur hierher verlinken.

Also, hier kommt mein aktueller Liebling (ja, auch wenn's auf 'nem Gigabyte-Brett basiert):

Basis ist das mATX AM4-Mainboard MC12-LE0 von Gigabyte, das ich mit ca. 59 Euro Anschaffungspreis (vor allem im Bereich "Server", aber nicht nur da) als absoluten Preiskracher sehe. Manche haben das Ding wohl auch schon für 45 Euro und weniger (Preisvorschlag bei Ebay) geschossen. Das war selbst für mich zu krass, um nicht doch eins zu kaufen (ok, sind dann zwei geworden).

Auszug aus den Specs:
AM4, d.h. in diesem Fall Ryzen 3000/4000/5000
4xUDIMM
2x1Gbit LAN (Intel)
6x SATA
1x m.2 (aber nur PCIe3 x1! - reicht für's OS)
1x PCIe4 x16 (mit Bifurcation Support bis zu x4/x4/x4/x4 - Details CPU-abhängig!)
1x PCIe4 X4

Beispielkonfig (ohne Datenträger):

PSU: PicoPSU 160W mit 192W Netzteil (hier geht je definitiv auch weniger, aber man sollte eben auch noch Saft für Datenträger einplanen), ca. 117 Euro
Adapter: Netzteil-CPU 4-auf-8-Pin (zwingend für die PicoPSU), ca. EUR 8
Blende: ATX (nett für die PicoPSU), 13 Euro
Gehäuse: Silverstone CS351 (5xHotswap (3,5" oder 2,5"), plus 8x2,5", plus 2x3,5"), ca. 195 Euro
RAM: 1x32GB ECC 3200 UDIMM (auch hier geht natürlich weniger, aber damit ginge halt später auch mal max 128GB), ca. 90 Euro
CPU: 5600 (für den Einstieg - CPU halt nach Wunsch, mit ECC oder nicht, APU ohne 4/4/4/4 Bifurcation und weniger PCIe oder nicht, Kerne/Takt etc.), ca. 120 Euro

GESAMTSUMME: 543 Euro


Damit hat man einen echten "all-purpose-Server", der durchaus einige VMs wuppen kann und sowohl beim Gehäuse als auch von der Plattform her "Platz satt" bzw. ordentlich Flexibilität bietet. Dazu kommt das Komfortfeature IPMI/BMC (inkl. vollständiger Remote-Steuerung und Schmalspurgrafik). Die Konfig sollte sich easy unter 20W betreiben lassen. Klar, an die Stromsparwunder dieser Welt (insb. auf ARM-Basis) kommt man nicht ran, aber das Ding kann dafür so viel mehr...

Plus: quasi jede Software möglich (ich glaub, ich probier die Tage auch mal wieder xpenology).

Ich hab mir fast genau den gerade gebaut (allerdings mit 4x16GB - weil ich die noch da hatte - statt 32GB RAM-Riegeln). Bilder kann ich heute Abend mal reinstellen, falls die CPU bis dahin gekommen ist (hab leider zurzeit nur einen 5600G hier, doch das ist eine andere Geschichte...).

Meine Konfig, also MC12 mit 5600G, 64GB ECC RAM, 1x m.2 NVME SSD, 2x Noctua 80er Lüfter, AMD Boxed CPU-Lüfter, 1x Lan-Kabel gesteckt (BMC nicht angeschlossen), Monitor am onboard VGA/BMC angeschlossen, Win11 Pro alle Treiber und Updates installiert, nach Win-Anmeldung aber kein Programm läuft: ca. 13.3W

Zum Vergleich: Mein MC12 mit 5950X, 64GB ECC RAM, 5x m.2 NVME SSD, 2x 2,5" SATA SSD, 7x Noctua Lüfter (5x120, 2x80), AC Quadro Lüftersteuerung mit WinServer und 2 laufenden VMs (inkl. Ark Ascended, Conan Exiles und Minecraft Server): ca. 68W.

Weiterführende Infos zum Mainboard, z.B. zu Problemen, alternative Konfigs (vor allem CPUs), kompatible Hardware etc.: Sammelthread im Luxx, auch mit weiteren Links.

Teaser:

IMG_0475.jpeg


IMG_0476.jpeg
 
Zuletzt bearbeitet :
@Besterino ich muss sagen, für den Preis unschlagbar! Was ich nicht gefunden habe ist wieviele Platten hast Du da jetzt drinnen und mit welcher Kapazität. Und was mich auch noch interessieren würde ist in welchem Modus (RAID) Du die Platten betreibst, ist oder wird ja ein NAS.
 
@OldMan: Ehrlich gesagt weiß ich noch nicht recht, was ich mit dem Ding machen soll. :p Der Xte Backup-Server ist ja nun auch eher albern... ;) ...und für Virtualisierung hab ich schon was anderes (bei Interesse: hier und ein aktuelleres Pic hier).

Dementsprechend ist da bisher nur eine kleine NVME im onboard m.2-Slot und sonst noch gar nix drin. :)

Zum Thema RAID-Modus an dieser Stelle nur so viel:

Bei mir läuft seit Jahren alles nennenswerte in Sachen Storage auf ZFS, und zwar ZFS in der Geschmacksrichtung von Oracle Solaris (derzeit in der Version 11.4).

Gibt m.E. nichts Besseres, Sichereres, Ausgereifteres und in vielerlei Hinsicht sogar nichts Bequemeres. Der Gold-Standard dafür sind Systeme mit ECC RAM und "dumme" sogenannte SAS-HBAs um SAS/SATA HDDs oder SSDs anzubinden. Beides haben bei mir eigentlich alle Systeme, bei denen entweder Storage oder Virtualisierung (oder am liebsten beides) im Vordergrund steht.

Mal arg verkürzt: Was woanders die üblichen Raid-Level sind, gibt es bei ZFS quasi auch, allerdings ist das Ganze etwas komplizierter. ZFS denkt in Pools und sogenannten vdevs (virtuelle Devices), die einem Pool zugeordnet werden. Auf dem Pool kann man dann sog. Datasets anlegen, in denen dann die Daten liegen (theoretisch können Daten auch direkt auf Ebene des Pools liegen, ist aber nicht best practice und beißt einen an verschiedenen Stellen). Die Redundanz (oder auch nicht) wird bei ZFS auf Ebene der vdevs definiert. Einem Pool können dann vdevs, auch mehrere vdevs gleichzeitig, zugeordnet werden. Z.B. kann ein Pool aus einem vdev mit Redundanz und einem vdev ohne Redundanz bestehen (wäre aber halt maximal dämlich, denn wenn das vdev ohne Redundanz ausfällt, ist der ganze Pool verloren). Aber so kann man z.B. eben Pools immer wieder vergrößern, indem man einfach beliebig Platten nachsteckt, ein neues vdev (bitte mit Redundanz) definiert und dann das neue vdev dem Pool zuordnet. Mit der Zeit landen nicht nur neue Daten auf dem neuen vdev, sondern auch "alte" aus dem "alten" vdev, sobald die Daten verändert werden (u.a. wg. der copy-on-write Mechanik).

Über die Jahre haben sich bei mir aber etwas chaotische Zustände entwickelt im Hinblick auf Backups (zu viele an zu vielen Stellen) und ich bin gerade dabei, die wichtigeren Daten von den verschiedenen Ablageorten in einem ersten Schritt auf zwei 22TB HDDs zu konsolidieren.

Der sog. ZFS Storage Pool auf diesen beiden 22TB HDDs läuft sozusagen als Mirror, auf zwei HDDs unterschiedlicher Hersteller (um nicht einem später erst zu Tage tretenden Fehler zum Opfer zu fallen, der z.B. flächendeckend einen Hersteller oder eine Charge o.ä. betrifft). Konkret: Toshiba und Seagate, jeweils Modelle aus dem Enterprise Regal. Zur Erinnerung: Der entsprechende ZFS Pool hat also (nur) ein vdev bestehend aus diesen zwei HDDs. Auf diesem Backup-Pool ist Deduplication aktiviert, weil ich davon ausgehe, das dort identische Daten überproportional häufig doppelt oder sogar mehrfach zusammenkommen werden - spart Platz aber frisst Performance (und vor allem RAM).

Ansonsten laufen bei mir große Storage Pools (>4TB) für große Datenmengen entweder als ZFS RAID-Z (verkürzt für: mit vdevs mit RAID-Z Redundanz, quasi RAID-5) oder RAID-Z2 (quasi RAID-6). Auf Performance ausgerichtete SSD-Pools (SATA/SAS oder NVME) konfiguriere ich für belanglosen Kram als "basic" (quasi Raid0), für spannendere Sachen mit mehren mirror-vdevs (quasi Raid-10) und den wirklich wichtigen Scheiß zusätzlich nur mit Datenträgern mit PowerlossProtection (PLP).

Aber zurück zur DIY-Konfig im Eingangspost: das Schöne daran ist, dass sich darin gleichzeitig sowohl ein SAS-HBA (für quasi eine große Menge SATA/SAS Datenträger) also auch noch 4 NVME (für ordentlich Bumms) unterbringen lassen. Der einzige Haken bei einem solchen Vollausbau: dann ist leider kein PCIe-Slot mehr frei für eine flotte Netzwerkanbindung.... auch darum bin ich mir noch nicht sicher, was ich mit dem Kleinen am Ende anstellen werde. ;)

Hätte ich nicht schon so viel Kram hier, wäre in meinen Augen der ideale Einsatz aber wohl 4 m.2 NVMe mit Adapterkarte im x16-Slot, ne flotte Netzwerkkarte im x4-Slot, SATA-Geräte nach Wahl an den 6 onboard SATA-Ports, von denen ich 5 an die Hotswap-Bays führen würde. Dann kann man sich noch überlegen, ob man für's OS lieber den x1 onboard m.2-Slot oder den 6. onboard SATA Port nimmt...

...und quasi genau sowas läuft bei mir gerade testweise als neuer "Main-Homeserver", allerdings mit 'nem 5950X statt dem kleinen 5600X, da die Kiste neben Storage auch noch ein paar VM's wuppen darf. Und ausnahmsweise mal mit Windows Server als OS (inzwischen gibt's ja auch ZFSonWindows... ;) ...kommt allerdings noch lange nicht an ZFS auf Solaris heran...).

Du siehst, in Sachen Storage bin ich wohl ziemlich weit abseits vom Mainstream unterwegs. :D
 
Zuletzt bearbeitet :
@Besterino Abseits vom Mainstream ist doch nicht schlecht! Solaris kenne ich noch als es von SUN kam und ich / wir haben es auch sehr gerne verwendet weil es einfach ein super BS war und immer noch ist, vor allem auf SPARC für den Einsatz im RZ. Seitdem es ORACLE übernommen hat haben wir es abgelöst und ich selbst hab es auch nicht mehr verwendet weil ich einfach die Firma O nicht ausstehen kann. Eine wirkliche Weiterentwicklung findet ja auch nicht statt, oder? Die aktuelle Version 11.4 ist nun ja auch schon etwas älter.
Das mit den BackUP's kenn ich, geht mir genauso. Ich habe dafür hinter mir eine QNAP stehen und ich schiebe das ausmisten immer vor mir her ;)
 
Das sind die, bei denen du das auch bei EBay bekommst. Rekord bisher wohl 33 Euro… Echt ein Witz für das Gebotene.
 
Oben Unten