Je kunt beter vragen hoeveel hardeschijven ik heb; in elk geval meer dan 3; en 3 HDDs kom je theoretisch al aan de 4Gbps, dus waarom doen alsof 4Gbps zo snel is? Ethernet is, relatief aan andere IT-infrastructuur, erg langzaam aan het evolueren; hoelang zitten we nu al met gigabit? 10GbE is nog hardstikke zeldzaam en zelfs al heb je dat nu dan is dat alweer te weinig voor een flinke NAS.
Ethernet is dus de grootste bottleneck voor een NAS. Met link aggregation kun je van je 2 onboard Intel NICs + 2 losse PCIe realteks een 4Gbps virtuele NIC maken. Onder Linux werkt dat ook. Onder Windows natuurlijk weer niet: dan mag je gaan dokken voor een Intel server adapter; honderden euros gaat dat geintje je kosten. Maar je hebt geen speciale (managed) switch nodig.
Maar als je voor een SSD gaat dan moet je er meteen twee nemen, want als er iets fout gaat met je SSD dan ben je meteen je array kwijt!
Je bedoelt dat als je de SSD als SLOG/ZIL device gebruikt, en voor ZFS pool versie 19 het verliezen van je log disk betekent dat je hele array naar de knoppen is. Ja in dat geval heb je zeker gelijk. Dus gebruik je totdat je ZFS pool versie 19 of hoger draait gewoon de SSD voor L2ARC of Cache, en dat is volkomen veilig.
Je kunt SSD ook gewoon als primary storage gebruiken, in RAID0, en backuppen op je RAID-Z pool. SSDs kun je partitioneren en voor allerlei taken gebruiken:
1) primary storage (eigen zfs pool)
2) swap partitie voor systeem
3) L2ARC cache device voor ZFS HDD pool (veilig)
4) SLOG/ZIL device voor ZFS HDD pool (gevaarlijk)
Btw, als je nu een EARS schijf koopt zijn het toch inmiddels gewoon drie platter schijven? De eerste drie platter schijven waren er rond mei van dit jaar. Het lijkt mij dat de shops inmiddels toch wel door de vier platters heen zijn?
Who knows; als je van een webshop koopt met een hoge omloopsnelheid zoals 4Launch enzo, ja dan lijkt me wel dat je nu een 3-platter koopt. Maar aangezien de 3-platter en 4-platter hetzelfde typenummer hebben is dit wel een kritisch gegeven. Ik zou voor de Samsung F4 gaan, die presteert 50% beter dan WD EARS 4-platter in RAID-Z configuraties. The nieuwere WD EARS zou betere firmware hebben en de 512-byte sector emulatie sneller uitvoeren en dus minder snelheid verliezen dan de oudere 4-platter EARS.
Is niet waanzinnig dat 64GiB RAM nog zo duur is; en dat DRAM qua zowel snelheid, design an prijs-per-gigabyte nauwelijks maar dan ook nauwelijks verbetert? Je had 8 jaar geleden DDR2/1066 kunnen kopen wat nu nog steeds competitief is, en nauwelijks duurder per gigabyte; dus eigenlijk zijn we afgelopen decennium niets opgeschoten qua RAM.
4GB RAM is weinig. 6GB/8GB is het minimum waarop ZFS met alle features draait. Pas bij 12/16GB draait het fantastisch en al je de-duplicatie en andere ongein wilt zit je al gauw aan de 64GB wil je dat het snel draait. Veel mensen denken:
- is mijn processor wel snel genoeg, moet ik niet een nog snellere?
- is mijn geheugen wel snel genoeg, moet ik niet OC geheugen of andere timings nemen?
Maar voor ZFS is de
kwantiteit geheugen de belangrijkste spec die de performance bepaalt, buiten de disks zelf dan.
Je kunt een prima stabiel en snel NAS bouwen met 512 MB RAM.
Natuurlijk, met traditionele filesystems. ZFS crasht om de haverklap onder de 4GB RAM; niet echt een aanrader. Als je alleen maar lichte toegang hebt tot ZFS kun je misschien een 1GB ZFS machine bouwen; maar dat gaat zo op z'n bek als je dat arme beestje blootstelt aan multi-client network loads.
ECC is wenselijk voor mission-critical server toepassingen, niet voor thuisgebruik. De risico's van non-ecc geheugen worden hier schromelijk overdreven.
Hoezo is ECC niet wenselijk voor thuisgebruik? Hardeschijven ECC ook maar afschaffen dan? We kunnen ook terug gaan naar het floppy-tijdperk als data integriteit niet van belang is.
ECC RAM is eigenlijk de basis van een stabiel systeem; elke machine zou het moeten hebben. Corruptie op consumentensystemen is inderdaad veel minder ernstig dan een zakelijke machine die per seconde 300 creditcard-transacties verwerkt; maar dat betekent niet dat data integriteit niet meer belangrijk is voor jou als consument. Dat is hetzelfde als te zeggen dat jouw data niet belangrijk is en dus geen goede bescherming verdient. Dat bepaal je nog altijd zelf, hoop ik.

Maar wat moet je met die bandbreedte als andere apparatuur in je netwerk dat niet kan benutten?
Voor mensen met één workstation zou ik die workstation ook met multi-gigabit uitrusten. Een tientje per realtek PCIe kaartje en de onboard NIC krijg je al gratis; is best te doen toch qua kosten? En qua performance scheelt het flink. Niet leuk als je 10+ disks in RAID-Z hebt en aan de 80MB/s komt, nietwaar? Dat kan beter.
In mijn geval, ja ik heb meerdere workstations; die hebben zelf maar 1Gbps; maar samen trekken ze dus wel rond de 3Gbps van de server, die 4Gbps lagg configuratie heeft.
Dan maak je paniek over ECC geheugen, maar laat je wel iemand booten van een USB-stick van 10 euro die na drie dagen (bij wijze van spreken) door zijn write-cycles heen is als het tegen zit. Ik snap hier niets van.
Bij normale filesystems slijt unmanaged NAND inderdaad heel snel. Maar niet als je dat netjes met een memory filesystem aanstuurt, zodat je geen/nauwelijks writes hebt op je USB stick. Maar zelfs al verlies je je OS; dat is niet erg. Nieuw USB stickje schrijven en binnen 10 minuten draait alles weer precies zoals eerst.
En anders installeer je FreeBSD direct op ZFS pool, kun je er ook nog vanaf booten en heb je dus helemaal geen systeemdisk meer nodig.