Het is ook realiteit met een enkele disk hoor, maar je komt het natuurlijk sneller tegen met een grote collectie schijven met hoge datadichtheid.
Dat bedoelde ik ook maar de kansen dat je er problemen van gaat ondervinden veranderen naarmate je array groter wordt. Afijn, dat weet de gemiddelde tweaker wel.
Alle hardware RAID weet niets over corruptie. Het enige wat het weet is of de data overeenkomt met de parity data. Daarvoor moet het wel apart zo'n background scan uitvoeren wat ongeveer hetzelfde is als een rebuild. In zo'n geval kan hardware RAID zien wanneer parity en data niet overeenkomen. Voor zover ik weet zal hardware RAID altijd de parity corrigeren aan de data. Dus als de data corrupt is geworden en de parity is goed, dan vernietigt de controller de juiste parity data door corrupte parity data te schrijven aan de hand van de corrupte data blok.
Met een RAID6 array zou dit toch niet mogen voorkomen? Ofwel de data is corrupt, ofwel de parity op beide disks is corrupt en dan ook nog eens op identieke manier, wiskundig lijkt me dat vrijwel onmogelijk. Deze informatie zou een HW controller toch kunnen gebruiken bij een restore? Ik had dit in m'n vorige post even duidelijker moeten vermelden. Met RAID5 snap ik dat corrupte data (zonder checksum) en met alleen parity nooit geverifieerd kan worden.
Maar zelfs error detectie heb je niet met hardware RAID, want zo'n scan is iets aparts en tijdens normaal gebruik doe je dat dus niet. ZFS is heel anders omdat het bij elke leesactie ook de checksum controleert. Dankzij de 'End-to-End data integrity' zorgt ZFS ervoor dat de applicaties nooit corrupte data te zien krijgen, wat natuurlijk voor grote problemen kan zorgen als bijvoorbeeld je iSCSI image corrupte data levert aan NTFS aan de andere zijde. Helaas geldt dit alleen voor disk corruptie niet voor corruptie veroorzaakt door RAM bitflips.
Realtime vs periodic integriteitschecks snap ik, daarin wint ZFS gewoon, ik heb ook geen commentaar op ZFS zelf. Het gaat er mij om dat ik op de lange termijn m'n data beveilig tegen failures (RAID is geen backup - dat snap ik). Als thuisgebruiker heb ik geen probleem een wekelijkse scan uit te voeren. Dat is met Areca te schedulen, Areca raadt ook aan dit wekelijks te doen overigens, staat ook gewoon in de manual.
Neem dan ook iets wat veilig is; moet het persé Windows zijn? Als jij mijn verhaal kunt begrijpen, kun je ook een kant en klare NAS distributie bedienen is mijn gedachte hierbij. Dus waarom die angst? Als je betrouwbare opslag wilt, ligt ZFS voor je klaar als een schat die ontdekt moet worden. Binnen 5 minuten heb je van een standaard PC een NAS gemaakt waar je met Windows bij kunt komen en er bestanden op kunt zetten. Dat is wat je wilt, toch? Waar struikel je dan precies over?
Ik snap de principes allemaal en 15 jaar geleden zou ik ZFS gekozen hebben als ik destijds de keus had maar op dit moment kies ik liever voor een eenvoudige (en grote 20+ TB) setup die nog wel flexibel (dus geen kant en klaar NAS van Qnap/Synology etc) waarbij ik ook nog een vendor support heb mocht er iets mis gaan. In mijn geval zou ik ook nog eens een virtual setup draaien en Windows op een aparte SSD zetten, iets wat ook hier regelmatig voorbij komt.
Ik zal ZFS best aan de gang krijgen en misschien zelfs nog wel snel ook maar dan.. stel er gaat iets mis (met alle respect voor de fora zoals tweakers) maar dan wil ik niet aangewezen zijn op een forum.