Dat is op zich ook wel mijn ervaring. Toch hebben de disks dan bad sectors volgens de SMART. Kortom, de bad sectors bevinden zich vaak buiten de door ZFS gebruikte opslagruimte. Dat is ook niet heel vreemd, want sectoren die lange tijd niet beschreven zijn hebben een grotere kans om onleesbaar te worden. Die bad sectors zijn dan sowieso geen probleem want zodra ZFS de ruimte in gebruik wilt nemen wordt deze beschreven en niet gelezen. En zodra een onleesbare sector wordt overschreven verdwijnt het probleem sowieso - ofwel de schijf zal de sector omwisselen voor een reservesector bij fysieke schade, ofwel de sector is na overschrijven gewoon weer leesbaar. In beide gevallen dus geen enkel verschil op host-niveau; kortom zelfs ZFS merkt hier niets van.HyperBart schreef op donderdag 09 juni 2016 @ 20:38:
Mja wat ik dan wel zo raar vind is dat zen scrub dat dan ook zou moeten laten zien. Ik doe een wekelijkse scrub en heb nog nooit corrupte of onleesbare data teruggekregen van mijn disks.
99.99%+ van de consumenten heeft geen idee hoe een computer werkt, maar vertrouwt er wel op dat deze in de 21e eeuw een betrouwbaar mechanisme is wat kan doen waarvoor het is ontwikkeld. Een opslagsysteem hoort informatie betrouwbaar op te slaan. Elk opslagsysteem wat niet doorheeft wanneer er corruptie optreedt en niet tegen een stootje kan (bad sectors) is derhalve geen betrouwbaar opslagsysteem en voldoet niet aan de verwachtingen die men in de 21e eeuw stelt aan opslagtechnologie. Punt.Q schreef op donderdag 09 juni 2016 @ 20:49:
99.99% van de consumenten heeft geen idee van ZFS en snapt ZFS niet.
En je kunt argumenteren wat je wilt, maar de hele wereld spreekt je tegen. Vrijwel alle grote jongens zijn bezig met moderne opslagtechnologie:
- Microsoft is bezig met ReFS, de opvolger van NTFS. Uiteraard gebruik van checksums en bescherming tegen corruptie, bad sectors en bitrot.
- Linux is bezig met Btrfs, de opvolger van Ext4. Uiteraard bescherming tegen corruptie, bad sectors en bitrot.
- UNIX heeft al geruime tijd ZFS (Solaris en BSD) wat als eerste 3e generatie filesystem eindelijk een modern opslagsysteem biedt voor veilige dataopslag. Zoals BSD op wel meer gebieden de 'progenitor' is van academische innovaties op gebied van SMP, storage (GEOM) en networking (TCP, HA, pf). Nog niet gesproken over innovaties van BSD die terecht komen in projecten als de Linux kernel, Firefox en MySQL. Academische operating systems zoals BSD zijn van oudsher de voorlopers op technologische innovatie.
Dat klopt, al heeft dat betrekking tot iets heel anders. Jouw visie op opslag is denk ik zeer zéér conservatief te noemen. Over een kleine 5 jaar praat niemand meer over ouderwetse opslag zoals UFS, Ext4 en NTFS. Vrijwel iedereen die een modern systeem gebruikt, gebruikt dan opslag van de 3e generatie en vind de voordelen daarvan logisch en vanzelfsprekend. Jouw mening waarbij je de nadelen van legacy storage bagatelliseert, zullen die tijd stilzwijgend worden genegeerd aangezien iedereen dan beschikking heeft over moderne opslagtechnologie. Maar nu, in deze tijd waarbij alleen ZFS beschikbaar is als modern opslagsysteem, vinden conservatieve meningen zoals jij aanhangt, nog wederspraak. In de toekomst zullen die simpelweg worden genegeerd omdat iedereen iets gebruikt wat daadwerkelijk werkt, en geen ouderwetse zooi meer die alleen werkt als het onderliggende systeem perfect werkt en doodleuk corrupte data aanlevert als de onderliggende hardware deze aanlevert. Dat is geen basis voor betrouwbare computertechniek, dat zal zeker in de toekomst vrijwel iedereen met mij eens zijn.Je leeft in een fantasiewereld, wat mij betreft.