Wat bedoel je nu precies?
Bedoel je:
A ) twee keer een RAID6 met ook nog dubbele hot-spare; dus in totaal 2+2+2 = 6 disks die niet voor opslag gebruikt kunnen worden. Je hebt de effectieve opslag van 2x drie disks. Dit lijkt mij weinig plausibel.
B ) twee keer een RAID5 met dubbele hot-spare; jij beschouwt dat als 'RAID6' maar dat is onjuist!
Een hot-spare erbij doet niet zoveel; het beschermt je pas als de rebuild is afgelopen. Een RAID5 is zéér kwetsbaar en al helemaal als een disk is uitgevallen en je bent aan het rebuilden. De kans dat je dan een bad sector tegenkomt op de overige disks is vrij groot; groot genoeg om deze configuratie te heroverwegen.
Het is geen kritieke data maar mijn rips uit mijn dvd collectie om het te kunnen afspelen via een mediaplayer. Dus als het klapt is het alleen maar tijd wat ik kwijt ben. Het origineel heb ik nog pronkend in de kast.
Dan nog is het veel werk en ben je van optical disks niet zeker dat je deze later nog foutloos kunt uitlezen. Zorg gewoon dat je betrouwbare opslag hebt; dat is prima mogelijk in dit tijdperk met moderne software (lees: ZFS).
Bovendien, als dit klopt dan begrijp ik niet dat je dubbele RAID6 met dubbele hot spare draait.
Voor iSCSI moet je een netwerk kaart hebben die het ondersteund. Ik heb dit nog niet gecontroleerd.
Nee. Dergelijke iSCSI kaarten zijn voor een hardwarematige implementatie als je ouderwetse software (oude Windows-versies) draait. Met iSCSI bedoelt vrijwel iedereen dat je een softwarematige iSCSI draait, dus iSCSI-target op de server en iSCSI-initiator op de client. Dat doe je allemaal met software en kan elke computer, ook computers van 20 jaar geleden. Als het maar een netwerkkaart heeft en moderne software kan draaien.
Ik heb gekozen voor 2 arrays omdat ik anders bij een upgrade alle disken tegelijk moet vervangen. Het is voor thuis dus kosten speelt een rol.
Maar het feit dat je 2+2+2=6 disks niet effectief voor opslag kunt gebruiken, vind je geen rol spelen? Ik snap je overwegingen niet zo. De overwegingen die je aanvoert zijn niet in lijn met de gekozen route.
Bovendien; disks vervangen? Je voegt toch disks toe als je wilt upgraden; je vervangt disks toch nooit? Wat doe je met de oudere disks dan? Je hebt het denk ik over dat je 4TB disks straks door 6TB disks ofzo vervangt? Dat lijkt mij erg zonde. Bouw dan een nieuwe array met grotere disks ernaast lijkt me.
Als ik naar ZFS ga heb ik waarschijnlijk weer meer resources nodig (CPU/ MEM). Ik heb lang geleden al eens kort gegeken naar ZFS en zag toen dat ZFS voor elke GB best veel geheugen nodig heeft. Vandaar mijn keuze voor een hardwarematige oplossing met RAID6.
Je moet niet alle onzin geloven die wordt verteld; en dat is heel veel ook op dit forum helaas.
ZFS heeft helemaal niet veel resources nodig; en gebruikt ook
minder RAM geheugen dan elk ander filesystem dat ik ken: FAT16, FAT32, NTFS, Ext2, Ext3, Ext4, UFS1, UFS2, HFS, XFS, JFS, wat hebben we nog meer?
ZFS kan RAM geheugen wel heel effectief gebruiker; beter dan andere 'domme' filesystems die gewoon een FIFO-cache hanteren van laatst aangesproken bestanden. Dat is ouderwets en daarom dat RAM cache voor die filesystems een beetje verspilling is van de potentie van RAM geheugen.
Qua CPU heb je een zeer krachtige processor met je i3; krachtiger dan de meeste ZFS servers die ik heb draaien. De langzaamste 64-bit desktop processor (AMD C60) draait ZFS ook prima en kan bijna de gigabit voltrekken. Jouw CPU is denk ik minimaal een factor 10 keer sneller. De meeste ZFS servers die ik aanraad zijn instapservers op basis van Apollo Lake: dat is een moederbord waar een low-power Intel processor op zit 'gesoldeerd' en 6W TDP op 4 cores doet. Dat is echt ruim voldoende voor een reguliere ZFS NAS.
Werkt niet in welke zin? Wordt de disk in zijn geheel niet gezien door de controller? Hardware compatibility list vind ik maar onzin; er worden wat testjes gedraaid met vooral oudere hardware en daarna ligt zo'n lijst te verrotten terwijl nieuwere hardware uitkomt. Compatibility is ook onzin want er zijn standaarden zoals de ATA standaard en als iets niet werkt komt dat omdat één van de partijen zich niet aan de specs houdt; dat is een bug geen compatibility.
Wel is een punt dat veel consumentendisks geen TLER ondersteunen. Ouderwetse RAID controllers met strenge timeouts kunnen dan gaan trippen als een disk een bad sector krijgt; de disk wordt dan uit de RAID configuratie gesmeten en dat kan prima met meerdere disks gebeuren, zodat je RAID6 opeens de helft van de disks mist en daardoor onbruikbaar wordt. Dat is een vrij groot risico voor legacy RAID in combinatie met consumenten hardeschijven met uBER 10^-14; dat wil zeggen normale hardeschijven die gemiddeld genomen regelmatig bad sectors produceren.
Maar ook met TLER kan een disk met bad sectors uit je RAID configuratie worden geschopt. Een disk met bad sectors is vanuit het perspectief van een legacy RAID controller gewoon een defecte disk. En dat betekent dat de zogenaamde 'failure rate' van hardeschijven opeens enorm stijgt omdat ook hardeschijven die prima binnen de specs van de fabrikant opereren volgens de controller 'failed' zijn en je RAID array sloopt zodra de schijven uit de array worden gegooid.
Mijn conclusie: in dit tijdperk hebben we iets héél moois voor gebruikers als jij (de topicstarter dus) en ik vind dat je dat serieus zou moeten overwegen. ZFS biedt je vele voordelen. Probeer het zelf eens uit in een virtual machine. Voel je ook vrij om hulp te vragen over ZFS of andere onderwerpen; we helpen je graag! Wel wil ik je vragen even de topicstart (eerste post) van het
Het grote ZFS topic. Daarin staat veel informatie om je een eerste indruk te geven van ZFS.
Succes!