FreeNAS zou nu ook weer lekker moeten werken met Previous Versions in Windows?
http://support.freenas.org/changeset/10126/freenas
Jongens, graag ook nog even jullie reactie op volgende statements die ik nu voor mezelf en enkele mede-geinteresseerden heb verzameld:
OpenIndiana + Napp-it : simpele, makkelijke combinatie om met een nog Solaris-gebaseerd systeem te werken.
Voordelen
De CIFS en iSCSI-driver op kernel-level zitten (=betere performance)
De betere/performantere mem allocation
En het "hebben" van de nieuwere ZFS-versies...
Previous Versions onder Windows werken easy peasy
Nadelen
Geen ashift ondersteuning, dus minder performant voor 4K-schijven, mogelijkheid wel om de ashift bij een FreeBSD gebaseerd OS in te stellen en dan te importeren in OpenIndiana, maar dat is beetje hus en klus-werk?
ZFSguru:
Ziet er veelbelovend uit, veel meer dummy proof dan Napp-it, volop in ontwikkeling.
Gezien het feit dat het gebaseerd is op *BSD heeft het wel ashift ondersteuning, maar de performance voordelen van Solaris derivaten vallen hier wat weg... Scheelt dit immens in performance?
Het verhaal van de transaction groups, wat is daar de vuistregel qua tweaking en aanpassingen, afhankelijk van je disksizes en al dan niet 4K disks?
CiPHER, je hebt hier een heel interessante uiteenzetting gedaan over SLOG:
Verwijderd in "Het grote ZFS topic"
Begrijp ik het goed dat dat nog iets anders is dan ZIL, of is dat de ZIL? Ik had altijd begrepen dat het "best practice was" dat je je L2ARC en ZIL op die SSD zette omdat die beter is in Random I/O en de troughput heel hoog ligt en zo de bottleneck wat betreft die ZIL en L2ARC niet daar ligt? Nu begrijp ik van je bovenstaande post dat het net gevaarlijk is om je ZIL(=SLOG?) daar ook op te zetten, want als die naar de haaien is zit je potentieel met een unrecoverable pool? Ik leid daar uit af dat dat het hele superveilige "gevoel" en systeem van ZFS gigantisch hard naar onder trekt...?
Of is dat allemaal opgelost met een SSD met supercapacitors?
Je kunt de SLOG ook direct bij het aanmaken van de pool toevoegen, of later achteraf. Belangrijk is echter het volgende:
- SLOG is een potentiëel gevaarlijke feature; het zorgt ervoor dat de disks zelf géén ZFS Intent Log meer hebben, maar in feite wordt uitbesteed aan een dedicated log device "SLOG" (separate log device).
- Het afwezig zijn van SLOG of een gecrashde SLOG disk kan je hele pool onherstelbaar en unrecoverable maken, als je een ZFS pool versie lager dan 19 gebruikt. Vanaf versie 19 kun je SLOG disks verwijderen van de pool en bij afwezigheid een geforceerde import uitvoeren. Bij dit laatste worden enkele 'transaction groups' teruggerolt, wat betekent dat je een stuk terug in 'het verleden' gaat; recent gemaakte wijzigingen/writes ben je dan dus kwijt.
- Corruptie op je SSD kan dezelfde gevolgen hebben als hierboven vermeld. Dit komt vaak voor als een SSD onverwacht zijn stroom verliest. Daarom dat een SSD met 'supercapacitor' zoals de Intel 310/520 series eigenlijk verplicht is; anders draai je geen echt veilige setup.
Als we die (=SSD's met supercaps) dus nemen, dan is er geen enkel probleem?
Ik heb nu ook begrepen wat je bedoelde met die 100 vs 120GB en dat je best nog 20GB vrij houdt omdat de Intels te weinig "spare space hebben" om writes te verspreiden en wear and tear zo gelijkmatig mogelijk te doen...
Hoe bepaal je eigenlijk hoe groot je partitie van de SLOG eigenlijk moet zijn?
Je SLOG moet groot genoeg zijn om twee transactie groups te kunnen huisvesten, in principe kan 1 of 2GB genoeg zijn.
Je hebt meer ruimte nodig niet als je meer RAM hebt, maar als je harddisk/pool sneller kan schrijven. Een pool die met 10GB/s kan schrijven (theoretisch) heeft dus een grotere SLOG nodig. Maar met zulke hardware kan ik niet testen.

Kan je dat (= de grootte van je transaction groups) gewoon uitlezen van een file (btw, die transaction group size, bepaalt ZFS zogezegd zelf zijn "optimale" bij het maken van een vdev/zpool (welk van de twee in dit geval?) of is dit altijd default hetzelfde?)
Het vetgedrukte deeltje van bovenstaande quote begrijp ik niet zo goed, vooral het eerste deel niet echt...
In deze post:
Verwijderd in "Het grote ZFS topic"
Geef je aan:
Maar je hoeft niet veel te doen, alleen is het wel handig je te beperken tot de optimale disk configuratie:
RAID-Z: 3, 5 of 9 disks
RAID-Z2: 6 of 10 disks
en
Daarnaast bestaat er een ashift=12 methode die ZFS anders data laat alloceren. Echter is dat niet/minder nodig als je je houdt aan bovenstaande disk configuratie (3/5/9 of 4/10 disks). Als je dat hebt gedaan en je moet een disk vervangen, hoef je dat niet opnieuw te doen. Die instelling gaat per pool dus eenmaal op ashift=12 blijft het altijd zo.
Hieruit leid ik ook af, dat je het ashift-verhaal bij geoptimaliseerde disk aantallen in het geval van 4K/Advanced Format niet zo belangrijk vindt en dat een potentiële performance-winst door de ashift-tweak te gebruiken marginaal is?
In de auto nog een tijdje gepraat met de collega en dan kwam ik tot een volgende vraag:
( even resumeren: (BD = Block Device) BD + BD + BD + BD = vDev
vDev (+ vDev) (+ vDev) = zPool
Maar!
Ik dacht (en dat vind ik nu echt niet terug en fuck zeg, ik heb die search en mijn hersens al wat zitten pijnigen om bepaalde dingen terug te vinden)
EDIT: Ding ding ding:
Verwijderd in "Het grote DIY RAID NAS topic deel 3"ZFS doet load balancing over de verschillende vdevs; dus als je nieuwe array/vdev sneller of langzamer is dan de oude, remmen ze elkaar niet af. Bij ouderwets expansion zal een snellere schijf nauwelijks voordeel geven.
Dat als je een pool uitbreidt door een vDev toe te voegen, dat hij nieuwe data gaat distribueren over vDev's, afhankelijk van snelheid enz... Of klopt daar iets niet van of zit ik in een verkeerd straatje te denken? Aan de ene kant is dat leuk, maar aan de andere kant ook ongelooflijk lomp, want als ik gezinsfoto's kopieer wil ik dat die veilig staan op een raidz2 en wil ik niet dat die naar een mirror gaan bv...
[
Voor 154% gewijzigd door
HyperBart op 10-05-2012 00:33
]