Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Nooit te laat om te bekeren richting ZFSguru. De Atheistische Kerk verwelkomt U met open armen. O-)

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Zijn er toevallig ook nog images van Zfsguru die op een USB stick van 1 Gig passen? Mn andere stick is zojuist overleden :')

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Met compressie heb je aan 0.5GB wel genoeg voor een kale installatie. Dus boot een livecd en formatteer je USB stick, maak een pool op de USB stick en installeer daarop ZFSguru. Dan heb je de livecd niet meer nodig.

Edit: je kunt ook Virtualbox gebruiken en de USB stick zo doorgeven, dan hoef je geen CD/DVD te branden. Of je koopt zo'n leuke Zalman 300 behuizing die .iso bestanden als virtuele CD/DVD/blueray kan presenteren via USB3. Die heb ik. 8)

[ Voor 35% gewijzigd door Verwijderd op 07-12-2013 23:53 ]


Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
grinnik , bedoelde meer dat ik die USB stick wil gebruiken om de livecd vanaf aan te zwengelen

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
USB stick kun je zelf ook gebruiken als 'livecd' in die zin dat je via de USB stick pools kunt maken en daarop ZFSguru kunt installeren. Is dat wat je wilde? Dan heb je in feite de LiveCD op een USB-stick, met enig verschil dat de USB stick wel slijt door regelmatige writes. Maar zolang je hem niet 24/7 gebruikt maandenlang is dat geen probleem.

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
nee , wil de livecd iso op usb "branden" , maar dan wel zodanig dat het op mn usb stick past :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Mijn storage server zit vol en nu moest ik maar eens een nieuwe kopen.

Met mijn vorige server kocht ik gewoon even veel disks als in het chassis paste. Maar Als ik dat nu zou doen met een 24 bay chassis en 4 TB disks, dan wordt dat wel prijzig. Als ik met 12x4TB zou starten, zou ik al een heel eind komen.

Met Linux MDADM kun je een disk aan je array toevoegen om 'm groter te maken (grow). Dit kan nog steeds niet met ZFS zover ik weet.

Daarom bedacht ik dit: ik maak een RAID6 aan met MDADM en doe daar overheen ZFS. De enige reden voor mij om ZFS te kiezen is checksums: data integriteit.

Aangezien ZFS wel moet kunnen groeien (lijkt me) zou dit moeten werken, toch?

Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
mkroes schreef op zaterdag 07 december 2013 @ 23:22:
[...]

zoals CiPHER al zegt: alles is mogelijk. Alleen is de ondersteuning nog steeds verre van voltooid.
Voornamelijk de scsi en network driver leveren nog wat problemen op (netwerk is er wel maar alleen legacy, 100mbit dus).
Vanwaar de noodzaak om Nas4free of ZFSguru te draaien? Als je graag ZFS wil gebruiken kan ik je ZFS on Linux wel aanraden.
Daar hoor ik ook steeds meer goede verhalen over. Heb jij ervaring met ZFSonLinux als vm onder Windows?

Acties:
  • 0 Henk 'm!
Q schreef op zondag 08 december 2013 @ 10:54:
Mijn storage server zit vol en nu moest ik maar eens een nieuwe kopen.

Met mijn vorige server kocht ik gewoon even veel disks als in het chassis paste. Maar Als ik dat nu zou doen met een 24 bay chassis en 4 TB disks, dan wordt dat wel prijzig. Als ik met 12x4TB zou starten, zou ik al een heel eind komen.

Met Linux MDADM kun je een disk aan je array toevoegen om 'm groter te maken (grow). Dit kan nog steeds niet met ZFS zover ik weet.

Daarom bedacht ik dit: ik maak een RAID6 aan met MDADM en doe daar overheen ZFS. De enige reden voor mij om ZFS te kiezen is checksums: data integriteit.

Aangezien ZFS wel moet kunnen groeien (lijkt me) zou dit moeten werken, toch?
ZFS op MDADM is nutteloos, je verliest je checksum mogelijkheden.
Je kan beter 10*4TB plaatsen en later een 2e vdev toevoegen van 10*4TB.
Dat werkt prima en is ook best practice in veel gevallen.

Of als je persé 24 disks wil, 4 setjes van 6 (maar dan verlies je heel veel schijven aan parity)

[ Voor 4% gewijzigd door FireDrunk op 08-12-2013 11:54 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Q schreef op zondag 08 december 2013 @ 10:54:
Met Linux MDADM kun je een disk aan je array toevoegen om 'm groter te maken (grow). Dit kan nog steeds niet met ZFS zover ik weet.
En gaat ook niet gebeuren denk ik.

Met een disk uitbreiden is gewoon buiten zeer budget systemen niet aan de orde.

Je kunt op twee manieren uitbreiden. Een extra zpool toevoegen als stripe aan je bestaande zpool.
Je koopt nu 12 schijven die plaats je in 2 raid-z stripes (?) daar voeg je dan een derde raid-z stripe aan toe van 6 schijven.

Of je kunt alle schijven vervangen door een grotere versie, de extra ruimte kan daarna weer worden gebruikt.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
duiveltje666 schreef op zondag 08 december 2013 @ 02:38:
nee , wil de livecd iso op usb "branden" , maar dan wel zodanig dat het op mn usb stick past :)
Plaats de .iso op de USB stick, maar dan kun je er verder niets mee. Daarom vroeg ik wat je met de USB-stick wilde doen. Ik had je ook een DM gestuurd.
Q schreef op zondag 08 december 2013 @ 10:54:
Mijn storage server zit vol en nu moest ik maar eens een nieuwe kopen.

Met mijn vorige server kocht ik gewoon even veel disks als in het chassis paste. Maar Als ik dat nu zou doen met een 24 bay chassis en 4 TB disks, dan wordt dat wel prijzig. Als ik met 12x4TB zou starten, zou ik al een heel eind komen.
Bij ZFS kijk je even wat optimaal is en daar kun je het beste je configuratie op baseren. 10 disks in RAID-Z2 is min of meer de best mogelijke configuratie: goede redundancy tegen slechts 20% overhead. Bovendien is dit een configuratie die optimaal is voor 4K sector disks.
Met Linux MDADM kun je een disk aan je array toevoegen om 'm groter te maken (grow). Dit kan nog steeds niet met ZFS zover ik weet.
En met reden. Het heralloceren van stripe blocks is een erg risicovolle operatie. Als tijdens het 'omspitten' van de data zich problemen voordoen zoals bad sectors en/of een crash/reset, dan is het maar de vraag of je data nog te recoveren is. ZFS expansion maakt dingen mogelijk die met traditioneel RAID niet mogelijk zijn, maar dan wel op een veilige manier. Bovendien binnen 1 seconde klaar. Het heeft voor thuisgebruikers inderdaad het nadeel dat je niet elke keer een schijfje bij kunt plaatsen. Het voordeel is dat dergelijke risicovolle operaties ook niet meer voor problemen kunnen zorgen. Alleen maar veilige expansion, of geen expansion.
Daarom bedacht ik dit: ik maak een RAID6 aan met MDADM en doe daar overheen ZFS. De enige reden voor mij om ZFS te kiezen is checksums: data integriteit.
Aangezien ZFS wel moet kunnen groeien (lijkt me) zou dit moeten werken, toch?
Dat gaat inderdaad werken. Je moet alleen weten dat je ZFS hiermee anaal neemt. Je verkracht op die manier de veiligheid van ZFS door de datastore op een onveilige legacy-RAID driver te draaien. Dé reden om ZFS te draaien is mijns inziens niet eens de checksums, maar een veilige betrouwbare RAID-laag die niet zomaar op zijn bek gaat. RAID-Z heeft geen write-hole, doet atomic writes (one-phase writes, dus ongeveer zoals RAID3) en heeft ook betere random write performance dan RAID5.

Dus je moet er rekening mee houden dat via deze route je een dag ziet:
FAULTED (corrupt metadata)

Hetzelfde geldt overigens als je ZFS (en RAID-Z) gebruikt op een hardware RAID volume. Dat zijn zowat de enige situaties waarin je ZFS kapot krijgt.

Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 28-09 05:58

Mystic Spirit

PSN: mr_mysticspirit

Misschien hier niet helemaal op zijn plaats, maar vandaag heb ik geprobeerd om mijn VM (ESXi) met ZFSguru wat extra ram toe te kennen. Hij had / heeft 6GB en ik wilde het verhogen naar 8GB.

Nu kreeg ik een Memscheduler error als ik op wilde starten. Iets met een invalid memory setting / memory reservation die gelijk moest zijn aan 8GB. Als ik de settings terug zet naar 6GB is er niks aan de hand.

Iemand enig idee waar dit probleem vandaan komt? Ik heb ook geen keuze voor het upgraden van virtual hardware, ik kan alleen de settings editten.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Kun je de exacte melding posten? Je krijgt dus een error als je de hoeveelheid RAM vergroot? Dat is vaag. :P

Heb je geheugentuning in /boot/loader.conf actief?

Acties:
  • 0 Henk 'm!
Is het een melding van BSD of van ESXi? Want als je via VT-d werkt word al het geheugen keihard gealloceerd (dat moet voor VT-d). Het kan dus zijn dat je even bij de eigenschappen van de VM de reserveringen ook moet aanpassen. (Je kan niet 8GB geven en 6GB reserveren EN VT-d gebruiken...)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Onderstaande passage kwam ik tegen toen ik de FreeNas documentatie aan het doorspitten was:
RAIDZ1: ZFS software solution that is equivalent to RAID5. Its advantage over RAID 5 is that it avoids the write-hole and does not require any special hardware, meaning it can be used on commodity disks. If your FreeNAS® system will be used for steady writes, RAIDZ is a poor choice due to the slow write speed. CAUTION: RAIDZ1 "died" back in 2009 and should not be used if reliability of your data is important. Read Why RAID5 stopped working in 2009 for more information. Generally speaking, if you are using a RAIDZ1 pool and you have a single disk failure you can expect to be forced to destroy, recreate, and restore the pool from backup.
Zowel RAID5 als RAIDZ 'died' in 2009. Het is dus niet verstandig om deze meer te gebruiken begrijp ik.

Bedoelen ze nu dat de code hiervoor niet meer wordt ontwikkeld en deze dus eigenlijk 'deprecated' is? Of gaat het om het feit dat zowel Raid5 en RaidZ1 een vals gevoel van veiligheid geven, omdat bij een HDD crash het waarschijnlijk niet meer lukt om de data te herstellen m.b.v. de parity disk. (als ik het goed begrijp is de som van de opslagcapaciteit van de schijven dan zo groot, dat de kans op een fout tijdens het herstellen van de pool zeer waarschijnlijk is, waardoor de poging faalt.)

Mocht het laatste geval de reden zijn, dan heeft RaidZ1 dus helemaal geen toegevoegde waarde t.o.v. Raid1 meer, klopt dat?

Ik wil graag een NAS gaan inrichten en dacht er aan om dan 3 harde schijven te kopen en in RAIDZ1 te gebruiken. Dan heb ik 3*3TB - 1*3TB = 6TB aan opslagcapaciteit en geen data verlies bij een diskcrash veronderstelde ik.

Als ik het nu begrijp kan ik dus beter 2 harde schijven kopen en deze in RAID1 zetten. Dan heb ik 'slechts' 3gb opslag capaciteit, maar wel de zekerheid dat ik de data kan herstellen na een crash.
Bij RaidZ1 zou ik iets meer opslagcapaciteit hebben, maar na een crash toch alles kwijt zijn door het 2009 probleem. Dan zou je net zo goed Raid0 kunnen doen met twee schijven, want dat geeft evenveel opslag capaciteit en zelfs betere prestaties? (je bent bij een diskcrash helaas wel de data kwijt, net zoals bij RaidZ1 blijkbaar het geval is?)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
[quote]Verwijderd schreef op zondag 08 december 2013 @ 12:05:
Dat gaat inderdaad werken. Je moet alleen weten dat je ZFS hiermee anaal neemt. Je verkracht op die manier de veiligheid van ZFS door de datastore op een onveilige legacy-RAID driver te draaien. Dé reden om ZFS te draaien is mijns inziens niet eens de checksums, maar een veilige betrouwbare RAID-laag die niet zomaar op zijn bek gaat. RAID-Z heeft geen write-hole, doet atomic writes (one-phase writes, dus ongeveer zoals RAID3) en heeft ook betere random write performance dan RAID5.

Dus je moet er rekening mee houden dat via deze route je een dag ziet:
FAULTED (corrupt metadata)

Hetzelfde geldt overigens als je ZFS (en RAID-Z) gebruikt op een hardware RAID volume. Dat zijn zowat de enige situaties waarin je ZFS kapot krijgt.
Los van hoe groot de risico's van legacy (software) RAID nu werkelijk zijn: het kost me 2 disks: 300 euro. Als ik een storage monster 2.0 overweeg met 24 x 4 TB hou ik met twee vdevs RAIDZ2 alsnog netto 80 TB over. Dus waar praat ik over?

Ik voel inderdaad eigenlijk meer voor een native ZFS-on-Linux oplossing, dat is netter.

Zou ZFS erg over de zeik gaan als je gewoon 24 disks in 1 RAIDz2 vdev gooit? Of kost dat alleen wat performance (maakt me niets uit, random performance al helemaal niet)?

Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 28-09 05:58

Mystic Spirit

PSN: mr_mysticspirit

FireDrunk schreef op zondag 08 december 2013 @ 15:51:
Is het een melding van BSD of van ESXi? Want als je via VT-d werkt word al het geheugen keihard gealloceerd (dat moet voor VT-d). Het kan dus zijn dat je even bij de eigenschappen van de VM de reserveringen ook moet aanpassen. (Je kan niet 8GB geven en 6GB reserveren EN VT-d gebruiken...)
Het is inderdaad een ESXi melding:
code:
1
2
3
4
Failed to start the virtual machine.
Module MemSched power on failed.
An error occured while parsing schduler-specific configuration parameters.
Invalid memory setting: memory reservation (sched.mem.min) should be equal to memsize(8192).


Wist niet dat dat een eigenschap was bij VT-D. ik zal bij resources het geheel ook even aanpassen en kijken wat er dan gebeurd. Ik kon namelijk wel makkelijk het aantal cores / sockets aanpassen.

edit:
Memory reservation is nu aangepast. Ik heb nu 8GB en het werkt 8)

[ Voor 4% gewijzigd door Mystic Spirit op 08-12-2013 18:37 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Verwijderd schreef op zondag 08 december 2013 @ 17:46:
Onderstaande passage kwam ik tegen toen ik de FreeNas documentatie aan het doorspitten was:

Zowel RAID5 als RAIDZ 'died' in 2009. Het is dus niet verstandig om deze meer te gebruiken begrijp ik.
Heel veel uitspraken van FreeNAS (inclusief die 'administrator' cyberjock) zijn discutabel op zijn best tot ronduit incorrect. Neem deze dus met een (behoorlijke) korrel zout.

Het artikel van Robin Harris dat RAID5 niet meer geschikt is in 2009 ken ik, daar link ik regelmatig naar. Maar de conclusies daarvan zijn zeker niet zomaar van toepassing op ZFS. Het maakt nogal verschil of je hooguit één bestand mist (en je kunt zien precies welk bestand dat is) of dat je je hele array en dus alle data kwijt bent. Nogal een verschil. ;)

Hoe zit het nou? Ik heb geen zin in een turbolang verhaal, dus de korte versie:

Legacy RAID5 gaat erg binair om met disks. Een disk met een onleesbare sector wordt vaak uit de array getrapt. Stel je hebt een RAID5 die al een jaar prima werkt. Nu gaat er een schijf dood; oeps! Je koopt snel een nieuwe en de rebuild start je al heel snel. Maar nu - tijdens de rebuild - heeft tenminste één van de resterende member disks een read error. Dergelijke read errors duiden we aan met uBER; zeg maar bad sectors zonder fysieke schade. Nadat deze worden overschreven worden ze NIET omgewisseld met reserve sectoren maar worden ze gewoon weer in gebruik genomen. Ongeveer 90% van alle bad sectors bij moderne consumentenschijven is van dit type. Vroeger was dit nog maar iets van 5%, daarom is het 'Why RAID5 stops working in 2009' omdat 2009 grofweg het niveau is waarop het uBER ontoelaatbaar hoog is geworden. In de praktijk vanaf 666GB platters dat je grote problemen krijgt.

Dus kort gezegd, je hele RAID5 kan corrupt/defect/ontoegankelijk raken door één gefaalde disk en één klein bad sectortje. Dit geldt niet voor alle RAID5 engines, maar diegenen die niet tegen bad sectors en/of timeouts kunnen. De overgrote meerderheid dus van alle RAID-implementaties. Alleen LSI/3ware enzovoorts heb ik nog wat vertrouwen in dat zij het intelligenter doen.

Bij ZFS is het heel anders omdat ZFS geen disks uit de array gooit en corruptie direct herstelt. In het geval je een disk mist met RAID-Z en dus geen redundancy meer hebt, is er nog steeds niets aan de hand. Heb je dan read errors dan kunnen die ofwel ZFS metadata treffen of user data. ZFS zelf heeft nog extra ditto blocks (copies=2) voor metadata, dus ook op een RAID0 met bad sectors is ZFS nog beschermd. Alleen je data loopt dan risico. Bad sectors kunnen dan bestanden ontoegankelijk maken. Je krijgt dan een read error als je ze probeert te lezen, en de bestandsnamen worden in zpool status -v weergegeven. Zodra je schijf de data toch weer kan inlezen (recovery) worden de bestanden weer toegankelijk.

Hoe ZFS reageert en hoe legacy RAID5 reageert is toch een wereld van verschil. Dus kortom, dat verhaal van FreeNAS is een broodje aap, zoals wel meer onzin die op dat forum wordt uitgekermd.
Mocht het laatste geval de reden zijn, dan heeft RaidZ1 dus helemaal geen toegevoegde waarde t.o.v. Raid1 meer, klopt dat?
RAID-Z is ook niet superieur aan een mirror; juist andersom. Maar een mirror heeft 50% overhead en beperkte (sequential) schrijfsnelheden. Daar doet RAID-Z het weer beter.
Ik wil graag een NAS gaan inrichten en dacht er aan om dan 3 harde schijven te kopen en in RAIDZ1 te gebruiken. Dan heb ik 3*3TB - 1*3TB = 6TB aan opslagcapaciteit en geen data verlies bij een diskcrash veronderstelde ik.
Lijkt mij een prima plan.


Q schreef op zondag 08 december 2013 @ 18:15:
Los van hoe groot de risico's van legacy (software) RAID nu werkelijk zijn: het kost me 2 disks: 300 euro.
Op de totale kosten van een 80TB monster is dat denk ik niet heel significant.
Als ik een storage monster 2.0 overweeg met 24 x 4 TB hou ik met twee vdevs RAIDZ2 alsnog netto 80 TB over. Dus waar praat ik over?
Ik weet niet wat je precies bedoelt hiermee. twee vdevs van 12 x 4TB is echter geen optimale configuratie voor 4K schijven. Ofwel je gaat optimaliseren met ashift=12 wat ook weer minder bruikbare opslag geeft door 'slack' oftewel verloren ruimte, of je houdt het lekker ashift=9 maar dan heb je brakke performance.

Dan vind ik een enkele vdev met RAID-Z met 19 disks (16 data disks + 3 parity) nog leuker. Twee vdevs van 2x 10 disks in RAID-Z2 (dus 4 parity disks) lijkt mij de beste configuratie. Natuurlijk doe je daar ook SSDs bij om de IOps te pimpen dus zo kom je wel aan de 24 poorten. :)
Ik voel inderdaad eigenlijk meer voor een native ZFS-on-Linux oplossing, dat is netter.
Nog beter is een ZFS implementatie op het BSD platform, maar ZFS-on-Linux kun je zeker ook overwegen als je Linux fijner vindt werken.
Zou ZFS erg over de zeik gaan als je gewoon 24 disks in 1 RAIDz2 vdev gooit? Of kost dat alleen wat performance (maakt me niets uit, random performance al helemaal niet)?
Je kunt zoveel disks in een vdev stoppen als je wilt. Maar je moet weten dat 100 disks in RAID-Z nooit hogere IOps performance heeft dan een enkele disk. Ook bij massaopslag zul je seeks krijgen dus het kan snel zijn dat je nauwelijks goede sequentiële snelheden haalt omdat je disks moeten seeken. Bovendien is het zo dat de langzaamste schakel alles bepaalt. De laatste disk over de streep is alsof alle disks met die snelheid gingen. Dit komt omdat bij RAID-Z alle disks bij een enkele I/O worden betrokken. Dit wijkt af van RAID5 die wel kan schalen met random reads. Bij RAID-Z geldt dat niet zo. Om die reden is RAID-Z meer verwant met RAID3 dan met RAID5. Staat tegenover dat RAID-Z betere random write kent dan RAID5. En veiliger vanwege atomicity.

Dus stel je hebt 100 disks in een enkele vdev, dan kan het zijn dat alle disks maar op halve snelheid werken omdat er altijd wel EEN disk is die veel trager is. Met name disks met afwijkende firmware enzovoorts kan veel performance kosten. Dit is de reden dat in zijn algemeenheid wordt aangeraden niet meer dan 9 devices in een vdev te stoppen. Maar dat getal 9 komt ook maar uit de lucht vallen. De meest effectieve ('beste') configuratie is namelijk 10 disks in RAID-Z2: goede performance, goede redundancy en weinig overhead: slechts 20%.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Mogelijk dat ik met 12 disks begin en later er nog eens 12 disks bij doe. Zoveel storage heb ik nu ook niet nodig. Dat aantal disks is misschien niet optimaal als ik zo lees over dat shift spul, maar ik ga wel meten in de praktijk wat dit concreet betekent voor mij.

Maar IOPS en SSD en caching en random I/O al dat soort zaken maken mij niets uit. Het enige wat mij uitmaakt is sequentiële lees/schrijf performance.

Het streven is dat ik 400 MB/s moet kunnen halen tussen mijn machines (via 4x1GB bonding).

Het is me wel duidelijk dat ik me even beter moet verdiepen in ZFS wat betreft de performance, want het was mij niet duidelijk dat alle disks bij 1 I/O mee doen.

Het kan zomaar zijn dat ik tussen machines even 100+ GB heen-en-weer kopieer en ik zou graag zien dat de machines dan sustained 300-400MB/s aan kunnen.

Mocht ik alle spullen uiteindelijk binnen hebben dan ga ik eerst wel eens wat benchmarks draaien die ik ongetwijfeld ga delen. Ik sta open voor test-verzoeken ;)

[ Voor 18% gewijzigd door Q op 08-12-2013 19:48 ]


Acties:
  • 0 Henk 'm!
Met 3*9 disks in RAID-Z (1) haal je denk ik de hoogste sequentiele performance (op geen RAID na natuurlijk...)

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Ik zoek niet de hoogste, maar voldoende om ongeveer 300-400 MB/s aan te kunnen, wat zo'n array met twee vingers in de neus zou moeten halen. RAIDZ is sowieso geen optie, ik wil de redundancy van RAIDZ2.

Ik heb vandaag een ri-vier case besteld met ruimte voor 24 disks. Daar moet ik wel een tijdje mee vooruit kunnen. Ik doe er gewoon 12 in en later misschien nog eens 12. Dan kom je toch uit op twee keer een RAIDZ2 vdev van 12 disks.

[ Voor 7% gewijzigd door Q op 08-12-2013 19:52 ]


Acties:
  • 0 Henk 'm!
Dat is een non-optimale pool size en gaat je effectief ruimte kosten. Die percentages hebben we laatst (in een van de topics, weet niet meer welke) uitgerekend.

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Wat is de vuistregel / berekening? Ik kon het zo snel niet vinden met google. Kost me dit 1% of 10%?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Waarom niet gewoon 2x RAID-Z2 van 10 disks. Dus in totaal 20 disks, waarvan 16 effectief bruikbaar dus 16 * 4TB = 64TB bruikbare opslag (58,2 TiB). Vind je dat te weinig?

Ik zou er zelf zeker één SSD bij doen voor cache en SLOG dat helpt ook voor sequential doorvoer, althans het zorgt ervoor dat de disks meer sequential I/O kunnen doen zonder seeks tussendoor. Aangezien jij meer dan 1Gbps netwerk doet, wil je wel wat marge hebben. Het is namelijk niet zo dat als ZFS 400MB/s doet, je dat via je netwerk ook haalt.

ZFS is veel 'burstier' door de transaction groups. Het ene moment slurp je met RAM-snelheid I/O naarbinnen als een gek, het andere moment staat de I/O een tijd stil door de transaction commit; zoals barriers met Linux filesystems. Dat kun je allemaal tunen, maar mijn punt is dat je altijd marge wilt hebben en dat het niet zo werkt dat 400MB/s lokale performance ook 400MB/s netwerk performance betekent. Gedurende dat je minder I/O doet door een commit kun je dat namelijk niet inhalen omdat je netwerk ook bottleneck is. Zou je netwerk 100 gigabit zijn ofzo, dan is dit geen probleem omdat het qua doorvoer dan met RAM kan concurreren.

Dus wellicht een Intel 320 120GB erbij of een Crucial M500 120GB desnoods. Hartstikke leuk en kost geen drol relatief aan de totaalprijs. En dan rechtvaardig je ook dat je 'maar' 20 disks gebruikt, omdat je nog poorten nodig hebt.

Eventueel kun je ook nog 2x 11 disks in RAID-Z3 overwegen, dat is ook optimaal. Dan zit je aan 22 disks, maar de netto opslag verander natuurlijk niet. 22+1 SSD = 23. Lijkt me een prima config!

Kun je de SSD partitioneren voor gebruik van het operating system, L2ARC cache, SLOG en overprovisioning. Zou helemaal mooi zijn als je er twee zou nemen, dan kun je de SLOG in mirror doen en de cache in stripe. En OS ook in mirror dat kan leuk zijn.

Acties:
  • 0 Henk 'm!
Doe er dan gelijk 2, dan heb je je chassis mooi vol... Mirrored SSD voor SLOG gedeeld met je OS kan in mijn ogen prima.

Even niets...


Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 28-09 05:58

Mystic Spirit

PSN: mr_mysticspirit

Q schreef op zondag 08 december 2013 @ 20:12:
Wat is de vuistregel / berekening? Ik kon het zo snel niet vinden met google. Kost me dit 1% of 10%?
Ik heb momenteel ook een niet optimale pool van 5 data disks en 2 parity. Ik kan je melden dat er niet echt een vuistregel is. Het is afhankelijk van verschillende factoren, maar bij mij is het verlies momenteel ongeveer 7 a 8%.

Als je mijn posts nazooekt kun je zien hoe ik heb zitten worstelen met wat het verlies is / zou zijn en dat er dus eigenlijk geen goede berekening voor is.

[ Voor 15% gewijzigd door Mystic Spirit op 08-12-2013 20:26 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Dan zou je al een paar TB verliezen op 40 TB, dat is wel zonde.

;(

Hoe meer ik snap van ZFS, hoe meer ik de neiging voel om gewoon ZFS anaal te nemen en alles op MDADM te gooien, als je met SSDs aan de slag moet om überhaupt er knappe sustained performance uit te slaan dan wordt ik eigenlijk niet zo heel blij. Voor een serieuze productie omgeving is dit een ander verhaal, maar het gaat hier om een uit de hand gelopen hobby.

Nu staat me bij dat er recent een patch was die de sustained read/write performance minder choppy/bursty zou maken, maar of dat al ergens in een release van zfs-on-linux is gekomen, .....

Ik denk ergens: fuck it, de data is niet dermate belangrijk dat als er een paar bitjes flippen er 100 mensen zonder baan zitten.

Met MDADM flikker ik gewoon een ouderwetse RAID6 neer met XFS en klaar is Q. Fuck checksums, fuck RAID write hole, het systeem hangt toch wel aan een vette UPS. Dat is wat ik nu heb en dat draait al 4.5 jaar prima met ongevraagde aso-vette en rock-stable performance.

Ik zou nog 2x10 en 1x4 disk RAIDZ2 vdev kunnen doen als ik 24 disks in het chassis kwijt wil. Maar dan gooi ik wel 300 euro extra aan disks weg. Tov een aso 24 disk RAID6 zou ik 600 euro aan disks weg gooien.

[ Voor 97% gewijzigd door Q op 08-12-2013 20:48 ]


Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 28-09 05:58

Mystic Spirit

PSN: mr_mysticspirit

Het hangt er een beetje vanaf hoe je er naar kijkt. Als je onvoldoende ruimte hebt voor een optimale config en je wil wel de storage hebben is 10% misschien acceptabel. Ik heb ook doorgerekend dat een niet optimale config met 3TB harddrives momenteel goedkoper is dan een optimale met 4TB drives met dezelfde capaciteit. Dus ook of het verlies acceptabel is is weer afhankelijk van je situatie.

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 24-07 13:18
Mystic Spirit schreef op zondag 08 december 2013 @ 20:33:
Het hangt er een beetje vanaf hoe je er naar kijkt. Als je onvoldoende ruimte hebt voor een optimale config en je wil wel de storage hebben is 10% misschien acceptabel. Ik heb ook doorgerekend dat een niet optimale config met 3TB harddrives momenteel goedkoper is dan een optimale met 4TB drives met dezelfde capaciteit. Dus ook of het verlies acceptabel is is weer afhankelijk van je situatie.
Heb je daar ook je energieprijs in zitten, en eventuele uitbreidingen?
Verwijderd schreef op zondag 08 december 2013 @ 18:58:
Bij ZFS is het heel anders omdat ZFS geen disks uit de array gooit en corruptie direct herstelt.
Ja, als ik me goed herinner was daar wat discussie over enige dagen geleden. ZoL zou pas een herstel doen tijdens een scrub, en BSD weten we eigenlijk niet.
Of heb ik de klok en klepel verkeerd?

[ Voor 42% gewijzigd door Durandal op 08-12-2013 20:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Q schreef op zondag 08 december 2013 @ 20:27:
Dan zou je al een paar TB verliezen op 40 TB, dat is wel zonde.
Ik weet niet precies hoe Mystic rekent maar behalve slack zit er natuurlijk ook ruimte in voor metadata. Dus qua percentage moet je met niet-optimale configuraties eerder denken aan 2 - 4%. Nog steeds veel.

Daarom dat ik de 20 disks in 2x RAID-Z2 of 22 disks in 2x RAID-Z3 wel zo cool vind. Met twee SSDs. :)
Hoe meer ik snap van ZFS, hoe meer ik de neiging voel om gewoon ZFS anaal te nemen en alles op MDADM te gooien (..)
Ik denk ergens: fuck it, de data is niet dermate belangrijk dat als er een paar bitjes flippen er 100 mensen zonder baan zitten.
Ik snap best je punt. Je verlaat je comfortzone waarbij dingen werken zoals je in je hoofd hebt. Maar ZFS kent wel beperkingen, maar ook veel vrijheden die je vaak pas ontdekt nadat je bent geswitched. Zeker voor iemand van jouw statuur zou ik ZFS zeker een kans geven.

Met al dat ruimteverlies heb je geen last van als je een optimale configuratie draait. Dus overweeg mijn setup eens. Dan heb je misschien niet ultra-veel bruikbare opslag, maar ook iets minder aanschafkosten en je doet geen concessies aan betrouwbaarheid.
Met MDADM flikker ik gewoon een ouderwetse RAID6 neer met XFS en klaar is Q. Fuck checksums, fuck RAID write hole, het systeem hangt toch wel aan een vette UPS. Dat is wat ik nu heb en dat draait al 4.5 jaar prima met ongevraagde aso-vette en rock-stable performance.
Nou daar mag je blij mee zijn dan. Maar jij snapt natuurlijk net als ik dat in het verleden behaalde resultaten geen garantie voor doe toekomst zijn. Ga je zoveel disks - high density 4TB disks dus met hoge uBER - dan is de mogelijkheid tot bad sectors zeker aanwezig. Een rebuild gaat dan ook klerelang duren, en als er tijdens de rebuild meerdere bad sectors op meerdere disks komen, zit je met md-raid toch flink in de shit dacht ik zo. Die kans is in elk geval significant genoeg om er rekening mee te houden; het is natuurlijk niet allemaal onzin dat uBER en checksums enzo.

Dus de vraag is, wat lever je nu precies in? Dat je nieuwe build niet zoveel netto opslag heeft als je wilde? Dat is dan alles? Daar staat dan tegenover dat de ZFS route je andere voordelen geeft (snelle rebuilds, betrouwbare werking, checksums, krachtige snapshots, resistent tegen bad sectors en onderhoudsvrij - ZFS repareert zichzelf. Naast alle features enzo zijn dit best leuke eigenschappen die je niet zomaar overboord zou moeten gooien denk ik zelf.

En last but not least: van het Q continuum verwacht ik natuurlijk wel dat ze daar ook ZFS draaien. :+

Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 28-09 05:58

Mystic Spirit

PSN: mr_mysticspirit

Durandal schreef op zondag 08 december 2013 @ 20:42:
[...]

Heb je daar ook je energieprijs in zitten, en eventuele uitbreidingen?

KNIP
Geen uitbreidingen, want die kun je pas weer berekenen als je gaat uitbreiden met de prijzen die dan gelden.

Energie rekenen begint voor hdd's relatief onzinnig te worden in relatie tot de kosten van de hdd. In seek gebruikt een moderne schijf geen 10 watt meer. Dat betekent op jaarbasis als een hdd 24/7 staat te draaien dat je een berekening krijgt van 0,01KW x 8760 uur (= 87,6KWh ) x €0,23 = €20,15 op jaarbasis per HDD. Dat is ten opzichte van de aanschafprijs en afschrijving van een hdd niet echt relevant en al helemaal niet bij een schijf meer of minder als je het over arays van 10 tallen schijven hebt.
Verwijderd schreef op zondag 08 december 2013 @ 20:57:
[...]

Ik weet niet precies hoe Mystic rekent maar behalve slack zit er natuurlijk ook ruimte in voor metadata. Dus qua percentage moet je met niet-optimale configuraties eerder denken aan 2 - 4%. Nog steeds veel.

Daarom dat ik de 20 disks in 2x RAID-Z2 of 22 disks in 2x RAID-Z3 wel zo cool vind. Met twee SSDs. :)


KNIP
De metadata zit inderdaad ook in mijn percentage. Ik weet niet hoeveel ik voor metadata moet rekenen. Is er een commando dat laat zien hoeveel ruimte op gaat aan metadata? Dan wil ik het wel specifieker berekenen.

[ Voor 3% gewijzigd door Mystic Spirit op 08-12-2013 21:13 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Verwijderd schreef op zondag 08 december 2013 @ 20:57:
Ik weet niet precies hoe Mystic rekent maar behalve slack zit er natuurlijk ook ruimte in voor metadata. Dus qua percentage moet je met niet-optimale configuraties eerder denken aan 2 - 4%. Nog steeds veel.

Daarom dat ik de 20 disks in 2x RAID-Z2 of 22 disks in 2x RAID-Z3 wel zo cool vind. Met twee SSDs. :)
Als ik 3 x 8 disk RAIDZ2 doe dan benut ik de 24 drive slots efficient (OS gaat op Mobo controller in RAID1 ergens in het chassis) maar dan verlies ik wel 6 disks aan parity.

Maar is 8 disk RAIDZ2 optimaal? Edit: volgens mij niet. Dus die vlieger gaat niet op. 2x10 en 1x4 disk wel maar dan krijg je belabberde performance.
Ik snap best je punt. Je verlaat je comfortzone waarbij dingen werken zoals je in je hoofd hebt. Maar ZFS kent wel beperkingen, maar ook veel vrijheden die je vaak pas ontdekt nadat je bent geswitched. Zeker voor iemand van jouw statuur zou ik ZFS zeker een kans geven.
Dat is een beetje onder de gordel, maar ach ik was ook anaal aan het ranten. ;)

Het probleem is dat ZFS een file system is dat bedoeld is voor zakelijk / professioneel gebruik en het houdt geen rekening met behoeften van zieke thuisgebruikers zoals ik.

Ik respecteer ZFS enorm maar je moet echt goed weten wat je aan het doen bent en alhoewel ik me een klein beetje had ingelezen had ik dit niet geheel verwacht.
Nou daar mag je blij mee zijn dan. Maar jij snapt natuurlijk net als ik dat in het verleden behaalde resultaten geen garantie voor doe toekomst zijn. Ga je zoveel disks - high density 4TB disks dus met hoge uBER - dan is de mogelijkheid tot bad sectors zeker aanwezig. Een rebuild gaat dan ook klerelang duren, en als er tijdens de rebuild meerdere bad sectors op meerdere disks komen, zit je met md-raid toch flink in de shit dacht ik zo. Die kans is in elk geval significant genoeg om er rekening mee te houden; het is natuurlijk niet allemaal onzin dat uBER en checksums enzo.
Dat is een risico waar ik mij zeer terdege van bewust ben. Een rebuild met mijn huidige 1 TB disks duurt 5 uur. Met 4 TB disks zou dat bij gelijke performance dus 20 uur duren.
Dus de vraag is, wat lever je nu precies in? Dat je nieuwe build niet zoveel netto opslag heeft als je wilde? Dat is dan alles? Daar staat dan tegenover dat de ZFS route je andere voordelen geeft (snelle rebuilds, betrouwbare werking, checksums, krachtige snapshots, resistent tegen bad sectors en onderhoudsvrij - ZFS repareert zichzelf. Naast alle features enzo zijn dit best leuke eigenschappen die je niet zomaar overboord zou moeten gooien denk ik zelf.

En last but not least: van het Q continuum verwacht ik natuurlijk wel dat ze daar ook ZFS draaien. :+
Wat ik met name inlever is verlies van netto opslag, maar dat is ook weer niet zo erg. Ik ga er nog even over nadenken.

Afbeeldingslocatie: http://i183.photobucket.com/albums/x54/TrueX-Ray/TNG%20Caption%20This/TNGCaption115a.jpg

[ Voor 5% gewijzigd door Q op 08-12-2013 21:43 ]


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 24-07 13:18
Q schreef op zondag 08 december 2013 @ 21:37:
[...]
Maar is 8 disk RAIDZ2 optimaal? Ik zie door de bomen het bos niet meer.
Optimale configuratie is altijd n^2 disks, exclusief redundante disks (en spares).

bijvoorbeeld (3, 4,) 6, 10 of 18 disks voor RaidZ2 dus. Eentje er af voor Z1 en 1 er bij voor Z3.
Per vdev, dus je kan ook 2x10 nemen.

[ Voor 7% gewijzigd door Durandal op 08-12-2013 21:49 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Q schreef op zondag 08 december 2013 @ 21:37:
Dat is een beetje onder de gordel, maar ach ik was ook anaal aan het ranten. ;)
Mwa je mag je frustraties bij de overstap naar ZFS best uiten hoor. En ik kan dat ook redelijk begrijpen denk ik. Je komt uit een andere wereld waarin bepaalde zaken vanzelfsprekend zijn. Nu is dat allemaal anders. De truc is om niet alleen naar de beperkingen te kijken versus wat je nu hebt, maar ook naar de voordelen en vrijheden die je krijgt. Zaken die je niet automatisch als vanzelfsprekend acht.

Een mooi voorbeeld is deze uitspraak van je:
2x10 en 1x4 disk wel maar dan krijg je belabberde performance.
Waarschijnlijk doel je op de 1x4 als derde vdev met 4 disks. Je denkt daarbij dat de snelheid omlaag gaat omdat er striping plaatsvindt met de grotere en snellere vdevs met elk 10 disks, correct? Dat klopt inderdaad voor 'ouderwets' RAID. Maar ZFS doet aan intelligente 'striping': snellere vdevs krijgen simpelweg meer data te verwerken. Gevolg is ook dat deze eerder vol kunnen raken, maar zeker voor hardeschijven is het logisch dat snellere vdevs over het algemeen ook hogere capaciteit hebben dan langzamere vdevs.

Kortom, hier een 'gratis' voordeel van ZFS dat een dergelijke configuratie qua performance niet veel zal schaden, de extra vdev kan in principe alleen maar snelheid toevoegen. Voor wat betreft de veiligheid geldt wel dat een extra vdev ook een extra point of failure is. Als die vdev er niet is, dan is je hele pool ontoegankelijk. Daarom is RAID-Z2 wel zo lekker. Bovendien bescherm je met RAID-Z2 ook tegen bad sectors in een situatie waarbij één disk er niet is. Met twee disks missende kunnen bad sectors gaten in je data schieten. Maar als dat zo is kun je zien om welke files dat gaat en die worden ook niet geleverd aan applicaties; end-to-end data security.
Het probleem is dat ZFS een file system is dat bedoeld is voor zakelijk / professioneel gebruik en het houdt geen rekening met behoeften van zieke thuisgebruikers zoals ik.
Het is natuurlijk waar dat ZFS uit de koker komt van de enterprise-markt. Die willen uptime en geen gezeik. Vandaar dat het niet kunnen uitbreiden van RAID-Z niet zo'n groot issue is. Enterprise-gebruikers hebben daar over het algemeen niet zo'n behoefte aan. Ten eerste omdat het niet zonder risico is, en ten tweede dat de performance tijdens de operatie - als dat al online kan - enorm beroerd is dat de server effectief 'down' is. Dat laatste is voor thuisgebruikers niet zo'n probleem, het eerste wel. Juist thuisgebruikers die goedkope disks gebruiken hebben vaker last van het eerste probleem; enterprise-disks hebben immers specced factor 100x minder last van uBER 'bad sectors'.

Maar ZFS is juist voor thuisgebruikers óók heel interessant. Een paar dingen:
  • In één klap af van alle onbetrouwbare RAID-lagen en rare dingen die je moet doen om toegang tot je data te krijgen in bepaalde situaties. Daarbij ligt ook user-error op de loer; veel amateurs slopen hun kans op data recovery door agressief dingen uit te proberen ipv conservatief en voorzichtig te zijn en deskundige hulp in te roepen.
  • In één klap af van het bad sector-probleem; heb je redundancy dan is de veiligheid van je data niet in het geding als er bad sectors optreden. Het moet wel heel toevallig zijn als een onopgemerkte bad sector op een andere disk precies op de 'verkeerde' plek zit. Dat komt denk ik praktisch alleen voor als je hardeschijven jarenlang in de kast bewaard en dan weer eens aansluit. Dan krijg je een leuke trucendoos aan bad sectors. In situaties waarin je geen redundancy meer hebt, is de metadata dus het filesystem zelf nog steeds beschermd door kopiën (ditto blocks). Voor data kun je dit ook doen door je belangrijke 'documents' filesystem in te stellen met copies=2. Dan kost het je het dubbele opslag voor files geschreven naar dat filesystem, maar wel extra bescherming. Vaak kun je dit inschakelen voor belangrijke data die vaak ook heel klein is. Geef dat nog een extra sausje bescherming. :)
  • Nooit geen filesystem checks meer met enge meldingen waarvan je maar moet afvragen of je daar ooit last van gaat krijgen. Silent corruption is niet fijn. Simpelweg wéten dat je data intact is en welke files gesneuveld zijn, is al zoveel waard. Al zou je RAID0 draaien - en ik draai o.a. ook RAID0 - dan is dat gewoon fijn. Zou je een bad sector hebben dan zie je welke files weg zijn. Kun je voorstellen dat je dat gewoon niet weet wat je mist. Ik zou daar niet tegen kunnen.
  • ZFS kan ook als 'backup' dienen met snapshots. Ik weet dat ik iets stouts zeg, want ook snapshots zijn geen backup - er is een afhankelijkheid tussen het origineel en de kopie; en dat mag niet. Maar ik bedoel ermee dat je historie hebt. Je kunt terug in de tijd, net als incremental backups. De ruimte is ook erg efficiënt en je kunt cyclen zodat je alleen de laatste 10 meest recente snapshots behoudt en je de rest wegdondert. Daarmee heb je een overlap met de bescherming die backups bieden, zoals bescherming tegen user error (deletes files) of virussen die opeens alles aan gort knagen, enzovoorts.
  • ZFS geeft je goede caching mogelijkheden om intelligent vanuit RAM en SSD data te kunnen leveren. Je zei dat het lastig was om sequential te performen versus een normale RAID array met legacy filesystem. Dat klopt, maar die doen ook weinig aan bescherming. Alle beschermingslagen die ZFS biedt, kost inderdaad wat in termen van performance. Maar dat is een prijs die je over moet hebben voor je data. Met een enkele SSD kun je dit al enorm verzachten, en ook zonder SSD zal het al prima performen alleen ik vermoed voor jouw doen net met teveel dalen in de performance zo nu en dan. Dat is het bursty gevoel wat je nu niet hebt met md-raid maar wat je wel kunt ervaren met ZFS zeker als je 4Gbps als eis stelt. Om dat zonder fluctuaties te doen is op zich niet kinderachtig voor ZFS door de transaction groups. Maar daar staat tegenover dat alles wel veilig terecht komt. Alles wat je in handen van ZFS geeft, is veilig. Enige uitzondering zijn RAM-errors; daarvoor is maar minimaal 'bescherming'. Maar ook dat is leuk: mensen die hun ZFS NAS in gebruik nemen zien direct dat ze RAM corruptie hebben omdat op random disks allemaal checksum errors naarboven komen. Dan weten wij al hoe laat het is. :Y)
Ik respecteer ZFS enorm maar je moet echt goed weten wat je aan het doen bent en alhoewel ik me een klein beetje had ingelezen had ik dit niet geheel verwacht.
Wat precies niet? Dat er optimale configuraties zijn of dat je een RAID-Z niet kan uitbreiden of dat er ruimteverlies op kan treden bij bepaalde niet-optimale configuraties?
Dat is een risico waar ik mij zeer terdege van bewust ben. Een rebuild met mijn huidige 1 TB disks duurt 5 uur. Met 4 TB disks zou dat bij gelijke performance dus 20 uur duren.
Dan zou ik inderdaad nog maar eens afvragen of je wel evenveel vertrouwen zou hebben in een nieuwe 4TB md-raid build als je huidige 1TB build.
Wat ik met name inlever is verlies van netto opslag, maar dat is ook weer niet zo erg. Ik ga er nog even over nadenken.
The persistent shall convert even the most devout ones. })

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Ik wil graag ZFS inzetten en ik wil eigenwijs zijn.

Ik ga voornamelijk grote bestanden opslaan. Ik zoek ergens informatie hoe ik kan schatten / uitrekenen wat eventueel het storage verlies is als ik er toch voor kies om bijvoorbeeld 2x12 disk RAIDZ2 te doen. Ik kan er nergens iets over vinden.

Ik wil voorkomen dat ik ofwel meer dan 4 disks aan parity kwijt ben, of dat ik de 24 slots van het chassis niet kan benutten voor storage. Of dit rationeel is, is punt twee.

Ik heb nu even in vmware fusion een test VM met 12 disks van 10 GB opgezet om eens te kijken wat er gebeurt allemaal.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Qua performance heb ik in elk geval een nieuwtje. In de toekomst kan dat iets beter gaan met minder bursty performance: http://open-zfs.org/wiki/Features#Smoother_Write_Throttle

En als je persé 24 disks wilt, hier kun je zien wat dat kost qua ruimte:

Afbeeldingslocatie: http://s3.botch.com/zfs-4k-sizing-small.png

Let op: de x-as is voor het aantal data disks, dus exclusief pariteit. 8 betekent dus een 10-disk RAID-Z2 bijvoorbeeld. Edit: en merk ook op dat dit vrij worst case is waarbij kleine I/O gemirrored wordt weggeschreven zodra je heel veel disks hebt. Dat gaat je dan veel opslag kosten. Alleen maar grote bestanden opslaan kent wellicht minder opslagverlies al durf ik dat niet met stelligheid te zeggen.

[ Voor 23% gewijzigd door Verwijderd op 08-12-2013 23:42 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
[quote]Verwijderd schreef op zondag 08 december 2013 @ 22:49:
Een mooi voorbeeld is deze uitspraak van je:

Waarschijnlijk doel je op de 1x4 als derde vdev met 4 disks. Je denkt daarbij dat de snelheid omlaag gaat omdat er striping plaatsvindt met de grotere en snellere vdevs met elk 10 disks, correct?
Yups.
Dat klopt inderdaad voor 'ouderwets' RAID. Maar ZFS doet aan intelligente 'striping': snellere vdevs krijgen simpelweg meer data te verwerken. Gevolg is ook dat deze eerder vol kunnen raken, maar zeker voor hardeschijven is het logisch dat snellere vdevs over het algemeen ook hogere capaciteit hebben dan langzamere vdevs.

Kortom, hier een 'gratis' voordeel van ZFS dat een dergelijke configuratie qua performance niet veel zal schaden, de extra vdev kan in principe alleen maar snelheid toevoegen. Voor wat betreft de veiligheid geldt wel dat een extra vdev ook een extra point of failure is. Als die vdev er niet is, dan is je hele pool ontoegankelijk. Daarom is RAID-Z2 wel zo lekker. Bovendien bescherm je met RAID-Z2 ook tegen bad sectors in een situatie waarbij één disk er niet is. Met twee disks missende kunnen bad sectors gaten in je data schieten. Maar als dat zo is kun je zien om welke files dat gaat en die worden ook niet geleverd aan applicaties; end-to-end data security.
Dat is nuttig om te weten, ook al zal ik waarschijnlijk geen 2x10 + 1x4 draaien.
Het is natuurlijk waar dat ZFS uit de koker komt van de enterprise-markt. Die willen uptime en geen gezeik. Vandaar dat het niet kunnen uitbreiden van RAID-Z niet zo'n groot issue is. Enterprise-gebruikers hebben daar over het algemeen niet zo'n behoefte aan. Ten eerste omdat het niet zonder risico is, en ten tweede dat de performance tijdens de operatie - als dat al online kan - enorm beroerd is dat de server effectief 'down' is. Dat laatste is voor thuisgebruikers niet zo'n probleem, het eerste wel. Juist thuisgebruikers die goedkope disks gebruiken hebben vaker last van het eerste probleem; enterprise-disks hebben immers specced factor 100x minder last van uBER 'bad sectors'.
Ik ga zeker consumenten disks inzetten en daarom was ik überhaupt al geïnteresseerd in ZFS.
Wat precies niet? Dat er optimale configuraties zijn of dat je een RAID-Z niet kan uitbreiden of dat er ruimteverlies op kan treden bij bepaalde niet-optimale configuraties?
- optimale configuraties
- ruimte-verlies bij niet-optimale configuraties

Maar ik heb nu in mijn hoofd: al kost dat ruimte verlies mij 1 hele disk, dan ben ik nog efficiënter uit met 2x12 disk vdev dan 2x10+1x4 alles in RAIDZ2.
Dan zou ik inderdaad nog maar eens afvragen of je wel evenveel vertrouwen zou hebben in een nieuwe 4TB md-raid build als je huidige 1TB build.
Van die 20 uur rebuild time an sich met RAID6 wordt ik niet zo bang.

Het grotere probleem is dat MDADM gewoon niet met bad sectors overweg kan, dat zou gewoon betekenen dat een disk uit de array wordt geschopt, waar ZFS dat kan opvangen. Op die manier kun je snel 2 disks kwijt raken.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Verwijderd schreef op zondag 08 december 2013 @ 23:39:
Qua performance heb ik in elk geval een nieuwtje. In de toekomst kan dat iets beter gaan met minder bursty performance: http://open-zfs.org/wiki/Features#Smoother_Write_Throttle
Dat is mogelijk wat ik ergens voorbij heb zien komen. Interessant. Maar dat gaat nog wel even duren.
En als je persé 24 disks wilt, hier kun je zien wat dat kost qua ruimte:

[afbeelding]

Let op: de x-as is voor het aantal data disks, dus exclusief pariteit. 8 betekent dus een 10-disk RAID-Z2 bijvoorbeeld. Edit: en merk ook op dat dit vrij worst case is waarbij kleine I/O gemirrored wordt weggeschreven zodra je heel veel disks hebt. Dat gaat je dan veel opslag kosten. Alleen maar grote bestanden opslaan kent wellicht minder opslagverlies al durf ik dat niet met stelligheid te zeggen.
12 disks met een 4k sector groote is dus behoorlijk storage verlies, maar ik zie geen absolute waarden c.q. percentages. Echter als ik 512b sector grootte zou afdwingen - met performance verlies tot gevolg - dan zou het verlies veel minder erg zijn: dus is er dan niet zoveel aan de hand. Als ik dan max 300 MB/s uit mijn array weet te slaan, so be it.

Volgens mij is dit de bron van die grafiek:

http://forums.servethehom...fs-non-power-2-vdevs.html

Vdev van 10 data disks = 12 disks totaal zou 20% ruimte verlies opleveren.

[ Voor 8% gewijzigd door Q op 08-12-2013 23:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Volgens de grafiek boven me zou één vdev van 10 disks (8 data) en één vdev van 13 disks (11 data) nog wel kunnen. Dan heb je in totaal 23 disks + één SSD = 24 bays vol. Bovendien met 4K optimalisatie (ashift=12) heb je weinig ruimteverlies, alleen van de grotere vdev met 13 disks. Je 2e vdev is wat langzamer maar wellicht niet zo erg omdat je twee vdevs hebt.

Kortom, is dit geen leuke configuratie voor je?
pool met ashift=12 dus optimaal voor 4K sector disks
vdev 1: RAID-Z2 met 10 disks
vdev 2: RAID-Z2 met 13 disks

Minimaal ruimteverlies zou je dan moeten hebben en toch deftige performance en toch goede bescherming al is RAID-Z2 op 13 disks natuurlijk niet fantastisch meer. Maar het zijn schatkaarten die je gaat opslaan vermoed ik dus dat valt wel te verantwoorden. :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Whoa, ik las net dat forum waar dat plaatje staat en die gast die met die nummers aan kwam zetten schreef daaronder:
Well I ran some tests using some different files and my numbers weren't anywhere near this bad. So either I'm no good at math or the seeming logical approach omniscence went over in that thread isn't exactly what's happening. Using 20 1g files I created a bunch of pools of differing sizes with both ashift of 9 and of 12 (using hacked binary). Here were the results per total data disk count with ashift of 12:

1 98%
2 100%
3 97%
4 100%
5 96%
6 98%
7 96%
8 100%
9 99%
10 98%
11 97%
12 96%
13 96%
14 95%
15 95%
16 100%
17 100%
18 99%
19 99%

Oddly enough if I just striped and didn't use at least raidz1, there was no loss at all (I think it makes each one it's own vdev in that case). The worse case here is only 95% but I was expecting to see something closer to 71% in the 15 drive setup.

In summary, please ignore the thread as I obviously have no idea what's actually going on here
Ach. Weetje, op dit moment heb ik dus een VM gemaakt in Debian Wheezy met ZFS-on-linux en een 12-disk raidz2 vdev+pool gemaakt. Die ben ik nu aan het vullen met data om te kijken wat er nu echt gebeurt.

[ Voor 8% gewijzigd door Q op 08-12-2013 23:52 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dit is dus wanneer er grote bestanden worden geschreven. ZFS gaat bij het uitrekenen van free space op een vrijwel lege pool wellicht uit van worst case, net zoals thick provisioning of reservations dat doen. Kortom, slack bij kleine writes. Maar als je vooral veel grote bestanden schrijft, heb je hier veel minder last van. De metadata nog het meest vermoed ik.
Ach. Weetje, op dit moment heb ik dus een VM gemaakt in Debian Wheezy met ZFS-on-linux en een 12-disk raidz2 vdev+pool gemaakt. Die ben ik nu aan het vullen met data om te kijken wat er nu echt gebeurt.
Kijk dat zijn échte mannen! Niet lullen maar gewoon meten! B-)

[ Voor 28% gewijzigd door Verwijderd op 09-12-2013 00:08 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Voor mij zou dat zeer gunstig zijn want ik sla voornamelijk fors grote bestanden op. :) :) :)

Ik weet nog niet helemaal wat ik aan het doen ben, maar ik heb zojuist een RAIDZ2 vdev van 12 x 10GB = netto 100 GB storage gemaakt en gevuld met data.
root@debian:~# du -sh /STORAGE/
98G /STORAGE/
Dat lijkt mij al prima, maar hoe kan ik zelf die 'slackspace' goed zichtbaar maken?

Het lijkt mij dat DU de echte size rapporteert van de data en niet inclusief lost space, voor zover daar spraken van is.

Dit alles is met een ashift van 9 -> ik zal deze week eens kijken wat een ashift van 12 voor resultaat geeft.

Goor:

Ik heb een linux bak met 6 disks in RAID10 die ik via iSCSI beschikbaar maak aan mijn mac mini (over 1 Gbit) die dat als een gewone schijf ziet, waar ik dan mijn VMs op bewaar en er vanaf run. Binnen de test VM run ik dus weer ZFS op 12 disks die in werkelijkheid dus allemaal door iscsi op een MDADM RAID10 komen. Whaaaaa. De performance is.....bagger. 8)7

[ Voor 43% gewijzigd door Q op 09-12-2013 00:29 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat lijkt mij al prima, maar hoe kan ik zelf die 'slackspace' goed zichtbaar maken?

Het lijkt mij dat DU de echte size rapporteert van de data en niet inclusief lost space, voor zover daar spraken van is.
Iedereen gebruikt gewoon du -sh maar ik gebruik meestal du -Ash. Die hoofdletter A is de apparent size dus de echte size van de file, niet hoeveel het kost om het bestand op te slaan. Zonder de -h kun je nauwkeuriger getal krijgen en dat met en zonder -A vergelijken.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Weer wat geleerd. Ik zie een gigabyte verschil (997 MB).

Dat is 1% verlies.
root@debian:~# du -s --apparent-size /STORAGE/
100701014 /STORAGE/
root@debian:~# du -s /STORAGE/
101721599 /STORAGE/
Op mijn MDADM RAID6 met XFS NAS zie ik op 16 TB data 10 GB verschil.

Ik heb getracht de theoretische capaciteitsverlies na te rekenen op basis van de gevonden formules.

https://docs.google.com/s...YyeDJtSi1yZkE&hl=en#gid=0
Bunny:/storage# du -sm /storage/tmp/
98378 /storage/tmp/
Bunny:/storage# du -sm --apparent-size /storage/tmp/
98345 /storage/tmp/
Dit is de data terug gekopieerd van ZFS naar XFS.

Dit is wat ZFS terug geeft:
root@debian:~# du -sm /STORAGE/
99338 /STORAGE/
root@debian:~# du -sm --apparent-size /STORAGE/
98341 /STORAGE/
ZFS geeft dus ~1% overhead in deze situatie. Als ik de theorie goed begrijp zou dit volgens mijn spreadsheet ongeveer 2% moeten zijn (worst-case).

Ik zal nu met ashift 12 het FS aanmaken en kijken wat dit voor gevolgen heeft. Maar eerst ga ik slapen.

[ Voor 97% gewijzigd door Q op 09-12-2013 02:32 ]


Acties:
  • 0 Henk 'm!
Dus eigenlijk is ZFS efficiënter dan MDADM met XFS 8-)

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Nee, XFS is in dit geval efficiënter.

Maar mijn berekening klopt niet volgens mij. De documentatie die ik lees is soms wat onduidelijk, of ik snap het gewoon niet.

Je hebt in ZFS een record size en een block size. In ZFS is de block size variabel, met een maximum grootte van record size. Waar je op traditionele file systems dus altijd bijv 4K block sizes hebt, heb je onder ZFS variërende block sizes, gebaseerd op een veelvoud van de minimale device block size, dus ashift 9 = 512 bytes of ashift 12 = 4096 bytes.

Wat ik op dit moment niet snap is hoe een file van 1 megabyte by zeg 10 data disks wordt weggeschreven. Als ik een niet-optimale vdev heb, worden er dan extra device blocks (512/4096) per individuele disk (onnodig) weggeschreven, of is dat slechts 1x voor de file.

Acties:
  • 0 Henk 'm!
Volgens mij word de resterende lege ruimte ge-pad (0 ingevuld.). Maar zeker weten doe ik het niet.

Dus per file verlies je maximal 124KB bij een 128KB recordsize (als er 4KB overblijft om in een nieuwe record te stoppen).

Nogmaals: Zeker weten doe ik het niet, puur speculatie.

Even niets...


Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 28-09 05:58

Mystic Spirit

PSN: mr_mysticspirit

Ik heb vannacht een scrub laten draaien. Dat was voor mij de eerste keer nu mijn ZFS storage ongeveer een maandje in de lucht is. Het duurde ongeveer 7 uur en er waren 0 fouten om te repareren.

Nu ben ik benieuwd hoe vaak jullie scrubben. Ik heb natuurlijk het topic even doorzocht, maar het loopt nogal uiteen van nooit tot eens per week of eens per maand. Veel hits die ik tegen kwam waren overigens status reports waarin stond dat er nog nooit een scrub request was geweest. Dat zou kunnen impliceren dat er weinig scrubs gedaan worden.

Het idee lijkt te zijn dat als je files op je pool met regelmaat leest dat je dan geen scrub nodig hebt, maar het is natuurlijk nooit zeker dat je alle files in een bepaalde periode gebruikt.

Kortom: scrubben jullie je pool(s) en hoe vaak?

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Ik heb een keer een scrub gedaan toen mijn pool 3 maanden in de lucht was. Daarna nooit meer. Is dat wel nodig met ZFS?

Acties:
  • 0 Henk 'm!
Het is niet nodig, maar het helpt je wel om eerder achter fouten te komen. Dus stel er zit bitrot in 1 file, en je hebt nu nog een kopie op je desktop staan, is het fijn dat je die file nog een keer kan overschrijven met het origineel.

Had je geen scrub gedaan had je misschien wel de file van je desktop verwijderd en zou je er pas achter komen dat er bitrot is als je de file weer inleest.

Het is preventief, maar kost ook wel wat load.

Hier doe ik het eens per maand ongeveer (wel met de hand).

Even niets...


Acties:
  • 0 Henk 'm!
En ik doe het 2x per week... In de nacht van Zaterdag op Zondag om 2h 's nachts en in de nacht van Dinsdag op Woensdag ook om 2h 's nachts.

Kwestie van de disks in shape te houden :7 :+

Acties:
  • 0 Henk 'm!
In shape... _O- _O-

Alsof ze meer spierballen krijgen :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Van mijn MDADM array weet ik dat vanuit het OS automatisch een wekelijkse 'check' werd gescheduled. Het entry-level HP SAN op mijn werk wil ook graag minstens wekelijks een verift of scrub doen.

Omdat mijn NAS 99% van de tijd uit staat komt het er niet vaak van om een check/verify te doen.

[ Voor 20% gewijzigd door Q op 09-12-2013 14:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 08 december 2013 @ 18:58:
Heel veel uitspraken van FreeNAS (inclusief die 'administrator' cyberjock) zijn discutabel op zijn best tot ronduit incorrect. Neem deze dus met een (behoorlijke) korrel zout.

Het artikel van Robin Harris dat RAID5 niet meer geschikt is in 2009 ken ik, daar link ik regelmatig naar. Maar de conclusies daarvan zijn zeker niet zomaar van toepassing op ZFS. Het maakt nogal verschil of je hooguit één bestand mist (en je kunt zien precies welk bestand dat is) of dat je je hele array en dus alle data kwijt bent. Nogal een verschil. ;)

Hoe zit het nou? Ik heb geen zin in een turbolang verhaal, dus de korte versie:

Legacy RAID5 gaat erg binair om met disks. Een disk met een onleesbare sector wordt vaak uit de array getrapt. Stel je hebt een RAID5 die al een jaar prima werkt. Nu gaat er een schijf dood; oeps! Je koopt snel een nieuwe en de rebuild start je al heel snel. Maar nu - tijdens de rebuild - heeft tenminste één van de resterende member disks een read error. Dergelijke read errors duiden we aan met uBER; zeg maar bad sectors zonder fysieke schade. Nadat deze worden overschreven worden ze NIET omgewisseld met reserve sectoren maar worden ze gewoon weer in gebruik genomen. Ongeveer 90% van alle bad sectors bij moderne consumentenschijven is van dit type. Vroeger was dit nog maar iets van 5%, daarom is het 'Why RAID5 stops working in 2009' omdat 2009 grofweg het niveau is waarop het uBER ontoelaatbaar hoog is geworden. In de praktijk vanaf 666GB platters dat je grote problemen krijgt.

Dus kort gezegd, je hele RAID5 kan corrupt/defect/ontoegankelijk raken door één gefaalde disk en één klein bad sectortje. Dit geldt niet voor alle RAID5 engines, maar diegenen die niet tegen bad sectors en/of timeouts kunnen. De overgrote meerderheid dus van alle RAID-implementaties. Alleen LSI/3ware enzovoorts heb ik nog wat vertrouwen in dat zij het intelligenter doen.

Bij ZFS is het heel anders omdat ZFS geen disks uit de array gooit en corruptie direct herstelt. In het geval je een disk mist met RAID-Z en dus geen redundancy meer hebt, is er nog steeds niets aan de hand. Heb je dan read errors dan kunnen die ofwel ZFS metadata treffen of user data. ZFS zelf heeft nog extra ditto blocks (copies=2) voor metadata, dus ook op een RAID0 met bad sectors is ZFS nog beschermd. Alleen je data loopt dan risico. Bad sectors kunnen dan bestanden ontoegankelijk maken. Je krijgt dan een read error als je ze probeert te lezen, en de bestandsnamen worden in zpool status -v weergegeven. Zodra je schijf de data toch weer kan inlezen (recovery) worden de bestanden weer toegankelijk.

Hoe ZFS reageert en hoe legacy RAID5 reageert is toch een wereld van verschil. Dus kortom, dat verhaal van FreeNAS is een broodje aap, zoals wel meer onzin die op dat forum wordt uitgekermd.
Bedankt voor de duidelijke 'beknopte' uitleg. Het was zeer verhelderend. Hier hou ik een goed gevoel aan over! :)
RAID-Z is ook niet superieur aan een mirror; juist andersom. Maar een mirror heeft 50% overhead en beperkte (sequential) schrijfsnelheden. Daar doet RAID-Z het weer beter.
Eventueel zou je dan dus nog naar RAID-Z2 kunnen upgraden om het risico zoals geschetst in het 2009 artikel te minimaliseren.
Lijkt mij een prima plan.
Thnx. :)

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Er is wat foutgegaan tijdens het downloaden van een system-image via mn livecd op de usb stick .. waar slaat zfsguru die image op?

Acties:
  • 0 Henk 'm!

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 05-10 16:48

Hakker

a.k.a The Dude

Ik heb 8 disk RaidZ2 pools en ik kan je vertellen dat ik 1 van 1,8% en 1 van 2,6% verlies heb aan data. Opslagverlies valt dus reuze mee al moet ik wel zeggen dat het nu voornamelijk videoformaat is met voornamelijk files van meer dan 150 MB.

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
duiveltje666 schreef op zondag 08 december 2013 @ 02:38:
nee , wil de livecd iso op usb "branden" , maar dan wel zodanig dat het op mn usb stick past :)
Verwijderd schreef op zondag 08 december 2013 @ 12:05:
Plaats de .iso op de USB stick, maar dan kun je er verder niets mee. Daarom vroeg ik wat je met de USB-stick wilde doen. Ik had je ook een DM gestuurd.
duiveltje666 schreef op maandag 09 december 2013 @ 21:39:
Er is wat foutgegaan tijdens het downloaden van een system-image via mn livecd op de usb stick .. waar slaat zfsguru die image op?
Op de boot pool (/tank/zfsguru/download) als je Root-on-ZFS draait of in /tmp wat je RAM geheugen betreft. Je dient minimaal 2GB toe te wijzen aan de LiveCD - na installatie geldt die beperking niet. Ga je ook dingen downloaden, dan heb je wellicht meer dan 2GB RAM nodig.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
FireDrunk schreef op maandag 09 december 2013 @ 09:50:
Volgens mij word de resterende lege ruimte ge-pad (0 ingevuld.). Maar zeker weten doe ik het niet.

Dus per file verlies je maximal 124KB bij een 128KB recordsize (als er 4KB overblijft om in een nieuwe record te stoppen).

Nogmaals: Zeker weten doe ik het niet, puur speculatie.
Dat is niet hoe ik het begrijp, voor zover ik er nog iets van snap.

ZFS heeft een variabele block size. Een file van 132 kilobytes kost een block van 128 en een block van 4 kb, daar gaat niets verloren. Bestanden worden op de sector boundary opgeslagen, dat lijkt me erg efficient, dus van 512 bytes tot minimaal 4k bij ashift = 12.

Als je een file van 1 MB schrijft probeert ZFS deze schrijf actie over alle schrijven in een VDEV (en over ale VDEVS) te verspreiden. Daar komt die 128 record size terug. De record size wordt bij een enkele VDEV gedeeld door het aantal schijven en bij 1,2,8 etc data schijven is dat heel mooi deelbaar. Een 1 MB file bestaat uit 8 van die record size blocks en iedere block wordt dus verdeeld over de disks.

Maar 128 gedeeld door 10 geeft 12,8 en als je met 512 sectors werkt, is dat niet zo erg, maar met 4k sectoren kost je dat er vier, evenveel als met 8 disks (16k). Het verschil is dus 3.2 K die je per disk dus even zomaar kwijt raakt. Maal 10 disks = 32K aan opslag capaciteit verloren om 128 K aan data weg te schrijven.

Maar klopt dit? 25% slack space bij 10 data disk vdev is niet iets wat klopt volgens mij.

edit

Dit is het resultaat van een ashift = 12

code:
1
2
3
4
5
6
7
8
9
cp: cannot create directory `./STORAGE/1 - Audio': No space left on device
cp: cannot create directory `./STORAGE/1*': No space left on device
^C
[1]+  Exit 1                  cp -R /mnt/tmp/* .
root@debian:/STORAGE# du -sm /STORAGE/
91364   /STORAGE/
root@debian:/STORAGE# du -sm --apparent-size /STORAGE/
90165   /STORAGE/
root@debian:/STORAGE#


Als we dit vergelijken met 'normale storage of met ashift = 9 dan zien we dit:

code:
1
2
3
4
Bunny:/storage# du -sm /storage/tmp/
98378   /storage/tmp/
Bunny:/storage# du -sm --apparent-size /storage/tmp/
98345   /storage/tmp/


Opeens is 8180 MB dus ruim 8 GB aan opslag opeens 'foetsie'. Mogelijk dat hier nog andere verklaringen voor zijn? Dat is ruim 10% capaciteit verlies --> not good. Ik had echter volgens de berekeningen veel meer verlies verwacht.

https://docs.google.com/s...NFMFhHeWxwMnc&usp=sharing

[ Voor 28% gewijzigd door Q op 10-12-2013 01:21 ]


Acties:
  • 0 Henk 'm!
Ah klopt je hebt helemaal gelijk, ik ben weer eens in de war. Ik heb er zelf een poos terug ook nog een flinke post aan gewijd. Ik ben in de war met mijn bevindingen icm ESXi. Als je een recordsize van 128k hebt en je doet 4k sync writes zie je veel meer activiteit op je pool (in de orde van 32x zo veel writes in KB/s).

Als je daarna de recordsize op 4k zet gaat dit wel goed. Het lijkt er dus op dat op de een of andere manier bij 4k writes ZFS wel de hele stripe opnieuw moet schrijven (dus 4k inlezen -> wijzigen en daarna 128k weer wegschrijven vanwege het transactionele systeem.)

Dat heeft natuurlijk geen invloed op de daadwerkelijke used space.

Even niets...


Acties:
  • 0 Henk 'm!
Bestaat er eigenlijk een mogelijkheid om een ZFS filesysteem te senden en receiven en op de receive kant compressie aan te zetten als het op het bron ZFS FS niet aan staat?

Ik ben hier wat aan het spelen met het idee om van 5 x 3TB naar 4TB te gaan en dan zou dat eventueel ook wel een ruimte-winst opleveren...

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
@ HyperBart

Niet geprobeerd, maar je kan het proberen met:
zfs send tank/test@tuesday | ssh user@server.example.com "zfs receive -o compression=lzjb pool/test"

gr
Johan

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 13:13

BCC

Ik heb van de week een ZFS systeem bij Azerty besteld op basis van deze: pricewatch: Intel Desktop Board DQ77MK (retail boxed) (Vanwege de aanbeling in de BBQ: reviews: Desktop Best Buy Guide: maart 2013), maar nu blijkt deze niet meer leverbaar :( Welke kan ik het beste als alternatief nemen?

Maakt het qua linux support nog uit of ik deze : pricewatch: Gigabyte GA-Q77M-D2H of pricewatch: Asus P8Q77-M2 als alternatief pak?

[ Voor 30% gewijzigd door BCC op 10-12-2013 19:11 ]

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!
Waarom wil je persé Q77?

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Is het niet een idee om naar een server super micro bordje te kijken zoals deze:

pricewatch: Supermicro X9SCM-F

Ietsje duurder, met ECC geheugen, alles er op en er aan.

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 13:13

BCC

Vanwege de hardware virtualisatie die ook op de zfs bak komt te draaien :)

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

BCC schreef op dinsdag 10 december 2013 @ 19:57:
[...]

Vanwege de hardware virtualisatie die ook op de zfs bak komt te draaien :)
Het is al een tijdje niet meer zo dat VT-d of VT-i alleen nog maar op Q chipsets werkt. Als het je daarom te doen is kun je volgens mij tegenwoordig praktisch elk willekeurig bord pakken. Alle fabrikanten passen hun BIOS er op aan dat dit gewoon werkt. :)

Een Q chipset is handig vanwege AMT (remote console, etc.) en vPRO voor de rest voegt het niet veel toe.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 13:13

BCC

Eeh help :) dan wordt het nog ingewikkelder :( wat kan ik dan het beste bestellen :)?

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
BCC schreef op dinsdag 10 december 2013 @ 20:56:
Eeh help :) dan wordt het nog ingewikkelder :( wat kan ik dan het beste bestellen :)?
Ik zou dat supermicro bordje doen met ECC geheugen (wenselijk), niet veel duurder en wel mooi bordje met onboard KVM. Ik denk dat ik dat bordje ook in dat chassis hieronder ga stoppen.


Case is binnen ;)

Afbeeldingslocatie: http://louwrentius.com/static/images/RV-4324.jpg

https://ri-vier.eu/rivier...-p-285.html?cPath=1_3_7]]

Met SGPIO wat ondersteund wordt door de ServeRAID M1015 kaartjes die ik wil gaan gebruiken.

[ Voor 41% gewijzigd door Q op 10-12-2013 20:59 ]


Acties:
  • 0 Henk 'm!
Q schreef op dinsdag 10 december 2013 @ 20:57:
[...]


Ik zou dat supermicro bordje doen met ECC geheugen (wenselijk), niet veel duurder en wel mooi bordje met onboard KVM. Ik denk dat ik dat bordje ook in dat chassis hieronder ga stoppen.


Case is binnen ;)

[afbeelding]

https://ri-vier.eu/rivier...-p-285.html?cPath=1_3_7]]

Met SGPIO wat ondersteund wordt door de ServeRAID M1015 kaartjes die ik wil gaan gebruiken.
Holy shit :+

Ik was even niet goed aan het opletten toen FireDrunk op Skype zei: "die Q gooit er ook wel wat geld tegen aan".

Proper, proper!

Ik was eventueel aan het spelen met het idee om voor deze kast te gaan:

https://ri-vier.eu/rivier...6a-p-323.html?cPath=1_3_5

Maar die "ziet" er niet zo solide uit als die van jou. Kan je je RI-VIER eens reviewen en wat foto's alvast online gooien? Zou heel fijn zijn. Ik hoop dat de kwaliteit van jouw case even goed is terug te vinden in mijn editie.

[ Voor 21% gewijzigd door HyperBart op 10-12-2013 21:47 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Bedankt, de kast ziet er netjes en redelijk degelijk uit - voor het geld. Je krijgt geen beul van een chassis als zo'n Supermicro van 1000 euro, maar het is een heel stuk beter dan de oude Norco RPC-4020 met zijn brakke airflow voor vrijwel het zelfde geld.

De foto's van het chasis op de ri-vier site zijn een stuk beter dan wat ik zelf heb gemaakt en geven meer detail prijs. Wat je daar ziet is conform werkelijkheid. Ik vind het er netjes uitzien. Ik heb de fans nog niet aan gehad. Ik heb alleen maar de kast binnen.

Ik ben redelijk positief tot nu toe.

Het 12-bay chassis lijkt precies op die van mij, qua design en ik denk dat het niet heel veel uitmaakt qua kwaliteit, maar je betaalt fors minder, scherpe prijs.

[ Voor 12% gewijzigd door Q op 10-12-2013 22:17 ]


Acties:
  • 0 Henk 'm!
Q schreef op dinsdag 10 december 2013 @ 22:12:
Bedankt, de kast ziet er netjes en redelijk degelijk uit - voor het geld. Je krijgt geen beul van een chassis als zo'n Supermicro van 1000 euro, maar het is een heel stuk beter dan de oude Norco RPC-4020 met zijn brakke airflow voor vrijwel het zelfde geld.
Ok, thanks
De foto's van het chasis op de ri-vier site zijn een stuk beter dan wat ik zelf heb gemaakt en geven meer detail prijs. Wat je daar ziet is conform werkelijkheid. Ik vind het er netjes uitzien. Ik heb de fans nog niet aan gehad. Ik heb alleen maar de kast binnen.
Bij die 12 bay vind ik die aan uit knopjes er zo cheap uit zien, het USB poortje ziet er ook niet echt "stevig" uit, beetje brak precies, LIJKT zo he ;)
Ik ben redelijk positief tot nu toe.

Het 12-bay chassis lijkt precies op die van mij, qua design en ik denk dat het niet heel veel uitmaakt qua kwaliteit, maar je betaalt fors minder, scherpe prijs.
Daarom was ik eigenlijk van plan om voor dat bakje te gaan. Ik vraag me alleen af wat ze met SAS bedoelen ipv die SFF typenummer die ze daar bij zetten of ik gewoon aan de slag kan met die case + M1015 en onboard SATA aansluitingen en 2 x een kabeltje van SAS naar 4xSATA.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Ik moet meteen aangeven dat je vermoedens kloppen: usb poort is tikje goedkoop, en bij mij zit hij achter de greep, da's niet zo handig, maar ik ga die poort nooit gebruiken.

Zoals ik die backplane zie zitten in dat chassis gewoon 12 x sas/sata aansluitingen dus niets met SFF-weetikveel. Dus als je SFF-8087 naar 4x sata/sas koopt dan ben je er wel denk ik.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Q schreef op dinsdag 10 december 2013 @ 22:30:
[...] en bij mij zit hij achter de greep, da's niet zo handig, maar ik ga die poort nooit gebruiken.
Tja... helaas zie ik meer van dergelijk designfoutjes.
Zelf heb ik de 16 slot (3U) variant
Daar steken de lipjes voor de bevestiging van de slimline DVD-player boven de case uit!
(heb ze maar wat omgebogen naar binnen toe. gebruik toch geen dvd)

Beetje jammer dat hier wat onvoldoende over is nagedacht.
Verder een prima case!

Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
weten jullie een interessante sata/sas controller voor veel schijven? Of een andere manier

Ik ben met een paar mensen aan het kijken naar een grote opslagserver (denk ordegrootte 50 schijven, 100TB), maar met m1015 kaarten heb je er al een kaart of 8 nodig.

We hebben ook al even gekeken naar port multipliers zoals ze hier gebruiken:
http://blog.backblaze.com...uild-cheap-cloud-storage/
Dat ziet er wel interessant uit, maar die multipliers hebben nog wel invloed op de snelheid waarschijnlijk.

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
timberleek schreef op woensdag 11 december 2013 @ 14:05:
weten jullie een interessante sata/sas controller voor veel schijven? Of een andere manier

Ik ben met een paar mensen aan het kijken naar een grote opslagserver (denk ordegrootte 50 schijven, 100TB), maar met m1015 kaarten heb je er al een kaart of 8 nodig.

We hebben ook al even gekeken naar port multipliers zoals ze hier gebruiken:
http://blog.backblaze.com...uild-cheap-cloud-storage/
Dat ziet er wel interessant uit, maar die multipliers hebben nog wel invloed op de snelheid waarschijnlijk.
Ik heb het idee dat port mulitpliers niet echt goed ondersteund worden, ik lees er in ieder geval alleen maar ellende over. Je kunt beter op zoek gaan naar een chassis met een SAS expander, die kun je in principe aan elke SAS HBA koppelen. Je koppelt dan gewoon de 4 of 8 kanalen van je SAS HBA aan je multiplier en daar kunnen dan tig schijven aan gekoppeld worden. Op die manier heb je ook nog een aardige hoeveelheid bandbreedtte. Nadeel van een SAS expander is weer dat SATA schijven aan SAS expanders voor sommige mensen weer problemen geven, dus wellicht is het verstandig om voor NL-SAS schijven te kiezen.

Acties:
  • 0 Henk 'm!
Voor ZFS is dit eigenlijk je enige snelle optie:

http://www.lsi.com/produc...ges/lsi-sas-9201-16i.aspx

Voor 48-64 disks heb je er dan 3-4 nodig. Dat is met een recent Dual Socket 2011 moederbord geen probleem.

Even niets...


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
FireDrunk schreef op woensdag 11 december 2013 @ 14:30:
Voor ZFS is dit eigenlijk je enige snelle optie:

http://www.lsi.com/produc...ges/lsi-sas-9201-16i.aspx

Voor 48-64 disks heb je er dan 3-4 nodig. Dat is met een recent Dual Socket 2011 moederbord geen probleem.
Juist. Daarom kun je dus beter voor een oplossing met SAS Expanders gaan :+

Acties:
  • 0 Henk 'm!

  • Farg0
  • Registratie: Juli 2009
  • Laatst online: 08-10 12:12
HyperBart schreef op dinsdag 10 december 2013 @ 21:45:
[...]
Ik was eventueel aan het spelen met het idee om voor deze kast te gaan:

https://ri-vier.eu/rivier...6a-p-323.html?cPath=1_3_5

Maar die "ziet" er niet zo solide uit als die van jou. Kan je je RI-VIER eens reviewen en wat foto's alvast online gooien? Zou heel fijn zijn. Ik hoop dat de kwaliteit van jouw case even goed is terug te vinden in mijn editie.
Waarom niet voor de volgende case gaan ?
http://www.ebay.de/itm/Su...ageName=ADME:L:OU:BE:3160

Prima cases voor 160 euro (+ 30 euro verzendkosten). Ik heb er 2 net aangekregen en zijn zeer deftig :)

Acties:
  • 0 Henk 'm!
Zijn dat "echte" SuperMicro kasten??? Die kosten normaal dik 500,- ....


Verdacht...

Even niets...


Acties:
  • 0 Henk 'm!
Mja, inderdaad mooi kastje :) Wel jammer van die vage voedingen.. Liever ATX :)

Even niets...


Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Bigs schreef op woensdag 11 december 2013 @ 14:35:
[...]


Juist. Daarom kun je dus beter voor een oplossing met SAS Expanders gaan :+
Moet je er wel SAS-schijven aan knopen. Dat kan nog wel eens duurder zijn (per GB) dan losse controllers.
SATA-schijven werkt wel, maar dat is (volgens specificaties) niet de bedoeling. Zoek maar naar Nexenta en hun ervaringen met SAS-expanders waar SATA-schijven aan hingen. Die wazige problemen wil je echt niet.

Acties:
  • 0 Henk 'm!
FireDrunk schreef op woensdag 11 december 2013 @ 15:08:
Mja, inderdaad mooi kastje :) Wel jammer van die vage voedingen.. Liever ATX :)
Die van RI-VIER hebben van die 2U voedingen, ook niet goedkoop/makkelijk aan te geraken.
Farg0 schreef op woensdag 11 december 2013 @ 14:56:
[...]


Waarom niet voor de volgende case gaan ?
http://www.ebay.de/itm/Su...ageName=ADME:L:OU:BE:3160

Prima cases voor 160 euro (+ 30 euro verzendkosten). Ik heb er 2 net aangekregen en zijn zeer deftig :)
Valt de geluidsproductie wat mee?

[ Voor 44% gewijzigd door HyperBart op 11-12-2013 15:49 ]


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
jadjong schreef op woensdag 11 december 2013 @ 15:29:
[...]

Moet je er wel SAS-schijven aan knopen. Dat kan nog wel eens duurder zijn (per GB) dan losse controllers.
SATA-schijven werkt wel, maar dat is (volgens specificaties) niet de bedoeling. Zoek maar naar Nexenta en hun ervaringen met SAS-expanders waar SATA-schijven aan hingen. Die wazige problemen wil je echt niet.
Dat verschil valt wel mee hoor, neem ondestaande schijf als voorbeeld. De SAS versie is een tientje duurder dan de SATA.

SATA: pricewatch: Seagate Constellation ES.3 ST4000NM0033, 4TB

SAS pricewatch: Seagate Constellation ES.3 ST4000NM0023, 4TB

Als je met 'echte' 10k/15k SAS schijven aan de gang gaat dan stijgt de prijs behoorlijk, maar deze NL-SAS schijf spreekt net zo goed het SAS protocol en zal dus prima in een complexe SAS fabric werken.

[ Voor 11% gewijzigd door Bigs op 11-12-2013 16:02 ]


Acties:
  • 0 Henk 'm!

  • Farg0
  • Registratie: Juli 2009
  • Laatst online: 08-10 12:12
Ik ga ze direct vervangen door andere 80mm's, en de voedingen door een ATX. Op youtube staan er wel 2 video's over de geluidsproductie.

YouTube: Supermicro SC836 PWM Fan
YouTube: Fan power control on SC836. Its not so loud!

Ik heb ook nog een Supermicro A1SAM-2750F liggen om in te bouwen dus werk genoeg voor de komende dagen!

Acties:
  • 0 Henk 'm!
Bigs schreef op woensdag 11 december 2013 @ 15:59:
[...]


Dat verschil valt wel mee hoor, neem ondestaande schijf als voorbeeld. De SAS versie is een tientje duurder dan de SATA.

SATA: pricewatch: Seagate Constellation ES.3 ST4000NM0033, 4TB

SAS pricewatch: Seagate Constellation ES.3 ST4000NM0023, 4TB

Als je met 'echte' 10k/15k SAS schijven aan de gang gaat dan stijgt de prijs behoorlijk, maar deze NL-SAS schijf spreekt net zo goed het SAS protocol en zal dus prima in een complexe SAS fabric werken.
Volgens mij ging het meer om het verschil tussen consumenten SATA (WD Green 4TB / WD Red 4TB / Seagate HDD.15) en NL-SAS (die schijven die jij noemt).

Dat verschil is een stuk groter.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

De tijd is aangebroken om de hardware in te bouwen in mijn oude behuizing. Dan ga ik eerst memtest86 draaien om te controleren of de RAM geheugen module goed is. Daarna kan ik aan de slag om het systeem te installeren en configureren.

Hierbij zou ik graag wat advies ontvangen van jullie.

De hardware:
#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 34,79€ 34,79
1ASRock B75 Pro3-M€ 52,73€ 52,73
3Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 99,30€ 297,90
1Corsair CMV8GX3M1A1333C9€ 63,81€ 63,81
1Seasonic G-Serie 360Watt€ 57,95€ 57,95
Bekijk collectie
Importeer producten
Totaal€ 507,18


Nu was mijn plan om FreeNAS te gaan gebruiken. Zoals ik het begrepen heb kan dit vanaf een USB stick draaien, zonder dat je daarmee harde schijfruimte verkwist, terwijl dit de systeem prestaties niet nadelig beïnvloed. Het plan was om de drie schijven in een RAID-Z1 configuratie te gebruiken.

Ik wil het systeem gebruiken als centraal punt in ons netwerk om data op te slaan. Het idee is om onze media (foto en video bestanden) daar op te slaan, zodat die ook door andere systemen (laptop en tv) kunnen worden bekeken vanaf het netwerk. Daarnaast dient het ook als backup oplossing. De desktop en laptop bewaren de belangrijke data op de NAS en ik maar dan een backup naar een externe schijf vanaf de NAS.

Samengevat:
  1. Delen van media bestanden door meerdere systemen
  2. Streamen van media bestanden naar TV (of misschien later mediasysteempje)
  3. Backup belangrijkste bestanden naar externe schijf
Volgens mij is FreeNAS prima geschikt om deze kerntaken te vervullen. Eis 1 zou prima moeten kunnen met samba shares dacht ik Ik weet alleen niet of de metadata hierbij wel behouden blijft. Voor eis 2 is een DLNA service nodig, maar die is relatief eenvoudig te realiseren met de miniDLNA plug-in. De derde eis moet ik nog wel even goed naar kijken, want ik weet nog niet goed hoe dat zal gaan i.c.m. ZFS. Tot nu toe deed ik het handmatig voor al mij linux en windows systemen met rsync (vanuit linux) naar een ext4fs schijf.

Nu zijn er echter twee zaken die e.e.a. compliceren en waar ik graag jullie mening over wil horen. Mijn laptop maakt gebruik van HDD encryptie, omdat ik die gebruik voor mijn werk, maar ook voor prive zaken, zoals belasting aangifte, verzekering, bankieren, etc.
Nu heb ik wel gezien dat het mogelijk is om encryptie te gebruiken voor een ZFS pool, maar ik heb geen idee of dat verstandig is. Ik denk dat de hardware krachtig genoeg is om een acceptabel performance verlies aan overhead te hebben, maar ik zit voornamelijk in over de betrouwbaarheid. Stel dat mijn FreeNAS configuratie op de USB stick kapot gaat, kan ik dan de data nog wel herstellen of is het risico groot dat ik buitengesloten raak? Ander voorbeeld, stel dat één van de schijven kapot zou gaan, kan ik de pool dan nog wel herstellen als deze geencrypt is?

Een ander punt waar ik nog mee worstel is het volgende. Ik zou graag willen dat bepaalde data die naar de NAS zal worden geschreven daarna niet meer kan worden aangepast. Dit is best tricky, want met de gewone user-rechten kun je geen modus vinden waarbij iemand wel schrijf en leesrechten heeft, zonder de mogelijkheid om de bestanden ook aan te passen of zelfs verwijderen.
FreeBSD (en dus ook FreeNAS lijkt mij) heeft echter flags, waarmee je extra labels aan files kunt hangen. Ik zou dan dus de bestanden met een flag immutable kunnen maken, waardoor deze bestanden niet kunnen worden gewijzigd.
Het probleem is echter dat ik graag wil dat dit gebeurd, nadat ze op de NAS zijn gezet. Hoe zou ik dat aan kunnen pakken?
Denk bijvoorbeeld aan iemand die op een windows laptop foto's van een camera via een samba share upload naar de NAS. Ik wil dan niet dat de foto's op de NAS daarna per ongeluk worden bewerkt of zelfs verwijderd. Is hier een handigheidje voor?

Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Bigs schreef op woensdag 11 december 2013 @ 15:59:
[...]


Dat verschil valt wel mee hoor, neem ondestaande schijf als voorbeeld. De SAS versie is een tientje duurder dan de SATA.

SATA: pricewatch: Seagate Constellation ES.3 ST4000NM0033, 4TB

SAS pricewatch: Seagate Constellation ES.3 ST4000NM0023, 4TB

Als je met 'echte' 10k/15k SAS schijven aan de gang gaat dan stijgt de prijs behoorlijk, maar deze NL-SAS schijf spreekt net zo goed het SAS protocol en zal dus prima in een complexe SAS fabric werken.
Klopt, de SATA-schijf die jij linkt is inderdaad maar een tientje goedkoper dan z'n SAS-broertje. Maar met een prijs van 293.- is die op zich al 2x zo duur als de concurrerende 4TB SATA-schijven.

1 controller 400.-
1 expander 300.-
24 SAS-disk 7200.-
Totaal 7900.-
3 controllers 1200
24 SATA-disks 3600.-
Totaal 4800.-

Als je toch ZFS gebruikt is de onderste optie mogelijk en prijstechnisch veel interessanter. :P

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 06-10 09:15
De flags kun je toch altijd erop zetten. Maar root kan ze altijd weer eraf halen. Er is volgens mij geen read only die zelf root uitsluit.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat klopt, maar dan moet je ze natuurlijk wel handmatig zetten. Graag zou ik het automatisch gelijk na het uploaden of opslaan al activeren, zonder dat de gebruiker moet inloggen en met het chflags commando in de weer moet.
Het idee is dat bepaalde bestanden die in een specifieke directory 'gelijk veilig' zijn nadat ze op de NAS zijn gezet. Ik ben niet altijd thuis en de overige gezinsleden moeten zich daar niet over hoeven te bekommeren.
Misschien heeft ZFS hier een handige feature voor?

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Ik zou haast zeggen, maak een daemon die via inotify (of hoe FreeBSD's variant erop heet) luistert naar wijzigingen in de map, en dan dat commando uitvoert. Maarja, ik kan goed begrijpen dat niet iedereen programmeerkennis heeft :+

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Gewoon regelmatig snapshotten. Desnoods iedere minuut, al vind ik dat wat overdreven. Maar qua efficiency zou het wel kunnen; snapshots werken heerlijk met ZFS.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Euhm, waarom zou een SATA schijf niet in een SAS slot kunnen of aan een SAS controller gekoppeld kunnen worden? Volgens mij is het verplicht volgens de SAS standaard dat een SATA disk altijd aan SAS geknoopt kan worden (ook fysiek) alleen niet andersom.

Als een dergelijke expanden/multiplexer SAS compliant is moet deze ook gewoon SATA schijfjes slikken.

Dus ik verwacht dat als je een LSI controller koopt, en vervolgens ook een LSI expander (Eventueel OEM) dat het allemaal prima gaat werken. Dat doen alle grote partijen.

Als je in plaats van de juiste spullen koopt halve gare oude revisies van HP expanders op Ebay gaat shoppen, dat is een ander verhaal. :P Daar zijn inderdaad heel erg veel problemen mee geweest.

Ik heb er met mijn SAS controllers en drivebays ook nog nooit problemen mee gehad. Geen expander ertussen, maar wel SAS bays met SATA drives. Werkt perfect! Ik gebruik sinds enkele jaren 4x de 3 bay versie (http://www.chieftec.com/backplane_SST.html). Eerst met een Adaptec controller, met onboard moederbord poorten of via een LSI 9211-8i geval.

Als ik dit (http://www.serialstoragew...2007_07/itinsights24.html) goed lees, moet het inderdaad ook gewoon gaan.

[ Voor 45% gewijzigd door Quindor op 11-12-2013 18:48 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Goshimaplonker298
  • Registratie: Juni 2002
  • Laatst online: 03-05 11:45

Goshimaplonker298

BOFH Wannabee

jadjong schreef op woensdag 11 december 2013 @ 15:29:
[...]

Moet je er wel SAS-schijven aan knopen. Dat kan nog wel eens duurder zijn (per GB) dan losse controllers.
SATA-schijven werkt wel, maar dat is (volgens specificaties) niet de bedoeling. Zoek maar naar Nexenta en hun ervaringen met SAS-expanders waar SATA-schijven aan hingen. Die wazige problemen wil je echt niet.
Je kan SATA schijven op SAS controllers en SAS expanders aansluiten. Die OMG doe dat absoluut niet verhalen en wazige problemen stammen uit het SAS1(.1) tijdperk.
De mensen die er problemen mee hadden SAS to SATA interposers gebruikten om single ported SATA disks dual ported te maken of er waren problemen in de code.
Quindor schreef op woensdag 11 december 2013 @ 18:40:
Euhm, waarom zou een SATA schijf niet in een SAS slot kunnen of aan een SAS controller gekoppeld kunnen worden? Volgens mij is het verplicht volgens de SAS standaard dat een SATA disk altijd aan SAS geknoopt kan worden (ook fysiek) alleen niet andersom.

Als een dergelijke expanden/multiplexer SAS compliant is moet deze ook gewoon SATA schijfjes slikken.

Dus ik verwacht dat als je een LSI controller koopt, en vervolgens ook een LSI expander (Eventueel OEM) dat het allemaal prima gaat werken. Dat doen alle grote partijen.

Als je in plaats van de juiste spullen koopt halve gare oude revisies van HP expanders op Ebay gaat shoppen, dat is een ander verhaal. :P Daar zijn inderdaad heel erg veel problemen mee geweest.

Ik heb er met mijn SAS controllers en drivebays ook nog nooit problemen mee gehad. Geen expander ertussen, maar wel SAS bays met SATA drives. Werkt perfect! Ik gebruik sinds enkele jaren 4x de 3 bay versie (http://www.chieftec.com/backplane_SST.html). Eerst met een Adaptec controller, met onboard moederbord poorten of via een LSI 9211-8i geval.

Als ik dit (http://www.serialstoragew...2007_07/itinsights24.html) goed lees, moet het inderdaad ook gewoon gaan.
SAS 2 en hoger heeft die problemen opgelost waarbij expanders en interposers minder probleem gevoellig zijn.

Hoe werkt het?
Als je een SATA schijf op een SAS controller aansluit dan kan de SAS controller gewoon native SATA praten tegen de disk.
Via een SAS expander wordt gebruik gemaakt van het Serial ATA Tunneling Protocol (STP) hiermee worden de SATA frames door SAS getunneld (lees voor het gemak door de expander) zodat het voor de disk en de controller lijkt alsof ze op een direct physical channel zitten en native SATA met elkaar spreken. Dit geeft een overhead tot 20%.

SAS heeft ten opzichte van SATA een grotere feature set.
- Command Queuing is anders en beter ingericht voor enterprise workloads.
- Error-recovery and Error-reporting zijn beter.
- Reservaties
and the list goes on.

Het is dus geen probleem om SATA disks op SAS 2.0+ expanders te gebruiken.
Check de websites van diverse leveranciers van SATA en SAS apparatuur. Ze hebben allemaal Hardware Compatibility Lijsten. Deze staan vol van SATA drives die getest en goedbevonden zijn op hun SAS devices.
Als laatste daar nog een kanttekening bij. Dit zijn over het algemeen "enterprise class" HDD's en zo. Omdat de zakelijke markt hun target is met de Sata en SAS compabiliteit. SATA consumer drives werken ook. Je zal ze alleen niet op de HCL vinden.

[ Voor 23% gewijzigd door Goshimaplonker298 op 11-12-2013 21:55 ]


Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Verwijderd schreef op woensdag 11 december 2013 @ 17:07:

....
Een ander punt waar ik nog mee worstel is het volgende. Ik zou graag willen dat bepaalde data die naar de NAS zal worden geschreven daarna niet meer kan worden aangepast. Dit is best tricky, want met de gewone user-rechten kun je geen modus vinden waarbij iemand wel schrijf en leesrechten heeft, zonder de mogelijkheid om de bestanden ook aan te passen of zelfs verwijderen.
....
Pure-FTPd kun je vanuit de ports compilen met "UploadScript" support. Hiermee kun je een script aanroepen die uitgevoerd wordt zodra er iets is geupload. In dat script kun je dan iets met "chflags schg" doen zodat de geploade bestanden niet meer kunnen worden aangepast of verwijderd.

Als je de securelevel verhoogt naar 1, dan kan zelfs root (of iemand met root rechten) deze bestanden niet meer aanpassen of verwijderen.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:46
Zoiets kan ook met VSFTPD of te wel Very Secure FTP Daemon, geschreven door Crhis Evans, werkzaam voor Google. https://security.appspot.com/vsftpd.html

Verwijderd

Xudonax schreef op woensdag 11 december 2013 @ 18:32:
Ik zou haast zeggen, maak een daemon die via inotify (of hoe FreeBSD's variant erop heet) luistert naar wijzigingen in de map, en dan dat commando uitvoert. Maarja, ik kan goed begrijpen dat niet iedereen programmeerkennis heeft :+
Hoewel ik weinig ervaring heb met programmeren met systeem libraries heb ik wel even inotify gekeken. Het is inderdaad een interessante feature. De FreeBSD tegenhanger is niet helemaal equivalent, maar misschien dat je daar wel iets mee zou kunnen doen.
Verwijderd schreef op woensdag 11 december 2013 @ 18:32:
Gewoon regelmatig snapshotten. Desnoods iedere minuut, al vind ik dat wat overdreven. Maar qua efficiency zou het wel kunnen; snapshots werken heerlijk met ZFS.
Dat snapshotten is zeer interessant en ik was ook wel van plan om er gebruik van te gaan maken. Ik had er echter niet aan gedacht om het zo toe te passen.
d1ng schreef op woensdag 11 december 2013 @ 23:17:
Pure-FTPd kun je vanuit de ports compilen met "UploadScript" support. Hiermee kun je een script aanroepen die uitgevoerd wordt zodra er iets is geupload. In dat script kun je dan iets met "chflags schg" doen zodat de geploade bestanden niet meer kunnen worden aangepast of verwijderd.

Als je de securelevel verhoogt naar 1, dan kan zelfs root (of iemand met root rechten) deze bestanden niet meer aanpassen of verwijderen.
Q schreef op woensdag 11 december 2013 @ 23:55:
Zoiets kan ook met VSFTPD of te wel Very Secure FTP Daemon, geschreven door Crhis Evans, werkzaam voor Google. https://security.appspot.com/vsftpd.html
Een interessante invalshoek. FTP had ik dus ook niet aan gedacht, omdat ik er van uit ging samba (windows shares) te gaan gebruiken. Super handig dat je dergelijke scripts op een FTP server kunt draaien. Ik zal eens kijken hoe dat een beetje transparant op de windowssystemen kan worden geïmplementeerd.
* FireDrunk heeft een stout idee:

http://azerty.nl/0-1989-6...quad-msata-pcie-ssd-.html

Met 4* M500 120GB. Controller is AHCI, dus ik verwacht daar geen problemen.

Zou een badass ZIL maken :D

Edit: Het lijkt om een Marvell 91xx te gaan, iemand die weet of die goed met BSD / ZFS werken?

[ Voor 18% gewijzigd door FireDrunk op 12-12-2013 10:39 ]

Even niets...


  • Bigs
  • Registratie: Mei 2000
  • Niet online
FireDrunk schreef op donderdag 12 december 2013 @ 10:36:
* FireDrunk heeft een stout idee:

http://azerty.nl/0-1989-6...quad-msata-pcie-ssd-.html

Met 4* M500 120GB. Controller is AHCI, dus ik verwacht daar geen problemen.

Zou een badass ZIL maken :D

Edit: Het lijkt om een Marvell 91xx te gaan, iemand die weet of die goed met BSD / ZFS werken?
Oeh gaaf ding voor weinig geld. Waarschijnlijk werkt het wel, FreeBSD ondersteunt een hele rits controllers uit die serie (zo niet alle):

http://svnweb.freebsd.org...i/ahci.c?view=markup#l259
Nice! Denk dat ik dat maar eens ga proberen :P

Even niets...

Pagina: 1 ... 97 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.