Nooit te laat om te bekeren richting ZFSguru. De Atheistische Kerk verwelkomt U met open armen.

[ Voor 35% gewijzigd door Verwijderd op 07-12-2013 23:53 ]
Daar hoor ik ook steeds meer goede verhalen over. Heb jij ervaring met ZFSonLinux als vm onder Windows?mkroes schreef op zaterdag 07 december 2013 @ 23:22:
[...]
zoals CiPHER al zegt: alles is mogelijk. Alleen is de ondersteuning nog steeds verre van voltooid.
Voornamelijk de scsi en network driver leveren nog wat problemen op (netwerk is er wel maar alleen legacy, 100mbit dus).
Vanwaar de noodzaak om Nas4free of ZFSguru te draaien? Als je graag ZFS wil gebruiken kan ik je ZFS on Linux wel aanraden.
ZFS op MDADM is nutteloos, je verliest je checksum mogelijkheden.Q schreef op zondag 08 december 2013 @ 10:54:
Mijn storage server zit vol en nu moest ik maar eens een nieuwe kopen.
Met mijn vorige server kocht ik gewoon even veel disks als in het chassis paste. Maar Als ik dat nu zou doen met een 24 bay chassis en 4 TB disks, dan wordt dat wel prijzig. Als ik met 12x4TB zou starten, zou ik al een heel eind komen.
Met Linux MDADM kun je een disk aan je array toevoegen om 'm groter te maken (grow). Dit kan nog steeds niet met ZFS zover ik weet.
Daarom bedacht ik dit: ik maak een RAID6 aan met MDADM en doe daar overheen ZFS. De enige reden voor mij om ZFS te kiezen is checksums: data integriteit.
Aangezien ZFS wel moet kunnen groeien (lijkt me) zou dit moeten werken, toch?
[ Voor 4% gewijzigd door FireDrunk op 08-12-2013 11:54 ]
Even niets...
En gaat ook niet gebeuren denk ik.Q schreef op zondag 08 december 2013 @ 10:54:
Met Linux MDADM kun je een disk aan je array toevoegen om 'm groter te maken (grow). Dit kan nog steeds niet met ZFS zover ik weet.
Plaats de .iso op de USB stick, maar dan kun je er verder niets mee. Daarom vroeg ik wat je met de USB-stick wilde doen. Ik had je ook een DM gestuurd.duiveltje666 schreef op zondag 08 december 2013 @ 02:38:
nee , wil de livecd iso op usb "branden" , maar dan wel zodanig dat het op mn usb stick past
Bij ZFS kijk je even wat optimaal is en daar kun je het beste je configuratie op baseren. 10 disks in RAID-Z2 is min of meer de best mogelijke configuratie: goede redundancy tegen slechts 20% overhead. Bovendien is dit een configuratie die optimaal is voor 4K sector disks.Q schreef op zondag 08 december 2013 @ 10:54:
Mijn storage server zit vol en nu moest ik maar eens een nieuwe kopen.
Met mijn vorige server kocht ik gewoon even veel disks als in het chassis paste. Maar Als ik dat nu zou doen met een 24 bay chassis en 4 TB disks, dan wordt dat wel prijzig. Als ik met 12x4TB zou starten, zou ik al een heel eind komen.
En met reden. Het heralloceren van stripe blocks is een erg risicovolle operatie. Als tijdens het 'omspitten' van de data zich problemen voordoen zoals bad sectors en/of een crash/reset, dan is het maar de vraag of je data nog te recoveren is. ZFS expansion maakt dingen mogelijk die met traditioneel RAID niet mogelijk zijn, maar dan wel op een veilige manier. Bovendien binnen 1 seconde klaar. Het heeft voor thuisgebruikers inderdaad het nadeel dat je niet elke keer een schijfje bij kunt plaatsen. Het voordeel is dat dergelijke risicovolle operaties ook niet meer voor problemen kunnen zorgen. Alleen maar veilige expansion, of geen expansion.Met Linux MDADM kun je een disk aan je array toevoegen om 'm groter te maken (grow). Dit kan nog steeds niet met ZFS zover ik weet.
Dat gaat inderdaad werken. Je moet alleen weten dat je ZFS hiermee anaal neemt. Je verkracht op die manier de veiligheid van ZFS door de datastore op een onveilige legacy-RAID driver te draaien. Dé reden om ZFS te draaien is mijns inziens niet eens de checksums, maar een veilige betrouwbare RAID-laag die niet zomaar op zijn bek gaat. RAID-Z heeft geen write-hole, doet atomic writes (one-phase writes, dus ongeveer zoals RAID3) en heeft ook betere random write performance dan RAID5.Daarom bedacht ik dit: ik maak een RAID6 aan met MDADM en doe daar overheen ZFS. De enige reden voor mij om ZFS te kiezen is checksums: data integriteit.
Aangezien ZFS wel moet kunnen groeien (lijkt me) zou dit moeten werken, toch?
Even niets...
Verwijderd
Zowel RAID5 als RAIDZ 'died' in 2009. Het is dus niet verstandig om deze meer te gebruiken begrijp ik.RAIDZ1: ZFS software solution that is equivalent to RAID5. Its advantage over RAID 5 is that it avoids the write-hole and does not require any special hardware, meaning it can be used on commodity disks. If your FreeNAS® system will be used for steady writes, RAIDZ is a poor choice due to the slow write speed. CAUTION: RAIDZ1 "died" back in 2009 and should not be used if reliability of your data is important. Read Why RAID5 stopped working in 2009 for more information. Generally speaking, if you are using a RAIDZ1 pool and you have a single disk failure you can expect to be forced to destroy, recreate, and restore the pool from backup.
Los van hoe groot de risico's van legacy (software) RAID nu werkelijk zijn: het kost me 2 disks: 300 euro. Als ik een storage monster 2.0 overweeg met 24 x 4 TB hou ik met twee vdevs RAIDZ2 alsnog netto 80 TB over. Dus waar praat ik over?Dat gaat inderdaad werken. Je moet alleen weten dat je ZFS hiermee anaal neemt. Je verkracht op die manier de veiligheid van ZFS door de datastore op een onveilige legacy-RAID driver te draaien. Dé reden om ZFS te draaien is mijns inziens niet eens de checksums, maar een veilige betrouwbare RAID-laag die niet zomaar op zijn bek gaat. RAID-Z heeft geen write-hole, doet atomic writes (one-phase writes, dus ongeveer zoals RAID3) en heeft ook betere random write performance dan RAID5.
Dus je moet er rekening mee houden dat via deze route je een dag ziet:
FAULTED (corrupt metadata)
Hetzelfde geldt overigens als je ZFS (en RAID-Z) gebruikt op een hardware RAID volume. Dat zijn zowat de enige situaties waarin je ZFS kapot krijgt.
Het is inderdaad een ESXi melding:FireDrunk schreef op zondag 08 december 2013 @ 15:51:
Is het een melding van BSD of van ESXi? Want als je via VT-d werkt word al het geheugen keihard gealloceerd (dat moet voor VT-d). Het kan dus zijn dat je even bij de eigenschappen van de VM de reserveringen ook moet aanpassen. (Je kan niet 8GB geven en 6GB reserveren EN VT-d gebruiken...)
1
2
3
4
| Failed to start the virtual machine. Module MemSched power on failed. An error occured while parsing schduler-specific configuration parameters. Invalid memory setting: memory reservation (sched.mem.min) should be equal to memsize(8192). |
[ Voor 4% gewijzigd door Mystic Spirit op 08-12-2013 18:37 ]
Heel veel uitspraken van FreeNAS (inclusief die 'administrator' cyberjock) zijn discutabel op zijn best tot ronduit incorrect. Neem deze dus met een (behoorlijke) korrel zout.Verwijderd schreef op zondag 08 december 2013 @ 17:46:
Onderstaande passage kwam ik tegen toen ik de FreeNas documentatie aan het doorspitten was:
Zowel RAID5 als RAIDZ 'died' in 2009. Het is dus niet verstandig om deze meer te gebruiken begrijp ik.
RAID-Z is ook niet superieur aan een mirror; juist andersom. Maar een mirror heeft 50% overhead en beperkte (sequential) schrijfsnelheden. Daar doet RAID-Z het weer beter.Mocht het laatste geval de reden zijn, dan heeft RaidZ1 dus helemaal geen toegevoegde waarde t.o.v. Raid1 meer, klopt dat?
Lijkt mij een prima plan.Ik wil graag een NAS gaan inrichten en dacht er aan om dan 3 harde schijven te kopen en in RAIDZ1 te gebruiken. Dan heb ik 3*3TB - 1*3TB = 6TB aan opslagcapaciteit en geen data verlies bij een diskcrash veronderstelde ik.
Op de totale kosten van een 80TB monster is dat denk ik niet heel significant.Q schreef op zondag 08 december 2013 @ 18:15:
Los van hoe groot de risico's van legacy (software) RAID nu werkelijk zijn: het kost me 2 disks: 300 euro.
Ik weet niet wat je precies bedoelt hiermee. twee vdevs van 12 x 4TB is echter geen optimale configuratie voor 4K schijven. Ofwel je gaat optimaliseren met ashift=12 wat ook weer minder bruikbare opslag geeft door 'slack' oftewel verloren ruimte, of je houdt het lekker ashift=9 maar dan heb je brakke performance.Als ik een storage monster 2.0 overweeg met 24 x 4 TB hou ik met twee vdevs RAIDZ2 alsnog netto 80 TB over. Dus waar praat ik over?
Nog beter is een ZFS implementatie op het BSD platform, maar ZFS-on-Linux kun je zeker ook overwegen als je Linux fijner vindt werken.Ik voel inderdaad eigenlijk meer voor een native ZFS-on-Linux oplossing, dat is netter.
Je kunt zoveel disks in een vdev stoppen als je wilt. Maar je moet weten dat 100 disks in RAID-Z nooit hogere IOps performance heeft dan een enkele disk. Ook bij massaopslag zul je seeks krijgen dus het kan snel zijn dat je nauwelijks goede sequentiële snelheden haalt omdat je disks moeten seeken. Bovendien is het zo dat de langzaamste schakel alles bepaalt. De laatste disk over de streep is alsof alle disks met die snelheid gingen. Dit komt omdat bij RAID-Z alle disks bij een enkele I/O worden betrokken. Dit wijkt af van RAID5 die wel kan schalen met random reads. Bij RAID-Z geldt dat niet zo. Om die reden is RAID-Z meer verwant met RAID3 dan met RAID5. Staat tegenover dat RAID-Z betere random write kent dan RAID5. En veiliger vanwege atomicity.Zou ZFS erg over de zeik gaan als je gewoon 24 disks in 1 RAIDz2 vdev gooit? Of kost dat alleen wat performance (maakt me niets uit, random performance al helemaal niet)?
[ Voor 18% gewijzigd door Q op 08-12-2013 19:48 ]
Even niets...
[ Voor 7% gewijzigd door Q op 08-12-2013 19:52 ]
Even niets...
Even niets...
Ik heb momenteel ook een niet optimale pool van 5 data disks en 2 parity. Ik kan je melden dat er niet echt een vuistregel is. Het is afhankelijk van verschillende factoren, maar bij mij is het verlies momenteel ongeveer 7 a 8%.Q schreef op zondag 08 december 2013 @ 20:12:
Wat is de vuistregel / berekening? Ik kon het zo snel niet vinden met google. Kost me dit 1% of 10%?
[ Voor 15% gewijzigd door Mystic Spirit op 08-12-2013 20:26 ]
[ Voor 97% gewijzigd door Q op 08-12-2013 20:48 ]
Heb je daar ook je energieprijs in zitten, en eventuele uitbreidingen?Mystic Spirit schreef op zondag 08 december 2013 @ 20:33:
Het hangt er een beetje vanaf hoe je er naar kijkt. Als je onvoldoende ruimte hebt voor een optimale config en je wil wel de storage hebben is 10% misschien acceptabel. Ik heb ook doorgerekend dat een niet optimale config met 3TB harddrives momenteel goedkoper is dan een optimale met 4TB drives met dezelfde capaciteit. Dus ook of het verlies acceptabel is is weer afhankelijk van je situatie.
Ja, als ik me goed herinner was daar wat discussie over enige dagen geleden. ZoL zou pas een herstel doen tijdens een scrub, en BSD weten we eigenlijk niet.Verwijderd schreef op zondag 08 december 2013 @ 18:58:
Bij ZFS is het heel anders omdat ZFS geen disks uit de array gooit en corruptie direct herstelt.
[ Voor 42% gewijzigd door Durandal op 08-12-2013 20:43 ]
Ik weet niet precies hoe Mystic rekent maar behalve slack zit er natuurlijk ook ruimte in voor metadata. Dus qua percentage moet je met niet-optimale configuraties eerder denken aan 2 - 4%. Nog steeds veel.Q schreef op zondag 08 december 2013 @ 20:27:
Dan zou je al een paar TB verliezen op 40 TB, dat is wel zonde.
Ik snap best je punt. Je verlaat je comfortzone waarbij dingen werken zoals je in je hoofd hebt. Maar ZFS kent wel beperkingen, maar ook veel vrijheden die je vaak pas ontdekt nadat je bent geswitched. Zeker voor iemand van jouw statuur zou ik ZFS zeker een kans geven.Hoe meer ik snap van ZFS, hoe meer ik de neiging voel om gewoon ZFS anaal te nemen en alles op MDADM te gooien (..)
Ik denk ergens: fuck it, de data is niet dermate belangrijk dat als er een paar bitjes flippen er 100 mensen zonder baan zitten.
Nou daar mag je blij mee zijn dan. Maar jij snapt natuurlijk net als ik dat in het verleden behaalde resultaten geen garantie voor doe toekomst zijn. Ga je zoveel disks - high density 4TB disks dus met hoge uBER - dan is de mogelijkheid tot bad sectors zeker aanwezig. Een rebuild gaat dan ook klerelang duren, en als er tijdens de rebuild meerdere bad sectors op meerdere disks komen, zit je met md-raid toch flink in de shit dacht ik zo. Die kans is in elk geval significant genoeg om er rekening mee te houden; het is natuurlijk niet allemaal onzin dat uBER en checksums enzo.Met MDADM flikker ik gewoon een ouderwetse RAID6 neer met XFS en klaar is Q. Fuck checksums, fuck RAID write hole, het systeem hangt toch wel aan een vette UPS. Dat is wat ik nu heb en dat draait al 4.5 jaar prima met ongevraagde aso-vette en rock-stable performance.
Geen uitbreidingen, want die kun je pas weer berekenen als je gaat uitbreiden met de prijzen die dan gelden.Durandal schreef op zondag 08 december 2013 @ 20:42:
[...]
Heb je daar ook je energieprijs in zitten, en eventuele uitbreidingen?
KNIP
De metadata zit inderdaad ook in mijn percentage. Ik weet niet hoeveel ik voor metadata moet rekenen. Is er een commando dat laat zien hoeveel ruimte op gaat aan metadata? Dan wil ik het wel specifieker berekenen.Verwijderd schreef op zondag 08 december 2013 @ 20:57:
[...]
Ik weet niet precies hoe Mystic rekent maar behalve slack zit er natuurlijk ook ruimte in voor metadata. Dus qua percentage moet je met niet-optimale configuraties eerder denken aan 2 - 4%. Nog steeds veel.
Daarom dat ik de 20 disks in 2x RAID-Z2 of 22 disks in 2x RAID-Z3 wel zo cool vind. Met twee SSDs.
KNIP
[ Voor 3% gewijzigd door Mystic Spirit op 08-12-2013 21:13 ]
Als ik 3 x 8 disk RAIDZ2 doe dan benut ik de 24 drive slots efficient (OS gaat op Mobo controller in RAID1 ergens in het chassis) maar dan verlies ik wel 6 disks aan parity.Verwijderd schreef op zondag 08 december 2013 @ 20:57:
Ik weet niet precies hoe Mystic rekent maar behalve slack zit er natuurlijk ook ruimte in voor metadata. Dus qua percentage moet je met niet-optimale configuraties eerder denken aan 2 - 4%. Nog steeds veel.
Daarom dat ik de 20 disks in 2x RAID-Z2 of 22 disks in 2x RAID-Z3 wel zo cool vind. Met twee SSDs.
Dat is een beetje onder de gordel, maar ach ik was ook anaal aan het ranten.Ik snap best je punt. Je verlaat je comfortzone waarbij dingen werken zoals je in je hoofd hebt. Maar ZFS kent wel beperkingen, maar ook veel vrijheden die je vaak pas ontdekt nadat je bent geswitched. Zeker voor iemand van jouw statuur zou ik ZFS zeker een kans geven.
Dat is een risico waar ik mij zeer terdege van bewust ben. Een rebuild met mijn huidige 1 TB disks duurt 5 uur. Met 4 TB disks zou dat bij gelijke performance dus 20 uur duren.Nou daar mag je blij mee zijn dan. Maar jij snapt natuurlijk net als ik dat in het verleden behaalde resultaten geen garantie voor doe toekomst zijn. Ga je zoveel disks - high density 4TB disks dus met hoge uBER - dan is de mogelijkheid tot bad sectors zeker aanwezig. Een rebuild gaat dan ook klerelang duren, en als er tijdens de rebuild meerdere bad sectors op meerdere disks komen, zit je met md-raid toch flink in de shit dacht ik zo. Die kans is in elk geval significant genoeg om er rekening mee te houden; het is natuurlijk niet allemaal onzin dat uBER en checksums enzo.
Wat ik met name inlever is verlies van netto opslag, maar dat is ook weer niet zo erg. Ik ga er nog even over nadenken.Dus de vraag is, wat lever je nu precies in? Dat je nieuwe build niet zoveel netto opslag heeft als je wilde? Dat is dan alles? Daar staat dan tegenover dat de ZFS route je andere voordelen geeft (snelle rebuilds, betrouwbare werking, checksums, krachtige snapshots, resistent tegen bad sectors en onderhoudsvrij - ZFS repareert zichzelf. Naast alle features enzo zijn dit best leuke eigenschappen die je niet zomaar overboord zou moeten gooien denk ik zelf.
En last but not least: van het Q continuum verwacht ik natuurlijk wel dat ze daar ook ZFS draaien.
[ Voor 5% gewijzigd door Q op 08-12-2013 21:43 ]
Optimale configuratie is altijd n^2 disks, exclusief redundante disks (en spares).Q schreef op zondag 08 december 2013 @ 21:37:
[...]
Maar is 8 disk RAIDZ2 optimaal? Ik zie door de bomen het bos niet meer.
[ Voor 7% gewijzigd door Durandal op 08-12-2013 21:49 ]
Mwa je mag je frustraties bij de overstap naar ZFS best uiten hoor. En ik kan dat ook redelijk begrijpen denk ik. Je komt uit een andere wereld waarin bepaalde zaken vanzelfsprekend zijn. Nu is dat allemaal anders. De truc is om niet alleen naar de beperkingen te kijken versus wat je nu hebt, maar ook naar de voordelen en vrijheden die je krijgt. Zaken die je niet automatisch als vanzelfsprekend acht.Q schreef op zondag 08 december 2013 @ 21:37:
Dat is een beetje onder de gordel, maar ach ik was ook anaal aan het ranten.
Waarschijnlijk doel je op de 1x4 als derde vdev met 4 disks. Je denkt daarbij dat de snelheid omlaag gaat omdat er striping plaatsvindt met de grotere en snellere vdevs met elk 10 disks, correct? Dat klopt inderdaad voor 'ouderwets' RAID. Maar ZFS doet aan intelligente 'striping': snellere vdevs krijgen simpelweg meer data te verwerken. Gevolg is ook dat deze eerder vol kunnen raken, maar zeker voor hardeschijven is het logisch dat snellere vdevs over het algemeen ook hogere capaciteit hebben dan langzamere vdevs.2x10 en 1x4 disk wel maar dan krijg je belabberde performance.
Het is natuurlijk waar dat ZFS uit de koker komt van de enterprise-markt. Die willen uptime en geen gezeik. Vandaar dat het niet kunnen uitbreiden van RAID-Z niet zo'n groot issue is. Enterprise-gebruikers hebben daar over het algemeen niet zo'n behoefte aan. Ten eerste omdat het niet zonder risico is, en ten tweede dat de performance tijdens de operatie - als dat al online kan - enorm beroerd is dat de server effectief 'down' is. Dat laatste is voor thuisgebruikers niet zo'n probleem, het eerste wel. Juist thuisgebruikers die goedkope disks gebruiken hebben vaker last van het eerste probleem; enterprise-disks hebben immers specced factor 100x minder last van uBER 'bad sectors'.Het probleem is dat ZFS een file system is dat bedoeld is voor zakelijk / professioneel gebruik en het houdt geen rekening met behoeften van zieke thuisgebruikers zoals ik.
Wat precies niet? Dat er optimale configuraties zijn of dat je een RAID-Z niet kan uitbreiden of dat er ruimteverlies op kan treden bij bepaalde niet-optimale configuraties?Ik respecteer ZFS enorm maar je moet echt goed weten wat je aan het doen bent en alhoewel ik me een klein beetje had ingelezen had ik dit niet geheel verwacht.
Dan zou ik inderdaad nog maar eens afvragen of je wel evenveel vertrouwen zou hebben in een nieuwe 4TB md-raid build als je huidige 1TB build.Dat is een risico waar ik mij zeer terdege van bewust ben. Een rebuild met mijn huidige 1 TB disks duurt 5 uur. Met 4 TB disks zou dat bij gelijke performance dus 20 uur duren.
The persistent shall convert even the most devout ones.Wat ik met name inlever is verlies van netto opslag, maar dat is ook weer niet zo erg. Ik ga er nog even over nadenken.
[ Voor 23% gewijzigd door Verwijderd op 08-12-2013 23:42 ]
Yups.Een mooi voorbeeld is deze uitspraak van je:
Waarschijnlijk doel je op de 1x4 als derde vdev met 4 disks. Je denkt daarbij dat de snelheid omlaag gaat omdat er striping plaatsvindt met de grotere en snellere vdevs met elk 10 disks, correct?
Dat is nuttig om te weten, ook al zal ik waarschijnlijk geen 2x10 + 1x4 draaien.Dat klopt inderdaad voor 'ouderwets' RAID. Maar ZFS doet aan intelligente 'striping': snellere vdevs krijgen simpelweg meer data te verwerken. Gevolg is ook dat deze eerder vol kunnen raken, maar zeker voor hardeschijven is het logisch dat snellere vdevs over het algemeen ook hogere capaciteit hebben dan langzamere vdevs.
Kortom, hier een 'gratis' voordeel van ZFS dat een dergelijke configuratie qua performance niet veel zal schaden, de extra vdev kan in principe alleen maar snelheid toevoegen. Voor wat betreft de veiligheid geldt wel dat een extra vdev ook een extra point of failure is. Als die vdev er niet is, dan is je hele pool ontoegankelijk. Daarom is RAID-Z2 wel zo lekker. Bovendien bescherm je met RAID-Z2 ook tegen bad sectors in een situatie waarbij één disk er niet is. Met twee disks missende kunnen bad sectors gaten in je data schieten. Maar als dat zo is kun je zien om welke files dat gaat en die worden ook niet geleverd aan applicaties; end-to-end data security.
Ik ga zeker consumenten disks inzetten en daarom was ik überhaupt al geïnteresseerd in ZFS.Het is natuurlijk waar dat ZFS uit de koker komt van de enterprise-markt. Die willen uptime en geen gezeik. Vandaar dat het niet kunnen uitbreiden van RAID-Z niet zo'n groot issue is. Enterprise-gebruikers hebben daar over het algemeen niet zo'n behoefte aan. Ten eerste omdat het niet zonder risico is, en ten tweede dat de performance tijdens de operatie - als dat al online kan - enorm beroerd is dat de server effectief 'down' is. Dat laatste is voor thuisgebruikers niet zo'n probleem, het eerste wel. Juist thuisgebruikers die goedkope disks gebruiken hebben vaker last van het eerste probleem; enterprise-disks hebben immers specced factor 100x minder last van uBER 'bad sectors'.
- optimale configuratiesWat precies niet? Dat er optimale configuraties zijn of dat je een RAID-Z niet kan uitbreiden of dat er ruimteverlies op kan treden bij bepaalde niet-optimale configuraties?
Van die 20 uur rebuild time an sich met RAID6 wordt ik niet zo bang.Dan zou ik inderdaad nog maar eens afvragen of je wel evenveel vertrouwen zou hebben in een nieuwe 4TB md-raid build als je huidige 1TB build.
Dat is mogelijk wat ik ergens voorbij heb zien komen. Interessant. Maar dat gaat nog wel even duren.Verwijderd schreef op zondag 08 december 2013 @ 23:39:
Qua performance heb ik in elk geval een nieuwtje. In de toekomst kan dat iets beter gaan met minder bursty performance: http://open-zfs.org/wiki/Features#Smoother_Write_Throttle
12 disks met een 4k sector groote is dus behoorlijk storage verlies, maar ik zie geen absolute waarden c.q. percentages. Echter als ik 512b sector grootte zou afdwingen - met performance verlies tot gevolg - dan zou het verlies veel minder erg zijn: dus is er dan niet zoveel aan de hand. Als ik dan max 300 MB/s uit mijn array weet te slaan, so be it.En als je persé 24 disks wilt, hier kun je zien wat dat kost qua ruimte:
[afbeelding]
Let op: de x-as is voor het aantal data disks, dus exclusief pariteit. 8 betekent dus een 10-disk RAID-Z2 bijvoorbeeld. Edit: en merk ook op dat dit vrij worst case is waarbij kleine I/O gemirrored wordt weggeschreven zodra je heel veel disks hebt. Dat gaat je dan veel opslag kosten. Alleen maar grote bestanden opslaan kent wellicht minder opslagverlies al durf ik dat niet met stelligheid te zeggen.
[ Voor 8% gewijzigd door Q op 08-12-2013 23:48 ]
Ach. Weetje, op dit moment heb ik dus een VM gemaakt in Debian Wheezy met ZFS-on-linux en een 12-disk raidz2 vdev+pool gemaakt. Die ben ik nu aan het vullen met data om te kijken wat er nu echt gebeurt.Well I ran some tests using some different files and my numbers weren't anywhere near this bad. So either I'm no good at math or the seeming logical approach omniscence went over in that thread isn't exactly what's happening. Using 20 1g files I created a bunch of pools of differing sizes with both ashift of 9 and of 12 (using hacked binary). Here were the results per total data disk count with ashift of 12:
1 98%
2 100%
3 97%
4 100%
5 96%
6 98%
7 96%
8 100%
9 99%
10 98%
11 97%
12 96%
13 96%
14 95%
15 95%
16 100%
17 100%
18 99%
19 99%
Oddly enough if I just striped and didn't use at least raidz1, there was no loss at all (I think it makes each one it's own vdev in that case). The worse case here is only 95% but I was expecting to see something closer to 71% in the 15 drive setup.
In summary, please ignore the thread as I obviously have no idea what's actually going on here
[ Voor 8% gewijzigd door Q op 08-12-2013 23:52 ]
Kijk dat zijn échte mannen! Niet lullen maar gewoon meten!Ach. Weetje, op dit moment heb ik dus een VM gemaakt in Debian Wheezy met ZFS-on-linux en een 12-disk raidz2 vdev+pool gemaakt. Die ben ik nu aan het vullen met data om te kijken wat er nu echt gebeurt.
[ Voor 28% gewijzigd door Verwijderd op 09-12-2013 00:08 ]
Dat lijkt mij al prima, maar hoe kan ik zelf die 'slackspace' goed zichtbaar maken?root@debian:~# du -sh /STORAGE/
98G /STORAGE/
[ Voor 43% gewijzigd door Q op 09-12-2013 00:29 ]
Iedereen gebruikt gewoon du -sh maar ik gebruik meestal du -Ash. Die hoofdletter A is de apparent size dus de echte size van de file, niet hoeveel het kost om het bestand op te slaan. Zonder de -h kun je nauwkeuriger getal krijgen en dat met en zonder -A vergelijken.Dat lijkt mij al prima, maar hoe kan ik zelf die 'slackspace' goed zichtbaar maken?
Het lijkt mij dat DU de echte size rapporteert van de data en niet inclusief lost space, voor zover daar spraken van is.
Op mijn MDADM RAID6 met XFS NAS zie ik op 16 TB data 10 GB verschil.root@debian:~# du -s --apparent-size /STORAGE/
100701014 /STORAGE/
root@debian:~# du -s /STORAGE/
101721599 /STORAGE/
Dit is de data terug gekopieerd van ZFS naar XFS.Bunny:/storage# du -sm /storage/tmp/
98378 /storage/tmp/
Bunny:/storage# du -sm --apparent-size /storage/tmp/
98345 /storage/tmp/
ZFS geeft dus ~1% overhead in deze situatie. Als ik de theorie goed begrijp zou dit volgens mijn spreadsheet ongeveer 2% moeten zijn (worst-case).root@debian:~# du -sm /STORAGE/
99338 /STORAGE/
root@debian:~# du -sm --apparent-size /STORAGE/
98341 /STORAGE/
[ Voor 97% gewijzigd door Q op 09-12-2013 02:32 ]
Even niets...
Even niets...
Even niets...
Even niets...
[ Voor 20% gewijzigd door Q op 09-12-2013 14:57 ]
Verwijderd
Bedankt voor de duidelijke 'beknopte' uitleg. Het was zeer verhelderend. Hier hou ik een goed gevoel aan over!Verwijderd schreef op zondag 08 december 2013 @ 18:58:
Heel veel uitspraken van FreeNAS (inclusief die 'administrator' cyberjock) zijn discutabel op zijn best tot ronduit incorrect. Neem deze dus met een (behoorlijke) korrel zout.
Het artikel van Robin Harris dat RAID5 niet meer geschikt is in 2009 ken ik, daar link ik regelmatig naar. Maar de conclusies daarvan zijn zeker niet zomaar van toepassing op ZFS. Het maakt nogal verschil of je hooguit één bestand mist (en je kunt zien precies welk bestand dat is) of dat je je hele array en dus alle data kwijt bent. Nogal een verschil.
Hoe zit het nou? Ik heb geen zin in een turbolang verhaal, dus de korte versie:
Legacy RAID5 gaat erg binair om met disks. Een disk met een onleesbare sector wordt vaak uit de array getrapt. Stel je hebt een RAID5 die al een jaar prima werkt. Nu gaat er een schijf dood; oeps! Je koopt snel een nieuwe en de rebuild start je al heel snel. Maar nu - tijdens de rebuild - heeft tenminste één van de resterende member disks een read error. Dergelijke read errors duiden we aan met uBER; zeg maar bad sectors zonder fysieke schade. Nadat deze worden overschreven worden ze NIET omgewisseld met reserve sectoren maar worden ze gewoon weer in gebruik genomen. Ongeveer 90% van alle bad sectors bij moderne consumentenschijven is van dit type. Vroeger was dit nog maar iets van 5%, daarom is het 'Why RAID5 stops working in 2009' omdat 2009 grofweg het niveau is waarop het uBER ontoelaatbaar hoog is geworden. In de praktijk vanaf 666GB platters dat je grote problemen krijgt.
Dus kort gezegd, je hele RAID5 kan corrupt/defect/ontoegankelijk raken door één gefaalde disk en één klein bad sectortje. Dit geldt niet voor alle RAID5 engines, maar diegenen die niet tegen bad sectors en/of timeouts kunnen. De overgrote meerderheid dus van alle RAID-implementaties. Alleen LSI/3ware enzovoorts heb ik nog wat vertrouwen in dat zij het intelligenter doen.
Bij ZFS is het heel anders omdat ZFS geen disks uit de array gooit en corruptie direct herstelt. In het geval je een disk mist met RAID-Z en dus geen redundancy meer hebt, is er nog steeds niets aan de hand. Heb je dan read errors dan kunnen die ofwel ZFS metadata treffen of user data. ZFS zelf heeft nog extra ditto blocks (copies=2) voor metadata, dus ook op een RAID0 met bad sectors is ZFS nog beschermd. Alleen je data loopt dan risico. Bad sectors kunnen dan bestanden ontoegankelijk maken. Je krijgt dan een read error als je ze probeert te lezen, en de bestandsnamen worden in zpool status -v weergegeven. Zodra je schijf de data toch weer kan inlezen (recovery) worden de bestanden weer toegankelijk.
Hoe ZFS reageert en hoe legacy RAID5 reageert is toch een wereld van verschil. Dus kortom, dat verhaal van FreeNAS is een broodje aap, zoals wel meer onzin die op dat forum wordt uitgekermd.
Eventueel zou je dan dus nog naar RAID-Z2 kunnen upgraden om het risico zoals geschetst in het 2009 artikel te minimaliseren.RAID-Z is ook niet superieur aan een mirror; juist andersom. Maar een mirror heeft 50% overhead en beperkte (sequential) schrijfsnelheden. Daar doet RAID-Z het weer beter.
Thnx.Lijkt mij een prima plan.
Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9
duiveltje666 schreef op zondag 08 december 2013 @ 02:38:
nee , wil de livecd iso op usb "branden" , maar dan wel zodanig dat het op mn usb stick past
Verwijderd schreef op zondag 08 december 2013 @ 12:05:
Plaats de .iso op de USB stick, maar dan kun je er verder niets mee. Daarom vroeg ik wat je met de USB-stick wilde doen. Ik had je ook een DM gestuurd.
Op de boot pool (/tank/zfsguru/download) als je Root-on-ZFS draait of in /tmp wat je RAM geheugen betreft. Je dient minimaal 2GB toe te wijzen aan de LiveCD - na installatie geldt die beperking niet. Ga je ook dingen downloaden, dan heb je wellicht meer dan 2GB RAM nodig.duiveltje666 schreef op maandag 09 december 2013 @ 21:39:
Er is wat foutgegaan tijdens het downloaden van een system-image via mn livecd op de usb stick .. waar slaat zfsguru die image op?
Dat is niet hoe ik het begrijp, voor zover ik er nog iets van snap.FireDrunk schreef op maandag 09 december 2013 @ 09:50:
Volgens mij word de resterende lege ruimte ge-pad (0 ingevuld.). Maar zeker weten doe ik het niet.
Dus per file verlies je maximal 124KB bij een 128KB recordsize (als er 4KB overblijft om in een nieuwe record te stoppen).
Nogmaals: Zeker weten doe ik het niet, puur speculatie.
1
2
3
4
5
6
7
8
9
| cp: cannot create directory `./STORAGE/1 - Audio': No space left on device cp: cannot create directory `./STORAGE/1*': No space left on device ^C [1]+ Exit 1 cp -R /mnt/tmp/* . root@debian:/STORAGE# du -sm /STORAGE/ 91364 /STORAGE/ root@debian:/STORAGE# du -sm --apparent-size /STORAGE/ 90165 /STORAGE/ root@debian:/STORAGE# |
1
2
3
4
| Bunny:/storage# du -sm /storage/tmp/ 98378 /storage/tmp/ Bunny:/storage# du -sm --apparent-size /storage/tmp/ 98345 /storage/tmp/ |
[ Voor 28% gewijzigd door Q op 10-12-2013 01:21 ]
Even niets...
[ Voor 30% gewijzigd door BCC op 10-12-2013 19:11 ]
Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.
Even niets...
Vanwege de hardware virtualisatie die ook op de zfs bak komt te draaienFireDrunk schreef op dinsdag 10 december 2013 @ 19:13:
Waarom wil je persé Q77?
Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.
Het is al een tijdje niet meer zo dat VT-d of VT-i alleen nog maar op Q chipsets werkt. Als het je daarom te doen is kun je volgens mij tegenwoordig praktisch elk willekeurig bord pakken. Alle fabrikanten passen hun BIOS er op aan dat dit gewoon werkt.BCC schreef op dinsdag 10 december 2013 @ 19:57:
[...]
Vanwege de hardware virtualisatie die ook op de zfs bak komt te draaien
Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.
Ik zou dat supermicro bordje doen met ECC geheugen (wenselijk), niet veel duurder en wel mooi bordje met onboard KVM. Ik denk dat ik dat bordje ook in dat chassis hieronder ga stoppen.BCC schreef op dinsdag 10 december 2013 @ 20:56:
Eeh helpdan wordt het nog ingewikkelder
wat kan ik dan het beste bestellen
?
[ Voor 41% gewijzigd door Q op 10-12-2013 20:59 ]
Holy shitQ schreef op dinsdag 10 december 2013 @ 20:57:
[...]
Ik zou dat supermicro bordje doen met ECC geheugen (wenselijk), niet veel duurder en wel mooi bordje met onboard KVM. Ik denk dat ik dat bordje ook in dat chassis hieronder ga stoppen.
Case is binnen![]()
[afbeelding]
https://ri-vier.eu/rivier...-p-285.html?cPath=1_3_7]]
Met SGPIO wat ondersteund wordt door de ServeRAID M1015 kaartjes die ik wil gaan gebruiken.
[ Voor 21% gewijzigd door HyperBart op 10-12-2013 21:47 ]
[ Voor 12% gewijzigd door Q op 10-12-2013 22:17 ]
Ok, thanksQ schreef op dinsdag 10 december 2013 @ 22:12:
Bedankt, de kast ziet er netjes en redelijk degelijk uit - voor het geld. Je krijgt geen beul van een chassis als zo'n Supermicro van 1000 euro, maar het is een heel stuk beter dan de oude Norco RPC-4020 met zijn brakke airflow voor vrijwel het zelfde geld.
Bij die 12 bay vind ik die aan uit knopjes er zo cheap uit zien, het USB poortje ziet er ook niet echt "stevig" uit, beetje brak precies, LIJKT zo heDe foto's van het chasis op de ri-vier site zijn een stuk beter dan wat ik zelf heb gemaakt en geven meer detail prijs. Wat je daar ziet is conform werkelijkheid. Ik vind het er netjes uitzien. Ik heb de fans nog niet aan gehad. Ik heb alleen maar de kast binnen.
Daarom was ik eigenlijk van plan om voor dat bakje te gaan. Ik vraag me alleen af wat ze met SAS bedoelen ipv die SFF typenummer die ze daar bij zetten of ik gewoon aan de slag kan met die case + M1015 en onboard SATA aansluitingen en 2 x een kabeltje van SAS naar 4xSATA.Ik ben redelijk positief tot nu toe.
Het 12-bay chassis lijkt precies op die van mij, qua design en ik denk dat het niet heel veel uitmaakt qua kwaliteit, maar je betaalt fors minder, scherpe prijs.
Tja... helaas zie ik meer van dergelijk designfoutjes.Q schreef op dinsdag 10 december 2013 @ 22:30:
[...] en bij mij zit hij achter de greep, da's niet zo handig, maar ik ga die poort nooit gebruiken.
Ik heb het idee dat port mulitpliers niet echt goed ondersteund worden, ik lees er in ieder geval alleen maar ellende over. Je kunt beter op zoek gaan naar een chassis met een SAS expander, die kun je in principe aan elke SAS HBA koppelen. Je koppelt dan gewoon de 4 of 8 kanalen van je SAS HBA aan je multiplier en daar kunnen dan tig schijven aan gekoppeld worden. Op die manier heb je ook nog een aardige hoeveelheid bandbreedtte. Nadeel van een SAS expander is weer dat SATA schijven aan SAS expanders voor sommige mensen weer problemen geven, dus wellicht is het verstandig om voor NL-SAS schijven te kiezen.timberleek schreef op woensdag 11 december 2013 @ 14:05:
weten jullie een interessante sata/sas controller voor veel schijven? Of een andere manier
Ik ben met een paar mensen aan het kijken naar een grote opslagserver (denk ordegrootte 50 schijven, 100TB), maar met m1015 kaarten heb je er al een kaart of 8 nodig.
We hebben ook al even gekeken naar port multipliers zoals ze hier gebruiken:
http://blog.backblaze.com...uild-cheap-cloud-storage/
Dat ziet er wel interessant uit, maar die multipliers hebben nog wel invloed op de snelheid waarschijnlijk.
Even niets...
Juist. Daarom kun je dus beter voor een oplossing met SAS Expanders gaanFireDrunk schreef op woensdag 11 december 2013 @ 14:30:
Voor ZFS is dit eigenlijk je enige snelle optie:
http://www.lsi.com/produc...ges/lsi-sas-9201-16i.aspx
Voor 48-64 disks heb je er dan 3-4 nodig. Dat is met een recent Dual Socket 2011 moederbord geen probleem.
Waarom niet voor de volgende case gaan ?HyperBart schreef op dinsdag 10 december 2013 @ 21:45:
[...]
Ik was eventueel aan het spelen met het idee om voor deze kast te gaan:
https://ri-vier.eu/rivier...6a-p-323.html?cPath=1_3_5
Maar die "ziet" er niet zo solide uit als die van jou. Kan je je RI-VIER eens reviewen en wat foto's alvast online gooien? Zou heel fijn zijn. Ik hoop dat de kwaliteit van jouw case even goed is terug te vinden in mijn editie.
Even niets...
Even niets...
Moet je er wel SAS-schijven aan knopen. Dat kan nog wel eens duurder zijn (per GB) dan losse controllers.Bigs schreef op woensdag 11 december 2013 @ 14:35:
[...]
Juist. Daarom kun je dus beter voor een oplossing met SAS Expanders gaan
Die van RI-VIER hebben van die 2U voedingen, ook niet goedkoop/makkelijk aan te geraken.FireDrunk schreef op woensdag 11 december 2013 @ 15:08:
Mja, inderdaad mooi kastjeWel jammer van die vage voedingen.. Liever ATX
Valt de geluidsproductie wat mee?Farg0 schreef op woensdag 11 december 2013 @ 14:56:
[...]
Waarom niet voor de volgende case gaan ?
http://www.ebay.de/itm/Su...ageName=ADME:L:OU:BE:3160
Prima cases voor 160 euro (+ 30 euro verzendkosten). Ik heb er 2 net aangekregen en zijn zeer deftig
[ Voor 44% gewijzigd door HyperBart op 11-12-2013 15:49 ]
Dat verschil valt wel mee hoor, neem ondestaande schijf als voorbeeld. De SAS versie is een tientje duurder dan de SATA.jadjong schreef op woensdag 11 december 2013 @ 15:29:
[...]
Moet je er wel SAS-schijven aan knopen. Dat kan nog wel eens duurder zijn (per GB) dan losse controllers.
SATA-schijven werkt wel, maar dat is (volgens specificaties) niet de bedoeling. Zoek maar naar Nexenta en hun ervaringen met SAS-expanders waar SATA-schijven aan hingen. Die wazige problemen wil je echt niet.
[ Voor 11% gewijzigd door Bigs op 11-12-2013 16:02 ]
Volgens mij ging het meer om het verschil tussen consumenten SATA (WD Green 4TB / WD Red 4TB / Seagate HDD.15) en NL-SAS (die schijven die jij noemt).Bigs schreef op woensdag 11 december 2013 @ 15:59:
[...]
Dat verschil valt wel mee hoor, neem ondestaande schijf als voorbeeld. De SAS versie is een tientje duurder dan de SATA.
SATA: pricewatch: Seagate Constellation ES.3 ST4000NM0033, 4TB
SAS pricewatch: Seagate Constellation ES.3 ST4000NM0023, 4TB
Als je met 'echte' 10k/15k SAS schijven aan de gang gaat dan stijgt de prijs behoorlijk, maar deze NL-SAS schijf spreekt net zo goed het SAS protocol en zal dus prima in een complexe SAS fabric werken.
Even niets...
Verwijderd
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G1610 Boxed | € 34,79 | € 34,79 |
1 | ASRock B75 Pro3-M | € 52,73 | € 52,73 |
3 | Seagate Barracuda 7200.14 ST3000DM001, 3TB | € 99,30 | € 297,90 |
1 | Corsair CMV8GX3M1A1333C9 | € 63,81 | € 63,81 |
1 | Seasonic G-Serie 360Watt | € 57,95 | € 57,95 |
Bekijk collectie Importeer producten | Totaal | € 507,18 |
Klopt, de SATA-schijf die jij linkt is inderdaad maar een tientje goedkoper dan z'n SAS-broertje. Maar met een prijs van 293.- is die op zich al 2x zo duur als de concurrerende 4TB SATA-schijven.Bigs schreef op woensdag 11 december 2013 @ 15:59:
[...]
Dat verschil valt wel mee hoor, neem ondestaande schijf als voorbeeld. De SAS versie is een tientje duurder dan de SATA.
SATA: pricewatch: Seagate Constellation ES.3 ST4000NM0033, 4TB
SAS pricewatch: Seagate Constellation ES.3 ST4000NM0023, 4TB
Als je met 'echte' 10k/15k SAS schijven aan de gang gaat dan stijgt de prijs behoorlijk, maar deze NL-SAS schijf spreekt net zo goed het SAS protocol en zal dus prima in een complexe SAS fabric werken.
Verwijderd
[ Voor 45% gewijzigd door Quindor op 11-12-2013 18:48 ]
Je kan SATA schijven op SAS controllers en SAS expanders aansluiten. Die OMG doe dat absoluut niet verhalen en wazige problemen stammen uit het SAS1(.1) tijdperk.jadjong schreef op woensdag 11 december 2013 @ 15:29:
[...]
Moet je er wel SAS-schijven aan knopen. Dat kan nog wel eens duurder zijn (per GB) dan losse controllers.
SATA-schijven werkt wel, maar dat is (volgens specificaties) niet de bedoeling. Zoek maar naar Nexenta en hun ervaringen met SAS-expanders waar SATA-schijven aan hingen. Die wazige problemen wil je echt niet.
SAS 2 en hoger heeft die problemen opgelost waarbij expanders en interposers minder probleem gevoellig zijn.Quindor schreef op woensdag 11 december 2013 @ 18:40:
Euhm, waarom zou een SATA schijf niet in een SAS slot kunnen of aan een SAS controller gekoppeld kunnen worden? Volgens mij is het verplicht volgens de SAS standaard dat een SATA disk altijd aan SAS geknoopt kan worden (ook fysiek) alleen niet andersom.
Als een dergelijke expanden/multiplexer SAS compliant is moet deze ook gewoon SATA schijfjes slikken.
Dus ik verwacht dat als je een LSI controller koopt, en vervolgens ook een LSI expander (Eventueel OEM) dat het allemaal prima gaat werken. Dat doen alle grote partijen.
Als je in plaats van de juiste spullen koopt halve gare oude revisies van HP expanders op Ebay gaat shoppen, dat is een ander verhaal.Daar zijn inderdaad heel erg veel problemen mee geweest.
Ik heb er met mijn SAS controllers en drivebays ook nog nooit problemen mee gehad. Geen expander ertussen, maar wel SAS bays met SATA drives. Werkt perfect! Ik gebruik sinds enkele jaren 4x de 3 bay versie (http://www.chieftec.com/backplane_SST.html). Eerst met een Adaptec controller, met onboard moederbord poorten of via een LSI 9211-8i geval.
Als ik dit (http://www.serialstoragew...2007_07/itinsights24.html) goed lees, moet het inderdaad ook gewoon gaan.
[ Voor 23% gewijzigd door Goshimaplonker298 op 11-12-2013 21:55 ]
Pure-FTPd kun je vanuit de ports compilen met "UploadScript" support. Hiermee kun je een script aanroepen die uitgevoerd wordt zodra er iets is geupload. In dat script kun je dan iets met "chflags schg" doen zodat de geploade bestanden niet meer kunnen worden aangepast of verwijderd.Verwijderd schreef op woensdag 11 december 2013 @ 17:07:
....
Een ander punt waar ik nog mee worstel is het volgende. Ik zou graag willen dat bepaalde data die naar de NAS zal worden geschreven daarna niet meer kan worden aangepast. Dit is best tricky, want met de gewone user-rechten kun je geen modus vinden waarbij iemand wel schrijf en leesrechten heeft, zonder de mogelijkheid om de bestanden ook aan te passen of zelfs verwijderen.
....
Verwijderd
Hoewel ik weinig ervaring heb met programmeren met systeem libraries heb ik wel even inotify gekeken. Het is inderdaad een interessante feature. De FreeBSD tegenhanger is niet helemaal equivalent, maar misschien dat je daar wel iets mee zou kunnen doen.Xudonax schreef op woensdag 11 december 2013 @ 18:32:
Ik zou haast zeggen, maak een daemon die via inotify (of hoe FreeBSD's variant erop heet) luistert naar wijzigingen in de map, en dan dat commando uitvoert. Maarja, ik kan goed begrijpen dat niet iedereen programmeerkennis heeft
Dat snapshotten is zeer interessant en ik was ook wel van plan om er gebruik van te gaan maken. Ik had er echter niet aan gedacht om het zo toe te passen.Verwijderd schreef op woensdag 11 december 2013 @ 18:32:
Gewoon regelmatig snapshotten. Desnoods iedere minuut, al vind ik dat wat overdreven. Maar qua efficiency zou het wel kunnen; snapshots werken heerlijk met ZFS.
d1ng schreef op woensdag 11 december 2013 @ 23:17:
Pure-FTPd kun je vanuit de ports compilen met "UploadScript" support. Hiermee kun je een script aanroepen die uitgevoerd wordt zodra er iets is geupload. In dat script kun je dan iets met "chflags schg" doen zodat de geploade bestanden niet meer kunnen worden aangepast of verwijderd.
Als je de securelevel verhoogt naar 1, dan kan zelfs root (of iemand met root rechten) deze bestanden niet meer aanpassen of verwijderen.
Een interessante invalshoek. FTP had ik dus ook niet aan gedacht, omdat ik er van uit ging samba (windows shares) te gaan gebruiken. Super handig dat je dergelijke scripts op een FTP server kunt draaien. Ik zal eens kijken hoe dat een beetje transparant op de windowssystemen kan worden geïmplementeerd.Q schreef op woensdag 11 december 2013 @ 23:55:
Zoiets kan ook met VSFTPD of te wel Very Secure FTP Daemon, geschreven door Crhis Evans, werkzaam voor Google. https://security.appspot.com/vsftpd.html
[ Voor 18% gewijzigd door FireDrunk op 12-12-2013 10:39 ]
Even niets...
Oeh gaaf ding voor weinig geld. Waarschijnlijk werkt het wel, FreeBSD ondersteunt een hele rits controllers uit die serie (zo niet alle):FireDrunk schreef op donderdag 12 december 2013 @ 10:36:
* FireDrunk heeft een stout idee:
http://azerty.nl/0-1989-6...quad-msata-pcie-ssd-.html
Met 4* M500 120GB. Controller is AHCI, dus ik verwacht daar geen problemen.
Zou een badass ZIL maken
Edit: Het lijkt om een Marvell 91xx te gaan, iemand die weet of die goed met BSD / ZFS werken?
Even niets...
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq