Beste practice voor filesystem

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 11-09 21:35
Op mijn NAS draait een ext3 filesystem. Onverhoopt gebeurd het wel eens dat deze plotseling uitvalt (kapotte UPS laatst :( ). Een gewone fsck loopt even het journaal na, brengt veranderingen aan en is klaar.

Maar er is ook een interval bepaald wanneer fsck een gehele check gaat uitvoeren.

Met tune2fs kun je natuurlijk van alles tweaken om die geforceerde test te omzeilen, maar het is wellicht niet voor niets.

Bij zo'n check duurt het luttele uren voordat ie klaar is (2.5TB). Voor prive gebruik vervelend, maar niet heel erg.

Wat is voor professioneler gebruik best practice wat dit betreft eigenlijk? Er kan van alles gebeuren dat je NAS down gaat (Altijd rekening houdend met worstcase scenario's) en een paar uur uit de lucht zijn, terwijl het incident misschie maar minuten bedroeg is niet erg tof natuurlijk :)

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

Verwijderd

Het is altijd verstandig om een backup te hebben om iig je data veilig te stellen
Daarnaast als het gaat er om dat ext3 op papier nooit gedragmenteerd hoeft te worden. In de praktijk komt het wel voor dat het bestandsysteem zodanig is gefragmenteerd dat je niets anders dan je data tijdelijk te parkeren en even dat bestandsysteem weer te verwijderen en aan te maken.

Acties:
  • 0 Henk 'm!

Verwijderd

Het verschil tussen een 'quick' check en de 'full' check is dat de quick check slechts het journal afspeelt terwijl de full check ook checked of het journal en het filesystem zelf klopt.

Een quick check checked dacht ik alleen de wijzigen sinds de laatste sync welke standaard elke 5 seconden gebeurt. Vandaar dat een full check veel meer tijd kost maar ook echt wat doet. Een quick check zal bijvoorbeeld geen losse inodes opsporen of filesizes die niet kloppen. Een full check doet bijvoorbeeld wel.

Standaard doet ext3 elke 180 dagen of om de zoveel mounts een full check en ja dat kan even duren met 2.5TB maar het kan zeker geen kwaad. Het is echter geen vervanging voor een backup dus als je data je lief is zorg je voor nog een backup schijf met genoeg storage en dan kun je ook nog eens je filesystem gewoon een keer nieuw aanmaken om fragmentatie tegen te gaan. En rsync is een echter aanrader als sync programma.

Zelf heb ik mijn storage in 2 groepen verdeeld: safe en bulk. In safe staan al mijn belangrijke spul zoals backups, savegames, etc. En in bulk spul wat ik kwijt mag raken zoals dvdrips van mijn StarTrek dvd's zodat die in hun collectors-item hoesjes kunnen blijven. Als mijn bulk schijf dan crashed ben ik gewoon weer 2 weken aan het rippen. Safe daarin tegen sync ik elke dag naar een backup middels rsync en een zelf geschreven BASH script.

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Keiichi schreef op zaterdag 03 april 2010 @ 22:15:

Wat is voor professioneler gebruik best practice wat dit betreft eigenlijk? Er kan van alles gebeuren dat je NAS down gaat (Altijd rekening houdend met worstcase scenario's) en een paar uur uit de lucht zijn, terwijl het incident misschie maar minuten bedroeg is niet erg tof natuurlijk :)
Een FS gebruiken dat geen fsck nodig heeft. Zoals ZFS, bijvoorbeeld.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • Sallin
  • Registratie: Mei 2004
  • Niet online
CyBeR schreef op zondag 04 april 2010 @ 01:25:
[...]


Een FS gebruiken dat geen fsck nodig heeft. Zoals ZFS, bijvoorbeeld.
Wat zijn de voor/nadelen van dat FS? Er is vast een reden dat deze niet standaard wordt aanbevolen.

This too shall pass
Debian | VirtualBox (W7), Flickr


Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Dat schijnt te maken hebben met licenties, en niet zo zeer op technisch vlak dat het er op Linux varianten nog niet is. (Open)Solaris heeft standaard ZFS en FreeBSD heeft het ook beschikbaar als optie.

[ Voor 16% gewijzigd door d1ng op 04-04-2010 11:49 ]


Acties:
  • 0 Henk 'm!

Verwijderd

CyBeR schreef op zondag 04 april 2010 @ 01:25:
Een FS gebruiken dat geen fsck nodig heeft. Zoals ZFS, bijvoorbeeld.
Ik vraag me alleen af hoelang ZFS nog te leven heeft onder het regime van Oracle. Zoals je misschien weet is BTRFS de grote concurent van ZFS ontwikkeld door Oracle en BTRFS wordt actief binnen de Linux wereld gepushed in tegenstelling tot ZFS ;)

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op zondag 04 april 2010 @ 12:18:
[...]


Ik vraag me alleen af hoelang ZFS nog te leven heeft onder het regime van Oracle. Zoals je misschien weet is BTRFS de grote concurent van ZFS ontwikkeld door Oracle en BTRFS wordt actief binnen de Linux wereld gepushed in tegenstelling tot ZFS ;)
Goede vraag. Ik weet 't niet. Alleen dat ZFS iig door Sun altijd flink gepushed werd als een van de defining features van Solaris 10+. Ik meen ook dat 't wat volwassener is dan BTRFS. Maar mischien ontstaat er wel gewoon wat kruisbestuiving van 't een richting het ander.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • Kees
  • Registratie: Juni 1999
  • Laatst online: 15:08

Kees

Serveradmin / BOFH / DoC
Verwijderd schreef op zondag 04 april 2010 @ 12:18:
[...]


Ik vraag me alleen af hoelang ZFS nog te leven heeft onder het regime van Oracle. Zoals je misschien weet is BTRFS de grote concurent van ZFS ontwikkeld door Oracle en BTRFS wordt actief binnen de Linux wereld gepushed in tegenstelling tot ZFS ;)
Daarnaast is ZFS al af, en heeft het wat meer features dan BTRFS, ook al staan die bij btrfs nog wel op het verlanglijstje (deduplication bv).Verder zou ik btrfs nog niet in productie gebruiken (de laatste keer dat ik er naar keek sloopte het mijn files nogal grondig nadat ik hem even onder wat load had gelegt;'ineens een kernel panic en mijn files weg). ZFS wordt op redelijk grote schaal gewoon in productie gebruikt. Geen idee wanneer ze btrfs af vinden, maar zfs is wel production ready (en de reden dat onze storageserver op het moment op solaris draait, maar inderdaad, de plannen van Oracle moeten we gewoon afwachten).

"Een serveradmin, voluit een serveradministrator, is dan weer een slavenbeheerder oftewel een slavendrijver" - Rataplan


Acties:
  • 0 Henk 'm!

Verwijderd

Daarnaast is de claim dat een FS geen fsck nodig heeft natuurlijk complete onzin want een HDD heeft geen keurig log ofzo in welke sector nu weer bitrot is onstaan. Dat een journal toen klopte wil niet zeggen dat dat nog steeds zo is. Daarnaast is het onderstaande snippet natuurlijk onmisbaar als je data je lief is :)
code:
1
2
 Create: find ./ -type f -print0 | xargs -0 md5sum -b  >> ./MD5SUMS
 Verify: md5sum -c ./MD5SUMS


Een journal is zeker goed genoeg, zelfs voor productie processen maar een complete check waarbij ook echt alle metadata wordt ingelezen en gechecked geeft mij wel een iets veiliger gevoel dan alleen een journal dat wordt afgespeeld. En icm met LVM-snapshots kan ik een full check doen in r/w modus en als er echt wat goed mis is kan het betreffende filesystem offline halen voor een echte check+repairs. Nog een reden om je data over meerdere kleinere filesystems te verspreiden. Iets dat met LVM trouwens ook echt makkelijk gaat.

De reden dat ZFS in Linux niet goed wordt ondersteunt is in de eerste plaats omdat Sun het destijds niet onder een GPLv2 compatible licence heeft geplaatst. Daarom kan het niet in de Linux kernel worden opgenomen en werkt ZFS dus middels FUSE in userspace. FUSE is hier denk ik spelbreker niet ZFS zelf.

Zelfs vind ik ZFS, BRTFS en zelfs ext4 nog te experimenteel. Daarnaast werkt de combo van LVM+ext3 gewoon perfect voor mij en zie ik zo nog niet direct het grote voordeel van ext3. ZFS werkt weer niet met LVM maar i.p.v LVM en BTRFS is inderdaad nog veel te experimenteel. Maarja, ik vind ext4 zelfs nog wat wankel.

Wiens idee was het om de journal-commit time naar 60 seconden te schroeven 8)7 Mischien leuk voor laptop gebruikers maar op de desktop en server is dat vragen om data-verlies en dat was ook precies wat er gebeurde. En ja ik weet wie het was, onze Tso die nu leuk verwacht dat alle programma's maar sync's gaan doen. Nee dankje, ik pak wel ext3 die heeft zich teminste bewezen. Ext4 pak ik wel met Debian Squeeze.

Dus mijn best pratice zou zijn: LVM, meerdere kleinere ext3 filesystems en elke dag een incrementele backup met rsync middels hardlinks op een externe schijf/oude P2 bak/anything. En 1x per week een full backup + hashes backen en checken. Verders gewoon 1x half-jaar (default) full check op een LVM snapshot. Dat doe ik hier thuis allemaal met een simpel bash-script. Op de backup server, wat een afgedankte AthlonXP2400+ is met allemaal eveneens afgedankte schijfen op jawel meerdere afgedankte raid-controllers in LVM-JBOD style. Server start elke dag, trekt een backup en sluit zich weer af.

Voor thuis gebruik is zo'n oude afgedankte bak meer als voldoende en spot goedkoop maar in een bedrijfsomgeving zou ik eerder voor 2 identieke main servers gaan met 1 als backup + hot-standby.

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op maandag 05 april 2010 @ 01:21:
Daarnaast is de claim dat een FS geen fsck nodig heeft natuurlijk complete onzin want een HDD heeft geen keurig log ofzo in welke sector nu weer bitrot is onstaan. Dat een journal toen klopte wil niet zeggen dat dat nog steeds zo is.
Tsja, wel lastig dan dat er geen fsck utility voor ZFS bestaat..

Anyway: http://www.c0t0d0s0.org/a...y-doesnt-need-a-fsck.html.

ZFS is ontworpen om on-disk altijd consistent te zijn. Als jouw disk subsystem bitrot vertoont nadat 't correct is weggeschreven is dat niet iets wat een fsck gaat kunnen repareren (of 't moet heel triviaal zijn, en dan moet je dus heel erg geluk hebben). That said, ZFS kan een aardig eind komen dankzij de ingebouwde checksums. Wat ook het volgende onnodig maakt trouwens:
Daarnaast is het onderstaande snippet natuurlijk onmisbaar als je data je lief is :)
code:
1
2
 Create: find ./ -type f -print0 | xargs -0 md5sum -b  >> ./MD5SUMS
 Verify: md5sum -c ./MD5SUMS
Alleen kan ZFS met de block-level checksums ook je data nog repareren, waar jij alleen maar kunt beoordelen dat je data kapot is, om daarna in paniek te raken terwijl je ZFS-buurman dat opmerkt en rustig een nieuwe disk bestelt zonder data kwijt te zijn.

Je moet de presentatie van een van de principal ZFS engineers eens bekijken. Die is vrij lang, maar 't maakt je wel duidelijk waarom ZFS zo'n ontzettend gaaf filesystem is. http://www.sun.com/softwa...enter/high_bandwidth.html (RealMedia, maar VLC speelt ze.) Als je ze niet allemaal wilt kijken, Data Integrity is waar ik 't over had.

En ZFS is, in tegenstelling to btrfs, niet experimenteel. Het is gewoon production-ready spul dat ook op die manier gebruikt wordt. Enige nadeel is inderdaad dat de licentie niet GPL-compatible is en er dus lastigheid is met de linux kernel. Maar ZFS in Solaris is rock-solid.

[ Voor 23% gewijzigd door CyBeR op 05-04-2010 02:43 ]

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • Rainmaker
  • Registratie: Augustus 2000
  • Laatst online: 14-07-2024

Rainmaker

RHCDS

CyBeR schreef op maandag 05 april 2010 @ 02:04:
[...]
En ZFS is, in tegenstelling to btrfs, niet experimenteel. Het is gewoon production-ready spul dat ook op die manier gebruikt wordt
Mooi, wanneer komt het voor Linux uit? Of, wanneer is zfs-fuse dan een keer stabiel.

Ik geloof best dat ZFS ontzettend stabiel is onder Solaris (anders was het niet de default in Opensolaris 12), maar onder Linux vindt ik het tot dusver een drama.

Laastste keer dat ik zfs-fuse probeerde (0.4.0 volgens mij), kon ik geen files toevoegen als volume, en toen ik mijn disk dan maar ge-herpartioneert had, was na een paar uur het FS corrrupt genoeg dat het niet meer wou mounten. Een Google tocht leverde legio mensen op bij wie zfs-fuse ook een boo-boo had gedaan.


offtopic:
Jij had al gemeld dat het onder Linux niet zo stabiel was


Om even antwoord te geven op de TS: ik tune op het werk eigenlijk nooit de interval. Servers zijn toch > 200 dagen op voordat ze gereboot worden dankzij patches / panic / hardware storing. En dan mag ie van mij best even zn filesystems nalopen. Natuurlijk heeft een moderne server een RAID controller met battery backup, wat in de praktijk betekend dat er vrijwel nooit inconsistenties in het FS zitten, omdat alles netjes naar de disk gecommit wordt en ge-replayed bij de mount. Ik heb misschien 2 keer per jaar dat fsck (op ext3) ook echt iets moet doen...

[ Voor 8% gewijzigd door Rainmaker op 05-04-2010 10:16 ]

We are pentium of borg. Division is futile. You will be approximated.


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
[prikkel-flame-modus]Moet je sowieso wel Linux gebruiken als je 'n goed product wil?[/]

Acties:
  • 0 Henk 'm!

Verwijderd

Ik snap dat ophemelen van ZFS niet zo. Voor een bestandssysteem wat maar beschiktbaar is voor 2 a 3 besturingssystemen is in mijn optiek gewoonweg belabbert. Zolang ik het niet kan gebruiken op meerdere besturingssystemen heeft het voor mij geen enkele zin om het te gebruiken. En ZFS gebruiken via Linux is ook niet alles.

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
FAT(32) is wellicht het beste FS

Waarom is het zo belangrijk voor je om een FS met meedere OS te kunnen gebruiken? Maakt het nog uit welke OS?

[ Voor 63% gewijzigd door begintmeta op 05-04-2010 11:05 ]


Acties:
  • 0 Henk 'm!

  • Sir Isaac
  • Registratie: September 2002
  • Laatst online: 21-05 20:45
Volgens mij is een van de voordelen van ext4 t.o.v. ext3 dat de fsck veel sneller gaat. Je kunt ook nog upgraden van ext3 naar ext4 zonder je fs helemaal opnieuw aan te maken waardoor de bestaande data behouden blijven. Uiteraard wel effe backupen voor de zekerheid.

Acties:
  • 0 Henk 'm!

  • alt-92
  • Registratie: Maart 2000
  • Niet online

alt-92

ye olde farte

begintmeta schreef op maandag 05 april 2010 @ 10:58:
FAT(32) is wellicht het beste FS
Tuurlijk joh. Heb je denk ik over de volume size heen gelezen die de topicstarter gebruikt...

ik heb een 864 GB floppydrive! - certified prutser - the social skills of a thermonuclear device


Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Verwijderd schreef op maandag 05 april 2010 @ 10:56:
Ik snap dat ophemelen van ZFS niet zo. Voor een bestandssysteem wat maar beschiktbaar is voor 2 a 3 besturingssystemen is in mijn optiek gewoonweg belabbert. Zolang ik het niet kan gebruiken op meerdere besturingssystemen heeft het voor mij geen enkele zin om het te gebruiken. En ZFS gebruiken via Linux is ook niet alles.
Dan is voor jou FAT 32 inderdaad gewoon het allerbeste FS.
Wat er gezegd wordt over ZFS is overigens niet 'ophemelen' zoals jij het noemt, het is gewoon de waarheid.

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

begintmeta schreef op maandag 05 april 2010 @ 10:16:
[prikkel-flame-modus]Moet je sowieso wel Linux gebruiken als je 'n goed product wil?[/]
Dat is nog weer zoiets inderdaad. Linux doet eigenlijk verdomd veel dingen fout. Waar ik toevallig laatst tegenaanliep is dat in Linux IPv6 in6addr_any bind()s ook meteen ipv4-binden. Dat kan, want daar is een setting voor en die is in linux blijkbaar default. Daar is op zich niets mis mee. Maar als de IPv4 versie van die socket al bestaat (zelfde proces doet eerst inaddr_any en dan in6addr_any op dezelfde poort) dan gaat die tweede bind dus mis, en dat hoort niet.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 14:43

The Eagle

I wear my sunglasses at night

Wat professioneel gebeurt om dit soort dingen te ondervangen is het creeren van een onafhankelijkheid van het gebruikte FS :)
Kortom: RAID-volumes ipv een normaal volume, al dan niet gespiegeld over meerdere locaties. Dan mag een van de twee er de brui aangeven, je kunt gewoon doordraaien en met wat licht verminderde performance gewoon door werken. :)

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Euh, vertel ons eens hoe RAID je van het gebruikte FS onafhankelijk maakt?

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 14:43

The Eagle

I wear my sunglasses at night

CyBeR schreef op maandag 05 april 2010 @ 13:32:
Euh, vertel ons eens hoe RAID je van het gebruikte FS onafhankelijk maakt?
Dat zeg ik: spiegelen over meerdere locaties. geeft er op 1 locatie je FS de brui aan, heb je het altijd op de andere locatie nog goed staan. Kost wat maar dan heb je ook wat ;)

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

The Eagle schreef op maandag 05 april 2010 @ 13:37:
[...]

Dat zeg ik: spiegelen over meerdere locaties. geeft er op 1 locatie je FS de brui aan, heb je het altijd op de andere locatie nog goed staan. Kost wat maar dan heb je ook wat ;)
Nee, want als je FS prut naar disks op locatie 1 schrijft, gaat 't op locatie 2 tegelijk de mist in want 't was RAID.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • Rainmaker
  • Registratie: Augustus 2000
  • Laatst online: 14-07-2024

Rainmaker

RHCDS

Verwijderd schreef op maandag 05 april 2010 @ 10:56:
Ik snap dat ophemelen van ZFS niet zo. Voor een bestandssysteem wat maar beschiktbaar is voor 2 a 3 besturingssystemen is in mijn optiek gewoonweg belabbert.
Nah, zijn er 2.

Als je Solaris dubbel telt.


Maar zfs-fuse wordt beter. Heb net een CVS checkout versie in de sid repos geinstalleerd en die lijkt beter te werken.

*edit: te vroeg gesproken:
code:
1
2
3
4
5
6
7
8
root@neptune:~# zfs create -o dedup=on -o compression=on -V 1G vtlpool/tapefs 
cannot create 'vtlpool/tapefs': invalid property 'dedup'
root@neptune:~# zfs create -o compression=on -V 1G vtlpool/tapefs
internal error: Functie is niet aanwezig
Afgebroken
root@neptune:~# zfs create -V 1G vtlpool/tapefs
internal error: Functie is niet aanwezig
Afgebroken

[ Voor 31% gewijzigd door Rainmaker op 05-04-2010 17:21 ]

We are pentium of borg. Division is futile. You will be approximated.


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Weet iemand hoe't momenteel met ZFS@FreeBSD gesteld is?

Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
ZFS op FreeBSD 8 is production ready verklaard, let echter wel op de systeem eisen.
Met 64 bit en genoeg geheugen (bv. 3 GB+) gaat alles goed, met 32 bits en beperkt geheugen (512 bv.) is ZFS niet echt aan te raden.

Acties:
  • 0 Henk 'm!

  • dev10
  • Registratie: April 2005
  • Laatst online: 09-09 15:21
begintmeta schreef op maandag 05 april 2010 @ 17:42:
Weet iemand hoe't momenteel met ZFS@FreeBSD gesteld is?
Ik ben toevallig bezig geweest met het installeren van een FreeBSD installatie op 3 schijven met ZFS in raidz1. Installatie klapte er een paar keer uit vanwege geheugen tekort. Op zich ging de installatie tot nu toe prima, ik heb alleen even extra geheugen nodig. Voor zover m'n ervaringen zijn, ziet het er niet slecht uit.

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Rainmaker schreef op maandag 05 april 2010 @ 17:11:
[...]


Nah, zijn er 2.

Als je Solaris dubbel telt.
Drie dan, namelijk FreeBSD ook.
begintmeta schreef op maandag 05 april 2010 @ 17:42:
Weet iemand hoe't momenteel met ZFS@FreeBSD gesteld is?
Goed, is het laatste wat ik gehoord heb, mits je op een 64-bits platform werkt. Er zijn (of waren) nog bugs op 32-bits platformen.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • MartinMeijerink
  • Registratie: Juli 2008
  • Laatst online: 14:26

MartinMeijerink

Computerrorist

Iemand ervaring met XFS? Ik heb zelf een aantal tests gedaan met een partitie met heel veel kleine bestandjes (iets meer dan 30000, gemiddeld 40kB groot (mail)), en allerlei filesystems uitgeprobeerd. Reiserfs scoorde daarbij heel goed, maar xfs net ietsje beter... Ook viel me bij XFS op dat je na het formatteren van een partitie nog veel ruimte netto overhoudt...
Het bevalt me dus prima, maar wat ik me afvraag is waarom zoveel distro's ext3 als standaard fs gebruiken?

An unbreakable toy is useful to break other toys


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

* CyBeR gebruikt standaard xfs, behalve voor de boot partitie vanwege betere ondersteuning van ext3 in bootloaders. (Grub kan 't allebei wel, maar mocht ik ooit een !grub tegenkomen).

En tja, ext3 is voor de meeste gebruikers prima en aangezien dat het standaard linux filesystem is..

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

Verwijderd

(Zie dit a.u.b niet als een persoonlijke aanval op jouw of ZFS hoor, ik geef gewoon mijn mening over ZFS)
CyBeR schreef op maandag 05 april 2010 @ 02:04:
[...]


Tsja, wel lastig dan dat er geen fsck utility voor ZFS bestaat..

Anyway: http://www.c0t0d0s0.org/a...y-doesnt-need-a-fsck.html.

ZFS is ontworpen om on-disk altijd consistent te zijn. Als jouw disk subsystem bitrot vertoont nadat 't correct is weggeschreven is dat niet iets wat een fsck gaat kunnen repareren (of 't moet heel triviaal zijn, en dan moet je dus heel erg geluk hebben). That said, ZFS kan een aardig eind komen dankzij de ingebouwde checksums. Wat ook het volgende onnodig maakt trouwens:
bitrot in het superblock niet nee maar ik ben dan liever een paar bestanden kwijt dan een heel FS. fsck kan in veel gevallen het filesystem weer consistent maken omdat ext2 ontworpen is met bitrot in gedachten en ext3 en ook ext4 erven die on-disk structuur. In 1990-1999 kwamen badblocks nog meer voor dan nu en dat zie je in het ontwerp van ext2 heel erg sterg terug met 8 of meer backup superblocks.

Leuk dat ZFS ontworpen is om on-disk altijd consistent te zijn maar hoe willen ze dat doen? verborgen raid5 draaien? zoals ik al zei houd een HDD geen log bij en met checksums verifieer je alleen dat er iets mis is. Het kwaad is dan al geschied en mijn ZFS buurman is dan zijn storage pools aan het nakijken welke HDD die moet bestellen en op welke schijf nou die error werkelijk zit terwijl ik een spare in mijn server druk en mijn raid5 herbouw terwijl mijn andere raid5 en raid0 gewoon doordraaien alsof er niks is gebeurd.

Ik ben misschien wat traditioneel maar ik houd mijn fysieke storage, en filesystems liever gescheiden. Ik geef toe dat het idee van storagepools zoals ZFS het doet geweldig is en zeker nut heeft maar in mijn geval is de complexiteit en mischien ook wel het all-in-one principe gewoon overkill. Als je tientallen tot duizenden schijfen beheert in een grote NAS array over verschillende servers is ZFS echt een verademing maar voor een enkele server is de simpele m-n mapping die LVM biedt meer als voldoende.
[...]


Alleen kan ZFS met de block-level checksums ook je data nog repareren, waar jij alleen maar kunt beoordelen dat je data kapot is, om daarna in paniek te raken terwijl je ZFS-buurman dat opmerkt en rustig een nieuwe disk bestelt zonder data kwijt te zijn.
Dus raid=backup? Zoals ik ook hierboven al opmerkte moet de hoeveelheid error-correction info dan toch flink oplopen. Met een simpele checksum zoals md5 of CRC32 kun je alleen fouten opsporen om ze dan ook werkelijk te kunnen repareren heb je met een 2 disk set gewoon domweg 50% error-checking info nodig om 1 disk-fail te kunnen overleven. Dat is gewoon een raid1. En hoewel de hoeveelheid info afneemt tot 12,5% bij een 8 disk raid5 neemt ook de kans dat een disk crashed toe waardoor je weer je error-correction info zelf moet gaan error-checken zoals met raid6 wordt gedaan. Kortom ook die buurman zal data kwijt zijn met ZFS

Dus nee helaas ook op dit punt is ZFS niks meer dan software-raid waar ik niks op tegen heb maar ZFS kan geen wonderen verrichten en is beperkt tot dezelfde wiskunde van error-correction info.
Je moet de presentatie van een van de principal ZFS engineers eens bekijken. Die is vrij lang, maar 't maakt je wel duidelijk waarom ZFS zo'n ontzettend gaaf filesystem is. http://www.sun.com/softwa...enter/high_bandwidth.html (RealMedia, maar VLC speelt ze.) Als je ze niet allemaal wilt kijken, Data Integrity is waar ik 't over had.
Dat ga ik zeker eens doen want voor enterprise systemen lijkt mij ZFS ideaal zeker nu met iSCSI en SAS.
En ZFS is, in tegenstelling to btrfs, niet experimenteel. Het is gewoon production-ready spul dat ook op die manier gebruikt wordt. Enige nadeel is inderdaad dat de licentie niet GPL-compatible is en er dus lastigheid is met de linux kernel. Maar ZFS in Solaris is rock-solid.
Zoals ik zelf ook al zei is de instabiliteit van ZFS onder Linux aan de algemene instabiliteit van FUSE te danken. Had SUN ZFS onder een GPLv2 compatible licence uitgegeven dan had diezelfde ZFS code zo copy-paste in de Linux kernel gekunt en was het vast zeer stabiel geweest net zoals onder (open)Solaris.

Kortom: Ook met ZFS heb je nog steeds een backup server nodig en dan zijn simpele md5 hashes voldoende.
MartinMeijerink schreef op maandag 05 april 2010 @ 20:38:
Iemand ervaring met XFS? Ik heb zelf een aantal tests gedaan met een partitie met heel veel kleine bestandjes (iets meer dan 30000, gemiddeld 40kB groot (mail)), en allerlei filesystems uitgeprobeerd. Reiserfs scoorde daarbij heel goed, maar xfs net ietsje beter... Ook viel me bij XFS op dat je na het formatteren van een partitie nog veel ruimte netto overhoudt...
Het bevalt me dus prima, maar wat ik me afvraag is waarom zoveel distro's ext3 als standaard fs gebruiken?
Ik heb zelf ook een tijdje XFS gebruikt omdat online-shrink nog niet goed werkte op ext3. Werkte perfect dus als het moest zou ik ook zo weer op XFS kunnen overstappen. Ik denk dat de reden is dat ext2, ext3 en nu dus ext4 allemaal in-house zijn ontworpen en vooral ook onderhouden door ook nog eens dezelfde kernel-developer. XFS daarin tegen is eigenlijk geport en ik weet niet of er een duidelijk team instaat voor het onderhoud.

[ Voor 9% gewijzigd door Verwijderd op 05-04-2010 21:34 ]


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op maandag 05 april 2010 @ 21:27:
bitrot in het superblock niet nee maar ik ben dan liever een paar bestanden kwijt dan een heel FS.
Een heel FS kwijtraken met ZFS is dan ook heel moeilijk. Omdat ZFS nooit actieve data overschrijft kun je eigenlijk bijna altijd terug naar de situatie waarin je zat voordat er iets mis ging. "Gewoon" de vorige uberblock opzoeken die actief maken in plaats van de huidige, waar dus iets mis mee is gegaan.
fsck kan in veel gevallen het filesystem weer consistent maken omdat ext2 ontworpen is met bitrot in gedachten en ext3 en ook ext4 erven die on-disk structuur. In 1990-1999 kwamen badblocks nog meer voor dan nu en dat zie je in het ontwerp van ext2 heel erg sterg terug met 8 of meer backup superblocks.
ZFS heeft 128 uberblocks.
Leuk dat ZFS ontworpen is om on-disk altijd consistent te zijn maar hoe willen ze dat doen? verborgen raid5 draaien?
Nee, door dus nooit actieve data te overschrijven. Ze schrijven je data naar een andere plek, en verwijzen daar dan naar. Dit is ook hoe snapshots werken: op dat moment wordt de 'oude' data gewoon niet aangemerkt als 'oud', en dus is een snapshot maken dus performancetechnisch zelfs sneller dan geen snapshot maken. (Uiteraard helpt 't niet in de hoeveelheid vrij storage).
zoals ik al zei houd een HDD geen log bij en met checksums verifieer je alleen dat er iets mis is. Het kwaad is dan al geschied en mijn ZFS buurman is dan zijn storage pools aan het nakijken welke HDD die moet bestellen en op welke schijf nou die error werkelijk zit terwijl ik een spare in mijn server druk en mijn raid5 herbouw terwijl mijn andere raid5 en raid0 gewoon doordraaien alsof er niks is gebeurd.
Bijna. Met de checksums alleen kun je inderdaad je data niet reconstrueren, maar alleen constateren dat de data kapot is. En daarom is 't dus zo mooi dat de checksums bij ZFS in het FS (cq de Volume Manager) verwerkt zitten. In het geval van single-disk ZFS is, bij bitrot, inderdaad nog steeds je data kapot. (Maar in dat geval pretendeert 't ook niets te beschermen natuurlijk). In het geval van een RAID 1 (die dus door de ZFS volume manager gedaan wordt) kan aan de hand van die checksum gecontroleerd worden of de data die net van disk is gelezen nog klopt. Zo niet kan de data van de andere disk gehaald worden. De kans dat twee disks op dezelfde plek bitrot vertonen is vrij klein. De andere disk kan nu gehealed worden.

Bij RAID-Z met meerdere disks kan een soortgelijk truukje uitgehaald worden. Doordat ZFS weet wat de data zou moeten zijn (adhv die checksum) kan, als blijkt dat er ergens bitrot is ontstaan, de data gereconstrueerd worden aan de hand van de resterende data. Dat is in dat geval een kwestie van 'stel dat disk 1 kapot was, klopt dit dan met de checksum? Nee. Ok stel disk 2, ...' etc. Een 'normale' RAID 5 kan dat helemaal niet eens detecteren, en bij een rebuild van je array in deze situatie zul je complete onzin naar disk schrijven omdat de parity niet klopt met de data.

Overigens geeft ZFS ook netjes aan welke disks errors hebben gehad:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[marco@helene ~]$ zpool status
  pool: rpool
 state: ONLINE
 scrub: scrub completed after 0h9m with 0 errors on Sat Oct 31 01:32:36 2009
config:

        NAME          STATE     READ WRITE CKSUM
        rpool         ONLINE       0     0     0
          mirror      ONLINE       0     0     0
            c0t0d0s0  ONLINE       0     0     0
            c0t1d0s0  ONLINE       0     0     0

errors: No known data errors


Zolang jij dus weet welke disk waar zit trek je 'm er zo uit.
Ik ben misschien wat traditioneel maar ik houd mijn fysieke storage, en filesystems liever gescheiden. Ik geef toe dat het idee van storagepools zoals ZFS het doet geweldig is en zeker nut heeft maar in mijn geval is de complexiteit en mischien ook wel het all-in-one principe gewoon overkill.
Maar 't is juist die geintegreerdheid waardoor ZFS kan doen wat 't doet.
Als je tientallen tot duizenden schijfen beheert in een grote NAS array over verschillende servers is ZFS echt een verademing maar voor een enkele server is de simpele m-n mapping die LVM biedt meer als voldoende.
LVM is juist heel onhandig. Snapshots zijn wmb een van de belangrijkste features van Volume Managers, en dat is in LVM heel slecht gedaan imo. Je moet een snapshot een maximumgrootte geven, en als die grootte (in termen van verschil met de live-data) overschreden wordt gaat 't over de zeik. Zoals ik al zei, in ZFS is een snapshot bijna gewoon een kwestie van de oude data niet aanmerken als oud. LVM snapshots zijn eigenlijk alleen bruikbaar om een point-in-time backup te maken, en daarna de snapshot onmiddelijk weer weg te gooien. ZFS snapshots kun je zo lang laten bestaan als je wilt.
Dus raid=backup? Zoals ik ook hierboven al opmerkte moet de hoeveelheid error-correction info dan toch flink oplopen. Met een simpele checksum zoals md5 of CRC32 kun je alleen fouten opsporen om ze dan ook werkelijk te kunnen repareren heb je met een 2 disk set gewoon domweg 50% error-checking info nodig om 1 disk-fail te kunnen overleven. Dat is gewoon een raid1. En hoewel de hoeveelheid info afneemt tot 12,5% bij een 8 disk raid5 neemt ook de kans dat een disk crashed toe waardoor je weer je error-correction info zelf moet gaan error-checken zoals met raid6 wordt gedaan. Kortom ook die buurman zal data kwijt zijn met ZFS

Dus nee helaas ook op dit punt is ZFS niks meer dan software-raid waar ik niks op tegen heb maar ZFS kan geen wonderen verrichten en is beperkt tot dezelfde wiskunde van error-correction info.
Nee, RAID is geen backup. Als die hele doos in de fik vliegt kan ZFS ook je data niet meer restoren natuurlijk. Maar ZFS doet wel self-healing van je data, zoals ik boven al uitlegde, omdat 't gewoon meer weet. Het gebruikt, om je data te restoren, dus parity (of een mirror, voor de restore) én checksums (voor de constatering dat data gerestored moet worden).
Zoals ik zelf ook al zei is de instabiliteit van ZFS onder Linux aan de algemene instabiliteit van FUSE te danken. Had SUN ZFS onder een GPLv2 compatible licence uitgegeven dan had diezelfde ZFS code zo copy-paste in de Linux kernel gekunt en was het vast zeer stabiel geweest net zoals onder (open)Solaris.
Eens. Ik weet alleen niet wie ik moet beschuldigen hierin. Linux omdat ze GPL gekozen hebben, GNU omdat de GPL zo anal is of Sun omdat ze CDDL gekozen hebben.
Kortom: Ook met ZFS heb je nog steeds een backup server nodig en dan zijn simpele md5 hashes voldoende.
ZFS hasht zelfs met SHA256 als je dat wilt, en de uberblock is altijd SHA256 omdat die zo belangrijk is.

[ Voor 5% gewijzigd door CyBeR op 05-04-2010 21:52 ]

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

Verwijderd

Zoals ik al zei is ZFS een alles-in-1-oplossing: LVM+Copy-on-write+Raid1/5/6+Filesystem.

Perfect voor grote installaties met tientallen disks want ZFS op 4 of minder disks betekent anders 50% van je beschikbare ruimte inleveren. Daarnaast of je het nou Raid-z of software raid noemt het blijft raid en dus geen backup. Ik kraak ZFS dan ook echt niet af maar ik denk dat het eigenlijk meer een volume manager dan filesystem is en pas bij grote array's vanaf 6 a 8 disks zijn echte meerwaarde laat zien.

Wat mij wel erg zou aanspreken en ik weet niet of ZFS dat kan maar een per directory of zelfs per bestand instellen of op welk raid nivo een bestand moet worden opgeslagen alhoewel dat mischien heel raar gaat reageren als een disk crashed en de helft van de bestanden in een directory verdwijnt maar dat zou voor mij een eventuele reden kunnen zijn waarom je de blocksystem layer en de filesystem layer in mekaar wilt stoppen.

Dat LVM perfect is hoor je mij niet zeggen hoor maar voor simpel thuis gebruik is LVM stabiel en volwassen genoeg hoewel ik ook natuurlijk altijd op de uitkijk sta voor wat beters. Vooral de overflow van snapshots is inderdaad niet goed gedaan. Ook de interactie tussen lvresize en resize2fs kan beter maar verders is LVM wel ok maar ook niet meer dan dat hoor. Het doet wat het moet doen en doet dat goed maar de flexibiliteit van ZFS laat zich denk ik vooral merken als je meerdere disk arrays gaat beheren. Maar zolang consumenten NASjes waar meer dan 4 schijfen in kunnen nog geen gemeengoed zijn is ZFS mischien nog wat overkill voor de thuisserver.

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op maandag 05 april 2010 @ 22:42:
Zoals ik al zei is ZFS een alles-in-1-oplossing: LVM+Copy-on-write+Raid1/5/6+Filesystem.

Perfect voor grote installaties met tientallen disks want ZFS op 4 of minder disks betekent anders 50% van je beschikbare ruimte inleveren.
Neehoor. Uiteraard lever je altijd ruimte in met RAID, maar dat beschouw ik niet als zodanig. Verder ben je inderdaad iets extra kwijt voor de checksums. Dit is een ZFS RAID-1 van twee 74GB disks:
code:
1
2
3
[marco@helene templates]$ zpool list
NAME    SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rpool  67.8G  18.2G  49.5G    26%  ONLINE  -
Daarnaast of je het nou Raid-z of software raid noemt het blijft raid en dus geen backup.
Dat heb ik ook nooit beweerd he ;) Alleen dat ZFS je data net iets beter beschermt dan een 'normale' RAID en je dus je backups minder vaak nodig gaat hebben. Ook ZFS beschermt niet tegen rm -rf ~.
Ik kraak ZFS dan ook echt niet af maar ik denk dat het eigenlijk meer een volume manager dan filesystem is en pas bij grote array's vanaf 6 a 8 disks zijn echte meerwaarde laat zien.
In tegendeel. Zelfs voor single-disk desktopgebruik is 't snapshotten heel handig gebleken: http://blogs.sun.com/hrivero/entry/going_back_in_time_with

[ Voor 5% gewijzigd door CyBeR op 05-04-2010 22:54 ]

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb op een dikke 100 Linux servers en nog een flink aantal desktops XFS draaien. Draait alle jarenlang probleemloos :) Hoewel ik tegenwoordig misschien wel voor EXT4 zou kiezen.

Acties:
  • 0 Henk 'm!

Verwijderd

d1ng schreef op maandag 05 april 2010 @ 12:46:
[...]


Dan is voor jou FAT 32 inderdaad gewoon het allerbeste FS.
Wat er gezegd wordt over ZFS is overigens niet 'ophemelen' zoals jij het noemt, het is gewoon de waarheid.
Ik kan dit soort opmerkingen als Linux/Unix beheerder alleen maar geinig vinden :')

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Mijn vraag (Waarom is het zo belangrijk voor je om een FS met meedere OS te kunnen gebruiken? Maakt het nog uit welke OS?) naast de stangende FAT32 opmerking was eigenlijk best serieus uiting van mijn nieuwsgierigheid Typnix.

[ Voor 11% gewijzigd door begintmeta op 06-04-2010 14:35 ]


Acties:
  • 0 Henk 'm!

Verwijderd

begintmeta schreef op dinsdag 06 april 2010 @ 14:34:
Mijn vraag (Waarom is het zo belangrijk voor je om een FS met meedere OS te kunnen gebruiken? Maakt het nog uit welke OS?) naast de stangende FAT32 opmerking was eigenlijk best serieus uiting van mijn nieuwsgierigheid Typnix.
Gast, ik heb het niet over FAT32 gehad. Dat was de knakker na mij.
En een bestandssysteem wat over meerdere besturingssystemen word gedragen heeft gewoon een groter potentieel om sneller volwassen te worden. Ik ontken niet dat ZFS een goede bestandsysteem is maar door de kleinschaligheid met het aantal besturingsystemen waarmee het ingezet en ontwikkeld kan worden. En los daarvan vind ik ZFS mijn optiek niet zodanig volwassen genoeg nog om het te gebruiken.

[ Voor 32% gewijzigd door Verwijderd op 06-04-2010 14:44 ]


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Die knakker na jou was ik :$

Ik vroeg me af waarom het zo belangrijk voor je is om een FS met meedere OS te kunnen gebruiken? Maakt het nog uit welke OS? FAT(32) is het fs dat bij mij opkomt als het gaat om brede ondersteuning in OS.

[ Voor 20% gewijzigd door begintmeta op 06-04-2010 14:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

begintmeta schreef op dinsdag 06 april 2010 @ 14:42:
Die knakker na jou was ik :$

Ik vroeg me af waarom het zo belangrijk voor je is om een FS met meedere OS te kunnen gebruiken? Maakt het nog uit welke OS? FAT(32) is het fs dat bij mij opkomt als het gaat om brede ondersteuning in OS.
Je was me voor. Wat ik eigenlijk wil zeggen was het verhaaltje wat ik in mijn vorig bericht had geschreven. Plus dat het ervoor zorgt dat andere makers van bestandssystemen zoals bijvoorbeeld IBM en HP verder gaan kijken naar hoe hun bestandssysteem verbeterd kan worden of nog beter het bestandssysteem zelf als zodanig implementeren. Dit soort ontwikkelingen moet je dus hebben.

Acties:
  • 0 Henk 'm!

  • Kees
  • Registratie: Juni 1999
  • Laatst online: 15:08

Kees

Serveradmin / BOFH / DoC
Verwijderd schreef op dinsdag 06 april 2010 @ 14:37:
[...]

En los daarvan vind ik ZFS mijn optiek niet zodanig volwassen genoeg nog om het te gebruiken.
Tja, ik denk dat ZFS (FreeBSD, (open)Solaris) meer OS'ses support dan, op dit moment, btrfs (alleen linux). Verder wordt het redelijk veel in productie gebruikt (alle sun storage systemen draaien erop) en is het de default als je tegenwoordig opensolaris gebruikt. Wat moet er dan nog meer volwassen aan worden om het te gebruiken? Het enige wat ik in jouw post proef is dat een FS pas volwassen is als het onder linux draait? Wat zijn wel volwassen FS'en in jouw optiek?

En ja, ik heb hier ook een server met OpenSolaris/ZFS staan als storage machine, en ik ben er redelijk tevreden over, de dingen waar ik tegenaan liep waren meer solaris-linux specific dan dat zfs problemen gaf.

[ Voor 7% gewijzigd door Kees op 06-04-2010 15:01 ]

"Een serveradmin, voluit een serveradministrator, is dan weer een slavenbeheerder oftewel een slavendrijver" - Rataplan


Acties:
  • 0 Henk 'm!

Verwijderd

Waar ik me nogal aan stoor is dat zfs overdreven opgehemeld wordt als het ultieme blablabla filesystem. Zeer onzinnig en ook zeer dom fanboy gedrag naar mijn mening. Ik gebruik ook zfs op 2 Oracle Sun 7110 NASjes en ben daar best tevreden over. Maar ik gebruik ook xfs, ext3, fat32, ntfs, vmfs, enz enz waar ook ik tevreden over ben.

Use the right tool for the right job ;)

Acties:
  • 0 Henk 'm!

  • Kees
  • Registratie: Juni 1999
  • Laatst online: 15:08

Kees

Serveradmin / BOFH / DoC
Verwijderd schreef op dinsdag 06 april 2010 @ 16:16:
Waar ik me nogal aan stoor is dat zfs overdreven opgehemeld wordt als het ultieme blablabla filesystem. Zeer onzinnig en ook zeer dom fanboy gedrag naar mijn mening. Ik gebruik ook zfs op 2 Oracle Sun 7110 NASjes en ben daar best tevreden over. Maar ik gebruik ook xfs, ext3, fat32, ntfs, vmfs, enz enz waar ook ik tevreden over ben.

Use the right tool for the right job ;)
Yep, en meestal hangt het ook van het OS af wat je erop kan draaien. Maar als je gewoon neutraal er naar kijkt, dan heeft ZFS gewoon meer features die het leven aangenamer maken dan een FS als ext3/4. Maar onder Linux is het niet beschikbaar, dus moet je daar wel voor ext3/4/xfs gaan.

Zelf gebruik ik ook redelijk veel verschillende fs'en door elkaar, maar qua gemak en beheer springt zfs er imo wel uit. Dat kun je als ophemelen zien, maar alleen btrfs voor linux gaat gelijkwaardig worden, maar dat is imo nog niet af.

Ik denk wel dat zfs/btrfs de toekomst is qua filesystems.

"Een serveradmin, voluit een serveradministrator, is dan weer een slavenbeheerder oftewel een slavendrijver" - Rataplan


Acties:
  • 0 Henk 'm!

Verwijderd

Kees schreef op dinsdag 06 april 2010 @ 17:41:
[...]
Ik denk wel dat zfs/btrfs de toekomst is qua filesystems.
Helemaal mee eens :)

Acties:
  • 0 Henk 'm!

Verwijderd

Kees schreef op dinsdag 06 april 2010 @ 14:58:
Wat moet er dan nog meer volwassen aan worden om het te gebruiken? Het enige wat ik in jouw post proef is dat een FS pas volwassen is als het onder linux draait? Wat zijn wel volwassen FS'en in jouw optiek?
Vormen van een volwassen bestandssysteem is bijvoorbeeld JFS en JFS2. Jammer genoeg heeft JFS2 alleen optie voor journaling. Het draait bijvoorbeeld op AIX, Linux, Open -en FreeBSD.
Alleen geef ik toe dat het niet dezelfde functionaliteit heeft als ZFS maar dat heeft iedere bestandssysteem op het moment die wat ouder is dan bijvoorbeeld ZFS.
En ja, ik heb hier ook een server met OpenSolaris/ZFS staan als storage machine, en ik ben er redelijk tevreden over, de dingen waar ik tegenaan liep waren meer solaris-linux specific dan dat zfs problemen gaf.
Ik zeg ook niet dat je ZFS links moet laten liggen. In principe heeft iedere bestandssysteem zijn voor -en nadelen. Voor storage lijkt ZFS een goeie optie om te gebruiken en kan zeker als referentie gebruikt worden voor toekomstige bestandssystemen want die zijn gewoon nodig.

Even wat naast: als je terug kijkt van pakweg 5 a 8 jaar geleden, toen waren de omgevingen ook anders dan nu. High availability was toen al iets wat de klok sloeg maar dat is nu nog meer dan ooit. En daar moet dus ook een bijpassend bestandssysteem voor zijn want een slechte bestandssysteem kan in feite ook de performance ten nadele beinvloeden.

Ik vind ZFS is een goed bestandssysteem. Maar de bijkomende fanboyism keur ik gewoonweg af omdat het nergens naar toe leid. En zoals Stachelkracht eigenlijk al zei: Use the right tool for the right job. Dus het als ZFS het een keer niet is, moet dat gewoon kunnen.

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op dinsdag 06 april 2010 @ 19:26:
[...]
Vormen van een volwassen bestandssysteem is bijvoorbeeld JFS en JFS2. Jammer genoeg heeft JFS2 alleen optie voor journaling. Het draait bijvoorbeeld op AIX, Linux, Open -en FreeBSD.
Ik zie nog steeds niet hoe 'ondersteuning in meerdere platformen' gelijk staat aan 'volwassen'. NTFS is ook volwassen (en wordt op miljoenen servers en desktops over de hele wereld gebruikt) en toch wordt 't alleen ondersteund in Windows NT. Ext2/3 zijn ook volwassen (geldt hetzelfde voor) en toch is de officiele ondersteuning daarvan alleen aanwezig in Linux. HFS+ is ook volwassen (geldt ook weer hetzelfde voor) en toch wordt dat alleen door Darwin en MacOS ondersteund.

Verder ben ik absoluut geen ZFS-fanboy hoor. Ik heb meer HFS en XFS filesystems draaien dan ZFS. Ik vind alleen ZFS wel een heel geweldig FS omdat er gewoon verdomd goed over is nagedacht en ik van dat soort dingen gewoon gelukkig word.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

Verwijderd

CyBeR schreef op dinsdag 06 april 2010 @ 19:32:
[...]


Ik zie nog steeds niet hoe 'ondersteuning in meerdere platformen' gelijk staat aan 'volwassen'. NTFS is ook volwassen (en wordt op miljoenen servers en desktops over de hele wereld gebruikt) en toch wordt 't alleen ondersteund in Windows NT. Ext2/3 zijn ook volwassen (geldt hetzelfde voor) en toch is de officiele ondersteuning daarvan alleen aanwezig in Linux. HFS+ is ook volwassen (geldt ook weer hetzelfde voor) en toch wordt dat alleen door Darwin en MacOS ondersteund.

Verder ben ik absoluut geen ZFS-fanboy hoor. Ik heb meer HFS en XFS filesystems draaien dan ZFS. Ik vind alleen ZFS wel een heel geweldig FS omdat er gewoon verdomd goed over is nagedacht en ik van dat soort dingen gewoon gelukkig word.
Ja maar FAT en FAT32 zijn geen robuuste bestandssystemen met allerlei features zoals protectie, high redundancy etc. En dus ook niet geschikt om in een enterprise omgeving ingezet te worden als een bestandssysteem voor storageomgevingen waar ZFS dus wel geschikt voor is.
En daar wordt het verschil gemaakt: het moet betrouwbaar zijn, robuust en wanneer er stront aan de knikker is dat je de mogelijkheid heb om ASAP je data weer terug kan halen.

Als je een harde plasser krijgt van goed bedachte bestandssystemen dan moet je eens kijken naar HAMMERFS van DragonflyBSD. Dat is bedacht en geimplementeerd door 1 man. Als je kijkt naar wat het kan en wat ZFS kan is HAMMER gewoonweg ingenieus.

[ Voor 5% gewijzigd door Verwijderd op 06-04-2010 19:47 ]


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op dinsdag 06 april 2010 @ 19:44:
[...]

Ja maar FAT en FAT32 zijn geen robuuste bestandssystemen met allerlei features zoals protectie, high redundancy etc. En dus ook niet geschikt om in een enterprise omgeving ingezet te worden als een bestandssysteem voor storageomgevingen waar ZFS dus wel geschikt voor is.
En daar wordt het verschil gemaakt: het moet betrouwbaar zijn, robuust en wanneer er stront aan de knikker is dat je de mogelijkheid heb om ASAP je data weer terug kan halen.
Waar haal jij nou FAT(32) steeds weer vandaan? Als er iets brak is, is dat 'm wel.
Als je een harde plasser krijgt van goed bedachte bestandssystemen dan moet je eens kijken naar HAMMERFS van DragonflyBSD. Dat is bedacht en geimplementeerd door 1 man. Als je kijkt naar wat het kan en wat ZFS kan is HAMMER gewoonweg ingenieus.
Harde plasser is overdreven, ik zei gelukkig :P

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

Verwijderd

CyBeR schreef op dinsdag 06 april 2010 @ 19:49:
Waar haal jij nou FAT(32) steeds weer vandaan? Als er iets brak is, is dat 'm wel.
Het was maar een voorbeeld ;)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14

Q

Au Contraire Mon Capitan!

Verwijderd schreef op dinsdag 06 april 2010 @ 10:49:
[...]


Ik heb op een dikke 100 Linux servers en nog een flink aantal desktops XFS draaien. Draait alle jarenlang probleemloos :) Hoewel ik tegenwoordig misschien wel voor EXT4 zou kiezen.
Maar EXT4 kan nog steeds niet voorbij de 16 TB :( Dit is naar mijn weten vooral een user land utility probleem, niet zozeer van het FS zelf. Maar de praktijk is dat 16 TB+ EXT4 nog niet kan (jaar geleden getest).

Op XFS wordt veel gescholden op het Internet, maar als puntje bij paaltje komt gets XFS the job done.

ZFS is met de dood van SUN ben ik bang ook ten dode opgeschreven, hoe gaaf het ook is. Dat soort FS is geweldig en ik zou er graag gebruik van maken, maar als het er niet voor Linux (main stream) is dan houdt het op voor mij dan.

Is er voor Linux iets dat op ZFS lijkt? Behalve BTRFS wat nog niet af is?

[ Voor 19% gewijzigd door Q op 07-04-2010 21:54 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Q schreef op woensdag 07 april 2010 @ 21:51:
Is er voor Linux iets dat op ZFS lijkt? Behalve BTRFS wat nog niet af is?
Nee helaas niet. Als je onder Linux een high-end filesystem zoekt dan kom je al snel op XFS, JFS of EXT4 terecht, maar die hebben geen ZFS features.

Acties:
  • 0 Henk 'm!

Verwijderd

Wat ik altijd jammer heb gevonden is dat ADvFS niet onder Linux beschikbaar is. Ik heb 2 Tru64 bakken op mijn werk staan en het is echt een heel interessant filesystem dat zich in de enterprise wereld heeft bewezen. Sinds een aantal jaar is ADvFS GPL.

Wikipedia: AdvFS

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

misschien on/off topic maar

het valt me wel op dat ZFS "flexibeler" is dan mening ander FS, meer disks = meer speed

noem het fanboy maar geef toe je leest meer en meer over ZFS in gebruik, die entousiastme moet ergens vandaan komen.

Als ik het zo begrijp wat het kan, is dat je x.y.z aantal disks in 1 pool gooit ( (raidz of niet?)
grotes van de disks maakt niet meer uit. en gaan met die banaan.
Vraag me alleen af of het last heeft van disk allignment performance problemen van de 4kib disks (wd ears/wd greens etc)


Nadeel is wel dat je een sloot ram nodig hebt en 64-bit os wil het een beetje soepel draaien.

Wat ik wel mis is een cluster toepassing, en al dan niet netwerk gedeeld in vele OS-en

Stelling
Het zou toch ideaal zijn als je BV @home 1 nas bouwt en daarin een lading diskspace en de rest van de pc's in home disksless kan booten en je diskspace optimaal kan benuten (voor natuurplaatjes en geluid)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 11-09 21:28

CAPSLOCK2000

zie teletekst pagina 888

vso schreef op vrijdag 25 juni 2010 @ 11:40:
Het zou toch ideaal zijn als je BV @home 1 nas bouwt en daarin een lading diskspace en de rest van de pc's in home disksless kan booten en je diskspace optimaal kan benuten (voor natuurplaatjes en geluid)
Dat ben ik zoiets van plan. SSD's in m'n desktops en alle grote herrie schijven in m'n server.
Helemaal diskless wil ik niet, want als er dan iets mis gaat met m'n server zit ik ook zonder desktop.
M'n multimedia pc ga wel ik wel diskless draaien (zonder fileserver heb ik daar toch niks aan) maar dat ding gebruikt een brakke usb-wifi-nic die niet wil pxe-booten.

Een bijkomend voordeel van (bijna) al m'n data op m'n server hebben is dat ik er ook (via internet) bij kan als ik niet thuis ben.

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!

Verwijderd

ZFS the last word in file systems is naar mijn idee het beste file systeem dat er is. Ik vind de vergelijking met extX, XFS en wat niet het zelfde als appels en peren.

Je moet het file systeem van SUN eerder vergelijken met file systemen als WAFL, SAN/NAS based oplossingen hebben hele andere eisen. Het hele hybrid storage concept is briljant van SUN, ZFS intent logs en L2ARC zijn uniek zelfs in vergelijk met de hele grote spelers als WALF (netapp) dat nog bol staat van beperkingen door legacy issues als 16TB volumes maximum aantal files, en maximum aantal snapshots en wat niet.

Daarnaast door gebruik te maken van nieuw technieken (wat heet; multicores) zijn ze in staat om checksums te doen tegen silent data corruptie (bitrot etc) verschillende raid levels zelfs raid 7 (?)

Ook het heel concept van data management is uniek: zfs create rpool/cyber; zfs set sharesmb=on rpool/cyber hoppa een CIFS share :-) Dat zijn features die ik niet heb met ext3 4 of BRTFS. zfs send is ook een feature die async replicatie mogelijk maakt. Dedup, inline compressie en host daar je VM's op -- en zeg dan nog eens: XFS is goed genoeg ;) Linus himself zei dat ZFS goed is

En ZFS dood door Oracle? Ik denk dat het juiste 1 van de redenen was om SUN te nemen. Daarnaast zijn er bedrijven als Nexenta waar de kernel developers van SUN naar toe gaan. Solaris is misschien minder bekend dan Linux maar het is zeker een heel goed OS o.a zones (dat dus ook ingebakken zit in ZFS en je zones kan clonen etc..etc) Oracle wil het data center in zeggen, cloud computing is hip... Oracle heeft high performance storage nodig voor databases.... het fundament in dat alles is toch storage niet waar?

Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Gilaap, misbruik mijn naam eens niet voor je pornostores :P

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • deadlock2k
  • Registratie: Januari 2003
  • Laatst online: 10-08 20:26
-

[ Voor 99% gewijzigd door deadlock2k op 06-08-2021 16:20 ]


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 11-09 21:28

CAPSLOCK2000

zie teletekst pagina 888

deadlock2k schreef op woensdag 30 juni 2010 @ 10:47:
offtopic:
Wifi heeft geen PXE implementatie. Sowieso zou ik aanraden om multimediamachines die je niet verplaatst gewoon bekabeld aan te sluiten, helemaal als je HD content wil gaan streamen. Probleem van wireless is namelijk dat de snelheid van je complete netwerk omlaaggetrokken wordt naar de snelheid waarop het langzaamste apparaat werkt. Als er dus iemand in huis in de tuin gaat zitten WLAN'en waar de verbinding maar 11Mbit is, dan krijgen alle apparaten die snelheid. Heb er een mooie Cisco presentatie over gezien een half jaar geleden.
Bedankt voor de tips, maar het gaat me lukken :)

Bekabeld aansluiten is geen realistische optie.
Ik hoef maar een kleine stukje (<5 meter) te overbruggen.
Er zit normaal gesproken niemand anders op dit draadloze netwerk.
Al m'n buren zijn hoogbejaard en hebben geen geavanceerde apparatuur als WIFI, telefoons of magnetrons.
Ik draai op 5ghz en verwacht dus eigenlijk geen storing.
Dit netwerk pompt zonder problemen 100mbit over.
Het beweert zelfds op 270mbit te draaien maar die snelheid heb ik er nog niet echt uit weten te slepen.

Het diskless draaien van die kist is voornamelijk een gimmick, al wil ik wel van de HD's af om dat die oud, heet en lawaaierig zijn. Ik heb nog een USB-key van 64 hele megabytes over. Ik denk dat ik die van Linux ga voorzien en dan na het booten de rest van netwerk haal.
Maar het gaat nu wel heel erg ver offtopic dus ik ga maar eens ophouden. Toch bedankt voor het meedenken :)

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

deadlock2k schreef op woensdag 30 juni 2010 @ 10:47:
[...]
Als er dus iemand in huis in de tuin gaat zitten WLAN'en waar de verbinding maar 11Mbit is, dan krijgen alle apparaten die snelheid. Heb er een mooie Cisco presentatie over gezien een half jaar geleden.[/offtopic]
Dan ben je ofwel verkeerd voorgelicht of je hebt iets verkeerd begrepen want dat is niet waar.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • JaQ
  • Registratie: Juni 2001
  • Laatst online: 11-09 23:32

JaQ

Verwijderd schreef op woensdag 30 juni 2010 @ 00:12:
En ZFS dood door Oracle? Ik denk dat het juiste 1 van de redenen was om SUN te nemen. Daarnaast zijn er bedrijven als Nexenta waar de kernel developers van SUN naar toe gaan. Solaris is misschien minder bekend dan Linux maar het is zeker een heel goed OS o.a zones (dat dus ook ingebakken zit in ZFS en je zones kan clonen etc..etc) Oracle wil het data center in zeggen, cloud computing is hip... Oracle heeft high performance storage nodig voor databases.... het fundament in dat alles is toch storage niet waar?
Ik kan me nauwelijks voorstellen dat ZFS een reden was om SUN over te nemen door Oracle. Oracle gebruikt voor databases immers geen ZFS, maar ASM (en terecht). Daarnaast heeft Oracle voor files ACFS ontwikkeld (enkel voor Linux als ik mij niet vergis).

Wat wel opvalt is dat Oracle nu zowel Linux (OEL) als Solaris als primair ontwikkelplatform heeft aangewezen. Dit was de laatste paar jaar enkel OEL, na vele jaren Solaris. Dus half terug op het oude nest. Dit heeft (positieve) gevolgen voor de betrouwbaarheid van de software en snelheid voor het ontwikkelen van patches van Oracle software op Solaris.

Egoist: A person of low taste, more interested in themselves than in me


Acties:
  • 0 Henk 'm!

Verwijderd

toeval wil dat ZFS nagenoeg een database is ;) elke tabel een eigen FS. met eiigen properties met eigen blocksizes met eigen replicatie schema's etc...

[ Voor 53% gewijzigd door Verwijderd op 30-06-2010 15:32 ]


Acties:
  • 0 Henk 'm!

  • deadlock2k
  • Registratie: Januari 2003
  • Laatst online: 10-08 20:26
-

[ Voor 99% gewijzigd door deadlock2k op 06-08-2021 16:19 ]


Acties:
  • 0 Henk 'm!

  • JaQ
  • Registratie: Juni 2001
  • Laatst online: 11-09 23:32

JaQ

deadlock2k schreef op donderdag 01 juli 2010 @ 12:30:
ASM is een volume manager. Geen FS.
Dat klopt, maar ik beweer ook niet dat ASM een FS is. Ik beweer enkel dat een filesystem als ZFS niet interessant is voor een Oracle database, omdat een Oracle database excelleert op ASM. Derhalve is ZFS geen waarschijnlijke hoofdreden voor de overname van SUN.
Die was ik inderdaad vergeten.
deadlock2k schreef op donderdag 01 juli 2010 @ 12:30:
Hoezo heeft dat positieve gevolgen?
Voor Solaris is het positieve gevolg dat er vanuit Oracle meer aandacht naar Solaris en Linux gaat dan naar andere platformen (wat in het verleden wel eens anders is geweest). Een gedeelte van de software wordt zelfs rechtstreeks ontwikkeld op Solaris, ipv dat er een port wordt gemaakt (zoals voor andere besturingssystemen). De software die niet op Solaris wordt ontwikkeld, wordt het eerst geport naar Solaris.

Een goed voorbeeld zijn de patches voor AIX of HP-UX (zeker op IA64), deze zijn (veel) later beschikbaar dan voor andere besturingssystemen. In algemene zin is het dus geen positief gevolg, voor Solaris fans wel.

Egoist: A person of low taste, more interested in themselves than in me


Acties:
  • 0 Henk 'm!

  • Rainmaker
  • Registratie: Augustus 2000
  • Laatst online: 14-07-2024

Rainmaker

RHCDS

Nog even een interessante mededeling voor sommige mensen hier: ik heb gisteren de zfs-fuse package op mijn Gentoo systeem ge-update.

Eindelijk;
- Ik kan files als vdev gebruiken
- ddup werkt (!) :D
- zpool status eindigt niet meer direct in "Terminated"
- Ik kan er data opzetten.

Of het helemaal productierijp is; maar het begint te komen.

We are pentium of borg. Division is futile. You will be approximated.

Pagina: 1