ZFS talk

Pagina: 1
Acties:

Onderwerpen


  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Velen hebben er vast wel een keer van gehoord: ZFS. Voor velen blijft het dan ook bij het horen. Schaam je echter niet, want ook op internet is het betrekkelijk stil rond dit filesysteem van Sun. En toch is dit een zeer krachtig filesysteem dat een radicaal andere opzet heeft t.o.v alles wat er verder nog in FileSystem land aanwezig is. Tijd dus voor een topic :D

Als eerste maar even een paar websites met basic info's later meer:

- ZFS community @ opensolaris
- ZFS wiki

OS support
ZFS schijnt zich het beste thuis te voelen op Solaris, maar er zijn ondertussen ook ports BSD en linux. Apple wilde ZFS zelfs in Leopard gebruiken als hoofd filesysteem, is daar echter op terug gekomen, misschien krijgt Snowleopard een kans... Er is overigens wel gewoon een OSX port beschikbaar voor de liefhebber ;)

Wat maakt ZFS nu eigenlijk zo speciaal :?
Wat als eerste op zal vallen is dat ZFS werkt met storage pools. Binnen zo'n pool kun je zelf filesystemen aanmaken en je kunt ook vast grottes of quotas instellen. Partitioneren is er niet meer bij :) ZFS regelt dat allemaal transparant in de achtergrond. Het tweede dat op zal vallen is dat een storage pool kan bestaan uit meer dan een schijf. Dit houdt in dat ZFS dus ook een software RAID functionaliteit ingebouwd heeft, met de mogelijkheid tot diverse RAID levels, van raid 0 tot RAIDZ2 of een combinatie van verschillende.

Raakt je filesysteem vol, dan druk je simpelweg een nieuwe disk (of meerdere) in je systeem, en voegt deze toe aan je storage pool als een nieuwe stripe. De extra schijfruimte is direct aanwezig :) Op de achtergrond zal het filesysteem er vervolgens zelf voor zorgen dat de nieuwe schijf optimaal benut wordt, dat zal dus inhouden dat een deel van de oude data naar de nieuwe stripe zal worden overgezet zodat om zo IO performance te maximaliseren.

Nu hoor ik al meteen de fans va hardware raid klagen dat dat de enige juiste weg is... Sun lijkt hier echter duidelijk andere ideeën over te hebben en is voor de juiste combinatie van de twee. Je kunt je voorstellen dat je hardware raid in bepaalde configuraties nog steeds wil gebruiken om bus IO bandbreedte te besparen naar de schijf controller. Het maakt nogal wat uit of je 10 disks vanuit je OS direct aanspreekt, of die 10 disks transparant via de raid controller als zijnde 2 raid devices.

Verder heeft ZFS zijn eigen foutdetectie en reparatie kit in huis. Er wordt gewerkt met checksums om file integriteit te kunnen testen.

Wil je wat demo's zien, kijk dan eens hier.

Er is nog meer
ZFS is niet alleen gebouwd voor eenvoud, betrouwbaarheid, schaalbaarheid en flexibiliteit, maar ook voor performance. Het IO model van ZFS werkt met pipelines en kan ook out-of-order en op basis van prioriteiten beslissingen nemen om zo efficient mogelijk om te kunnen gaan met de pool. Verder is er ook een ARC cache welke voor een verdere performance boost zorgt. Voor snelle synchrone schrijfacties heeft Sun het principe van het intent log (ZIL) bedacht. Dit is een blok ergens op de pool, of op een losse schijf waar ZFS snel, op een sequentiële manier IO opdrachten naar toe kan schrijven, welke later, als IO load gunstiger is, weer afgespeeld kunnen worden. Het schijven van random data kan zo een flinke performance boost krijgen, zeker als de ZIL op een losse schijf gesitueerd is. Als het systeem zou crashen, wordt de ZIL ook gebruiken om nog uitstaande IO transacties alsnog uit te voeren zodra het systeem weer opnieuw start. Zo is de data in je pool altijd consistent

Snapshots en backup
Nog een mooie feature, die je ook bij andere moderene filesystemen begint te zien is de mogelijkheid om een snapshot te maken van je data. Dit is prima te gebruiken als backup. ZFS is dan zo slim om niet een complete copie van je data te maken, maar zorgt er simpelweg voor dat aanpassingen die gedaan worden in het filesysteem niet naar de zelfde clusters worden geschreven, maar op een nieuwe plek. Dit laatste doet ZFS overigens standaard.

So far so good, wat nu?
ZFS heeft natuurlijk nog meer features, als je meer wil weten moet je zelf op zoek gaan, bijvoorbeeld deze PDF ;)

Waar ik wel naar op zoek ben zijn praktische tips en praktijkervaring. Er is wel wat te vinden, bijvoorbeeld hier: hier. Maar ik mis eigenlijk essentiële informatie die het mogelijk maken om duidelijke oplossingen te vinden voor bepaalde doelstellingen. Zo laten ze enkele voorbeelden zijn van recommended setup voor enkele Sun machines, zonder zinvolle uitleg erbij.

Je kunt dus niet vooraf makkelijk inschatten welke configuratie het beste zal uitpakken, zeker ook omdat er op internet verdacht weinig info opduikt. Toch is er wat wat te vinden:

- http://blogs.sun.com/paul...ng_postgresql_on_zfs_file
- http://dimitrik.free.fr/db_STRESS_BMK_Part2_ZFS.html
- http://blogs.sun.com/realneel/category/ZFS
- http://blogs.sun.com/perrin/entry/the_lumberjack

Dat is niet al teveel, maar laat enerzijds zien dat ZFS een groot potentieel heeft, en aan de andere kant dat het nogal wat uitmaakt hoe je het een en ander configureerd.

Tijd dus voor wat discussie lijkt me :Y)
Ik zal dan ook maar meteen met een eigen vraag van start gaan O-) Wij staan binnenkort namelijk voor de volgende case: server bestaande uit 2x Quad core Intel@2.6,64GB memory, en 16x 15K5 SAS disks op een ICP controller. Dit beestje dient uitsluitend een PostgreSQL database te runnen met een behoorlijk forse load en database omvang. Het idee is om op deze machine OpenSolaris te draaien met ZFS als filesysteem voor de database omgeving. De vraag is echter hoe we dit gaan indelen? We hebben 16 disks, en een veelvoud aan verschillende configuraties, die allemaal een andere impact zullen hebben op performance. Voor de database toepassing zal het vooral van belang zijn om random IO performance te maximaliseren. Voor het gemak ga ik ervan uit dat het OS op een een niet ZFS disk mirror geïnstalleerd zal worden bestaande uit twee disks in hardware RAID1. Blijven dus nog 14 disks om mee te spelen. Je zou er nog aan kunnen denken om een of twee disks als hot spare te reserveren (zowel de controller als ZFS kunnen hiermee overweg), maar aangezien de spare net zo veel kans op falen heeft als een actieve disk (draaien doet de hot spare immers toch) zie ik het voordeel niet direct hiervan. Daarnaast heeft PostgreSQL nog een transactielog welk voor optimale performance op een losse pool gezet zou moeten worden. Ook de ZIL zou voor performance een losse pool moeten worden, de vraag is of dat voor zowel het transactie log als de data zou moeten.

Grootste probleem is het vinden van de juiste verhoudingen in performance tussen de verschillende onderdelen, en wat je de controller laat doen, en wat ZFS? Met andere woorden: hoeveel disks ga je opofferen voor welk onderdeel? De ZFS Best Practices Guide is hier niet echt een enorm grote hulp. Er staan wel wat pointers, maar je komt er niet erg ver mee.

Uiteindelijk zullen benchmarks moeten uitwijzen wat de beste combinatie is voor onze toepassing, tevens is het en mooie test om te zien of ZFS in de praktijk de kop boven water kan houden. Mijn hoop is dat anderen al een keer tegen dit soort dingen zijn aangelopen, zoniet dan hoop ik dat ik voldoende info kan verzamelen om meer inzicht te krijgen, en dat anderen daar weer wat van kunnen leren :)

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

Verwijderd

ZFS is leuk speelgoed, maar .....
  • Er zijn geruchten dat Sun ZFS heeft afgekeken van NetApp's WAFL (meer info hierover hier)
  • ZFS heeft stabiliteits issues op 32bit systemen (meer info)
  • Het kan niet native in de linux kernel geimplementeerd worden dankzij patent issues (info)
offtopic:
en het heeft mij al eens 1.3TB aan data gekost -_-


edit:

Al met al zou ik voor jouw workload, waar je uiteindelijk vrij statische volumes gaat gebruiken, gewoon met iets als mdadm(kan tegenwoordig gewoon hot-add) of hardware raid een aantal pools aanmaken, met daarop gebenchmarkte snelle filesystems. Databases op raid1+0, transactie log op een stripe of een mirror. Liefst beide ook op een aparte controller en eigen io bus ;). Al was het maar omdat die data waarschijnlijk te kostbaar is om te verliezen en de restore tijd (te) lang. Niet alleen zijn de iets "conventionelere" methodes robuuster, ze zijn ook vele malen beter gedocumenteerd.

[ Voor 33% gewijzigd door Verwijderd op 15-08-2008 21:01 ]


Acties:
  • 0 Henk 'm!

  • lamko
  • Registratie: December 2001
  • Laatst online: 20-10-2024
Bye, Bye ZFS topic
dankzij r3bootje z'n post :) grapje
Met lvm en xfs en softraid kun je ook genoeg leuke dingen doen alleen mis je dan het IO model.

[ Voor 4% gewijzigd door lamko op 15-08-2008 20:59 ]

And this !! Is to go even further beyond!!!


Acties:
  • 0 Henk 'm!

Verwijderd

Oh nee hoor, ga vooral verder :) ZFS is enorm interesant, dat is een ding wat zeker is. Ik raad het mensen echter af er serieuze workloads mee te draaien (tenzij er (open)solaris gebruikt wordt op een 64bit machine met >4gb ram), totdat het zichzelf bewezen heeft en/of de juridische donkere wolk die erboven hangt is opgeklaart.

Acties:
  • 0 Henk 'm!

  • phobosdeimos
  • Registratie: Augustus 2007
  • Laatst online: 22:12
Het enige wat echt telt in dergelijke setups is betrouwbaarheid. En dan ga je liefst voor iets wat zichzelf al jarenlang bewezen heeft, op miljoenen installaties wereldwijd.
Ext3 dus.

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Als ik zo de TS eens lees, (en er dus nog niet echt ingedoken ben) herken ik de manier van werken met storage pools van de meeste veritas-gebaseerde filesystems, bijvoorbeeld in HP-UX. Alleen heb je hier volumegroups, en logical volumes. De mogelijkheden m.b.t raid en snapshotting zitten daar ook in. Vergelijkbare dingen vind je in AIX, Solaris met Veritas en zelfs Digital Unix hadden dit al. Wellicht dat het hier niet allemaal zo automatisch ging, maar de pricipes komen aardig overeen. En dit bestaat echt al meer dan 10 jaar.

Ik denk dat het nieuwe vooral in het gedeelte in de TS met het kopje "Er is nog meer" te vinden is, of ik mis het punt van wat er nu zo revolutionair aan is ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • E-jey
  • Registratie: Juni 2001
  • Niet online
Oracle is ook een nieuwe FS aan het maken. Volgensmij heeft het vergelijkbaare features als ZFS: http://btrfs.wiki.kernel.org/index.php/Main_Page

Voordeel is dat het geheel GPL is en dus gewoon in de linux kernel geimplementeerd kan worden. ZFS is heel cool maar zolang Sun zo krampachtig blijft doen met die licenties en patenten zal het nooit wat worden.

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Verwijderd schreef op vrijdag 15 augustus 2008 @ 19:59:
ZFS is leuk speelgoed, maar .....
  • Er zijn geruchten dat Sun ZFS heeft afgekeken van NetApp's WAFL (meer info hierover hier)
  • ZFS heeft stabiliteits issues op 32bit systemen (meer info)
  • Het kan niet native in de linux kernel geimplementeerd worden dankzij patent issues (info)
Dat het niet in Linux kan is een beperking van de GPL, althans, zo zou je het ook kunnen zien. Zo vrij als dat de FSF en vele anderen je willen doen denken is die GPL dus niet. Het is maar net hoe je het bekijkt. Besides that bestaat er wel meer dan alleen Linux aan operating systems en is er een project gaande die alsnog ZFS naar Linux kan brengen. Zit het er weliswaar niet default in maar het is wel mogelijk.

Bij FreeBSD hebben ze sinds versie 7 ook support voor ZFS (je kunt er nog niet van booten maar daar zijn ze mee bezig). Ze hebben daar ook aardig wat informatie op hun wiki staan, tot aan howto's aan toe. Meeste wat je aan howto's tegen komt gaan over het finetunen van ZFS. Zeker op gebied van geheugen is het nogal losse pols werk en luistert het best nauw. De ene setting zorgt een heel instabiel systeem, de andere zorgt ervoor dat hij rocksolid is. Ik denk dat je dat eerder als een groot nadeel moet zien dan de paar dingen die je noemt. Die 32-bit instabiliteit is volgens mij ook iets wat je zou kunnen oplossen door de nodig finetune tutorials te volgen.

Overigens klopt je conclusie m.b.t. WAFL niet helemaal. Volgens je link betreft het om een aantal patenten die n WAFL zitten en die Sun met ZFS zou overtreden. Dat hebben ze aan Sun laten weten maar die hebben niks van zich laten horen waarop men een rechtszaak tegen Sun is begonnen.

Ik heb nog een aantal links opgesnort, hieronder in een lijstje gezet:
Algemeen:
- ZFS: what "the ultimate file system" really means for your desktop -- in plain English!
- Why ZFS for home?
- ZFS Best practices guide

FreeBSD 7:
- ZFS Quick start guide
- ZFS Tuning guide

En Apple heeft ZFS in Snow Leopard opgenomen voor wat betreft Snow Leopard Server, of het ook in de gewone client versie komt is niet duidelijk. Meer informatie is te vinden op Apple's site.

Voor een "spectaculaire" demonstratie van ZFS moet je eens zoeken op Youtube, zat filmpjes waar ze iemand uit het publiek een hdd laten kiezen om die vervolgens met een moker plat te meppen.

[ Voor 3% gewijzigd door ppl op 16-08-2008 22:56 ]


Acties:
  • 0 Henk 'm!

  • mithras
  • Registratie: Maart 2003
  • Niet online
Ik zie ZFS zeker ook wel potentie hebben als fs voor home servers. Ik heb nu een 80GB en 300GB hdd liggen. Op die 80 kan ik de server installeren, om dan met de 300GB met ZFS aan de slag te gaan. Hdd vol? Even eentje bijprikken en de pool expanden.
Helaas is er inderdaad nog zo weinig over bekend dat er niet veel te lezen is om zoiets op te zetten (als Linux het al op korte termijn zou kunnen ondersteunen...).

Maar als ze het onder Linux draaiende krijgen (en dan niet met FUSE waardoor het zo langzaam wordt) krijgt het vast meer aandacht. Die gebruikersgroep is nu eenmaal wat groter :)

Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Hier nog een filmpje op mijn blog waarbij de gasten worden geinterviewed die ZFS hebben gemaakt.. sweet :)

Talking storage systems with Sun’s ZFS team

Ik heb een stuk of 5 NASsen met FreeBSD7 en ZFS draaien, en ik vind het helemaal geweldig. Vooral de ingebouwde compressie is erg leuk (heeft windows ook, niet zo bijzonder, hoewel je bij zfs compressielevel kunt kiezen), maar al met al is het een erg fijn FS, en wat ook leuk is, is dat het redelijk portable is. Je kunt ook je schijfjes eruit halen en ik een andere doos prikken, zpool import, en klaar :)

ZFS in FreeBSD heeft nog de status experimenteel (bij FreeBSD dat betekent dat dat het al maanden stabiel werkt, maar nog niet lang genoeg), dus ik zou het nog niet in productie nemen op mission-critical systemen, maar dat terzijde.

Erg handig om logfiles voor langere tijd op te slaan, zo neemt 3.7TB aan logfiles nog maar 337GB in beslag, en zijn toch alle logs online beschikbaar via bijvoorbeeld Samba voor de log-analysis tools die op andere windows machines draaien:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
[angelo@zvr-bak-01 ~]$ sudo zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT
tank1                      3.24M   658G  3.15M  /tank1
tank2                      2.03T  1.97T    23K  /tank2
tank2/backups              1.70T  1.97T  4.97G  /tank2/backups
tank2/backups/NMT-SQL-06    262G  1.97T   262G  /tank2/backups/NMT-SQL-06
tank2/backups/NMT-WEB-07   12.9G  1.97T  12.9G  /tank2/backups/NMT-WEB-07
tank2/backups/ZVR-SQL-01   1.28T  1.97T  1.28T  /tank2/backups/ZVR-SQL-01
tank2/backups/ZVR-WEB-01    141G  1.97T   141G  /tank2/backups/ZVR-WEB-01
tank2/backups/ZVR-WEB-02   9.91G  1.97T  9.91G  /tank2/backups/ZVR-WEB-02
tank2/backups/ZVR-WEB-03     18K  1.97T    18K  /tank2/backups/ZVR-WEB-03
tank2/logfiles              337G  1.97T    28K  /tank2/logfiles
tank2/logfiles/NMT-WEB-02  50.2G  1.97T  50.2G  /tank2/logfiles/NMT-WEB-02
tank2/logfiles/NMT-WEB-07   141G  1.97T   141G  /tank2/logfiles/NMT-WEB-07
tank2/logfiles/NMT-WEB-16  66.0G  1.97T  66.0G  /tank2/logfiles/NMT-WEB-16
tank2/logfiles/ZVR-WEB-01  25.1G  1.97T  25.1G  /tank2/logfiles/ZVR-WEB-01
tank2/logfiles/ZVR-WEB-02  30.0G  1.97T  30.0G  /tank2/logfiles/ZVR-WEB-02
tank2/logfiles/ZVR-WEB-03  25.2G  1.97T  25.2G  /tank2/logfiles/ZVR-WEB-03
tank2/tmp                    18K  1.97T    18K  /tank2/tmp

[angelo@zvr-bak-01 ~]$ sudo zfs get compression
NAME                       PROPERTY     VALUE                      SOURCE
tank1                      compression  off                        default
tank2                      compression  off                        default
tank2/backups              compression  on                         local
tank2/backups/NMT-SQL-06   compression  on                         local
tank2/backups/NMT-WEB-07   compression  on                         local
tank2/backups/ZVR-SQL-01   compression  on                         inherited from tank2/backups
tank2/backups/ZVR-WEB-01   compression  on                         inherited from tank2/backups
tank2/backups/ZVR-WEB-02   compression  on                         local
tank2/backups/ZVR-WEB-03   compression  on                         inherited from tank2/backups
tank2/logfiles             compression  gzip                       local
tank2/logfiles/NMT-WEB-02  compression  gzip                       local
tank2/logfiles/NMT-WEB-07  compression  gzip                       local
tank2/logfiles/NMT-WEB-16  compression  gzip                       inherited from tank2/logfiles
tank2/logfiles/ZVR-WEB-01  compression  gzip                       inherited from tank2/logfiles
tank2/logfiles/ZVR-WEB-02  compression  gzip                       inherited from tank2/logfiles
tank2/logfiles/ZVR-WEB-03  compression  gzip                       inherited from tank2/logfiles
tank2/tmp                  compression  off                        default

[angelo@zvr-bak-01 ~]$ sudo zfs get compressratio
NAME                       PROPERTY       VALUE                      SOURCE
tank1                      compressratio  1.00x                      -
tank2                      compressratio  3.13x                      -
tank2/backups              compressratio  1.62x                      -
tank2/backups/NMT-SQL-06   compressratio  1.92x                      -
tank2/backups/NMT-WEB-07   compressratio  1.00x                      -
tank2/backups/ZVR-SQL-01   compressratio  1.63x                      -
tank2/backups/ZVR-WEB-01   compressratio  1.02x                      -
tank2/backups/ZVR-WEB-02   compressratio  1.59x                      -
tank2/backups/ZVR-WEB-03   compressratio  1.00x                      -
tank2/logfiles             compressratio  11.00x                     -
tank2/logfiles/NMT-WEB-02  compressratio  10.28x                     -
tank2/logfiles/NMT-WEB-07  compressratio  9.67x                      -
tank2/logfiles/NMT-WEB-16  compressratio  11.18x                     -
tank2/logfiles/ZVR-WEB-01  compressratio  14.41x                     -
tank2/logfiles/ZVR-WEB-02  compressratio  13.97x                     -
tank2/logfiles/ZVR-WEB-03  compressratio  12.46x                     -
tank2/tmp                  compressratio  1.00x                      -


Ik wil binnenkort eens gaan spelen met een testsannetje, een doos inrichten met Solaris10 en ZFS+iSCSI, als iSCSI target voor wat testlab machines die we hebben. (Geen zin om daar een duur SAN voor te kopen). Ik kan met niet aan de indruk onttrekken dat Solaris een stabielere iscsi en zfs implementatie heeft dat freebsd, hoewel ik nergens objectieve vergelijkingen kan vinden.

OpenSolaris heb ik geen ervaring mee, maar ik denk dat ik me beter kan verdiepen in Solaris zelf, aangezien dat de enige versie is die ik in productie zou gebruiken denk ik. (En heb nog SCSA boeken liggen, wil ook die certificering eens doen)

Edit:
En ZFS werkt het veiligst en efficientst als men de disks direct aan ZFS aanbiedt. De Sun guys willen dus ook van allerlei complexe RAID controllers af, zodat ZFS alles zelf in software doet. Moderne CPU's en memory kunnen sneller zijn dan de cpu op de RAID controller, dus performance hoeft niet slechter te zijn. En het is veiliger volgens hen, omdat je dan geen last hebt van de 'RAID5 write hole' (weet niet precies hoe dat laatste precies werkt).

De filosofie spreekt me wel aan.. Sun's thumper (doos met 48 SATA disks) heeft ook 6 of 8 simpele JBOD controllers, en die worden dus zo direct aan ZFS aangeboden.

Ik heb zelf in een PowerEdge 2900 WEL eerst een RAID5+HS volume gemaakt en daarop de zpool. De reden hiervoor is dat de PERC6/i geen JBOD ondersteunt. Je zou wel elke disk als single raid0 aan kunnen bieden, maar schijnbaar geeft de raid controller niet aan ZFS door dat een disk gecrashed is, omdat er nog die RAID virtualisatielaag tussen zit van de RAID controller. 1 disk in RAID0 is niet hetzelfde als echte direct disk access schijnbaar :)

[ Voor 7% gewijzigd door axis op 17-08-2008 13:09 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:54

Q

Au Contraire Mon Capitan!

Ik wil geen discussies doodslaan, ik heb veel respect voor ZFS. Maar als ik het allemaal goed begrijp is ZFS op dit moment mooi speelgoed, maar nog niet geschikt voor productie.

Laat ik het zo zeggen: zelf zou ik het absoluut niet voor productie inzetten. Laat het zich eerst maar eens bewijzen. Betrouwbaarheid boven alles.

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Mooi, eindelijk een paar reacties :)

Veel kritische mensen, altijd goed! En de kritiek is zeker gerechtvaardigd. Laten we het echter ook van de andere kant bekijken.

Dat de ZFS licentie niet in de linux kernel opgenomen kan worden is natuurlijk wel jammer, maar diskwalificeert ZFS natuurlijk niet in NOS ;) Er is meer natuurlijk: BSD varianten en (Open)Solaris :)

32 bits instabiliteit blijkt niet ZFS specifiek te zijn, maar een Solaris breed probleem. In het specifieke geval van de eerste links was er ook nog een driver probleem met de controller. Maar natuurlijk ga ik 64 GB memory niet door een 32-bits OS laten beheren :+

Verder zie ik veel opmerkingen over of het wel geschikt zou zijn in een productie omgeving. Die vraag is denk ik niet te beantwoorden door enkel te kijken naar problemen die mensen posten op hun blogs of forums. Veelvuldig zijn dit problemen die al oud zijn, in nieuwe versies opgelost, of simpelweg incorrecte configuraties.

Sun gebruikt ZFS zelfs zeer succesvol in hun eigen storage machientjes en servers.

Wat ik ook merk is dat er twee termen door elkaar gebruikt worden, namelijk betrouwbaarheid en stabiliteit.Natuurlijk zijn deze twee aan elkaar gerelateerd, maar ik denk wel dat er een belangrijk nuance verschil is. Vooral als je na een crash je gegevens kwijt bent, is betrouwbaarheid veel belangrijker van stabiliteit. En in dat eerste blinkt ZFS natuurlijk absoluut uit. Het tweede, eigenlijk toch wel even belangrijke punt staat nogal heftig onder debat.

Tijd dus om het eens zelf te testen. Als het een beetje meezit komt deze week de server binnen. Dan ga ik verschillende test uitvoeren met ZFS en ook andere filesystemen. In eerste instantie gewoon disk IO benchmarks met sysbench, nog niet zozeer op postgresql gefocust. Dat komt later wel :) OS wordt gewoon dat waar ZFS zich het beste thuisvoelt: OpenSolaris.

Ik hoorde iets over Ext3... nee dankje. Voor postgresql sowiso niet het meeste geschikt fs, en over het algemeen heb ik daar zelf ook geen geweldige ervaringen mee gehad kwa betrouwbaarheid. Dan liever XFS of UFS.

Ow: en dan nog over ZFS i.c.m hardware RAID. Sun wil dit het liefste niet, vanwege de al eerder genoemde nadelen. Er zijn echter ook voordelen, zoals het uitsparen van IO bandbreedte naar de disk controller bijvoorbeeld. Natuurlijk ga ik ook hier verschillende combo's testen.

Gelukkig hebben we ook nog weken de tijd om in een test/development omgeving het hele systeem aan de tand te voelen. Problemen zullen daar dan wel naar boven komen als dat het geval zou zijn.

[ Voor 9% gewijzigd door voodooless op 18-08-2008 09:39 ]

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
voodooless schreef op maandag 18 augustus 2008 @ 09:32:
Ow: en dan nog over ZFS i.c.m hardware RAID. Sun wil dit het liefste niet, vanwege de al eerder genoemde nadelen. Er zijn echter ook voordelen, zoals het uitsparen van IO bandbreedte naar de disk controller bijvoorbeeld.
En het voordeel daarvan is ...?
Met PCI-E x8 heb je 2 gbyte/s. Met random IO lijkt me dat geen bottleneck.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
voodooless schreef op donderdag 14 augustus 2008 @ 23:06:
Daarnaast heeft PostgreSQL nog een transactielog welk voor optimale performance op een losse pool gezet zou moeten worden. Ook de ZIL zou voor performance een losse pool moeten worden, de vraag is of dat voor zowel het transactie log als de data zou moeten.
Heeft ZFS geen flag waarmee je aan kunt geven dat je een bepaald volume op een dedicated disk wilt hebben?
Dat lijkt me een stuk eenvoudiger dan handmatig verschillende pools te maken.

Acties:
  • 0 Henk 'm!

Verwijderd

ppl schreef op zaterdag 16 augustus 2008 @ 22:55:
[...]

Dat het niet in Linux kan is een beperking van de GPL, althans, zo zou je het ook kunnen zien. Zo vrij als dat de FSF en vele anderen je willen doen denken is die GPL dus niet. Het is maar net hoe je het bekijkt. Besides that bestaat er wel meer dan alleen Linux aan operating systems en is er een project gaande die alsnog ZFS naar Linux kan brengen. Zit het er weliswaar niet default in maar het is wel mogelijk.
Oh jazeker. Echter, in de praktijk kom je voornamelijk Linux en Windows systemen tegen. En daar Sun/Solaris eigenlijk aan de kant geveegt wordt door Linux, lijkt het me ook dat Sun er alle baat bij heeft om te voorkomen dat ZFS in de linux kernel geimplementeerd gaat worden.
Bij FreeBSD hebben ze sinds versie 7 ook support voor ZFS (je kunt er nog niet van booten maar daar zijn ze mee bezig). Ze hebben daar ook aardig wat informatie op hun wiki staan, tot aan howto's aan toe. Meeste wat je aan howto's tegen komt gaan over het finetunen van ZFS. Zeker op gebied van geheugen is het nogal losse pols werk en luistert het best nauw. De ene setting zorgt een heel instabiel systeem, de andere zorgt ervoor dat hij rocksolid is. Ik denk dat je dat eerder als een groot nadeel moet zien dan de paar dingen die je noemt. Die 32-bit instabiliteit is volgens mij ook iets wat je zou kunnen oplossen door de nodig finetune tutorials te volgen.
root on zfs (ok, weliswaar met een aparte /boot). Verder, heb zelf ook nagenoeg iedere tuning guide gevolgt die er hierover te vinden is. Echter, geen van deze guides bied een definitieve oplossing, en als je de threads goed volgt komt het nagenoeg altijd neer op "koop een 64bit os of knal er meer ram in".
Ik heb een stuk of 5 NASsen met FreeBSD7 en ZFS draaien, en ik vind het helemaal geweldig. Vooral de ingebouwde compressie is erg leuk (heeft windows ook, niet zo bijzonder, hoewel je bij zfs compressielevel kunt kiezen), maar al met al is het een erg fijn FS, en wat ook leuk is, is dat het redelijk portable is. Je kunt ook je schijfjes eruit halen en ik een andere doos prikken, zpool import, en klaar :)
Dat zpool export/import heb ik nu al meerdere keren fout zien gaan ;) (van zowel fbsd -> fbsd als van opensolaris -> fbsd and van opensolaris -> opensolaris)
Ik hoorde iets over Ext3... nee dankje. Voor postgresql sowiso niet het meeste geschikt fs, en over het algemeen heb ik daar zelf ook geen geweldige ervaringen mee gehad kwa betrouwbaarheid. Dan liever XFS of UFS.
Tsja, voor mij (helaas) niets anders dan ext3. XFS is een (helaas) ook een legacy filesystem met een aantal bijna niet te fixen buffer bugs (files die @ een crash overschreven worden met 1024 x \x000). UFS heb je weer een BSD/Solaris achtige nodig, wat weer in een hoop omgevingen een vreemde eend in de bijt is.

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Olaf van der Spek schreef op maandag 18 augustus 2008 @ 10:35:
Heeft ZFS geen flag waarmee je aan kunt geven dat je een bepaald volume op een dedicated disk wilt hebben?
Dat lijkt me een stuk eenvoudiger dan handmatig verschillende pools te maken.
Nope, kan niet. Je moet gewoon twee pools maken. Zo lastig is dat toch niet :)
Olaf van der Spek schreef op maandag 18 augustus 2008 @ 10:32:
En het voordeel daarvan is ...?
Met PCI-E x8 heb je 2 gbyte/s. Met random IO lijkt me dat geen bottleneck.
Dat is zeer zeker waar, daarom ben ik ook wel zeer benieuwd hoe het een en ander gaat uitpakken in de testen.

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
voodooless schreef op maandag 18 augustus 2008 @ 11:59:
Nope, kan niet. Je moet gewoon twee pools maken. Zo lastig is dat toch niet :)
Complex niet, lastig wel. ;)
Lijkt me toch een gemiste kans voor ZFS. Of misschien is het wel een feature die nog op de todo lijst staat.

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Ik denk dat het eerder iets is dat ze gewoon niet willen. Ik zie ook niet zozeer het nut hiervan al je ook gewoon twee pools kan maken. Ik zie eigenlijk ook niet echt waarom dat lastig zou zijn?

[ Voor 17% gewijzigd door voodooless op 18-08-2008 13:27 ]

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

Verwijderd

Ik snap de opmerking niet dat ZFS niet geschikt is voor professioneel gebruik?

Sun is niet een ontwikkelclubje wat tierelantijntjes bedenkt.

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Dat komt met name door de verschillende verhalen die op internet staan over problemen met stabiliteit en performance.

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • grep
  • Registratie: Augustus 2001
  • Laatst online: 07-07 22:29

grep

meer begrep...

Volgens mij wordt ZFS niet supported door Redhat en/of Novell/Suse voor hun enterprise producten (RHEL/SLES)? Twee belangrijke (ste?) spelers voor professioneel gebruik van linux.
Totdat dat geregeld is zal een bedrijf die een van deze producten gebruikt niet overstappen lijkt me.

Specs | Outcast UT clan | You're going to reap what you sow.


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb alleen zelf het probleem dat ik geen vrije partitie onder solaris vrij heb om ZFS aan te maken.
Ik ben wel benieuwd namelijk naar de prestaties van MYSQL icm met zones en ZFS.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 18 augustus 2008 @ 13:41:
Ik snap de opmerking niet dat ZFS niet geschikt is voor professioneel gebruik?

Sun is niet een ontwikkelclubje wat tierelantijntjes bedenkt.
Sun is veel te laat begonnen met het innoveren op Solaris gebied. Hierdoor zijn ze hun marktaandeel (en daarbij hun sparc hardware markt) eigenlijk een btje kwijt geraakt voor nagenoeg alles behalve legacy omgevingen. Sun ziet ook in dat linux een enorm grote bedreiging is voor hun (open)solaris dus proberen ze nu met man en macht relevant te blijven in enterprise land, oa door het uitbrengen van ZFS (en het (veel te laat) geopensourcde java)
Volgens mij wordt ZFS niet supported door Redhat en/of Novell/Suse voor hun enterprise producten (RHEL/SLES)? Twee belangrijke (ste?) spelers voor professioneel gebruik van linux.
Totdat dat geregeld is zal een bedrijf die een van deze producten gebruikt niet overstappen lijkt me.
En idd. Zolang het niet geintegreerd kan/zal worden onder 1 van de grote dominante linux distro's zal het niet wijdverspreid gebruikt gaan worden.

Acties:
  • 0 Henk 'm!

  • phobosdeimos
  • Registratie: Augustus 2007
  • Laatst online: 22:12
Wel een passend bewijs is de conclusie die de meeste reviews trekken over OpenSolaris: een slecht aftreksel van een middelmatige Linux distro...
Ik zou ZFS graag zien lukken, maar Sun kennende gaat het zo ver niet komen.
Dan liever BTRFS, Oracle heeft tenminste de boodschap begrepen.

Acties:
  • 0 Henk 'm!

Verwijderd

Hmm, dat brtfs ziet er interesant uit. Voor de lnx ppls onder ons iets om in de gaten te houden ;)

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Verwijderd schreef op maandag 18 augustus 2008 @ 11:54:
[...]

Oh jazeker. Echter, in de praktijk kom je voornamelijk Linux en Windows systemen tegen. En daar Sun/Solaris eigenlijk aan de kant geveegt wordt door Linux, lijkt het me ook dat Sun er alle baat bij heeft om te voorkomen dat ZFS in de linux kernel geimplementeerd gaat worden.
Dat ligt er maar net aan. Er zijn heel veel Windows servers maar een groot aantal zit in het MKB die toch echt geen behoefte hebben aan iets als ZFS. Het biedt ze geen enkel voordeel op wat ze nu al hebben, het maakt zaken alleen maar complexer en daardoor ook het beheer. Dat laatste zullen ze vooral in de portemonnee voelen. Misschien ooit eens in de verre verre toekomst maar gezien Microsoft's wijze van niet samenwerken met anderen lijkt me het vrijwel een onmogelijke opgave.

Houdt je alleen nog Linux over welke je veelal tegenkomt in security toepassingen en webservers. Je komt het nog wel eens tegen bij scholen omdat het gratis is. Verder zie je het vooral bij grote bedrijven waarbij een dedicated Solaris bak ook wel een optie is. De promotie van Solaris en OpenSolaris is iets waar Sun veel meer baat bij heeft dan bij ZFS in Linux. OpenSolaris draait nog niet zo grandioos goed als community project en daar is ze alles aan gelegen om dat juist wel te doen. Ze hebben namelijk ook gewoon een concurrerend OS voor Linux die ze willen promoten.

ZFS is leuk maar het is geen silver bullet. Ik denk dan ook dat het leuk is voor situaties waarin een fileserver een ontzettend grote rol speelt, met name eentje waar veel data op kwijt moet.
root on zfs (ok, weliswaar met een aparte /boot). Verder, heb zelf ook nagenoeg iedere tuning guide gevolgt die er hierover te vinden is. Echter, geen van deze guides bied een definitieve oplossing, en als je de threads goed volgt komt het nagenoeg altijd neer op "koop een 64bit os of knal er meer ram in".
De problemen die ik tot dusver ben tegengekomen hadden juist te maken met veel geheugen en het toewijzen van veel geheugen aan ZFS. Je moet goed opzoeken wat de grens is want teveel geheugen toewijzen maakt ZFS heel erg instabiel/onbetrouwbaar (mensen die gewoon data kwijt raken om de haverklap). Ter info: ik heb wel alleen nog kunnen kijken naar ZFS op FreeBSD 7 maar er waren ook al reports over mensen met Solaris en OpenSolaris die dezelfde geheugen problemen hadden. Dat finetunen is naast de juiste hardware dus ook nog steeds van belang. Dat booten had ik inderdaad al gezien maar dat is dus nog niet native. Dat laatste is iets waar men bij FreeBSD nog aan werkt (aan heel de ZFS implementatie trouwens) en waar veel mensen halsreikend naar uitkijken.

Acties:
  • 0 Henk 'm!

Verwijderd

ppl schreef op maandag 18 augustus 2008 @ 14:40:
[...]

Dat ligt er maar net aan. Er zijn heel veel Windows servers maar een groot aantal zit in het MKB die toch echt geen behoefte hebben aan iets als ZFS. Het biedt ze geen enkel voordeel op wat ze nu al hebben, het maakt zaken alleen maar complexer en daardoor ook het beheer. Dat laatste zullen ze vooral in de portemonnee voelen. Misschien ooit eens in de verre verre toekomst maar gezien Microsoft's wijze van niet samenwerken met anderen lijkt me het vrijwel een onmogelijke opgave.

Houdt je alleen nog Linux over welke je veelal tegenkomt in security toepassingen en webservers. Je komt het nog wel eens tegen bij scholen omdat het gratis is. Verder zie je het vooral bij grote bedrijven waarbij een dedicated Solaris bak ook wel een optie is. De promotie van Solaris en OpenSolaris is iets waar Sun veel meer baat bij heeft dan bij ZFS in Linux. OpenSolaris draait nog niet zo grandioos goed als community project en daar is ze alles aan gelegen om dat juist wel te doen. Ze hebben namelijk ook gewoon een concurrerend OS voor Linux die ze willen promoten.
Tsja, ik draai al een aantal jaar mee in hosting land, en daar is rhel/debian/ubuntu/windows de mainstream. Natuurlijk kom je daar nog wel uitzonderingen tegen, maar de afgelopen paar jaar heb ik me vaak bezig moeten houden met het migreren van dat soort (solaris) legacy omgevingen naar (vele malen betaalbare en snellere) linux omgevingen. Vooral als je de grotere commerciele applicaties (oracle/jboss/websphere/db2/etc) moet ondersteunen ben je dom bezig als je daar een solaris bak voor neerzet, want niet alleen mis je performance, je hebt er ook nog 1~2 FTE's voor nodig die het snappen (en/of er niet bang voor zijn), plus dat je dure hardware + support contracten nodig hebt. Natuurlijk zijn er nog pakketten waar de vendor nog geen/weinig/incomplete support voor levert onder linux, en in dat soort gevallen is een solaris doos intri (progress anyone?) maar is het investeren in een nieuwe applicatie meestal net zo duur.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 18 augustus 2008 @ 15:05:
[...]

Tsja, ik draai al een aantal jaar mee in hosting land, en daar is rhel/debian/ubuntu/windows de mainstream. Natuurlijk kom je daar nog wel uitzonderingen tegen, maar de afgelopen paar jaar heb ik me vaak bezig moeten houden met het migreren van dat soort (solaris) legacy omgevingen naar (vele malen betaalbare en snellere) linux omgevingen. Vooral als je de grotere commerciele applicaties (oracle/jboss/websphere/db2/etc) moet ondersteunen ben je dom bezig als je daar een solaris bak voor neerzet, want niet alleen mis je performance, je hebt er ook nog 1~2 FTE's voor nodig die het snappen (en/of er niet bang voor zijn), plus dat je dure hardware + support contracten nodig hebt. Natuurlijk zijn er nog pakketten waar de vendor nog geen/weinig/incomplete support voor levert onder linux, en in dat soort gevallen is een solaris doos intri (progress anyone?) maar is het investeren in een nieuwe applicatie meestal net zo duur.
Hmz, heb je ook de mogelijkheden van de Solaris (Branded) Zones meegenomen in je afweging? Ik vind Solaris niet eens zo heel erg duur en ja natuurlijk heb je andere kennis nodig, maar of dat nou zoveel duurder is?

Ik denk dat een Solaris machine icm met Glassfish in zones en MySQL in zones een hele goede oplossing is voor met name hosting. Glassfish schijnt aanzienlijk betere prestaties te hebben dan de andere webserverpakketten en ondersteund nu ook Ruby on Rails en PHP.

Acties:
  • 0 Henk 'm!

Verwijderd

Qua hardware valt het ook wel mee, tenzij je de echte Sun Machines wil kopen dan gaat de kassa wel rinkelen. Maar een X64 server is niet of niet veel duurder dan een vergelijkbaar DELL systeem. (probleem is dat je verdomd slecht kunt vergelijken)

Acties:
  • 0 Henk 'm!

Verwijderd

Heh, dit klinkt bijna als een verkoop praatje voor Sun ;P Nee, ik kijk naar wat mn klanten vragen en pas mn servers daarop aan. En klanten vragen linux, dus vandaar mn keuze :) Plus, het is tegenwoordig al zo lastig om aan competente linux engineers te komen, laat staan dat je "echte" solaris admins weet te vinden/kunt betalen ;)

Maareuh, verder ontopic lijkt me?

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Laten we aub niet afzakken naar een diepgaande discussie over of je Solaris wel zou gebruiken in bepaalde omgevingen.. Het gaat hoofdzakelijk over ZFS. Natuurlijk heb je weinig aan een snel FS zolang de rest niet up-to-date is. Ik heb straks niets aan een razendsnel IO subsysteem, als postgresql op Solaris niet goed schaalbaar is.

Sun wil gewoon heel graag aansluiten bij Linux. Dat is ook duidelijk merkbaar, door flink te investeren in projecten als Postgresql en Mysql, maar ook door het langzaam opener maken van Java.

'T gaat allemaal niet zo heel snel, maar het gaat wel stap voor stap vooruit. Sun hardware ga ik niet kopen. Ik wacht nog steeds op een mail van een Sun medewerker die wilde beweren dat hun hardware competitief geprijsd was, waarop ik hem eens voorrekende wat wij betalen voor onze hardware :+

OpenSolaris met ZFS wil ik echter gewoon in overweging nemen voor onze database als de prestaties naar behoren zijn. Dan interesseert het me geen reet dat Suse en/of RedHat marktleider zijn (ik zou geen van beiden gebruiken anyway), en dat zegt me ook zeer weinig over hoe goed of slecht een systeem bruikbaar is in een productie omgeving.

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
voodooless schreef op maandag 18 augustus 2008 @ 13:24:
Ik denk dat het eerder iets is dat ze gewoon niet willen. Ik zie ook niet zozeer het nut hiervan al je ook gewoon twee pools kan maken. Ik zie eigenlijk ook niet echt waarom dat lastig zou zijn?
Als het mogelijk is een volume live tussen twee storagepools te verplaatsen is het misschien niet zo lastig.

Acties:
  • 0 Henk 'm!

Verwijderd

Voor de liefhebbers, deze link leidt naar een interessante uitleg over hoe je MySQL cluster, ZFS en Solaris Zones combineert. Helaas heb ik zelf niet met ZFS kunnen proberen, de rest werkt wel feilloos.

http://www.samag.com/documents/s=9368/sam0612e/0612e.htm

Acties:
  • 0 Henk 'm!

  • IcE_364
  • Registratie: Februari 2002
  • Laatst online: 16:07
Ik heb nog een aanvulling op de openingspost waarin voodooless het volgende schrijft:
Op de achtergrond zal het filesysteem er vervolgens zelf voor zorgen dat de nieuwe schijf optimaal benut wordt, dat zal dus inhouden dat een deel van de oude data naar de nieuwe stripe zal worden overgezet zodat om zo IO performance te maximaliseren.
Helaas is dit in de FreeBSD implementatie nog niet het geval, mijn ervaring is dat nieuw toegevoegde disks pas worden gebruikt zodra er nieuwe data naar de pool geschreven word.

Ik draai zelf zfs op mijn thuisserver voor de aansturing van 16 disks in een extern scsi storage cabinet met een netto cap. van 4TB (bruto het dubbele, de pool bestaat uit meerdere hardware raid1 array's). Dit alles draait met FreeBSD 7.0 x64 met 16GB geheugen en ik moet zeggen dat ik nog geen instabiliteit heb mogen meemaken (en dat wil ik graag zo houden :))

Een van de grootste nadelen die ik tot nu toe tegengekomen ben is dat je een disk niet meer kunt verwijderen uit de pool (als in, je markeert dat je hem wil verwijderen, en zfs gaat de data migreren naar disks die je wel wilt behouden zodat de disk veilig verwijderd kan worden.) Deze optie komt er volgens de roadmaps nog wel aan maar de termijn is niet bekend helaas.

[ Voor 17% gewijzigd door IcE_364 op 18-08-2008 19:29 ]


Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
IcE_364 schreef op maandag 18 augustus 2008 @ 19:27:
Een van de grootste nadelen die ik tot nu toe tegengekomen ben is dat je een disk niet meer kunt verwijderen uit de pool (als in, je markeert dat je hem wil verwijderen, en zfs gaat de data migreren naar disks die je wel wilt behouden zodat de disk veilig verwijderd kan worden.) Deze optie komt er volgens de roadmaps nog wel aan maar de termijn is niet bekend helaas.
Dat is jammer, maar er zijn natuurlijk wel workarrounds, al zijn die niet altijd even handig:
- data migreren naar ander medium en nieuwe pool maken
- hot spare aan de pool toevoegen, disk eruit halen en laten rebuiden naar hot spare

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Zojuist is bij ons de server binnengekomen :) Met een beetje geluk kan ik morgen al de eerste testen gaan uitvoeren. Beetje geluk is echter een onderschatting, want we hebben het vreselijk druk met andere dingen momenteel ;)

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • eghie
  • Registratie: Februari 2002
  • Niet online

eghie

Spoken words!

Misschien wel een handige tool voor het benchmarken: http://www.iozone.org/ Geheid dat hij ook wel werkt op Solaris.

Ik moet op het werk ook nog een NAS inrichten, dus ik zit ook even te kijken met wat ik dat ga doen. Ik houd dit topic nauwlettend in de gaten.

Zojuist nog een handige link tegen gekomen: ZFS and caching for performance, findings by Mark Round

En nog een ZFS link: http://breden.org.uk/category/a-great-filesystem/

[ Voor 36% gewijzigd door eghie op 19-08-2008 20:27 ]


Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Trouwens, ik was nog wat vergeten in de TS. Er is nog een feature genaamd L2ARC. Dit is een cache die zou moeten bestaan uit disks met snelle random access reads, zoals bijvoorbeeld een array van SSD's. Naast het intent log op een losse disk zou dit moeten zorgen voor de meest optimale performance. Helaas kan ik deze functionaliteit niet gebruiken. Server heeft geen SSD aan boord ,wegens stabiliteits en performanceproblemen voorlopig nog afgeraden door onze leverancier. Het mooie is dat je intend log en cache on-the-fly kan toevoegen zodra de hardware wel beschikbaar is.

Waar ik vooral naar benieuwd ben, is wat de impact is van het intend log bij random synchone writes, ook al bestaat deze maar uit een enkele array van 15k5 disks..

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Verwijderd schreef op vrijdag 15 augustus 2008 @ 19:59:
[list]
• ZFS heeft stabiliteits issues op 32bit systemen (meer info)
Die laatste link bevat trouwens ook redenen om het niet op 64 bits systemen te gebruiken (de reactie van Scott Long).

Wie trösten wir uns, die Mörder aller Mörder?


Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Tja, Scott heeft een belangrijk punt te pakken: je zult in bepaalde gevallen goed je best moeten doen om het te tunen zodat het stabiel en goed werkt. Of dat daadwerkelijk zo is zal de praktijk uitwijzen... ik hoop snel :)

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Dus... heb effe solaris op de machine gezet, een pool van 15 disks gemaakt, gewoon als stripes.

Dan effe sysbench erop los gelaten. Resultaten zijn eigenlijk toch wel bedroevend tot nu toe.. vooral random writes gaan echt belabberd :X veel meer dan 50 ipos haal ik niet met random read/write, en dat met 15 disks... Het meeste erge was nog dat ik gewoon de ledjes van de disks een voor een aan zag gaan, netjes achter elkaar... WTF :?

Nu draait er een test met 4 disks in stipe en nog eens 4 disks als intent log, met recordsize gemachted of de blocksize die ook de benchmark gebruikt.. Tot nu to is het nog steeds om te huilen, ik zie hem alleen maar naar de ZIL drives schrijven met net 1024K/sec :'(

Herhaling met hardware raid 0 van 14 disks.. zelfde belabberde resultaat, idem met een ubuntu server install op zelfde array met xfs... Ik heb het idee dat er hier iets niet helemaal goed zit met de hardware... Hmm, helft van de SAS stekkers eruit getrokken en een raid 10 met 6 disks gemaakt... xfs was nog steeds erg slecht, ext3 ging echter vele malen beter, en ik had het aantal iops dat ik eigenlijk wel zou verwachten. Reiserfs gaf nog eens een performance boost...

Morgen weer meer testen, ik denk echter dat Solaris en ZFS afgeschreven zijn bij deze...

[ Voor 44% gewijzigd door voodooless op 20-08-2008 18:14 ]

Do diamonds shine on the dark side of the moon :?


  • eghie
  • Registratie: Februari 2002
  • Niet online

eghie

Spoken words!

Misschien is deze link wel handig voor je: Solaris Internals and Performance FAQ

Zit ook nog een paar goede ZFS guides tussen.

Ow en hier staan ook wel wat handige artikeltjes: http://blogs.sun.com/roch/category/ZFS

[ Voor 28% gewijzigd door eghie op 21-08-2008 10:33 ]


  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Topicstarter
Ik denk dat ik in dit geval de controller deels de schuld kan geven. Linux performance is ook niet wat het zou moeten zijn, ook niet met hardware raid en zeker niet met een groot aantal disks. Solaris performance was echter gewoon bizar slecht... misschien een driver probleem.. Ik weet het niet.. Ga eerst maar eens deze controller ruilen voor een andere.

Do diamonds shine on the dark side of the moon :?


Verwijderd

commerciele benchmark ZFS versus ext3
Wat men ook probeert, de prestaties van ZFS zijn lang niet overal beter. Wel in de query benchmarks.
Pagina: 1