Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op donderdag 17 november 2011 @ 22:42:
Laag op laag, en als je groot gaat -- heeft ZFS niet de NTFS limieten. Als je de smbsrv van illumos gebruikt werken handige dingen als zfs set sharesmb=on,guestok=true /pool/pr0n. Previous versions zit er ook direct bij dat gebruik maakt van ZFS snapshots.

Samba kan dit ook, daarvoor moet je simpel weg alleen wat extra modules laden en zorgen dat hij de ACL's begrijpt.
welke extra modules ?
De CIFS kernel is compleet van scratch geschreven en heeft volledige DTRACE ondersteuning, niet iets wat je direct zoekt thuis zoekt maar toch. Qua features (vooral de transparant vfs modules) is samba leuker om mee te spelen, wil je makkelijk kan je als je illumos based draait net zo goed voor de CIFS server draaien. Deze draait op vele grote sites van Nexenta en paar van hun OEM's
Nice
CAPSLOCK2000 schreef op donderdag 17 november 2011 @ 22:59:
Omdat ik niet genoeg van Windows weet en omdat het niet de bedoeling is om ook nog een Windows server aan te schaffen. Als het perse via Windows moet dan heeft ZFS ook weinig zin en kan ik beter die schijven direct in een Windows-server steken en NTFS gebruiken. Een belangrijke reden om voor ZFS/Unix te kiezen is dat de bestanden ook benaderbaar moeten zijn via NFS en SSHFS, maar Windows/SMB heeft prioriteit. Als het uberhaupt kan zie ik mezelf dat niet bouwen op Windows.
Andere weg vanuit windows is redelijk te doen tegenwoordig echter performance is wel iets wat je ondermijnt.
en zo duur hoeft het niet te zijn, een windows standaard editie zal wel voldoen.
Er is wel Windows (anders ook geen Active Directory) maar geen machine die ik hier voor kan/wil gebruiken.
Ik wil 1 server bouwen en ik wil met ZFS spelen. Het mag best een cent kosten maar twee servers is wat te veel van het goede, zeker omdat Windows mij ontzettend veel tijd zou kosten.
denk dat je sneller klaar bent echter ten koste van performance. maar dit merk je pas met veel read/write acties . 10 tot 20 desktops moet het probleem niet zijn.
zou eerst eens onderzoek doen van NFS en SSHfs op windows (ook al draai je dat niet)
installeer een test user met de dingen die je wilt doen etc .. (roaming profile o.a)

windows is 99% kans --> next next finish .. ochtendje install en test .. moet te doen zijn.

als je smb onder *nix werkend krijgt zodat je met windows kan babbelen (let op de kerberos, tijd (niet meer als 5 min verschil) en join als "member" (niet als server) kan je dezelfde dingen doen als eerder onder windows install .. zfs hardware specs is wel iets wat ik mee zou nemen (it-firware install van raid kaart te vinden in dit topic)

maar ik geef je alvast op een briefje mee de grote kans is dat je rechten problemen krijgt op direcories en bestanden. en dat je daar mogelijk veel werk aan krijgt. iets wat binnen windows gewoon 'vloeiend gaat"
hoeft niet maar dat zal je in de loop van de tijd gaan merken .. (kan overleefbaar zijn)

[b]ps 1 windows AD is niet handig ! gaat tie dood heb je een Groot ! probleem ! draai ergens een extra Domain controller liefst virtueel en hevel daar naar toe al je Domain roles (5 bij windows 2k3) je zal me dankbaar zijn als de hardware dood gaat van je AD [/b[ ps deze "redundant DC" zal niet gebruikt worden voor het aanloggen maar de redudantie is wel handig in geval van werkzaamheden op de dc etc ofzo ..

[ Voor 6% gewijzigd door vso op 18-11-2011 00:13 . Reden: dc redundantie ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • mieJas
  • Registratie: April 2005
  • Niet online

mieJas

Ja, maar nee.

CAPSLOCK2000 schreef op donderdag 17 november 2011 @ 17:49:
Iemand hier die z'n ZFS-server aan Active Directory heeft gekoppeld?
Wij hebben hier een aantal Solaris servers staan die gekoppeld zijn aan AD. Het is wel overal Solaris 10 (dus met Samba), maar dat werkt gewoon goed. Hoogstwaarschijnlijk werkt dit voor nieuwere versie (zonder Samba) ook, aangezien de ganse configuratie gebeurt in het OS. Inloggen op de console lukt zelfs met je AD credentials (als je daar de rechten voor hebt, natuurlijk).

Ik heb geen flauw idee hoe quota's werken.

Yes, but no.


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 02-10 22:42

CAPSLOCK2000

zie teletekst pagina 888

vso schreef op vrijdag 18 november 2011 @ 00:08:
denk dat je sneller klaar bent echter ten koste van performance. maar dit merk je pas met veel read/write acties . 10 tot 20 desktops moet het probleem niet zijn.
zou eerst eens onderzoek doen van NFS en SSHfs op windows (ook al draai je dat niet)
installeer een test user met de dingen die je wilt doen etc .. (roaming profile o.a)

windows is 99% kans --> next next finish .. ochtendje install en test .. moet te doen zijn.
Dat is alleen de installatie (en mij kost dat echt wel meer dan een ochtendje), daarna moet het ding ook nog beheerd worden. Ik heb daar geen kaas van gegeten en ik wil het eigenlijk niet gaan leren. ZFS is voor mij persoonlijk het hoofddoel. Als dat niet haalbaar is zonder en Windows-server tussen te zetten dan is dit project niet aan mij besteed.
als je smb onder *nix werkend krijgt zodat je met windows kan babbelen (let op de kerberos, tijd (niet meer als 5 min verschil) en join als "member" (niet als server) kan je dezelfde dingen doen als eerder onder windows install .. zfs hardware specs is wel iets wat ik mee zou nemen (it-firware install van raid kaart te vinden in dit topic)
Ik probeer nu een server samen te stellen waar ik Solaris/Illumos/Nexenta op kan draaien maar ook Windows als het niet anders gaat. Ik heb al een LSI-kaart uitgezocht die hier (met de juiste firmware) geschikt voor is.
maar ik geef je alvast op een briefje mee de grote kans is dat je rechten problemen krijgt op direcories en bestanden. en dat je daar mogelijk veel werk aan krijgt. iets wat binnen windows gewoon 'vloeiend gaat"
hoeft niet maar dat zal je in de loop van de tijd gaan merken .. (kan overleefbaar zijn)
tnx, voor het advies, klinkt niet best.
[b]ps 1 windows AD is niet handig ! gaat tie dood heb je een Groot ! probleem ! draai ergens een extra Domain controller liefst virtueel en hevel daar naar toe al je Domain roles (5 bij windows 2k3) je zal me dankbaar zijn als de hardware dood gaat van je AD [/b[ ps deze "redundant DC" zal niet gebruikt worden voor het aanloggen maar de redudantie is wel handig in geval van werkzaamheden op de dc etc ofzo ..
Bedankt voor het advies, maar dat is afgedekt, er is een tweede, ik wilde jullie alleen niet vervelen met de details van de lokale setup.
mieJas schreef op vrijdag 18 november 2011 @ 08:32:
Wij hebben hier een aantal Solaris servers staan die gekoppeld zijn aan AD. Het is wel overal Solaris 10 (dus met Samba), maar dat werkt gewoon goed. Hoogstwaarschijnlijk werkt dit voor nieuwere versie (zonder Samba) ook, aangezien de ganse configuratie gebeurt in het OS. Inloggen op de console lukt zelfs met je AD credentials (als je daar de rechten voor hebt, natuurlijk).

Ik heb geen flauw idee hoe quota's werken.
Klinkt goed. Ik heb inmiddels genoeg elkaar tegensprekende ervaringen gevonden om te weten dat wat ik wil mogelijk is, maar niet zonder risico's. Ik denk dat ik het maar gewoon moet gaan testen.

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

CAPSLOCK2000 schreef op vrijdag 18 november 2011 @ 18:03:
Dat is alleen de installatie (en mij kost dat echt wel meer dan een ochtendje), daarna moet het ding ook nog beheerd worden. Ik heb daar geen kaas van gegeten en ik wil het eigenlijk niet gaan leren. ZFS is voor mij persoonlijk het hoofddoel. Als dat niet haalbaar is zonder en Windows-server tussen te zetten dan is dit project niet aan mij besteed.
Goed ik denk dat de SMB op opensource lastiger is dan met windows er tussen wat ik ook wel met je eens ben dat linksom of rechtsom niet echt fraai/gewenst is ..
Klinkt goed. Ik heb inmiddels genoeg elkaar tegensprekende ervaringen gevonden om te weten dat wat ik wil mogelijk is, maar niet zonder risico's. Ik denk dat ik het maar gewoon moet gaan testen.
Open anders een leuk topic :P met je ervaring/setup etc ..

Je doet er wijs aan "NIKS" aan windows zijde te wijzigen, laat windows AD "as is" er zijn paar simple trucks indien je tegen specifieke problemen aanloopt.
er zijn genoeg "manuals/howto's enzv .. " die zeggen dat je regedits/domain policies enzv moet aanpassen
of ldap lokaal .. nikservan de windows server = puur voor authenticatie en "access token"
pff er is iets in pam (/etc/pam d8 ik) dat je moet doen en dan is het eigenlijk al goed...

Zorg dat je tijd in sync is met je windows server, en kerberos (versie weet ik niet uit mijn hoofd 1 van de 2 was het bij mij), en een lokale DNS (die van windows bij voorkeur) windows DNS gewoon forwarden naar de andere .. (mocht dat niet gedaan zijn)

Maak 2 accounts aan op AD voor je samba test ..
1 copy van administrator "linuxadmin@windomain of andere geldige is windowdomain\linuxadmin
1 user zelfde notatie
probeer de @ notatie 99% is dit DE manier die je moet gebruiken

@chipher Xen op freebsd als Domain 0 (host) + vga,usb,sound topic waar je meer over wilde weten

[ Voor 8% gewijzigd door vso op 18-11-2011 23:21 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

CAPSLOCK2000 schreef op vrijdag 18 november 2011 @ 18:03:
[...]

Ik heb al een LSI-kaart uitgezocht die hier (met de juiste firmware) geschikt voor is.

[...]
welke?
ik ben zelf bezig met een zwik IBM M1015.

Acties:
  • 0 Henk 'm!

Verwijderd

1 van mijn ZFS fileservers:
op Atom gebaseerd mammaplankje (D510) met wel 4GB aan RAM!
9 van die 1TB groene WD HDD's, 1 als boot disk en de rest in 4 mirrors (3,1TB netto ofzo).

vanaf elke client constante prestaties die meer dan voldoen:

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/productsurvey/35440/16623.jpg

mijn mening: als fileserver ALLEEN is het goed te doen, snel zat qua netwerkoverdracht.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Stomme vraag..

Mijn zpool zegt 4.5 TB vrij maar de ik kan maar 2.4 gebruiken volgens ZFS guru ? waar haalt tie die data uit ?
en wat kan ik nu dat werkelijk benutten ? beetje "mistig"

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
zpool geeft ruimte als raw weer. Heb je een RAID1+0 (mirror) config met 4 schijven van 1TB, dan zie je 4TB, ook al kun je maar 2TB effectief gebruiken. Pool is op block-level niveau.

zfs (de utility 'zfs') geeft bruikbare ruimte weer. Dus of je nou een RAID0 hebt van 2 schijven of een RAID1+0 van 4 schijven, je ziet de bruikbare ruimte, 2TB bij gebruik van 1TB schijven in dit voorbeeld.

Ik geloof dat dat ook in de ZFSguru interface staat vermeld ergens?

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op dinsdag 22 november 2011 @ 15:15:
Ik geloof dat dat ook in de ZFSguru interface staat vermeld ergens?
Jup was wel even verwarrend, vraag me af of ik RaidZ2 uitzal zetten of niet extra disks zal toevoegen .
Voor nu ff met de HD tekort laat ik denk ik wel RAIDZ2 staan, tis gewoon een luxe probleem :)

[ Voor 14% gewijzigd door vso op 22-11-2011 15:45 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 02-10 22:42

CAPSLOCK2000

zie teletekst pagina 888

Verwijderd schreef op zondag 20 november 2011 @ 20:24:
[...]

welke?
ik ben zelf bezig met een zwik IBM M1015.
Ik weet uit m'n hoofd niet meer welke maar ik had een hele lijst kandidaten, de meeste LSI's zijn geschikt.

This post is warranted for the full amount you paid me for it.


  • fabianruben
  • Registratie: Juli 2010
  • Niet online
Ik wil van een Windows server (500GB 1 schijf) over op een server met ZFS (RAID-Z 3 schijven 4 of 6TB array).
Ik heb weinig kennis van *nix. Wel veel geprobeerd met bijvoorbeeld ubuntu ook zonder gui.

Eisen:
  • Een server
  • Een OS dus geen virtualisatie
  • Apt-get of soort gelijke package manager
  • Webinterface is wel handig
  • Apache + PHP + MySQL
  • Sabnzbd+
  • Samba
  • FTP
  • Het delen van de scanner (all in one via usb) met windows PC's
  • Het delen van de printer (all in one via usb) met windows PC's
  • Iets dat ik nu vergeet :P
De Windows server draait het bovenste allemaal atm.

Verder moet het systeem redelijk zuinig zijn, dus is het verstandig om het OS ook op de array te zetten?
Of wat stellen jullie voor?

Specs server:
CPU: Intel Atom N330 1,66GHz
Mobo: Intel D945GCLF2 (2 S-ATA300)
NIC: 1Gb/s
Ram: 2GB
HDD: 500GB


Specs eventuele nieuwe server:
Cpu: AMD Athlon 64 X2 3800+
Mobo: Asus M2V-MX (4 S-ATA poorten waarvan 2 S-ATA150 en 2 S-ATA300)
NIC: 100Mb/s (Losse pci gigabit NIC kopen)
Ram: 1GB (optie om 4GB voor te kopen of 3GB als het gecombineerd word met geheugen van de oude server)
HDD: nog kopen (3x2TB of 3x3TB sowieso nog de prijs dalingen afwachten als Thailand weer hersteld is van overstromingen)

Welk adviseren jullie en voldoet mijn "eventuele nieuwe server"?

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

De Bios van mijn Asus 780G moederbord ziet maar 3 schijven van de 5, na installatie van ZFSGuru wil de machine niet booten hiervan weet iemand een fix ?

Tja vanalles

fabianruben schreef op donderdag 24 november 2011 @ 01:32:
Ik wil van een Windows server (500GB 1 schijf) over op een server met ZFS (RAID-Z 3 schijven 4 of 6TB array).
Ik heb weinig kennis van *nix. Wel veel geprobeerd met bijvoorbeeld ubuntu ook zonder gui.

Eisen:
  • Een server
  • Een OS dus geen virtualisatie
  • Apt-get of soort gelijke package manager
  • Webinterface is wel handig
  • Apache + PHP + MySQL
  • Sabnzbd+
  • Samba
  • FTP
  • Het delen van de scanner (all in one via usb) met windows PC's
  • Het delen van de printer (all in one via usb) met windows PC's
  • Iets dat ik nu vergeet :P
De Windows server draait het bovenste allemaal atm.

Verder moet het systeem redelijk zuinig zijn, dus is het verstandig om het OS ook op de array te zetten?
Of wat stellen jullie voor?

Specs server:
CPU: Intel Atom N330 1,66GHz
Mobo: Intel D945GCLF2 (2 S-ATA300)
NIC: 1Gb/s
Ram: 2GB
HDD: 500GB


Specs eventuele nieuwe server:
Cpu: AMD Athlon 64 X2 3800+
Mobo: Asus M2V-MX (4 S-ATA poorten waarvan 2 S-ATA150 en 2 S-ATA300)
NIC: 100Mb/s (Losse pci gigabit NIC kopen)
Ram: 1GB (optie om 4GB voor te kopen of 3GB als het gecombineerd word met geheugen van de oude server)
HDD: nog kopen (3x2TB of 3x3TB sowieso nog de prijs dalingen afwachten als Thailand weer hersteld is van overstromingen)

Welk adviseren jullie en voldoet mijn "eventuele nieuwe server"?
Je wil wel heel veel tegelijk met verouderde hardware. Scanners delen is wel echt een hekel punt voor FreeBSD voor mijn gevoel. Samba gaat wel werken, maar of je Scanner fatsoenlijk gaat werken, betwijfel ik.

Ik zou in jou geval voor ESX gaan, dan kan je die USB devices allemaal mooi aan een Windows VM geven. En heb je ook weer minder kennis van Unix nodig, omdat je allemaal 'standaard' installaties doet.

Nadeel is wel, dat je wel wat beter hardware nodig hebt.

Even niets...

Kijk eerst even op http://www.sane-project.org/ of je scanner wel ondersteund wordt, anders kan je het vrijwel zeker vergeten. Printer delen is een stuk makkelijker. Daarvoor heb je cups nodig, deze regelt echter alleen het printer gedeelte.

Sinds de 2 dagen regel reageer ik hier niet meer


  • fabianruben
  • Registratie: Juli 2010
  • Niet online
@FireDrunk
Het is ouder hardware, maar als deze echt niet meer voldoen voor de opgenoemde taken. Ben ik ook bereid om een gedeelte of alles te vervangen, maar de harde schijven alleen al zijn al duur genoeg dus zo min mogelijk vervangen.

Ga ik ESX(i) gebruiken heb ik alleen nog maar betere hardware nodig, omdat er dan weer een laag tussen zit en 2 OSen (Windows en ESX(i)) bij komen. En in Windows was het ook niet makkelijk. Ik ben bereid om bij te leren, anders was ik hier nu niet.


@CurlyMo
Het lijkt erop dat hij ondersteund word.
Bron: http://www.sane-project.o...&model=4215&bus=any&v=&p=

Voor welke OSen met ZFS is cups en sane?
Sane en cups gaan op elke *nix distro wel werken.

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

Topicstarter
@fabianruben: je huidige hardware is niet echt ZFS geschikt. Maar nieuwe hardware hoeft niet zo duur te zijn. Bijvoorbeeld:

#ProductPrijsSubtotaal
1Asus E35M1-I€ 96,-€ 96,-
6Samsung EcoGreen F4EG HD204UI, 2TB€ 129,99€ 779,94
1be quiet! Pure Power L7 300W€ 34,-€ 34,-
1Transcend 8GB DDR3 Dual/Triple Channel Kit€ 29,59€ 29,59
Bekijk collectie
Importeer producten
Totaal€ 939,53


Exclusief schijven zit je dan aan 160 euro voor een compleet systeem exclusief kast. 8GiB geheugen kost je nu dus maar 30 euro. Je kunt hiermee 6 schijven aansturen.

Deze setup is echter niet echt geschikt voor zware taken; zeker voor ESXi wil je weer PCI passthrough (vt-d) hebben en wordt het behoorlijk veel duurder. Bedenk dus goed je prioriteiten. Het alternatief is een supermicro + Xeon combinatie met vt-d en 16GiB RAM. Dat is een flink duurdere configuratie die in elk geval wel geschikt is voor ESXi.

  • fabianruben
  • Registratie: Juli 2010
  • Niet online
Ik zat zelf te denken aan 3x2TB of 3x3TB (voeding heb ik al, een AC-DC Voeding picoPSU-90+60 Power Kit of een 400W voeding).

3x2TB
#ProductPrijsSubtotaal
1Asus E35M1-I€ 96,-€ 96,-
3Samsung EcoGreen F4EG HD204UI, 2TB€ 129,99€ 389,97
1Transcend 8GB DDR3 Dual/Triple Channel Kit€ 29,59€ 29,59
Bekijk collectie
Importeer producten
Totaal€ 515,56


3x3TB
#ProductPrijsSubtotaal
1Asus E35M1-I€ 96,-€ 96,-
3Hitachi Deskstar 5K3000, 3TB€ 159,90€ 479,70
1Transcend 8GB DDR3 Dual/Triple Channel Kit€ 29,59€ 29,59
Bekijk collectie
Importeer producten
Totaal€ 605,29


Maar ik zit meer in over de software. Welk OS (1, dus geen virtualisatie) kan de dingen die ik heb opgenoemd en heeft een package manager à la apt-get? Een webinterface is ook wel handig, maar hoeft natuurlijk niet alles te kunnen (SSH voor de dingen die niet via webinterface kunnen).
Ik heb in vmware player al een beetje geprobeerd met NexentaStor Community Edition, wat vinden jullie van dat OS, of weten jullie iets beters?

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op donderdag 24 november 2011 @ 15:35:
@fabianruben: je huidige hardware is niet echt ZFS geschikt. Maar nieuwe hardware hoeft niet zo duur te zijn. Bijvoorbeeld:

#ProductPrijsSubtotaal
1Asus E35M1-I€ 96,-€ 96,-
6Samsung EcoGreen F4EG HD204UI, 2TB€ 129,99€ 779,94
1be quiet! Pure Power L7 300W€ 34,-€ 34,-
1Transcend 8GB DDR3 Dual/Triple Channel Kit€ 29,59€ 29,59
Bekijk collectie
Importeer producten
Totaal€ 939,53


Exclusief schijven zit je dan aan 160 euro voor een compleet systeem exclusief kast. 8GiB geheugen kost je nu dus maar 30 euro. Je kunt hiermee 6 schijven aansturen.

Deze setup is echter niet echt geschikt voor zware taken; zeker voor ESXi wil je weer PCI passthrough (vt-d) hebben en wordt het behoorlijk veel duurder. Bedenk dus goed je prioriteiten. Het alternatief is een supermicro + Xeon combinatie met vt-d en 16GiB RAM. Dat is een flink duurdere configuratie die in elk geval wel geschikt is voor ESXi.
@Chipher, ik merkte recent dat mijn Asus AM2+ moederbord dit ook ondersteund en die was niet zo duur. helaas niet veel geheugen wegens CPU limitatie (DDR2)

Het delen van hardware "is het probleem" nu weet ik dat er tegenwoordig ook laserprinters (all-in-one) zijn die standaard hun taken kunnen delen over PC's dus je hebt geen "server" daarvoor nodig. kost je wellicht nieuwe printer maar dan heb je dat "gedekt"

In het topic Xen op freebsd als Domain 0 (host) + vga,usb,sound ben ik bezig met VT-d deze techniek houd in dat je PCIe (externe kaartjes of op mobo) kan delen met VM's. Xen is de enige tot op heden waarvan ik weet dat deze VGA ook kan passthrough(dit is VT-d). Wil je ZFS dan heb je virtualbox als eigenlijk als optie (Als VM) maar zoals Chiper terecht opmerkt geheugen word wel een probleem.

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Iemand ervaring met ??? http://zfsonlinux.org/ dit stemt me blij :) met me project zou dit een goeie zijn in de trant van "Berg niet naar Mohammed dan maar Mohammed naar berg"

BTW ik heb niet indruk dat het om een FUSE implementatie gaat maar om direct Kernel implementatie ofzo oftewel geen "bottle nek" van fuse meer?

[ Voor 73% gewijzigd door vso op 25-11-2011 02:51 ]

Tja vanalles


Acties:
  • 0 Henk 'm!
Ja ervaring mee, het is nog erg beta... Ik vertrouw het mijn data nog niet toe.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
fabianruben schreef op donderdag 24 november 2011 @ 17:25:
Ik zat zelf te denken aan 3x2TB of 3x3TB (voeding heb ik al, een AC-DC Voeding picoPSU-90+60 Power Kit of een 400W voeding).
60W is aan de krappe kant, maar zou denk ik zelfs wel lukken met slechts 3 schijven. Ik raad dan wel de Samsung F4EG aan door de lage spinup current van 16W. Veelal kunnen die powerbricks tijdelijk wel extra piekvermogen leveren. Zo niet dan heb je alsnog een zwaardere adapter nodig (80W).
Maar ik zit meer in over de software. Welk OS (1, dus geen virtualisatie) kan de dingen die ik heb opgenoemd en heeft een package manager à la apt-get?
FreeBSD heeft de portstree, is geen apt-get maar min of meer hetzelfde idee. Duurt wel langer omdat je de software zelf compileert.

Heb je ZFSguru al uitgeprobeerd? Daar zit ook een web-interface in en je kunt alsnog alles via portstree doen. De installatie heeft ook een optie om de portstree in te stellen.

ZFS-on-Linux is leuk speelgoed, maar ZFS is een complex beest en ik zie onder Linux platform eigenlijk niet veel toekomst. De implementaties van FreeBSD en Solaris zijn wel 'mature' en volop getest. Of Linux ooit op dat niveau ZFS-ondersteuning kan aanbieden is twijfelachtig. Dan zou ik mijn geld eerder inzetten op Btrfs, waar ik overigens ook niet zoveel over hoor.

PS, mijn nickname is CiPHER, niet chipper, chipher of chipknip. :+
Wikipedia:
In cryptography, a cipher (or cypher) is an algorithm for performing encryption or decryption

[ Voor 6% gewijzigd door Verwijderd op 25-11-2011 15:25 ]


Acties:
  • 0 Henk 'm!
offtopic:
@hierboven: ChipKnip: I LoLled :)


Portstree is alles behalve makkelijk... Ik vind het nog niet echt een eenduidig systeem zoals APT. En daar vraagt hij toch wel echt om. Ook zijn er niet echt super veel handleidingen voor FreeBSD icm Portstree, dus dat maakt het ook weer wat lastiger.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Hmm, is portstree zo moeilijk dan? Niet zo makkelijk als apt-get voor simpele dingen, maar wil je specifieke features dan is het handige van de portstree dat je ze in een menu kunt selecteren en dan meegecompileerd wordt, inclusief alle dependencies.

Voorbeeld:
cd /usr/ports/www/apache22
make install clean

Valt te doen. Voor ZFSguru zijn ook wat tutorials voor SABnzbd en nog wat spul. Is een PDFje ergens op het forum aanwezig.

Bottom line: de standaardzaken als ZFS en filesharing gaat wel lukken, specifieke extra functionaliteit is misschien wel even wat uitzoeken en uitproberen. Het scanner en printer gedeelte bijvoorbeeld, gaat niet met een paar muisklikken werken. Desnoods maak je via Virtualbox een VM aan waarin Windows of Linux draait om dergelijke functionaliteit onder te brengen. Dan kun je toch ZFS voor filesharing houden als dat je kerndoel is.

Acties:
  • 0 Henk 'm!

  • fabianruben
  • Registratie: Juli 2010
  • Niet online
Ik heb vannochtend ZFSguru 0.1.9 geinstalleerd met portstree. Ik mis het aanpassen van de rechten, wat toch wel wenselijk is. Ik vind het trouwens niet echt veilig dat je in de console kunt komen zonder in te loggen.

"cd /usr/ports/www/apache22
make install clean"
Installeren deze commando's apache? Ik vraag mij hierbij af hoe hij weet waarvan hij apache moet downloaden.
Is er ook ergens een lijst te vinden met alle applicaties die via portstree geïnstalleerd kunnen worden?

Hoe update/upgrade je al je applicaties in *BSD?

Ik wil geen virtualisatie. En ik wil volledig over op een *nix OS.

Het hoeft niet allemaal met de muis te kunnen, als ik maar niet 1000 regels moet gaan typen en begrijpen om het (printen, scannen, etc) werkend te krijgen.

Alle opgenoemde functies zijn even belangrijk voor ons (familie). Ze worden allemaal dagelijks gebruikt.

[ Voor 168% gewijzigd door Verwijderd op 25-11-2011 19:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Niet alle door jou genoemde functies heb ik ervaring mee, fabianruben. Bijvoorbeeld het delen van de scanner en printer, daar kan ik je eigenlijk niet bij helpen. In principe is dat niet FreeBSD specifiek door de CUPS en SANE softwarepakketten, die deze functionaliteit aanbieden. Maar toch is niet zo makkelijk als bijvoorbeeld onder Linux of Windows het geval zou zijn. Zelf heb ik een netwerkprinter en dat werkt gewoon fantastisch. Mocht je ooit iets nieuws kopen; zorg dat hij een ethernet poort heeft dan ben je niet meer van drivers en al die zooi afhankelijk.

Paar andere dingen die je noemt:
  • Aanpassen van rechten: ZFSguru gooit alles op één gebruikersaccount 'nfs' voor zowel NFS als Samba. Je kunt dit zelf aanpassen, maar dan kun je niet meer zomaar twee filesharingtechnieken tegelijk gebruiken terwijl ze elkaars bestanden kunnen overschrijven. Je krijgt dan dus rechtenproblemen. Je kunt wel smb.conf aanpassen met write mask en directory mask opties, evenals 'valid users' te gebruiken voor authenticatie.
  • Inloggen op console: de console kun je sowieso gebruiken om zonder wachtwoord in te loggen; door als single user mode te booten. Maar wil je dat menu weg hebben dan kun je /etc/ttys bestand wijzigen en het menu vervangen door een normale login prompt. Via SSH moet je natuurlijk wel inloggen, daar is een speciale 'ssh' gebruiker voor aangemaakt. Wachtwoord hiervan kun je wijzigen via de web-interface.
  • De instructies zijn een voorbeeld om apache te installeren. Bedenk wel dat ZFSguru al een web-interface op basis van Lighttpd gebruikt, en je dus niet zowel Apache als Lighttpd allebei op poort 80 kunt gebruiken: je zult één pakket op een andere poort moeten laten draaien. De portstree heeft alle informatie over downloadlocaties en hoe een stuk software gecompileerd moet worden. De structuur van de portstree is vrij duidelijk (alle web dingen zitten in www directory alle databases in 'database' etc.). Voor een overzicht kun je ook kijken naar: www.freshports.org en http://www.freebsd.org/ports/
    Voor gebruik van de portstree dien je tijdens de installatie de 'configure portstree' optie te gebruiken, dan wordt alles automatisch ingesteld. Achteraf kan ook, maar dan moet je het handmatig doen.
  • Updaten van ports kan met portupgrade of portmaster, welke je eerst moet installeren (/usr/ports/ports-mgmt/portupgrade)

[ Voor 9% gewijzigd door Verwijderd op 25-11-2011 16:35 ]


Acties:
  • 0 Henk 'm!

  • fabianruben
  • Registratie: Juli 2010
  • Niet online
Oeps ik heb per ongeluk mijn vorige bericht geedit i.p.v. een nieuwe gemaakt. Kan ik dit terug veranderen?

Zo niet zou je mijn aangepaste bericht dan opnieuw kunnen lezen.




Als CUPS en SANE beide op *BSD kunnen draaien moet hier wel uit te komen zijn.

Ik wil niet dat iemand die alleen "even" internet op mijn netwerk zomaar op mijn fileserver kan. Gaat deze functie wel in ZFSguru in de webinterface komen? Anders is het hele idee van de webinterface toch weg? Bijna alle andere dingen kun je ook "makkelijk" met een commando. In NextensaStor kon dit bijvoorbeeld wel (hoe begrijp ik nog niet helemaal, is heel geavanceerd).

Ik krijg het gevoel dat in ZFSguru (bijna) helemaal niet aan veiligheid gedacht is.

Het was me al opgevallen dat de webinterface draait op Lighttpd. Deze ondersteund ook virtualhosts dus kan ik die ook i.p.v. Apache gebruiken.

Portstree zoals jij het laat zien ziet er redelijk makkelijk uit en zo voor mij wel acceptabel zijn (moet het nog uitproberen).

[ Voor 70% gewijzigd door Verwijderd op 25-11-2011 19:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Misschien kan Darkstone je oude berichtje in ere herstellen en je huidige edit als nieuwe post toevoegen, ofzoiets. :)
Ik wil niet dat iemand die alleen "even" internet op mijn netwerk zomaar op mijn fileserver kan
Ehm, dat kan toch ook niet? Via het netwerk kun je authenticatie instellen. Voor de web-interface zelf (preferences->access control) en voor Samba kun je ook met valid users authenticatie instellen (valid users = nfs in de smb.conf en dan met `smbpasswd nfs` een wachtwoord instellen). Enige waardoor je standaard root toegang kunt krijgen is via de console. Dan moet je directe toegang hebben tot de fysieke machine waar je keyboard en monitor op is aangesloten. Ook dat kun je veranderen met /etc/ttys bestand. Of bedoelde je wat anders?
Ik krijg het gevoel dat in ZFSguru (bijna) helemaal niet aan veiligheid gedacht is.
Mwa dat niet. Maar het is wel zo dat out-of-the-box het zo is geconfigureerd dat het 'gewoon werkt'. Met name Samba shares die geen authenticatie gebruiken, dus kan iedereen zo op je samba shares bijvoorbeeld. Je kunt met de pf firewall echte veiligheid instellen en Samba beveiligen met smbpasswd zoals hierboven beschreven.

Acties:
  • 0 Henk 'm!

  • Psycho_Bartje
  • Registratie: Januari 2010
  • Laatst online: 04-09 09:25
Binnenkort denk ik van FreeNAS 8.02 naar ZFSguru 0.1.9 over te stappen.
Volgens mij heb ik 2 opties:
1) data van mijn pool tijdelijk anders heen kopieren, "schone" installatie doen (op 2 gemirrorde SSD's) en daarna de data weer terug kopieren
2) import van de pool in ZFSguru na een nieuwe installatie op een de 2 gemirrorde SSD's (niet in huidige systeem)

Maar wat is het verstandigste/beste van deze 2 opties ?

Op die 2 gemirrorde SSD's wil ik dus een Root-on-ZFS installatie doen, zodat ik mijn 10 disks in een RAID-Z2 kan laten downspinnen, wat me in FreeNAS niet lukt; APM level 1 (minimum power usage with spindown) resulteerde in het continue down/upspinnen... :(

Acties:
  • 0 Henk 'm!
@fabianruben, mocht iets met cups willen, dan heb ik dat hier draaiende gehad. Mocht je er niet uit komen, dan hoor ik het wel. Het enige wat een beetje lastig is, is dat je het juiste adres van je printer moet opgeven in Windows.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@Psycho_Bartje:
Je hebt nu een mirror, je kunt met detach een schijf verwijderen zodat je een single-disk pool hebt. Je kunt dan op die disk ZFSguru Root-on-ZFS installeren. Wel eerst formatteren. Na de installatie kun je de data overkopiëren van je oude pool naar je nieuwe systeem pool. Dan kun je de oude pool vernietigen (destroy) en de disk formatteren ook met GPT. Dan weer toevoegen (attach) aan de nieuwe systeem SSD disk. Voila: een ZFSguru mirror disk zonder dataverlies.

Overigens ben ik al vrij ver gevorderd met de nieuwe partition map die je in 0.2 te zien gaat krijgen. Hiermee kun je gemakkelijk bijvoorbeeld meerdere partities maken. Denk bijvoorbeeld aan:
- partitie 1: 10GB voor boot/systeem mirror waar je ZFSguru op installeert
- partitie 2: 80GB voor primaire opslag (een eigen pool voor opslag in RAID0)
- partitie 3: 20GB voor L2ARC cache voor je RAID-Z2 pool
- ongebruikte ruimte: als overprovisioning

Bij het formatteren kun je (nu al) kiezen voor 'TRIM' optie zodat je SSD weer gereset wordt qua performance. Dat werkt alleen als je disk 'ada' heet, overigens, dus mag geen 'da' heten (SCSI). Sluit je SSDs aan op je chipset SATA poorten die zijn met name voor SSDs de beste poorten!

Als je de nieuwe partition map wilt gebruiken moet je nog even wachten. Ik dacht dat Jason eind deze maand een alpha versie wilde releasen van 0.2, maar weet niet of dat gaat lukken. Misschien voor sinterklaar ofzo. :+
Heb je behoefte aan meerdere partities op je SSDs? L2ARC is wel lekker hoor. Wat voor SSDs heb je?

Acties:
  • 0 Henk 'm!

  • fabianruben
  • Registratie: Juli 2010
  • Niet online
In het begin van dit topic staat "Ook heeft FreeBSD een aantal beperkingen van het Solaris platform niet,". Kunnen jullie dit nader beschrijven?

Hoe stabiel is Debian GNU/kFreeBSD en hoe volledig is ZFS hier? Omdat dit GNU en van Debian is kan ik er denk ik vanuit gaan dat ik dus meer aan Debian/Ubuntu handleidingen heb. Dus "makkelijker" om mee te beginnen en meer over te vinden.

Terug naar ZFSguru. Als ik "smbpasswd nfs" gebruik heb ik nog steeds maar 1 user met wachtwoord. Ik wil er minimaal 2 (1 voor de gebruikers met modify (als je dat bij samba zo noemt) rechten op bepaalde mappen en 1 admin met full controll(als je dat bij samba zo noemt) rechten op bepaalde mappen) en op sommige mappen dus alleen de admin. Maar jij raad het dus af om meerdere accounts te gebruiken voor samba. Is dat iets wat alleen bij ZFSguru af te raden is of bij alle *BSD's of alle systemen met ZFS of alle systemen met samba?

Ik heb het gevoel bij ZFSguru dat ik alles wat ze aangepast hebben aan *BSD dat ik dat nu weer terug moet gaan veranderen. En dat de dingen die ik met de webinterface wil kunnen die er nou net niet in zitten (vooral rechten aanpassen en gebruikers en groepen aanmaken. Raden jullie een ander OS met een webinterface die dit wel kan? Of wil ik te moeilijke dingen voor de webinterface en kan ik dus beter volledig over op de console/ssh.

@CurlyMo
Bedankt voor het aanbod. Als ik het in de praktijk ga brengen en ik er niet uit kom zal ik je hulp met beide handen aangrijpen. :P

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
fabianruben schreef op vrijdag 25 november 2011 @ 19:58:
In het begin van dit topic staat "Ook heeft FreeBSD een aantal beperkingen van het Solaris platform niet,". Kunnen jullie dit nader beschrijven?
Booten van RAID-Z/Z2/Z3 arrays werkt niet onder Solaris, automatische swap volumes volgens mij ook niet (moeten in je fstab staan als legacy swap). Daarnaast is de hardware support van BSD ook beter, en is het echt open source. Echt grote verschillen zijn er niet, maar ieder zijn voorkeur. Solaris heeft beter geheugenmanagement en ingebouwde backends voor iSCSI en CIFS.
Hoe stabiel is Debian GNU/kFreeBSD en hoe volledig is ZFS hier?
Geen idee, maar je hebt dan wel een FreeBSD kernel dus in principe ook goede ZFS ondersteuning. Ik heb het echter zelf nog niet geprobeerd. Wil je de pc ook graag als desktop/workstation gebruiken? Want je zit wel met GNU userland utilities dan, dus geen 'echt' FreeBSD meer.
Terug naar ZFSguru. Als ik "smbpasswd nfs" gebruik heb ik nog steeds maar 1 user met wachtwoord. Ik wil er minimaal 2 (1 voor de gebruikers met modify (als je dat bij samba zo noemt) rechten op bepaalde mappen en 1 admin met full controll(als je dat bij samba zo noemt) rechten op bepaalde mappen) en op sommige mappen dus alleen de admin.
Je kunt Samba zo configureren als je zelf wilt. Je kunt zelf de /usr/local/etc/smb.conf file aanpassen en nieuwe gebruikers toevoegen. Voorbeeldje:

pw useradd limited
smbpasswd -a limited
<vul wachtwoord voor limited in>

Je hebt dan een 'nfs' account en een 'limited' account. Ik ga even uit dat je 'nfs' de admin wordt en 'limited' alleen leesrechten:

[share1]
writable = no
write list = nfs
valid users = nfs,limited

Volgens mij geeft bovenstaande je een share waar beide accounts op kunnen, maar alleen 'nfs' kan schrijven

[share2]
writable = yes
valid users = nfs

Bovenstaand is alleen toegankelijk voor nfs.

Andere rechten op bepaalde mappen is weer veel ingewikkelder; ik zou het bij aparte shares houden. Wel kun je een andere share maken wat naar een ander pad loopt. Dus bijvoorbeeld:

[algemeen]
path = /tank/data
writable = no
write list = nfs
valid users = nfs, limited

[limited]
path = /tank/data/publiek
writable = yes
valid users = nfs,limited

Zo heeft 'limited' alleen schrijfrechten tot de publiek map.

Je moet wel begrijpen, dit zijn Samba rechten. Je hebt ook nog te maken met lokale filerechten. Als 'nfs' een bestand aanmaakt, kan 'limited' deze niet veranderen, renamen, overschrijven of verplaatsen. En andersom ook. Om dat tegen te gaan kun je de rechten aanpassen met:

create mask = 0666
directory mask = 0777

Dan heeft iedereen lokale filerechten en kunnen dus alleen samba rechten de toegang beperken.
Maar jij raad het dus af om meerdere accounts te gebruiken voor samba. Is dat iets wat alleen bij ZFSguru af te raden is of bij alle *BSD's of alle systemen met ZFS of alle systemen met samba?
Ik ben niet zo gecharmeerd van al deze rechten. Vaak zit het allemaal in de weg en is het niet gemakkelijk om complexe situaties werkend te krijgen. Ik zelf werk natuurlijk ook gewoon met één account omdat ik de enige gebruiker ben. Maar je kunt wat rommelen met Samba. In principe maakt bovenstaande niets uit of je nou onder Solaris, BSD of Linux werkt.
Ik heb het gevoel bij ZFSguru dat ik alles wat ze aangepast hebben aan *BSD dat ik dat nu weer terug moet gaan veranderen. En dat de dingen die ik met de webinterface wil kunnen die er nou net niet in zitten (vooral rechten aanpassen en gebruikers en groepen aanmaken. Raden jullie een ander OS met een webinterface die dit wel kan? Of wil ik te moeilijke dingen voor de webinterface en kan ik dus beter volledig over op de console/ssh.
Het idee van ZFSguru is dat je simpele dingen werkend krijgt, out of the box. Dan kun je het gebruiken, en daarna naar wens aanpassen. Maar dan begin je dus met iets wat werkt. Doe je het andersom en je begint met FreeBSD, dan begin je met iets wat niet werkt, waarbij je alles zelf moet compileren, waarbij je zelf een Root-on-ZFS installatie moet uitvoeren, waarbij je zelf eigenlijk system administrator moet zijn en aardig wat ervaring wil je alles goed instellen, handmatig tuning uitvoeren, etc.

Het is aardig wat werk wat ZFSguru je uit handen neemt. Je kunt FreeNAS en andere distro's natuurlijk ook overwegen, maar dan zit je met een gesloten systeem wat je nauwelijks meer kunt aanpassen, terwijl ZFSguru je als normale BSD installatie kunt gebruiken.

De rechtenstructuur etc. is juist iets wat je prima handmatig kan doen, terwijl zaken als memory tuning en root-on-zfs installatie wel zo fijn is als dat voor je wordt gedaan. Maar als je dat allemaal zelf kan, kun je er inderdaad voor kiezen om met een mfsBSD livecd zelf alles te installeren. Ik zelf ben erg weg van ZFSguru; de installatie is super en een hoop slechte cq. moeilijke dingen word je uit handen genomen.

Maar als je zoveel mogelijk wilt leren kun je voor een standaard BSD install gaan. Maar dat zou ik een beginner nooit aanraden. ZFSguru is juist voor mensen die niet zomaar naar de command line gedropt willen worden maar toch minstens de basis dingen via web-interface willen doen. Geavanceerde zaken kun je dan altijd nog achteraf met wat tutorials naar eigen inzicht instellen.

Wat je ook kiest, ik ben benieuwd naar je ervaringen. :)

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op vrijdag 25 november 2011 @ 22:19:
Geen idee, maar je hebt dan wel een FreeBSD kernel dus in principe ook goede ZFS ondersteuning. Ik heb het echter zelf nog niet geprobeerd. Wil je de pc ook graag als desktop/workstation gebruiken? Want je zit wel met GNU userland utilities dan, dus geen 'echt' FreeBSD meer.
Ik ga het uitproberen, gezien dat ik voor Xen linux zal moeten draaien (voorlopig) ik vind een VM met ZFSGuru en dan de datashare weer via ISCSI sharen een minder nette oplossing dan direct ZFS via de http://zfsonlinux.org

Overgens ZFSguru als je er toch mee bezig bent, mik dan voor de initiator van ISCSI default "all" in .
en als je kan de GIB + TiB (bijde worden geaccepteert voor ISTGT. als je invloed op de develop website hebt :)

ZFSGuru mist een aantal dingen btw.
- 4Kib sector (na de wizard)
- nagios/snmp "module"
- LAGG (link aggregation)
- firewall ??? (basic setup via rules)
- disk "partition" scheme .. oftewel leeg all disks van "bootmanagers, partities etc ..)

Tweak tips .. o.a bios settings, performance "overview" denk bv dat een disk in IDE modus staat ipv ACHI.
Je kunt Samba zo configureren als je zelf wilt. Je kunt zelf de /usr/local/etc/smb.conf file aanpassen en nieuwe gebruikers toevoegen. Voorbeeldje:
Als ik het goed heb wil fabian rubben met windows AD werken en niet met lokale gebruikers, dan is het simpeler om groepen zoals "admin", "user-read" en "user-read/write" te werken .. is 1 maal goed zetten en dan de users in de juiste groep mikken dat scheelt veel management gezeur op de langere termijn.
Overgens dit is natuurlijk ook voor Linux/FreeBSD toepassbaar.

[quote]
Ik ben niet zo gecharmeerd van al deze rechten. Vaak zit het allemaal in de weg en is het niet gemakkelijk om complexe situaties werkend te krijgen. Ik zelf werk natuurlijk ook gewoon met één account omdat ik de enige gebruiker ben. Maar je kunt wat rommelen met Samba. In principe maakt bovenstaande niets uit of je nou onder Solaris, BSD of Linux werkt.
[quote]
Voor thuis is het inderdaad vaak overkill de rechten, echter in het bedrijfs leven wil je dit liever wel (duh)
Maar dis tever off topic IMHO

Voor ISCSI heb je ook geen rechten nodig, voor samba/NFS wel, maar toch ben ik niet echt gecharmeerd van Samba en hun management interface.

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

je hoeft helemaal niets met de hand te configgen want met webmin (find /usr/ports -iname "webmi*") kun je het via een nette interface allemaal (in)regelen.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
vso schreef op vrijdag 25 november 2011 @ 23:13:
[...]
Ik ga het uitproberen, gezien dat ik voor Xen linux zal moeten draaien (voorlopig) ik vind een VM met ZFSGuru en dan de datashare weer via ISCSI sharen een minder nette oplossing dan direct ZFS via de http://zfsonlinux.org
Moet in je Xen topic nog reageren. En ook nog met Xen spelen, kom zoveel tijd tekort. :P

Maar kun je uitleggen waarom je iSCSI moet gebruiken? Voor je VMs?
Overgens ZFSguru als je er toch mee bezig bent, mik dan voor de initiator van ISCSI default "all" in .
en als je kan de GIB + TiB (bijde worden geaccepteert voor ISTGT. als je invloed op de develop website hebt :)
Zal ik zeker naar kijken en Jason een paar patches sturen. Maar dat "all" geldt voor zowel istgt.conf als auth.conf? En wordt GB / TB al niet gebruikt bij het toewijzen van de grootte? Ik had in elk geval "MB" gezien, dus niet ruwe bytes ofzo.
ZFSGuru mist een aantal dingen btw.
- 4Kib sector (na de wizard)
Dat kan toch gewoon? Bij het maken van een pool kun je de sectorsize override feature gebruiken. Bij de wizard is dat dezelfde feature, alleen dan een makkelijkere optie genaamd optimize for 4K disks ofzoiets.
- nagios/snmp "module"
- LAGG (link aggregation)
- firewall ??? (basic setup via rules)
Netwerk functionaliteit wordt in 0.3 uitgebouwd, na de komende 0.2 release.
- disk "partition" scheme .. oftewel leeg all disks van "bootmanagers, partities etc ..)
Daar ben ik dus nu mee bezig. :)
Overigens als je nu een format doet dan zijn ook alle bootmanagers en partities weg. Maar je kunt bijvoorbeeld niet twee partities configureren en als zodanig gebruiken binnen de interface. Dat werkt nu wel in de test builds. En een soort partition magic achtige partition editor heb ik gemaakt; best wel gaaf al zeg ik het zelf. Partition type, partition resize, bootcode updaten, partition TRIM/zero/random-write enzo.. :9~
Tweak tips .. o.a bios settings, performance "overview" denk bv dat een disk in IDE modus staat ipv ACHI.
IDE/ATA disks heten "ad" terwijl AHCI disks "ada" heten, dus kun je snel zien. Wat moet ZFSguru hier beter doen, BIOS settings kan ZFSguru natuurlijk niet zien.
Als ik het goed heb wil fabian rubben met windows AD werken en niet met lokale gebruikers, dan is het simpeler om groepen zoals "admin", "user-read" en "user-read/write" te werken .. is 1 maal goed zetten en dan de users in de juiste groep mikken dat scheelt veel management gezeur op de langere termijn.
Overgens dit is natuurlijk ook voor Linux/FreeBSD toepassbaar.
Interessant! Ik ben niet zo'n Windows kenner, maar ben zeker wel benieuwd naar hoe 'jullie' dat doen. ADS heb ik ook geen ervaring mee.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op zaterdag 26 november 2011 @ 00:54:
Moet in je Xen topic nog reageren. En ook nog met Xen spelen, kom zoveel tijd tekort. :P
Maar kun je uitleggen waarom je iSCSI moet gebruiken? Voor je VMs?
De ZFS volume/pool kan je geloof ik niet direct benaderen vanuit de Dom(ain)0 dus je zal een "omweg" moeten vinden en meest logische is netwerk (en netwerk intern = volle bus breedte - overhead)
Eigenlijk een kip+ei situatie. ZFSonLinux heb je deze "omweg" niet nodig.
Zal ik zeker naar kijken en Jason een paar patches sturen. Maar dat "all" geldt voor zowel istgt.conf als auth.conf? En wordt GB / TB al niet gebruikt bij het toewijzen van de grootte? Ik had in elk geval "MB" gezien, dus niet ruwe bytes ofzo.
nee alleen istg.conf (waar de lun gedefineerd word)
code:
1
2
3
4
5
6
7
8
9
10
11
12
[LogicalUnit111]
  TargetName freenas-d11
  Mapping PortalGroup4 InitiatorGroup9
  AuthMethod Auto
  AuthGroup AuthGroup1
  UnitType Disk
  QueueDepth 32
  LUN0 Storage /tank/iscsiz9/istgt-freenas-d11 1TB
of 
  LUN0 Storage /tank/iscsiz9/istgt-freenas-d11 1024GB
of  
  LUN0 Storage /tank/iscsiz9/istgt-freenas-d11 1024000MB

Initiator "All" betekend dat je client-side geen IQN definitie mee moet geven en mag dus ook "hostname" zijn wat wel netter is IMHO. of IQN.<creationdate>-Hostname maakt debuggen een stuk makkelijker.
Dat kan toch gewoon? Bij het maken van een pool kun je de sectorsize override feature gebruiken. Bij de wizard is dat dezelfde feature, alleen dan een makkelijkere optie genaamd optimize for 4K disks ofzoiets.
Weet ik maar ik had 1 disk die wilde om reden X.Y.Z niet de 4K.nop file pakken :( --> performance "rot" (toch?)
Overgens wel erg intressant om dit ergens te vinden hoe ik dat handmatig doe voor de disks, alleen al om deze reden zal ik denk ik zfs via de ZFS guru installaren en dan bv ergens anders mounten.
Netwerk functionaliteit wordt in 0.3 uitgebouwd, na de komende 0.2 release.
Hmm jammer nu ja dan maar handmatig :) gedaan. Overgens Jason zou dan "planned for 0.3 ofzo moeten zeggen ipv "nog niet werkend"
Daar ben ik dus nu mee bezig. :)
Overigens als je nu een format doet dan zijn ook alle bootmanagers en partities weg. Maar je kunt bijvoorbeeld niet twee partities configureren en als zodanig gebruiken binnen de interface. Dat werkt nu wel in de test builds. En een soort partition magic achtige partition editor heb ik gemaakt; best wel gaaf al zeg ik het zelf. Partition type, partition resize, bootcode updaten, partition TRIM/zero/random-write enzo.. :9~
_/-\o_ FYI ik heb op 1 machine echt vreemde dingen gezien, Bios die schijven 1 tot 3 ziet , maar 4 en 6 niet ziet (staat wel op AHCI) .. ZFSguru dedecteerd ze maar in de wizard word disk 4 "veranderd" ipv naar ACHI naar IDE IIG de 4k optimalisatie is voor 1 disk "weg".
Ook die disk uit de pool mikken en weer terug erin was eigenlijk niet mogelijk combo van "bios" en limitaties van huidige ZFSguru webinterface
Ook de "boot" van disk was ff lastig had alleen niet veel zin "de juiste" disk te vinden
IDE/ATA disks heten "ad" terwijl AHCI disks "ada" heten, dus kun je snel zien. Wat moet ZFSguru hier beter doen, BIOS settings kan ZFSguru natuurlijk niet zien.
Nu bv als "ad" ipv ada gededecteerd word of een PCI controller op 1 disk, dat je een "performance" allert krijgt. Met bv tips zo van
- Zet in je bios alle disks op AHCI
- Als je dit al gedaan hebt, is het advies deze niet in 1 pool mee te nemen wegens "performance" verlies

Geef desnoods leuke FAQ met performance meuk erbij.
Zie bv de discussie in ander topic over Sata poort multipliers waar Femme nog even om de hoek kwam kijken :) (wel grappig trouwens zie hem wel vaker terug in topics van mij:))

Je staat er vaak niet bij stil maar voor een "beginner" is BIOS settings en "checks" niet 1 van de dingen die je doet voordat je gaat bouwen (me |:( )
Ook "het werkt beter check de documentatie" werkt vaak afschrikkend 90% van de mensen die geintresseerd zijn. terwijl wat stats van IDE en ACHI en MIX met grafiekjes beter werken. Ook IT-Firware mode vs andere Firmware.
Ik geloof er heilig in dat mensen die een "performance buying guide" spotten. Deze ook zullen checken.
Simple pointers zoals
- "avoid IDE setting on SATA disks if possible".
- Don't use software raid cards unles they have "IT-Mode firmware" or avoid controller x.y.z if possible.
- More RAM = more (read/write speed)
- SSD cache needs to be 2/4 GB so a cheap SSD with 20GB (20,50 euro in pricewatch) improves performance 20% ?
- CPU power is only needed for encryption/rebuild so cheapest you can find for your chosen setup will do.
- More RAM = more (read/write speed)

- Disks with 4Kib sector (WD eads) can preform "horrible"
PS1 rip desnoods HD Advisories van NAS aanbieders .. en compile een list van HD's die bekend staan om goeie performance.
PS2 overgens zo slecht presteren mijn WD's ook weer niet .. onder windows had ik 50 MB/s (live CD gebruikt dus 0.0 tuning) 50MB/s is redelijk acceptabel voor mijn doel .. (sneller is beter DUH)
Interessant! Ik ben niet zo'n Windows kenner, maar ben zeker wel benieuwd naar hoe 'jullie' dat doen. ADS heb ik ook geen ervaring mee.
oke even offtopic dan:
Het is eerder een best practice dan "jullie" Iets wat IMHO Linux erg mist is "netwerk vriendelijk gebruikers beheer" er word te veel uit gegaan van "lokaal" inloggen. Active Directory is meer "centralisatie"

"de gedachte"
Hoe fijn is het als je bv 2 workstations heb voor jou + partner .. en die van jou gaat dood omdat je weer eens iets doet wat niet hoort ;) En je krijgt een telefoontje dat je binnen 30 min met het net gestuurde e-mailtje waar de lokatie staat" moet wezen. (ja je gsm kan nu ook e-mail) maar het gaat om het idee. Je logt in op je partners PC met je profiel wat je op je "oude" pc had. zonder iets ooit op de pc gedaan te hebben. Heb je direct toegang tot je e-mail, favorieten en downloads en zo maar door.

Niks moeilijk doen dus, Ik heb het al 5 jaar terug voor elkaar gekregen om bij een bedrijf "transparant" te maken of je nu op windows desktop of Linux desktop inlogte je "ding" te kunnen doen. met 1 usernaam en password.
Toegang tot alle files die op de Fileserver staan (nas)

Terug naar je punt, als je met centrale groepen werkt om "rechten" te geven hoef je de gebruiker alleen in de groep te mikken (of eruit halen) indien nodig. Daarnaast is de groepsnaam "Level3-Sales-year-reports-Read-Write" duidelijker dan Pietje .. Want de groep verteld welke rechten eraan hangen terwijl je bij pietje specifiek moet kijken welke rechten Hij heeft.
Trek je dat door zijn "groeps" rechten dus makkelijker te "rapporteren" indien gewenst.
je moet echter in het begin voor elke "recht" een groep aanmaken ook al ga je er maar 1 gebruiker in mikken.
alleen later toevoegen (tijdelijk of permanent) is makkelijker .. kan desnoods via script (remove temporary or disabled users).
Als je dat consequent doet met centrale user beheer en pot dicht script door "temp users" per uur te laten verwijderen op alle directories krijg je een "waterdicht" systeem (tot dat een collega admin het ....omzeilt)

Ontopic (half)
ZFSguru is zo'n leuk voorbeeld wat redelijk MS benaderd. Het werkt simpel+ snel, in minder dan 10 muiskliks en paar toets aanslagen had ik een werkende ISCSI oplossing (vanaf scratch) nu is dat voor mening NAS oplossing wel toepasselijk. Maar wat ook geld is wil je meer "moet er ff in duiken" echter je werkt vanaf een "werkend" platform.
Iets wat bv met een Samba oplossing nog veel ge"zeur" is .. (meest recente versie nog niet gezien)

In fabianrubben's "wens" had ik bv dualport Nic in de nas + quad port in de AD server en dat in een filserver omgetoverd .. gewoon "simpel" en doeltreffend en snel .. zeker als je poort trunking/Link Aggregation/nick teaming gebruikt.. oke de AD is eigenlijk een "overhead" maar verwaarloosbaar.
Verwijderd schreef op vrijdag 25 november 2011 @ 23:25:
je hoeft helemaal niets met de hand te configgen want met webmin (find /usr/ports -iname "webmi*") kun je het via een nette interface allemaal (in)regelen.
Dat kan ook via SWAT die bij Samba zit, overgens je moet nog steeds geloof ik de console in duiken voor Kerberos ondersteuning want dat gaat niet "out of the box" als je met AD wil connecten. + er mag maar een 5 min verschil tussen AD en samba machine zitten. Dan nog niet gesproken over de interface om rechten toe te kennen (het kan verbeterd zijn??)
Maar voor mij was dit de reden om naar ISCSI over te stappen, de winst was/is zo enorm.

ZFS zie ik ook niet anders dan een "ISCSI lun" of Virtual Disk storage.

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

ZFSonLinux compile error, hmmm baal
nu ja dan maar keuze tussen freebsd/zfsguru of Solaris maar de rest werkt :)

Xen op freebsd als Domain 0 (host) + vga,usb,sound

Tja vanalles


Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 00:15
vso schreef op zondag 27 november 2011 @ 13:54:
ZFSonLinux compile error, hmmm baal
nu ja dan maar keuze tussen freebsd/zfsguru of Solaris maar de rest werkt :)
Da's ook snel opgegeven. Welk OS? Kernelversie? Op 3.0+ compiled ZoL 0.6.0-rc6 inderdaad niet, git master heeft hiervoor patches.

Overigens heb ik ZFSonLinux kort getest op Arch Linux (x64, 4850e, 2 GB) met 3x500 HD501LJ in raidz. Helaas vielen de sequential read/write (met name write) wat tegen. Waar ik met md-raid5+ext4 ~105 MB/s write (FTP) haal, was dat met ZFS slechts ~60 MB/s.

Verder geen klachten, en tijdens de (korte) gebruiksduur was het in ieder geval stabiel. Vanwege de performance voorlopig toch maar weer terug naar md-raid5+ext4..

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Thralas schreef op zondag 27 november 2011 @ 22:14:
Da's ook snel opgegeven. Welk OS? Kernelversie? Op 3.0+ compiled ZoL 0.6.0-rc6 inderdaad niet, git master heeft hiervoor patches.

Overigens heb ik ZFSonLinux kort getest op Arch Linux (x64, 4850e, 2 GB) met 3x500 HD501LJ in raidz. Helaas vielen de sequential read/write (met name write) wat tegen. Waar ik met md-raid5+ext4 ~105 MB/s write (FTP) haal, was dat met ZFS slechts ~60 MB/s.

Verder geen klachten, en tijdens de (korte) gebruiksduur was het in ieder geval stabiel. Vanwege de performance voorlopig toch maar weer terug naar md-raid5+ext4..
Jup snel opgegeven, omdat ik de luxe heb dat ik genoeg "space" available te hebben wanneer ik wel besluit ZFS te draaien ... om een migratie uit te voeren. En ik ben van plan dit soort "tests" even uit te stellen totdat ik een werkende productie omgeving heb.

Overgens je Post bevestigd min of meer dat mijn overstap naar MD+raid6+ext4 niet zo dom is. Ook al had ik het werkend gehad.

Tja vanalles


Acties:
  • 0 Henk 'm!
Dat verschil is normaal, dat heeft weinig met ZFSonLinux te maken, dat is ZFS eigen. ZFS is doorgaans iets langzamer dan MD + xfs / ext3 / ext4. Komt door checksumming en nog meer andere fancy checks.

Het helpt wel om meer geheugen te hebben. 2GB is echt heel weinig voor ZFS, 4GB is minimaal, 6 leuk, en bij 8 heb je pas goede performance.

Jij hebt dus ook (te) snel opgegeven :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 00:15
FireDrunk schreef op maandag 28 november 2011 @ 07:38:
Dat verschil is normaal, dat heeft weinig met ZFSonLinux te maken, dat is ZFS eigen. ZFS is doorgaans iets langzamer dan MD + xfs / ext3 / ext4. Komt door checksumming en nog meer andere fancy checks.

Het helpt wel om meer geheugen te hebben. 2GB is echt heel weinig voor ZFS, 4GB is minimaal, 6 leuk, en bij 8 heb je pas goede performance.

Jij hebt dus ook (te) snel opgegeven :)
Mwah, een factor 2 is me net wat te gortig. Toegegeven, m'n RAM is beperkt, maar zelfs met een dd van 1 GB vielen de speeds tegen - dan zou RAM toch echt niet de beperkende factor moeten zijn. Men geeft ook aan in de FAQ dat er nog geen performance tuning is gedaan.

Liefst zou ik nog even benchen met meer RAM en/of vergelijken met BSD, maar dat zit er helaas even niet in..

Acties:
  • 0 Henk 'm!
Ik heb 300MB/s write gehaald met ZFSonLinux waar ik met MD 400MB/s haalde.
Het is dus mogelijk...

Even niets...


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

FireDrunk schreef op maandag 28 november 2011 @ 13:00:
Ik heb 300MB/s write gehaald met ZFSonLinux waar ik met MD 400MB/s haalde.
Het is dus mogelijk...
Wel erg kort door de bocht, als je er geen specs/config details bij zet. ;)
overgens voor mij maakt MD/Zfs eigenlijk bar weinig uit .. ik gebruik sparse files (files waarmee het FS zoals ZFS / Ext4 toch niks mee kan) dus koekie of cookie lekker belangrijk

Ik wacht gewoon vrolijk tot zfsonlinux iets verder in de ontwikkeling is. of Dom0 voor FreeBSD.
gelukkig zijn dat 2 los staande varianten, met ieder eigen ontwikkelaars.

[ Voor 16% gewijzigd door vso op 28-11-2011 14:31 ]

Tja vanalles


Acties:
  • 0 Henk 'm!
vso schreef op maandag 28 november 2011 @ 14:29:
[...]

Wel erg kort door de bocht, als je er geen specs/config details bij zet. ;)
overgens voor mij maakt MD/Zfs eigenlijk bar weinig uit .. ik gebruik sparse files (files waarmee het FS zoals ZFS / Ext4 toch niks mee kan) dus koekie of cookie lekker belangrijk

Ik wacht gewoon vrolijk tot zfsonlinux iets verder in de ontwikkeling is. of Dom0 voor FreeBSD.
gelukkig zijn dat 2 los staande varianten, met ieder eigen ontwikkelaars.
Specs zijn eigenlijk niet belangrijk, als je tussen de regels door leest, zie je dat ik met dezelfde hardware met ZFSonLInux 25% minder performance haal dan met MD...

Specs waren gelijk tussen beide namelijk:
Xeon 3430, 12GB RAM en 8 x 1.5TB op een LSI 1068E.

Even niets...


Acties:
  • 0 Henk 'm!

  • Psycho_Bartje
  • Registratie: Januari 2010
  • Laatst online: 04-09 09:25
Verwijderd schreef op vrijdag 25 november 2011 @ 18:55:

Als je de nieuwe partition map wilt gebruiken moet je nog even wachten. Ik dacht dat Jason eind deze maand een alpha versie wilde releasen van 0.2, maar weet niet of dat gaat lukken. Misschien voor sinterklaar ofzo. :+
Heb je behoefte aan meerdere partities op je SSDs? L2ARC is wel lekker hoor. Wat voor SSDs heb je?
Ik heb nóg geen SSD's, maar misschien passen er mijn schoen(en) wel 2 fijne Intel 320 van een leuk aantal GB ;)

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

FireDrunk schreef op maandag 28 november 2011 @ 14:34:
Specs zijn eigenlijk niet belangrijk, als je tussen de regels door leest, zie je dat ik met dezelfde hardware met ZFSonLInux 25% minder performance haal dan met MD...

Specs waren gelijk tussen beide namelijk:
Xeon 3430, 12GB RAM en 8 x 1.5TB op een LSI 1068E.
Wat ik lees is dat is dat wellicht geen IT-firmware mode of tweaking gebeurd is, en hoeveel presteerd dezelfde machine met FreeBSD op dezelfde hardware ? dit zijn IMHO wel specs die je graag wilt vergelijken.

Niet rot bedoelt maar nu zit je Appels met peren te vergelijken .. en dan zeggen dat X slechter presteerd dan Y.

Tja vanalles


Acties:
  • 0 Henk 'm!
Ik probeer juist appels met appels te vergelijken, sorry, als dat (in jou ogen) niet lukt :)
Waar ik naartoe wil is een hardware onafhankelijke test, waarin je laat zien hoe software presteert op dezelfde hardware. Dat je met tuning verder komt snap ik ook wel. Mijn huidige MD array doet >550MB/s met 8 disks.
Dat komt omdat ik een hoop finetuning gedaan heb.

De vergelijking die ik opsomde was vooral bedoelt om het kale verschil tussen MD en ZFSonLinux kenbaar te maken, dat is namelijk (in mijn geval, met mijn tests, op mijn server) 25%.

Dat was gewoon volgens mijn tests. Als je dat niet wil geloven, staat het je natuurlijk vrij om je eigen tests te doen :)

Even niets...


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Nu opzich is de test een "faal" IMHO en niet als aanval bedoelt, dat je bv de raidcontroller mechanica er tussen hebt staan. Dus is die 25% ook daadwerkelijk echt dat verschil?
Zoals CiPHER aangeeft hier in diverse topics ZFS houd ervan om direct met de disk te praten.

Als test is het denk ik beter om bv echte software RAID met software ZFS te vergelijken. Dus pak een moederbord met onboard 5 tot 6 Sata aansluitingen 8GB geheugen en een goeie dual/Quad CPU.
Ik denk dat je netwerk al uit de vergelijking zou moeten halen. maar gewoon direct op de Data Array je benchmark zou moeten.

Betreft tuning zou ik zo ver gaan als kernel/software tuning dus niet file(s) op de array zelf, als ik bv kijk naar ZFS guru daar naar kernel tuning maar Dedup/compressie ofzo niet. En idem indien mogelijk op de Software Raid.

Hoewel je dan natuurlijk nog steeds appels met peren vergelijkt kom je denk ik meer in "echte wereld" scenario(s) en kan je beter de overal performance vergelijken. van de ZFS BSD versus ZFSonLinux en ZFS versus Software RAID

Echter ZFSonLinux is natuurlijk erg beta en dat maakt "vergelijken" nog lastiger, alleen hier mis je de FreeBSD ZFS vergelijking. Al zou bv de 75% verschil in dit geval gemeten hebben. Dan is het zeer fraai van het ZFS Linux project.

Overgens helemaal apart daarvan zie ik het extreme voordeel van ZFS in het "transporteerbaarheid" van de pool. tenopzichte van een OS. het geeft me goeie OS vrijheid om te kiezen.

Als Fileserver Filesystem denk ik dat ZFS de winnende sleutel is voor Opensource fileserver doeleinden
Maar voor het Windows platform mist een goeie compatibiliteit met Samba en Windows. Dat gezegd, ik weet de status van Samba op dit moment niet .. denk 2 a 3 jaar terug voor het laatst gecontroleerd .

Maar ga je bv ISCSI of Virtual disks hosten op je array. Dan maakt ZFS of Software raid IMHO geen moer uit vermoed ik. Omdat het grote bestands lappen zijn waar het onderliggende OS niks mee kan.
Enige voordeel is dat je een x aantal disk-failure(s) kan overleven + online exspansion + de pure hoeveelheid TB's die je tot je beschikking hebt.

Ander leuk ding om bij stil te staan is dat ZFS wellicht SSD's kan overleven, software RAID is echter gedoemd om te overlijden. het is nu gewoon te duur om een SSD array neer te zetten.
- RAID is immers om de "traagheid" van de disks op te vangen, die gewoon weg is bij SSD.
- Je houd over dat SSD "fail" je graag overleeft.
En met SSD krijg je andere probleem namelijk de bandbreedte van je moederbord, reken maar eens uit met 100,- per 1TB SSD ik denk dat met 6x 1TB SSD mijn array dan gewoon zo bloed snel is dat ik niet eens een 10GB ethernet link vol duw (luxe probleem)

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

RAID is niet om de traagheid van disken op te vangen. Daarnaast kan je zeker wel met een goed storage design 10GBE prima vol trekken.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
vso schreef op zaterdag 26 november 2011 @ 02:59:
[...]
Weet ik maar ik had 1 disk die wilde om reden X.Y.Z niet de 4K.nop file pakken :( --> performance "rot" (toch?)
Slechts één disk hoeft maar de 4K sectorsize override te hebben om je pool ashift=12 te maken, waardoor het optimized is voor 4K disks. Dit kun je in ZFSguru zien op de Pools pagina waar je kunt zien of hij voor 512-byte of 4K disks is geoptimaliseerd (vanaf versie 0.1.9 geloof ik).

Na een reboot zijn alle .nop devices weg, dat is normaal. Het dient er alleen maar voor om de pool ashift=12 te maken. Daarna zijn de .nop devices niet meer nodig.
Hmm jammer nu ja dan maar handmatig :) gedaan. Overgens Jason zou dan "planned for 0.3 ofzo moeten zeggen ipv "nog niet werkend"
Zojuist gepatched en geaccepteerd door Jason, dus in 0.2 zal bij de netwerk pages staan dat die functionaliteit komt in 0.3. Deze versie komt na 0.2, dus niet 0.2.1 enzo.
FYI ik heb op 1 machine echt vreemde dingen gezien, Bios die schijven 1 tot 3 ziet , maar 4 en 6 niet ziet (staat wel op AHCI)
Sommige controllers kunnen in de BIOS disks 1 tot 4 in AHCI draaien en disks 5-6 in IDE modus. Check je BIOS dus!
ZFSguru dedecteerd ze maar in de wizard word disk 4 "veranderd" ipv naar ACHI naar IDE IIG de 4k optimalisatie is voor 1 disk "weg".
Zie hierboven over 4K optimalisatie. Disks met AHCI heten 'ada' terwijl IDE disks 'ad' heten.
Ook die disk uit de pool mikken en weer terug erin was eigenlijk niet mogelijk combo van "bios" en limitaties van huidige ZFSguru webinterface
Welke limitaties bedoel je precies? De pools pagina kan nog niet dingen als replace/offline enzo doen, dat komt in 0.2.
Ook de "boot" van disk was ff lastig had alleen niet veel zin "de juiste" disk te vinden
In principe kun je van elke disk booten die met GPT is geformatteert, ook al is die disk geen onderdeel van de bootable pool. De bootcode zoekt namelijk naar bootable ZFS pools en boot daarin. Dus elke GPT-disk mag je van booten. Heb je daarbij problemen ondervonden?
Nu bv als "ad" ipv ada gededecteerd word of een PCI controller op 1 disk, dat je een "performance" allert krijgt. Met bv tips zo van
- Zet in je bios alle disks op AHCI
- Als je dit al gedaan hebt, is het advies deze niet in 1 pool mee te nemen wegens "performance" verlies

Geef desnoods leuke FAQ met performance meuk erbij.
Maar dan krijg je die waarschuwingen ook als je er niets meer aan kan veranderen door beperkingen van je hardware. Maar ik zal het voorleggen aan Jason.
Je staat er vaak niet bij stil maar voor een "beginner" is BIOS settings en "checks" niet 1 van de dingen die je doet voordat je gaat bouwen (me |:( )
Hoeft toch ook niet? Naar AHCI veranderen kan te alle tijde. FreeBSD is geen Windows waarbij je eerst registry tweaks moet doen voordat je IDE naar AHCI kunt wijzigen ofzo. :+
- Disks with 4Kib sector (WD eads) can preform "horrible"
4K sector disks zouden juist met ZFSguru prima moeten kunnen presteren, met of zonder sector override. De WD EADS is ook 512-byte sectors; je bedoelt dus WD EARS die inderdaad 4K sectors heeft. WD EADS = 500GB platter terwijl de nieuwe type EARS 666GB platters heeft; in principe is laatstgenoemde dus beter.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op woensdag 30 november 2011 @ 03:36:
Na een reboot zijn alle .nop devices weg, dat is normaal. Het dient er alleen maar voor om de pool ashift=12 te maken. Daarna zijn de .nop devices niet meer nodig.
oke check.
Zojuist gepatched en geaccepteerd door Jason, dus in 0.2 zal bij de netwerk pages staan dat die functionaliteit komt in 0.3. Deze versie komt na 0.2, dus niet 0.2.1 enzo.
nice ! :)
Sommige controllers kunnen in de BIOS disks 1 tot 4 in AHCI draaien en disks 5-6 in IDE modus. Check je BIOS dus!
had ik gedaan de Asus M4A78-EM bios is "warped" eerst stonden eerst ze in IDE modus, --> na controlle van var/log/messages zag ik dat NCQ niet aanstond. op disk 4-5 (dus IDE) vandaar het advies in de wizard een soort controle in te bouwen dat wellicht de BIOS verkeerd ingesteld staat :) misschien een pagina die bij naa boot ff controlleerd of je "settings" van de hardware correct staan afgesteld.
moet redelijk simpel zijn om dit soort performance hits te ontdekken. (zoals NCQ aan/Uit)
Zie hierboven over 4K optimalisatie. Disks met AHCI heten 'ada' terwijl IDE disks 'ad' heten.
weet ik :)
Welke limitaties bedoel je precies? De pools pagina kan nog niet dingen als replace/offline enzo doen, dat komt in 0.2.
Jup die

[/quote]
In principe kun je van elke disk booten die met GPT is geformatteert, ook al is die disk geen onderdeel van de bootable pool. De bootcode zoekt namelijk naar bootable ZFS pools en boot daarin. Dus elke GPT-disk mag je van booten. Heb je daarbij problemen ondervonden?
[/quote]
Ja hoe identificeer je de "boot" disk bij ZFS guru .. bij mij bleef hij in het | --> / --> - -->\ loepje hangen ..
kan een oude BSD install zijn, wellicht handig elke disk eerst bootmanagers/MBR te cleanen ? En geef aan de gebruiker aan welke disk "bootable" is .. (of allemaal .. maakt mij niks uit ..;) )
Maar dan krijg je die waarschuwingen ook als je er niets meer aan kan veranderen door beperkingen van je hardware. Maar ik zal het voorleggen aan Jason.
Nu ja zie het zo .. Jij weet veel meer van de perfomance "hits" die je kan oplopen bij slechte install/ configuratie dan de doorsnee gebruiker. Je kan verwachten dat de gebruiker dit zelf ondervind of je kan zo behulpzaam zijn en deze tips in de wizard meegeven.

Stel dat ik in de wizard gezien had dat disk 1-3 "groen" wegens AHCI waren en 4-5 rood omdat IDE stonden en wellicht linkje naar een FAQ (in nieuw window) dan had ik ....
Overgens ik ging er blind vanuit dat ze in ACHI modus stonden maar omdat ik bios update --> reset to defaults doe en reboot . heb ik er niet echt goed op gelet ..
Hoeft toch ook niet? Naar AHCI veranderen kan te alle tijde. FreeBSD is geen Windows waarbij je eerst registry tweaks moet doen voordat je IDE naar AHCI kunt wijzigen ofzo. :+
Ach windows hoef het ook niet maar "handig" is het niet.. :) weet ik veel hoe een ZFS hiermee overweg gaat .. vandaar ook weer de FAQ ;)
Q: is het nodig direct de setting te wijzigen?
A: Nope ga verder met installatie en wijzig dit na een reboot in de bios
Overgens --> beter gebruiker "dom" te verklaren en gewoon reboot te laten doen .. of doorgaan met performance "hit" ..

IMHO zou ik zelfs gewoon elke pagina "rood" kleuren gewoon omdat de gebruiker wenst te testen met een opzet waar de performance "stinkt" (of rode eye catchy balk met "Performance degraded"

Immers jij + Jason zetten in op een geweldig product en iemand die het "test" vind het troep omdat hij zo dom is niet te controleren waarom de performance "rot" is. Het zijn vaak de mensen met de meeste invloed die gehinderd zijn van Kennis (met hoofdletter K) .
Deze mensen zitten vaak om interpunctie, Hoofdletters enzv te zeuren ipv te snappen waar het inhoudelijk over gaat.
Maar juist deze mensen kunnen wel vaak een produkt maken of breken.. door het "no-no/leek" proof te maken. Voorkom ten onrechte misopvattingen.

Wat de opensource community in algemeen mist is "gebruikers-vriendelijkheid"
Dit merk ik o.a veels te goed in het Xen project. Waar ik in ESXi 1 google search moest doen om erachter te komen dat VT-d niet werkt voor hun .. koste het me voor Xen vele reboots/uren uitzoek werk en nog meer uren testen .. niet te vergeten .. GUI + Commandline afwisselingen .. (bah)

Commandline is krachtiger .. maar GUI scheelt me vaak 90% van het tikwerk .. de commandline zijn voor de "puntjes op de I"
Vandaar ook ZFSGuru _/-\o_ die webwizard is 80% af .. die LAGG setting of disk replace .. dan maar in de commandline .. ;) Als ik nu moet kiezen tussen FreeBSD install CD/DVD pak ik al liever ZFSguru .. waarom ? boot van ZFS en simpel .. installatie "vinkje portstree" en klaar.

Na een paar keer "reinstall" miste ik pas dat ik een wipe disks miste. komt er op neer dat ik "zo schoon mogelijk productie install dus van scratch ..de test daarmee verwijder.
4K sector disks zouden juist met ZFSguru prima moeten kunnen presteren, met of zonder sector override. De WD EADS is ook 512-byte sectors; je bedoelt dus WD EARS die inderdaad 4K sectors heeft. WD EADS = 500GB platter terwijl de nieuwe type EARS 666GB platters heeft; in principe is laatstgenoemde dus beter.
Ik heb zowel EADS als EARS ;) 1 set van 4 en 1 set van 6

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
vso schreef op woensdag 30 november 2011 @ 09:22:
[...]
Ja hoe identificeer je de "boot" disk bij ZFS guru .. bij mij bleef hij in het | --> / --> - -->\ loepje hangen ..
kan een oude BSD install zijn, wellicht handig elke disk eerst bootmanagers/MBR te cleanen ? En geef aan de gebruiker aan welke disk "bootable" is .. (of allemaal .. maakt mij niks uit ..;) )
De bootcode wordt geïnstalleerd tijdens het formatteren. Als je een paar disks hebt die je lange tijd geleden hebt geformatteerd met een oudere ZFSguru versie, dan hebben die ook oudere bootcode. Dus opnieuw formatteren zou dit probleem moeten verhelpen.

De 'boot' disk bestaat eigenlijk niet. Als een disk ZFS bootcode heeft, dan scant hij alle disks en zoekt naar de 'bootfs' property. Stel je hebt 3 pools en één pool heeft de bootfs property, dan wordt van die pool geboot, ook al is de disk waar je BIOS van boot geen onderdeel van deze pool. Dat is wel grappig maar misschien verwarrend. Maar als je alle disks met moderne GPT bootcode formatteert, zou het niet uit moeten maken van welke disk je BIOS boot.

Overigens waar ik nu aan werk met partition map editor kun je achteraf de bootcode updaten. Zonder opnieuw te hoeven formatteren. Ook kan ik een waarschuwing tonen als de bootcode ouder is dan de huidige versie en updaten dus aanbevolen wordt. Dat lijkt me een stuk gebruikersvriendelijker dan nu.
Nu ja zie het zo .. Jij weet veel meer van de perfomance "hits" die je kan oplopen bij slechte install/ configuratie dan de doorsnee gebruiker. Je kan verwachten dat de gebruiker dit zelf ondervind of je kan zo behulpzaam zijn en deze tips in de wizard meegeven.
Inderdaad, alhoewel in welke vorm dat het beste kan is nog even puzzelen.
Wat de opensource community in algemeen mist is "gebruikers-vriendelijkheid"
In veel gevallen klopt dat inderdaad. Maar er zijn uitzonderingen. Firefox en Ubuntu zijn redelijk gebruiksvriendelijk, omdat ze voor een breed publiek worden ontwikkeld. Xen is dat overduidelijk niet dus is gebruiksvriendelijkheid niet echt een speerpunt. Ook is er erg weinig documentatie.

ZFSguru is bedoeld om behulpzaam te zijn voor mensen die beginnen met ZFS en dus nog veel moeten leren, terwijl ook meer ervaren gebruikers veel aan ZFSguru kunnen hebben zoals de disk benchmark die erg mooi gebouwd is (grafiekjes). Het kan allemaal nog beter, maar Jason zit denk ik wel op de goede weg door ZFSguru voor beginners en gevorderden te ontwikkelen.

Nu nog die laatste broodnodige features erin en wat meer extensies en het is een heel tof product. :)

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op woensdag 30 november 2011 @ 16:34:
[...]

De bootcode wordt geïnstalleerd tijdens het formatteren. Als je een paar disks hebt die je lange tijd geleden hebt geformatteerd met een oudere ZFSguru versie, dan hebben die ook oudere bootcode. Dus opnieuw formatteren zou dit probleem moeten verhelpen.

De 'boot' disk bestaat eigenlijk niet. Als een disk ZFS bootcode heeft, dan scant hij alle disks en zoekt naar de 'bootfs' property. Stel je hebt 3 pools en één pool heeft de bootfs property, dan wordt van die pool geboot, ook al is de disk waar je BIOS van boot geen onderdeel van deze pool. Dat is wel grappig maar misschien verwarrend. Maar als je alle disks met moderne GPT bootcode formatteert, zou het niet uit moeten maken van welke disk je BIOS boot.

Overigens waar ik nu aan werk met partition map editor kun je achteraf de bootcode updaten. Zonder opnieuw te hoeven formatteren. Ook kan ik een waarschuwing tonen als de bootcode ouder is dan de huidige versie en updaten dus aanbevolen wordt. Dat lijkt me een stuk gebruikersvriendelijker dan nu.
_/-\o_ inderdaad dat is beter, FYI ik had alles gpt geformat maar goed echt "duidelijk" is boven staande verhaal natuurlijk niet als je naar ZFSGuru kijkt ..

Als je dingen aanneemt is het de moeder van alle rampen .. (uit het engels vertaalt ;) )
Inderdaad, alhoewel in welke vorm dat het beste kan is nog even puzzelen.
De vorm waarin je het aanbied is gewoon simpel IMHO .. maak 2 wizards (basis webcode blijft gelijk)
1st scan voor "exsisting pool" bestaat er 1 dan -->
1) Simple wizard met hooguit wat speed pointers en valkuilen zoals misconfiguratie(s) die nodig zijn vanuit de BIOS of eventueel "latency" problemen ..
2) De ander Wizard is voor beginners/experts waar je gewoon minder per pagina maar meer uitleg doet .. en meer opties .. ook met de simple code erin.. (liefst onderling geschared zodat je de code 1maal hoeft te schrijven ;) maak het desnoods soort html menu .. waar je alle stapjes apart doorloopt.
plaatjes o.a uit start topic (plaatjes zijn 20x beter dan tekst) om dingen duidelijk te maken.

Overgens bedenk me net dat je best een USB 'stick; search kan doen voor "settings"
op de stick staat een dir met een ZFSguru.conf (geef de gebruiker bij reboot pagina optie om deze te hernoemen naar "zfsguru.???.conf (dit kan je later weer als "import" gebruiken ofzo ..
In ieder geval dit scheelt je bij LiveCD of "test' gewoon herconfigureren .. en kan je beter tweaken/testen.

Maar ook vertalingen enzv kunnen starten .. omdat de website text --> ini --> de conf bepaald de "taal"
In veel gevallen klopt dat inderdaad. Maar er zijn uitzonderingen. Firefox en Ubuntu zijn redelijk gebruiksvriendelijk, omdat ze voor een breed publiek worden ontwikkeld. Xen is dat overduidelijk niet dus is gebruiksvriendelijkheid niet echt een speerpunt. Ook is er erg weinig documentatie.
Gelukkig zijn er uitzonderingen, En goeie producten hoeven geen handleiding
zoals Ipod heeft al jaren geen handleiding ..

ZFSGuru is echter een heel ander beest, hier moet je juist lezen wil je max performance halen..
Fout die ik o.a maakte was .. "ass-umption" dat een controller = controller = max speed.
Ja na onze discussie op ander GOT Thread kwam ik er achter wat de oorzaak was. En inderdaad.
enorme performance verschillen .. 50% ruim .. Of wat mensen denken .. ik mik maar een RAID controller erin omdat er 20 disks in kunnen .. dus zal ik max performance halen .. (alleen niet in IT-Firmware modus)

ZFS is denk ik ook De RAID oplossing voor SSD's hoewel ik niet weet hoe ZFS met TRIM overweg gaat. (als deze het al doet)
ZFSguru is bedoeld om behulpzaam te zijn voor mensen die beginnen met ZFS en dus nog veel moeten leren, terwijl ook meer ervaren gebruikers veel aan ZFSguru kunnen hebben zoals de disk benchmark die erg mooi gebouwd is (grafiekjes). Het kan allemaal nog beter, maar Jason zit denk ik wel op de goede weg door ZFSguru voor beginners en gevorderden te ontwikkelen.

Nu nog die laatste broodnodige features erin en wat meer extensies en het is een heel tof product. :)
Zat me te bedenken dat eigenlijk zou een webmin exstentie ook zeer handig zijn, omdat je dan daar kan focuss-en op de "core" en overige "features" via webmin laat gaan ... (config meuk)

Zeker waardevol zoals ik zei, de nieuwe FreeBSD install van 9.0 rc2 ziet er goed uit maar ZFSguru is beter. _/-\o_

Tja vanalles


Acties:
  • 0 Henk 'm!
Na veel pijn en moeite ben ik nu overgestapt (over kopiëren kost namelijke erg veel tijd) van Solaris 11 Express naar FreeBSD (ZFSGuru) en van ZFS Pool 31 naar 28. Het enige wat ik niet werkend krijg is de vfs recycle module in Samba. Het configuratie bestand is vrijwel hetzelfde als ik gebruikte in Solaris waar de recycle module wel werkte. Iemand die het wel werkende heeft?

Aangezien ook toevallig mijn moederbord kapot is stel ik het benchmarken maar even uit. Nu doet mijn desktop namelijk dienst als NAS en gaat het testen dus niet. Eerst dus maar even alles werkend krijgen zoals vanouds.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • peak
  • Registratie: Januari 2007
  • Laatst online: 09:57
CurlyMo schreef op woensdag 30 november 2011 @ 17:52:
Na veel pijn en moeite ben ik nu overgestapt (over kopiëren kost namelijke erg veel tijd) van Solaris 11 Express naar FreeBSD (ZFSGuru) en van ZFS Pool 31 naar 28. Het enige wat ik niet werkend krijg is de vfs recycle module in Samba. Het configuratie bestand is vrijwel hetzelfde als ik gebruikte in Solaris waar de recycle module wel werkte. Iemand die het wel werkende heeft?

Aangezien ook toevallig mijn moederbord kapot is stel ik het benchmarken maar even uit. Nu doet mijn desktop namelijk dienst als NAS en gaat het testen dus niet. Eerst dus maar even alles werkend krijgen zoals vanouds.
Rechten van de map goed staan? Is de user die het bestand verwijdert toegestaan om naar de recycle map te "verslepen" en directories aan te maken?

[ Voor 1% gewijzigd door RobIII op 03-04-2013 18:56 ]


Acties:
  • 0 Henk 'm!
peak schreef op woensdag 30 november 2011 @ 18:28:
[...]


Rechten van de map goed staan? Is de user die het bestand verwijdert toegestaan om naar de recycle map te "verslepen" en directories aan te maken?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
[data]
    comment = Data Gebruikers
    path = /data/%U
    writable = yes
    browseable = yes
    create mask = 0777
    directory mask = 0777 
    read only = no
    follow symlinks = yes
    wide links = yes
#    write list = xxx
    valid users = xxx
    vfs objects = recycle
    recycle:repository = /data/recycle/%U
    recycle:keeptree = Yes
    recycle:touch = Yes
    recycle:versions = Yes
    recycle:maxsize = 0
    recycle:exclude =
    recycle:excludedir =
    recycle:noversions =
    dfree command = /usr/sbin/smbdiskspace data


Antwoord op de suggesties: ja en ja

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 02-10 19:22
Beste tweakers,

Ik ben mij aan het oriënteren voor een HTPC op basis van XBMC (XboxMediaCenter) en ik ben gecharmeerd van de mogelijkheden die ZFS bied mbt het veilighouden van bestanden. Mijn vraag is eigenlijk of het mogelijk is om op een HTPC, XBMC software te draaien (hopelijk de live versie / een linux versie) maar als filesystem ZFS (ZFS guru). Ik weet dat er een beta versie bestaat van ZFS-on-Linux maar ik wil liever betrouwbaarheid en ZFS heeft zich al bewezen op FreeBSD en Solaris.

Het doel is om een HTPC/NAS combinatie te maken door XBMC te draaien met de bestanden die lokaal beschikbaar zijn. XBMC is het hoofddoel en als bijdoel zal het "half" dienen als NAS, namelijk de backup bestanden van andere pc's en natuurlijk de bestanden die afgespeeld worden.

Gaat dit een goede combinatie zijn of kan ik het beter splitsen in een HTPC (op basis van linux) en een ZFS NAS (met bijbehorende hogere aanschaf/energiekosten))? Ik betwijfel of virtualiseren zo'n feest zal zijn, gezien de topics op tweakers ;).

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

EnerQi schreef op woensdag 30 november 2011 @ 20:28:
Beste tweakers,

Ik ben mij aan het oriënteren voor een HTPC op basis van XBMC (XboxMediaCenter) en ik ben gecharmeerd van de mogelijkheden die ZFS bied mbt het veilighouden van bestanden. Mijn vraag is eigenlijk of het mogelijk is om op een HTPC, XBMC software te draaien (hopelijk de live versie / een linux versie) maar als filesystem ZFS (ZFS guru). Ik weet dat er een beta versie bestaat van ZFS-on-Linux maar ik wil liever betrouwbaarheid en ZFS heeft zich al bewezen op FreeBSD en Solaris.

Het doel is om een HTPC/NAS combinatie te maken door XBMC te draaien met de bestanden die lokaal beschikbaar zijn. XBMC is het hoofddoel en als bijdoel zal het "half" dienen als NAS, namelijk de backup bestanden van andere pc's en natuurlijk de bestanden die afgespeeld worden.

Gaat dit een goede combinatie zijn of kan ik het beter splitsen in een HTPC (op basis van linux) en een ZFS NAS (met bijbehorende hogere aanschaf/energiekosten))? Ik betwijfel of virtualiseren zo'n feest zal zijn, gezien de topics op tweakers ;).
Hoe graag wil je tweakeren en hoe graag wil je "snel klaar zijn"

ZFS heeft bv 8 GB (op FreeBSD/ZFSguru) minimaal nodig (+/- per 1 TB 1 gb ram) dus 6 tot 8 TB = 8 GB

Virtualisatie kan handig zijn als je bv windows (team mediaportal) wilt draaien .. maar uit ervaring kan ik je vertellen dat USB/PCI passthrough (bv DVB kaart direct aan windows "doorgeven" zodat deze die kan gebruiken word wel een probleem dan.
Ga je zonder virtualisatie zou ik eens kijken wat de FreeBSD port(s) standaard aan huis heeft voor HTPC doeleinden.

pak bv vmware player + nieuwe iso van FBSD en experimenteer een beetje met het opzetten..

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Hallo.

Momenteel druk doende met het expirimenteren met ZFS en FreeBSD 9.0 RC2
Doe dit momenteel met vmware.
ZFS werkt prima, en alles werkt ook zoals beschreven.
Echter krijg ik het niet voor elkaar een hotspare automatisch te laten invallen als ik een schijf weghaal.

code:
1
2
3
# zpool get autoreplace mypool
NAME    PROPERTY   VALUE   SOURCE
mypool   autoreplace    on          local


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# zpool status -v
  pool: mypool
 state: DEGRADED
 scrub: none requested
config:

        NAME            STATE         READ WRITE CKSUM
        mypool          DEGRADED 0     0     0
          raidz1-0      ONLINE       0     0     0
            gpt/r1d1    ONLINE       0     0     0
            gpt/r1d2            ONLINE       0     0     0
            gpt/r1d3        ONLINE       0     0     0
         raidz1-1       DEGRADED 0     0     0
            gpt/r1d4    ONLINE       0     0     0
            gpt/r2d1            ONLINE       0     0     0
            345533454533UNAVAIL       0     0     0 was /dev/gpt/r2d2
        spares
          gpt/r2d3           AVAIL


Zoals je ziet staat de spare nog steeds als AVAIL.
Het zijn allemaal virtuele disks binnen vmware.
Ook exporteren en importeren van de pool geeft niet het gewenste resultaat.
Wat zie ik over het hoofd?

Gr
Johan

Acties:
  • 0 Henk 'm!

  • fabianruben
  • Registratie: Juli 2010
  • Niet online
Sorry voor het niet reageren op jullie reacties. Bedankt voor alle reacties. Ik waardeer jullie hulp heel erg.

Roadmap zfsguruhttp://zfsguru.com/doc/roadmap
Ik wacht denk ik tot Usermanagement en Permissionmanagement erin zit. Ik heb geen haast, omdat ik een draaiend systeem heb. Ik vind het belangrijker dat het volledig is en functioneerd.

Het mooie vind ik wel aan zfsguru dat je dus makkelijk kunt booten van je array. Ik heb nog wat rond gekeken en blijkt toch best lastig om dat op een ander OS voor elkaar te krijgen.

@vso
Ik ben in eerste instantie niet van plan om een Active Directory te maken, misschien ooit via ISCSI boot op de ZFS machine). Een AD server met Fileserver etc. via ISCSI zou wel ik wel jammer vinden dan geef ik te makkelijk op om alles via de ZFS machine. Kan ZFS bij ISCSI dan nog op file niveau bestanden herstellen of word het als een groot soort van image gezien?
Wel wou ik de groepen MapnaamModify en MapnaamFullcontroll maken als dat in ZFSguru rechten zijn?

Kan ik users laten inloggen op hun Windows machine met de zelfde gebruikersnaam en wachtwoord als op ZFSguru?

Hoe is webmin tegenwoordig? Ik las dat het nogal bugy is/was.

@CiPHER
Help jij Jason van ZFSguru?

Acties:
  • 0 Henk 'm!

  • ajslaghu
  • Registratie: Oktober 2000
  • Laatst online: 03-10 20:32
Ik volg de ZFS al een tijdje, en heb besloten om -naast thuis- dit ook in mijn organisatie te gaan testen.

De hardware die ik hiervoor heb is een HP DL380 G5 met een P400 array controller.

Hierop draait VMware. ik wilde kijken of ik Openindiana o.i.d. Als VM kan draaien waarbij deze directe toegang tot 6 van de 8 disken krijgt. Hierbij zijn deze 6 disken 1GB sata schijven voor de consumentenmarkt.

Napp-it weet dit te doen: http://arstechnica.com/ci...wtopic.php?f=21&t=1157401 .

Weet iemand of dit kan met deze hardware? krijg ik gedoe met TLER of is dit inmiddels opgelost? Of moet ik die P400 er uit gooien en zo'n LSI ding regelen?

@vso :
kieskeurig? qua hdd's? heb je daar een link van?
traag? maar je zet raid toch uit ofzo?

[ Voor 7% gewijzigd door ajslaghu op 01-12-2011 20:43 . Reden: vraag aan vso ]

Als je het absurde aanneemt, kan je het tegenover gestelde bewijzen ??


Acties:
  • 0 Henk 'm!
P400 is geen goede controller voor ZFS. Kieskeurig en traag. RAID engine is ook verouderd.
Je kan beter een LSI controllertje kopen.

Even niets...


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

fabianruben schreef op donderdag 01 december 2011 @ 14:18:
Kan ZFS bij ISCSI dan nog op file niveau bestanden herstellen of word het als een groot soort van image gezien?
Wel wou ik de groepen MapnaamModify en MapnaamFullcontroll maken als dat in ZFSguru rechten zijn?

Kan ik users laten inloggen op hun Windows machine met de zelfde gebruikersnaam en wachtwoord als op ZFSguru?

Hoe is webmin tegenwoordig? Ik las dat het nogal bugy is/was.
ISCSI = raw dus disk inhoud of 1 grote image laag. echter je OS (windows Bijvoorbeeld) kan niet overweg met ZFS. dus automagisch kom je dan 1 grote image laag waarbij je niet bij de bestanden of "file" niveau kan. (je kan iscsi wel meerdere keren mounten maar NTFS is niet cluster aware (zover ik weet) dus bestanden verplaatsten vindt tie niet leuk.

Enige van ZFS overhoud is de snelheid en error correction. (wat niet slechte deal is IMHO)

ZFS guru is niet echt super compleet en zal je dus een andere interface grafisch/commandline moeten pakken voor user en rechten management.

Ik ben niet tevreden over de interoperabiliteit van SAMBA + Windows. NFS is denk ik niet wat je wilt wat echter ook schijnt te kunnen.
Het mooie van samba is dat het gewoon als een "member" server kan manifisteren in de AD echter ik vind het niet duidelijk hoe je bv met windows MMC de Samba fileshare "beheert" 2 jaar geleden was dit voor mij reden. het project te annuleren.

De reden dat Ik ISCSI + windows fileserver zeg is "gemak" versus uren puzzel werk en wellicht achteraf wat nare file lock problemen .. wat echter niet hoeft.

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

CIFS kernel van illumos (dus OI of Nexenta) kan dat wel mocht je het willen proberen.

Acties:
  • 0 Henk 'm!

  • fabianruben
  • Registratie: Juli 2010
  • Niet online
@Gila
Kun je iets specifieker zijn, wat kunnen OI en Nexenta wel?

Acties:
  • 0 Henk 'm!

Verwijderd

fabianruben schreef op donderdag 01 december 2011 @ 19:27:
@Gila
Kun je iets specifieker zijn, wat kunnen OI en Nexenta wel?
Sorry, het managen van CIFS shares vanuit mmc.

http://blogs.oracle.com/a...uter_management_mmc_with1

Acties:
  • 0 Henk 'm!

  • fabianruben
  • Registratie: Juli 2010
  • Niet online
@gila
Kan dat ook op freebsd geïnstalleerd worden is wel erg handig. Met je Windows 7 client vanuit computer beheer je hele fileserver managen.

Acties:
  • 0 Henk 'm!

Verwijderd

fabianruben schreef op donderdag 01 december 2011 @ 22:04:
@gila
Kan dat ook op freebsd geïnstalleerd worden is wel erg handig. Met je Windows 7 client vanuit computer beheer je hele fileserver managen.
Weet ik niet; geloof dat BSD samba gebruikt en of samba het kan -- weet ik niet.

Acties:
  • 0 Henk 'm!

  • Goderic
  • Registratie: Februari 2009
  • Laatst online: 27-09 00:41
EnerQi schreef op woensdag 30 november 2011 @ 20:28:
Beste tweakers,

Ik ben mij aan het oriënteren voor een HTPC op basis van XBMC (XboxMediaCenter) en ik ben gecharmeerd van de mogelijkheden die ZFS bied mbt het veilighouden van bestanden. Mijn vraag is eigenlijk of het mogelijk is om op een HTPC, XBMC software te draaien (hopelijk de live versie / een linux versie) maar als filesystem ZFS (ZFS guru). Ik weet dat er een beta versie bestaat van ZFS-on-Linux maar ik wil liever betrouwbaarheid en ZFS heeft zich al bewezen op FreeBSD en Solaris.

Het doel is om een HTPC/NAS combinatie te maken door XBMC te draaien met de bestanden die lokaal beschikbaar zijn. XBMC is het hoofddoel en als bijdoel zal het "half" dienen als NAS, namelijk de backup bestanden van andere pc's en natuurlijk de bestanden die afgespeeld worden.

Gaat dit een goede combinatie zijn of kan ik het beter splitsen in een HTPC (op basis van linux) en een ZFS NAS (met bijbehorende hogere aanschaf/energiekosten))? Ik betwijfel of virtualiseren zo'n feest zal zijn, gezien de topics op tweakers ;).
Ik heb onlangs een HTPC op FreeBSD met ZFS en XBMC om ongeveer dezelfde redenen gemaakt. Ik had geen zin om een HTPC én een NAS te kopen/bouwen en het idee om al mijn media op een bestandssysteem in ontwikkeling te zetten stond mij evenmin aan.

Ikzelf ben gestart met een kale FreeBSD 8.2 installatie. (via de PC-BSD installer om root on ZFS te krijgen zonder pagina's aan config files aan te passen).

Alles werkend krijgen was wel wat werk, je moet XBMC zelf compileren en er zijn (bij mij althans) een aantal dependencies die jammer genoeg niet vanzelf opgelost raken. Ook moet je een aantal config files zoals die van Xorg ed aanpassen.
Het compileren zelf is een eitje omdat XMBC in de ports zit. Je mag natuurlijk niet bang zijn van de commandline en manpages ;) Voor mij was het mijn eerste ervaring met BSD, mijn Linux commandline kennis en Google waren genoeg om met FreeBSD overweg te kunnen.

XBMC is vrij stabiel, ik heb nu een tweetal crashes gehad in die twee maand dat ik mijn HTPC nu heb, iets waar ik persoonlijk mee kan leven.
Enkel VDPAU + XBMC heb ik niet werkend gekregen. Volgens mensen op het FreeBSD forum zou het moeten werken maar bij mij loopt alles vast zonder enige foutmelding. Als XBMC 11 en FreeBSD 9.0 uit zijn ga ik er nog eens mee aan de slag gaan.


(Je mag me altijd een PM sturen mocht je nog vragen hebben :))

Acties:
  • 0 Henk 'm!
Ho wacht, PC-BSD heeft óók ZFS-on-Root? :D

Even niets...


Acties:
  • 0 Henk 'm!
Terugkomende op mijn samba recycle bin probleem. Nu van scratch samba-3.5.12 gecompiled. Met hetzelfde configuratie bestand werkt het nu perfect. Hopen dat het bij de volgende ports versie van samba weer gaat werken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Goderic
  • Registratie: Februari 2009
  • Laatst online: 27-09 00:41
FireDrunk schreef op vrijdag 02 december 2011 @ 09:17:
Ho wacht, PC-BSD heeft óók ZFS-on-Root? :D
Inderdaad :) Je hebt wel nog een UFS /boot partitie.

Acties:
  • 0 Henk 'm!
Nu ik mijn NAS opnieuw heb geïnstalleerd krijg ik in ZFSGuru de melding dat het tijd wordt dat ik mijn boot schijf vervang. Dit is nu een oude laptop schijf die ik hergebruik. Aangezien de installatie maar erg weinig ruimte nodig heeft is het misschien interessant om een kleine SSD als boot schijf te gebruiken. En als ik dan toch een SSD bootschijf heb dan kan ik er misschien net zo goed een nemen die voor L2ARC & ZIL gebruikt kan worden.

Nu is de vraag, wat is de meest goedkope SSD die ik nuttig voor L2ARC & ZIL kan gebruiken en als boot schijf. Zover ik begreep kan ik met ZFS > 19 veilig een aparte ZIL hebben. Mocht deze SSD dan crashen dan ben ik mijn pool niet kwijt toch?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Klopt, maar wel de meest recent geschreven transaction group. Wat ik echter niet weet is hoe ZFS met een corrupte SLOG omgaat in geval van een recovery na crash. Mocht dat niet geheel afgedekt zijn dan wil je wellicht toch een SSD met supercapacitor. Dat is gewoon de beste optie voor SLOG. Overigens: SLOG is wat sommigen ZIL noemen.

Je moet een goede SSD nemen, liever iets kleiner dan een slechte SSD zonder NCQ zoals Toshiba/JMicron/Indilinx. Intel 320 is een erg goede SSD hiervoor; snelle random reads, veilig, betrouwbaar en normale prijs. Crucial M4 kun je ook overwegen maar die heeft geen supercaps.

Oh en ik ben benieuwd: wat zegt ZFSguru precies over je laptopschijf?

Acties:
  • 0 Henk 'm!
Een van de getallen staat op rood tijdens het SMART uitlezen (ben nu niet thuis dus weet niet precies meer hoe het heet). Is de 40gb dan een interessante optie. Wat lever ik dan eigenlijk precies in met de lage write snelheden?

Overigens: ZIL is wat sommigen SLOG noemen :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ZIL = ZFS Intent Log, zeg maar de journal van het filesystem voor recovery na een crash of unclean shutdown. Die heb je ook zonder aparte log devices. Zo'n aparte log device wordt Separate log device genoemd, ofwel SLOG. Een ZIL is dus niet hetzelfde als SLOG. Als je zegt een dedicated ZIL device zou dat wel enigszins accuraat zijn, maar SLOG is dus de meest officiële benaming. SLOG betekent dat de pool members zelf niet de functie van ZIL vervullen, je outsourced de ZIL dus naar een dedicated device zodat je de harddisks ontlast.

40GB Intel 320 kan, maar dan lever je wel in op snelheid. Dan zou je ook nog de Crucial M4 64GB kunnen overwegen die is flink sneller bij dit soort lage capaciteiten. Intel 320 wordt leuk vanaf 80GB; de 120GB versie is de sweet spot qua prijs per gigabyte en performance. Daarboven niet echt interessant.

Bedenk wel: het beste kun je maar 50% van de capaciteit gebruiken. Dus een 40GB SSD betekent 20GB gebruiken. De 80GB versie is dus veel beter: 10GB systeemdisk, 4GB slog en 26GB L2ARC. Je houdt dan 40GB aan spare space vrij. Bedenk dat de SSD enorm veel dynamische data (random writes) krijgt en maar heel weinig sequential writes. De noodzaak voor extra spare space is dus groot. De performance neemt ook enorm toe met extra spare space. Bij Intel SSDs kan dat een 400 tot 800 procent zijn ten opzichte van geen extra space space (100% LBA in gebruik). 50% is de beste keuze voor performance, 70-80% is een compromis. 20 tot 25% extra spare space zie ik als het absoluut minimum om de prestaties en levensduur op een hoog niveau te houden.

Acties:
  • 0 Henk 'm!
Dan hangt het er dus vanaf of de pool nog werkt nadat een SLOG crashed. Zo ja, dan is de Crucial de beste keuze, zo niet, dan kan ik beter de Intel nemen. Ik zat zelf aan een pricewatch: Corsair Force F40 (34nm) 40GB te denken maar weet niet of die geschikt genoeg is...

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • nielsdc
  • Registratie: Juni 2011
  • Laatst online: 19-07 18:49
Bij oudere zfs versies ben je de hele pool kwijt als je de slog verliest.
Bij recente versies zou het geen probleem mogen zijn.
freebsd 8.2 (huidige zfsguru?) heeft geloof ik een te oude zfs versie voor slog recovery, 9.0 heeft v28 en is dus ok.

Als je een SSD zonder supercap gebruikt dan heb je altijd kans op data verlies bij een power failure, maar normaal gesproken niet meer dan de laatste 5 seconden.

Acties:
  • 0 Henk 'm!
Zou dan zo'n goedkope Corsair/Kingston SSD voldoende zijn of zit je dan met problemen zoals een controller die alleen goede snelheden behaalt met ongecomprimeerde data. Een controller die dus in werkelijkheid bagger snelheden haalt in tegenstelling tot de specs?

Ik draai trouwens op dit moment op ZFS 5, ZPool 28.

[ Voor 9% gewijzigd door CurlyMo op 05-12-2011 08:24 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
nielsdc schreef op maandag 05 december 2011 @ 00:58:
freebsd 8.2 (huidige zfsguru?) heeft geloof ik een te oude zfs versie voor slog recovery, 9.0 heeft v28 en is dus ok.
FreeBSD 8-STABLE = ZFS v28. ZFSguru biedt zowel FreeBSD 8-STABLE als 9-RC2 aan, beide beschikken over ZFS v28.
Als je een SSD zonder supercap gebruikt dan heb je altijd kans op data verlies bij een power failure, maar normaal gesproken niet meer dan de laatste 5 seconden.
Het punt is meer of ZFS het trekt als je SLOG device nog wel bestaat maar gedeeltelijk corrupt is geraakt door stale mapping tables, iets waar SSDs vatbaar voor zijn die niet over een supercap beschikken.
CurlyMo schreef op maandag 05 december 2011 @ 08:20:
Zou dan zo'n goedkope Corsair/Kingston SSD voldoende zijn of zit je dan met problemen zoals een controller die alleen goede snelheden behaalt met ongecomprimeerde data. Een controller die dus in werkelijkheid bagger snelheden haalt in tegenstelling tot de specs?
Alle controllers behalve Intel en Marvell zijn eigenlijk ongeschikt. Toshiba/JMicron (Kingston SSDs) ongeschikt vanwege gebrek aan NCQ dus flink lagere performance, en Sandforce ongeschikt vanwege onbetrouwbaarheid en het feit dat deze controller alleen echt goed presteert met goed comprimeerbare data. ZFS gebruikt voor alle metadata sowieso compressie, dus dan zou je alleen met L2ARC data nog wat winst kunnen behalen.

Ik raad je sterk aan een goede SSD te kopen voor een tientje extra. Gewoon zonde als je veel geld uitgeeft voor een Kingston of Sandforce SSD, juist voor ZFS. Kingston moet je voor lichte desktops gebruiken niet voor ZFS met vele random writes. Intel 80GB of Crucial M4 64GB zijn de meest voor de hand liggende keuzes. Bedenk ook dat je maar een deel van de capaciteit behoort te gebruiken of je performance loopt sterk terug! Zie mijn verhaal hierboven.

Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 02-10 17:30

Snow_King

Konijn is stoer!

Verwijderd schreef op maandag 05 december 2011 @ 13:24:
Ik raad je sterk aan een goede SSD te kopen voor een tientje extra. Gewoon zonde als je veel geld uitgeeft voor een Kingston of Sandforce SSD, juist voor ZFS. Kingston moet je voor lichte desktops gebruiken niet voor ZFS met vele random writes. Intel 80GB of Crucial M4 64GB zijn de meest voor de hand liggende keuzes. Bedenk ook dat je maar een deel van de capaciteit behoort te gebruiken of je performance loopt sterk terug! Zie mijn verhaal hierboven.
Mocht je voor een 80GB Intel kiezen (of welke grootte dan ook), verklein deze dan dmv van HPA (Host Protection Area).

Je kan de 80GB SSD dan verkleinen naar 16GB, meer dan genoeg voor een ZIL en komt de performance + levensduur van de SSD ten goede.

Dit kan je onder Linux bijv met hdparm doen. Zie ook dit duitse Wiki artikel: http://www.thomas-krenn.c...r-Provisioning_mit_hdparm

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Verkleinen via HPA is nodeloos ingewikkeld; je moet gewoon niet naar bepaalde LBA schrijven dat geeft hetzelfde effect. En met TRIM maak je alles weer schoon. Dat kan ook via de ZFSguru web-interface en duurt 2 seconden.

Een SLOG device hoeft maar 2 tot 4 gigabyte groot te zijn; dat is ruim zat in de meeste gevallen. Je kunt de rest gebruiken voor L2ARC en een systeem pool.

Dus je hebt bijvoorbeeld:
Partitie 1 = 10GiB = systeem pool voor ZFSguru installatie
Partitie 2 = 4GiB = SLOG voor HDD pool
Partitie 3 = 26GiB = L2ARC voor HDD pool
(ongebruikte ruimte = ~40GB = spare space voor SSD

Alle ruimte is spare space totdat je deze ruimte claimt door er naar te schrijven. Een TRIM of secure erase geeft de ruimte weer terug aan de SSD. Simpelweg niet schrijven naar bepaalde LBA (opslagruimte in een bepaald gebied op de schijf) is dus voldoende om overprovisioning te doen.

Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 03-10 18:10
Om de ZFS talk uit het DIY nas even naar hier te verhuizen pik ik hier verder in CiPHER ;).

Ik las net dat ZFS ingebouwde dedup heeft. Iemand daar first hand ervaring mee? Om mijn (mogelijk) corruptieverhaal in te dijken (cfr DIY nas topic) klinkt een ZFS based backup servertje wel aardig, zeker als de dedup wat is. Dan moet ik niet meteen en 1:1 array maken voor backups.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dedup(licatie) gebruik ik ook, maar op een kleine dataset met VM images met Linux; de data daarvan is 80% gelijk dus haal je hier wel winst mee en de overhead valt mee. Maar dedup op grote datasets valt sterk af te raden. Je hebt enorm veel RAM en L2ARC SSD cache nodig om enigszins een beetje te performen. In veel gevallen is de ruimtewinst de performanceimpact niet waard.

Ga dedup dus niet inschakelen voor terabytes aan data; tenzij je een beestachtige configuratie draait met 64GiB RAM en 100GB+ aan L2ARC ofzo. De formule hoeveel je precies nodig hebt ben ik even kwijt.. valt wel te googlen denk ik.

Acties:
  • 0 Henk 'm!

  • mieJas
  • Registratie: April 2005
  • Niet online

mieJas

Ja, maar nee.

Ik zie -in mijn situatie- weinig winst met dedup. Rond de 5% om precies te zijn. De grootste hap van de back-up zijn foto's, dus dat is waarschijnlijk de oorzaak. Als het om enkel documenten gaat, bespaar ik een goeie 15%.

Hangt ook een beetje af van de software die je gebruikt. Zijn het telkens full back-ups of enkel incremental? Welk soort data ga je backuppen?

Gecomprimeerde data dedupet niet over het algemeen niet goed.

Yes, but no.


Acties:
  • 0 Henk 'm!

  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Ga dedup dus niet inschakelen voor terabytes aan data; tenzij je een beestachtige configuratie draait met 64GiB RAM en 100GB+ aan L2ARC ofzo. De formule hoeveel je precies nodig hebt ben ik even kwijt.. valt wel te googlen denk ik.
Oh ok dat is goed om te weten. Maar ik begrijp als dedup op 1.00x staat dan is het alleen 'enabled' maar niet actief?

NAME PROPERTY VALUE SOURCE
Archive size 18.1T -
Archive capacity 83% -
Archive version 28 default
Archive delegation on default
Archive autoreplace off default
Archive cachefile - default
Archive failmode wait default
Archive dedupditto 0 default
Archive dedupratio 1.00x -
Archive free 2.94T -
Archive allocated 15.2T -

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Of dedup aan of uit staat kun je met 'zfs get dedup <fs>' bekijken; het is een filesystem property. Maar je kunt eerst dedup aan staan, files schrijven, daarna uitzetten en dan blijven alle bestaande files dedupped. De dedupratio vind je dan terug met 'zpool get dedupratio <pool>'. Dit werkt dus iets anders als met compressie, wat helemaal per filesystem gaat. Maar deduplication vind cross-filesystem plaats.

Dedup staat standaard uit, net als compressie. Dus is de dedupratio en compressratio automatisch 1.00.

Acties:
  • 0 Henk 'm!

  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
bedankt voor de uitleg :)

Nu ben ik ff ZFSguru 0.1.9 (livecd) aan het proberen en dat ziet er wel mooi uit.
Maar ik mis de serienummers van de disks? Ben ik weer 's 'n beetje scheel of wat }:O
Blijkbaar heb ik 'n disk met pending sectors en 3 met kabel errors :( maar zie nergens serienummers staan? Dus ik weet niet welke disk ik moet testen etc.
Bij DISK -> advanced settings krijg ik niet meer info over de disk (it appears your controllers does not support.. via the camcontrol identify command). Ik heb gekozen voor SPA28, ZPL5 (hoe nieuwer hoe beter toch :P)

Ik heb nieuwe hardware :D Dit is op een Supermicro X8SIL-F met M1015 (IT) kaartje en m'n oude Samsung F2 1.5TB disks.

ada0 Warning no sensor 0 27615 0 active • ? passive ??? -> da's een Vertex turbo 30GB
ada2 Healthy 36°C • 97°F 373 1 0 active • 0 passive 7.6 months
da6 Healthy 35°C • 95°F 286 1 0 active • 0 passive 7.1 months
da7 Healthy 35°C • 95°F 213 0 3 active • 0 passive 1.2 years

edit: hmm interessant om te zien dat met OI + Napp-it alles in orde schijnt te zijn, geen errors. Kon echter wel niet de ZFSguru pool importeren, er viel niets te importeren volgens Napp-it dus heb een nieuwe pool aangemaakt.

[ Voor 9% gewijzigd door iRReeL op 09-12-2011 16:34 ]

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Serienummers kun je op de Advanced pagina zien, maar dat werkt ook niet op mijn LSI controller; schijnt aan die chip te liggen. Je kunt volgens mij wel via smartctl /dev/... de serienummers zien, maar dat gaat dan niet via de web-interface.

Pending sectoren zijn bij ZFS niet zo erg, mits je redundantie hebt. Je kunt een scrub uitvoeren dan worden ze gevonden en gerepareerd. Maar vaak bevinden deze pending sectors zich op een locatie die nog niet door ZFS is gebruikt. Dan is het ook niet erg; want bij een volgend gebruik worden ze geschreven en niet geleden; dus op dat moment verdwijnt de pending sector automatisch.
Ik heb gekozen voor SPA28, ZPL5 (hoe nieuwer hoe beter toch :P)
ZFSguru laat je expres standaard een lagere pool versie aanmaken, zodat je de pool naar andere besturingssystemen kunt migreren. Je kunt namelijk de versie nooit meer verlagen, maar wel op ieder moment achteraf verhogen. Het idee is dus dat je de versie alleen verhoogt als je de extra features nodig hebt, zoals dedup in versie 21.
edit: hmm interessant om te zien dat met OI + Napp-it alles in orde schijnt te zijn, geen errors. Kon echter wel niet de ZFSguru pool importeren, er viel niets te importeren volgens Napp-it
In orde in welke zin, zie je met smartmontools geen pending sectors of kabelfouten bij UDMA_CRC_ERROR_COUNT? Daar haalt ZFSguru zijn info vandaan namelijk. ZFSguru past eigen analyse toe op de output van smartmontools, iets wat vrijwel alle andere systemen niet doen en dan heb je als gebruiker niet veel aan SMART omdat je niet weet wat de attributen betekenen.

Dat je geen pool kunt vinden onder Solaris komt waarschijnlijk omdat je de disks met GPT hebt formatteerd. Solaris ondersteunt GPT niet (volledig) dus moet je de disks als GEOM formatteren om cross-platform compatible te zijn met Solaris. Dat staat ook aangegeven op de Disks format pagina.

Als je nou napp-it met ZFSguru vergelijkt, wat zijn dan volgens jou de goede punten en slechte punten van beide systemen?

Acties:
  • 0 Henk 'm!

  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Ik kan nog niet veel zeggen over Napp-it vs ZFSguru want ik heb het amper gebruikt. Ik wil ZFSguru nu voornamelijk installeren omdat er betere support is hiero :D en ik dan misschien ook nog 's iets kan bijdragen. Ik begrijp dat er voor FreeBSD meer software beschikbaar is zoals SabNZB en couchpotato etc.

Het begint eigenlijk al met de installatie, de OpenIndiana installatie was voor mij makkelijker (ik heb alleen windows ervaring, dus wil graag een desktop :X ), ik krijg meteen een desktop bij de OI installatie en bij FreeBSD een prompt. Dus ik moet nu nog ff verder lezen hoe ik een desktop krijg bij FreeBSD (of misschien moet ik PC-BSD gebruiken?) en daarna nog 's gaan kijken hoe ik ZFSguru kan installeren. Ik wil graag meer dan alleen een webGUI want ik wil ook 1 of 2 virtuele machines draaien (snelheid, stabiliteit en betrouwbaarheid van ZFS is mij belangrijker dan de virtuele machines vandaar geen ESXi).

ZFSguru installer geeft momenteel alleen ZFS on root installatie wat wel handig is maar ik wil het OS niet op de 10 disk pool vanwege het downspinnen van de disks.

Dus momenteel heb ik alleen de livecd versie van ZFSguru gezien :) Ik probeer het deze week te installeren, kijken of dat lukt zoals ik het in gedachte heb ;)

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 02-10 21:36
Ik wil een NAS systeem maken met ZFS + Sabnzbd/couchpotato/sickbeard. Ik ben geen linux/freebsd kenner, en aangezien er een tutorial geschreven is hoe ik die software op ZFSguru kan installeren leek ZFSguru mij een goede kandidaat.

Maar nu staat er in de startpost dat ZFSguru al een tijd niet meer ontwikkeld wordt, en daarom afgeraden wordt om te gebruiken.

Is die informatie nog up-to-date, en in hoeverre moet ik daar rekening mee houden?

Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
iRReeL schreef op maandag 12 december 2011 @ 17:01:
Het begint eigenlijk al met de installatie, de OpenIndiana installatie was voor mij makkelijker (ik heb alleen windows ervaring, dus wil graag een desktop :X ), ik krijg meteen een desktop bij de OI installatie en bij FreeBSD een prompt. Dus ik moet nu nog ff verder lezen hoe ik een desktop krijg bij FreeBSD (of misschien moet ik PC-BSD gebruiken?)
Als je desktop wilt dan inderdaad gaan voor PC-BSD. PC-BSD is eigenlijk een voorgeconfigureerde FreeBSD, aangepast voor desktop gebruik. Het 'onderliggende' FreeBSD systeem is verder gewoon intact gehouden. FreeBSD zelf is een rasecht server OS en komt dus zonder GUI.

Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 09:15
ImmortalSoul schreef op maandag 12 december 2011 @ 18:41:
Maar nu staat er in de startpost dat ZFSguru al een tijd niet meer ontwikkeld wordt, en daarom afgeraden wordt om te gebruiken.
De ontwikkeling heeft inderdaad een tijdje stil gelegen, maar is nu weer volledig opgepakt.
CiPHER helpt nu ook bij de ontwikkeling. Ik draai ZFSguru al sinds het begin en kan het je zeker aanraden als je gebruik wil maken van ZFS.

Acties:
  • 0 Henk 'm!
De startpost moet inderdaad nog even aangepast worden. Jason is weer terug :) (ZFSguru Developer)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Done. :)

Trouwens zou de volgende ZFSguru versie binnenkort moeten uitkomen. De partition map editor is vrijwel klaar op wat kleine dingetjes na. Jason heeft andere dingen ontwikkeld zoals memory disks (leuk voor debuggen of performance testing), cache (L2ARC) en log disks toevoegen aan pools. Ook de AjaxPlorer file editor zou moeten werken, al heb ik dat zelf nog niet gezien. Jason werkt nog aan de vdev operations, zoals het vervangen van een gefaalde disk.

Wanneer de nieuwe versie uitkomt weet ik niet precies, maar Jason denkt wel binnenkort. Maar dat zei hij een week of wat geleden ook. :+

Met een beetje geluk komt FreeBSD 9.0 final eind deze maand uit, en kan ZFSguru met 0.2 final een mooie nieuwe mijlpaal neerzetten. :)

Acties:
  • 0 Henk 'm!
Klinkt goed! Ik ben beniewd :)

Even niets...


Acties:
  • 0 Henk 'm!
Mijn server doet het weer (adapter van de picopsu was kapot) en draait nu helemaal op zfsguru/freebsd. Mooi moment om weer te starten met uitzoeken waar de problemen van mijn doorvoer snelheden liggen. Deze is met zfsguru nog steeds niet op het gewenste niveau.

Sinds de 2 dagen regel reageer ik hier niet meer


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
(10x1.5TB Samung F2) 10GB RAM, IBM M1015 (IT), X8SIL-F ,X3430

Nieuwe installaties zonder verder iets te configureren of tweaken. Zpool (v28,raidz2) eerder met Napp-it gemaakt.

ZFSguru 0.1.9 (livecd) pool benchmark
Pool : Archive15 (13.6T, 0% full)
Test size : 32 GiB
Data source : /dev/zero
Read throughput : 271.5 MB/s = 258.9 MiB/s
Write throughput: 90.6 MB/s = 86.4 MiB/s

OI 151a + Napp-it (Bonnie++)
Test size : 20GB
Seq-Read : 790 MB/s
Seq-Write : 497 MB/s

Beetje krap het schrijven met FreeBSD, ik hoop dat het beter kan, wil toch zeker de Gbit verbinding benutten. Toch denk ik dat FreeBSD een betere keus is dan OI.
Nu bezig met de PC-BSD 9 installatie en heb al meteen boot problemen :D No /boot/loader (dat terwijl FreeBSD tenminste wel werkte maar dacht dat PC-BSD makkelijker zou zijn).. Ik ga maar 's verder lezen :)
ZFSguru achteraf installeren ziet er ook niet zo makkelijk uit als bij Napp-it helaas.

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Ik heb even gezocht maar geen antwoord gevonden; kan ik ZFSGuru vanaf een USB stick installeren? Ik heb geen DVD-ROM in mijn test-machine. Bovendien heb ik enkel SATA-poorten en ik heb geen zin om mijn SATA-DVD speler uit mijn dekstop te schroeven...
Pagina: 1 ... 18 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.