• Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Afwachten of CiPHER het stokje over wilt nemen, ziet er naar uit dat Jason de bekende pijp aan maarten geeft.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Verwijderd

Topicstarter
Hee, dit is eigenlijk wel heel erg vet nieuws! Zo gelijk even reageren. :)
ziet er naar uit dat Jason de bekende pijp aan maarten geeft.
Mja, dat is maar de vraag. Ik ben in elk geval blij dat hij terug is, en aangeeft voorlopig rustig aan te doen. Ik heb liever dat Jason gewoon aanwezig is en laat weten wat hij wel en niet kan doen, dan dat er onduidelijkheid is.

Bovendien kan ik nu weer gewoon verder met mijn system image, compile server doet het ook weer. *O*

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 21:15
Verwijderd schreef op vrijdag 13 juli 2012 @ 17:56:
Ik heb liever dat Jason gewoon aanwezig is en laat weten wat hij wel en niet kan doen, dan dat er onduidelijkheid is.
Dit is denk ik zelf belangrijker dan het echte werk aan ZFSguru. Mensen moet er nog wel vertrouwen in hebben dat het project nog "in leven" is.

Enige indicatie wanneer deze nieuwe build klaar is Cipher?

[ Voor 7% gewijzigd door EnerQi op 13-07-2012 18:59 ]


Verwijderd

Topicstarter
Ik ga er zo mee verder. 8)

Opzich was ik al heel ver, alleen loop ik nog wel tegen wat dingen aan. Laat ik zeggen een week, maar dat kan ook minder zijn als het mee zit. In elk geval kan ik hem gewoon op de server gooien, enige wat Jason nog moet/kan doen is me toegang geven tot de masterserver, dan kan ik eigenlijk alles zelf. :P

Krijg er wel weer zin in nu eigenlijk. :)

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Goed om te horen dat zfsguru weer wat leven krijgt :) Als mijn hardware binnen is zal ik het downloaden en testen! :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Dit is zeer zeker goed nieuws! Ik ben al een tijdje mijn uitbreiding van raid-z naar raid-z2 voor me aan het uitschuiven, omdat ik dan mijn array opnieuw moet aanmaken en alle data tijdelijk ergens anders moet onderbrengen. Een nieuwe build is wel een mooi moment lijkt me!

Succes CiPHER!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Goed om te horen dat er weer leven in het project komt. Ik weet dat CiPHER op de achtergrond veel werk doet, maar op de site was het akelig stil.

Ik heb dus mijn virtualbox maar eens aangeslingerd en zonder veel problemen 0.2-beta4 via de live-cd op een virtuele disk geinstalleerd. Ik had nog een testpooltje van 3 kleine vmdk's

Een paar dingetjes de me opvielen:
Na installatie, en geboot zonder de cd, heb ik nog steeds de installatie-optie, dat is IMHO niet logisch.
Tijdens de installatie zat ik even te klooien omdat ik wel de bestaande datapool kon (moest ?) importeren, maar niet de lege disk kon gebruiken, wat ik wilde. Die moest ik eerst via het Disk menu formateren, en een pool op aanmaken. (maar niet met de naam root, want daar was in gebruik door de live-cd installatie). 8) Onlogisch om de installatie te verlaten voor het prepareren van de lege disk IMHO. Het zou beter zijn om vanuit de installatie ook lege disks als optie aan te bieden, en daar na een paar warnings :P een GPT-label en root pool op aan te maken.

Verder ziet het er goed uit d:)b

Als ik zo het zfsguru-forum bekijk zijn er wel mensen die willen meewerken aan de ontwikkeling, maar iemand moet dat dan ook kunnen managen, ik hoop dat CiPHER dat ook kan doen.

Verder vraag ik me af waar het meeste werk in zit, zit dat in de onderliggende BSD code ? De PHP ? Of het updaten / packagen van de installatie ? Ook bijhouden van de website is een issue, dat moet ook gebeuren, er is nog een hoop documentatie die niet op orde is, en het is niet echt ingericht voor meerdere developers, vandaar ook dat er iemand moet zijn die e.e.a. kan samenbrengen.

Nog een brainfart: portability. (Native) ZFS op linux is in opkomst, en daar zou ZFSguru een prima GUI voor zijn, en dan is er ook nog open-solaris/-indiana ...
Wellicht trekt het project op die manier meer mensen die willen bijdragen dmv plugins e.d. (Zou voor mij zeker een factor zijn, wellicht eens kijken of ik daar sowieso niet wat tijd in kan steken )

Kortom: Go CiPHER *O*

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
u_nix_we_all schreef op zaterdag 14 juli 2012 @ 15:04:


Nog een brainfart: portability. (Native) ZFS op linux is in opkomst,
is er wat in de licentie veranderd?
Nee, je moet het zelf compilen, want dan is het geen "Derived work from the kernel".
Voor de rest mag het gewoon.

Even niets...


Verwijderd

Topicstarter
u_nix_we_all schreef op zaterdag 14 juli 2012 @ 15:04:
Goed om te horen dat er weer leven in het project komt. Ik weet dat CiPHER op de achtergrond veel werk doet, maar op de site was het akelig stil.
Meeste werk wat ik heb gedaan is in de build scripts. Daar zien 'jullie' gebruikers weinig van, maar dat is toch echt de basis van dit project; het goed kunnen bakken van system images is denk ik even belangrijk als de web-interface zelf, wat nu eigenlijk een steeds kleiner onderdeel wordt van het totale project.

Ik de toekomst hoop ik juist ook meer aan de web-interface te werken, dat lijkt me ook erg leuk. Ik heb al wat dingen gemaakt, zoals de simple disk benchmark enzo. Erg leuk om te doen was dat. :)
Ik heb dus mijn virtualbox maar eens aangeslingerd en zonder veel problemen 0.2-beta4 via de live-cd op een virtuele disk geinstalleerd.
Je kunt beta4 updaten naar beta5. Bij voorkeur doe je dit voor de installatie, ik weet niet meer precies maar daar zaten wat verbeteringen in.
Een paar dingetjes de me opvielen:
Na installatie, en geboot zonder de cd, heb ik nog steeds de installatie-optie, dat is IMHO niet logisch.
Vanaf elke 'bron' (dus LiveCD, Root-on-ZFS of embedded installatie) kun je opnieuw installeren. Je kunt dus bij je Root-on-ZFS installatie een USB-stickje maken met embedded distributie, althans wanneer deze functionaliteit wordt afgebouwd; nu werkt alleen Root-on-ZFS nog.

Dus waarom is die installatiemogelijkheid er nog als je al Root-on-ZFS draait? Simpel: upgraden! Je kunt met een nieuwe system image zo een nieuwe installatie doen. Dit kun je doen op een draaiende Root-on-ZFS op dezelfde pool! Enige voorwaarde is dat je een andere system image installeert dan degene die nu actief is; ze mogen elkaar namelijk niet overschrijven. Na het rebooten boot je in de nieuwe actieve boot filesystem.

In de 0.2 final release van de web-interface zal een optie zitten waarmee je kunt switchen. Zo kun je bijvoorbeeld upgraden van 9.0-004 naar 9.1-002 die binnenkort uitkomt, terwijl alles van de 9.0-004 installatie gewoon blijft bestaan. Als je in de nieuwe 9.1-002 installatie iets mist, kun je simpelweg aanvinken dat je volgende keer van de 9.0-004 wilt booten en dat kan dan ook. Zo ben je heel flexibel qua OS schijf betreft; een duidelijk voordeel van ZFSguru want je hebt hier eigenlijk alle vrijheid in. Je kunt je OS op dezelfde pool als je data installeren, meerdere OSen zelfs. Maar slechts één OS kan als 'actief' worden aangemerkt, dat is het OS wat geboot zal worden bij de volgende reboot.

Conclusie: de installatie-feature biljft beschikbaar voor upgrade-installaties en in de toekomst embedded USB installaties.
Tijdens de installatie zat ik even te klooien omdat ik wel de bestaande datapool kon (moest ?) importeren, maar niet de lege disk kon gebruiken, wat ik wilde. Die moest ik eerst via het Disk menu formateren, en een pool op aanmaken. 8) Onlogisch om de installatie te verlaten voor het prepareren van de lege disk IMHO. Het zou beter zijn om vanuit de installatie ook lege disks als optie aan te bieden
ZFSguru werkt altijd met geformatteerde disks. Een disk moet een 'naam' hebben die door de gebruiker gekozen is, alleen dan wil ZFSguru hem gebruiken. Dit is uiteraard gedaan om gebruikersfouten te minimaliseren. Want een schijf als 'samsung500gb' is makkelijker te onderscheiden van andere disks dan een cryptische naam als '/dev/ada0p2' waarbij je gemakkelijk fouten kunt maken. ZFSguru werkt dus met geformatteerde partities die een naam hebben.

Maar wat je zegt klopt niet helemaal, want als je de Welcome Wizard doorloopt, werkt het zoals jij wilt:
- selecteer whole disks voor een nieuwe pool
- maak de nieuwe pool aan, disks worden automatisch geformatteerd en de pool wordt aangemaakt
- nu ben je klaar met de welcome wizard en wordt je naar de installatie doorverwezen; daar kun je nu gelijk mee aan de slag.

In jouw geval heb je denk ik de welcome wizard geskipped. Dan moet je het inderdaad wel handmatig doen:
1. Formatteer de disks met GPT (Disks->Formatting)
2. Maak een pool aan (Pools->Create)
3. Installeer ZFSguru op de pool (System->Install)
(maar niet met de naam root, want daar was in gebruik door de live-cd installatie).
Je pool naam mag geen gereserveerde namen bevatten. Dat zijn in elk geval de termen 'raidz', 'raidz2', 'mirror' enzo, maar ook alle hoofddirectories zoals 'usr', 'var', 'mnt', 'root'. Dit geldt eigenlijk overal en niet specifiek voor ZFSguru. De web-interface zou nog wel een blacklist moeten hebben zodat de gebruiker hierop wordt geattendeerd als hij een gereserveerde naam kiest.
Als ik zo het zfsguru-forum bekijk zijn er wel mensen die willen meewerken aan de ontwikkeling, maar iemand moet dat dan ook kunnen managen, ik hoop dat CiPHER dat ook kan doen.
Poeh dat is nog maar de vraag. En meehelpen met ontwikkelen is ook maar relatief. Voor kleine wijzigingen enzo valt dat prima te doen, maar ZFSguru is iets wat je eerst vooral moet snappen hoe het in elkaar zit. Niet dat het overdreven ingewikkeld is, alleen afwijkend van andere dingen die ik ken.

En daar zit hem de grootste reden denk ik: Jason heeft mij gekozen niet alleen omdat ik beetje kan coden, maar ook omdat we qua filosofie en ideeën aardig aansluiting konden vinden. Zijn hele opzet hoe pagina's worden opgebouwd is gewoon briljant. De uitbreidbaarheid en flexibiliteit is echter nog niet altijd zichtbaar. Maar bijvoorbeeld vertalingen en verschillende grafische themes zijn in feite allemaal al aanwezig in de code.
Verder vraag ik me af waar het meeste werk in zit, zit dat in de onderliggende BSD code ? De PHP ? Of het updaten / packagen van de installatie ?
Vaak zijn de 'saaie' dingen waar het meeste werk in zit. Bijvoorbeeld nu die build scripts. Maar wel belangrijk. Als het eenmaal goed werkt heb je daar alleen maar plezier van.

Maar het echte antwoord is denk ik vooral: bekend worden met de structuur en filosofie van ZFSguru. Ik heb nog niet zo heel veel gecode, maar ik heb wel een aardig idee hoe ZFSguru in elkaar zit. En dat is zeker zo belangrijk!
Nog een brainfart: portability. (Native) ZFS op linux is in opkomst, en daar zou ZFSguru een prima GUI voor zijn, en dan is er ook nog open-solaris/-indiana ...
Maar waarom zou je Linux willen? Als je dat wilt, kun je met kFreeBSD ook goed verder. Dan heb je in feite Ubuntu met FreeBSD kernel ipv Linux, en dus ook FreeBSD-level ZFS kernel support.

Maar ZFSguru werkt niet op Linux of Solaris hoor, althans daar zitten veel haken en ogen aan. Het hele idee van booten van RAID-Z is ook een BSD-specifieke feature. Veel zaken in ZFSguru zouden niet meer werken als het naar een ander platform zou worden geport. Bovendien, FreeBSD is de meest stabiele basis voor ZFS. Elk ander project heeft nadelen: OpenSolaris/Indiana is nu nog prima te doen, maar een heel OS onderhouden alleen voor ZFS support lijkt mij kansloos; het is teveel werk alleen voor een ZFS OS. FreeBSD is een heel OS waarbij ZFS een belangrijke extra feature is. Ook zonder ZFS groeit FreeBSD verder, wat het gewoon de meest stabiele keuze maakt van dit moment en wellicht zelfs ooit voor ZFS. Linux heeft het nadeel dat de gebruiker het moet compileren en installeren anders mag het niet kernel-level zijn. Dat gaat het dus ook niet worden; je wilt niet zelf prutsen met kernel componenten dat hoort gewoon keurig en deftig te werken. Kortom, eigenlijk zit je bij FreeBSD wel heel goed. Je hebt de meeste features, meer dan Solaris/Sun ooit hebben gehad. De geheugenallocatie van Solaris is wel beter, maar in FreeBSD 9.x worden daar ook steeds verbeteringen aangebracht dus nu niet meer zo'n belangrijk voordeel van Solaris. Kortom: FreeBSD is zeker op lange termijn denk ik wel het beste OS voor ZFS.
Wellicht trekt het project op die manier meer mensen die willen bijdragen dmv plugins e.d. (Zou voor mij zeker een factor zijn, wellicht eens kijken of ik daar sowieso niet wat tijd in kan steken )
Nouja het leuke is dat gebruikers wel aan services kunnen werken; daarvoor hoef je niet zoveel van ZFSguru te kennen. Paar files aanmaken en beetje mee klooien tot het werkt, en dan releasen. Doe ik nu ook met bijvoorbeeld Gnome service. Best leuk en goed te doen om hiermee te stoeien. :)
Kortom: Go CiPHER *O*
Gaan we doen! oOo

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Wow, dank je voor die uitgebreide reactie !
Verwijderd schreef op zaterdag 14 juli 2012 @ 16:50:
[...]
Conclusie: de installatie-feature biljft beschikbaar voor upgrade-installaties en in de toekomst embedded USB installaties.
Ok, duidelijk. Dat is dan wel handig ja :P
ZFSguru werkt altijd met geformatteerde disks. Een disk moet een 'naam' hebben die door de gebruiker gekozen is, alleen dan wil ZFSguru hem gebruiken. Dit is uiteraard gedaan om gebruikersfouten te minimaliseren.
Ah, ja, mijn disk had natuurlijk geen naam
Maar wat je zegt klopt niet helemaal, want als je de Welcome Wizard doorloopt, werkt het zoals jij wilt:
- selecteer whole disks voor een nieuwe pool
- maak de nieuwe pool aan, disks worden automatisch geformatteerd en de pool wordt aangemaakt
- nu ben je klaar met de welcome wizard en wordt je naar de installatie doorverwezen; daar kun je nu gelijk mee aan de slag.

In jouw geval heb je denk ik de welcome wizard geskipped. Dan moet je het inderdaad wel handmatig doen:
1. Formatteer de disks met GPT (Disks->Formatting)
2. Maak een pool aan (Pools->Create)
3. Installeer ZFSguru op de pool (System->Install)
Ik heb wel de welcome wizard gebruikt, maar misschien heb ik iets gemist. Misschien had ik niet eerst die datapool moeten importeren, waar overigens ook een paar identieke disklabels inzaten ...
Je pool naam mag geen gereserveerde namen bevatten.
Snap ik, maar het ligt zo voor de hand om hem "root" te noemen. Wellicht is er een mogelijkheid om de installatie vanaf een rootpool met een andere naam te doen ofzo, maar ik kan me voorstellen dat daar weer extra werk in gaat zitten
[......] Zijn hele opzet hoe pagina's worden opgebouwd is gewoon briljant. De uitbreidbaarheid en flexibiliteit is echter nog niet altijd zichtbaar. Maar bijvoorbeeld vertalingen en verschillende grafische themes zijn in feite allemaal al aanwezig in de code.
Dat was me ook al wel opgevallen, me likes :)
..... FreeBSD is zeker op lange termijn denk ik wel het beste OS voor ZFS.
OK, ik begrijp dat jouw focus ligt op ZFSguru als distro, en dat zou ik ook meer moeten doen, en dus niet denken aan ZFSguru als GUI op een FreeBSD+ZFS systeem.

Ik dacht bij portability aan het gebruiken van de ZFSguru GUI PHP en scripts bovenop bijv. een openindiana-systeem met apache en PHP.

En dan beginnen met strippen van features die je daar niet hebt ;) en herschrijven van scripts en PHP, daar waar de interface anders met het systeem communiceert.

Maar goed, misschien moet ik me eerst eens meer verdiepen in de structuur voordat ik mogelijk onzin begin uit te kramen :P

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Verwijderd

Topicstarter
Het punt is dat alle 'web-GUI' zoals FreeNAS, OpenMediaVault, napp-it, ZFSguru en vast nog meer, gewoon OS-specifiek zijn. Daar kun je bijna niet om heen. De detectie van disks, het formatteren, commando's, een heleboel verschillen.

Als je een universele GUI wilt zoals ik denk dat jij bedoelt, dan gaat de complexiteit flink toenemen, de kans op bugs dus ook. Ook zul je op elk van de OS-platforms specifieke beperkingen of juist unieke features hebben.

Mijn gevoel hierbij is dat je maar beter ergens op kunt focussen en doet goed doet, zoals OMV voor Linux, FreeNAS/ZFSguru voor BSD en napp-it voor Solaris. Dat werkt gewoon beter dan alles proberen maar dan waarschijnlijk gewoon falen. Ieder OS heeft zijn eigen unieke sterke punten, het is gewoon erg moeilijk zoiets te verenigen in een universele GUI. Ik zie daar niet zoveel heil in, in elk geval. :P

Oh en over die beschermde namen. Stel je noemt je pool 'root', dan zal die bij de startup je echte /root directory onzichtbaar maken, omdat de pool filesystem 'root' wordt gemount op /root. Je mount dan dus twee keer iets, en dat betekent dat in feite alleen de laatste mount zichtbaar is. Na een unmount van /root wordt de originele root directory dan weer zichtbaar. Dit kan voor grote problemen zorgen en wordt streng afgeraden. In een volgende release zou ZFSguru web-gui daar ook streng op moeten controleren, wat nu nog niet altijd het geval is.

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 21:15
Bugs zou je ter alle tijden moeten voorkomen door complexiteit, geen bugs is natuurlijk een utopia.
Een storage systeem zou zo stabiel mogelijk moeten draaien ;).
Nouja het leuke is dat gebruikers wel aan services kunnen werken; daarvoor hoef je niet zoveel van ZFSguru te kennen. Paar files aanmaken en beetje mee klooien tot het werkt, en dan releasen. Doe ik nu ook met bijvoorbeeld Gnome service. Best leuk en goed te doen om hiermee te stoeien.
Ik zal er wel te weinig kaas van gegeten hebben, maar zo simpel als je het hier uitlegt zal het wel niet zijn :P

In iedergeval succes!

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Ik heb last van een tikkende HD al een paar weken. Ik heb nog garantie.
Is er er een manier om erachter te komen welk van de 5 stuk is?


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
$ zpool status tank
  pool: tank
 state: DEGRADED
status: One or more devices could not be opened.  Sufficient replicas exist for
    the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
   see: http://www.sun.com/msg/ZFS-8000-2Q
 scan: resilvered 3.27G in 1h59m with 0 errors on Sun Jul 15 13:30:17 2012
config:

    NAME                      STATE     READ WRITE CKSUM
    tank                      DEGRADED     0     0     0
      raidz1-0                DEGRADED     0     0     0
        gpt/disk1             ONLINE       0     0     0
        gpt/disk2             ONLINE       0     0     0
        11818327094681281343  UNAVAIL      0     0     0  was /dev/gpt/disk3
        gpt/disk4             ONLINE       0     0     0
        gpt/disk5             ONLINE       0     0     0


zpool online werkt ook niet en gezien de tik geluiden zal de hd wel kapot zijn.

code:
1
2
3
[root@zfsguru /]# zpool online tank gpt/disk3
warning: device 'gpt/disk3' onlined, but remains in faulted state
use 'zpool replace' to replace devices that are no longer present

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Guru's

Ik heb een bonnie++ test gedaan op mijn 3x 1TB mirror zijn dit "normale" waardes..? Bedoeling is om 'm te gebruiken als VM Datastore...(geen peakperformance benodigd)

Afbeeldingslocatie: http://i.imgur.com/6TwM9.png

[ Voor 6% gewijzigd door NIK0 op 15-07-2012 19:37 ]

Member of the Ukraine IT Army


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Phasis schreef op zondag 15 juli 2012 @ 19:34:
Ik heb last van een tikkende HD al een paar weken. Ik heb nog garantie.
Is er er een manier om erachter te komen welk van de 5 stuk is?
code:
1
2
3
[root@zfsguru /]# zpool online tank gpt/disk3
warning: device 'gpt/disk3' onlined, but remains in faulted state
use 'zpool replace' to replace devices that are no longer present
Als je naar 'disks' -> 'advanced' gaat dan zie je daar de vijf schijven. Klik je op één van de schijven dan zie je iets daaronder 'Serial Number' verschijnen. Dat serienummer staat op de harde schijven en zo kun je kijken welke schijf ontbreekt.

[ Voor 41% gewijzigd door Dadona op 15-07-2012 19:46 ]

De CSL/OT kroeg !


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Daar had ik al gekeken. Alleen krijg ik geen info.

code:
1
2
3
Information about disk da1

It appears that either the controller or the queried disk does not properly support detailed disk information via the camcontrol identify command.


De disk ontbreekt daar er staan er 5, dat moeten er 6 zijn omdat ook mn vmdk ertussen staat waarop ik root-on-zfs heb.

Physical disks
code:
1
2
3
4
5
6
Disk    Label   Size (legacy)   Size (binary)   Sector  Identified as
da0 GPT: zfsguru    2.1 GB  2 GiB   512 B   <VMware Virtual disk 1.0> Fixed Direct Access SCSI-2 device
da1 GPT: disk5  2 TB    1.8 TiB 512 B   <ATA SAMSUNG HD204UI 0003> Fixed Direct Access SCSI-5 device
da2 GPT: disk4  2 TB    1.8 TiB 512 B   <ATA SAMSUNG HD204UI 0003> Fixed Direct Access SCSI-5 device
da3 GPT: disk2  2 TB    1.8 TiB 512 B   <ATA SAMSUNG HD204UI 0003> Fixed Direct Access SCSI-5 device
da4 GPT: disk1  2 TB    1.8 TiB 512 B   <ATA SAMSUNG HD204UI 0003> Fixed Direct Access SCSI-5 device


De SAMSUNG HD204UI hangen aan een Intel RAID Controller SASUC8I. Deze is niet IT flashed.

[ Voor 4% gewijzigd door Phasis op 15-07-2012 20:18 ]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Maar je kunt de andere discs wel uitlezen? Ik stel namelijk het proces van eliminatie voor. Kopieer de serienummers die je wel kunt achterhalen en ga vervolgens fysiek de schijven inspecteren. Net zolang tot je er één aantreft die een nummer heeft die niet in je lijstje staat. :)
(En sowieso...ga die controller eens voorzien van IT firmware. ;) )

[ Voor 10% gewijzigd door Dadona op 15-07-2012 20:39 ]

De CSL/OT kroeg !


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Dadona schreef op zondag 15 juli 2012 @ 20:38:
Maar je kunt de andere discs wel uitlezen? Ik stel namelijk het proces van eliminatie voor. Kopieer de serienummers die je wel kunt achterhalen en ga vervolgens fysiek de schijven inspecteren. Net zolang tot je er één aantreft die een nummer heeft die niet in je lijstje staat. :)
(En sowieso...ga die controller eens voorzien van IT firmware. ;) )
Alle 5 de disks geven aan:

It appears that either the controller or the queried disk does not properly support detailed disk information via the camcontrol identify command.

Verwijderd

Topicstarter
Phasis schreef op zondag 15 juli 2012 @ 19:34:
Ik heb last van een tikkende HD al een paar weken. Ik heb nog garantie.
Is er er een manier om erachter te komen welk van de 5 stuk is?
Zet je server uit, disconnect de disk die je het meest verdenkt. En boot. Je komt vanzelf achter welke disk het is. Als je root-on-ZFS boot van de pool kun je niet booten van een double-degraded pool. Dus dan een andere disk proberen. Dit is gewoon veilig om te doen.

Dat je geen status kunt opvragen via de Advanced page komt omdat de LSI SAS1068E en SAS2008 chips dat kennelijk niet ondersteunen, of althans via de FreeBSD drivers. Ik weet niet precies waar het probleem zit. Ik heb ooit gelezen dat die controller conversie van ATA commando's in SCSI commando's doet, maar of daar simpelweg op STP (SATA Tunneling Protocol) wordt gedoeld is onduidelijk. In elk geval werkt het bij mij ook niet, dus dat is niets nieuws.

De Advanced page werkt wel op je chipset SATA, dat zijn dan ook je beste poorten. Voor zaken als APM kun je je schijven tijdelijk op de chipset aansluiten, dan APM inschakelen via de Disks->Advanced pagina en dan weer de schijven op je LSI controller zetten. Omslachtig ja, maar zo doe ik het. :P

Oh en flash je controller naar IT-mode. Zo gebeurd. :)
NIK0 schreef op zondag 15 juli 2012 @ 19:34:
Ik heb een bonnie++ test gedaan op mijn 3x 1TB mirror zijn dit "normale" waardes..? Bedoeling is om 'm te gebruiken als VM Datastore...(geen peakperformance benodigd)
Je sequential I/O zit over de 450MB/s, maar je hebt dan ook een te kleine test size gekozen. Je random seeks zitten op 49/sec wat 5400rpm-class random reads zijn. Je kunt dat verbeteren door L2ARC toe te voegen of te zorgen dat je server lang genoeg aan staat en voldoende RAM heeft om alle actieve data te cachen, dat kan ook.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
CiPHER thx voor je reactie.
Nice dat je op de hoogte bent van dat de status niet op te vragen is met een LSI SAS1068E. Hopelijk veranderd dit in de toekomst.
Ik zal van de week ff de controller flashen naar IT. Alleen nog even uitzoeken hoe ik dat doe met deze controller.
Verwijderd schreef op zondag 15 juli 2012 @ 21:15:
[...]

Zet je server uit, disconnect de disk die je het meest verdenkt. En boot. Je komt vanzelf achter welke disk het is. Als je root-on-ZFS boot van de pool kun je niet booten van een double-degraded pool. Dus dan een andere disk proberen. Dit is gewoon veilig om te doen.
Dit stukje snap ik niet helemaal.
Ik heb namelijk de 5 SAMSUNG discs op de SAS1068E controller deze staat passtroughed naar me zfsguru VM. En een OCZ Vertex SSD aan me chipset SATA hier staan me VM's op.
Verwijderd schreef op zondag 15 juli 2012 @ 21:15:
De Advanced page werkt wel op je chipset SATA, dat zijn dan ook je beste poorten. Voor zaken als APM kun je je schijven tijdelijk op de chipset aansluiten, dan APM inschakelen via de Disks->Advanced pagina en dan weer de schijven op je LSI controller zetten. Omslachtig ja, maar zo doe ik het.
[...]
Dit lijkt me idd de beste optie. Ik zal even kijken of het lukt de passtrough te switchen.

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Verwijderd schreef op zondag 15 juli 2012 @ 21:15:
[...]
Je sequential I/O zit over de 450MB/s, maar je hebt dan ook een te kleine test size gekozen. Je random seeks zitten op 49/sec wat 5400rpm-class random reads zijn. Je kunt dat verbeteren door L2ARC toe te voegen of te zorgen dat je server lang genoeg aan staat en voldoende RAM heeft om alle actieve data te cachen, dat kan ook.
@CiPHER
Thanks CiPHER, Ik heb als test size 16GB gekozen dacht ik moet dat groter...? (VM heeft 8 GB RAM toegewezen)..hmm het zijn (wat oudere) Samsung HD103SJ 7200rpm diskjes..

Ik ben wel van plan om later nog een L2ARC toe te voegen, Ik heb 2 volumes en wil elke volume een stukje geven van 8GB (of meer..?) van een ssd die ik nog heb liggen.

Kan ik later nog bonnie++ testen doen als er 1maal data op de disken staan of moet alles leeg zijn..?

@Phasis
Als je het tooltje dskinfo download hier dan kun je met het commando ./dskinfo list-full een overzicht krijgen van je disken incl serienummers degene waarvan het serienummer ontbreekt is je missing disk...misschien kun je daar iets mee..?

[ Voor 4% gewijzigd door NIK0 op 16-07-2012 09:08 ]

Member of the Ukraine IT Army


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op donderdag 12 juli 2012 @ 22:02:
Dat is een bekende bug. Als je dat wilt moet je msi en msi_x uitschakelen, dan werkt het wel. Ik had ergens een post hoe dat moet, kan hem nu niet zo snel vinden. Maar even kort: de livecd boot je met Escape to Loader Prompt. Bij die prompt type je dan:
set hw.pci.enable_msix=0
set hw.pci.enable_msi=0
boot

Als het dan werkt, is het gewoon de combinatie ESXi + VT-d + LSI. Zelfde probleem met de LSI 1068E voor zover ik weet. Probleem komt bij Virtualbox en andere VM oplossingen niet voor.
Update-tje.

Gisteravond even wat geprutst en inderdaad, met de twee opties gezet wil de LSI2008 wel doorgegeven worden zonder een 'eeuwig durende' wacht lus te veroorzaken. De acht disks die aan de HBA hangen werden netjes gezien. Jammer genoeg hangen de andere twee disks van de pool aan de on-board SATA controller en als ik deze doorgeef dan mekkert ESXi dat hij geen datastore meer heeft (terwijl hij wel vrolijk van de SSD is opgestart) en zijn m'n vm's foetsie.

Twee opties om t op te lossen:
- Een tweede M1015 in de bak steken en doorsluisen naar de ZFSguru vm (een 4 kanaals variant zoals de LSI SAS 9211-4i is grappig genoeg duurder dan een M1015 ). De M1015 werkt in een PCIe x4 slot ([H] forum linkje), je beperkt de max. doorvoer dan wel (aangezien ik slechts 4 van de 8 SATA aansluitingen zal gebruiken weet ik niet of dit zo'n ramp zal zijn, t tweede PCIe 8x slot is gereserveerd voor de 10 Gbit infiniband adapter)
- RDM en dan hopen dat de aanwezige data behouden blijft (volgens: local SATA disk as RDM device).

Sorry voor de overdaad aan ESXi, mocht t ongepast zijn dan mik hem naar richting de alg. ESXi thread

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Bekend probleem, als je ESXi alleen maar wil booten van de SSD, kan je ook van een USB stick opstarten.
Je kan dan nog steeds niet de SSD met de VM's doorgeven aan ZFS uiteraard, dan sloop je een hoop.

Je zult ofwel een 2e controller moeten hebben of een 2e SSD. Ik heb toen ik nog ESX draaide een 40GB intel 320 SSD'tje tweedehands gekocht waar al mijn VM's op stonden, kostte toen 40 euro ofzo.

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op maandag 16 juli 2012 @ 10:36:
Bekend probleem, als je ESXi alleen maar wil booten van de SSD, kan je ook van een USB stick opstarten.
Je kan dan nog steeds niet de SSD met de VM's doorgeven aan ZFS uiteraard, dan sloop je een hoop.

Je zult ofwel een 2e controller moeten hebben of een 2e SSD. Ik heb toen ik nog ESX draaide een 40GB intel 320 SSD'tje tweedehands gekocht waar al mijn VM's op stonden, kostte toen 40 euro ofzo.
Thanks, is wellicht een optie. Ik heb ESXi en de vm's op een en dezelfde SSD staan (80 GB Intel X25M), werkt wel lekker moet ik zeggen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Ja, dat werkt zeker snel :) Ik heb nu een poosje mijn Samsung 830 onder ESXi in gebruik, en ik kan je zeggen, dat ding is retesnel :)

Windows Server 2008R2 boot in iets van 8 seconden :)

Even niets...


  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Verwijderd schreef op donderdag 12 juli 2012 @ 16:35:
je draait nu 9.0-RELEASE dus ook de oude mps driver. Ik raad aan dat je update naar 9-STABLE, de 9.1-001 system image kun je proberen, maar die heeft geen/beperkte services.
So far so good. Bedankt!

  • Goudduif
  • Registratie: Juni 2004
  • Niet online
Ik ben me momenteel aardig aan het inlezen om een eigen ZFS Nas te creeren.

Deze wilde ik in een ESXi server plaatsen, nu is echtermijn vraag het volgende
Welk os is nu het meest voor de hand liggend?
Nas4Free
Nexenta
OpenIndiana
Of ZFSguru

Mij lijkt Nexenta wel een van de meest voor de hand liggende, zeker om mee te beginnen. Maar deze ondersteund echter geen SMART. Nu heb ik als test Nas4Free geinstalleerd, en SMART ingeschakeld, ik krijg echter niet een melding in mijn smart log te zien. En dat terwijl ik waarschijnlijk wel een probleem met een van de harde schijven hebt.
Wie kan mij goede raad geven?

Verwijderd

Topicstarter
smartmontools gebruiken. Gemakkelijkste optie wellicht:

Boot de LiveCD van ZFSguru en kijk bij Disks->Smart, klik op de knop en je ziet direct of je problemen hebt met je disks ja of nee. Actieve bad sectors bijvoorbeeld, of kabelproblemen. Klik op een disk voor meer info.

Je kunt de welcome wizard skippen in het begin, als je toch alleen de SMART wilt checken en verder niets met je schijven wilt doen.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Ik heb nu de ZFSguru-0.1.8-livecd er in en daarvan geboot. HD's op me chipset SATA nu kan ik idd netjes de advanced info van de disks op vragen.

Alleen het importeren van de pool lukt nu niet. Ik had APM enabled op me disks. Maar als ik dan search for hidden pools doet gaat dat heel lang duren. Dit heb ik dus weer uitgezet. Search for hidden pools gedaan. Nu ziet hij deze direct. Alleen als ik op execute button klik dan blijft hij weer hangen. Normaal duurt dat 3 sec ofzo.

Edit:
Query all disks for SMART geeft er 1 aan als incapable. Als ik nu bij physical disks kijk of advanced is hij verdwenen.

zfsguru zegt:
ada2:ahcich3:0:0:0: lost device
ada2:ahcich3:0:0:0: removing device entry

Zal nog een x rebooten en kijken of ik advanced te zien krijg

[ Voor 22% gewijzigd door Phasis op 16-07-2012 15:39 ]


Verwijderd

Topicstarter
Als dat de rotte disk is, dan wil je daar toch geen APM op enablen? Probeer eerder de SMART ervan op te vragen, maar eigenlijk moet je die schijf gewoon afkoppelen en RMA sturen. Voordat je hem opstuurt natuurlijk wel controleren dat je array degraded draait, dus dat het inderdaad die ene disk was, anders zou je double degraded draaien. Als je tijdelijk een disk hebt om de array compleet te maken raad ik dit sterk aan. Je kunt wel een scrub draaien om te kijken of je bitfouten hebt op de rest van je disks. Als dat zo is, worden sommige bestanden ontoegankelijk. Maar ZFS zelf blijft intact. De metadata wordt namelijk meerdere keren opgeslagen.

En de 0.1.8 livecd is erg oud; waarom download je niet de nieuwste 0.1.9-beta4 en update je naar beta5? Dat is was 'iedereen' nu draait. Hij is nog niet af, maar opzich geen grote bugs ofzo, beta5 is prima bruikbaar. Heeft ook veel nieuwe Disks->SMART pagina met aanbevelingen enzo.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Verwijderd schreef op maandag 16 juli 2012 @ 15:47:
Als dat de rotte disk is, dan wil je daar toch geen APM op enablen? Probeer eerder de SMART ervan op te vragen, maar eigenlijk moet je die schijf gewoon afkoppelen en RMA sturen. Voordat je hem opstuurt natuurlijk wel controleren dat je array degraded draait, dus dat het inderdaad die ene disk was, anders zou je double degraded draaien. Als je tijdelijk een disk hebt om de array compleet te maken raad ik dit sterk aan. Je kunt wel een scrub draaien om te kijken of je bitfouten hebt op de rest van je disks. Als dat zo is, worden sommige bestanden ontoegankelijk. Maar ZFS zelf blijft intact. De metadata wordt namelijk meerdere keren opgeslagen.

En de 0.1.8 livecd is erg oud; waarom download je niet de nieuwste 0.1.9-beta4 en update je naar beta5? Dat is was 'iedereen' nu draait. Hij is nog niet af, maar opzich geen grote bugs ofzo, beta5 is prima bruikbaar. Heeft ook veel nieuwe Disks->SMART pagina met aanbevelingen enzo.
Smart opvragen van die ada2 disk lukte niet. Nadat ik dat deej kreeg ik:
code:
1
2
ada2:ahcich3:0:0:0: lost device
ada2:ahcich3:0:0:0: removing device entry


Owk, ik draaide nog 0.1.8 omdat deze stable is zegmaar. Maar ik zal dan wel de 0.1.9-beta4 pakken en deze updaten naar beta5.
Alleen even kijken of hij dan wel die pool wil importeren, want van de live-cd lukt dit niet. En anders pak ik me vm gewoon weer.

1 vraagje welke APM setting raad je me aan dan zal ik die voor de overige disks nog even enablen?

Verwijderd

Topicstarter
Zet eerst je PC uit en remove die ene disk, weet je al welke dat is? Als BSD/ZFS hem niet kan zien, kun je ook normaal je pool importeren omdat deze dan degraded is met één missende disk; de disk die problemen geeft.

APM kun je instellen op max performance with spindown of iets in die geest, je ziet het vanzelf staan mits de schijf ook APM ondersteunt. Dit doe je op de Disks->Advanced pagina. Als de disk APM ondersteunt, krijg je de APM instelling te zien. Deze gaat van 0 tot 255, maar dat werkt in de praktijk anders, zo is 127 heel anders dan 128, omdat bij 128 geen spindown wordt toegepast en 127 wel. Als ik me goed herinner. :P

Je ziet het vanzelf wel. Maar disconnect nou eerst die disk die problemen geeft.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Verwijderd schreef op maandag 16 juli 2012 @ 16:03:
Zet eerst je PC uit en remove die ene disk, weet je al welke dat is? Als BSD/ZFS hem niet kan zien, kun je ook normaal je pool importeren omdat deze dan degraded is met één missende disk; de disk die problemen geeft.

APM kun je instellen op max performance with spindown of iets in die geest, je ziet het vanzelf staan mits de schijf ook APM ondersteunt. Dit doe je op de Disks->Advanced pagina. Als de disk APM ondersteunt, krijg je de APM instelling te zien. Deze gaat van 0 tot 255, maar dat werkt in de praktijk anders, zo is 127 heel anders dan 128, omdat bij 128 geen spindown wordt toegepast en 127 wel. Als ik me goed herinner. :P

Je ziet het vanzelf wel. Maar disconnect nou eerst die disk die problemen geeft.
Owk dat zal ik dan ff gaan doen. Ik dacht dat ik eerst die pool weer draaiende moest hebben alvorens de disk te verwijderen.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Owk disc is verwijderd ik hoor geen tikken meer. :)
draai nu zonder esxi even de livecd 0.2-beta4
APM settings die ik kan kiezen:
1, 32, 64, 96, 127, 128, 254

Kan me pool weer importeren en deze staat netjes in DEGRADED.

Verwijderd

Topicstarter
Ja, uit mijn hoofd:
255 = APM uitgeschakeld
254 = maximale performance, geen spindown
128 = maximale stroombesparing, geen spindown
127 = maximale performance mét spindown
1 = maximale stroombesparing mét spindown

Waarschijnlijk kun je dus met waardes tussen de 1 en 127 automatisch downspinnen instellen. Ik raad aan dat je eerst eens met 127 begint en misschien 64 en 96 eens probeert daarna.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Owk thx dit ga ik proberen, bedankt zover.

Nostradamus99: nog bedankt voor de tip!

Edit:
APM laat ik wel uit. Als ik 'spindown' gebruik dan zie ik al dat me film aldoor even freezed. En er beginnen meer schijven tikjes te geven.
Ook als ik 'without spindown' kies hoor ik tikjes.

[ Voor 54% gewijzigd door Phasis op 16-07-2012 17:29 ]


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Goudduif schreef op maandag 16 juli 2012 @ 15:04:
Ik ben me momenteel aardig aan het inlezen om een eigen ZFS Nas te creeren.

Deze wilde ik in een ESXi server plaatsen, nu is echtermijn vraag het volgende
Welk os is nu het meest voor de hand liggend?
Nas4Free
Nexenta
OpenIndiana
Of ZFSguru

Mij lijkt Nexenta wel een van de meest voor de hand liggende, zeker om mee te beginnen. Maar deze ondersteund echter geen SMART. Nu heb ik als test Nas4Free geinstalleerd, en SMART ingeschakeld, ik krijg echter niet een melding in mijn smart log te zien. En dat terwijl ik waarschijnlijk wel een probleem met een van de harde schijven hebt.
Wie kan mij goede raad geven?
Je kunt bij nexenta als root smartmontools installen via apt-get update en apt-get install smartmontools

Member of the Ukraine IT Army


  • Goudduif
  • Registratie: Juni 2004
  • Niet online
NIK0 schreef op maandag 16 juli 2012 @ 19:32:
[...]

Je kunt bij nexenta als root smartmontools installen via apt-get update en apt-get install smartmontools
Nu vraag ik me dus af welk ik het beste kan gaan gebruiken?

ZFSguru, of Nexenta,

En wat zijn de voor en tegens?

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Goudduif schreef op maandag 16 juli 2012 @ 20:36:
[...]


Nu vraag ik me dus af welk ik het beste kan gaan gebruiken?

ZFSguru, of Nexenta,

En wat zijn de voor en tegens?
ZFSguru voor = CiPHER _/-\o_
Ik heb zelf voor Nexenta gekozen omdat er redelijk wat documentatie beschikbaar voor is en het steeds meer gebruikt wordt in de "echte wereld"

Je zou ook nog naar OI icm Napp-IT kunnen kijken..
Ik vermoed dat je nog heeeel wat uurtjes kwijt gaat zijn aan leeswerk 8)

Member of the Ukraine IT Army


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Goudduif schreef op maandag 16 juli 2012 @ 15:04:
Ik ben me momenteel aardig aan het inlezen om een eigen ZFS Nas te creeren.

Deze wilde ik in een ESXi server plaatsen, nu is echtermijn vraag het volgende
Welk os is nu het meest voor de hand liggend?
Nas4Free
Nexenta
OpenIndiana
Of ZFSguru

Mij lijkt Nexenta wel een van de meest voor de hand liggende, zeker om mee te beginnen. Maar deze ondersteund echter geen SMART. Nu heb ik als test Nas4Free geinstalleerd, en SMART ingeschakeld, ik krijg echter niet een melding in mijn smart log te zien. En dat terwijl ik waarschijnlijk wel een probleem met een van de harde schijven hebt.
Wie kan mij goede raad geven?
Napp-it.org heeft een how-to waarin beschreven wordt hoe in ESXi 4 een OpenIndiana NAS voor elkaar te krijgen met Napp-it als beheer oppervlakte.

Zonder al te veel details prijs te geven, maar op dit moment is er mail verkeer gaande tussen diverse personen omtrent de inhoud en de opzet van een tweede deel van het "Zuinige ESXi Server" topic. Het ziet er naar uit dat virtuele NAS/SAN oplossingen ook op de behandel/wenslijst staan.

Zelf ben ik bezig om wat hardware bij elkaar te krabben en een test te doen met ZFSguru in ESXi 5 voordat ik een zfs pool met data vanuit een VM ga aanbieden.

[ Voor 6% gewijzigd door Pantagruel op 17-07-2012 09:21 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • VorCha
  • Registratie: November 2004
  • Laatst online: 05-10 21:36
Ook ik ben me aan het verdiepen in een ESXi omgeving met een NAS als VM.

En in basis, het werkt. Maar er zijn denk ik nog wel wat issues.

Mijn setup die ik tot nu toe heb
-ESXi 4.1 host
-FreeNAS 8 vm met daaraan gekoppeld
-250GB WD met een USB 2.0 interface

De disk is als ZFS volume opgenomen in freenas en bied via NFS dit volume aan aan ESXi

Op een andere virtuele linux host (CentOS 6) heb ik wat schrijf tests (dd if=/dev/zero of=/mnt/freenastest/ddfile bs=2048k count=10000) gedaan naar verschillende media waaronder deze NFS share De volgende gemiddelden ben ik tegen gekomen.

naar fysieke dedicated FreeNAS (6 x 1TB RaidZ2) nfs share - 90Mbps
naar lokaal gemounte usb 2.0 disk (fs=ext4) - 14Mbps
naar FreeNAS vm nfs share - 19Mbps

De test heb ik zo'n 3 x uitgevoerd.
Wat me opvalt is dat FreeNAS gemiddeld 5Mbps sneller presteert dan de linux local disk, dit terwijl de interface allebei usb 2 is. En beide zijn vm's op dezelfde esxi host.

Het concept werkt, dat in ieder geval, de interface van de NAS vm naar z'n disk device is echter wel van belang voor de snelheid. De volgende test die ik wil doen is een disk als rdm koppelen en een disk op een usb 3 aansluiting.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Even een paar vragen. Ik ben bezig met uitzoeken hoe ik de Intel SASUC8I flash naar IT.

Als ik het goed begrijp moet ik de kaart flashen naar: LSI IT Firmware
Volgens de Intel website: LSI* SAS1068E controller
Even -o gebruiken zodat je geen last heb ivm vendor name.

3 Gb/s SAS HBA Instructions

3 Gb/s SAS HBAs allow override you to override the existing image with an alternate firmware type (IR vs. IT). To override the existing firmware, please follow the steps below:
Create a DOS bootable diskette. We recommend bootflashdos, an open source utility, for formatting thumb drives.
Copy the firmware image, BIOS image, and DOS version of sasflash onto the bootable device.
Reboot your machine to boot to DOS. Note that you may need to adjust your motherboard boot list.
Run the flash command: sasflash -o -f <firmware_image> -b <BIOS_image>
When prompted, agree that you wish to flash IT firmware over IR firmware (or vice versa).

Nu alleen de vraag waar vind ik de 3 betreffende files die nodig zijn voor de 1068e based controller.
Deze kan ik niet vinden op de LSI website.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Deze link had ik ook al gevonden en gelezen alleen zie ik nergens een download link. :)

Edit:
http://www.lsi.com/channe.../Pages/LSISAS3081E-R.aspx

[ Voor 13% gewijzigd door Phasis op 17-07-2012 15:09 ]


Verwijderd

Topicstarter
Van de firmware zelf? Die moet je natuurlijk zelf downloaden. Hier vind ik iets:
http://h20000.www2.hp.com...kId=135&swItem=wk-71964-1

Anders even de site van LSI zelf kijken. Ah je hebt het al gevonden:
SAS3081ER_ Package_P21_IR_IT_Firmware_BIOS_for_MSDOS_Windows
en een tip: maak een FreeDOS USB-stick in plaats van met floppies te werken.

[ Voor 21% gewijzigd door Verwijderd op 17-07-2012 15:13 ]


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Als je bij die link kijkt van servethehome Dan zie je zowel 3081ETB3 en 3081ERB3

R = IR
T = IT

:)

[ Voor 5% gewijzigd door Phasis op 17-07-2012 15:52 ]

Fuuu, iemand ervaring met ZFSguru installeren op een VM op ESXi?

Die van mij krijgt geen IP en ik ken er nog niet genoeg van om te troubleshooten...
VMXNET3? Werkt niet op FreeBSD.

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
HyperBart schreef op dinsdag 17 juli 2012 @ 15:48:
Fuuu, iemand ervaring met ZFSguru installeren op een VM op ESXi?

Die van mij krijgt geen IP en ik ken er nog niet genoeg van om te troubleshooten...
Ik draai ZFSguru op een VM in ESXi 5. bij mij geeft dit geen problemen.
Kijk anders even bij je netwerk instellingen van je VM.

[ Voor 7% gewijzigd door Phasis op 17-07-2012 15:56 ]


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
in case you missed it :-)
Je sequential I/O zit over de 450MB/s, maar je hebt dan ook een te kleine test size gekozen. Je random seeks zitten op 49/sec wat 5400rpm-class random reads zijn. Je kunt dat verbeteren door L2ARC toe te voegen of te zorgen dat je server lang genoeg aan staat en voldoende RAM heeft om alle actieve data te cachen, dat kan ook.
@CiPHER
Thanks CiPHER, Ik heb als test size 16GB gekozen dacht ik moet dat groter...? (VM heeft 8 GB RAM toegewezen)..hmm het zijn (wat oudere) Samsung HD103SJ 7200rpm diskjes..

Ik ben wel van plan om later nog een L2ARC toe te voegen, Ik heb 2 volumes en wil elke volume een stukje geven van 8GB (of meer..?) van een ssd die ik nog heb liggen.

Kan ik later nog bonnie++ testen doen als er 1maal data op de disken staan of moet alles leeg zijn..?


ik moet nu nog een 2e volume +zvol gaan aanmaken in nexenta maar ik loop tegen dat 4k probleem aan. het gaat om 2 seagate 2TB disken MD001 dacht ik. nexenta zegt er weinig over hoe je dit nu suported het beste kunt aanvliegen :-(

[ Voor 19% gewijzigd door NIK0 op 17-07-2012 16:03 ]

Member of the Ukraine IT Army

FireDrunk schreef op dinsdag 17 juli 2012 @ 15:53:
VMXNET3? Werkt niet op FreeBSD.
E1000, geen VMXNET3 :(
Phasis schreef op dinsdag 17 juli 2012 @ 15:54:
[...]


Ik draai ZFSguru op een VM in ESXi 5. bij mij geeft dit geen problemen.
Kijk anders even bij je netwerk instellingen van je VM.
Ik boot 'm, maar hij geeft gewoon aan: "Web interface is running at http://0.0.0.0". Heb net tijdens het booten wel een IP zien voorbij komen, maar detectie loopt fout :(

Wel bereikbaar op dat ene IP, maar de detectie loopt niet goed...

[ Voor 5% gewijzigd door HyperBart op 17-07-2012 17:08 ]


Verwijderd

Topicstarter
Als je eerst een andere NIC werkend kunt krijgen, kun je na installatie in de portstree kijken of je de VMware tools werkend kunt krijgen:

cd /usr/ports/emulation/vmware-tools6
make install clean

Je hebt mogelijk wel sourcecode nodig hiervoor. Maar deze zouden volgens wat info wel vmxnet3 ondersteunen, getuige deze post:
The official VMware Tools that ship with vSphere 5 have vmxnet3 modules for all
supported FreeBSD releases, including 8.

The source is not yet included in open-vm-tools.
Andere posts zeggen dat deze niet meer werken in FreeBSD9, maar daar zou wel een oplossing voor zijn: http://ogris.de/vmware. Dus volgens mij kan het wel, vmxnet3 + ZFSguru. :)

[ Voor 130% gewijzigd door Verwijderd op 17-07-2012 17:17 ]

Verwijderd schreef op dinsdag 17 juli 2012 @ 17:08:
Als je eerst een andere NIC werkend kunt krijgen, kun je na installatie in de portstree kijken of je de VMware tools werkend kunt krijgen:

cd /usr/ports/emulation/vmware-tools6
make install clean

Je hebt mogelijk wel sourcecode nodig hiervoor. Maar deze zouden volgens wat info wel vmxnet3 ondersteunen, getuige deze post:

[...]


Andere posts zeggen dat deze niet meer werken in FreeBSD9, maar daar zou wel een oplossing voor zijn: http://ogris.de/vmware. Dus volgens mij kan het wel, vmxnet3 + ZFSguru. :)
Ik kan 'm wel bereiken op een IP wat ik ehb zien voorbij flitsen, maar de detectie in de console werkt niet goed en geef 0000 aan...

Verwijderd

Topicstarter
@HyperBart, kun je mij de output van jouw 'ifconfig' commando geven?
NIK0 schreef op dinsdag 17 juli 2012 @ 16:00:
Thanks CiPHER, Ik heb als test size 16GB gekozen dacht ik moet dat groter...? (VM heeft 8 GB RAM toegewezen)
In principe moet je 8 keer je RAM doen, dus in jouw geval 64GiB test size.
Ik ben wel van plan om later nog een L2ARC toe te voegen, Ik heb 2 volumes en wil elke volume een stukje geven van 8GB (of meer..?) van een ssd die ik nog heb liggen.
Dat opsplitsen hoef je zelf niet te doen, je voegt gewoon één of meer SSD (partities) toe aan de pool als L2ARC. Je kunt dan per filesystem opgeven met secondarycache of hij gebruik van de L2ARC mag maken, wat standaard zo is.
Kan ik later nog bonnie++ testen doen als er 1maal data op de disken staan of moet alles leeg zijn..?
Je kan prima testen met data erop. Maar besef wel dat bonnie bedoeld is voor een kale hardeschijf. De getallen die je krijgt zijn niet zo nuttig. Alleen die random seeks mogelijk wel, die nu op 49 blijft steken. Maar omdat het echt random is kun je dat niet versnellen met bonnie. Ik zou bonnie en andere utilities niet draaien als je L2ARC gebruikt. Die vorm van caching werkt goed bij realistische I/O waarbij sommige bestanden of delen van bestanden veel vaker worden aangesproken dan andere. Dat niet alleen, maar het gaat hier specifiek om 'random reads' waar hardeschijven heel slecht in zijn. Jouw score van 49 IOps betekent 49 * 512 bytes = 24.5 KiB/sec, dus 0,02MB/s. Dat is de reden waarom je cache wilt; je schijven doen prima sequential I/O maar random is gewoon slecht, voor alle mechanische schijven. Dat is inherent aan de techniek.
ik moet nu nog een 2e volume +zvol gaan aanmaken in nexenta maar ik loop tegen dat 4k probleem aan. het gaat om 2 seagate 2TB disken MD001 dacht ik. nexenta zegt er weinig over hoe je dit nu suported het beste kunt aanvliegen :-(
Je kunt ook je pool met ZFSguru aanmaken met 4K optimalisatie. Daarna terug naar Solaris/Nexenta en de pool importeren. Met zdb <pool> | grep ashift kun je controleren dat de ashift dan 12 is. Dat betekent dat hij is geoptimaliseerd voor 4KiB sectorsize. Een ashift-waarde van 9 betekent geoptimaliseerd voor 512-byte sectorsize; wat jarenlang dé standaard was. Let er wel op dat als je ZFSguru gebruikt hiervoor, dat je handmatig de disks met GEOM formatteert, en niet GPT. Dat ondersteunt Solaris niet zo goed volgens mij. GEOM krijgt ZFS gewoon een 'kale disk' zonder partities. In ZFSguru zie je de naam die je hebt gegeven, in Solaris zie je daar denk ik niets meer van.
Verwijderd schreef op dinsdag 17 juli 2012 @ 17:08:
Andere posts zeggen dat deze niet meer werken in FreeBSD9, maar daar zou wel een oplossing voor zijn: http://ogris.de/vmware. Dus volgens mij kan het wel, vmxnet3 + ZFSguru. :)
Dat ziet er goed uit! Wat ik wel las, was dat je sowieso een met CLANG gecompilde kernel moest draaien, ik weet niet welke kernel ZFSguru draait?

Even niets...


Verwijderd

Topicstarter
Hm waar lees je dat? Want CLANG wordt pas voor FreeBSD10 voor de kernel gebruikt, afaik.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Zucht... Een beetje stomme vraag maar het lukt niet om te booten van USB.
Ik probeer die controller naar IT mode te flashen.

Ik krijg aldoor de msg:
Reboot and select proper boot device
or insert Boot media in selected boot device and press a keyWat ik ook probeer ik blijf die msg krijgen.

Verwijderd

Topicstarter
Heb je wel een bootable USB stick gemaakt? Bijvoorbeeld: http://goebelmeier.de/bootstick/

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Verwijderd schreef op dinsdag 17 juli 2012 @ 17:17:

Je kunt ook je pool met ZFSguru aanmaken met 4K optimalisatie. Daarna terug naar Solaris/Nexenta en de pool importeren. Met zdb <pool> | grep ashift kun je controleren dat de ashift dan 12 is. Dat betekent dat hij is geoptimaliseerd voor 4KiB sectorsize. Een ashift-waarde van 9 betekent geoptimaliseerd voor 512-byte sectorsize; wat jarenlang dé standaard was. Let er wel op dat als je ZFSguru gebruikt hiervoor, dat je handmatig de disks met GEOM formatteert, en niet GPT. Dat ondersteunt Solaris niet zo goed volgens mij. GEOM krijgt ZFS gewoon een 'kale disk' zonder partities. In ZFSguru zie je de naam die je hebt gegeven, in Solaris zie je daar denk ik niets meer van.
CiPHER,
Zover ik heb begrepen zijn er 2 manieren om je met volume naar die 4KiB sectorsize te gaan:
via een patched zpool executable en via een aanpassing in een conf bestandje..?
Welke methode gebruikt ZFS Guru en is deze methode "veilig" om daarna te gebruiken in nexenta en/of andere solaris aanverwanten..?

Die disken formatteren met GEOM, doe je dat via ZFSGuru..?

Member of the Ukraine IT Army


Verwijderd

Topicstarter
Je kunt de welcome wizard gewoon skippen bij stap 1, dan ga je naar Disks pagina toe. Klik op een disk en je ziet onderaan een quick format optie met de optie GEOM. Alleen nog een naam invullen en kunt hem formatteren. Doe dit uiteraard alleen als er geen data staat op de disk die je wilt behouden.

Overigens kun je het beste eerst updaten, dus vlak na het skippen eerst naar System->Update toe en update naar beta5.

FreeBSD heeft het GEOM-framework, en kan dus heel goed met verschillende sectorsize omgaan, alles in FreeBSD is daarop berekend. Ook TRIM enzo werkt via alle mogelijke GEOM-lagen. ZFSguru gebruikt de GEOM_NOP methode om de disks een sectorsize van 4KiB te geven, voordat de pool wordt aangemaakt. Dat na een reboot de disks gewoon weer 512-byte sectoren aangeven is niet relevant: de pool is eenmaal ashift=12 aangemaakt en dat blijft zo, dat kun je nooit meer veranderen.

Maargoed, dus wel een makkelijke methode om een 4K pool voor Solaris platform te krijgen.
zfsguru.bsd$ ifconfig
em0: flags=8843 metric 0 mtu 1500
	options=9b
	ether 00:50:56:9e:79:fd
	inet 192.168.8.53 netmask 0xffffff00 broadcast 192.168.8.255
	nd6 options=29
	media: Ethernet autoselect (1000baseT )
	status: active
plip0: flags=8851 metric 0 mtu 1500
	inet 0.0.0.0 --> 255.255.255.255 netmask 0xff000000
	nd6 options=29
lo0: flags=8049 metric 0 mtu 16384
	options=3
	inet6 ::1 prefixlen 128
	inet6 fe80::1%lo0 prefixlen 64 scopeid 0x3
	inet 127.0.0.1 netmask 0xff000000
	nd6 options=21

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Verwijderd schreef op dinsdag 17 juli 2012 @ 19:21:
Heb je wel een bootable USB stick gemaakt? Bijvoorbeeld: http://goebelmeier.de/bootstick/
Ja zie me vorige post.
http://sourceforge.net/ap...eedos/index.php?title=USB

Deze link is van de freedos wiki en is eigenlijk hetzelfde alleen wat uitgebreider omschreven.

Edit:
Ook heb ik al 2 usb sticks geprobeerd maar geen verschil.
Zal eens kijken of hij het in me pc wel gewoon doet.

[ Voor 13% gewijzigd door Phasis op 17-07-2012 19:51 ]


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Verwijderd schreef op dinsdag 17 juli 2012 @ 19:41:
Je kunt de welcome wizard gewoon skippen bij stap 1, dan ga je naar Disks pagina toe. Klik op een disk en je ziet onderaan een quick format optie met de optie GEOM. Alleen nog een naam invullen en kunt hem formatteren. Doe dit uiteraard alleen als er geen data staat op de disk die je wilt behouden.

Overigens kun je het beste eerst updaten, dus vlak na het skippen eerst naar System->Update toe en update naar beta5.

FreeBSD heeft het GEOM-framework, en kan dus heel goed met verschillende sectorsize omgaan, alles in FreeBSD is daarop berekend. Ook TRIM enzo werkt via alle mogelijke GEOM-lagen. ZFSguru gebruikt de GEOM_NOP methode om de disks een sectorsize van 4KiB te geven, voordat de pool wordt aangemaakt. Dat na een reboot de disks gewoon weer 512-byte sectoren aangeven is niet relevant: de pool is eenmaal ashift=12 aangemaakt en dat blijft zo, dat kun je nooit meer veranderen.

Maargoed, dus wel een makkelijke methode om een 4K pool voor Solaris platform te krijgen.
Oke dan zou dit het strijdplan moeten zijn:
1) ZFSGuru downloaden
2) Booten, alles skippen updaten naar Beta5
3) beide disken formatteren met GEOM
4) Webgui gebruiken om een mirror volume aan te maken (ashift=12 is standaard..?)
5) Webgui gebruiken om volume te exporteren
6) Importeren in Nexenta
7) zdb commando uitvoeren om ashift:waarde te checken..

Member of the Ukraine IT Army


Verwijderd

Topicstarter
Tijdens het aanmaken van de pool kies je voor Optimize for 4K sectors of iets in die geest. Standaard staat dat uit, je moet het dus handmatig aanzetten. Als je een striped mirror wilt (dus RAID1+0) dan moet je eerst een mirror van 2 disks aanmaken, daarna expanden op de Pools->Expand pagina. Maar nadat je je pool hebt aangemaakt, is deze ashift=12 en dat kan nooit meer veranderd worden, zonder een nieuwe pool te maken.

Je kunt op de Pools pagina je pool aanklikken en dan staat er ergens 'This pool is optimized for 4K sector disks'. Dan weet je dat ook gelijk en kun je terugbooten naar Solaris. Daar kun je eventueel ook nog dat zdb commando uitvoeren, maar is in feite redundant.
Verwijderd schreef op dinsdag 17 juli 2012 @ 19:41:
Je kunt de welcome wizard gewoon skippen bij stap 1, dan ga je naar Disks pagina toe. Klik op een disk en je ziet onderaan een quick format optie met de optie GEOM. Alleen nog een naam invullen en kunt hem formatteren. Doe dit uiteraard alleen als er geen data staat op de disk die je wilt behouden.

Overigens kun je het beste eerst updaten, dus vlak na het skippen eerst naar System->Update toe en update naar beta5.

FreeBSD heeft het GEOM-framework, en kan dus heel goed met verschillende sectorsize omgaan, alles in FreeBSD is daarop berekend. Ook TRIM enzo werkt via alle mogelijke GEOM-lagen. ZFSguru gebruikt de GEOM_NOP methode om de disks een sectorsize van 4KiB te geven, voordat de pool wordt aangemaakt. Dat na een reboot de disks gewoon weer 512-byte sectoren aangeven is niet relevant: de pool is eenmaal ashift=12 aangemaakt en dat blijft zo, dat kun je nooit meer veranderen.

Maargoed, dus wel een makkelijke methode om een 4K pool voor Solaris platform te krijgen.
Is er nou eigenlijk een reden om géén 4K optimized pool te maken? Want zoals ik het zie, worden daarna alle IO's met 4K requests gedaan. In de praktijk scheelt dat amper in snelheid mochten je disks native toch 512k zijn... Je krijgt iets minder maar grotere IO's en je disks zijn dus bij kleine requests een fractie langzamer.

Correct me if i'm wrong...

Even niets...


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
FireDrunk schreef op dinsdag 17 juli 2012 @ 20:30:
[...]


Is er nou eigenlijk een reden om géén 4K optimized pool te maken? Want zoals ik het zie, worden daarna alle IO's met 4K requests gedaan. In de praktijk scheelt dat amper in snelheid mochten je disks native toch 512k zijn... Je krijgt iets minder maar grotere IO's en je disks zijn dus bij kleine requests een fractie langzamer.

Correct me if i'm wrong...
Ik maak me niet echt zorgen om de snelheids winst of verlies, ik maak me zorgen dat ik "ooit" een nieuwe disk moet kopen waar geen 512 bytes meer op worden aangegeven dat m'n zfs pool m'n nieuwe disk weer teruggeeft met als antwoord een "big-fat-NO!"

nog even voor de goeie orde: m'n andere volume bestaat uit 1 TB disken en die geven aan:
Sector Size: 512 bytes logical/physical

Dus daar gaat dit niet voor op..? (als ik hier problemen mee krijg is het een kwestie van of disken zien te vinden die nog 512 bytes aangeven of een nieuwe pool aanmaken met nieuwe disken die 4K aangeven..)

NOTE2:
Als ik ZFSGuru update wat wordt er dan precies geupdate..? de versie die in ram draait..?

[ Voor 23% gewijzigd door NIK0 op 17-07-2012 21:09 ]

Member of the Ukraine IT Army


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Ik snap er niks van.

CHiPER ik heb je link je geprobeerd: http://goebelmeier.de/bootstick/
En ook deze: http://www.bay-wolf.com/usbmemstick.htm

In me pc werkt het prima. Maar me server Supermicro X8SIL-F niet :/

Verwijderd

Topicstarter
Heb je USB Legacy support in je BIOS ingeschakeld? En misschien meer USB opties in je BIOS. Kijk daar eens naar. Gebruik je een toets om de boot menu te zien om zo van de USB stick te booten? Maar gelijk daarna krijg je een error?

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Verwijderd schreef op dinsdag 17 juli 2012 @ 20:50:
Heb je USB Legacy support in je BIOS ingeschakeld? En misschien meer USB opties in je BIOS. Kijk daar eens naar. Gebruik je een toets om de boot menu te zien om zo van de USB stick te booten? Maar gelijk daarna krijg je een error?
Legacy USB Support staat op AUTO
USB Functions staat Enabled

Ja als ik tijdens boot op F11 druk krijg ik de boot devices te zien en dan selecteer ik de bootable USB.

Verwijderd

Topicstarter
Kan niet zeggen waarom het bij jou niet werkt. Kun je Auto ook veranderen in Enabled? Soms zie ik ook een 'USB key under MSDOS' optie, als je zoiets ziet moet dat ook enabled staan. Maar daar was je dan zelf ook wel op gekomen lijkt me.

Dus hm.. lastig. Anders misschien een cd-rom branden die FreeDOS kan booten. Probleem is dat je vaak een writable medium moet hebben. Daarvoor kun je dan vaak een ramdrive voor gebruiken onder DOS. Dit is verder aardig offtopic, maar ik hoop je in de juiste richting te hebben geholpen. Als alternatief kun je FreeDOS op een losse hardeschijf installeren en daar van booten.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Ja idd excuus hiervoor @offtopic

Bedankt voor de hulp.
Ik ga nog even met je tips aan de slag.
Zelf dacht ik nog aan een bios update, alleen dan heb ik of floppy nodig want via usb lukt natuurlijk niet :)

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op donderdag 12 juli 2012 @ 22:02:
Dat is een bekende bug. Als je dat wilt moet je msi en msi_x uitschakelen, dan werkt het wel. Ik had ergens een post hoe dat moet, kan hem nu niet zo snel vinden. Maar even kort: de livecd boot je met Escape to Loader Prompt. Bij die prompt type je dan:
set hw.pci.enable_msix=0
set hw.pci.enable_msi=0
boot

Als het dan werkt, is het gewoon de combinatie ESXi + VT-d + LSI. Zelfde probleem met de LSI 1068E voor zover ik weet. Probleem komt bij Virtualbox en andere VM oplossingen niet voor.
Update:

Met de twee opties gezet werkt de IT geflashde M1015 (zeg maar een LSI 9211-8i) vlekkeloos, de aanwezige pool werd zonder gezeur geïmporteerd. Pech is wel dat ik iedere (re)boot de opties opnieuw moet intikken, kan ik ze niet in een of andere rc.local kwakken?

De posting op t ZFSGuru forum is ook een handige:
For those running ESXi, i came across this URL: http://ogris.de/vmware/

As of May 2012, VMware Tools that come with ESXi 5 don't work on FreeBSD 9. I found this article in which Jared Barneck reports that he just had to recompile vmmemctl and vmblock. The source code for both of these modules (and vmxnet/vmxnet3 as well) is included in vmware-freebsd-tools.tar.gz. However, you can compile neither vmxnet nor vmxnet3 without some minor modifications. I don't know if you need the sourcecode to compile this stuff. But looks cool to have a VMXNET3 driver for ESXi. This would be a great for those running ESXi to virtualize ZFSguru.

But... i am not sure about license restrictions. Probably you guys need to compile yourself. But i'm hoping we can create a working good how-to document. I am sure many people are waiting on this, at least some on the Dutch Tweakers.net forum where i dwell. :P
Dit zou betekenen dat ik wellicht via de VMXNET3 omweg toch een 10Gbit verbinding (infiniband) naar m'n ZFS pool zou kunnen forceren (omweg via een tweede VM die wel IB ondersteuning bied en NFS shares kan mounten (Linux Win2k8 R2).

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Verwijderd

Topicstarter
Had die VMXNET3 voor BSD ook al een paar posts terug besproken. :)

Maar als het werkend te krijgen is met een makkelijke how-to is dat voor veel mensen een grote aanwinst lijkt me.

En elke boot opnieuw intikken is natuurlijk zot; dat is alleen de eerste keer nodig zodat je kunt installeren. Na je installatie kun je /boot/loader.conf aanpassen met die twee regels, maar ZONDER de 'set' aan het begin. Dus simpelweg:

ee /boot/loader.conf
Helemaal onderaan voeg je toe:
hw.pci.enable_msi=0
hw.pci.enable_msix=0
Heel misschien moet het in de /boot/device.hints maar probeer eerst de /boot/loader.conf :)

  • sloth
  • Registratie: Januari 2010
  • Niet online
HyperBart schreef op dinsdag 17 juli 2012 @ 15:48:
Fuuu, iemand ervaring met ZFSguru installeren op een VM op ESXi?

Die van mij krijgt geen IP en ik ken er nog niet genoeg van om te troubleshooten...
Waren er trouwens geen problemen met ESXi i.c.m. ZFS wat data integriteit betreft (door RDM)?
Of heb je een VT-D setup en pass je een of meerdere disks gewoon 1:1 door naar je ZFSguru guest?
VT-d setup uiteraard :)

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

sloth schreef op woensdag 18 juli 2012 @ 08:11:
[...]


Waren er trouwens geen problemen met ESXi i.c.m. ZFS wat data integriteit betreft (door RDM)?
Of heb je een VT-D setup en pass je een of meerdere disks gewoon 1:1 door naar je ZFSguru guest?
Ik heb op dit moment een test opstelling van ESXi 5 icm ZFSguru 0.2.0-Beta5 draaien, de eerder genoemde hw.pci aanpassingen moeten wel gedaan worden anders kom je in een wachtlus terecht. Gisteren zo'n 50 GiB naar de test ZFSguru-VM gekopieerd (4x320 SATA WD array op een doorgestoken M1015 in IT mode, VT-d dus) en dat ging zonder fouten (tenminste geen R/W errors gezien bij de pool status) . Ik kan evt. testen of het doorsluizen van een HDD via RDM voor problemen zorgt aangezien het doorsluizen van de Cougarpoint SATA controler geen optie is (schoffel ik ESXi mee onderuit), geen probleem om de test array opnieuw aan te maken.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • sloth
  • Registratie: Januari 2010
  • Niet online
Dat zou erg leerrijk zijn :)

Ik beschik namelijk op dit moment over een non-VT-D compatible ESXi setup. Hier zou ik ZFSGuru guest op willen met een enkele disk attached via RDM, net om een betere data integriteit te verkrijgen.

Ook ben ik benieuwd of SMART en spindown met deze opstelling nog zouden werken.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op dinsdag 17 juli 2012 @ 23:06:
Had die VMXNET3 voor BSD ook al een paar posts terug besproken. :)

Maar als het werkend te krijgen is met een makkelijke how-to is dat voor veel mensen een grote aanwinst lijkt me.

En elke boot opnieuw intikken is natuurlijk zot; dat is alleen de eerste keer nodig zodat je kunt installeren. Na je installatie kun je /boot/loader.conf aanpassen met die twee regels, maar ZONDER de 'set' aan het begin. Dus simpelweg:

ee /boot/loader.conf
Helemaal onderaan voeg je toe:
hw.pci.enable_msi=0
hw.pci.enable_msix=0
Heel misschien moet het in de /boot/device.hints maar probeer eerst de /boot/loader.conf :)
De opties aan /boot/loader.conf toevoegen werkt perfect, thanks

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

sloth schreef op woensdag 18 juli 2012 @ 09:49:
Dat zou erg leerrijk zijn :)

Ik beschik namelijk op dit moment over een non-VT-D compatible ESXi setup. Hier zou ik ZFSGuru guest op willen met een enkele disk attached via RDM, net om een betere data integriteit te verkrijgen.

Ook ben ik benieuwd of SMART en spindown met deze opstelling nog zouden werken.
Zow, een beetje prutsen verder.

RDM aangemaakt richting de SATA drive (400GB WD) aanwezig op de on-board SATA controller van t X9SCM-F moederbord mbv dit blogje. De vier andere SATA disks (320GB WD) hangen dus aan een passthrough LSI SAS2008 (IT mode M1015). RDM disk aan de ZFSguru VM toegevoegd en opgestart.

Screenshot van de hdd sectie van de ZFSguru webinterface:
Afbeeldingslocatie: http://pantagruel.mine.nu/tweakers/disks-solo.jpg

Van boven naar beneden: de VM disk aanwezig op de SSD, de 400 GB WD en de vier andere 320 GB WD's.

Screenshot van de SMART sectie van de ZFSguru webinterface na een klik op de 'scan all' knop:
Afbeeldingslocatie: http://pantagruel.mine.nu/tweakers/disks-smart.jpg

Arghh, rot kabeltje??, nee een brakke molex splitter ( hddtje gaat uit, hddtje gaat aan, je kent t wel).

Dus ja, SMART uitlezen van een HDD werkt zowel voor een HDD aan een passthrough controller als voor een RDM drive.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Hoi,

Ik denk er over ZFS te gaan draaien voor mijn nieuwe storage servertje. Voornamelijk video, webservertje etc. Heb al het e.e.a. ingelezen maar zit nog met een paar vragen en de thread is inmiddels 140 paginas dus ik hoop dat de gurus mij gewillig zijn. In ieder geval mijn dank.

1) Wordt ZFS inmiddels stabiel genoeg geacht om op linux te draaien?

2) Ik wil naar de 8 disks in RaidZ2 maar zie het niet zitten om gelijk de hoofdprijs te betalen. Is er een goede betrouwbare methode om bijv. met 3 of 4 disks te beginnen en later uit te breiden naar 8 of is het nog steeds fixed?

3) Ik zit ook nog te dubben over de schijven. Ik neig naar de 3TBs van WD (WD30EZRX) of Seagate (ST3000DM001) voor het lage verbruik maar beide schijven staan niet zo best aangeschreven. Absurd hoge head park en, zo het lijkt, veel uitval. De Hitachi (5K3000) is gelijk weer een stuk duurder, en kleinere schijven hebben samen meer SATA poorten en groter spin-up stroom.
Wat is wijs op dit moment?

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 20:33

Snow_King

Konijn is stoer!

Durandal schreef op woensdag 18 juli 2012 @ 14:23:
Hoi,

Ik denk er over ZFS te gaan draaien voor mijn nieuwe storage servertje. Voornamelijk video, webservertje etc. Heb al het e.e.a. ingelezen maar zit nog met een paar vragen en de thread is inmiddels 140 paginas dus ik hoop dat de gurus mij gewillig zijn. In ieder geval mijn dank.

1) Wordt ZFS inmiddels stabiel genoeg geacht om op linux te draaien?
Ik draai al een aardige tijd met ZFS on Linux en dat draait bij mij echt prima!
Durandal schreef op woensdag 18 juli 2012 @ 14:23:2) Ik wil naar de 8 disks in RaidZ2 maar zie het niet zitten om gelijk de hoofdprijs te betalen. Is er een goede betrouwbare methode om bijv. met 3 of 4 disks te beginnen en later uit te breiden naar 8 of is het nog steeds fixed?
Ja, begin met 4 disks en plaats er later nog 4 bij, geen probleem.
Durandal schreef op woensdag 18 juli 2012 @ 14:23:
3) Ik zit ook nog te dubben over de schijven. Ik neig naar de 3TBs van WD (WD30EZRX) of Seagate (ST3000DM001) voor het lage verbruik maar beide schijven staan niet zo best aangeschreven. Absurd hoge head park en, zo het lijkt, veel uitval. De Hitachi (5K3000) is gelijk weer een stuk duurder, en kleinere schijven hebben samen meer SATA poorten en groter spin-up stroom.
Wat is wijs op dit moment?
Bij de WD disks moet je met de wdidle3 tool de head parking uit zetten, daarna draaien ze prima.

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19-12 15:39

thof

FP ProMod
Durandal schreef op woensdag 18 juli 2012 @ 14:23:
3) Ik zit ook nog te dubben over de schijven. Ik neig naar de 3TBs van WD (WD30EZRX) of Seagate (ST3000DM001) voor het lage verbruik maar beide schijven staan niet zo best aangeschreven. Absurd hoge head park en, zo het lijkt, veel uitval. De Hitachi (5K3000) is gelijk weer een stuk duurder, en kleinere schijven hebben samen meer SATA poorten en groter spin-up stroom.
Wat is wijs op dit moment?
Voor de Seagate ST3000DM001's is als het goed is een firmware update beschikbaar welke de headparking aanpakt. Schijnt nu minder geluid te maken en minder vaak voor te komen. Heb deze zelf ook op het oog voor mijn eerste build, maar heb mijn configuratie nog niet vastgesteld. Mogelijk combineren met ESXI.

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Snow_King schreef op woensdag 18 juli 2012 @ 14:57:
[...]

Ik draai al een aardige tijd met ZFS on Linux en dat draait bij mij echt prima!


[...]
Ja, begin met 4 disks en plaats er later nog 4 bij, geen probleem.


[...]
Bij de WD disks moet je met de wdidle3 tool de head parking uit zetten, daarna draaien ze prima.
1. vraag is wat de meer waarde van linux is tegenover freebsd of solaris.

2. als je voor raidz2 gaat en je begint met 4 disks hou je 2 disk over voor data.
voeg je later nog een vdev van 4disk toe heb je in totaal 8 disk met 4 disk voor pariteit.
was je gelijk begonnen met 8 had je maar 2 disk verloren door pariteit

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
1. vraag is wat de meer waarde van linux is tegenover freebsd of solaris.
Van origine een windows man draai ik al een paar jaar een ubuntu server (shell only). BSD/Solaris heb ik geen ervaring mee. Puur tijdwinst dus.
2. als je voor raidz2 gaat en je begint met 4 disks hou je 2 disk over voor data.
voeg je later nog een vdev van 4disk toe heb je in totaal 8 disk met 4 disk voor pariteit.
was je gelijk begonnen had je maar 2 disk verloren door pariteit
Dat bedoel ik. Is daar een workaround voor?


En die Seagates hebben inderdaad een firmware update gehad, maar als ik het zo lees was dat puur cosmetisch (tjirp geluid reductie) en gaat het aantal head parks nog steeds even snel omhoog.

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Durandal schreef op woensdag 18 juli 2012 @ 15:08:

Dat bedoel ik. Is daar een workaround voor?
backup maken en terug zetten :+

Misschien dat er iets mogelijk is met memory disk waarbij je van het feit gebruitk maakt dat je 1 disk kunt verliezen. Maar daar heb ik geen kaas van gegeten..

kun je niet beter gelijk met 6 disk beginnen?

  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Je zou kunnen beginnen met 1x een raidz van 4 disks en later je pool uitbreiden met een 2e raidz van 4 disks. Nadelen zijn dat je dan niet 2 willekeurige schijven mag verliezen, maar maximaal 1 per raidz set. Een ander nadeel is dat je gewenste schijven beide advanced format schijven zijn. Dit houdt in dat er voorkeursconfiguraties zijn:
-raidz: 3,5,9 disks
-raidz2: 4,6,10 disks

Dit is in het topic al een aantal maal bespoken. Als je veel antwoorden wilt op je vragen moet je even op de posts van CiPHER filteren.

Verwijderd

Topicstarter
Wat je wel kunt doen is een 10-disk RAID-Z2 maken met maar 8 schijven, in feite een double degraded pool dus. Dit doe je door twee memory disks te gebruiken. Dit is iets wat heel gemakkelijk via de ZFSguru web-interface gedaan kan worden. Later kun je dan 2 schijven toevoegen en de pool weer compleet maken.

Hetzelfde geldt voor RAID-Z; je kunt een 5-disk RAID-Z maken met maar 4 disks. Of dit nuttig is voor Durantal weet ik niet. Het alternatief is mirrors, waarbij je wel rustig kunt uitbreiden per 2 disks. Je kunt zelfs een single disk in een mirror maken en weer andersom. Dus dat heeft ook wel charme, maar mirroring is opzich inefficient, voor een 2-disk pool is dat leuk maar anders toch liever RAID-Z als het om massaopslag gaat.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Ja, voor mijn documenten en foto's wordt het misschien een ZFS mirror dan ipv een mirror met MDADM (aannemende dat dat veiliger is) maar voor de massa is dat natuurlijk een beetje overkill.

Is ZFS over een MDADM raid 5 of 6 een optie of zie ik dan iets over het hoofd?

Ik heb net ook iets gelezen over het splitsen van 4 disks in elk 2 partities om daar een pool van 8 partities van te maken, waarbij je dan later elke 2e partitie verplaatst naar een nieuwe schijf en dan de partities vergroot. Ik weet alleen niet of dat een goede optie was.
Dit is in het topic al een aantal maal bespoken. Als je veel antwoorden wilt op je vragen moet je even op de posts van CiPHER filteren.
Goede tip! Ga ik doen. Thx all.

Verwijderd

Topicstarter
Is ZFS over een MDADM raid 5 of 6 een optie of zie ik dan iets over het hoofd?
Ja, daarmee gooi je minimaal de helft aan bescherming die ZFS biedt overboord, door iets anders controle over de disks te laten nemen; die niet kan weten of iets corrupt is of niet. Absoluut een no-no voor ZFS, maar het kán wel.
Ik heb net ook iets gelezen over het splitsen van 4 disks in elk 2 partities om daar een pool van 8 partities van te maken, waarbij je dan later elke 2e partitie verplaatst naar een nieuwe schijf en dan de partities vergroot. Ik weet alleen niet of dat een goede optie was.
Hm dat is eigenlijk wel een creatieve en interessante methode! Het kan, paar punten:
  • je partities moeten eigenlijk even groot zijn; want de kleinste grootte wordt gebruikt, al kun je daar nog mee spelen
  • je performance zal echt bagger zijn omdat je hardeschijf continu moet seeken; maar nadat je extra disks hebt toegevoegd en de array compleet hebt, draait het prima
  • doordat je één stuk hardware in feite twee disks laat zijn, moet je RAID-Z2 ook beschouwen als één disk failure, dus in feite de bescherming van RAID-Z.
De uitbreidingsprocedure zou dan als volgt gaan:
  • Je maakt de pool aan met 8 partities verspreid over 4 disks.
  • Later bouw je 4 extra disks in, je gebruikt die disks om de 'extra' disks op de 2e partitie te vervangen (replace)
  • Nu heb je een pool met 8 echte disks. Nu moet je 2e partitie nog verwijderen op de originele 4 disks en de 1e partitie groter maken.
  • Nu zijn al je disks even groot qua partitie en kun je met 'autoexpand' setting je pool de extra beschikbare ruimte laten gebruiken. Hierdoor verdubbelt je pool in beschikbare capaciteit.
  • All done, een normale RAID-Z of RAID-Z2 van 8 disks. :)
Merk wel op dat 8 disks niet optimaal is voor 4K sector disks; doe dan 10 disks dat scheelt enorm.

[ Voor 9% gewijzigd door Verwijderd op 18-07-2012 21:21 ]


  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 14-12 18:13

Hakker

a.k.a The Dude

Mijn windows machines zien ineens de ZFS pc niet meer in het netwerk verschijnen. Handmatig ernaar navigeren gaat zonder problemen maar verschijnen in de lijst doet die niet meer. Dit is spontaan gebeurd. Nu heeft Windows wel updates doorgevoerd zou het daar misschien aan kunnen liggen?

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9

SMB Master browser? Even kijken in je Samba log op je ZFS machine.

Even niets...


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Hm dat is eigenlijk wel een creatieve en interessante methode! Het kan, paar punten:
[list]• je partities moeten eigenlijk even groot zijn; want de kleinste grootte wordt gebruikt, al kun je daar nog mee spelen
Het komt niet op een paar procent aan natuurlijk. B.V. 2 x 48% en de rest leeg. Dan is er ook nog wat marge als de nieuwe schijven van een ander type en iets kleiner zijn.
• je performance zal echt bagger zijn omdat je hardeschijf continu moet seeken; maar nadat je extra disks hebt toegevoegd en de array compleet hebt, draait het prima
Dat probleem speelt slechts in 25% van de gevallen wanneer de gewenste data op dezelfde disk staat? Ik weet dan weer niet wat de impact daar van is ;)
• doordat je één stuk hardware in feite twee disks laat zijn, moet je RAID-Z2 ook beschouwen als één disk failure, dus in feite de bescherming van RAID-Z.[/list]
Yep.
Merk wel op dat 8 disks niet optimaal is voor 4K sector disks; doe dan 10 disks dat scheelt enorm.
Hmm.. daar moet ik me even in verdiepen dan. 8+2 parity (RaidZ2)?
Dan heb ik wel een of andere controller nodig met een hoop extra SATA poorten.

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 14-12 18:13

Hakker

a.k.a The Dude

Euhm ik zie wel dit staan in de log.nmbd file

Samba name server HAKKER-ZFS is now a local master browser for workgroup WORKGROUP on subnet 192.168.1.4

geen idee of je dat ermee bedoel FireDrunk? Ik ben ook pas net erin gestapt ;)

[edit] in de locale IP logs zie ik wel dit langs komen

../libcli/auth/ntlm_check.c:54(smb_pwd_check_ntlmv1)
smb_pwd_check_ntlmv1: incorrect password length (74)

maar ik kan me niet herinneren ooit een password op te hoeven geven om erop te komen. enige wat ik heb gedaan is de ssh een password gegeven zodat niet iedereen zomaar met de default spul erop kan komen.

[ Voor 65% gewijzigd door Hakker op 18-07-2012 22:02 ]

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


Verwijderd

Topicstarter
Durandal schreef op woensdag 18 juli 2012 @ 21:52:
Het komt niet op een paar procent aan natuurlijk. B.V. 2 x 48% en de rest leeg. Dan is er ook nog wat marge als de nieuwe schijven van een ander type en iets kleiner zijn.
Dat je nieuwe schijven kleiner kunnen zijn maakt niet uit; die zijn in elk geval veel groter dan de partitie die ze moeten kunnen bevatten. Met andere woorden: je kopiëert een 1TB partitie naar een 2TB schijf, dus marge heb je sowieso. Maar de partities hoeven inderdaad niet precies even groot te zijn.
Dat probleem speelt slechts in 25% van de gevallen wanneer de gewenste data op dezelfde disk staat? Ik weet dan weer niet wat de impact daar van is ;)
Was dat maar zo. RAID-Z doet alle I/O over alle disk members, heel anders dan RAID4 en RAID5. Meer een RAID3 als je dat kent. Dit betekent dat je schijven voor elke I/O moeten seeken naar de andere partitie. Naast dat dit veel wear voor je koppen betekent, gaat dit zeker enorm traag worden.

Het beste is en blijft om schijven in bundels te kopen. Dus of één keer 10 schijven, of twee keer 6 schijven. Bij 6 disks heb je dan met RAID-Z2 een 33% overhead, wat nog steeds redelijk is. Met 10 schijven is de overhead maar 20% terwijl je toch dubbele parity protection hebt. Dus dat is wel heel efficient.
Hmm.. daar moet ik me even in verdiepen dan. 8+2 parity (RaidZ2)?
Dan heb ik wel een of andere controller nodig met een hoop extra SATA poorten.
Je hebt je onboard controller toch? Niet alle schijven hoeven op dezelfde controller. Je chipset poorten zijn van de hoogste kwaliteit. Mocht je SSDs nemen moeten die echter wel op de chipset SATA aangesloten kunnen worden. Maar normaliter heb je 2x SATA/600 + 4x SATA/300 dus dat zit wel goed. Als je de 4 langzamere poorten voor HDDs gebruikt en de twee snelle poorten voor (toekomstige) SSDs, zit je wel goed.

Het in één keer kopen van veel schijven is inderdaad vervelend, zeker nu de prijzen zo hoog liggen. Aan de andere kant spaar je geld uit omdat je met minder overhead toch dezelfde bescherming krijgt; oftewel de bruikbare opslag per euro stijgt naarmate je meer disks in een RAID-Z1/2/3 stopt. Maar 10 is normaliter wel de max.

Ook kun je dingen doen die je met traditioneel RAID juist weer niet kan: schijven met een hogere opslagcapaciteit toevoegen. Dus later gewoon 3TB of 4TB schijven erbij gooien ook al gebruik je nu 2TB schijven. Enige voorwaarde is dat schijven binnen een 'vdev' dus een RAID-Z array, dezelfde capaciteit hebben. Voorbeeld:
pool: tank
vdev1: raid-z2 met disk1 tot en met disk6 - schijven van 2TB = 8TB bruikbare opslag
vdev2: raid-z2 met disk7 tot en met disk12 - schijven van 3TB = 12TB bruikbare opslag
vdev3: raid-z met disk13 tot en met disk17 - schijven van 4TB = 16TB bruikbare opslag
netto opslag = 8+12+16 = 36TB, terwijl bij traditioneel RAID dit 8+8+8 = 24TB zou zijn.

In dit voorbeeld begin je eerst met de eerste vdev dus 6 schijven van 2TB in een RAID-Z2.
Na een paar maanden voeg je de 2e vdev toe, maar nu met 3TB schijven.
Later voeg je een 3e vdev toe. Dit maal een RAID-Z dus ander redundancy type en andere hoeveelheid disks: 5 ipv 6. En ook weer een andere grootte, 4TB ipv 3TB of 2TB.

Dit soort dingen zijn weer niet mogelijk met traditioneel RAID, dus ZFS kent niet alleen maar nadelen op dit gebied maar ook voordelen. Je moet zelf kijken wat voor jou het meest handige is, ook ivm eventuele toekomstige uitbreiding.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
FireDrunk schreef op woensdag 18 juli 2012 @ 21:31:
SMB Master browser? Even kijken in je Samba log op je ZFS machine.
Logs van samba staan: /var/log/samba/
@Hakker:
Jou ZFS bak is dus nu de lokale Windows SMB master browser. Als in je SMB config je hostname dus niet goed staat, kan hij die niet vinden. Even nachecken adhv een voorbeeldje online :) Moet wel te vinden zijn.

Even wat anders, ik heb even zitten pielen met VMXNET3 op ZFSguru.

Die diff's werken inderdaad, maar ik mag nog niet compilen..

[root@zfsguru ~/vmware-tools-distrib/lib/modules/source/vmblock-only]# make
"/sys/conf/kmod.mk", line 116: Malformed conditional (${MK_CLANG_IS_CC} == "no" && ${CC:T:Mclang} != "clang")
"/sys/conf/kmod.mk", line 120: if-less endif
"/sys/conf/kern.mk", line 18: Malformed conditional (${MK_CLANG_IS_CC} != "no" || ${CC:T:Mclang} == "clang")
"/sys/conf/kern.mk", line 32: if-less endif
"/sys/conf/kern.mk", line 102: Malformed conditional (${MK_CLANG_IS_CC} != "no" || ${CC:T:Mclang} == "clang")
"/sys/conf/kern.mk", line 108: if-less endif
make: fatal errors encountered -- cannot continue


Toch iets met CLANG :)

Hmm, het schijnt met een paar patches te maken hebben die nog in 9.0-CURRENT zitten voor kmod.mk compile opties waarvan de scripts nog niet geupdate zijn.

Lekker is dat... Patch dan niet 8-)

(ik zit overigens op 9.0-STABLE)

[ Voor 10% gewijzigd door FireDrunk op 19-07-2012 00:09 ]

Even niets...


Verwijderd

Topicstarter
Draai je wel RELENG_9 ofwel 9-STABLE? 9.1-001 image is de enige voor ZFSguru. Edit: nvm ;)

Overigens gaat de nieuwe image best goed, komend weekend gaat wel lukken om te releasen, misschien zelfs vrijdag al. :)

Edit2: ik kan ook makkelijk een 2e image erachteraan bakken met CLANG-compiled kernel. Dat werkt ook voor 9-STABLE zie ik.

[ Voor 25% gewijzigd door Verwijderd op 19-07-2012 00:29 ]

Oeh, dat lijkt me een goed plan!
Kan je er een optie bijmaken om de kernel source tree te downloaden?

[ Voor 52% gewijzigd door FireDrunk op 19-07-2012 01:17 ]

Even niets...


Verwijderd

Topicstarter
Dat wordt een service, net als de complete portstree gebruikt om de ports te builden, zodat je precies compatible kunt builden dat is fijner met services enzo.

Het is lastig uit te leggen, maar die nieuwe build scripts brengen echt wel nieuw leven in ZFSguru. In feite is dat het 'systeem' gedeelte, met aan de andere kant de web-interface zelf. Laatste tijd is alle aandacht naar het systeem toe gegaan, om zaken als services goed te laten werken en goede geautomatiseerde systeem images en services te bakken. Dat is ERG ingewikkeld, en ik heb veel bij moeten leren. Maar de buildscripts zijn nu erg vergevorderd met nog maar een paar laatste lastige puntjes te gaan. Vrijdag hoop ik de final build te hebben en die goed te kunnen testen voor de finishing touch. :)

Zelfs op een dikke quadcore met tmpfs duurt het uren om alles te builden, en de eerste keer nog veel langer omdat je alle port opties moet opgeven. En dat zijn er VEEL voor met name al die grafische pakketten. Gelukkig kan ik die portopties nu bewaren en hergebruiken, dat scheelt enorm veel tijd. Veel werk aan de buildscripts zorgen voor meer automatisering. Uiteindelijk levert dat een goede stabiele build environment op waardoor ZFSguru voorlopig op 'systeem' gebied prima vooruit kan. Maar het is wel lastig en ingewikkeld; de services vind ik veel leuker om aan te werken. Maar juist dat is eigenlijk zo gebeurd nu met het nieuwe build systeem. :P

[ Voor 5% gewijzigd door Verwijderd op 19-07-2012 01:52 ]

Pagina: 1 ... 35 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.