Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Q schreef op vrijdag 14 augustus 2015 @ 22:39:
Iemand ergens nog 40 TB spare storage te leen zodat ik mijn pool ff opnieuw op kan zetten? :X
Heb je 10 * 4 TB hdd's nodig of een server met 40TB netto ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 18-09 20:09
Verwijderd schreef op vrijdag 14 augustus 2015 @ 22:47:
Klopt, mits je ook ashift=12 gebruikt tenminste. Maar behalve dat overhead veel minder een probleem wordt, kan ook de performance flink gaan stijgen.

Neem nou 10 disks in RAID-Z2. 8 data disks dus 128/8 = 16K per disk. Dat betekent dat je schijven blokjes van 16K te verwerken krijgen. Voor SSDs betekent dit bijna een verzadiging maar bij hardeschijven is dat pas vanaf 64K.

Met large_blocks = 1MiB doen je disks 128K per stuk en dat is het allerbeste. Dus dat betekent ook dat je meer performance uit je mechanische disks haalt. Zeker voor nieuwere type disks (SMR, HAMR) zou dit nog veel meer winst kunnen opleveren.

Het enige nadeel is dat large_blocks niet bootable is. ZFSguru 0.3 heeft large_blocks bij het aanmaken van de pool prominent aangegeven, dus het krijgt daar de aandacht die het verdient. Inderdaad goed dat je met een post hier nog eens op wijst. :)
Is het enige nadeel dat het niet bootable is? Eigenlijk kan je dit dus altijd aanzetten op je data pool?
Is er eigenlijk ergens een beschrijving van de zpool features, met de voor- en nadelen?

[ Voor 3% gewijzigd door yamahabest op 15-08-2015 10:01 ]


Acties:
  • 0 Henk 'm!

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Nadeel is vooral dat je pool incompatible wordt met andere platforms als je recente features gaat gebruiken.

En één of andere autist dacht dat het handig was dat alle features gelijk automatisch enabled worden als je een pool aanmaakt. Hierdoor komen veel mensen achteraf pas achter dat hun pool eigenlijk incompatible is met andere platforms omdat zij hun pool met de meest recente features hebben aangemaakt. Terwijl ze die features helemaal niet nodig hebben.

En zo gaat het bijna altijd. Programmeurs hebben veelal een autistisch component waardoor zij zich moeilijk kunnen verplaatsen in de beleving van hun eindgebruiker. Vandaar dat bedrijven tegenwoordig veelal 'Usability experts' inzetten om hun programmeurs in goede banen te leiden. Goed kunnen programmeren betekent nog niet goed kunnen ontwerpen. Daarvoor zijn weer andere kwaliteiten nodig en die vind je maar zelden bij de echte techneuten.

ZFSguru maakt tegenwoordig v5000 pools aan met slechts drie features die elke v5000 implementatie heeft, waaronder LZ4-compressie. De overige features moet je handmatig activeren. Zo had het natuurlijk standaard gemoeten op alle platforms, en niet standaard alles enablen wat het systeem maar ondersteunt. ZFS onderscheidt zich van andere 3e generatie filesystems (Btrfs, ReFS, HammerFS) in dat het multi-platform is. Maar dat voordeel wordt gemarginaliseerd als alle features standaard worden ingeschakeld. Gemiste kans...

Acties:
  • 0 Henk 'm!
Ondanks dat je voor 99% gelijk hebt ligt hier ook een verantwoordelijkheid bij de eindgebruiker. Als je met (voor jou) belangrijke data werkt, dan moet je gewoon nooit in een live omgeving iets doen waarvan je de consequenties niet (voldoende) weet. Dus eerst in een testomgeving kijken wat de consequenties van je acties zijn (zoals v28 naar v5000) of het hier vragen, voordat je direct aan je live data gaat klooien. Don't fix what aint broken...

Een FS is simpelweg geen speelgoed. Dat zie je al vaak genoeg mis gaan bij de reguliere eindgebruiker die weer eens zijn bestanden is kwijtgeraakt.
En zo gaat het bijna altijd. [Verhaal ...]
Op dit punt hebben we in het verleden als eens een uitgebreide discussie gehad ;)

[ Voor 11% gewijzigd door CurlyMo op 15-08-2015 23:42 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Eén van de voorkomende user-error is dat je een zfs destroy commando opgeeft waarbij je de @<snapshot> vergeet, en daarmee het hele filesystem weghaalt ipv alleen de snapshot. Daarbij moet je wel -R opgeven. Maar dit is mij wel eens overkomen in het begin, gelukkig niets ernstigs. Maar wel even een eye-opener: oke, zo kan ik dus data verliezen op ZFS. Ook van twee anderen heb ik eenzelfde verhaal gehoord.

Maar wat je zegt over eigen verantwoordelijkheid kan dan wel zo zijn, de software moet ook gewoon goed ontworpen zijn. De ZFS features zijn juist bedoeld om compatibiliteit te waarborgen in een tijdperk waarbij verschillende platforms niet allemaal dezelfde features ondersteunen. Het was in lijn met die strategie gewoon heel logisch geweest als de gebruiker handmatig features moet enablen in plaats van dat gelijk alles BAF op enabled wordt gegooid. Dat is nergens voor nodig.

Nog iets op dit vlak: zodra features ingeschakeld zijn (enabled) kun je ze niet meer uitschakelen. Dat is ook heel vreemd, want enabled betekent dat de feature wel is ingeschakeld, maar dat er nog geen on-disk wijzigingen zijn gemaakt die de pool incompatible maken. Dus waarom zou dat niet kunnen dan? Pas als de feature 'Active' is, is er geen weg meer terug. Toch zaken die ik erg jammer vind van ZFS. Daar had beter over nagedacht kunnen worden. Wellicht met andere mensen die meer in de usability hoek zitten dan de echte coders die natuurlijk uitstekend werk leveren maar niet op alle gebieden even kundig zijn.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 16 augustus 2015 @ 00:11:
Nog iets op dit vlak: zodra features ingeschakeld zijn (enabled) kun je ze niet meer uitschakelen. Dat is ook heel vreemd, want enabled betekent dat de feature wel is ingeschakeld, maar dat er nog geen on-disk wijzigingen zijn gemaakt die de pool incompatible maken. Dus waarom zou dat niet kunnen dan? Pas als de feature 'Active' is, is er geen weg meer terug.
Dat is niet helemaal waar. Sommige active features kunnen ook weer gewoon enabled worden. Een voorbeeld is bookmarks. Als je alle bookmarks verwijderd dan veranderd ook active weer in enabled.
Toch zaken die ik erg jammer vind van ZFS. Daar had beter over nagedacht kunnen worden. Wellicht met andere mensen die meer in de usability hoek zitten dan de echte coders die natuurlijk uitstekend werk leveren maar niet op alle gebieden even kundig zijn.
Misschien is het goed om dit eens bij Illumos na te vragen?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Maar enabled kan nooit meer naar disabled:

code:
1
2
3
4
.    disabled  This feature's on-disk format changes have not been made and
               will not be made unless an administrator moves the feature to
               the enabled state.  Features cannot be disabled once they have
               been enabled.


Ik begrijp niet precies wat je bedoelt met navragen? En IllumOS is maar één van de spelers. Het is de OpenZFS working group die het hele ZFS features plan heeft opgesteld. Daar hadden dan ook mensen van andere disciplines in kunnen zitten om tot een beter resultaat te komen.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zaterdag 15 augustus 2015 @ 10:41:
En één of andere autist dacht dat het handig was dat alle features gelijk automatisch enabled worden als je een pool aanmaakt. Hierdoor komen veel mensen achteraf pas achter dat hun pool eigenlijk incompatible is met andere platforms omdat zij hun pool met de meest recente features hebben aangemaakt. Terwijl ze die features helemaal niet nodig hebben.
Nou nou.. :X

Ik vind het eigenlijk niet zo heel vreemd dat features die aanwezig zijn, standaard worden ingeschakeld. Voor we ZFS v5000 hadden had je toch ook ongeveer dezelfde situatie met normale versies van ZFS? By default werd toen toch ook gewoon de laatste versie gebruikt als je een pool aanmaakte, ook al liepen sommige platformen (ZoL?) achter?

Nou, dit is in feite hetzelfde. Het is mijns inziens niet de taak van FreeBSD om een bepaalde feature die zij ondersteunen by default uit te schakelen omdat bijvoorbeeld ZoL het nog niet heeft. En zodra alle platformen het wel hebben moet het zeker wel by default aanstaan? Aangezien de ontwikkeling van verschillende platformen niet synchroon loopt, wordt dat allemaal veel te complex om bij te houden.
Nog iets op dit vlak: zodra features ingeschakeld zijn (enabled) kun je ze niet meer uitschakelen. Dat is ook heel vreemd, want enabled betekent dat de feature wel is ingeschakeld, maar dat er nog geen on-disk wijzigingen zijn gemaakt die de pool incompatible maken. Dus waarom zou dat niet kunnen dan? Pas als de feature 'Active' is, is er geen weg meer terug. Toch zaken die ik erg jammer vind van ZFS. Daar had beter over nagedacht kunnen worden. Wellicht met andere mensen die meer in de usability hoek zitten dan de echte coders die natuurlijk uitstekend werk leveren maar niet op alle gebieden even kundig zijn.
Hier ben ik het wel met je eens, dat is nogal vreemd inderdaad.

[ Voor 22% gewijzigd door Compizfox op 16-08-2015 00:50 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Compizfox schreef op zondag 16 augustus 2015 @ 00:48:
Ik vind het eigenlijk niet zo heel vreemd dat features die aanwezig zijn, standaard worden ingeschakeld.
Waarom dan? Wat moet een casual gebruiker met 'multi_vdev_crash_dump' en 'filesystem_limits' waardoor de pool niet meer onder Linux te gebruiken is? Dat is toch gewoon onwenselijk?

Het maakt ZFS ook minder vriendelijk voor beginnende gebruikers. Iets wat ik bijzonder jammer vind, want ik wil juist dat technologie als ZFS ook toegankelijk wordt voor een breder publiek. Ook de data van casual gebruikers is het waard om te beschermen. Dus hoop ik juist dat deze technologie zo toegankelijk mogelijk is voor deze groep gebruikers. En niet dat je een programmeur of techneut moet zijn om ZFS te kunnen gebruiken. Met frontends als FreeNAS/NAS4Free/ZFSguru zou dat ook niet hoeven. Met name de laatste is bijzonder toegankelijk voor gebruikers van het type dat goed met Synology overweg kan.

Ik vind het gewoon jammer, het had niet gehoeven zo. En het heeft ook geen voordeel om het zo te doen. Want features worden automatisch enabled als je ze gebruikt. Schakel je lz4 compressie in, dan wordt automatisch de LZ4 feature flags enabled en actief. Stel je een recordsize hoger dan 128K in, dan wordt automatisch large_blocks feature enabled. Dat is hoe het zou moeten. Je begint met een kale v5000 pool en de features die je wilt worden ingeschakeld, terwijl de rest lekker uit blijft.

Enig uitzondering zou kunnen zijn de features die altijd wel leuk zijn om te hebben, zoals embedded_data die hele kleine files veel efficiënter kan opslaan.
Voor we ZFS v5000 hadden had je toch ook ongeveer dezelfde situatie met normale versies van ZFS? By default werd toen toch ook gewoon de laatste versie gebruikt als je een pool aanmaakte, ook al liepen sommige platformen (ZoL?) achter? Nou, dit is in feite hetzelfde.
Mee eens, dat is wel zo. Maar dat betekent niet dat het met v5000 niet anders/beter had gekund. Niet voor niets is er de OpenZFS working group waar een groep experts uit diverse projecten samen is gekomen. Hadden die niet op dit punt net een andere afweging kunnen maken?

Zoals ik al zei, één van de grote voordelen van ZFS is dat het multi-platform is. Maar door deze keuze wordt dat voordeel wel gemarginaliseerd.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Ik vind het gewoon jammer, het had niet gehoeven zo. En het heeft ook geen voordeel om het zo te doen. Want features worden automatisch enabled als je ze gebruikt. Schakel je lz4 compressie in, dan wordt automatisch de LZ4 feature flags enabled en actief. Stel je een recordsize hoger dan 128K in, dan wordt automatisch large_blocks feature enabled. Dat is hoe het zou moeten. Je begint met een kale v5000 pool en de features die je wilt worden ingeschakeld, terwijl de rest lekker uit blijft.
Aha, dat maakt het verhaal wel anders. Ik wist niet dat feature flags automatisch ingeschakeld worden als je ze gaat gebruiken. Nee, dan snap ik wel beter wat je bedoelt ;)



BTW, heb net mijn FreeBSD-bak geupgraded naar 10.2-RELEASE. Ik hoefde helemaal niets te mergen! _/-\o_

En dat was nog zonder de suggestie van matty___ (waarvan ik me overigens afvraag of het wel wat doet, aangezien de schrijver van de mailinglist-post die hij linkt juist zijn frustratie uit over waarom het niet op die manier kan)

Ik vermoed dus toch dat het aan ZFSGuru ligt dat je handmatig files moet mergen, ook al heb je die niet bewerkt. Of het ligt aan freebsd-update zelf natuurlijk. Binnenkort ga ik een ander systeem, dat ZFSGuru draait, van 10.1-RC1 naar 10.2-RELEASE helpen, dus dan gaan we het zien.

[ Voor 32% gewijzigd door Compizfox op 16-08-2015 01:04 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik ken freebsd-update niet zo goed. Maar het zou zeker kunnen dat het alleen lekker werkt vanaf releases dus van 10.1 naar 10.2. ZFSguru werkt veel met -STABLE en ik kan me voorstellen dat freebsd-update dan opeens handmatige configuratie (mergemaster) vereist.

Overigens zijn de nieuwe ZFSguru releases nu officieel uit, dus ook de nieuwe 10.2-RELEASE.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 16 augustus 2015 @ 01:12:
Ik ken freebsd-update niet zo goed. Maar het zou zeker kunnen dat het alleen lekker werkt vanaf releases dus van 10.1 naar 10.2. ZFSguru werkt veel met -STABLE en ik kan me voorstellen dat freebsd-update dan opeens handmatige configuratie (mergemaster) vereist.
Zou best kunnen.

Het probleem is overigens ook dat je met freebsd-update juist geen mergemaster kunt gebruiken. Met mergemaster kun je simpelweg aangeven/instellen dat je de nieuwe versie wilt accepten, bijvoorbeeld. Het is juist vervelend dat je met freebsd-update handmatig moet mergen; dat wil zeggen je krijg een text-editor voor je met per hunk tussen <<<<< en >>>>>> gedemarqueerd de oude en nieuwe versie. Dat mag je dan per file gaan lopen wegediten zodat het weer klopt. En als je ergens een foutje maakt, kun je niet meer terug: je moet dan weer helemaal bij file #1 beginnen. |:(

Daar komt nog eens bovenop dat ik bij de vorige 2x dat ik een upgrade deed, enkel en alleen config files mocht gaan lopen mergen die ik niet eens had aangepast. Alleen de comment bovenaan de file, waarin het versienummer van FreeBSD stond, was veranderd.

Maar goed, daar had ik deze keer gelukkig allemaal geen last van. Ik had geen config files aangepast dus freebsd-update heeft die gewoon netjes automatisch overschreven zonder mij ermee lastig te vallen.

[ Voor 14% gewijzigd door Compizfox op 16-08-2015 01:20 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Verwijderd schreef op zondag 16 augustus 2015 @ 01:12:
Overigens zijn de nieuwe ZFSguru releases nu officieel uit, dus ook de nieuwe 10.2-RELEASE.
Ik kan niet op een server die:
10.1-001 featuring FreeBSD 10.0-STABLE with ZFS v5000 draait naar 10.2 toe via system - install - root on zfs

Moet ik eerst naar 10.1-002 en kan ik dan pas naar 10.2 toe, of moet het via live-cd of usb handmatig ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 08:46

B2

wa' seggie?

Verwijderd schreef op zondag 16 augustus 2015 @ 01:12:
Ik ken freebsd-update niet zo goed. Maar het zou zeker kunnen dat het alleen lekker werkt vanaf releases dus van 10.1 naar 10.2. ZFSguru werkt veel met -STABLE en ik kan me voorstellen dat freebsd-update dan opeens handmatige configuratie (mergemaster) vereist.

Overigens zijn de nieuwe ZFSguru releases nu officieel uit, dus ook de nieuwe 10.2-RELEASE.
Even ZFS offtopic, maar hoe reageer je dan op security updates als je geen freebsd-update gebruikt?

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 18-09 20:09
Ik dacht dat ik het al een keer in dit topic had gelezen, maar nu ik het nodig ben, kan ik het natuurlijk niet weer vinden...

Ik ben bezig om een SuperMicro server te installeren, 24 bays, nu voor een eerste setup 12 bays in gebruik.
Ik wil nu GPT labels aan de disk gaan hangen, en die ook fysiek labelen (of de labels logisch kiezen zodat het zonder fysiek label kan) zodat ik in geval van problemen de juiste disk weet te vinden.
Hoe verifieer ik welke disk-id ("adax") in welke bay zit?

Daarnaast ga ik 2 SSD-tjes als installatiedisks voor het OS (mirro) en 2 SSD's als SLOG (mirror) en L2ARC (stripe) gebruiken, is het verstandig om die ook fysiek te labelen? Dit zodat je ook daar snel degene met problemen kan vinden? Zo ja, hoe vind je daar welke welke is?

Acties:
  • 0 Henk 'm!
Boot zonder schijven. Prik ze 1 voor 1 live in (het is toch hotswap).
En label ze meteen...

Kan je ze niet beter op serienummer labelen, en een Dymo gebruiken om de serienummers op de bays te plakken?

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

jacovn schreef op zondag 16 augustus 2015 @ 07:38:
[...]

Ik kan niet op een server die:
10.1-001 featuring FreeBSD 10.0-STABLE with ZFS v5000 draait naar 10.2 toe via system - install - root on zfs

Moet ik eerst naar 10.1-002 en kan ik dan pas naar 10.2 toe, of moet het via live-cd of usb handmatig ?
ZFSGuru 'updates' zijn eigenlijk verkapte reinstalls. Je kunt dus altijd van en naar elke versie toe. Wat lukt er precies niet?


yamahabest schreef op zondag 16 augustus 2015 @ 15:32:
Ik wil nu GPT labels aan de disk gaan hangen, en die ook fysiek labelen (of de labels logisch kiezen zodat het zonder fysiek label kan) zodat ik in geval van problemen de juiste disk weet te vinden.
Hoe verifieer ik welke disk-id ("adax") in welke bay zit?

Daarnaast ga ik 2 SSD-tjes als installatiedisks voor het OS (mirro) en 2 SSD's als SLOG (mirror) en L2ARC (stripe) gebruiken, is het verstandig om die ook fysiek te labelen? Dit zodat je ook daar snel degene met problemen kan vinden? Zo ja, hoe vind je daar welke welke is?
Zoals FireDrunk al opmerkt, is het het makkelijkst om dat op serienummer te doen. Het serienummer staat sowieso ergens op de schijf genoteerd, als je geluk hebt staat het op een 'handige' plaats (waar je het kunt lezen zonder de schijf eruit te hoeven halen). Dit serienummer kun je ook softwarematig uitlezen.

Als je dus een probleem met een schijf hebt, lees je softwarematig uit welk serienummer die heeft. Dan zoek je tussen de fysieke schijven die met dat serienummer.

[ Voor 53% gewijzigd door Compizfox op 16-08-2015 16:36 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@jacovn: je kunt niet updaten van 0.2 naar 0.3. Je dient 0.3 schoon te installeren. Lees de Release Notes en vooral de 'MUST READ' van Jason: http://zfsguru.com/forum/zfsgurudevelopment/988

@yamahabest: als je chassis activity LEDs heeft voor elke disk kun je ook een DD commando gebruiken om bijvoorbeeld 1GB van de disk te lezen. Dan kun je zien welk lampje aangaat en zo kun je je disk label koppelen aan een fysieke disk. Anders inderdaad wat FireDrunk zegt, alleen kost dat meer tijd voor 12 of 24 disks.
B2 schreef op zondag 16 augustus 2015 @ 09:59:
hoe reageer je dan op security updates als je geen freebsd-update gebruikt?
ZFSguru is een appliance. Kenmerkend daaraan is dat je niet eindeloos mee loopt te rommelen, maar dat het ding gewoon altijd moet werken. Handmatig upgraden waarbij van alles mis kan gaan, is niet wat Jason wilde met zijn project.

Dus is een andere strategie gekozen. Je upgrade nooit in de klassieke zin van het woord. Je doet altijd een nieuwe schone installatie, zodat de kans op problemen veel minder groot wordt. Om niet elke keer opnieuw alles te moeten instellen, is (op papier) de Migration Manager bedacht. Deze maakt een pakketje van al je configuratie - een migration pack - die je vervolgens gebruikt voor je nieuwe installatie. Je kunt zelf de inhoud samenstellen als je bijzondere wensen hebt, zoals je home directory of andere configuration files. En de configuratie van de services zou automatisch meegenomen moeten worden.

Zo heb je dus altijd een nieuwe verse installatie, maar wel met je eigen configuratiebestanden, en toch supermakkelijk met een paar muisklikjes. Bovendien kun je zo'n migration pack ook als bestandje op je desktop bewaren voor als je ZFSguru machine crasht. Eventjes LiveCD of USB stick inpluggen en installeren met de migpack et voila - je hebt weer een werkende appliance! :)

In plaats van rommel van je oude installatie meenemen begin je dus altijd met een schone lei, maar neem je alleen mee wat nodig is. Dus eigenlijk omgekeerd aan een klassieke upgrade waarbij je alles meeneemt en alleen belangrijke configuratiebestanden van het OS overschrijft met nieuwe versies. Maar daarbij kan vanalles misgaan en dit is niet wat Jason wilde. Ik vind de manier van ZFSguru zeker wel interessant. Enig probleem: de Migration Manager komt pas in de volgende versie, 0.4.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 16 augustus 2015 @ 16:38:
@jacovn: je kunt niet updaten van 0.2 naar 0.3. Je dient 0.3 schoon te installeren. Lees de Release Notes en vooral de 'MUST READ' van Jason: http://zfsguru.com/forum/zfsgurudevelopment/988
Ik draai vanilla FreeBSD met de manual webinterface install. Ik neem aan dat ik dat wel gewoon kan upgraden van 0.2 naar 0.3 door de nieuwe tar uit te pakken naar m'n docroot?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Wellicht, maar je bent een testpiloot want niemand heeft dit nog gedaan met 0.3. Je kunt de 0.3 tarball los downloaden op de Download-pagina. Laat me weten of het lukt? :)

Eén belangrijk ding: de nieuwe web-interface heeft user-account 888 nodig. 'zfsguru-web' moet die heten. Dus niet meer de 'www' user. Je dient ook sudo aan te passen om de nieuwe gebruiker rechten te geven, en 'www' moet je juist weer weghalen bij sudo.

Acties:
  • 0 Henk 'm!

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 08-09 13:54

Hakker

a.k.a The Dude

is large_block nu eigenlijk altijd 1 MiB of kan je dit ook instellen naar je aantal disks bv met een RaidZ2 van 8 schijven dat je een large_block van 768K maakt 6*128K tenslotte.

Bedoel zit tenslotte te kijken naar die 8 TB Seagates voor de volgende pool aangezien performance best wel ok is met ZFS en de bestanden buiten thumbs en de xml allemaal 200MB plus zijn.

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
large_blocks is alle recordsize boven de 128K. Dus 256K, 512K en 1024K.

Het moet een macht van 2 zijn, dus 192K kan niet; je moet dus elke keer verdubbelen.

Hoe groter je recordsize, des te minder de gemiddelde 'slack' oftewel de verspilde ruimte op pools met RAID-Z1/2/3 vdevs.

Ik raad sterk af dat je SMR-schijven neemt, en de pricewatch: Seagate Archive HDD v2 ST8000AS0002, 8TB is zo'n schijf. Nog best duur ook - SMR schijven zouden echt flink goedkoper mogen zijn dan PMR, maar dat is niet zo. Dus ik raad je met klem aan om in plaats van deze SMR-schijven voor de beste PMR-schijven te gaan. Dan kom je uit op deze: pricewatch: WD Green WD60EZRX - de beste schijf ooit in mijn bezit.

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 18-09 20:09
FireDrunk schreef op zondag 16 augustus 2015 @ 16:13:
Boot zonder schijven. Prik ze 1 voor 1 live in (het is toch hotswap).
En label ze meteen...

Kan je ze niet beter op serienummer labelen, en een Dymo gebruiken om de serienummers op de bays te plakken?
Compizfox schreef op zondag 16 augustus 2015 @ 16:32:
Zoals FireDrunk al opmerkt, is het het makkelijkst om dat op serienummer te doen. Het serienummer staat sowieso ergens op de schijf genoteerd, als je geluk hebt staat het op een 'handige' plaats (waar je het kunt lezen zonder de schijf eruit te hoeven halen). Dit serienummer kun je ook softwarematig uitlezen.

Als je dus een probleem met een schijf hebt, lees je softwarematig uit welk serienummer die heeft. Dan zoek je tussen de fysieke schijven die met dat serienummer.
Verwijderd schreef op zondag 16 augustus 2015 @ 16:38:
@yamahabest: als je chassis activity LEDs heeft voor elke disk kun je ook een DD commando gebruiken om bijvoorbeeld 1GB van de disk te lezen. Dan kun je zien welk lampje aangaat en zo kun je je disk label koppelen aan een fysieke disk. Anders inderdaad wat FireDrunk zegt, alleen kost dat meer tijd voor 12 of 24 disks.
Bedankt voor de antwoorden, dit lijkt me inderdaad prima voor de HDDs in de bays.
Voor wat betreft de SSD's, hebben jullie daar ook nog een idee voor? Die zitten namelijk niet in een hotswap bay.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 16 augustus 2015 @ 16:46:
Wellicht, maar je bent een testpiloot want niemand heeft dit nog gedaan met 0.3. Je kunt de 0.3 tarball los downloaden op de Download-pagina. Laat me weten of het lukt? :)

Eén belangrijk ding: de nieuwe web-interface heeft user-account 888 nodig. 'zfsguru-web' moet die heten. Dus niet meer de 'www' user. Je dient ook sudo aan te passen om de nieuwe gebruiker rechten te geven, en 'www' moet je juist weer weghalen bij sudo.
Zal het binnenkort even proberen.


yamahabest schreef op zondag 16 augustus 2015 @ 16:53:
[...]

Bedankt voor de antwoorden, dit lijkt me inderdaad prima voor de HDDs in de bays.
Voor wat betreft de SSD's, hebben jullie daar ook nog een idee voor? Die zitten namelijk niet in een hotswap bay.
Ook gewoon via serienummers? Ik weet niet hoe je je SSDs hebt gemonteerd, maar als ze ergens los liggen is het des te makkelijker om even het serienummer te checken.

[ Voor 37% gewijzigd door Compizfox op 16-08-2015 16:59 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 18-09 20:09
Hehe, oh ja, je zegt softwarematig het serienummer uitlezen, daar had ik even over heen gelezen.
Via "camcontrol identify adax", denk ik dan?

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Verwijderd schreef op zondag 16 augustus 2015 @ 16:38:
@jacovn: je kunt niet updaten van 0.2 naar 0.3. Je dient 0.3 schoon te installeren. Lees de Release Notes en vooral de 'MUST READ' van Jason: http://zfsguru.com/forum/zfsgurudevelopment
Ok gedaan en gedownload. Ik ga het wel op mijn nieuwste server installeren en uitproberen, daar staat nog geen data op die ik bewaren moet..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
be ondertussen bijna suf van het installeren van allerlei ZFS oplossingen. Zowel FreeNAS, NAS4Free als ZFSGuru. Op dit moment draai ik ZFSGuru 0.3.0.
Met alle ZFS oplossingen is de CIFS / Samba write performance tegenvallend. Idee is dat ik via een 10Gb netwerk via 2x Intel X540-T2 meer dan 100MB/s verwacht. Qua lezen kom ik tot 300-400MB/s onder FreeNAS 9.3 maar in ZFSGuru blijf ik op daar ook op zo'n 100MB/s. Zou eigenlijk hopen dat ik richting de 800MB/s zou halen.
CPU load E52603v3 zit bij kopiëren rond de 20% en geheugengebruik rond de 10%. Systeem bevat 64GB ram en 12 Seagate Desktop HDD ST4000DM000, 4TB disks in een raidz2 opstelling en ik doe de tests met en zonder SSD l2arc en zil.
Er zijn nog wel wat zaken die ik moet uitsluiten o.a. dat de Windows machine de bottleneck is maar ook dat FreeBSD misschien op een of andere manier naar de 1Gbit poort kijkt die ik eigenlijk alleen voor IPMI gebruik.
Zijn er hier gebruikers die met 10Gb wel meer dan 1Gb snelheden haalt en zo ja heb je daar nog specifieke dingen voor moeten aanpassen?
Of verwacht ik te veel performance met 12 disks?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

BartNL schreef op zondag 16 augustus 2015 @ 20:40:
Zijn er hier gebruikers die met 10Gb wel meer dan 1Gb snelheden haalt en zo ja heb je daar nog specifieke dingen voor moeten aanpassen?
Of verwacht ik te veel performance met 12 disks?
Je probleem kan aan drie dingen liggen:
  • aan de throughput van de pool
  • aan het file transfer protocol (SMB)
  • aan de netwerkverbinding
Je moet dus uitzoeken waar het aan ligt. Ten eerste zou ik een benchmark doen op de pool. Welke lees- en schrijfsnelheden kan je pool aan? Ten tweede zou ik via iperf testen wat de effectieve throughput is van je netwerk.

Als die beide dingen gewoon de gewenste performance hebben, kun je die uitsluiten. Dat betekent dat het dan wel aan SMB moet liggen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@BartNL: Test even in deze volgorde:
  • Pool performance (dd naar een file op de ZFS pool, kan via de ZFSguru interface op Pools->Benchmark)
  • Network performance (iperf)
  • Applicatie performance (Samba/NFS/AppleShare/iSCSI)
Verder is er een post van iemand op ZFSguru forum die precies de tegenovergestelde ervaring had: traag op FreeNAS en snel op ZFSguru met een 10G kaart. Ik heb geen idee hoe dat kan of waar het aan kan liggen. Enige wat ik kan bedenken is even kijken of verschillende BSD releases iets uitmaakt en ook dat je de client probeert uit te sluiten want dat wordt ook vaak vergeten.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
ZFSGuru benchmark van de pool,

code:
1
2
3
4
5
6
ZFSguru 0.3.0 (10.2.002) pool benchmark
Pool            : p1raidz2 (43.5T, 1% full)
Test size       : 256 GiB
normal read     : 2 GB/s
normal write    : 2 GB/s
I/O bandwidth   : 15 GB/s

dit lijkt mij wat optimistisch?

iperf moet ik aan de zfsguru kant nog even uitvogelen :+

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
als je kennis hebt van de commandline :
freebsd-update fetch
freebsd-update install

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 24-09 14:55
duiveltje666 schreef op zondag 16 augustus 2015 @ 22:02:
[...]

als je kennis hebt van de commandline :
freebsd-update fetch
freebsd-update install
En nu voor de nieuwelingen die unix gebruiken? Ik kan me niet voorstellen dat een gebruiker van Ubuntu (bijvoorbeeld) in een commandline moet gaan gebruiken om zijn systeem geupdate te houden. Of zijn de unix gebruikers allemaal "powerusers" waardoor dat soort tools niet bestaan? Bij windows 10 home (jaja vloeken hier ;-) ) worden de updates nu afgedwongen, daarvoor hebben we "Windows update", bestaat zoiets bij unix omgevingen niet?

Ikzelf durf de commandline wel te gebruiken maar ik breek waarschijnlijk iets eerder dan dat ik iets fix :P

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
EnerQi schreef op zondag 16 augustus 2015 @ 22:51:
[...]


En nu voor de nieuwelingen die unix gebruiken? Ik kan me niet voorstellen dat een gebruiker van Ubuntu (bijvoorbeeld) in een commandline moet gaan gebruiken om zijn systeem geupdate te houden. Of zijn de unix gebruikers allemaal "powerusers" waardoor dat soort tools niet bestaan? Bij windows 10 home (jaja vloeken hier ;-) ) worden de updates nu afgedwongen, daarvoor hebben we "Windows update", bestaat zoiets bij unix omgevingen niet?

Ikzelf durf de commandline wel te gebruiken maar ik breek waarschijnlijk iets eerder dan dat ik iets fix :P
gewoon de aanwijzingen volgen ..
dat fetch downloadt de updates en laat zien wat er updated gaat worden.
met install wordt het er overheen geramd , enkel rebooten is voldoende ( ipv een nieuwe image downloaden)

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

EnerQi schreef op zondag 16 augustus 2015 @ 22:51:
[...]


En nu voor de nieuwelingen die unix gebruiken? Ik kan me niet voorstellen dat een gebruiker van Ubuntu (bijvoorbeeld) in een commandline moet gaan gebruiken om zijn systeem geupdate te houden.
Niet per se. In bijvoorbeeld Ubuntu zijn er GUI-frontends voor.
Of zijn de unix gebruikers allemaal "powerusers" waardoor dat soort tools niet bestaan?
Jawel, die tools bestaan zeker, maar worden door geavanceerdere gebruikers nauwelijks gebruikt omdat de command line simpelweg sneller en simpeler is.
Ikzelf durf de commandline wel te gebruiken maar ik breek waarschijnlijk iets eerder dan dat ik iets fix :P
Bekijk het zo: die twee commando's doen exact hetzelfde als een GUI-tool voor jou zou doen. De CLI is niet eng ;)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Verwijderd schreef op zondag 16 augustus 2015 @ 21:07:
@BartNL: iperf is al voorgeïnstalleerd onder ZFSguru. Dus gewoon de server starten met 'iperf -s' of 'iperf -s -w 128k' bijvoorbeeld.
krijg er met iperf niet meer dan 1.04 Gbits/sec door dus netwerk lijkt het probleem en dat heeft op zich niets met ZFS te maken :D

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Nou fijn, want dan weet je waar je moet zoeken.

Wel één ding: kan het zijn dat er een extreem lage TCP Window Size wordt gebruikt? 128K ofzoiets is normaal. Maar bij Windows wordt soms een heel lage waarde gekozen zoals 8K. Dan haal je zeker niet alle potentie uit je lijn. Ik heb geen idee hoe dit komt. In het verleden wel iets gevonden van regtweaks voor Windows waardoor in combinatie met Windows gewoon 128K wordt. Maar dat is lang geleden, zal ook wel afhangen van de Windows versie en misschien vele andere factoren zoals netwerkdrivers en/of instellingen en misschien wel auto-tuning.

Met 'iperf -s -w 128k' kun je dit testen, omdat je dan de TCP Window Size forceert op 128KiB. En dat is een normale grootte voor gigabit+. Voor 10G heb je misschien zelfs hoger nodig. Misschien heb je meer aan wat feedback van netwerkexperts in het Netwerken forum.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 16 augustus 2015 @ 23:36:
Nou fijn, want dan weet je waar je moet zoeken.

Wel één ding: kan het zijn dat er een extreem lage TCP Window Size wordt gebruikt? 128K ofzoiets is normaal. Maar bij Windows wordt soms een heel lage waarde gekozen zoals 8K. Dan haal je zeker niet alle potentie uit je lijn. Ik heb geen idee hoe dit komt. In het verleden wel iets gevonden van regtweaks voor Windows waardoor in combinatie met Windows gewoon 128K wordt. Maar dat is lang geleden, zal ook wel afhangen van de Windows versie en misschien vele andere factoren zoals netwerkdrivers en/of instellingen en misschien wel auto-tuning.

Met 'iperf -s -w 128k' kun je dit testen, omdat je dan de TCP Window Size forceert op 128KiB. En dat is een normale grootte voor gigabit+. Voor 10G heb je misschien zelfs hoger nodig. Misschien heb je meer aan wat feedback van netwerkexperts in het Netwerken forum.
Ik ben bekend met dat probleem ja. Volgens mij ligt dat echter meer aan de standaard TCP Window Size die in iperf is gecompileerd en niet aan Windows zelf.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Modbreak:Ik heb alle recente posts gerelateerd aan een discussie over ZFSguru,
verplaatst naar het Discussie over de toekomst van ZFSguru topic.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
BartNL schreef op zondag 16 augustus 2015 @ 20:40:

Zijn er hier gebruikers die met 10Gb wel meer dan 1Gb snelheden haalt en zo ja heb je daar nog specifieke dingen voor moeten aanpassen?
Of verwacht ik te veel performance met 12 disks?
Lezen blijft bij mij ook ver achter op schrijven naar zfsguru servers..

Ik heb het sneller gekregen op windows 7 door:

Controle van settings met:

netsh interface tcp show global

Dan 2 parameters aanpassen:

netsh int tcp set global autotuninglevel=normal
netsh interface tcp set heuristics disabled

Gevonden op het web in diverse threads...
http://www.msfn.org/board...e-does-not-work-in-vista/
https://www.duckware.com/...ownload-speeds/index.html

deze heeft wat meer uitleg:
http://www.speedguide.net...-7-vista-2008-tweaks-2574

[ Voor 11% gewijzigd door jacovn op 17-08-2015 09:36 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 18-09 20:09
Is er een maximale lengte voor de GPT labels?
Ik lees over 15 karakters, en 36 karakters.

[ Voor 34% gewijzigd door yamahabest op 17-08-2015 15:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Geen idee eigenlijk. Probeer het uit? :)

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 16 augustus 2015 @ 16:46:
Eén belangrijk ding: de nieuwe web-interface heeft user-account 888 nodig. 'zfsguru-web' moet die heten. Dus niet meer de 'www' user. Je dient ook sudo aan te passen om de nieuwe gebruiker rechten te geven, en 'www' moet je juist weer weghalen bij sudo.
Betekent dit ook dat ik Lighttpd onder die user moet draaien?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ja. Lighttpd en Sudo dien je dus aan te passen. Resultaat is dat zowel lighttpd als php-cgi onder het 'zfsguru-web' user account draaien, en niet meer on de 'www' user.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op maandag 17 augustus 2015 @ 16:32:
Ja. Lighttpd en Sudo dien je dus aan te passen. Resultaat is dat zowel lighttpd als php-cgi onder het 'zfsguru-web' user account draaien, en niet meer on de 'www' user.
OK, het draait. Er gaat wel iets mis met de sessies:

code:
1
2
3
Warning: session_start(): open(/tmp//sess_0b7ac02404232457b0217a6ded72b5e5, O_RDWR) failed: Permission denied (13) in /usr/local/www/data/includes/procedure.php on line 12

Warning: session_start(): Cannot send session cache limiter - headers already sent (output started at /usr/local/www/data/includes/procedure.php:12) in /usr/local/www/data/includes/procedure.php on line 12

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat zou nooit mogen, want dat zou betekenen dat je /tmp niet de juiste permissies heeft. Je /tmp moet 1777 als permissies hebben; dus niet 0777!

Controleer met:

# ls -dl /tmp
drwxrwxrwt 8 root wheel 30 Aug 17 03:01 /tmp
Merk op: rwx rwx rwt

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
yamahabest schreef op maandag 17 augustus 2015 @ 14:59:
Is er een maximale lengte voor de GPT labels?
Ik lees over 15 karakters, en 36 karakters.
72 bytes.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op maandag 17 augustus 2015 @ 16:48:
Dat zou nooit mogen, want dat zou betekenen dat je /tmp niet de juiste permissies heeft. Je /tmp moet 1777 als permissies hebben; dus niet 0777!

Controleer met:

# ls -dl /tmp
drwxrwxrwt 8 root wheel 30 Aug 17 03:01 /tmp
Merk op: rwx rwx rwt
Heb het al gevonden; er stonden nog een paar oude session-files (owned by www) in /tmp. Die heb ik nu verwijderd en alles draait nu zoals het hoort :)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Verwijderd schreef op zondag 16 augustus 2015 @ 23:36:
Nou fijn, want dan weet je waar je moet zoeken.
in zoiets http://zfsguru.com/forum/zfsgurusupport/844 en de link in de laatste post denk hoop ik nu. Als test de ZFS server omgezet naar windows en dan kan ik met aangepaste adapter instelling wel richting 10Gb.

[ Voor 5% gewijzigd door BartNL op 17-08-2015 23:44 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Dan moet het probleem in samba zitten. Met freebsd 10.x heb ik iperf op bijna line rate gezien een een dd over netwerk op line speed. Dus de netwerk stack van freebsd lijkt weinig mis mee.

Ik gebruik nu de standaard meegeleverde driver en heb geen instellingen meer veranderd. Ik zie vanaf een windows 7 pc snelheden tot 280 MB/sec gaan (up en down)
Ik heb het wel sneller gezien op freebsd 9.x waar ik een aantal dingen aangepast had (buffering voor de 10 GE kaart) en ook de intel driver zelf geïnstalleerd had.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
jacovn schreef op dinsdag 18 augustus 2015 @ 06:18:
Dan moet het probleem in samba zitten. Met freebsd 10.x heb ik iperf op bijna line rate gezien een een dd over netwerk op line speed. Dus de netwerk stack van freebsd lijkt weinig mis mee.

Ik gebruik nu de standaard meegeleverde driver en heb geen instellingen meer veranderd. Ik zie vanaf een windows 7 pc snelheden tot 280 MB/sec gaan (up en down)
Ik heb het wel sneller gezien op freebsd 9.x waar ik een aantal dingen aangepast had (buffering voor de 10 GE kaart) en ook de intel driver zelf geïnstalleerd had.
Samba 3 of 4? Met of zonder sendfile. Kunnen weer 1001 dingen zijn.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
BartNL schreef op maandag 17 augustus 2015 @ 23:43:
[...]

in zoiets http://zfsguru.com/forum/zfsgurusupport/844 en de link in de laatste post denk hoop ik nu. Als test de ZFS server omgezet naar windows en dan kan ik met aangepaste adapter instelling wel richting 10Gb.
In FreeBSD 10.x hoef je niet al die settings aan te passen is mijn ervaring..
Je hebt ook geen MTU 9000 nodig om de lijn vol te drukken. Tvwes heeft het met mij getest, en dus line rate 10 GE met dd en mbuffer mogelijk met MTU = 1500

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
mbuffer helpt daar wel heel erg in. Samba werkt heeeel anders dan mbuffer natuurlijk.

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
net een upgrade naar windows 10 gedaan en dat is voor de virtuele server niet helemaal correct verlopen.

OS schijf is naar zijn gootje dus booten gaat niet meer. De data schijven zijn goed, na een scrub was 500 kb van de 700gb gecorrigeerd dus hopelijk zal dat in de toekomst niet opeens corrupt worden.

Nu denk ik erover om zfsguru weer opnieuw te installeren. De var schijf is opeens een memory disk geworden met maar 32 mb, die constant volloopt en dus smb en dergelijke laat kapot gaan. Dit is ook uitgerekend het moment om andere veranderingen door te voeren op de VM dus dat ga ik ook even in mijn achterhoofd houden.

Ik zit er nu sterk over na te denken om de os schijf een Virtual schijf te laten zijn ipv een raw schijf en wellicht ook gewoon redundancy op de schijf te enablen. Dat had in dit geval toch het een en ander kunnen verhelpen. Zijn er nog andere dingen waar ik aan kan denken? (ik gebruik overigens Hyper-V)

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 23:04
Is deze oplossing inderdaad zo simpel?

Zijn meer draadjes die aangeven dat ZOL niet lekker werkt op CentOS 7.1. Hoe zijn hier de ervaringen?

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
Draadjes gaan over 6.3. 6.4 is uit. Dus weet niet of het nog relevant is.

Acties:
  • 0 Henk 'm!
Ik draai ZFS 0.6.4.nogwat op Fedora 21. Daar werkt het prima. Er is niet super veel verschil tussen Fedora en CentOS behalve dat Fedora nieuwere packages bevat.

Ik ga denk ik vanavond zelfs mijn server opzetten met CentOS...

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op dinsdag 18 augustus 2015 @ 18:16:
Ik ga denk ik vanavond zelfs mijn server opzetten met CentOS...
Jong! :+ Wat jeukt er nu weer?!

Acties:
  • 0 Henk 'm!
Teveel meuk geinstalleerd, en Fedora 22 is afgestapt van yum. Daar ben ik nog niet aan toe :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
In F22 kun je nog gewoon yum commando's gebruiken, je krijgt dan wel een melding dat je eigenlijk dnf moet gebruiken maar voor nu wordt het gewoon uitgevoerd :) Vind het als desktop een prima OS, maar op servers zou ik altijd CentOS gebruiken.

Acties:
  • 0 Henk 'm!

  • smekkos
  • Registratie: Februari 2013
  • Laatst online: 10-09 20:06
Zit met een klein probleempje hoop dat ik hier goed zit!

Zojuist een nieuwe server gebouwd. Wilde hier eigenlijk net als op de oude server ZFSGuru op draaien.

Installatie gaat allemaal prima, maar heb een hoge load op 1 core.
Top -HS geeft aan dat proces kernel {acpi_task} hier de boosdoener van is.

Dit krijg ik bij versie 10.2.002 en 10.1.001.

Onder FreeNAS Heb ik dit probleem dan weer niet, maar wil geen FreeNAS.

Geprobeerd:
- "ACPI HPET Table" uitgezet in UEFI (Geen effect)
- Opstarten zonder ACPI (direct kernel panic)

Iemand enig idee of in ieder geval een schop in de goede richting?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
HPET gewoon aanlaten; het komt door ACPI zelf: je BIOS levert foutieve informatie wat geen probleem vormt voor Windows OS maar wel voor andere OS. Dat komt veel vaker voor; fabrikanten hebben schijt aan UNIX daarvoor is de userbase te klein. Boeie dat hun product ongeldige ACPI informatie bevat; daar hebben ze lak aan.

Maar soms, is er wel een BIOS update beschikbaar waardoor het opeens wel werkt. Ook heb ik bij een downgrade het probleem een keer kunnen oplossen. Kortom, je kunt nog eens kijken naar verschillende BIOS versies.

En eventueel kun je ook eens 11.0.002 proberen - soms heeft HEAD al quirks voor jouw bord terwijl die nog niet naar -STABLE zijn geport.

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

smekkos schreef op woensdag 19 augustus 2015 @ 17:08:
Zit met een klein probleempje hoop dat ik hier goed zit!

Zojuist een nieuwe server gebouwd. Wilde hier eigenlijk net als op de oude server ZFSGuru op draaien.

Installatie gaat allemaal prima, maar heb een hoge load op 1 core.
Top -HS geeft aan dat proces kernel {acpi_task} hier de boosdoener van is.

Dit krijg ik bij versie 10.2.002 en 10.1.001.

Onder FreeNAS Heb ik dit probleem dan weer niet, maar wil geen FreeNAS.

Geprobeerd:
- "ACPI HPET Table" uitgezet in UEFI (Geen effect)
- Opstarten zonder ACPI (direct kernel panic)

Iemand enig idee of in ieder geval een schop in de goede richting?
Draai je de server toevallig headless? Dus zonder monitor verbonden?

Er zijn bepaalde chipsets met een Intel graphics kaart die dan dit probleem vertonen!

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

FireDrunk schreef op dinsdag 18 augustus 2015 @ 19:51:
Teveel meuk geinstalleerd, en Fedora 22 is afgestapt van yum. Daar ben ik nog niet aan toe :+
Psst, do you have a moment to talk about Debian? :+

Gewoon een heel grote verzameling snoertjes

Bigs schreef op woensdag 19 augustus 2015 @ 09:32:
In F22 kun je nog gewoon yum commando's gebruiken, je krijgt dan wel een melding dat je eigenlijk dnf moet gebruiken maar voor nu wordt het gewoon uitgevoerd :) Vind het als desktop een prima OS, maar op servers zou ik altijd CentOS gebruiken.
Tja, ik wil eigenlijk binnenkort eens naar BTRFS gaan kijken. En dan wil je graag een *hele* nieuwe kernel.
CentOS is ook echt zeker mijn favoriete Server OS, alleen omdat de BTRFS ontwikkelingen zo ontzettend hard gaan wil ik graag Fedora 22.

Misschien dat ik BTRFS maar op mijn HP MicroServer moet gaan zetten. Dan kan ik op mijn primaire systeem lekker CentOS zetten :)
Compizfox schreef op donderdag 20 augustus 2015 @ 03:23:
[...]

Psst, do you have a moment to talk about Debian? :+
Nope, ik wil Cockpit kunnen gebruiken :)

Even niets...


  • smekkos
  • Registratie: Februari 2013
  • Laatst online: 10-09 20:06
Verwijderd schreef op woensdag 19 augustus 2015 @ 17:13:
HPET gewoon aanlaten; het komt door ACPI zelf: je BIOS levert foutieve informatie wat geen probleem vormt voor Windows OS maar wel voor andere OS. Dat komt veel vaker voor; fabrikanten hebben schijt aan UNIX daarvoor is de userbase te klein. Boeie dat hun product ongeldige ACPI informatie bevat; daar hebben ze lak aan.

Maar soms, is er wel een BIOS update beschikbaar waardoor het opeens wel werkt. Ook heb ik bij een downgrade het probleem een keer kunnen oplossen. Kortom, je kunt nog eens kijken naar verschillende BIOS versies.

En eventueel kun je ook eens 11.0.002 proberen - soms heeft HEAD al quirks voor jouw bord terwijl die nog niet naar -STABLE zijn geport.
- Versie 11.0.002 geeft een "Fatal trap 12: page fault while in kernel mode" error met het opstarten.
- BIOS gedowngrade geeft geen verandering.
- BIOS geupgrade wederom geen verandering

Het bord is trouwens een Asrock E3C224D4I-14S. En hoewel FreeNAS niet slecht is houd ik wel van de aanpasbaarheid van ZFSGuru.
Quindor schreef op donderdag 20 augustus 2015 @ 03:08:
[...]

Draai je de server toevallig headless? Dus zonder monitor verbonden?

Er zijn bepaalde chipsets met een Intel graphics kaart die dan dit probleem vertonen!
Ja server draait headless. Ben nu wel verbonden met de IPMI interface. VGA chip is een ASPEED.

  • avdpeijl
  • Registratie: Maart 2014
  • Laatst online: 23-09 13:48
Heb gelijke ervaring met de hetzelfde Asrock.
Bij installatie van 10.0.001 (ZFSguru) is het probleem weer weg, maar dan mis ik weer een aantal services.

In alle gevallen heb ik met of zonder monitor aangesloten dezelfde hogere CPU.

Verwijderd

Topicstarter
Ik denk dat het mogelijk is om delen van ACPI uit te schakelen. Dan kun je wel gewoon booten maar heb je niet de CPU load waar je last van hebt.

Ik kan het alleen even niet vinden... en ik moet zo weg. :P

Maar in /boot/device.hints kon je de delen van ACPI uitschakelen staat me bij, en daarbij nog de andere delen van ACPI ingeschakeld laten.

  • smekkos
  • Registratie: Februari 2013
  • Laatst online: 10-09 20:06
avdpeijl schreef op donderdag 20 augustus 2015 @ 10:52:
Heb gelijke ervaring met de hetzelfde Asrock.
Bij installatie van 10.0.001 (ZFSguru) is het probleem weer weg, maar dan mis ik weer een aantal services.

In alle gevallen heb ik met of zonder monitor aangesloten dezelfde hogere CPU.
Net gestart met 10.0.001. Hier inderdaad niet die hoge load.
Verwijderd schreef op donderdag 20 augustus 2015 @ 12:32:
Ik denk dat het mogelijk is om delen van ACPI uit te schakelen. Dan kun je wel gewoon booten maar heb je niet de CPU load waar je last van hebt.

Ik kan het alleen even niet vinden... en ik moet zo weg. :P

Maar in /boot/device.hints kon je de delen van ACPI uitschakelen staat me bij, en daarbij nog de andere delen van ACPI ingeschakeld laten.
van beide versies (10.0.001 & 10.2.002) kernel hints uitgelezen met kenv -h. Kernel hints zijn op beide systemen identiek. Zie onderstaande.

hint.acpi.0.oem="ALASKA"
hint.acpi.0.revision="2"
hint.acpi.0.rsdp="0x000f0490"
hint.acpi.0.rsdt="0xdd8ea028"
hint.acpi.0.xsdt="0x00000000dd8ea0a8"
hint.acpi.0.xsdt_length="36"
hint.acpi_throttle.0.disabled="1"
hint.atkbd.0.at="atkbdc"
hint.atkbd.0.irq="1"
hint.atkbdc.0.at="isa"
hint.atkbdc.0.port="0x060"
hint.atrtc.0.at="isa"
hint.atrtc.0.irq="8"
hint.atrtc.0.port="0x70"
hint.attimer.0.at="isa"
hint.attimer.0.irq="0"
hint.attimer.0.port="0x40"
hint.fd.0.at="fdc0"
hint.fd.0.drive="0"
hint.fd.1.at="fdc0"
hint.fd.1.drive="1"
hint.fdc.0.at="isa"
hint.fdc.0.drq="2"
hint.fdc.0.irq="6"
hint.fdc.0.port="0x3F0"
hint.p4tcc.0.disabled="1"
hint.ppc.0.at="isa"
hint.ppc.0.irq="7"
hint.psm.0.at="atkbdc"
hint.psm.0.irq="12"
hint.sc.0.at="isa"
hint.sc.0.flags="0x100"
hint.uart.0.at="isa"
hint.uart.0.flags="0x10"
hint.uart.0.irq="4"
hint.uart.0.port="0x3F8"
hint.uart.1.at="isa"
hint.uart.1.irq="3"
hint.uart.1.port="0x2F8"
hint.wbwd.0.at="isa"

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Iemand heeft de VMWare-ZFS all-in-one setup vergeleken met ZFS+bhyve:

https://b3n.org/vmware-vs-bhyve-performance-comparison/

Conclusie:
VMware is a very fine virtualization platform that’s been well tuned. All that overhead of VT-d, virtual 10gbe switches for the storage network, VM storage over NFS, etc. are not hurting it’s performance except perhaps on sequential reads.

For as young as bhyve is I’m happy with the performance compared to VMware, it appears to be a slower on the CPU intensive tests. I didn’t intend on comparing CPU performance so I haven’t done enough variety of tests to see what the difference is there but it appears VMware has an advantage.

Acties:
  • 0 Henk 'm!
Wat ik raar vind is dat de tester een file image heeft gemaakt en geen zvol. Ik ben namelijk wel nieuwsgierig of een zvol niet sneller is.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
Ik heb wat problemen met de laatste installatie van zfsguru. 10.2-002. Na de install (wat allemaal netjes gaat). reboot ik en geeft hij aan dat hij de root pool niet kan vinden. Ik had het al een aantal keer geprobeerd maar op de een of andere manier kan hij niet goed omgaan met die pool.

Als ik de cd boot weer gebruik dan start hij netjes op en kun je ook netjes de pool zien (of importeren als hij er niet is). Maar vanaf de hd booten is niet mogelijk.

Iemand een idee?

preciese error is:
Solaris: cannot find the pool label for 'zfsroot'
Mounting from zfs:zfsroot failed with error 5.

ondertussen heb ik ook zfs versie 28 of de pool uitgeprobeert. precies hetzelfde probleem

[ Voor 7% gewijzigd door justice strike op 22-08-2015 18:46 ]

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Probeert je systeem niet van de verkeerde schijven te starten?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
En kan het zijn dat die disk oudere bootcode heeft? :)

Kun je controleren zodra je weer geboot bent.

Verder: bedoel je 10.2-002 (de oude ZFSguru) of bedoel je de nieuwe builds (10.2.002). Dus zonder streepje - dat zijn de nieuwe builds voor ZFSguru 0.3. Kun je ook nog controleren.

Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
Verwijderd schreef op zaterdag 22 augustus 2015 @ 21:06:
En kan het zijn dat die disk oudere bootcode heeft? :)

Kun je controleren zodra je weer geboot bent.

Verder: bedoel je 10.2-002 (de oude ZFSguru) of bedoel je de nieuwe builds (10.2.002). Dus zonder streepje - dat zijn de nieuwe builds voor ZFSguru 0.3. Kun je ook nog controleren.
ik heb de laatste gedownload (10.2.002) en ook 10.3-002 (stable van de install gui)

bootcode had ik geupdate tijdens het installeren dus dat kan het niet zijn. De hyper-v virtual server heeft op het moment maar 1 schijf, dus het kan ook niet zijn dat hij van de verkeerde hd opstart.

Ik weet het op het moment ook niet echt wat het is. Ik zit redelijk vast hier.

Overigens werkt zfsguru netjes op een vm (andere vm doet het goed, maar moet migreren naar een nieuwe vm).


heb net 10.1 gedownload. Die werkt wel netjes op hyper-v. Is dus iets met de 10.2 installatie die niet lekker wil werken met hyper-v

//edit
10.1-002 doet het
11.0-002 doet het ook

versie 10.2.002 werkt niet met de foutmelding hierboven
versie 11.0.002 werkt niet, maar blijft hangen bij mounting local filesystem (andere fout dus)

kortom elke versie met zfsguru 0.3.0 werkt niet. begin bijna te denken dat er iets met het install script is.

enfin, naar bed nu voor mij

[ Voor 23% gewijzigd door justice strike op 23-08-2015 03:50 ]

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Kun je het zonder HyperV proberen, om dat uit te sluiten?

Want HyperV is pas sinds kort ondersteund; kan prima zijn dat hier de oorzaak zit. Ik weet niet helemaal of ZFSguru al succesvol gebruikt is onder dit product. Er zijn wel veel commits voor goede HyperV ondersteuning geweest in BSD. Maar dat heb ik nog niet in de praktijk bevestigd gekregen.

Dus dat is nog een punt. Verder zou je je disk nog eens opnieuw kunnen formatteren - heb je iets bijzonders gedaan? Was die disk al eens eerder gebruikt? Met opnieuw formatteren bedoel ik dat je alle partities verwijderd inclusief het partitieschema - die optie krijg je als alle partities weg zijn. Je kunt dan opnieuw een GPT partitieschema maken en dat kun je eens proberen.

Je kunt eventueel me ook een DM sturen - dan help ik je persoonlijk met het probleem. Geen succes verzekerd overigens. ;)

Acties:
  • 0 Henk 'm!
Kan toch gewoon hier? Dan kan de rest er misschien ook wat van leren..

Even niets...


Acties:
  • 0 Henk 'm!

  • inSane666
  • Registratie: Juli 2010
  • Laatst online: 22-06-2022
justice strike schreef op zondag 23 augustus 2015 @ 01:06:
[...]

versie 11.0.002 werkt niet, maar blijft hangen bij mounting local filesystem (andere fout dus)
11.0.002 doet hier ook moeilijk/hetzelfde, zelfs zonder HyperV.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@inSane666:
Ja je moet met een trucje booten; anders loop je tegen een spa_namespace_lock bug aan. Maar dat heeft verder weinig met ZFSguru zelf te maken.

@FireDrunk:
Niet iedereen vindt het fijn als hier regelmatig over ZFSguru wordt gepraat. Dus meestal dat ik aanbiedt via DM problemen op te lossen. Dan kan eventueel de oplossing hier wel gepost worden maar alle troubleshooting gaat dan via DM om dit topic (en diens lezers) te ontlasten.

[ Voor 7% gewijzigd door Verwijderd op 23-08-2015 12:39 ]


Acties:
  • 0 Henk 'm!
Tja... Start dan best een nieuw topic denk ik dan.

Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
Verwijderd schreef op zondag 23 augustus 2015 @ 12:29:
@inSane666:
Ja je moet met een trucje booten; anders kom je tegen een spa_namespace_lock bug aan. Maar dat heeft verder weinig met ZFSguru zelf te maken.

@FireDrunk:
Niet iedereen vindt het fijn als hier regelmatig over ZFSguru wordt gepraat. Dus meestal dat ik aanbiedt via DM problemen op te lossen. Dan kan eventueel de oplossing hier wel gepost worden maar alle troubleshooting gaat dan via DM om dit topic (en diens lezers) te ontlasten.
als dat een andere bug is dan betekent het dat 11.0.002 hier wel gewoon werlkt want hij stapt over de foutmelding die ik in 10.2.002 wel zie

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@HyperBart: Zodra ik 8 uur tijd heb om de startposts te schrijven, zal die er ook zeker komen. :)

Dat wordt dan de 3e poging; mijn eerdere twee pogingen zijn verloren gegaan door een Firefox-crash, en daarmee ook al het werk dat in een mooie topicstart had gestoken (voor het nieuwe ZFS topic).

@justice strike: welke systeemversies heb je nu geprobeerd icm HyperV? Kun je bevestigen dat het zonder HyperV wel werkt bij je?

Acties:
  • 0 Henk 'm!
@CiPHER, misschien eerst iets in Word doen? :+

(of een echte browser gebruiken :+)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Er bestaan geen browsers die fatsoenlijk werken en je toch privacy bieden. IE valt af, Chrome valt al helemaaaaaaaaaaaaaal af, Opera is knudde en Firefox is nog het minst kut van allemaal. Zoiets. :+

Acties:
  • 0 Henk 'm!
Chromium gebruiken :)

Of Midori?

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
versies die werken:

-alle versies met de oude gui (allemaal tot versie 0.2beta10 uitgetest) dit geld voor 10.1 en 11.0.

versies die niet werken:
-alle versies met de nieuwe 0.3 gui stable, release en experimental (10.2, 10.3 en 11.0) Volgens mij gebruiken ze allemaal de nieuwe bootcode (of ik moet mij vergissen).


hoe kan ik versie 0.3 installeren met oude bootcode van 0.2?

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 23 augustus 2015 @ 08:23:
Want HyperV is pas sinds kort ondersteund; kan prima zijn dat hier de oorzaak zit. Ik weet niet helemaal of ZFSguru al succesvol gebruikt is onder dit product. Er zijn wel veel commits voor goede HyperV ondersteuning geweest in BSD. Maar dat heb ik nog niet in de praktijk bevestigd gekregen.
Ik heb wel eens ZFSGuru onder Hyper-V gedraaid. Werkt prima.


HyperBart schreef op zondag 23 augustus 2015 @ 12:34:
Tja... Start dan best een nieuw topic denk ik dan.
^ dit. Of open, zoals ik al langer roep, een "het grote BSD topic".


justice strike schreef op zondag 23 augustus 2015 @ 12:50:
versies die werken:

-alle versies met de oude gui (allemaal tot versie 0.2beta10 uitgetest) dit geld voor 10.1 en 11.0.

versies die niet werken:
-alle versies met de nieuwe 0.3 gui stable, release en experimental (10.2, 10.3 en 11.0) Volgens mij gebruiken ze allemaal de nieuwe bootcode (of ik moet mij vergissen).


hoe kan ik versie 0.3 installeren met oude bootcode van 0.2?
De bootcode heeft niets te maken met de versie van de ZFSGuru-webinterface, maar met de pool-versie. 0.3 gebruikt dus niet per se een andere bootcode dan 0.2. Wel zou het kunnen dat er in 0.3 een bug in het install-script zit of iets dergelijks, maar dat weet ik verder niet.

[ Voor 55% gewijzigd door Compizfox op 23-08-2015 13:33 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat is niet waar Compizfox, want de bootcode wordt met de ZFSguru web-interface meegeleverd. De bootcode verschilt dus per ZFSguru versie. Zo heb je ook op oudere systeemversies zoals 10.0, nog de meest moderne bootcode.

Aangezien het mis gaat bij de eerste bootfase, is het uitgesloten dat er iets met het systeem en dus de installatieprocedure misgaat. Het is de bootcode die niet wilt booten van de disk. Dat kan komen door een combinatie van die bootcode met HyperV, want ik heb een ernstig vermoeden dat zonder HyperV het wel prima werkt.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 23 augustus 2015 @ 13:59:
Dat is niet waar Compizfox, want de bootcode wordt met de ZFSguru web-interface meegeleverd. De bootcode verschilt dus per ZFSguru versie. Zo heb je ook op oudere systeemversies zoals 10.0, nog de meest moderne bootcode.
Huh, de bootcode wordt meegeleverd met de webinterface? Ik dacht dat die gewoon meegeleverd werd met een bepaalde versie van FreeBSD. Ik ben bijvoorbeeld gewend om de bootcode op deze manier te installeren/upgraden:

code:
1
gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 da0


Dit is ook precies de code die een zpool upgrade geeft als voorbeeld. Die bootcode staat dus gewoon in /boot/gptzfsboot, snap niet direct wat dat met de webinterface te maken heeft.

[ Voor 7% gewijzigd door Compizfox op 23-08-2015 14:13 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ja en dan installeer je dus oudere bootcode van je systeem.

Maar dat is niet hoe ZFSguru het doet. Je kunt bij ZFSguru kiezen voor:
  • Update bootcode (van ZFSguru distributie)
  • Update bootcode from system
Dat laatste is wat jij bedoelt. Dat eerste is default en haalt de bootcode van de ZFSguru web-interface, niet van het systeem.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:49

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 23 augustus 2015 @ 14:13:
Ja en dan installeer je dus oudere bootcode van je systeem.
Dat is niet 'oudere' bootcode, dat is gewoon de bootcode die hoort bij jouw versie van FreeBSD.
Maar dat is niet hoe ZFSguru het doet. Je kunt bij ZFSguru kiezen voor:
  • Update bootcode (van ZFSguru distributie)
  • Update bootcode from system
Dat laatste is wat jij bedoelt. Dat eerste is default en haalt de bootcode van de ZFSguru web-interface, niet van het systeem.
Ok, dat wist ik niet. Vind het maar vreemd, maar dat terzijde ;)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Compizfox schreef op zondag 23 augustus 2015 @ 14:15:
[...]

Dat is niet 'oudere' bootcode, dat is gewoon de bootcode die hoort bij jouw versie van FreeBSD.
En dus is dat automatisch verouderde bootcode, omdat de nieuwste bootcode eerst een aantal maanden in 11-CURRENT zit. Dit is veelal de bootcode die ZFSguru gebruikt, zodat je deze code ook onder 10.0, 10.1, 10.2, 10.3 enzovoorts kunt gebruiken. Dit doet ZFSguru al jaren zo.

Acties:
  • 0 Henk 'm!

  • Tha_Butcha
  • Registratie: November 2000
  • Laatst online: 20-01 18:05
Al een paar jaar draai ik nas4free met ZFS (versie 5000) als VM op ESXi 5.1, waarbij ik de controller gewoon doorheb gegeven via VT-d en heb 8GB RAM gereserveerd voor de VM. Belangrijkste reden hiervoor was dat ZFS nog niet stable was op linux en bekendheid met pfsense en monowall.

Inmiddels is (voor zover ik begrijp) ZFS ook stable op Ubuntu en vervult nas4free niet meer mijn behoeftes (lastig als je custom dingen wilt doen en linux je standaard keuze-OS is).

Mijn vraag is nu: kan ik nu gewoon een nieuwe Ubuntu VM bouwen, de HBA loskoppelen van nas4free en die in de nieuwe Ubuntu VM pluggen en daarmee verder gaan?

Compromises are for the weak


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@Tha_Butcha: dat zou wel moeten kunnen ja. Ik neem aan dat je middels vt-d de hele controller aan je OS geeft. Als dat werkt, kan Linux ook je ZFS disks zien en kun je deze importeren. Probeer dan wel de GPT labels te importeren, anders krijg je van die smerige disk IDs waar andere platforms zo tuk op zijn. Maar dat maakt user error juist weer erg aannemelijk. Dus bij voorkeur importeren met de -d parameter naar de plek waar Linux de GPT labels bijhoudt.

Bedankt FireDrunk :)

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Tha_Butcha schreef op zondag 23 augustus 2015 @ 14:19:
Al een paar jaar draai ik nas4free met ZFS (versie 5000) als VM op ESXi 5.1, waarbij ik de controller gewoon doorheb gegeven via VT-d en heb 8GB RAM gereserveerd voor de VM. Belangrijkste reden hiervoor was dat ZFS nog niet stable was op linux en bekendheid met pfsense en monowall.

Inmiddels is (voor zover ik begrijp) ZFS ook stable op Ubuntu en vervult nas4free niet meer mijn behoeftes (lastig als je custom dingen wilt doen en linux je standaard keuze-OS is).

Mijn vraag is nu: kan ik nu gewoon een nieuwe Ubuntu VM bouwen, de HBA loskoppelen van nas4free en die in de nieuwe Ubuntu VM pluggen en daarmee verder gaan?
Dat zou in theorie gewoon moeten kunnen ja... iig,dat is het concept van vt-d.

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 10:15
Tha_Butcha schreef op zondag 23 augustus 2015 @ 14:19:
Al een paar jaar draai ik nas4free met ZFS (versie 5000) als VM op ESXi 5.1, waarbij ik de controller gewoon doorheb gegeven via VT-d en heb 8GB RAM gereserveerd voor de VM. Belangrijkste reden hiervoor was dat ZFS nog niet stable was op linux en bekendheid met pfsense en monowall.

Inmiddels is (voor zover ik begrijp) ZFS ook stable op Ubuntu en vervult nas4free niet meer mijn behoeftes (lastig als je custom dingen wilt doen en linux je standaard keuze-OS is).

Mijn vraag is nu: kan ik nu gewoon een nieuwe Ubuntu VM bouwen, de HBA loskoppelen van nas4free en die in de nieuwe Ubuntu VM pluggen en daarmee verder gaan?
Sterker nog, je kunt de HBA aan beide VM's geven, alleen de eerste VM zal dan starten, de tweede weigert. Ideaal in de periode dat je nog niet definitief omkunt; pool exporteren, ene machine uit, andere aan, zpool importeren en gaan.

Ik wil ook graag af van zfsguru, maar ik liep tegen issues aan met nfs, dus dat plan verdween in de ijskast, maar ESXi gaat daar voortreffelijk mee om.

Acties:
  • 0 Henk 'm!

  • Tha_Butcha
  • Registratie: November 2000
  • Laatst online: 20-01 18:05
Gelukt!

Gewoon een export gedaan op de nas4free machine, zfs op ubuntu geinstalleerd vervolgens de pool geimporteerd:

code:
1
sudo zpool import -d /dev POOLNAAM


moet nog wel de rechten van een paar directories recht trekken en een cronjob aanmaken voor de wekelijkse scrub, maar dat moet goed komen.

Compromises are for the weak


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Wat is de reden dat men hier aanraad om te importeren met "/dev/disk/by-partlabel/" ipv met "/dev/disk/by-id".
Ik vind de tweede veel prettiger. Dan kan ik direct zien welke disk er vervangen moet worden als ZFS over een schijf klaagt door op het stickertje op de harddisk het serienummer te vergelijken met de printout van zpool status.

Ik heb mijn 2de NAS PC nu goed draaiend met ZoL. Ik had wat hardware problemen met een kortgesloten pin in de socket. Dat is nu recht gezet en nu draait de machine perfect met 32GB ECC geheugen. Supermicro X10-SL7F met 1 SSD voor boot en 13x 4TB Seagate in een RAIDZ2 pool (44TB netto).

Plaatjes : http://etmriwi.home.xs4all.nl/pc/pc_fileserver.htm

De sata kabels zijn wat lang (50 - 57cm) terwijl 15-20cm genoeg zou zijn. Weet iemand of zulke korte sata kabels ook in de handel zijn? Ik heb nog niet korter dan 30cm kunnen vinden.

PC specs


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
riwi schreef op dinsdag 25 augustus 2015 @ 10:49:
Wat is de reden dat men hier aanraad om te importeren met "/dev/disk/by-partlabel/" ipv met "/dev/disk/by-id".
...
De sata kabels zijn wat lang (50 - 57cm) terwijl 15-20cm genoeg zou zijn. Weet iemand of zulke korte sata kabels ook in de handel zijn? Ik heb nog niet korter dan 30cm kunnen vinden.
Die zijn er wel, bijvoorbeeld hier (ik meen onder het merk 'Delock' in de handel)

[ Voor 4% gewijzigd door begintmeta op 25-08-2015 10:53 ]

Pagina: 1 ... 156 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.