8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Is het enige nadeel dat het niet bootable is? Eigenlijk kan je dit dus altijd aanzetten op je data pool?Verwijderd schreef op vrijdag 14 augustus 2015 @ 22:47:
Klopt, mits je ook ashift=12 gebruikt tenminste. Maar behalve dat overhead veel minder een probleem wordt, kan ook de performance flink gaan stijgen.
Neem nou 10 disks in RAID-Z2. 8 data disks dus 128/8 = 16K per disk. Dat betekent dat je schijven blokjes van 16K te verwerken krijgen. Voor SSDs betekent dit bijna een verzadiging maar bij hardeschijven is dat pas vanaf 64K.
Met large_blocks = 1MiB doen je disks 128K per stuk en dat is het allerbeste. Dus dat betekent ook dat je meer performance uit je mechanische disks haalt. Zeker voor nieuwere type disks (SMR, HAMR) zou dit nog veel meer winst kunnen opleveren.
Het enige nadeel is dat large_blocks niet bootable is. ZFSguru 0.3 heeft large_blocks bij het aanmaken van de pool prominent aangegeven, dus het krijgt daar de aandacht die het verdient. Inderdaad goed dat je met een post hier nog eens op wijst.
Is er eigenlijk ergens een beschrijving van de zpool features, met de voor- en nadelen?
[ Voor 3% gewijzigd door yamahabest op 15-08-2015 10:01 ]
https://www.freebsd.org/c...npath=FreeBSD+10.1-stable
[ Voor 59% gewijzigd door CurlyMo op 15-08-2015 10:23 ]
Sinds de 2 dagen regel reageer ik hier niet meer
En één of andere autist dacht dat het handig was dat alle features gelijk automatisch enabled worden als je een pool aanmaakt. Hierdoor komen veel mensen achteraf pas achter dat hun pool eigenlijk incompatible is met andere platforms omdat zij hun pool met de meest recente features hebben aangemaakt. Terwijl ze die features helemaal niet nodig hebben.
En zo gaat het bijna altijd. Programmeurs hebben veelal een autistisch component waardoor zij zich moeilijk kunnen verplaatsen in de beleving van hun eindgebruiker. Vandaar dat bedrijven tegenwoordig veelal 'Usability experts' inzetten om hun programmeurs in goede banen te leiden. Goed kunnen programmeren betekent nog niet goed kunnen ontwerpen. Daarvoor zijn weer andere kwaliteiten nodig en die vind je maar zelden bij de echte techneuten.
ZFSguru maakt tegenwoordig v5000 pools aan met slechts drie features die elke v5000 implementatie heeft, waaronder LZ4-compressie. De overige features moet je handmatig activeren. Zo had het natuurlijk standaard gemoeten op alle platforms, en niet standaard alles enablen wat het systeem maar ondersteunt. ZFS onderscheidt zich van andere 3e generatie filesystems (Btrfs, ReFS, HammerFS) in dat het multi-platform is. Maar dat voordeel wordt gemarginaliseerd als alle features standaard worden ingeschakeld. Gemiste kans...
Een FS is simpelweg geen speelgoed. Dat zie je al vaak genoeg mis gaan bij de reguliere eindgebruiker die weer eens zijn bestanden is kwijtgeraakt.
Op dit punt hebben we in het verleden als eens een uitgebreide discussie gehadEn zo gaat het bijna altijd. [Verhaal ...]
[ Voor 11% gewijzigd door CurlyMo op 15-08-2015 23:42 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Maar wat je zegt over eigen verantwoordelijkheid kan dan wel zo zijn, de software moet ook gewoon goed ontworpen zijn. De ZFS features zijn juist bedoeld om compatibiliteit te waarborgen in een tijdperk waarbij verschillende platforms niet allemaal dezelfde features ondersteunen. Het was in lijn met die strategie gewoon heel logisch geweest als de gebruiker handmatig features moet enablen in plaats van dat gelijk alles BAF op enabled wordt gegooid. Dat is nergens voor nodig.
Nog iets op dit vlak: zodra features ingeschakeld zijn (enabled) kun je ze niet meer uitschakelen. Dat is ook heel vreemd, want enabled betekent dat de feature wel is ingeschakeld, maar dat er nog geen on-disk wijzigingen zijn gemaakt die de pool incompatible maken. Dus waarom zou dat niet kunnen dan? Pas als de feature 'Active' is, is er geen weg meer terug. Toch zaken die ik erg jammer vind van ZFS. Daar had beter over nagedacht kunnen worden. Wellicht met andere mensen die meer in de usability hoek zitten dan de echte coders die natuurlijk uitstekend werk leveren maar niet op alle gebieden even kundig zijn.
Dat is niet helemaal waar. Sommige active features kunnen ook weer gewoon enabled worden. Een voorbeeld is bookmarks. Als je alle bookmarks verwijderd dan veranderd ook active weer in enabled.Verwijderd schreef op zondag 16 augustus 2015 @ 00:11:
Nog iets op dit vlak: zodra features ingeschakeld zijn (enabled) kun je ze niet meer uitschakelen. Dat is ook heel vreemd, want enabled betekent dat de feature wel is ingeschakeld, maar dat er nog geen on-disk wijzigingen zijn gemaakt die de pool incompatible maken. Dus waarom zou dat niet kunnen dan? Pas als de feature 'Active' is, is er geen weg meer terug.
Misschien is het goed om dit eens bij Illumos na te vragen?Toch zaken die ik erg jammer vind van ZFS. Daar had beter over nagedacht kunnen worden. Wellicht met andere mensen die meer in de usability hoek zitten dan de echte coders die natuurlijk uitstekend werk leveren maar niet op alle gebieden even kundig zijn.
Sinds de 2 dagen regel reageer ik hier niet meer
1
2
3
4
| . disabled This feature's on-disk format changes have not been made and will not be made unless an administrator moves the feature to the enabled state. Features cannot be disabled once they have been enabled. |
Ik begrijp niet precies wat je bedoelt met navragen? En IllumOS is maar één van de spelers. Het is de OpenZFS working group die het hele ZFS features plan heeft opgesteld. Daar hadden dan ook mensen van andere disciplines in kunnen zitten om tot een beter resultaat te komen.
Nou nou..Verwijderd schreef op zaterdag 15 augustus 2015 @ 10:41:
En één of andere autist dacht dat het handig was dat alle features gelijk automatisch enabled worden als je een pool aanmaakt. Hierdoor komen veel mensen achteraf pas achter dat hun pool eigenlijk incompatible is met andere platforms omdat zij hun pool met de meest recente features hebben aangemaakt. Terwijl ze die features helemaal niet nodig hebben.

Ik vind het eigenlijk niet zo heel vreemd dat features die aanwezig zijn, standaard worden ingeschakeld. Voor we ZFS v5000 hadden had je toch ook ongeveer dezelfde situatie met normale versies van ZFS? By default werd toen toch ook gewoon de laatste versie gebruikt als je een pool aanmaakte, ook al liepen sommige platformen (ZoL?) achter?
Nou, dit is in feite hetzelfde. Het is mijns inziens niet de taak van FreeBSD om een bepaalde feature die zij ondersteunen by default uit te schakelen omdat bijvoorbeeld ZoL het nog niet heeft. En zodra alle platformen het wel hebben moet het zeker wel by default aanstaan? Aangezien de ontwikkeling van verschillende platformen niet synchroon loopt, wordt dat allemaal veel te complex om bij te houden.
Hier ben ik het wel met je eens, dat is nogal vreemd inderdaad.Nog iets op dit vlak: zodra features ingeschakeld zijn (enabled) kun je ze niet meer uitschakelen. Dat is ook heel vreemd, want enabled betekent dat de feature wel is ingeschakeld, maar dat er nog geen on-disk wijzigingen zijn gemaakt die de pool incompatible maken. Dus waarom zou dat niet kunnen dan? Pas als de feature 'Active' is, is er geen weg meer terug. Toch zaken die ik erg jammer vind van ZFS. Daar had beter over nagedacht kunnen worden. Wellicht met andere mensen die meer in de usability hoek zitten dan de echte coders die natuurlijk uitstekend werk leveren maar niet op alle gebieden even kundig zijn.
[ Voor 22% gewijzigd door Compizfox op 16-08-2015 00:50 ]
Gewoon een heel grote verzameling snoertjes
Waarom dan? Wat moet een casual gebruiker met 'multi_vdev_crash_dump' en 'filesystem_limits' waardoor de pool niet meer onder Linux te gebruiken is? Dat is toch gewoon onwenselijk?Compizfox schreef op zondag 16 augustus 2015 @ 00:48:
Ik vind het eigenlijk niet zo heel vreemd dat features die aanwezig zijn, standaard worden ingeschakeld.
Het maakt ZFS ook minder vriendelijk voor beginnende gebruikers. Iets wat ik bijzonder jammer vind, want ik wil juist dat technologie als ZFS ook toegankelijk wordt voor een breder publiek. Ook de data van casual gebruikers is het waard om te beschermen. Dus hoop ik juist dat deze technologie zo toegankelijk mogelijk is voor deze groep gebruikers. En niet dat je een programmeur of techneut moet zijn om ZFS te kunnen gebruiken. Met frontends als FreeNAS/NAS4Free/ZFSguru zou dat ook niet hoeven. Met name de laatste is bijzonder toegankelijk voor gebruikers van het type dat goed met Synology overweg kan.
Ik vind het gewoon jammer, het had niet gehoeven zo. En het heeft ook geen voordeel om het zo te doen. Want features worden automatisch enabled als je ze gebruikt. Schakel je lz4 compressie in, dan wordt automatisch de LZ4 feature flags enabled en actief. Stel je een recordsize hoger dan 128K in, dan wordt automatisch large_blocks feature enabled. Dat is hoe het zou moeten. Je begint met een kale v5000 pool en de features die je wilt worden ingeschakeld, terwijl de rest lekker uit blijft.
Enig uitzondering zou kunnen zijn de features die altijd wel leuk zijn om te hebben, zoals embedded_data die hele kleine files veel efficiënter kan opslaan.
Mee eens, dat is wel zo. Maar dat betekent niet dat het met v5000 niet anders/beter had gekund. Niet voor niets is er de OpenZFS working group waar een groep experts uit diverse projecten samen is gekomen. Hadden die niet op dit punt net een andere afweging kunnen maken?Voor we ZFS v5000 hadden had je toch ook ongeveer dezelfde situatie met normale versies van ZFS? By default werd toen toch ook gewoon de laatste versie gebruikt als je een pool aanmaakte, ook al liepen sommige platformen (ZoL?) achter? Nou, dit is in feite hetzelfde.
Zoals ik al zei, één van de grote voordelen van ZFS is dat het multi-platform is. Maar door deze keuze wordt dat voordeel wel gemarginaliseerd.
Aha, dat maakt het verhaal wel anders. Ik wist niet dat feature flags automatisch ingeschakeld worden als je ze gaat gebruiken. Nee, dan snap ik wel beter wat je bedoeltIk vind het gewoon jammer, het had niet gehoeven zo. En het heeft ook geen voordeel om het zo te doen. Want features worden automatisch enabled als je ze gebruikt. Schakel je lz4 compressie in, dan wordt automatisch de LZ4 feature flags enabled en actief. Stel je een recordsize hoger dan 128K in, dan wordt automatisch large_blocks feature enabled. Dat is hoe het zou moeten. Je begint met een kale v5000 pool en de features die je wilt worden ingeschakeld, terwijl de rest lekker uit blijft.
BTW, heb net mijn FreeBSD-bak geupgraded naar 10.2-RELEASE. Ik hoefde helemaal niets te mergen!
En dat was nog zonder de suggestie van matty___ (waarvan ik me overigens afvraag of het wel wat doet, aangezien de schrijver van de mailinglist-post die hij linkt juist zijn frustratie uit over waarom het niet op die manier kan)
Ik vermoed dus toch dat het aan ZFSGuru ligt dat je handmatig files moet mergen, ook al heb je die niet bewerkt. Of het ligt aan freebsd-update zelf natuurlijk. Binnenkort ga ik een ander systeem, dat ZFSGuru draait, van 10.1-RC1 naar 10.2-RELEASE helpen, dus dan gaan we het zien.
[ Voor 32% gewijzigd door Compizfox op 16-08-2015 01:04 ]
Gewoon een heel grote verzameling snoertjes
Overigens zijn de nieuwe ZFSguru releases nu officieel uit, dus ook de nieuwe 10.2-RELEASE.
Zou best kunnen.Verwijderd schreef op zondag 16 augustus 2015 @ 01:12:
Ik ken freebsd-update niet zo goed. Maar het zou zeker kunnen dat het alleen lekker werkt vanaf releases dus van 10.1 naar 10.2. ZFSguru werkt veel met -STABLE en ik kan me voorstellen dat freebsd-update dan opeens handmatige configuratie (mergemaster) vereist.
Het probleem is overigens ook dat je met freebsd-update juist geen mergemaster kunt gebruiken. Met mergemaster kun je simpelweg aangeven/instellen dat je de nieuwe versie wilt accepten, bijvoorbeeld. Het is juist vervelend dat je met freebsd-update handmatig moet mergen; dat wil zeggen je krijg een text-editor voor je met per hunk tussen <<<<< en >>>>>> gedemarqueerd de oude en nieuwe versie. Dat mag je dan per file gaan lopen wegediten zodat het weer klopt. En als je ergens een foutje maakt, kun je niet meer terug: je moet dan weer helemaal bij file #1 beginnen.

Daar komt nog eens bovenop dat ik bij de vorige 2x dat ik een upgrade deed, enkel en alleen config files mocht gaan lopen mergen die ik niet eens had aangepast. Alleen de comment bovenaan de file, waarin het versienummer van FreeBSD stond, was veranderd.
Maar goed, daar had ik deze keer gelukkig allemaal geen last van. Ik had geen config files aangepast dus freebsd-update heeft die gewoon netjes automatisch overschreven zonder mij ermee lastig te vallen.
[ Voor 14% gewijzigd door Compizfox op 16-08-2015 01:20 ]
Gewoon een heel grote verzameling snoertjes
Ik kan niet op een server die:Verwijderd schreef op zondag 16 augustus 2015 @ 01:12:
Overigens zijn de nieuwe ZFSguru releases nu officieel uit, dus ook de nieuwe 10.2-RELEASE.
10.1-001 featuring FreeBSD 10.0-STABLE with ZFS v5000 draait naar 10.2 toe via system - install - root on zfs
Moet ik eerst naar 10.1-002 en kan ik dan pas naar 10.2 toe, of moet het via live-cd of usb handmatig ?
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Even ZFS offtopic, maar hoe reageer je dan op security updates als je geen freebsd-update gebruikt?Verwijderd schreef op zondag 16 augustus 2015 @ 01:12:
Ik ken freebsd-update niet zo goed. Maar het zou zeker kunnen dat het alleen lekker werkt vanaf releases dus van 10.1 naar 10.2. ZFSguru werkt veel met -STABLE en ik kan me voorstellen dat freebsd-update dan opeens handmatige configuratie (mergemaster) vereist.
Overigens zijn de nieuwe ZFSguru releases nu officieel uit, dus ook de nieuwe 10.2-RELEASE.
Ik ben bezig om een SuperMicro server te installeren, 24 bays, nu voor een eerste setup 12 bays in gebruik.
Ik wil nu GPT labels aan de disk gaan hangen, en die ook fysiek labelen (of de labels logisch kiezen zodat het zonder fysiek label kan) zodat ik in geval van problemen de juiste disk weet te vinden.
Hoe verifieer ik welke disk-id ("adax") in welke bay zit?
Daarnaast ga ik 2 SSD-tjes als installatiedisks voor het OS (mirro) en 2 SSD's als SLOG (mirror) en L2ARC (stripe) gebruiken, is het verstandig om die ook fysiek te labelen? Dit zodat je ook daar snel degene met problemen kan vinden? Zo ja, hoe vind je daar welke welke is?
En label ze meteen...
Kan je ze niet beter op serienummer labelen, en een Dymo gebruiken om de serienummers op de bays te plakken?
Even niets...
ZFSGuru 'updates' zijn eigenlijk verkapte reinstalls. Je kunt dus altijd van en naar elke versie toe. Wat lukt er precies niet?jacovn schreef op zondag 16 augustus 2015 @ 07:38:
[...]
Ik kan niet op een server die:
10.1-001 featuring FreeBSD 10.0-STABLE with ZFS v5000 draait naar 10.2 toe via system - install - root on zfs
Moet ik eerst naar 10.1-002 en kan ik dan pas naar 10.2 toe, of moet het via live-cd of usb handmatig ?
Zoals FireDrunk al opmerkt, is het het makkelijkst om dat op serienummer te doen. Het serienummer staat sowieso ergens op de schijf genoteerd, als je geluk hebt staat het op een 'handige' plaats (waar je het kunt lezen zonder de schijf eruit te hoeven halen). Dit serienummer kun je ook softwarematig uitlezen.yamahabest schreef op zondag 16 augustus 2015 @ 15:32:
Ik wil nu GPT labels aan de disk gaan hangen, en die ook fysiek labelen (of de labels logisch kiezen zodat het zonder fysiek label kan) zodat ik in geval van problemen de juiste disk weet te vinden.
Hoe verifieer ik welke disk-id ("adax") in welke bay zit?
Daarnaast ga ik 2 SSD-tjes als installatiedisks voor het OS (mirro) en 2 SSD's als SLOG (mirror) en L2ARC (stripe) gebruiken, is het verstandig om die ook fysiek te labelen? Dit zodat je ook daar snel degene met problemen kan vinden? Zo ja, hoe vind je daar welke welke is?
Als je dus een probleem met een schijf hebt, lees je softwarematig uit welk serienummer die heeft. Dan zoek je tussen de fysieke schijven die met dat serienummer.
[ Voor 53% gewijzigd door Compizfox op 16-08-2015 16:36 ]
Gewoon een heel grote verzameling snoertjes
@yamahabest: als je chassis activity LEDs heeft voor elke disk kun je ook een DD commando gebruiken om bijvoorbeeld 1GB van de disk te lezen. Dan kun je zien welk lampje aangaat en zo kun je je disk label koppelen aan een fysieke disk. Anders inderdaad wat FireDrunk zegt, alleen kost dat meer tijd voor 12 of 24 disks.
ZFSguru is een appliance. Kenmerkend daaraan is dat je niet eindeloos mee loopt te rommelen, maar dat het ding gewoon altijd moet werken. Handmatig upgraden waarbij van alles mis kan gaan, is niet wat Jason wilde met zijn project.B2 schreef op zondag 16 augustus 2015 @ 09:59:
hoe reageer je dan op security updates als je geen freebsd-update gebruikt?
Dus is een andere strategie gekozen. Je upgrade nooit in de klassieke zin van het woord. Je doet altijd een nieuwe schone installatie, zodat de kans op problemen veel minder groot wordt. Om niet elke keer opnieuw alles te moeten instellen, is (op papier) de Migration Manager bedacht. Deze maakt een pakketje van al je configuratie - een migration pack - die je vervolgens gebruikt voor je nieuwe installatie. Je kunt zelf de inhoud samenstellen als je bijzondere wensen hebt, zoals je home directory of andere configuration files. En de configuratie van de services zou automatisch meegenomen moeten worden.
Zo heb je dus altijd een nieuwe verse installatie, maar wel met je eigen configuratiebestanden, en toch supermakkelijk met een paar muisklikjes. Bovendien kun je zo'n migration pack ook als bestandje op je desktop bewaren voor als je ZFSguru machine crasht. Eventjes LiveCD of USB stick inpluggen en installeren met de migpack et voila - je hebt weer een werkende appliance!
In plaats van rommel van je oude installatie meenemen begin je dus altijd met een schone lei, maar neem je alleen mee wat nodig is. Dus eigenlijk omgekeerd aan een klassieke upgrade waarbij je alles meeneemt en alleen belangrijke configuratiebestanden van het OS overschrijft met nieuwe versies. Maar daarbij kan vanalles misgaan en dit is niet wat Jason wilde. Ik vind de manier van ZFSguru zeker wel interessant. Enig probleem: de Migration Manager komt pas in de volgende versie, 0.4.
Ik draai vanilla FreeBSD met de manual webinterface install. Ik neem aan dat ik dat wel gewoon kan upgraden van 0.2 naar 0.3 door de nieuwe tar uit te pakken naar m'n docroot?Verwijderd schreef op zondag 16 augustus 2015 @ 16:38:
@jacovn: je kunt niet updaten van 0.2 naar 0.3. Je dient 0.3 schoon te installeren. Lees de Release Notes en vooral de 'MUST READ' van Jason: http://zfsguru.com/forum/zfsgurudevelopment/988
Gewoon een heel grote verzameling snoertjes
Eén belangrijk ding: de nieuwe web-interface heeft user-account 888 nodig. 'zfsguru-web' moet die heten. Dus niet meer de 'www' user. Je dient ook sudo aan te passen om de nieuwe gebruiker rechten te geven, en 'www' moet je juist weer weghalen bij sudo.
Bedoel zit tenslotte te kijken naar die 8 TB Seagates voor de volgende pool aangezien performance best wel ok is met ZFS en de bestanden buiten thumbs en de xml allemaal 200MB plus zijn.
Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9
Het moet een macht van 2 zijn, dus 192K kan niet; je moet dus elke keer verdubbelen.
Hoe groter je recordsize, des te minder de gemiddelde 'slack' oftewel de verspilde ruimte op pools met RAID-Z1/2/3 vdevs.
Ik raad sterk af dat je SMR-schijven neemt, en de pricewatch: Seagate Archive HDD v2 ST8000AS0002, 8TB is zo'n schijf. Nog best duur ook - SMR schijven zouden echt flink goedkoper mogen zijn dan PMR, maar dat is niet zo. Dus ik raad je met klem aan om in plaats van deze SMR-schijven voor de beste PMR-schijven te gaan. Dan kom je uit op deze: pricewatch: WD Green WD60EZRX - de beste schijf ooit in mijn bezit.
FireDrunk schreef op zondag 16 augustus 2015 @ 16:13:
Boot zonder schijven. Prik ze 1 voor 1 live in (het is toch hotswap).
En label ze meteen...
Kan je ze niet beter op serienummer labelen, en een Dymo gebruiken om de serienummers op de bays te plakken?
Compizfox schreef op zondag 16 augustus 2015 @ 16:32:
Zoals FireDrunk al opmerkt, is het het makkelijkst om dat op serienummer te doen. Het serienummer staat sowieso ergens op de schijf genoteerd, als je geluk hebt staat het op een 'handige' plaats (waar je het kunt lezen zonder de schijf eruit te hoeven halen). Dit serienummer kun je ook softwarematig uitlezen.
Als je dus een probleem met een schijf hebt, lees je softwarematig uit welk serienummer die heeft. Dan zoek je tussen de fysieke schijven die met dat serienummer.
Bedankt voor de antwoorden, dit lijkt me inderdaad prima voor de HDDs in de bays.Verwijderd schreef op zondag 16 augustus 2015 @ 16:38:
@yamahabest: als je chassis activity LEDs heeft voor elke disk kun je ook een DD commando gebruiken om bijvoorbeeld 1GB van de disk te lezen. Dan kun je zien welk lampje aangaat en zo kun je je disk label koppelen aan een fysieke disk. Anders inderdaad wat FireDrunk zegt, alleen kost dat meer tijd voor 12 of 24 disks.
Voor wat betreft de SSD's, hebben jullie daar ook nog een idee voor? Die zitten namelijk niet in een hotswap bay.
Zal het binnenkort even proberen.Verwijderd schreef op zondag 16 augustus 2015 @ 16:46:
Wellicht, maar je bent een testpiloot want niemand heeft dit nog gedaan met 0.3. Je kunt de 0.3 tarball los downloaden op de Download-pagina. Laat me weten of het lukt?
Eén belangrijk ding: de nieuwe web-interface heeft user-account 888 nodig. 'zfsguru-web' moet die heten. Dus niet meer de 'www' user. Je dient ook sudo aan te passen om de nieuwe gebruiker rechten te geven, en 'www' moet je juist weer weghalen bij sudo.
Ook gewoon via serienummers? Ik weet niet hoe je je SSDs hebt gemonteerd, maar als ze ergens los liggen is het des te makkelijker om even het serienummer te checken.yamahabest schreef op zondag 16 augustus 2015 @ 16:53:
[...]
Bedankt voor de antwoorden, dit lijkt me inderdaad prima voor de HDDs in de bays.
Voor wat betreft de SSD's, hebben jullie daar ook nog een idee voor? Die zitten namelijk niet in een hotswap bay.
[ Voor 37% gewijzigd door Compizfox op 16-08-2015 16:59 ]
Gewoon een heel grote verzameling snoertjes
Via "camcontrol identify adax", denk ik dan?
Ok gedaan en gedownload. Ik ga het wel op mijn nieuwste server installeren en uitproberen, daar staat nog geen data op die ik bewaren moet..Verwijderd schreef op zondag 16 augustus 2015 @ 16:38:
@jacovn: je kunt niet updaten van 0.2 naar 0.3. Je dient 0.3 schoon te installeren. Lees de Release Notes en vooral de 'MUST READ' van Jason: http://zfsguru.com/forum/zfsgurudevelopment
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Met alle ZFS oplossingen is de CIFS / Samba write performance tegenvallend. Idee is dat ik via een 10Gb netwerk via 2x Intel X540-T2 meer dan 100MB/s verwacht. Qua lezen kom ik tot 300-400MB/s onder FreeNAS 9.3 maar in ZFSGuru blijf ik op daar ook op zo'n 100MB/s. Zou eigenlijk hopen dat ik richting de 800MB/s zou halen.
CPU load E52603v3 zit bij kopiëren rond de 20% en geheugengebruik rond de 10%. Systeem bevat 64GB ram en 12 Seagate Desktop HDD ST4000DM000, 4TB disks in een raidz2 opstelling en ik doe de tests met en zonder SSD l2arc en zil.
Er zijn nog wel wat zaken die ik moet uitsluiten o.a. dat de Windows machine de bottleneck is maar ook dat FreeBSD misschien op een of andere manier naar de 1Gbit poort kijkt die ik eigenlijk alleen voor IPMI gebruik.
Zijn er hier gebruikers die met 10Gb wel meer dan 1Gb snelheden haalt en zo ja heb je daar nog specifieke dingen voor moeten aanpassen?
Of verwacht ik te veel performance met 12 disks?
Je probleem kan aan drie dingen liggen:BartNL schreef op zondag 16 augustus 2015 @ 20:40:
Zijn er hier gebruikers die met 10Gb wel meer dan 1Gb snelheden haalt en zo ja heb je daar nog specifieke dingen voor moeten aanpassen?
Of verwacht ik te veel performance met 12 disks?
- aan de throughput van de pool
- aan het file transfer protocol (SMB)
- aan de netwerkverbinding
Als die beide dingen gewoon de gewenste performance hebben, kun je die uitsluiten. Dat betekent dat het dan wel aan SMB moet liggen.
Gewoon een heel grote verzameling snoertjes
- Pool performance (dd naar een file op de ZFS pool, kan via de ZFSguru interface op Pools->Benchmark)
- Network performance (iperf)
- Applicatie performance (Samba/NFS/AppleShare/iSCSI)
1
2
3
4
5
6
| ZFSguru 0.3.0 (10.2.002) pool benchmark Pool : p1raidz2 (43.5T, 1% full) Test size : 256 GiB normal read : 2 GB/s normal write : 2 GB/s I/O bandwidth : 15 GB/s |
dit lijkt mij wat optimistisch?
iperf moet ik aan de zfsguru kant nog even uitvogelen
als je kennis hebt van de commandline :
freebsd-update fetch
freebsd-update install
En nu voor de nieuwelingen die unix gebruiken? Ik kan me niet voorstellen dat een gebruiker van Ubuntu (bijvoorbeeld) in een commandline moet gaan gebruiken om zijn systeem geupdate te houden. Of zijn de unix gebruikers allemaal "powerusers" waardoor dat soort tools niet bestaan? Bij windows 10 home (jaja vloeken hier ;-) ) worden de updates nu afgedwongen, daarvoor hebben we "Windows update", bestaat zoiets bij unix omgevingen niet?duiveltje666 schreef op zondag 16 augustus 2015 @ 22:02:
[...]
als je kennis hebt van de commandline :
freebsd-update fetch
freebsd-update install
Ikzelf durf de commandline wel te gebruiken maar ik breek waarschijnlijk iets eerder dan dat ik iets fix
gewoon de aanwijzingen volgen ..EnerQi schreef op zondag 16 augustus 2015 @ 22:51:
[...]
En nu voor de nieuwelingen die unix gebruiken? Ik kan me niet voorstellen dat een gebruiker van Ubuntu (bijvoorbeeld) in een commandline moet gaan gebruiken om zijn systeem geupdate te houden. Of zijn de unix gebruikers allemaal "powerusers" waardoor dat soort tools niet bestaan? Bij windows 10 home (jaja vloeken hier ;-) ) worden de updates nu afgedwongen, daarvoor hebben we "Windows update", bestaat zoiets bij unix omgevingen niet?
Ikzelf durf de commandline wel te gebruiken maar ik breek waarschijnlijk iets eerder dan dat ik iets fix
dat fetch downloadt de updates en laat zien wat er updated gaat worden.
met install wordt het er overheen geramd , enkel rebooten is voldoende ( ipv een nieuwe image downloaden)
Niet per se. In bijvoorbeeld Ubuntu zijn er GUI-frontends voor.EnerQi schreef op zondag 16 augustus 2015 @ 22:51:
[...]
En nu voor de nieuwelingen die unix gebruiken? Ik kan me niet voorstellen dat een gebruiker van Ubuntu (bijvoorbeeld) in een commandline moet gaan gebruiken om zijn systeem geupdate te houden.
Jawel, die tools bestaan zeker, maar worden door geavanceerdere gebruikers nauwelijks gebruikt omdat de command line simpelweg sneller en simpeler is.Of zijn de unix gebruikers allemaal "powerusers" waardoor dat soort tools niet bestaan?
Bekijk het zo: die twee commando's doen exact hetzelfde als een GUI-tool voor jou zou doen. De CLI is niet engIkzelf durf de commandline wel te gebruiken maar ik breek waarschijnlijk iets eerder dan dat ik iets fix
Gewoon een heel grote verzameling snoertjes
krijg er met iperf niet meer dan 1.04 Gbits/sec door dus netwerk lijkt het probleem en dat heeft op zich niets met ZFS te makenVerwijderd schreef op zondag 16 augustus 2015 @ 21:07:
@BartNL: iperf is al voorgeïnstalleerd onder ZFSguru. Dus gewoon de server starten met 'iperf -s' of 'iperf -s -w 128k' bijvoorbeeld.
Wel één ding: kan het zijn dat er een extreem lage TCP Window Size wordt gebruikt? 128K ofzoiets is normaal. Maar bij Windows wordt soms een heel lage waarde gekozen zoals 8K. Dan haal je zeker niet alle potentie uit je lijn. Ik heb geen idee hoe dit komt. In het verleden wel iets gevonden van regtweaks voor Windows waardoor in combinatie met Windows gewoon 128K wordt. Maar dat is lang geleden, zal ook wel afhangen van de Windows versie en misschien vele andere factoren zoals netwerkdrivers en/of instellingen en misschien wel auto-tuning.
Met 'iperf -s -w 128k' kun je dit testen, omdat je dan de TCP Window Size forceert op 128KiB. En dat is een normale grootte voor gigabit+. Voor 10G heb je misschien zelfs hoger nodig. Misschien heb je meer aan wat feedback van netwerkexperts in het Netwerken forum.
Ik ben bekend met dat probleem ja. Volgens mij ligt dat echter meer aan de standaard TCP Window Size die in iperf is gecompileerd en niet aan Windows zelf.Verwijderd schreef op zondag 16 augustus 2015 @ 23:36:
Nou fijn, want dan weet je waar je moet zoeken.
Wel één ding: kan het zijn dat er een extreem lage TCP Window Size wordt gebruikt? 128K ofzoiets is normaal. Maar bij Windows wordt soms een heel lage waarde gekozen zoals 8K. Dan haal je zeker niet alle potentie uit je lijn. Ik heb geen idee hoe dit komt. In het verleden wel iets gevonden van regtweaks voor Windows waardoor in combinatie met Windows gewoon 128K wordt. Maar dat is lang geleden, zal ook wel afhangen van de Windows versie en misschien vele andere factoren zoals netwerkdrivers en/of instellingen en misschien wel auto-tuning.
Met 'iperf -s -w 128k' kun je dit testen, omdat je dan de TCP Window Size forceert op 128KiB. En dat is een normale grootte voor gigabit+. Voor 10G heb je misschien zelfs hoger nodig. Misschien heb je meer aan wat feedback van netwerkexperts in het Netwerken forum.
Gewoon een heel grote verzameling snoertjes
Lezen blijft bij mij ook ver achter op schrijven naar zfsguru servers..BartNL schreef op zondag 16 augustus 2015 @ 20:40:
Zijn er hier gebruikers die met 10Gb wel meer dan 1Gb snelheden haalt en zo ja heb je daar nog specifieke dingen voor moeten aanpassen?
Of verwacht ik te veel performance met 12 disks?
Ik heb het sneller gekregen op windows 7 door:
Controle van settings met:
netsh interface tcp show global
Dan 2 parameters aanpassen:
netsh int tcp set global autotuninglevel=normal
netsh interface tcp set heuristics disabled
Gevonden op het web in diverse threads...
http://www.msfn.org/board...e-does-not-work-in-vista/
https://www.duckware.com/...ownload-speeds/index.html
deze heeft wat meer uitleg:
http://www.speedguide.net...-7-vista-2008-tweaks-2574
[ Voor 11% gewijzigd door jacovn op 17-08-2015 09:36 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik lees over 15 karakters, en 36 karakters.
[ Voor 34% gewijzigd door yamahabest op 17-08-2015 15:07 ]
Betekent dit ook dat ik Lighttpd onder die user moet draaien?Verwijderd schreef op zondag 16 augustus 2015 @ 16:46:
Eén belangrijk ding: de nieuwe web-interface heeft user-account 888 nodig. 'zfsguru-web' moet die heten. Dus niet meer de 'www' user. Je dient ook sudo aan te passen om de nieuwe gebruiker rechten te geven, en 'www' moet je juist weer weghalen bij sudo.
Gewoon een heel grote verzameling snoertjes
OK, het draait. Er gaat wel iets mis met de sessies:Verwijderd schreef op maandag 17 augustus 2015 @ 16:32:
Ja. Lighttpd en Sudo dien je dus aan te passen. Resultaat is dat zowel lighttpd als php-cgi onder het 'zfsguru-web' user account draaien, en niet meer on de 'www' user.
1
2
3
| Warning: session_start(): open(/tmp//sess_0b7ac02404232457b0217a6ded72b5e5, O_RDWR) failed: Permission denied (13) in /usr/local/www/data/includes/procedure.php on line 12 Warning: session_start(): Cannot send session cache limiter - headers already sent (output started at /usr/local/www/data/includes/procedure.php:12) in /usr/local/www/data/includes/procedure.php on line 12 |
Gewoon een heel grote verzameling snoertjes
Controleer met:
# ls -dl /tmp
drwxrwxrwt 8 root wheel 30 Aug 17 03:01 /tmp
Merk op: rwx rwx rwt
72 bytes.yamahabest schreef op maandag 17 augustus 2015 @ 14:59:
Is er een maximale lengte voor de GPT labels?
Ik lees over 15 karakters, en 36 karakters.
Heb het al gevonden; er stonden nog een paar oude session-files (owned by www) in /tmp. Die heb ik nu verwijderd en alles draait nu zoals het hoortVerwijderd schreef op maandag 17 augustus 2015 @ 16:48:
Dat zou nooit mogen, want dat zou betekenen dat je /tmp niet de juiste permissies heeft. Je /tmp moet 1777 als permissies hebben; dus niet 0777!
Controleer met:
# ls -dl /tmp
drwxrwxrwt 8 root wheel 30 Aug 17 03:01 /tmp
Merk op: rwx rwx rwt
Gewoon een heel grote verzameling snoertjes
in zoiets http://zfsguru.com/forum/zfsgurusupport/844 en de link in de laatste post denk hoop ik nu. Als test de ZFS server omgezet naar windows en dan kan ik met aangepaste adapter instelling wel richting 10Gb.Verwijderd schreef op zondag 16 augustus 2015 @ 23:36:
Nou fijn, want dan weet je waar je moet zoeken.
[ Voor 5% gewijzigd door BartNL op 17-08-2015 23:44 ]
Ik gebruik nu de standaard meegeleverde driver en heb geen instellingen meer veranderd. Ik zie vanaf een windows 7 pc snelheden tot 280 MB/sec gaan (up en down)
Ik heb het wel sneller gezien op freebsd 9.x waar ik een aantal dingen aangepast had (buffering voor de 10 GE kaart) en ook de intel driver zelf geïnstalleerd had.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Samba 3 of 4? Met of zonder sendfile. Kunnen weer 1001 dingen zijn.jacovn schreef op dinsdag 18 augustus 2015 @ 06:18:
Dan moet het probleem in samba zitten. Met freebsd 10.x heb ik iperf op bijna line rate gezien een een dd over netwerk op line speed. Dus de netwerk stack van freebsd lijkt weinig mis mee.
Ik gebruik nu de standaard meegeleverde driver en heb geen instellingen meer veranderd. Ik zie vanaf een windows 7 pc snelheden tot 280 MB/sec gaan (up en down)
Ik heb het wel sneller gezien op freebsd 9.x waar ik een aantal dingen aangepast had (buffering voor de 10 GE kaart) en ook de intel driver zelf geïnstalleerd had.
In FreeBSD 10.x hoef je niet al die settings aan te passen is mijn ervaring..BartNL schreef op maandag 17 augustus 2015 @ 23:43:
[...]
in zoiets http://zfsguru.com/forum/zfsgurusupport/844 en de link in de laatste post denk hoop ik nu. Als test de ZFS server omgezet naar windows en dan kan ik met aangepaste adapter instelling wel richting 10Gb.
Je hebt ook geen MTU 9000 nodig om de lijn vol te drukken. Tvwes heeft het met mij getest, en dus line rate 10 GE met dd en mbuffer mogelijk met MTU = 1500
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Even niets...
OS schijf is naar zijn gootje dus booten gaat niet meer. De data schijven zijn goed, na een scrub was 500 kb van de 700gb gecorrigeerd dus hopelijk zal dat in de toekomst niet opeens corrupt worden.
Nu denk ik erover om zfsguru weer opnieuw te installeren. De var schijf is opeens een memory disk geworden met maar 32 mb, die constant volloopt en dus smb en dergelijke laat kapot gaan. Dit is ook uitgerekend het moment om andere veranderingen door te voeren op de VM dus dat ga ik ook even in mijn achterhoofd houden.
Ik zit er nu sterk over na te denken om de os schijf een Virtual schijf te laten zijn ipv een raw schijf en wellicht ook gewoon redundancy op de schijf te enablen. Dat had in dit geval toch het een en ander kunnen verhelpen. Zijn er nog andere dingen waar ik aan kan denken? (ik gebruik overigens Hyper-V)
U can call me sir.... or justice as long as u bow down ;)
Ik ga denk ik vanavond zelfs mijn server opzetten met CentOS...
Even niets...
Jong!FireDrunk schreef op dinsdag 18 augustus 2015 @ 18:16:
Ik ga denk ik vanavond zelfs mijn server opzetten met CentOS...
Even niets...
Zojuist een nieuwe server gebouwd. Wilde hier eigenlijk net als op de oude server ZFSGuru op draaien.
Installatie gaat allemaal prima, maar heb een hoge load op 1 core.
Top -HS geeft aan dat proces kernel {acpi_task} hier de boosdoener van is.
Dit krijg ik bij versie 10.2.002 en 10.1.001.
Onder FreeNAS Heb ik dit probleem dan weer niet, maar wil geen FreeNAS.
Geprobeerd:
- "ACPI HPET Table" uitgezet in UEFI (Geen effect)
- Opstarten zonder ACPI (direct kernel panic)
Iemand enig idee of in ieder geval een schop in de goede richting?
Maar soms, is er wel een BIOS update beschikbaar waardoor het opeens wel werkt. Ook heb ik bij een downgrade het probleem een keer kunnen oplossen. Kortom, je kunt nog eens kijken naar verschillende BIOS versies.
En eventueel kun je ook eens 11.0.002 proberen - soms heeft HEAD al quirks voor jouw bord terwijl die nog niet naar -STABLE zijn geport.
Draai je de server toevallig headless? Dus zonder monitor verbonden?smekkos schreef op woensdag 19 augustus 2015 @ 17:08:
Zit met een klein probleempje hoop dat ik hier goed zit!
Zojuist een nieuwe server gebouwd. Wilde hier eigenlijk net als op de oude server ZFSGuru op draaien.
Installatie gaat allemaal prima, maar heb een hoge load op 1 core.
Top -HS geeft aan dat proces kernel {acpi_task} hier de boosdoener van is.
Dit krijg ik bij versie 10.2.002 en 10.1.001.
Onder FreeNAS Heb ik dit probleem dan weer niet, maar wil geen FreeNAS.
Geprobeerd:
- "ACPI HPET Table" uitgezet in UEFI (Geen effect)
- Opstarten zonder ACPI (direct kernel panic)
Iemand enig idee of in ieder geval een schop in de goede richting?
Er zijn bepaalde chipsets met een Intel graphics kaart die dan dit probleem vertonen!
Psst, do you have a moment to talk about Debian?FireDrunk schreef op dinsdag 18 augustus 2015 @ 19:51:
Teveel meuk geinstalleerd, en Fedora 22 is afgestapt van yum. Daar ben ik nog niet aan toe
Gewoon een heel grote verzameling snoertjes
Tja, ik wil eigenlijk binnenkort eens naar BTRFS gaan kijken. En dan wil je graag een *hele* nieuwe kernel.Bigs schreef op woensdag 19 augustus 2015 @ 09:32:
In F22 kun je nog gewoon yum commando's gebruiken, je krijgt dan wel een melding dat je eigenlijk dnf moet gebruiken maar voor nu wordt het gewoon uitgevoerdVind het als desktop een prima OS, maar op servers zou ik altijd CentOS gebruiken.
CentOS is ook echt zeker mijn favoriete Server OS, alleen omdat de BTRFS ontwikkelingen zo ontzettend hard gaan wil ik graag Fedora 22.
Misschien dat ik BTRFS maar op mijn HP MicroServer moet gaan zetten. Dan kan ik op mijn primaire systeem lekker CentOS zetten
Nope, ik wil Cockpit kunnen gebruikenCompizfox schreef op donderdag 20 augustus 2015 @ 03:23:
[...]
Psst, do you have a moment to talk about Debian?
Even niets...
- Versie 11.0.002 geeft een "Fatal trap 12: page fault while in kernel mode" error met het opstarten.Verwijderd schreef op woensdag 19 augustus 2015 @ 17:13:
HPET gewoon aanlaten; het komt door ACPI zelf: je BIOS levert foutieve informatie wat geen probleem vormt voor Windows OS maar wel voor andere OS. Dat komt veel vaker voor; fabrikanten hebben schijt aan UNIX daarvoor is de userbase te klein. Boeie dat hun product ongeldige ACPI informatie bevat; daar hebben ze lak aan.
Maar soms, is er wel een BIOS update beschikbaar waardoor het opeens wel werkt. Ook heb ik bij een downgrade het probleem een keer kunnen oplossen. Kortom, je kunt nog eens kijken naar verschillende BIOS versies.
En eventueel kun je ook eens 11.0.002 proberen - soms heeft HEAD al quirks voor jouw bord terwijl die nog niet naar -STABLE zijn geport.
- BIOS gedowngrade geeft geen verandering.
- BIOS geupgrade wederom geen verandering
Het bord is trouwens een Asrock E3C224D4I-14S. En hoewel FreeNAS niet slecht is houd ik wel van de aanpasbaarheid van ZFSGuru.
Ja server draait headless. Ben nu wel verbonden met de IPMI interface. VGA chip is een ASPEED.Quindor schreef op donderdag 20 augustus 2015 @ 03:08:
[...]
Draai je de server toevallig headless? Dus zonder monitor verbonden?
Er zijn bepaalde chipsets met een Intel graphics kaart die dan dit probleem vertonen!
Bij installatie van 10.0.001 (ZFSguru) is het probleem weer weg, maar dan mis ik weer een aantal services.
In alle gevallen heb ik met of zonder monitor aangesloten dezelfde hogere CPU.
Ik kan het alleen even niet vinden... en ik moet zo weg.
Maar in /boot/device.hints kon je de delen van ACPI uitschakelen staat me bij, en daarbij nog de andere delen van ACPI ingeschakeld laten.
Net gestart met 10.0.001. Hier inderdaad niet die hoge load.avdpeijl schreef op donderdag 20 augustus 2015 @ 10:52:
Heb gelijke ervaring met de hetzelfde Asrock.
Bij installatie van 10.0.001 (ZFSguru) is het probleem weer weg, maar dan mis ik weer een aantal services.
In alle gevallen heb ik met of zonder monitor aangesloten dezelfde hogere CPU.
van beide versies (10.0.001 & 10.2.002) kernel hints uitgelezen met kenv -h. Kernel hints zijn op beide systemen identiek. Zie onderstaande.Verwijderd schreef op donderdag 20 augustus 2015 @ 12:32:
Ik denk dat het mogelijk is om delen van ACPI uit te schakelen. Dan kun je wel gewoon booten maar heb je niet de CPU load waar je last van hebt.
Ik kan het alleen even niet vinden... en ik moet zo weg.
Maar in /boot/device.hints kon je de delen van ACPI uitschakelen staat me bij, en daarbij nog de andere delen van ACPI ingeschakeld laten.
hint.acpi.0.oem="ALASKA"
hint.acpi.0.revision="2"
hint.acpi.0.rsdp="0x000f0490"
hint.acpi.0.rsdt="0xdd8ea028"
hint.acpi.0.xsdt="0x00000000dd8ea0a8"
hint.acpi.0.xsdt_length="36"
hint.acpi_throttle.0.disabled="1"
hint.atkbd.0.at="atkbdc"
hint.atkbd.0.irq="1"
hint.atkbdc.0.at="isa"
hint.atkbdc.0.port="0x060"
hint.atrtc.0.at="isa"
hint.atrtc.0.irq="8"
hint.atrtc.0.port="0x70"
hint.attimer.0.at="isa"
hint.attimer.0.irq="0"
hint.attimer.0.port="0x40"
hint.fd.0.at="fdc0"
hint.fd.0.drive="0"
hint.fd.1.at="fdc0"
hint.fd.1.drive="1"
hint.fdc.0.at="isa"
hint.fdc.0.drq="2"
hint.fdc.0.irq="6"
hint.fdc.0.port="0x3F0"
hint.p4tcc.0.disabled="1"
hint.ppc.0.at="isa"
hint.ppc.0.irq="7"
hint.psm.0.at="atkbdc"
hint.psm.0.irq="12"
hint.sc.0.at="isa"
hint.sc.0.flags="0x100"
hint.uart.0.at="isa"
hint.uart.0.flags="0x10"
hint.uart.0.irq="4"
hint.uart.0.port="0x3F8"
hint.uart.1.at="isa"
hint.uart.1.irq="3"
hint.uart.1.port="0x2F8"
hint.wbwd.0.at="isa"
https://b3n.org/vmware-vs-bhyve-performance-comparison/
Conclusie:
VMware is a very fine virtualization platform that’s been well tuned. All that overhead of VT-d, virtual 10gbe switches for the storage network, VM storage over NFS, etc. are not hurting it’s performance except perhaps on sequential reads.
For as young as bhyve is I’m happy with the performance compared to VMware, it appears to be a slower on the CPU intensive tests. I didn’t intend on comparing CPU performance so I haven’t done enough variety of tests to see what the difference is there but it appears VMware has an advantage.
Sinds de 2 dagen regel reageer ik hier niet meer
Als ik de cd boot weer gebruik dan start hij netjes op en kun je ook netjes de pool zien (of importeren als hij er niet is). Maar vanaf de hd booten is niet mogelijk.
Iemand een idee?
preciese error is:
Solaris: cannot find the pool label for 'zfsroot'
Mounting from zfs:zfsroot failed with error 5.
ondertussen heb ik ook zfs versie 28 of de pool uitgeprobeert. precies hetzelfde probleem
[ Voor 7% gewijzigd door justice strike op 22-08-2015 18:46 ]
U can call me sir.... or justice as long as u bow down ;)
Even niets...
Kun je controleren zodra je weer geboot bent.
Verder: bedoel je 10.2-002 (de oude ZFSguru) of bedoel je de nieuwe builds (10.2.002). Dus zonder streepje - dat zijn de nieuwe builds voor ZFSguru 0.3. Kun je ook nog controleren.
ik heb de laatste gedownload (10.2.002) en ook 10.3-002 (stable van de install gui)Verwijderd schreef op zaterdag 22 augustus 2015 @ 21:06:
En kan het zijn dat die disk oudere bootcode heeft?
Kun je controleren zodra je weer geboot bent.
Verder: bedoel je 10.2-002 (de oude ZFSguru) of bedoel je de nieuwe builds (10.2.002). Dus zonder streepje - dat zijn de nieuwe builds voor ZFSguru 0.3. Kun je ook nog controleren.
bootcode had ik geupdate tijdens het installeren dus dat kan het niet zijn. De hyper-v virtual server heeft op het moment maar 1 schijf, dus het kan ook niet zijn dat hij van de verkeerde hd opstart.
Ik weet het op het moment ook niet echt wat het is. Ik zit redelijk vast hier.
Overigens werkt zfsguru netjes op een vm (andere vm doet het goed, maar moet migreren naar een nieuwe vm).
heb net 10.1 gedownload. Die werkt wel netjes op hyper-v. Is dus iets met de 10.2 installatie die niet lekker wil werken met hyper-v
//edit
10.1-002 doet het
11.0-002 doet het ook
versie 10.2.002 werkt niet met de foutmelding hierboven
versie 11.0.002 werkt niet, maar blijft hangen bij mounting local filesystem (andere fout dus)
kortom elke versie met zfsguru 0.3.0 werkt niet. begin bijna te denken dat er iets met het install script is.
enfin, naar bed nu voor mij
[ Voor 23% gewijzigd door justice strike op 23-08-2015 03:50 ]
U can call me sir.... or justice as long as u bow down ;)
Want HyperV is pas sinds kort ondersteund; kan prima zijn dat hier de oorzaak zit. Ik weet niet helemaal of ZFSguru al succesvol gebruikt is onder dit product. Er zijn wel veel commits voor goede HyperV ondersteuning geweest in BSD. Maar dat heb ik nog niet in de praktijk bevestigd gekregen.
Dus dat is nog een punt. Verder zou je je disk nog eens opnieuw kunnen formatteren - heb je iets bijzonders gedaan? Was die disk al eens eerder gebruikt? Met opnieuw formatteren bedoel ik dat je alle partities verwijderd inclusief het partitieschema - die optie krijg je als alle partities weg zijn. Je kunt dan opnieuw een GPT partitieschema maken en dat kun je eens proberen.
Je kunt eventueel me ook een DM sturen - dan help ik je persoonlijk met het probleem. Geen succes verzekerd overigens.
Even niets...
11.0.002 doet hier ook moeilijk/hetzelfde, zelfs zonder HyperV.justice strike schreef op zondag 23 augustus 2015 @ 01:06:
[...]
versie 11.0.002 werkt niet, maar blijft hangen bij mounting local filesystem (andere fout dus)
Ja je moet met een trucje booten; anders loop je tegen een spa_namespace_lock bug aan. Maar dat heeft verder weinig met ZFSguru zelf te maken.
@FireDrunk:
Niet iedereen vindt het fijn als hier regelmatig over ZFSguru wordt gepraat. Dus meestal dat ik aanbiedt via DM problemen op te lossen. Dan kan eventueel de oplossing hier wel gepost worden maar alle troubleshooting gaat dan via DM om dit topic (en diens lezers) te ontlasten.
[ Voor 7% gewijzigd door Verwijderd op 23-08-2015 12:39 ]
als dat een andere bug is dan betekent het dat 11.0.002 hier wel gewoon werlkt want hij stapt over de foutmelding die ik in 10.2.002 wel zieVerwijderd schreef op zondag 23 augustus 2015 @ 12:29:
@inSane666:
Ja je moet met een trucje booten; anders kom je tegen een spa_namespace_lock bug aan. Maar dat heeft verder weinig met ZFSguru zelf te maken.
@FireDrunk:
Niet iedereen vindt het fijn als hier regelmatig over ZFSguru wordt gepraat. Dus meestal dat ik aanbiedt via DM problemen op te lossen. Dan kan eventueel de oplossing hier wel gepost worden maar alle troubleshooting gaat dan via DM om dit topic (en diens lezers) te ontlasten.
U can call me sir.... or justice as long as u bow down ;)
Dat wordt dan de 3e poging; mijn eerdere twee pogingen zijn verloren gegaan door een Firefox-crash, en daarmee ook al het werk dat in een mooie topicstart had gestoken (voor het nieuwe ZFS topic).
@justice strike: welke systeemversies heb je nu geprobeerd icm HyperV? Kun je bevestigen dat het zonder HyperV wel werkt bij je?
(of een echte browser gebruiken
Even niets...
Of Midori?
Even niets...
-alle versies met de oude gui (allemaal tot versie 0.2beta10 uitgetest) dit geld voor 10.1 en 11.0.
versies die niet werken:
-alle versies met de nieuwe 0.3 gui stable, release en experimental (10.2, 10.3 en 11.0) Volgens mij gebruiken ze allemaal de nieuwe bootcode (of ik moet mij vergissen).
hoe kan ik versie 0.3 installeren met oude bootcode van 0.2?
U can call me sir.... or justice as long as u bow down ;)
Ik heb wel eens ZFSGuru onder Hyper-V gedraaid. Werkt prima.Verwijderd schreef op zondag 23 augustus 2015 @ 08:23:
Want HyperV is pas sinds kort ondersteund; kan prima zijn dat hier de oorzaak zit. Ik weet niet helemaal of ZFSguru al succesvol gebruikt is onder dit product. Er zijn wel veel commits voor goede HyperV ondersteuning geweest in BSD. Maar dat heb ik nog niet in de praktijk bevestigd gekregen.
^ dit. Of open, zoals ik al langer roep, een "het grote BSD topic".HyperBart schreef op zondag 23 augustus 2015 @ 12:34:
Tja... Start dan best een nieuw topic denk ik dan.
De bootcode heeft niets te maken met de versie van de ZFSGuru-webinterface, maar met de pool-versie. 0.3 gebruikt dus niet per se een andere bootcode dan 0.2. Wel zou het kunnen dat er in 0.3 een bug in het install-script zit of iets dergelijks, maar dat weet ik verder niet.justice strike schreef op zondag 23 augustus 2015 @ 12:50:
versies die werken:
-alle versies met de oude gui (allemaal tot versie 0.2beta10 uitgetest) dit geld voor 10.1 en 11.0.
versies die niet werken:
-alle versies met de nieuwe 0.3 gui stable, release en experimental (10.2, 10.3 en 11.0) Volgens mij gebruiken ze allemaal de nieuwe bootcode (of ik moet mij vergissen).
hoe kan ik versie 0.3 installeren met oude bootcode van 0.2?
[ Voor 55% gewijzigd door Compizfox op 23-08-2015 13:33 ]
Gewoon een heel grote verzameling snoertjes
Aangezien het mis gaat bij de eerste bootfase, is het uitgesloten dat er iets met het systeem en dus de installatieprocedure misgaat. Het is de bootcode die niet wilt booten van de disk. Dat kan komen door een combinatie van die bootcode met HyperV, want ik heb een ernstig vermoeden dat zonder HyperV het wel prima werkt.
Huh, de bootcode wordt meegeleverd met de webinterface? Ik dacht dat die gewoon meegeleverd werd met een bepaalde versie van FreeBSD. Ik ben bijvoorbeeld gewend om de bootcode op deze manier te installeren/upgraden:Verwijderd schreef op zondag 23 augustus 2015 @ 13:59:
Dat is niet waar Compizfox, want de bootcode wordt met de ZFSguru web-interface meegeleverd. De bootcode verschilt dus per ZFSguru versie. Zo heb je ook op oudere systeemversies zoals 10.0, nog de meest moderne bootcode.
1
| gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 da0 |
Dit is ook precies de code die een zpool upgrade geeft als voorbeeld. Die bootcode staat dus gewoon in /boot/gptzfsboot, snap niet direct wat dat met de webinterface te maken heeft.
[ Voor 7% gewijzigd door Compizfox op 23-08-2015 14:13 ]
Gewoon een heel grote verzameling snoertjes
Maar dat is niet hoe ZFSguru het doet. Je kunt bij ZFSguru kiezen voor:
- Update bootcode (van ZFSguru distributie)
- Update bootcode from system
Dat is niet 'oudere' bootcode, dat is gewoon de bootcode die hoort bij jouw versie van FreeBSD.Verwijderd schreef op zondag 23 augustus 2015 @ 14:13:
Ja en dan installeer je dus oudere bootcode van je systeem.
Ok, dat wist ik niet. Vind het maar vreemd, maar dat terzijdeMaar dat is niet hoe ZFSguru het doet. Je kunt bij ZFSguru kiezen voor:Dat laatste is wat jij bedoelt. Dat eerste is default en haalt de bootcode van de ZFSguru web-interface, niet van het systeem.
- Update bootcode (van ZFSguru distributie)
- Update bootcode from system
Gewoon een heel grote verzameling snoertjes
En dus is dat automatisch verouderde bootcode, omdat de nieuwste bootcode eerst een aantal maanden in 11-CURRENT zit. Dit is veelal de bootcode die ZFSguru gebruikt, zodat je deze code ook onder 10.0, 10.1, 10.2, 10.3 enzovoorts kunt gebruiken. Dit doet ZFSguru al jaren zo.Compizfox schreef op zondag 23 augustus 2015 @ 14:15:
[...]
Dat is niet 'oudere' bootcode, dat is gewoon de bootcode die hoort bij jouw versie van FreeBSD.
Inmiddels is (voor zover ik begrijp) ZFS ook stable op Ubuntu en vervult nas4free niet meer mijn behoeftes (lastig als je custom dingen wilt doen en linux je standaard keuze-OS is).
Mijn vraag is nu: kan ik nu gewoon een nieuwe Ubuntu VM bouwen, de HBA loskoppelen van nas4free en die in de nieuwe Ubuntu VM pluggen en daarmee verder gaan?
Compromises are for the weak
Bedankt FireDrunk
Even niets...
Dat zou in theorie gewoon moeten kunnen ja... iig,dat is het concept van vt-d.Tha_Butcha schreef op zondag 23 augustus 2015 @ 14:19:
Al een paar jaar draai ik nas4free met ZFS (versie 5000) als VM op ESXi 5.1, waarbij ik de controller gewoon doorheb gegeven via VT-d en heb 8GB RAM gereserveerd voor de VM. Belangrijkste reden hiervoor was dat ZFS nog niet stable was op linux en bekendheid met pfsense en monowall.
Inmiddels is (voor zover ik begrijp) ZFS ook stable op Ubuntu en vervult nas4free niet meer mijn behoeftes (lastig als je custom dingen wilt doen en linux je standaard keuze-OS is).
Mijn vraag is nu: kan ik nu gewoon een nieuwe Ubuntu VM bouwen, de HBA loskoppelen van nas4free en die in de nieuwe Ubuntu VM pluggen en daarmee verder gaan?
Sterker nog, je kunt de HBA aan beide VM's geven, alleen de eerste VM zal dan starten, de tweede weigert. Ideaal in de periode dat je nog niet definitief omkunt; pool exporteren, ene machine uit, andere aan, zpool importeren en gaan.Tha_Butcha schreef op zondag 23 augustus 2015 @ 14:19:
Al een paar jaar draai ik nas4free met ZFS (versie 5000) als VM op ESXi 5.1, waarbij ik de controller gewoon doorheb gegeven via VT-d en heb 8GB RAM gereserveerd voor de VM. Belangrijkste reden hiervoor was dat ZFS nog niet stable was op linux en bekendheid met pfsense en monowall.
Inmiddels is (voor zover ik begrijp) ZFS ook stable op Ubuntu en vervult nas4free niet meer mijn behoeftes (lastig als je custom dingen wilt doen en linux je standaard keuze-OS is).
Mijn vraag is nu: kan ik nu gewoon een nieuwe Ubuntu VM bouwen, de HBA loskoppelen van nas4free en die in de nieuwe Ubuntu VM pluggen en daarmee verder gaan?
Ik wil ook graag af van zfsguru, maar ik liep tegen issues aan met nfs, dus dat plan verdween in de ijskast, maar ESXi gaat daar voortreffelijk mee om.
Gewoon een export gedaan op de nas4free machine, zfs op ubuntu geinstalleerd vervolgens de pool geimporteerd:
1
| sudo zpool import -d /dev POOLNAAM |
moet nog wel de rechten van een paar directories recht trekken en een cronjob aanmaken voor de wekelijkse scrub, maar dat moet goed komen.
Compromises are for the weak
Ik vind de tweede veel prettiger. Dan kan ik direct zien welke disk er vervangen moet worden als ZFS over een schijf klaagt door op het stickertje op de harddisk het serienummer te vergelijken met de printout van zpool status.
Ik heb mijn 2de NAS PC nu goed draaiend met ZoL. Ik had wat hardware problemen met een kortgesloten pin in de socket. Dat is nu recht gezet en nu draait de machine perfect met 32GB ECC geheugen. Supermicro X10-SL7F met 1 SSD voor boot en 13x 4TB Seagate in een RAIDZ2 pool (44TB netto).
Plaatjes : http://etmriwi.home.xs4all.nl/pc/pc_fileserver.htm
De sata kabels zijn wat lang (50 - 57cm) terwijl 15-20cm genoeg zou zijn. Weet iemand of zulke korte sata kabels ook in de handel zijn? Ik heb nog niet korter dan 30cm kunnen vinden.
Die zijn er wel, bijvoorbeeld hier (ik meen onder het merk 'Delock' in de handel)riwi schreef op dinsdag 25 augustus 2015 @ 10:49:
Wat is de reden dat men hier aanraad om te importeren met "/dev/disk/by-partlabel/" ipv met "/dev/disk/by-id".
...
De sata kabels zijn wat lang (50 - 57cm) terwijl 15-20cm genoeg zou zijn. Weet iemand of zulke korte sata kabels ook in de handel zijn? Ik heb nog niet korter dan 30cm kunnen vinden.
[ Voor 4% gewijzigd door begintmeta op 25-08-2015 10:53 ]
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.