Hmm, das wel jammer :(

@CiPHER, heb je al iets gedaan met NetMap ondersteuning?

Even niets...


  • nwagenaar
  • Registratie: Maart 2001
  • Laatst online: 09:26

nwagenaar

God, root. What's the differen

Ik moet toch eens vaker kijken naar de installation description. Klaarblijkelijk is de kqemu module niet stabiel op een AMD x86_64 systeem. Eén keer raden wat ik op dit moment gebruik.... Enfin, ik heb er meer dan genoeg tijd aan besteed. Mede door het gebrek van libvirt icm qemu/kqemu, heb je geen mogelijkheid om gebruik te maken van de standaard webmanagement tools en daardoor zou ik nog geen gebruik maken van KVM onder FreeBSD.

Ik blijf in mijn geval bij Virtualbox.

Mijn Neo Geo MVS collectie

Jammer :(, maar we hebben wel weer een hoop geleerd vandaag..

VMXNET3 werkt, maar performance is mager, en KVM is een no-go.

@CiPHER, je source-code service werkte trouwens per-fect!
Petje af ;)

Even niets...


Verwijderd

Topicstarter
Er komen weer nieuwe dingen aan. :)
Ben bezig om de dev-branch van Jason aan het migreren. Komen die fixes ook naar de gebruikers toe. En ben nog aan het klooien met de services. Maar ziet er wel leuk uit zo moet ik zeggen.

En netmap moet al in mijn images zitten, getuige:
20120214 the main code has been imported in FreeBSD stable/9 and FreeBSD stable/8
op de netmap homepage. Maar nog niet voor alle NICs:
netmap is currently available for FreeBSD 8 and HEAD, and supports the ixgbe (Intel 10GigE), e1000 (Intel) and re (Realtek) 1GigE drivers. Support for other cards is coming, as well as a Linux port.
Maar dus wel de Intel 10Gbps NICs waarvoor je Netmap natuurlijk graag wilt gebruiken.

En nwagenaar: bedoel je dat AMD chips minder goed werken (IOMMU) en dat het dus op Intel systemen met 64-bit (amd64) kernel wel goed werkt? Of werkt het in beide gevallen voor 64-bit platform (amd64) niet stabiel, ongeacht je Intel of AMD cpu hebt?

Ik had namelijk ergens gelezen dat de AMD IOMMU nog niet goed werd ondersteund en dus niet werkte, maar dat het met Intels vt-d wel werkte. Volgens mij ging dat over BHyVe. Maar dit soort dingen zie je vaker dat AMD minder goed gesupport wordt. Dus daarom vraag ik maar even. :P

[ Voor 27% gewijzigd door Verwijderd op 30-07-2012 23:59 ]

AMD64 is gewoon alle 64-bit, niet alleen van AMD... Intel CPU's doen ook AMD64...

Even niets...


Verwijderd

Topicstarter
Dat snap ik, maar het punt was dat sommige hypervisors AMD's IOMMU niet goed ondersteunen, maar Intels vt-d wel. Iets wat geen problemen geeft zolang je guest i386 is; althans zo herinner ik me maar misschien praat ik onzin nu. :+

Ben nog steeds aan het knutselen met ZFSguru. Werkt wel verslavend zeg, dingen werkend krijgen en het resultaat zien. Jeej! Als straks alle services netjes werken denk ik dat mensen wel tevreden zijn voorlopig. Stabiele system image, werkende services en wat fixes voor de web-gui. Zoals bijvoorbeeld het automatisch starten van services zat nog niet in beta5. Moet wel zeggen dat het een raar gevoel geeft dat ik nu dingen van Jason zit te releasen. :X

  • nwagenaar
  • Registratie: Maart 2001
  • Laatst online: 09:26

nwagenaar

God, root. What's the differen

Wellicht dat de implementatie van AMD-V binnen de kqemu module niet optimaal is. Sowieso heeft Qemu het probleem dat ie mijn CPU niet kent: zodra ik -cpu host of -cpu best als optie gebruik dan kan hij mijn CPU niet detecteren. Zodoende maak ik gebruik van -cpu phenom ipv -cpu qemu64 omdat het systeem dan iets meer responsive is.

Desodanks heb ik diverse switches gebruikt (onder andere voor gebruik van virtio) maar de snelheid is ver beneden de maat. Qemu gooit mijn CPU vaak op 100% door de softfpu en daardoor stokt de guest met regelmaat. In zoverre dat een simpele Ubuntu server installatie meer dan een uur duurt....

Mijn Neo Geo MVS collectie

Heb je Jason al gesproken overigens over je build? Of is hij nog steeds (te) afwezig?
Zijn er trouwens netwerk optimalisaties in ZFSGuru gestopt?

Even niets...


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Hoi, ik draai nu versie 9.0-004 als test op een virtuele machine.
Heeft het nog voordelen om over te stappen naar één van de nieuwere builds als alles nu al gewoon goed draait?
Ik zie namelijk in dit forum niet meer wat nu precies de status is en de changelog op zfsguru is ook niet bijgewerkt.

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
CiPHER, heb je dit al gezien https://www.dan.me.uk/blo...zfs-root-for-freebsd-9-x/ ?

Wat is die source-code services shizzle trouwens? Heb gewoon FreeBSD op mijn lappie draaien, dus kan er geen ZFSGuru opzetten.

Verwijderd

Topicstarter
@FireDrunk: heb tijdje terug wel een mail/sftp gehad van Jason met toegangscodes enzo. Sinds mijn release een paar dagen terug heb iki hem nog niet gesproken. Wat bedoel je trouwens met netwerk optimalisaties? Volgens mij niet; smb.conf is kaal en /boot/loader.conf bevat alleen uitgeschakelde ZFS tunables. Dus netwerkoptimalisaties; denk het niet. Maar dat zou ook niet nodig moeten zijn sinds in FreeBSD 9 de TCP buffers auto-tuning zijn. Dus die zouden zich automatisch moeten aanpassen aan de praktijksituatie.

@wjn: 9.0-004 is gewoon goed als je ermee kan wat je wilt. Je hebt alle basis services. Het is natuurlijk wel leuk om up te graden als je bijvoorbeeld nieuwere Virtualbox wilt enzo. Maar als het zo goed werkt kun je het prima zo laten. En pas veel later upgraden wanneer je daar behoefte aan hebt. Bedenk ook dat in een toekomstige web-release (0.2-RC?) de migration manager functionaliteit van Jason af zou moeten zijn. Dan kun je een backup maken van je configuratiebestanden en dan upgraden. Zo blijven je Samba shares en andere config behouden. Dus als je niet hoeft te upgraden kun je prima wachten denk ik.

@onox: encryptie is leuk maar ik heb liever dat de box gewoon kan booten ipv dat je een monitor+keyboard voor je server nodig hebt. Maar iets vergelijkbaars zou je met ZFSguru kunnen doen in de toekomst: boot van embedded USB stick en in de web-interface vul je je wachtwoord in en dan komt de encrypted data beschikbaar. En echt full disk encryption is het niet; de bootpartitie is gewoon unencrypted. Echte FDE waarvan je moet booten bestaat niet; de bootcode moet dan ergens anders vandaan komen. Je moet wel kunnen booten van iets.

Als je al FreeBSD hebt geïnstalleerd kun je overigens wel ZFSguru installeren. Dat is wel wat werk omdat je dependencies moet installeren zoals php5-session en sudo. Maar het kan wel. Leuke is dat je dan via ZFSguru web-interface een nieuwe upgrade-installatie kunt doen en zo je FreeBSD dus echt in ZFSguru omtovert. Die installatieprocedure is wel geinig.

De sourcecode heb je nodig als je met VMXNET3 wilt stoeien zoals FireDrunk dat wil. Voor het installeren van ports die kernel modules bakken heb je ook vrijwel altijd de sourcecode nodig. Dus met die twee services (sourcecode + portstree) kun je alles netjes compileren zonder problemen met versies die niet compatible zijn.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Ik heb persoonlijk liever dat bepaalde files encrypted zijn. Doorgaans neem ik mijn server niet onder de arm mee naar iets of iemand en bij diefstal dan moeten ze allereerst dat bakbeest snel wegkrijgen. Ik denk dat ze eerder voor iets anders gaan.
Maar, met encrypted files heb ik wel de mogelijkheid om één of andere cloud storage backup oplossing te kiezen. Ook al bieden die partijen encryptie aan, ik wil zelf een sleutel in handen hebben, niet één krijgen van de aanbiedende partij.

De CSL/OT kroeg !


Verwijderd

Topicstarter
Dat klinkt logisch ja. En full disk encryption hoeft ook niet. Je kunt gewoon een encrypted file container maken op je pool waarin een encrypted pool staat. Die kun je pas toegankelijk maken na het aanbieden van de sleutel. Zo heb je dus een normale ZFS pool met een paar (grote) bestanden die containers zijn voor kleinere encrypted ZFS pools.

Ook kun je dan voor geavanceerde encryptie kiezen, zoals GBDE. Voordeel van GELI is dat het AESNI accelerated is dus veel sneller en minder CPU overhead.

  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Ik had een upgrade gedaan maar het doet 't niet ;(

Installation failed
Uh-Oh! Something went wrong during the installation. :-(
Please review the output below for any clues, and report this issue to the author if it persists. You may want to reboot the system and try again.

Installation script output:
* Starting installation
install script version: 5
distribution type: rootonzfs
target device: ZFSguru
source data: /usr/local/www/zfsguru/files
boot filesystem: zfsguru/9.1-002
system version: 9.1-002
system location: /tmp//ZFSguru-system-9.1-002-amd64.ufs.uzip
system size: 249250816 bytes
loader.conf: /tmp//guru_optimized_loader.conf
system MD5 checksum: 5359b1584ffc4bc61beaeee6db35986e
system SHA1 checksum: f9e2a16f1993f9ca193b485e9683d3de5c289b7b
system size: 249250816 bytes
memory tuning: 1
configure portstree: 1
preserve system image: 0
compression: lzjb

* Verifying system image
* Verifying system image MD5 checksum
* Verifying system image SHA1 checksum
* Patching portsnap binary
* Creating ZFS filesystems
* Mounting system image
* Transferring system image to boot filesystem
* Skipping portstree creation because /usr/ports/distfiles directory already exists!
* Activating boot filesystem
* Writing distribution file /ZFSguru/zfsguru/9.1-002/zfsguru.dist
* Copying system configuration files to /ZFSguru/zfsguru/9.1-002
rm: /ZFSguru/zfsguru/9.1-002/etc/rc.d/zfsguru: No such file or directory

ERROR: Got return value 1 while copying zpool.cache file
Return value: 1

* Script execution halted!

Na een reboot is het "can't get exec getty '/usr/libexec/getty' for port /dev/ttyv0: No such file or directory."

Ik ga het ff opnieuw proberen :)

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Verwijderd

Topicstarter
Ja dan heb je de beta5 gebruikt om de nieuwe image 9.1-002 te installeren; dat werkt dus niet. ;(
Je hebt beta6 nodig. Nu ben ik bezig om alle nieuwe dingen van dev branch te migreren, en binnenkort een beta7 release te maken.

Wat je nu even kunt doen om het werkend te krijgen is:
1) boot van de livecd of als je nog geboot bent nu hou dat zo
2) edit het bestand /usr/local/www/zfsguru/scripts/zfsguru_install.sh (of .php?)
3) zoek naar 'rm' in de ee editor doe je dit met control-Y en dan type je rm [enter] met control-X zoek je naar de volgende match.
4) bij die regel waar 'zfsguru' wordt verwijderd, pas je 'rm' aan naar 'rm -f '. Je voegt dus het -f (force) optie toe aan die rm command
5) save exit en probeer installatie overnieuw. Voordat je dit doet eerst even de filesystem ZFSguru/zfsguru/9.1-002 verwijderen (inclusief children) dat kan op de Files pagina

Hoe krijg je trouwens de combinatie van beta5 en die nieuwe system image? Gedownload?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Verwijderd schreef op dinsdag 31 juli 2012 @ 14:55:
Dat klinkt logisch ja. En full disk encryption hoeft ook niet. Je kunt gewoon een encrypted file container maken op je pool waarin een encrypted pool staat. Die kun je pas toegankelijk maken na het aanbieden van de sleutel. Zo heb je dus een normale ZFS pool met een paar (grote) bestanden die containers zijn voor kleinere encrypted ZFS pools.

Ook kun je dan voor geavanceerde encryptie kiezen, zoals GBDE. Voordeel van GELI is dat het AESNI accelerated is dus veel sneller en minder CPU overhead.
GELI heb ik in het verleden al eens bekeken en staat zeker op het lijstje. Het bezwaar van de encrypted file containers is dat een backup oplossing naar alle waarschijnlijkheid de delta functionaliteit verliest. Het gevolg is dat je bij een cloud storage oplossing dan per emailtje wel eens die hele container mag uploaden. Maar misschien tast de encryptie niet alle blocks aan en gaat het wel goed. Dat wil ik over een tijdje gaan uitzoeken.

[ Voor 22% gewijzigd door Dadona op 31-07-2012 15:47 ]

De CSL/OT kroeg !


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Ik had idd ZFSguru draaien (9.1 / beta5), ben naar install gegaan, nieuwe image gedownload en toen root on zfs install gedaan.

Ik dacht dat ik eerst nog ff upgrade gechecked had maar ik had niets gezien.

Die oude installatie was toch niet echt geconfigureerd, kan ik niet simpel weg de OS disk formatteren, en dan een nieuw rootonZFS installatie doen met het laatste image dat ik kan downloaden?

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Verwijderd

Topicstarter
@iRReeL: je kunt de normal livecd gebruiken op deze pagina die heeft de nieuwe 9.1-002 system image. Je moet dan nog wel wachten totdat ik de services voor 9.1-002 heb gefixed en geupload! Het zal nog wel een paar dagen duren voordat alle services voor 9.1-002 beschikbaar zijn. Maar er komen er ook nog meer bij (vlc, wine, nvidia-drivers, vmware drivers). Enige die nu beschikbaar zijn om te installeren via de web-interface zijn system-portstree en system-sourcecode.

  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Bedankt Cipher ;)

Ik zal dat full image ding eens installeren en voor de rest alleen de shares aanmaken en ik wacht verder af. Klinkt allemaal heel erg goed wat er gaat komen!

Kan ik trouwens een raidz2 omtoveren naar een raidz3? Zo te zien niet maar ik check ff voor de zekerheid. Meer dan de helft van mijn disks (EARS) hebben inmiddels active bad sectors :-( (Mijn oude samsungs zo goed als niet).

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Verwijderd

Topicstarter
Full image? Ik zou niet de grote Heavy LiveCD downloaden want de services daarin zijn experimenteel; degene die ik ga uploaden en je via de web-interface kunt installeren zijn veel beter. Beschouw de livecd dus als experimenteel qua services maar de system image is prima.
Meer dan de helft van mijn disks (EARS) hebben inmiddels active bad sectors
Dat hebben systemen van mijn familie ook met EARX. Het is geen probleem omdat die bad sectors niet echt bad zijn; als je ze overschrijft zal Reallocated Sector Count niet oplopen. Ze zijn gewoon onleesbaar omdat ze lange tijd niet zijn beschreven.

Doe een ZFS scrub, als die geen fouten geeft en je hebt nog steeds 'pending sectors' ofwel actieve bad sectors, dan bevinden die sectoren zich op plaatsen waar ZFS nog niet gekomen is. Zodra dat wel gebeurt, verdwijnen ze simpelweg. Dus het hoeft helemaal geen probleem te zijn.

[ Voor 53% gewijzigd door Verwijderd op 31-07-2012 16:24 ]


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Ja je had eerder aangegeven dat active bad sectors geen probleem hoeft te zijn maar het is toch weer iedere keer schrikken voor mij als ik die pagina open, en nu schijnt het alleen meer te worden.

Ik ga de normal cd installeren en een scrub doen! Thanks!

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
AJAX file browser werkt blijkbaar nog niet 'Error while parsing JSON response: Badle formed JSON string:"

Ik wilde dan MC (mc && make install distclean) installeren maar die gaf aan dat er een mogelijk conflict zou zijn met pkg-config-0.25_1. Een file browser vind ik wel handig, om de virtuele machines te kopieeren enzo. Is er nog een andere manier om MC te installeren of is het conflict wellicht geen probleem?

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Verwijderd

Topicstarter
AjaxPlorer is broken met PHP5.4. Als je PHP5.4 eraf knalt en PHP5.3 installeert, dan werkt het weer. Maar ik ben nu bezig met een nieuwe versie van AjaxPlorer, kijken of dat meer succes heeft. ;)

Als je ports wilt installeren, gebruik dan de officiële portstree service (system-portstree in zfsguru categorie). Anders zit je met afwijkende versies enzo.

Je kunt ook quick and dirty `pkg_add -r mc` doen.

  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Super :), pkg_add -r mc werkt!

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Verwijderd

Topicstarter
Weet wel dat pkg_add -r eigenlijk niet zo netjes is, als je dat gebruikt moet je eigenlijk overal pkg_add -r voor gebruiken en dat gaat niet want ZFSguru komt al met geïnstalleerde software. Dus de beste methode voor een 'net productiesysteem' is om via de officiële portstree (system-portstree) de ports die je wilt te compileren. Zeker als een package veel dependencies heeft is dat belangrijk. Maar pkg_add -r is wel lekker makkelijk en snel natuurlijk; als je even snel wat werkend wilt krijgen is dat vaak een uitkomst.
Of je moet de sourcecode + portstree service gebruiken, en daarna dus NIET updaten (portsnap update).
Dan blijven de dependencies als het goed is gelijk, en zou alles moeten werken met de versie die op dat moment in de portstree zit / zat.

Even niets...


Verwijderd

Topicstarter
Inderdaad; alhoewel heb je de sourcecode alleen nodig voor het compileren van ports die ook kernel modules produceren. Voor normale ports is gewoon de portstree voldoende. En inderdaad niet updaten. Als je wilt updaten zou je kunnen updaten naar nieuwe system image. In de toekomt kan die bijvoorbeeld elke week opnieuw geproduceerd worden ofzoiets. Dan kun je altijd up-to-date blijven als je dat wilt en bij problemen ook heel makkelijk downgraden.

Maar die migration manager die in 0.2 gaat komen is daarvoor wel een vereiste; anders moet je elke keer je configuratie weer handmatig herstellen. Dat doe je met die migration manager zeg maar met 1 muisklik. Als dat allemaal werkt heb je eigenlijk geen reden meer om je portstree te moeten updaten. Je update gewoon heel het systeem als je daar behoefte aan hebt. Zeker voor 'newbies' is dat een stuk toegankelijker, makkelijker en vooral duidelijker.
Is het niet verstandig om portsnap te blokkeren, met de mogelijkheid in de webinterface om het aan te zetten?
Kunnen mensen hun image ook niet slopen (zoals ik :+ )

Even niets...


Verwijderd

Topicstarter
Ik denk dat goede voorlichting belangrijker is. Dat kan al gebeuren bij de installatie omdat je daar de optie krijgt om een verse nieuwe portstree te installeren. Daar kan een waarschuwing bij dat dit alleen voor ervaren gebruikers is en dat je beter de portstree service kunt gebruiken na installatie, en je portstree niet te updaten (en liefst ook geen pkg_add -r)

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
Me too :)

Misschien is het beter om dit topic voor ZFS te houden, zo heet het nu eenmaal ;)
De andere (FreeBSD) zaken in een apart topic opnemen?

Iemand die over ZFS wil lezen schrikt zich een hoedje als hij nu in dit topic binnenkomt en de laatste twee pagina's lees vrees ik.
Ik denk dat de kampen afzonderlijk te klein zijn voor een eigen topic.

Even niets...


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Ik heb weer als test 1 schijf bij mijn 5 disk raidz2 onder zfsguru losgetrokken. Maar hij boot nu niet meer op!! hij blijft nu 30 a 40 minuten hangen op dat draaiende dingetje. Zfsguru staat op de raidz2. Dus als nu 1 schijf stuk gaat dat kan ik niet meer booten. :(

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Verwijderd

Topicstarter
Hoeveel data staat op je pool victorb? Het booten van een degraded RAID-Z1/2/3 hoort wel te werken dat heb ik zelf regelmatig getest. Maar een simpele oplossing kan zijn om je disks zo te partitioneren dat je twee pools hebt: een kleine 10GB systeempool en de rest voor je datapool. Van je systeempool boot je dan. Voordeel is ook hoe minder data des te sneller het booten. Heb je veel data op je pool met RAID-Z/1/2/3 dan kan het booten best lang duren. Alhoewel 30 minuten wel héél erg lang is.

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
And now for something completely different:

Ik ben nu bezig met OpenIndiana + Pacemaker + Heartbeat een shared-storage cluster te maken :9

Cluster draait, en de eerste resource (een failover ip adres) werkt. Maar dat was niet zo moeilijk het standaard scriptje hiervoor had maar een paar aanpassingen nodig, omdat we net als op linux ifconfig daarvoor kunnen gebruiken. :>
Maar nu komt de uitdaging: resource-scripts maken voor het importeren/exporteren van een zpool, en als het kan met goede fencing tegen split-brain ellende. En dan voor comstar iscsi-targets , en NFS, en ook iScsi-initiator. Leuk werk, maar wel veel uitzoeken :)
Heeft iemand hier dat wel eens gedaan, OCF/Heartbeat resource agents schrijven ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
victorb schreef op donderdag 02 augustus 2012 @ 15:23:
Ik heb weer als test 1 schijf bij mijn 5 disk raidz2 onder zfsguru losgetrokken. Maar hij boot nu niet meer op!! hij blijft nu 30 a 40 minuten hangen op dat draaiende dingetje. Zfsguru staat op de raidz2. Dus als nu 1 schijf stuk gaat dat kan ik niet meer booten. :(
Is het misschien nuttig om met een ZFSguru live cd op te starten om de pool status te bekijken en misschien te laten resilveren zodat het weer werkt?

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Verwijderd schreef op donderdag 02 augustus 2012 @ 15:40:
Hoeveel data staat op je pool victorb? *knip* Alhoewel 30 minuten wel héél erg lang is.
Welke info zal ik even opzoeken van mijn config?

Waar misschien een probleem zit is ik heb 4k sectors aan gevinkt met 5 disk raidz2. Der staat wel bij dat je beter per 2 4 disken dat kan gebruiken. Ik kan altijd opnieuw de array aanmaken met standaard sector want hij is toch nog niet live.

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Zo, m'n hardware is rond, en ik ga binnenkort eens beginnen te installeren, dus resteren nog wat practische vragen.
Is er ergens nog een goede/duidelijke handleiding te vinden voor het dagelijks gebruik van ZFS (opzetten/onderhoud/recovery van pools etc) op de command line? (Of is er een web interface?)

Verder, maakt het nog uit of ik linux FUSE of kernel compilatie doe?
En welke versie van ZFS is aan te raden?

Last, omdat ik 4K schijven heb, moet ik dit instellen in een config bestandje of moet ik gaan compilen?
Onderhoud en Recovery zijn niet echt dingen voor dagelijks gebruik hoor, ZFS heb je juist amper onderhoud aan ;) (tenzij je super veel met snapshots wil gaan doen...)

Bovendien kan het met ZFSGuru (en FreeNas/NAS4Free) inderdaad via de webinterface. Veel andere OSen hebben die luxe helaas niet (Kale FreeBSD / Solaris ) maar ook daar is wel wat aan te doen.

Als je via Linux gaat werken, heb je sowieso geen webinterface. Als je *echt* moet kiezen op een implementatie op het Linux platform, zou ik voor de kernel compilatie gaan, die is sneller.

ZFS Versie hangt ervan af of je je pool ooit wil exporteren naar een ander systeem met een ander operating system. Wil je dat niet, pak de hoogst ondersteunde.

Even niets...

FireDrunk schreef op zaterdag 04 augustus 2012 @ 10:16:
ZFS Versie hangt ervan af of je je pool ooit wil exporteren naar een ander systeem met een ander operating system. Wil je dat niet, pak de hoogst ondersteunde.
Waarbij je als hoogst ondersteunde max v28/5 moet aanhouden om niet vast te zitten aan de Solaris licenties.

Sinds de 2 dagen regel reageer ik hier niet meer

Excuus je heb helemaal gelijk. Nooit hoger dan 5/28 gaan :)

Even niets...


  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op zaterdag 04 augustus 2012 @ 11:14:
Excuus je heb helemaal gelijk. Nooit hoger dan 5/28 gaan :)
En opletten met OpenIndiana, versie 151a5 heeft een gepatchte binary die de poolversie vrolijk op 5000 zet ! Ik moet nog even uitzoeken hoe en wat, maar het heeft met de ondersteuning voor 4k-sectoren te maken ....

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • Aurora_71
  • Registratie: Oktober 2007
  • Laatst online: 30-10-2024

Aurora_71

A/V enthusiast, gamer

u_nix_we_all schreef op donderdag 02 augustus 2012 @ 17:34:
And now for something completely different:

Ik ben nu bezig met OpenIndiana + Pacemaker + Heartbeat een shared-storage cluster te maken :9
*O* oOo
Maar nu komt de uitdaging: resource-scripts maken voor het importeren/exporteren van een zpool, en als het kan met goede fencing tegen split-brain ellende. En dan voor comstar iscsi-targets , en NFS, en ook iScsi-initiator. Leuk werk, maar wel veel uitzoeken :)
Heeft iemand hier dat wel eens gedaan, OCF/Heartbeat resource agents schrijven ?
Nee, nog nooit gedaan. Wellicht kun je voor het zpool import/export deel kijken naar een SMF manifest zoals te zien op http://www.unix.com/solar...ipt_startup_shutdown.html ?

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Aurora_71 schreef op zaterdag 04 augustus 2012 @ 11:47:
[...]

Nee, nog nooit gedaan. Wellicht kun je voor het zpool import/export deel kijken naar een SMF manifest zoals te zien op http://www.unix.com/solar...ipt_startup_shutdown.html ?
Ja, ik zat al te denken aan een soort generiek wrapper script als resource agent om met svcadm services te stoppen/starten etc. Maar je moet dan wel voor elke zpool een aparte service definieren, en zo is het met veel services. Ik wil active/active kunnen draaien, dus verschillende zpools op verschillende nodes importeren, en dan ook verschillende nfs-shares, iscsi-targets etc.
Het gaat dus per resource meer om een deel van een service, of eigenlijk de configuratie ervan, en gezien het framework van heartbeat/pacemaker lijkt het me toch verstandiger daar mee verder te gaan en losse scripts ervoor te maken of waar mogelijk bestaande dingen aan te passen.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Ok, kernel compilatie dus, en niet hoger dan versie 5/28 (want dan moet ik een licentie kopen?).
En hoe zit het met enabelen van die 4K-sectors?

Nog een tip voor een goede handleiding?

[ Voor 8% gewijzigd door Durandal op 04-08-2012 16:24 ]


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
u_nix_we_all schreef op zaterdag 04 augustus 2012 @ 11:31:
[...]


En opletten met OpenIndiana, versie 151a5 heeft een gepatchte binary die de poolversie vrolijk op 5000 zet ! Ik moet nog even uitzoeken hoe en wat, maar het heeft met de ondersteuning voor 4k-sectoren te maken ....
Ik dacht dat dat een "goed" iets was om onder licentie perikelen uit te komen?

http://blog.delphix.com/c.../01/ZFS_Feature_Flags.pdf

Member of the Ukraine IT Army


  • Aurora_71
  • Registratie: Oktober 2007
  • Laatst online: 30-10-2024

Aurora_71

A/V enthusiast, gamer

De pool versie 5000 is iig de indicatie dat het een illumos upgrade betreft en niet een oracle upgrade van het on-disk format sinds die doornummeren > poolversie 28.

Van: http://wiki.openindiana.o..._prestable5+Release+Notes:
"This release includes the async zfs destroy feature from illumos that comes with a new zpool version"

  • Aurora_71
  • Registratie: Oktober 2007
  • Laatst online: 30-10-2024

Aurora_71

A/V enthusiast, gamer

Niet dat ik nog FreeBSD gebruik maar ik meen gelezen te hebben dat ook FreeBSD 10-CURRENT inmiddels poolversie 5000 heeft.

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 08-12 16:24

Wouter.S

e^(i*pi ) +1 = 0

Als ik nu op mijn NAS upgrade naar de laatste nieuwe beta release van ZFSGuru hoef ik normaal nooit meer een complete nieuwe install te doen in de toekomst toch? Het enige wat me nog tegenhoud is dat SABNZB+ niet werkt via de webinterface. Maar dit kan achteraf toch gewoon gefixt worden zonder een volledig nieuwe install te hoeven doen denk ik, zonder dat je je settings verliest (poolst, shares, etc...)

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Aurora_71 schreef op zaterdag 04 augustus 2012 @ 21:33:
Niet dat ik nog FreeBSD gebruik maar ik meen gelezen te hebben dat ook FreeBSD 10-CURRENT inmiddels poolversie 5000 heeft.
klopt die kwam paar weken geleden langs.

Verwijderd

Topicstarter
Ik heb wat berichten verplaatst naar het DIY RAID NAS topic. Ik hoop over een tijdje nieuwe delen uit te brengen van beide topics, en een iets duidelijke scheiding onder te brengen. Maargoed, deze post zodat je niet denkt; waar zijn mijn berichten. ;)

  • sloth
  • Registratie: Januari 2010
  • Niet online
Misschien nog een tip voor beginnende ZFS gebruikers, of mensen die net zoals mezelf een makkelijk te begrijpen overzicht willen van "what the fuzz is all about" ;)



Van 28:10 tot 1:07:05

  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Ik wilde graag een wachtwoord op de shares login dus had 'smbpasswd share' gedaan en wachtwoord ingegeven maar dat schijnt niets uit te maken? Ook nog 's bij Files-Permissions-Samba 'Active existing user' met share en hezelfde ww gedaan maar ook geen verschil. Ook nog een nieuwe user aangemaakt maar ik krijg volledige toegang zonder user details.
Moet ik ergens anders nog iets aanpassen zodat ik een wachtwoord op de shares krijg?

Uiteindelijk wil ik graag een 'public share' (zonder wachtwoord) met alleen leesrechten en nog een andere share met wachtwoord met r/w. Ik las eerder in dit topic dat ik de samba.conf moet aanpassen maar ik moet dat nog 's 3x lezen voordat ik daarmee verder ga (ik had gehoopt dat iig een wachtwoord aanmaken wat sneller zou gaan :P).

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


Verwijderd

Topicstarter
Je moet in smb.conf je share voorzien van authenticatie:
public=no
valid users=share

Wil je wel anonieme read-only maar alleen jij kan schrijven:
public=yes
write list=share

Bij de samba rewrite in beta8 zul je die allemaal makkelijk via de GUI kunnen doen. Staat dus hoog op het lijstje. :)

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
CHiPER: Ik draai nu ZFSguru 0.2 beta 5 de schijf die ik afgelopen week heb ontvangen te vervanging van me stukke schijf, is wederom defect. In log staat iets van lost device ...
Vreemde is dat ZFSguru meteen hangt. Ik kan niet meer rebooten bijvoorbeeld. Ik moet deze een harde reset geven.
Is dit normaal? met de 0.1.8 had ik dit toen niet.

Zag nu voor de 2e keer "lost device disk 4" dat is een andere disk ik hoop niet dat dit permanent is. ZFSguru hing weer.

Verwijderd

Verwijderd schreef op maandag 06 augustus 2012 @ 16:12:
[mbr]Ik heb wat berichten verplaatst naar het DIY RAID NAS topic. Ik hoop over een tijdje nieuwe delen uit te brengen van beide topics, en een iets duidelijke scheiding onder te brengen. Maargoed, deze post zodat je niet denkt; waar zijn mijn berichten. ;)[/]
Appreciate it. Want ik dacht al dat ik fout zat :) Heb wel wat theoretische vragen over ZFS. Dat zal hier wel thuishoren.

Ik heb nu 3TB aan data staan op mijn drobo waarin 2 2TB & 1 1.5TB disk steken. Ik zou graag de 2TB disks en de 3TB aan data willen opnemen in mijn 2TB HD vdisk. Dus 6 2TB disks in Z2. Ik heb op het zfsguru forum & freebsddiary gelezen dat zoiets mogelijk moet zijn.

Maar de 2de methode van freebsddiary lijkt me zo vreemd (met live & backup pool). Mij lijkt het dat je het volgende moet kunnen doen:
  • 4 2TB partities maken (99% capacity)
  • 2 memorydisks van 2TB maken (via mdconfig)
  • vdisk Z2 maken van 4 echte disks en de 2 dummies.
  • 2 memorydisks verwijderen. vdisk is nu volledig degraded.
  • data pompen naar de nieuwe vdisk
  • dubbelchecken of alle overgezet is
  • slot van memorydisks vervangen met de 2TB HD's waar je data op stond
Voor het OS te installeren op de 2 eerste disks neem ik aan dat je gewoon 2 partities maakt. 1 van 99% en 1 van 1% op de 2 1ste disks. Z1 vdisk voor maken. Daarop de installatiewizard draaien. En vanaf dat punt de bovenstaande procedure uitvoeren. Lukt dat zo?

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
in een vm met ESXi
@Phasis, En de disks via RDM doorgegeven of VT-d?

@StoBo, je procedure ziet er goed uit, ik zie geen reden waarom het niet zou werken.

[ Voor 54% gewijzigd door FireDrunk op 07-08-2012 09:07 ]

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Via VT-d.
Ik heb me Intel SASUC8I (IT mode) passtrough naar me zfsguru vm.
Vreemd, dan zou de vm inderdaad niet moeten crashen. Met RDM zijn er wel wat problemen gesignaleerd maar met VT-d zou het moeten werken.

Heb je al eens geprobeerd om in een andere console te komen?
Werkt SSH nog?

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Ik heb gister het systeem herstart. Dus ik moet weer wachten tot het weer gebeurd.
Dat me eerste disk crashte draaide ik nog zfsguru 0.1.8 met deze had ik hier geen last van.
Vorige week nadat ik een andere disk ontvangen had heb ik 0.2 beta5 geïnstalleerd. Dat was afgelopen zaterdag.
Zondags was ik een bestand van rond de 2 gig aan het kopieren, ik kreeg tijdens het kopieren opeens de melding dat verbinding weg was. Ik de vm herstart en zag dat de pool in een degraded state stond en het ging wederom om disk3 dat was de disk die ik die zaterdag vervangen had.
Na het herstarten hoorde ik gelijk weer tikken en dat werd alleen maar erger. Na het disconnecten van disk3 was het over.
Het was zo'n Samsung Spinpoint F4 EG HD204UI, 2TB deze heeft seagate vervangen door een green disk van Seagate baracuda met een sticker gerepareerd.
Maandag heb ik weer een nieuwe RMA aanvraag gedaan. En ik heb nog geen vervanger. Ik hoop deze week.

Gister zag ik dat de share weer niet benaderbaar was en moest het systeem wederom herstarten. Zfsguru was ook niet benaderbaar met SSH.
Als ik in de vSphere client de console tab open dan kan ik niet met de arrow keys naar herstart of shutdown gaan. Er staan wel een paar regels. Iets met CPU temp en de laatste regel device disk 4 lost device.

Ik snap niet precies wat je bedoel met andere console. Een andere Ubuntu 12.04 VM is wel te benaderen via het netwerk of SSH.

[ Voor 4% gewijzigd door Phasis op 07-08-2012 09:49 ]

Ik herken je problemen, ik heb ze zelf ook gehad, maar alleen met RDM en niet met VT-d. Ik dacht persoonlijk dat het lag aan de RDM, maar als ik nu jou verhaal lees ben ik toch bang dat het ergens anders aan ligt. Kan je eens kijken welke firmware / BIOS versie je draait (van je Disk Controller)? Misschien dat er daar ergens een compatibiliteitsprobleempje (lingooo) zit.

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Deze handleiding heb ik gevolgd:
http://www.servethehome.c...suc8i-lsi-firmware-guide/
http://kb.lsi.com/KnowledgebaseArticle16266.aspx

Er waren geen errors alles was goed gegaan.

http://www.lsi.com/produc...ts/Pages/LSISAS3801E.aspx
SAS3801E_ Package_P21_IR_IT_Firmware_BIOS_for_MSDOS_Windows Feb 6, 2012

De versie is: MPTBIOS-6.36.00.00 (2011.08.24)

Edit:
Ik draai nu live 0.2-beta4, pool geïmporteerd, alle disks staan ONLINE op disk3 na (gelukkig).
Ik laat het wel even live draaien.

[ Voor 15% gewijzigd door Phasis op 07-08-2012 11:59 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
Wat lijkt jullie de beste configuratie voor een pool waar ESX VMs op komen te draaien.
Het gaat om 4 disks, dus de opties zijn:
- 1 pool van 4 disks in RAIDZ1
- 1 pool van 4 disks in RAIDZ2
- 1 pool van 2 vdevs, beiden een RAID1 mirror van 2 disks (soort RAID10 dus)

Volgens mij is de laatste optie in ieder geval het snelste, maar graag de mening van de experts hier ;)
Ik verwacht dat RAID10 het snelst is, vanwege het feit dat het beter voor Random IO geschikt is.
Als je er een SSD aan vast zou plakken als Cache kan je ook wel voor RAIDZ(1) gaan. Een 2e SSD als ZIL zou helemaal leuk zijn...

Even niets...


  • VorCha
  • Registratie: November 2004
  • Laatst online: 05-10 21:36
Die ZIL ssd dan wel gemirrored neem ik aan? Want als die omvalt ben je redelijk ver van huis lijkt mij.
VorCha schreef op dinsdag 07 augustus 2012 @ 16:04:
Die ZIL ssd dan wel gemirrored neem ik aan? Want als die omvalt ben je redelijk ver van huis lijkt mij.
Dat ligt er maar net aan welke versie je gebruikt van ZFS.

Sinds de 2 dagen regel reageer ik hier niet meer

Je moet vooral waken voor spaningsuitval. Een SSD met super capacitor is dus wel handig (Intel 320 series > 40GB). Als je SSD dan kapot gaat of uitvalt ben je hoogstens een paar commits kwijt.

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
FireDrunk schreef op dinsdag 07 augustus 2012 @ 16:17:
Je moet vooral waken voor spaningsuitval. Een SSD met super capacitor is dus wel handig (Intel 320 series > 40GB). Als je SSD dan kapot gaat of uitvalt ben je hoogstens een paar commits kwijt.
Ik zit nog een beetje te twijfelen of ik de VMs op mijn 10 disk storage pool ga zetten, of er een aparte RAID10 pool van 4 disks voor ga aanmaken.
Ik heb trouwens nog een 40GB Intel 320 series SSD liggen, die zou ik ook nog in kunnen zetten als ZIL device.
Ik zeg niet voor niets > 40GB :)
De 40GB versie heeft net geen supercapacitor :)

Even niets...


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Ik heb iets raars, twee van mijn zes disks in een raidz2 pool op zfsguru geven continu aan dat ze 'sleeping' zijn als power status op het advanced tabblad van het disks menu. Zelfs op dit moment, wanneer er een scrub wordt uitgevoerd. Heb ook al eens geluisterd, maar voor zover ik kan horen zijn ook al mijn disks opgespind. Misschien een bugje? Ik draai 0.2.0 beta5 en mijn pool draait op zpl5 en spa28.

Verwijderd

Topicstarter
Daar was een smartctl commando voor. Kan gewoon zijn dat je schijven zo reageren, of misschien wel een bug in smartmontools. Wat voor schijven heb je?

  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Samsung F4 2TB. Heb er verder ook niets van gemerkt, kwam er per toeval gewoon achter. Beide schijven zitten ook gewoon op de moederbord controller, mocht dat nog wat uitmaken.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Het komt mogelijk door je moederbord.

Met de oude Frankenstein opstelling met een 1155 - DH61AG had ik wel de correcte status van de HDDs en de voltages bij ZFSguru 0.2.0 beta 5., system version 9.0-004, ..
Ik heb eenzelfde installatie op een oudere pc uitgevoerd (ook 0.2.0 beta 5, ... socket 1156 - H55M-ED33) en uiteindelijk de schijven aan die andere installatie gehangen. Nu laten die schijven ook alleen maar 'sleeping' zien. Met die nieuwe installatie kreeg ik ook de melding 'Note: no voltage sensors are available on your system.', maar de 'sleeping' is vervelender en opmerkelijker.

In mijn geval gaat het om een installatie met een mix van schijven: WD25EZRX, WD6400AACS en een (Barracuda 7200.10) ST3320620AS. Ze draaien allemaal als single disk.

De CSL/OT kroeg !

Vaak heeft dat ofwel met de ACPI versie te maken (1.0 is wat kaal, en sommige moederborden doen alleen 1.0) of met de SMART instellingen in je BIOS. In al mijn moederborden kan je het uitzetten, misschien dat dat per ongeluk gebeurd is?

Ik heb ook al een heel aantal verhalen gehoord dat hele nieuwe moederborden bijvoorbeeld niet meer met ESXi werken (sommige Intel Q77 borden) omdat ze een nogal smerige ACPI implementatie hebben. ESXi vind dat niet zo grappig.

[ Voor 32% gewijzigd door FireDrunk op 08-08-2012 09:30 ]

Even niets...

webbier schreef op woensdag 08 augustus 2012 @ 07:43:
Samsung F4 2TB. Heb er verder ook niets van gemerkt, kwam er per toeval gewoon achter. Beide schijven zitten ook gewoon op de moederbord controller, mocht dat nog wat uitmaken.
Voor alle zekerheid. Heb je de nieuwste firmware erop staan? Er waren namelijk wat problemen met smartmontools en de HD204UI met oude firmware http://sourceforge.net/apps/trac/smartmontools/wiki.

Sinds de 2 dagen regel reageer ik hier niet meer


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Ik geloof dat de betreffende schijven van na dec. 2011 zijn, als het goed is zou het firmware probleem daar al verholpen zijn. Ik zal het voor de zekerheid vanavond even nakijken als ik thuis ben.

Moederbord is trouwens een ASUS E35M1-I.

Heeft het verder nog invloed op de performance van de schijven ofzo, ik weet er niet zo veel vanaf verder.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
FireDrunk schreef op woensdag 08 augustus 2012 @ 09:28:
Vaak heeft dat ofwel met de ACPI versie te maken (1.0 is wat kaal, en sommige moederborden doen alleen 1.0) of met de SMART instellingen in je BIOS. In al mijn moederborden kan je het uitzetten, misschien dat dat per ongeluk gebeurd is?
Bij mij stond ACPI op 1.0 niet op 3.0, stond de zaak op IDE niet ACHI, parallele poort actief....ofwel, het hele moederbord is blijkbaar teruggegaan naar default settings. Maakt dat de oorzaak van een aantal opmerkelijke zaken opeens gevonden is. Daar had ik geen tijd voor om dat uit te zoeken, maar dat het dit was... :F

De CSL/OT kroeg !


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
Beste,

Ik probeer ZFSguru 9 te installeren als VM maar loop tegen het probleem aan dat ik geen ip krijg toegewezen... (http://0.0.0.0)

Zou het eraan kunnen liggen dat ZFS guru mijn onboard netwerkkaart niet ondersteund? Of lees ik ergens overheen? AndereVM's krijgen wel netjes een ip.

Ik ben nog vrij onbekend in de virtuele omgeving.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Heb je de netwerkkaart bij de instellingen van de VM op bridged gezet?
Indien ja, voer eens het commando 'ifconfig' uit. Het zou kunnen dat je wel een IP adres hebt, maar dat ZFSguru het niet goed weergeeft.

@hieronder, spuitelf. :+

[ Voor 9% gewijzigd door Dadona op 08-08-2012 10:18 ]

De CSL/OT kroeg !

Let op dat de detectie van ZFSguru niet altijd even goed gaat.
Check vooral zelf even met het commando ifconfig.

Wat dadona dus zegt 8)7 |:(

[ Voor 12% gewijzigd door FireDrunk op 08-08-2012 10:18 ]

Even niets...


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
Thanks, daar stond hij wel tussen.

  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
Ik weet niet of ik hier juist zit met mijn vraag maar ik stel hem toch maar.

Zijn er mensen bekend met ZFSguru?

Ik probeer een pool aan te maken in ZFSguru (version 0.2.0-beta5)
Echter als ik op "Create pool" druk, krijg ik de waarschuwing : "looks like you forgot to select member disks, please correct!"

Mijn vraag: waar/hoe kan ik die selecteren?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
ZFSguru komt hier eigenlijk weinig aan bod. En er lopen al helemaal geen gurus hier rond die een vinger in de pap hebben.

Maar ik wil wel een gokje doen. Als je een pool aanmaakt dan zie je niet ver daaronder 'Member disks' staan. Als de discs nog beschikbaar zijn dan zou je die schijven moeten kunnen selecteren.

De CSL/OT kroeg !


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
Bedankt!

Hmmm. daar staan bij mij dus geen disks... terwijk als ik bij tablat disks kijk, zie ik ze daar wel degelijk staan.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Heb je die schijven al geformateerd?

De CSL/OT kroeg !


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
ja, als mbr

Verder goed om te vermelden:

Ik draai de VM in ESXI 5.0.0

Detected 5 disks, select a disk for formatting options.
Disk Label Size (legacy) Size (binary) Sector Identified as
da0 56.9 GB 53 GiB 512 B <VMware Virtual disk 1.0> Fixed Direct Access SCSI-2 device
da1 2 TB 1.8 TiB 512 B <VMware Virtual disk 1.0> Fixed Direct Access SCSI-2 device
da2 2 TB 1.8 TiB 512 B <VMware Virtual disk 1.0> Fixed Direct Access SCSI-2 device
da3 2 TB 1.8 TiB 512 B <VMware Virtual disk 1.0> Fixed Direct Access SCSI-2 device
da4 2 TB 1.8 TiB 512 B <VMware Virtual disk 1.0> Fixed Direct Access SCSI-2 device

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Erm? /disks.php?query=da1 Heb je daar voor GPT of GEOM gekozen?

De CSL/OT kroeg !


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
Ps.
Ze worden gezien zie ik met een sector grote van 512 B, dit wil ik eigenlijk ook nog opkrikken maar dat moet ik denk ik doen vanuit ESXI...
Hoe heb je de disks doorgegeven? Via gewone vDisks of via een mappingmechanisme (RDM / VT-d)?

Even niets...


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
Inmiddels mijn pool kunnen maken. mijn schijven waren verkeerd geformateerd (ik moest GPT hebben)
Inmiddels werkt mijn NAS super op mijn netwerkt. lees en schrijf snelheden ca 100mb/s


Echter kan ik mijn sector grote niet optimaal als ik dat zo lees... moet dus naar 128kb dus ik denk dat ik mijn schijven opnieuw moet formateren in ESXI met een nieuwe instalatie? of zijn er andere manieren?

Of is het eigenlijk niet echt nodig?
Ik snap niet wat je bedoeld met 128KB sectorsize? De sectorsize ligt vast op 512 Bytes of 4Kilobytes afhankelijk van de fabrikant. Je kan je pool voor 4K schijven optimaliseren.

Even niets...


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 22-12 07:49
O, oke, helder.
Ik was in de war met 128kb strips.
Gisteren wel wat zitten vloeken: bij de collega hingen de disks via RDM aan een OpenIndiana VM. We hadden samen de LSI controller geïnstalleerd en de disks daar aan gehangen. Daarna de controller aan de VM gehangen.

De disk werden niet meer gevonden, logisch lijkt me... Dus de pool was "kapot". We hebben de pool proberen te exporteren, ging natuurlijk niet. Vervolgens de pool verwijderd en daarna konden we geen import doen via de disks... Dan maar een nieuwe pool gemaakt met het idee van "hij geeft wel een foutmelding als hij de pool vindt", maar daar ook niks...

Nu dus een lege pool, data kwijt... Data was niet ZO belangrijk, maar toch... Daar stond de Windows 7 VM op die ik graag met de telkens een van de twee gepasstrough'ede grafische kaarten werkend had willen zien...

Verwijderd

Topicstarter
Waarom ga je je pool verwijderen HyperBart? Lijkt me logischer om ZFSguru/FreeBSD of zelfs Linux op te starten en daarmee je pool te importeren?

Een pool is FAULTED als er onvoldoende disks beschikbaar zijn; maar als je reboot met een paar disks extra dan werkt je pool gewoon; het is dus geen permanent iets.

Zelfs na het verwijderen/destroyen van je pool kun je deze nog terughalen. Als je de ZFSguru livecd boot kun je kiezen voor Import deleted pool, die gebruikt import -d in plaats van normale import. Mits je niets naar je disks geschreven hebt, kun je zo heel je pool terughalen.
Dan maar een nieuwe pool gemaakt met het idee van "hij geeft wel een foutmelding als hij de pool vindt",
Dat gebeurt natuurlijk niet meer als jij ZELF hebt aangegeven dat de oude pool verwijderd mag worden en je de data daarop dus niet meer nodig hebt. ZFS gaat niet klagen over verwijderde pools; alleen als je een pool wilt maken met disks waarop al een pool staat (die niet verwijderd is). Je hebt dus alle beveiligingen omzeild en je grote fout is geweest om de pool te verwijderen! Dat moet je niet doen als je de data ervan nog wilt hebben.

Als je nieuwe pool niet de data van de oue pool heeft overschreven, kun je deze nog steeds terughalen!

[ Voor 36% gewijzigd door Verwijderd op 08-08-2012 17:08 ]

Het ruikt alweer naar die smerige LSI Controller van VMware... Er is toch iets mis met dat ding volgens mij.
Ik heb ook een hoop disken gezien van 0MB op die controller in de afgelopen weken.

Vind het allemaal maar vreemd...

Even niets...


  • Pirtkoei
  • Registratie: April 2006
  • Laatst online: 07:07
FireDrunk schreef op woensdag 08 augustus 2012 @ 17:13:
...
Vind het allemaal maar vreemd...
Zullen we naar Palo Alto gaan om het aanhangig te maken? :+ :X
Naar wie?
===

Net nog maar weer even RDM zitten testen, maar het is echt heel vreemd.
De LSI (MPS) driver in ZFSguru geeft aan dat het device 0MB groot is. Terwijl diezelfde RDM onder windows perfect werkt.

Daarna eens onder ZFSguru smartctl -a /dev/da1 er op los gelaten, en ik krijg zowaar gewoon keurig resultaat.
De disk word dus wel herkend, alleen gaat er in de driver duidelijk iets mis. Als je 1-op-1 met de disk communiceert op ATA niveau, werkt alles prima en krijg je keurig alle stats door.

Ik vertrouw die driver echt niet :(


 mps_identifiers[] = {
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2004,
            0xffff, 0xffff, 0, "LSI SAS2004" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2008,
            0xffff, 0xffff, 0, "LSI SAS2008" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2108_1,
            0xffff, 0xffff, 0, "LSI SAS2108" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2108_2,
            0xffff, 0xffff, 0, "LSI SAS2108" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2108_3,
            0xffff, 0xffff, 0, "LSI SAS2108" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2116_1,
            0xffff, 0xffff, 0, "LSI SAS2116" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2116_2,
            0xffff, 0xffff, 0, "LSI SAS2116" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2208_1,
            0xffff, 0xffff, 0, "LSI SAS2208" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2208_2,
            0xffff, 0xffff, 0, "LSI SAS2208" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2208_3,
            0xffff, 0xffff, 0, "LSI SAS2208" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2208_4,
            0xffff, 0xffff, 0, "LSI SAS2208" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2208_5,
            0xffff, 0xffff, 0, "LSI SAS2208" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2208_6,
            0xffff, 0xffff, 0, "LSI SAS2208" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2308_1,
            0xffff, 0xffff, 0, "LSI SAS2308" },
        // Add Customer specific vender/subdevice id before generic
        // (0xffff) vender/subdevice id.
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2308_2,
            0x8086, 0x3516, 0, "Intel(R) Integrated RAID Module RMS25JB080" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2308_2,
            0x8086, 0x3517, 0, "Intel(R) Integrated RAID Module RMS25JB040" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2308_2,
            0x8086, 0x3518, 0, "Intel(R) Integrated RAID Module RMS25KB080" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2308_2,
            0x8086, 0x3519, 0, "Intel(R) Integrated RAID Module RMS25KB040" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2308_2,
            0xffff, 0xffff, 0, "LSI SAS2308" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SAS2308_3,
            0xffff, 0xffff, 0, "LSI SAS2308" },
        { MPI2_MFGPAGE_VENDORID_LSI, MPI2_MFGPAGE_DEVID_SSS6200,
            0xffff, 0xffff, MPS_FLAGS_WD_AVAILABLE, "LSI SSS6200" },
        { 0, 0, 0, 0, 0, NULL }


Uit de FreeBSD MPS driver... Geen 1068 dus...

[ Voor 168% gewijzigd door FireDrunk op 08-08-2012 18:45 ]

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Niet wie maar waar vermoed ik zo.
Palo Alto is een stad in Californië, het hoofdkantoor van LSI staat in Milpitas dat ook in Californië ligt. De twee plaatsen liggen 15,1 mijl uit elkaar en als je nu van de ene naar de andere plaats zou gaan kost je dat met de auto 27 minuten :+

Dat is met de meest recente system image met daarin de nieuwe driver voor de LSI ?

[ Voor 12% gewijzigd door Dadona op 08-08-2012 19:31 ]

De CSL/OT kroeg !

Pagina: 1 ... 39 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.