Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Ik heb inmiddels op het zfs guru forum wel een soort van stappenplan van CiPHER gevonden:
Posted on 7 February 2014 @ 08:01

You should:
1) update web-interface to beta9
2) update bootcode to v5000
3) backup /var/db/mysql and store it somewhere on your pool
4) install 10.0-002
5) upgrade your pool to v5000 (optional)
6) install MySQL service and afterwards restore the /var/db/mysql directory while the service is NOT running.
7) reboot

Good luck :)
Dit was op een vraag van iemand die als enige add-on mysql had draaien, dus 3) en 6) gaan niet op voor een kale setup lijkt me. (maar zouden wel gelden voor enige andere add-on)

Heb ik nog 2 vragen:
1. stap 2, update bootcode: is dat alleen op de SSD waar ik het systeeem op heb draaien ? Of ook op de 2 Pools die ik heb ? (dus 20 hdds doen in de web gui of command line)

2. stap 5, upgrade pool naar v5000 is dit wederom de bootpool op de ssd (lijkt me logisch) Maar is dit veilig om op een gevulde pool te doen zonder impact op de data ?


toevoeging voor 2: Ik heb nog ruimte om mijn pools compleet leeg te maken, maar dan moet ik 24, 20 12 en 3 TB data over gaan copieren naar andere server / pool in een ingewikkeld patroon:

server-2-pool-2 3 TB aan data -> server-2-pool-1
server-2-pool-2 omzetten naar v5000
server-2-pool-1 12 + 3 TB aan data -> server-2-pool-2
server-2-pool-1 omzetten naar v5000
server-2-pool-2 12 + 3 TB aan data -> server-2-pool-1

bovenstaande blijft in 1 server en zou nog te doen zijn qua doorlooptijd schat ik in.

Maar dan de volle server 1... Zelfde plan doorzetten:

Server-1-pool-1 24 TB aan data -> server-2-pool-2
Server-1-pool-1 omzetten naar v5000
Server-2-pool-2 24 TB aan data -> server-1-pool-1

Server-1-pool-2 20 TB aan data -> server-2-pool-2
Server-1-pool-2 omzetten naar v5000
Server-2-pool-2 20 TB aan data -> server-1-pool-2

Dit gaat lang duren, al heb ik 10 GE tussen deze 2 nassen.

Als alternatief zou ik uit server 1 een pool kunnen unmounten, 10 hdds uit de norco trekken, de pool-2 van server-2 uit die norco halen en 1 server 1 stoppen en pool mounten. Dan heb ik weer lokaal ruimte genoeg, en kan ik data heen en weer copieren. Dit moet ik dan met beide pools doen.

Dit bovenstaande lijkt me erg veel werk, is het allemaal nodig ?

[ Voor 0% gewijzigd door jacovn op 14-05-2014 11:53 . Reden: spelfout ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 30-09 21:03
Ga je nu voor 10.0-002?

Waarom niet de nieuwere, (en nog stabielere bsd variant?) 10.1-001

Upgraden van de pool kan met data erop, zelf ook gedaan op een kleine pool.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Nee, het was een quote van het zfsguru forum uit january, dat was toen actueel, nu al niet meer neem ik aan.
Zou 10.1-001 moeten worden inderdaad.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ikkeenjij36 schreef op woensdag 14 mei 2014 @ 11:00:
Hallo bedankt allemaal voor de goed bedoelde adviezen.
Mijn excuses voor mijn reacties maar werdt er totaal gefrustreerd van dat het niet wou werken met een clean install.
Je boot sequence is waarschijnlijk het probleem geweest; je startte van de verkeerde disk. Je moet je BIOS wel leren van de juiste disk te booten; waar je ZFSguru op hebt geïnstalleerd.
Mijn ssd gebruik ik nu als slog device en alles draait gelukkig nu.
Jouw OCZ Vertex SSD is in elk geval ongeschikt voor de sLOG feature. Die feature kun jij beter niet gebruiken. Je hebt er ook maar weinig profijt van, en het risico bestaat dat je problemen krijgt met application data, zoals een VM image. Je kunt een onbeveiligde SSD wel gebruiken voor L2ARC (cache) - dat is een veilige feature.
Nu bezig met de basic dingen voor mij en daarna doe ik niks meer erbij zetten en hou het gewoon basic.
Dat lijkt mij een goed plan. Ik dacht ook enkele dagen geleden nog te lezen dat je met 10.1-001 een installatie had waarbij alles goed werkte. Waarom het nodig is om elke week opnieuw ZFSguru te installeren is mij dan ook een raadsel. Mijn eigen server update ik eens per half jaar. Je wilt toch gewoon bestanden opslaan en dat het werkt? Lekker van af blijven als het eenmaal draait; dat geldt voor alles.
jacovn schreef op woensdag 14 mei 2014 @ 11:48:
Heb ik nog 2 vragen:
1. stap 2, update bootcode: is dat alleen op de SSD waar ik het systeeem op heb draaien ? Of ook op de 2 Pools die ik heb ? (dus 20 hdds doen in de web gui of command line)
Je kunt het beste alle bootcode updaten, ook al gebruik je die niet actief voor het booten. Als je zoals ikenjij opeens je BIOS van een andere disk laat booten, wat soms gebeurt als je een disk hebt afgekoppeld en aangekoppeld of wat met de kabels harkt, dan reset de boot sequence bij sommige bordjes. Kortom, altijd de nieuwste bootcode draaien op alle disks. Maar je hebt gelijk: alleen de disk waar je van boot heeft het strict nodig. Maar je kunt met nieuwe bootcode ook van oudere pools booten; dus geen reden om niet te updaten.
2. stap 5, upgrade pool naar v5000 is dit wederom de bootpool op de ssd (lijkt me logisch) Maar is dit veilig om op een gevulde pool te doen zonder impact op de data ?
Ja, het updaten van de ZFS pool is geheel risicoloos voor je data. Weet wel dat je pool niet meer te gebruiken is op systemen die geen ZFS v5000 ondersteunen, dat is logisch. Maar je pool is ook niet meer te gebruiken op v5000 systemen die een paar ZFS features niet ondersteunen die jouw pool wel heeft geactiveerd. En dat weet niet iedereen. Een nieuwere v5000 pool werkt dus niet op een systeem met een oudere versie van ZFS die wel v5000 is, maar niet alle feature flags ondersteunt.
Dit bovenstaande lijkt me erg veel werk, is het allemaal nodig ?
Ehh nee, waarom? Je kunt gewoon updaten naar v5000 als je dat wilt. Als je dat niet wilt, laat je het lekker zo. v28 is prima. v5000 geeft je nu enkel LZ4-compressie. Als je daar niet zo warm van wordt, kun je prima bij v28 blijven is ook beter compatible natuurlijk - bijvoorbeeld met Solaris platform.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
CiPHER, bedankt hier kan ik wel mee verder.

Ik kan wel goed met de bios boot omgaan, op een supermicro werkt dat prima en kun je wel herkennen welke device je hebt. Bovendien een Intel als systeem SDD en een Samsung SSD als L2ARC zijn ook nog makkelijk uit elkaar te halen.

LZ4 heb ik niet echt nodig omdat het allemaal BluRay rips zijn op mijn NAS units, en aan H.264, VC-1 en MPEG-2 is ook al niet veel winst meer te halen met een extra compressie slag vrees ik.
Aan de andere kant draait het op een Xeon 1265Lv2 en een 1220 dus die zullen wel CPU cycles genoeg over hebben..

Wat betreft die data pool updates, ik ben bang om data te verliezen, en niet zo een BSD gebruiker met ervaring.. Dus beter maar vragen dan achteraf komen klagen leek me.

Alles werkt overigens altijd super, dus bedankt voor al je werk (en dat van Jason) !

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Hallo nog een keer een vraag,ik heb nu na alle ellende van gister/vannacht het draaien op mijn hdd pool.
Nu merk ik echter dat tijdens het laden van de pagina's dat het vrij lang duurt voordat er de volgende pagina komt die ik opgevraagd heb(in de webgui).
Ligt dit puur dat het nu op de hdd's draait ipv op de ssd?
Misschien moet ik er gewoon aan wennen dat het een seconde of 10 duurt voordat het verschijnt.
Groet.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat gebeurt als het goed is alleen bij het downloaden van de service database. Daarna zouden pageviews sneller moeten gaan. De volgende release introduceert een nieuwe database voor remote data en is ook compressed en betere caching, dus dan zijn sommige pagina's ook sneller.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Verwijderd schreef op woensdag 14 mei 2014 @ 20:57:
Dat gebeurt als het goed is alleen bij het downloaden van de service database. Daarna zouden pageviews sneller moeten gaan. De volgende release introduceert een nieuwe database voor remote data en is ook compressed en betere caching, dus dan zijn sommige pagina's ook sneller.
Ok prima,ik ga er gewoon mee leren leven O-)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Het helpt denk ik als je op de System->Preferences pagina de master server instelt op Bravo (EU) in plaats van Alpha (USA).

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Verwijderd schreef op woensdag 14 mei 2014 @ 21:23:
Het helpt denk ik als je op de System->Preferences pagina de master server instelt op Bravo (EU) in plaats van Alpha (USA).
Ok heb ik gedaan,ook cahe gegevens vd browser gewist heeft ook geholpen. :)
Update:Na een dag/nacht draiien heb ik nog steeds het probleem dat de webgui niet of nauwelijks te laden is.
Op verschillende browsers geprobeerd maar geen geluk.
Op mijn foon kan ik in de status webgui komen maar als ik daarna na een ander blad klik gebeurt er ook niks of na een x aantal minuten pas,dat was toe ik op de ssd het os had heel anders.
Nu moet ik wel zeggen dat ie heel erg druk is met dl om mijn media weer terug te krijgen,weet niet of dat nog erg van invloed is?
Ik hoor graag weer terug.

[ Voor 45% gewijzigd door ikkeenjij36 op 15-05-2014 12:29 ]


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Recent heb ik naar tevredenheid een ZFS fileserver draaien (10 x 4TB in RAID-Z2). Bij het testen van mijn FTP-server liep ik er tegenaan dat ik geen bestanden kan ftp'en naar een map die volgens de ftp-serversettings wel schrijfrechten heeft. Ik bleef de melding "permission denied" krijgen. Nu ben ik inmiddels de oorzaak hiervan gaan zoeken bij de opzet van ZFS en vermoed dat ik het gevonden heb. Graag wil ik de beoogde oplossing even bij de kenners verifiëren.

Toen ik bij de inrichting van de ZFS-server een datapool had gemaakt, verschenen er onder Files twee filesystems: Data en Data/share. Ik heb mijn 19TB data naar Data gekopieerd en de Data/share genegeerd, omdat ik niet wist wat ik ermee moest. Heen en weer kopiëren van data tussen het Data filesystem en mijn Windows pc verloopt verder prima. In mijn onderzoek naar de oorzaak van de "permission denied" melding bij bestandsoverdracht via ftp viel mijn oog op de volgende mededeling bij Files als ik het filesystem Data aanklik.
You have selected the primary filesystem of pool Data. Though possible, sharing this filesystem is not recommended.
Instead, create a new filesystem using the button on top of this page. Doing so will set permissions appropriate to filesharing.
Beware that changes, like compression, will cause all children filesystems to use the same setting by default. This is called inheritance.
Ondanks dat het schrijven op Data tot op heden geen probleem is geweest, is het blijkbaar in het kader van de ftp-service wel een belemmering dat er een beperking zit op de schrijfrechten van dit filesystem. Bovenstaande mededeling staat niet bij het filesystem Data/share. Mijn vermoeden is dat de aard van het filesystem verantwoordelijk is voor de "permission denied" melding. En ik denk dit te kunnen oplossen door al mijn data te verhuizen van Data naar Data/share en vervolgens alle verwijzigen naar de share aan te passen.

Klopt dit?

Acties:
  • 0 Henk 'm!
FTP werkt vaak met anonymous als gebruiker. Het share filesystem is onder ZFSguru standaard voorzien van 777 (chmod) rechten, en is dus geen probleem.

Het data filesystem zal niet (chmod) 777 rechten hebben, en dus niet zomaar voor FTP bereikbaar zijn.


(best guess, zeker weten doe ik het natuurlijk niet, het is jouw server :P )

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Hoe kan ik handig alle data van Data overzetten naar Data/share? Via de Windows pc lijkt me een omweg.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
Als je een SMB-share kunt maken van /data dan _zou_ Windows door moeten hebben dat (in ieder geval voor Windows) binnen één lokatie valt waardoor ook Windows er een pointer-aanpassing van zou moeten maken.

Als dit mis gaat omdat het verschillende filesystems is (ondanks dat het één pool is) dan zou ik op de shell de hoofdmap(pen) een `mv` geven zodat het op de server zelfs gekopieerd wordt zonder 2x over het netwerk te gaan, dan kun je de (eventuele) sortering daarna wel via Windows doen.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
Voor Samba intern zijn filesystems hetzelfde als verschillende schijven, pointer aanpassing gaat sowieso niet werken.

(Stel je voor dat je compressie aan hebt op het ene filesystem, en uit op het andere... Dan zou het instant gecomprimeerd moeten worden?)

Een mv of rsync is inderdaad de oplossing.

Je kan ook een ZFS Send & Receive doen naar een nieuw filesystem.

Ik heb bijvoorbeeld helemaal geen filesystem met de naam Share, maar een filesystem met de naam Data :)

[ Voor 22% gewijzigd door FireDrunk op 16-05-2014 13:06 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
Ja ok, maar wat doet Windows dan? Krijgt die nul op rekest bij het aanvragen van een move en gaat Windows het 2x over het netwerk slepen of krijgt Windows een 'Ok, doe ik' terug en gaat het NAS de data verplaatsen?

Maar vandaar dus dat ik met de 2e optie kwam :P

[ Voor 10% gewijzigd door Paul op 16-05-2014 13:23 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Als ik onderstaande post van begin dit jaar moet geloven moet ik geen mv gebruiken maar ZFS Send & Receive. Geen idee hoe ZFS send & receive werkt, maar daar kom ik met google wel achter hoop ik.
CurlyMo schreef op donderdag 16 januari 2014 @ 08:24:
Verplaatsen tussen pools doe je nooit met mv of cp. Die checken niet of bestanden ook daadwerkelijk correct aankomen. Gebruik de interne ZFS send / receive of tools zoals rsync.

Acties:
  • 0 Henk 'm!
-Moondust- schreef op vrijdag 16 mei 2014 @ 13:30:
Als ik onderstaande post van begin dit jaar moet geloven moet ik geen mv gebruiken maar ZFS Send & Receive. Geen idee hoe ZFS send & receive werkt, maar daar kom ik met google wel achter hoop ik.
http://portrix-systems.de...-incremental-sendreceive/

Deze tutorial heb ik meerdere malen gebruikt om grote pools te kopiëren.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
@CurlyMo
Wacht, ik wil WEL verplaatsen binnen een pool (van het ene filesystem naar de andere) en dus kan ik WEL mv gebruiken. Toch?

code:
1
mv /Data /Data/share


Zoiets?

[ Voor 76% gewijzigd door -Moondust- op 16-05-2014 13:56 ]


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 30-09 21:03
volgens mij is de truuc dat je mv alleen gebruikt bij verplaatsen binnen 1 filesystem.

per filesystem kunnen compressie en vele andere zaken namelijk verschillen

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
In mijn geval delen beide filesystems dezelfde pool en zijn de in ZFSguru zichtbare eigenschappen van beide filesystems gelijk. Wellicht dat er onder water nog verschillen zijn. Sowieso is Data/share ingericht op filesharing en Data als primary filesystem blijkbaar niet. Wat kan er gebeuren bij een move bij ongelijke eigenschappen?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
Dat het lang duurt omdat hij het bit voor bit moet kopiëren :P Maar dat is niet anders dan wanneer je het vanaf een USB-stick naar HDD kopiëert of op Windows iets van C: naar D: verplaatst.

Maak het niet ingewikkelder dan nodig, want dat is het namelijk niet :) Als je al niet eens zonder problemen bestanden zou kunnen kopiëren / verplaatsen dan waren er veeeel minder mensen die al ZFS zouden draaien ;)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Ok, dit dus?

code:
1
mv /Data /Data/share


Of dit?

code:
1
mv /Data/* /Data/share/*


Ik ben er een beetje huiverig voor om dit uit te voeren, omdat ik nergens een heldere uitleg met syntax van dit commando kan vinden. Feitelijk weet ik dus niet precies wat ik doe.

edit:
Heb nu uitgevonden dat je met het commando "man mv" de uitleg en syntax van mv tevoorschijn kan halen. Moet het source en destination path beginnen met een forwards slash?

[ Voor 26% gewijzigd door -Moondust- op 16-05-2014 14:58 ]


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 03-10 16:25
-Moondust- schreef op vrijdag 16 mei 2014 @ 14:35:
Ok, dit dus?

code:
1
mv /Data /Data/share


Of dit?

code:
1
mv /Data/* /Data/share/*


Ik ben er een beetje huiverig voor om dit uit te voeren, omdat ik nergens een heldere uitleg met syntax van dit commando kan vinden. Feitelijk weet ik dus niet precies wat ik doe.

edit:
Heb nu uitgevonden dat je met het commando "man mv" de uitleg en syntax van mv tevoorschijn kan halen?
Bij de laatste verplaats je alle bestanden uit /data/ EN /data/share/ op het laatste filename na, naar de laatste filename. indien laatste file geen directory is, roept ie dat het geen map is

code:
1
mv /data/* /data/share/
is de syntax die je zoekt. Je moet je beetje voorstellen dat shells je * expanden naar en volle argument list. Dus als je bestand 'a','b','c' in /data/ hebt. Dan is het eigenlijk

code:
1
mv /data/a /data/b /data/c /data/share/

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Ah ok, bedankt allen. Ik ga vanavond voor het slapengaan alles uitzetten dat de data gebruikt, het move commando executen en dan maar bidden dat het goed gaat.

Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 03-10 13:28
korte vraag, ik heb zfsguru draaien, en scrub op weekly aangezet, dacht ik.
Maar ik kan even niet meer vinden waar ik dit nu heb geconfigureerd, of dit nu ergens in /etc/.. was of ergens anders.
Iemand die mij de goeie kant op kan wijzen?
En ik zoek ook waar ik de snapshots kan schedulen, ipv, handmatig gedoe. mogelijk in diezelfde file als waar de scrub in gesteld staat.

b.v.d.

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!
ZFS send / receive werkt op zfs filesystem niveau en niet op pool niveau. Het maakt dus niet uit of je tussen pools zend of binnen pools.

Bijv.:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
[root@server /test]# zpool status test
  pool: test
 state: ONLINE
status: The pool is formatted using a legacy on-disk format.  The pool can
        still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'.  Once this is done, the
        pool will no longer be accessible on software that does not support feature
        flags.
  scan: none requested
config:

        NAME           STATE     READ WRITE CKSUM
        test           ONLINE       0     0     0
          mirror-0     ONLINE       0     0     0
            gpt/test1  ONLINE       0     0     0
            gpt/test2  ONLINE       0     0     0

errors: No known data errors
[root@server /test]# zfs create test/send
[root@server /test]# zfs create test/receive
[root@server /test]# zfs list | grep test
test                              344K  87.7M    33K  /test
test/receive                       31K  87.7M    31K  /test/receive
test/send                          31K  87.7M    31K  /test/send
[root@server /test]# ls
receive send
[root@server /test]# touch send/test.txt
[root@server /test]# ls send/
test.txt
[root@server /test]# ls receive/
[root@server /test]# zfs snapshot test/send@backup
[root@server /test]# zfs list -t snapshot | grep test
test/send@backup                                        0      -    31K  -
[root@server /test]# zfs send test/send@backup | zfs receive -Fvu test/receive
receiving full stream of test/send@backup into test/receive@backup
received 42.2KB stream in 1 seconds (42.2KB/sec)
[root@server /test]# zfs list -t snapshot | grep test
test/receive@backup                                     0      -    31K  -
test/send@backup                                        0      -    31K  -
[root@server /test]# ls receive/
test.txt


Denk eraan dat je geen -d meegeeft aan zfs receive. Voor de rest kan je gewoon de tutorial volgen zoals in de link.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb geen idee of dit hier ook mag, maar het is wel een vraag betreffende ESXi / zfs

Ik heb ESXi geinstalleerd met de bedoeling omni os en napp-it een keer te testen.

Ik heb de tutorial gebruikt. http://www.napp-it.org/doc/downloads/all-in-one.pdf

Ik ben geraakt tot het punt dat omni oss en napp-it draait, maar ik zie totaal geen harde schijven.

Het bord is een supermicro x10SL7 waar de schijven op de LSI 2308 staat die reeds in IT mode draait. Toch kan ik wanneer ik in ESXi 5.5 (via vSphere client) werk, en naar configuration /advanced settings
geen pass through selecteren. Het lijkt alsof hij die LSI daar niet kan detecteren. Daar staat de melding " Host does not support pass through configuration". Ik heb het dubbel gecheckt, hij staat wel degelijk 100% in IT mode. (In freenas en zfsguru werkte dit wel zonder problemen). Bij storage adapter staat hij dan wel bij als LSI2308_1 en daar detecteert hij wel alle schijven. Wanneer ik Napp-it image 14a VM draai, kan hij echter geen enkel schijf detecteren, en kan ik dus geen pool aanmaken.

Iemand die mij kan zeggen hoe ik wel schijven kan zien in de Napp-it 14a (Napp-in-one) zodat ik een zfs pool kan aanmaken ?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Host does not support pass through configuration
Ondersteunt je processor en moederbord wel Vt-d (IOMMU) ?

Dit is verder een vraag voor ESXi; geen ZFS gerelateerde vraag.

Acties:
  • 0 Henk 'm!

Verwijderd

Scuzi :), vond het ESXi topic niet en ik wil wel graag zfs runnen he ;)

Mijn cpu is g3420. Zou dat dus kunnen dat het niet werkt omdat mijn cpu dat niet ondersteunt ?

Wat heeft die cpu te maken, met passthrough van LSI 2308 it ?

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op zaterdag 17 mei 2014 @ 14:04:
Scuzi :), vond het ESXi topic niet en ik wil wel graag zfs runnen he ;)

Mijn cpu is g3420. Zou dat dus kunnen dat het niet werkt omdat mijn cpu dat niet ondersteunt ?

Wat heeft die cpu te maken, met passthrough van LSI 2308 it ?
De CPU moet Vt-d ondersteuning bieden anders kun je geen controllers e.d. doorgeven (passthrough) aan je VM. Aangezien jouw G3420 dat niet doet gaat dat niet lukken.

En nu vort naar t ESXi topic ;)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Nedje
  • Registratie: September 2006
  • Laatst online: 09:51
Vandaag aan de slag gegaan met ZFSGuru. Het viel me op dat er nu staat: Powered by ZFSguru version 0.2.0-beta8
Running an unofficial system image featuring FreeBSD 10.0-STABLE with ZFS v5000.
Running an unknown distribution.

Terwijl dit voorheen groen was? Weet iemand hoe dit op te lossen? Nu werken mijn services niet namelijk

PSN: Nedjee, XBL Gamertag: NedjeNL


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je hebt de (remote) database nog niet geupdate. Klik op de services pagina en probeer nog eens. Bovendien draai je beta8 en 10.1-001 systeemversie hoort bij beta9. Dat kun je updaten op de System->Update pagina.

Hmm ik zie ook Unknown Distribution. Kun je eens kijken of je een bestand hebt in de root directory genaamd 'zfsguru.dist' ? Anders moet je nog een keer installeren. En kijken of je genoeg vrije ruimte hebt etc.

[ Voor 33% gewijzigd door Verwijderd op 18-05-2014 19:32 ]


Acties:
  • 0 Henk 'm!

  • Nedje
  • Registratie: September 2006
  • Laatst online: 09:51
Zojuist geüpgraded naar Beta9. Ik kan alleen niet vinden hoe ik de (remote) database moet updaten. Bijgevoegd een screenshot van hoe mijn huidige services pagina er uit ziet.
Afbeeldingslocatie: http://i58.tinypic.com/9uwy8w.png


Ik heb pas sinds gister ZFSGuru dus alles is nog heel erg nieuw.

Edit: Even kijken, moment

[ Voor 4% gewijzigd door Nedje op 18-05-2014 19:45 ]

PSN: Nedjee, XBL Gamertag: NedjeNL


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Geen probleem. :)

Als je nu op de Status pagina kijkt, geeft hij dan wel een groen of grijs balkje? Daar hoort te staan dat je een officiële systeemversie draait. Anders is er iets niet goed.

En op de Services pagina kun je naar Install services gaan en daar services installeren. Merk op dat je op dit moment alle dependencies handmatig moet installeren. Maar dat is niet ingewikkeld: gewoon naar de servicepagina gaan en instructies volgen. :)

Acties:
  • 0 Henk 'm!

  • Nedje
  • Registratie: September 2006
  • Laatst online: 09:51
Het balkje op de status pagina is nog steeds rood en bevat deze melding:



Powered by ZFSguru version 0.2.0-beta9
Running an unofficial system image featuring FreeBSD 10.0-STABLE with ZFS v5000.
Running an unknown distribution.



Net even een find uitgevoerd via Terminal, het lijkt er geen zfsguru.dist aanwezig is. Typisch, ik heb de NAS nog geen dag staan of weet het half om zeep te helpen :D

PSN: Nedjee, XBL Gamertag: NedjeNL


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Wat voor boot device gebruik je: USB-stick of hardeschijf of SSD?

Je kunt eens proberen opnieuw een installatie uit te voeren. Dat kun je gewoon doen terwijl je systeem draait. Ga naar System->Install en bij stap 2 kun je daar de 10.1-001 image downloaden en selecteren. Dan kun je bij stap4 de naam veranderen mocht deze al in gebruik zijn.

Dan rebooten en nog eens kijken op de status pagina.

Acties:
  • 0 Henk 'm!

  • Nedje
  • Registratie: September 2006
  • Laatst online: 09:51
Ik heb deze NAS (QNAP 509 Pro) gister overgenomen van een mede-tweaker. Voor zover ik weet draait het OS op een SSD. Ik zal eens een nieuwe installatie uitvoeren (wonder boven wonder kwam ik zelf enkele minuten geleden in dat menu uit)

Edit1: krijg de foutmelding Invalid size; het lijkt erop alsof er slechts een deel van het uzip bestand gedownload wordt. Ik zal de NAS opnieuw opstarten en het nogmaals proberen.

Edit2: Nieuwe installatie is gelukt! Het balkje is weer grijs. Zo te zien moet ik wel mijn services opnieuw installeren, of kan ik evt. de folders uit de oude installatie kopieren?

Edit3: SABNZBD+ opnieuw aan het installeren en configureren. Sickbeard en Couchpotato volgen en daarna moet alles volgens mij weer naar behoren draaien!

[ Voor 55% gewijzigd door Nedje op 18-05-2014 21:35 ]

PSN: Nedjee, XBL Gamertag: NedjeNL


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 10:58
Ik heb eindelijk een simpele ZFS server draaien
Vanwege de verschillende taken die hij moet gaan vervullen(XBMC, MPD, Sabnzb, torrents, webserver, Git-repo, en natuurlijk: files serveren) heb ik er voor gekozen om bij Ubuntu te blijven.
In eerste instantie wat geëxperimenteerd met 14.04 (LTS) met ZFS on root, maar dat gaat toch nog niet echt van een leien dakje. Een tijd bezig geweest om GRUB2 met ZFS support aan de praat te krijgen maar jammerlijk gefaald. Mede omdat 14.04 nog zo nieuw is denk ik (Weinig tutorials voor beunhazen als ik... ;) ).
Daarna een poging gedaan (Wederom met 14.04) met een simpel bootschijfje voor de root, en ZFS datasets voor /var, /home en /usr, maar ook daar een hoop gedoe en errors á la (ik heb de preciese log even niet bijdehand, dus dit is niet mijn exacte error, ik kreeg wel de kernel taint en module license error):
code:
1
2
3
4
[ 1182.784166] SPL: Loaded module v0.6.2-1~saucy
[ 1182.789255] znvpair: module license 'CDDL' taints kernel.
[ 1182.789274] Disabling lock debugging due to kernel taint
[ 1182.883113] ZFS: Loaded module v0.6.2-1~saucy, ZFS pool version 5000, ZFS filesystem version 5

Waarop vervolgens /usr enkel nog read-only gemount kon worden, en ik er achter kwam dat system dirs in ZFS op Linux misschien (voor mij) nog niet zo'n goed idee is.
Nu heb ik een volledige Ubuntu 12.04.4 installatie op een EXT4 partitie en ZFS datasets voor netwerk shares en /home, en dat krijg ik in ieder geval goed aan de praat.
Opzich kan ik hier prima mee leven, het enige wat ik graag zou willen is een handige backup-strategie voor zowel mijn root disk als mijn ZFS pool.
Voor de root-disk zat ik er aan te denken om / te rsyncen naar een ZFS dataset, en daarvan regelmatig snapshots te draaien. Dat beschermt natuurlijk niet tegen bitrot, maar geeft wel het voordeel van eenvoudige snapshots.
Voor het backuppen van de ZFS pool ben ik er nog niet helemaal uit, bestaat er geen Backblaze-achtige tent waar je gewoon heen kan senden/receiven? Amazon S3 is $30/TB/maand wat ik toch een beetje prijzig vind... Hoe doen jullie dat?

Acties:
  • 0 Henk 'm!
Kijk hier eens:
The ZFS Storage Blog!: Ubuntu 14.04 en ZFS

Je hebt waarschijnlijk de bug te pakken dat ZFS start voordat je device tree compleet opgebouwd is.
Bouw eens de vertraging in die ik noem in mijn tutorial en probeer het opnieuw.

Je kan ook nog proberen je mountpoints op legacy te zetten.

Persoonlijk vind ik ZFSonLinux nog niet volwassen genoeg om als root filesystem te draaien...

Even niets...


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 10:58
FireDrunk schreef op dinsdag 20 mei 2014 @ 09:00:
Kijk hier eens:
The ZFS Storage Blog!: Ubuntu 14.04 en ZFS

Je hebt waarschijnlijk de bug te pakken dat ZFS start voordat je device tree compleet opgebouwd is.
Bouw eens de vertraging in die ik noem in mijn tutorial en probeer het opnieuw.

Je kan ook nog proberen je mountpoints op legacy te zetten.

Persoonlijk vind ik ZFSonLinux nog niet volwassen genoeg om als root filesystem te draaien...
Ah dat zou goed kunnen, maar m.i kan ik hier inderdaad beter mee wachten.
Root on ZFS is wat mij betreft niet nodig, en ik bespaar me een hoop gepruts (en gevloek) ;)
Belangrijkste voor mij is nu om een backup oplossing te vinden...

Acties:
  • 0 Henk 'm!
Je kan het beste gewoon een kale Ubuntu 14.04 installatie (op Ext4) doen en daarna een extra schijfje voor ZFS gebruiken. Dan heb je de minste problemen.

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 03-10 18:23

B2

wa' seggie?

FireDrunk, waarom gebruik je targetcli op je Ubuntu doos ipv tgtd?

Acties:
  • 0 Henk 'm!
Ander framework? tgtd is niet voor LIO toch?

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 03-10 18:23

B2

wa' seggie?

FireDrunk schreef op dinsdag 20 mei 2014 @ 12:23:
Ander framework? tgtd is niet voor LIO toch?
Hm, scsi-target-utils is inderdaad wel oud aan het worden. Ik zie dat RHEL 7 ook standaard targetcli krijg voor iscsi.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Ik wil mijn Samsung's en OCZ SSD's gaan vervangen voor Intel's voor SLOG en L2ARC en wat over blijft desnoods in een pool te proppen.
Wat ik eigenlijk wil realiseren is een extreem low-latancy en high-speed storage-bakje waar ik zonder problemen mijn VM's op kan stallen (iSCSI of NFS).
Op dit moment lopen de read (ja, je leest het goed) en write queue-length bij het minste geringste gierend de bocht uit.
Gisterenavond zag ik in mijn logging dat er 1 VM was met een avg. (over 1 min.) write queuelength van 324.... :?
Voordat ik alles ga migreren van mijn QNAP's naar ZFSguru wil ik eigenlijk wel eerst de Intel's er in hebben.

Is het verstandiger om de SLOG en L2ARC op de poorten van het MB te zetten, of kan die ook zonder problemen achter de M1015's?

Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 03-10 18:23

B2

wa' seggie?

CiPHER, de OpenVPN service in ZFSGuru, het lijkt mij dat hier nog het e.e.a. handmatig aan geconfigureerd moet worden?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
]Byte\[ schreef op vrijdag 23 mei 2014 @ 08:40:
Is het verstandiger om de SLOG en L2ARC op de poorten van het MB te zetten, of kan die ook zonder problemen achter de M1015's?
Je SSD dien je op de chipset poorten aan te sluiten. Zo heeft de SSD de beschikking over TRIM en heeft het de snelste verbinding, omdat de chipset SATA poorten een lagere latency hebben dan een addon controller, die zit 'verder' van de processor vandaan. Een disk/SSD die je op de chipset poorten aansluit, gaat 'ada' heten, een disk/SSD die je op de chipset poorten aansluit, gaat 'da' heten.

Energiebesparing zoals DIPM werkt niet op SAS controllers; alleen AHCI SATA controllers.
B2 schreef op vrijdag 23 mei 2014 @ 09:13:
CiPHER, de OpenVPN service in ZFSGuru, het lijkt mij dat hier nog het e.e.a. handmatig aan geconfigureerd moet worden?
ZFSguru heeft een aantal services die vrij af is, met een panel interface zodat de service zijn eigen web-interface heeft. Denk aan Virtualbox, SABnzbd+, AppleShare, iSCSI-target en Plex. Maar ook veel services zijn weinig meer dan 'stubs' waarbij enkel de packages geïnstalleerd worden. Je moet dan zelf nog het configuratiebestand editen. Dat geldt ook bij OpenVPN. Zodra je dat hebt gedaan, kun je wel autostart en runcontrol besturen via de web-interface voor de betreffende service. Maar het configureren moet inderdaad nog wel handmatig gebeuren.

In de toekomst kun je zien hoe 'ver' een service is. Een mature service is 'af' en heeft een gemakkelijke interface, terwijl een 'stub' de eerste stap is waarbij een service packages installeert maar niet veel meer.

Acties:
  • 0 Henk 'm!

  • nldbobg
  • Registratie: Maart 2014
  • Laatst online: 06-09 21:53
wat zijn momenteel de nadelen van het gebruik van ZFS onder ubuntu tov. ZFS inr esxi onder ZFSguru?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op vrijdag 23 mei 2014 @ 14:02:
[...]

Je SSD dien je op de chipset poorten aan te sluiten. Zo heeft de SSD de beschikking over TRIM en heeft het de snelste verbinding, omdat de chipset SATA poorten een lagere latency hebben dan een addon controller, die zit 'verder' van de processor vandaan. Een disk/SSD die je op de chipset poorten aansluit, gaat 'ada' heten, een disk/SSD die je op de chipset poorten aansluit, gaat 'da' heten.
Dat ligt helemaal aan je chipset... PCIe zit direct op je CPU, en de AHCI Controller op bijna alle moederborden zit in de Northbridge (in hele oude borden in de southbridge).

Bij Intel borden zit daar de DMI 2.0 Interface tussen (Wikipedia: Direct Media Interface), welke 20Gb is.

Maar het blijft een PCIe interface, en het is niet perse logisch dat de latency lager is dan een M1015... Die krengen zijn (in IT-mode) verrassend snel hoor.

Voordat ik daadwerkelijke benchmarks zie, zou ik zeggen: ze zijn even snel, want het is beide PCIe...

[ Voor 4% gewijzigd door FireDrunk op 24-05-2014 09:10 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
nldbobg schreef op zaterdag 24 mei 2014 @ 03:40:
wat zijn momenteel de nadelen van het gebruik van ZFS onder ubuntu tov. ZFS inr esxi onder ZFSguru?
Er zijn 2 'grote' varianten van ZFS: ZFS en ZFSonLinux .. de eerste zul je enkel vinden onder BSD varianten (waar ZFSGuru er 1 van is), waar ZFSonLinux bedoelt is om juist op non-BSD systemen te draaien.

ZoL is een stuk jonger dan de mainstream ZFS, maar is redelijk bij qua featuresets.. sommige mensen zullen beargumenteren dat ZoL minder stabiel is dan de mainstream versie, maar daar heb ik nog weinig van gemerkt (al moet ik zeggen dat ik niet super veel ervaring heb met mainstream, enkel met ZoL)

Acties:
  • 0 Henk 'm!
Dat moet wel een beetje genuanceerd worden...

ZFS in de basis bestaat uit meerdere laagjes... ZFS onder BSD, ZFS onder SmartOS/OpenIndiana (of afgeleide) en ZFS on Linux bevatten allemaal dezelfde ZFS versie en werken letterlijk met dezelfde code.

Het enige verschil is de onderste laag, waarin er directe calls naar de kernel gebeuren om iets daadwerkelijk op disk te krijgen. (en een paar dingen als memory calls, en het creëren van threads, maar dat is niet relevant).

ZFS on Linux is dus in de basis dezelfde ZFS versie als onder BSD, het enige verschil is wat geheugen management en de daadwerkelijke disk calls.

---

Om je vraag precies te beantwoorden: ZFS zelf is iets beter geintegreerd in BSD dan het is onder Linux.
Zo werkt booten van ZFS vele malen beter onder BSD dan onder Linux.

Maar Linux heeft ook zo weer zijn voordelen (maar dat is niets voor dit topic :P )

[ Voor 17% gewijzigd door FireDrunk op 24-05-2014 10:30 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 10:58
Inmiddels heb ik mijn Ubuntu ZFS server min of meer geconfigureerd zoals ik hem wil hebben en wordt het tijd om eens na te denken over snapshots en backups.
De server zal voornamelijk als NAS/Mediaspeler dienen, en ik wil dan ook een degelijke snapshot en backup strategie.
Voor de snapshots ben ik van plan om de zfs-auto-snapshot scripts te gebruiken, dus snapshots per 15min / 1h / 24h / 7days / 31days, en van die snapshots er dan respectievelijk 4, 7, 24, 31 en 12 te bewaren (eventueel nog een jaarlijks interval toevoegen?).
Voor de offsite backup wil ik incrementele send's doen naar een cloud-storage provider, waarbij de incrementele delta's gebaseerd worden op de laatste versie van het 'volgende' interval.
Bijvoorbeeld: elk uur de hourly snapshot increment t.o.v de daily backup uploaden, elke dag de daily snapshot increment t.o.v. de monthly snapshot etc.
Aangezien het hier om data gaat die óf nauwelijks wijzigt (foto's) óf data die niet veel ruimte in neemt en vaak wijzigt (documenten, source code etc), moet dat m.i met niet al te veel disk-usage overhead kunnen?
Is dit een verstandige aanpak? Zie ik iets over het hoofd?

En dan nog de opzet van de offsite backup, het liefst zou ik natuurlijk gewoon van mijn ZFS filesystem naar een remote ZFS filesystem senden/receiven, maar ik kan geen (betaalbare) partij vinden die zoiets levert?
In hoeverre is een dump-file uit een ZFS send beschermd tegen bitflips? Is mijn hele backup corrupt als er een bitje omvalt? Of zitten er in de dump PAR achtige repair mogelijkheden?
Qua keuze voor cloud-storage ben ik er nog niet helemaal uit, Amazon S3 is $11 voor 1TB 'Glacier' storage, wat wat mij betreft prima haalbaar is. Ook betaal je daar alleen voor de diskspace en GET's, dus uploaden van de data is gratis.
Een andere optie is Backblaze, maar dat werkt weer alleen op Windows, dus moet ik weer iets met een VM verzinnen ofzo...
Wat zijn jullie gedachten hierover?

Edit:
Zie nu net dat Google Drive ook interessant is geworden, prijzen verlaagd, nu 1TB voor $10/maand...

Acties:
  • 0 Henk 'm!
Kijk voor zfs-auto-snapshot ook eens naar:
https://github.com/mk01/zfs-auto-snapshot

mk01 is de huidige main dev voor XBian (Raspberry Pi) en hij heeft ook een btrfs-auto-snapshot gemaakt.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Vrijdag is de eerste seagate 3TB gecrasht, Productie datum 6-2012 aankoop 7-2012. Zaterdag eerst rustig extra backup gemaakt. Dus vanmorgen wil ik hem eruit schroeven om hem naar mycom te gaan brengen. Is er 2e schijf ook kapot. Gelukkig 6 disk raidz2! Net naar mycom gegaan 2 schijven zo kunnen opwisselen en een 3e coldspare gehaald.

Hij is nu aan het herbouwen.

pool: data
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Sun May 25 12:11:32 2014
257G scanned out of 3.20T at 258M/s, 3h20m to go
85.5G resilvered, 7.83% done

Als dat gedaan is ga ik nog een disk vervangen en RMA gooien bergen bad sectors.
Ik heb al mijn schijven bij de mycom gekocht en die doen niet moeilijk over garantie. Op de nieuwe HD's heb ik verse 2jaar garantie!

Wat is eigenlijk het verschil tussen Active en Passive bad sectors in ZFS?

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Actieve sectoren zijn sectoren die onleesbaar zijn als ZFS dat zou willen proberen te lezen. Als je na een scrub nog steeds actieve bad sectors hebt, dan zijn deze onschuldig: ze bevinden zich in passieve data die lange tijd niet is gebruikt; dat degradeert dan als eerste. Dat is niet zo'n punt.

Een passieve bad sector is er een die is omgewisseld; pas dan spreken we van fysieke schade. Passieve bad sectors kunnen nooit meer problemen veroorzaken. Actieve bad sectors zijn wel heel gevaarlijk; maar alleen als de data echt in gebruik is. En met ZFS heb je hooguit wat hickups bij bad sectors, maar geen problemen met je data bij een redundante pool.

Heb je na een scrub nog actieve bad sectors, dan kun je die prima negeren. Zodra ZFS de plek in gebruik gaat nemen, verdwijnt de 'bad sector' direct. En vaak zonder om te wisselen; er is 90%+ geen fysieke schade maar enkel onvoldoende errorcorrectie.

Acties:
  • 0 Henk 'm!

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Dus een passieve bad sector is een "gewone" bad sector die al geremapped is? En wat word gezien als een "badsector" zoals iedereen de term kent?

En actieve bad sector is waar ZFS nog mee bezig is zegmaar?

Zal de scrub draaien als alles weer stabiel draait.

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Een bad sector heeft niets met ZFS te maken. Een bad sector is een onleesbare plek op een hardeschijf. Natuurlijk heeft het wel indirect met ZFS te maken, omdat ZFS bij onleesbare data de data uit redundante bronnen probeert te halen. Maar dat is wat anders.

Meer informatie over bad sectors: Verwijderd in "Het grote ZFS topic".

Acties:
  • 0 Henk 'm!

  • Ajaykg
  • Registratie: Februari 2014
  • Laatst online: 03-09 20:45
Beste Guru's,

Ik gebruik ZFSguru version 0.2.0-beta9,

Ik doe er alles mee en het werkt perfect. Er zijn nu een paar dingen die ik heb uitgezocht die ik graag er mee wil doen! Ik heb een Quad Ethernet kaart in mijn systeem gezet afgelopen week, met bedoeling dat ik LAG kan activeren erop want streamen, Downloaden, en andere behoeftes worden nu te veel voor mijn systeem. Ik vroeg mij dus af of jullie mij een guide of een richting in kunnen sturen dat ik dat het op mijn systeem kan activeren!

Mijn dank is groot.

Ajay.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
Een lag heeft alleen zin bij een netwerkverbinding die vol zit, niet wanneer je schijven of CPU het niet trekken.

"Teveel voor mijn systeem" is een beetje generiek. Weet je zeker dat je bottleneck in het netwerk zit? Daarnaast heeft een LAG ook alleen zin wanneer je meerdere clients hebt. Als de hoofdmoot van je verkeer maar naar één client gaat dan zit je nog steeds aan max 1 GBit.

Tot slot heb je voor een LAG een switch nodig die dat ook snapt, ofwel het oudere Cisco FEC ofwel het (door meerdere merken ondersteunde) LACP.

Als je aan al die voorwaarden voldaan hebt, dan pas heeft een LAG zin (of is het überhaupt mogelijk). Of ZFSguru er nog iets voor heeft ingebouwd weet ik niet, de standaard FreeBSD-manier staat hier uitgelegd: http://www.freebsd.org/doc/handbook/network-aggregation.html

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Er is ook round robin; en dat trekken normale switches soms prima; soms ook weer niet omdat het TCP protocol overtreedt. Maar met round robin kun je dus wél hogere snelheden krijgen tussen client en server.

Acties:
  • 0 Henk 'm!

  • Ajaykg
  • Registratie: Februari 2014
  • Laatst online: 03-09 20:45
Paul bedankt voor je snelle reactie!

Ik zal jullie uitleggen hoe het hier zit.

Ik heb namelijk thuis meerderen computers hier waar ik mee werk. 3 stuks een van mijn vrouw, van mij en de kinderen.

Waar al mijn bestanden naar toe gaan is op mijn FILEserver:

64-bit quad core Intel(R) Core(TM) i3-3225 CPU @ 3.30GHz - Running at 800 MHz ( scales from 200 MHz to 3300 MHz )
20 GiB physical memory, 19.1 GiB usable
3 normal harddrives
Gigabit networking

Waar ik alles eigenlijk mee doet, Ik stream 1080 over mijn netwerk zonder enige probleem.
Downloaden met een verbinding van 120 Mbps, Daar naast heb ik ook torrents open staan.

Als alles bezig is heeft mijn Fileserver geen probleem althans mijn CPU er staat gewoon 66% of mijn hardeschijf het trekt dat weet ik niet maar ik heb er veel over gelezen en volgens mij moet deze schijfjes ST2000DM001-1CH164 CC27> ATA-9 SATA 3.x device geen problemen er mee hebben (seagate barracuda`s)

Kan wel andere oorzaken hebben dat weet ik niet. Maar sinds kort laat ik ook van buiten uit streamen naar bijvoorbeeld mijn broertje zijn huis. Daar beginnen mijn problemen dan, Als ik ook hier film op mijn TV aan het kijken ben. Het lijkt zeer dat heel mijn bandbreedte wordt weg getrokken.

Ik heb de een SMART-switch een HP1810-8G met een NETGEAR R7000 Nighthawk. Ik weet dat mijn switch LACP ondersteunt.

Hartstikke bedankt! Mocht je meer situaties voor mij kunnen schetsen of iemand ander hoor ik het graag.

Dat Round Robin is zeer interessant Chipher heb je documentatie hoe ik het kan implementeren in FREEbsd ZFSGURU.

Bedankt Chipher!

Ajay

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ZFSguru heeft zelfs een Youtube-tutorial over LACP 8)
YouTube: ZFSguru tutorials: 1. Portstree 2. LACP 3. Users

Door Victorb op dit forum gemaakt O+

Maar heel simpel dus moet je /etc/rc.conf aanpassen in het begin, saven en dan rebooten. En kijken of het werkt. :)

Als je er niet uitkomt kun je me DM'en en help ik je verder. Succes!

Acties:
  • 0 Henk 'm!

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
:9 Whooow al 3100x op youtube :) Ben blij dat ik er ook andere mee kan helpen.

2 schijven dood op een 6 disk RaidZ2 is niet fijn :P

Maar mijn array is weer online en heb 2 schijven geRMA'd en een coldspare erbij gehaald. Der zijn nog 2 schijven met bad sectors (1 met actieve en 1 met passieve) die monitor ik even deze week wat die doen. En waarschijnlijk gaan die ook RMA.

Ik heb gisteren Vlog gemaakt van het restoren van de array. Ik laat daar ook zien in hoe ik geplanned had om met HD crahes om te gaan.
1. Goede kast met HD trays
2. Kabel management zodat alles overzichtelijk is en je alleen aand e kabels hoeft te zetten die los moeten.
3. HD's genummerd en de disklabel met uitgebreide info. Dus geen kans op de verkeerde schijf los te halen
4. Winkel om de hoek zodat je op de fiets nieuwe schijf kan halen.
5. Winkel met goede service! Mycom Amstelveen

Mijn engels is niet goed sorry daarvoor ;)



verder draait mijn server helemaal probleem loos. Na mijn vakantie in juni/juli maar eens ZFSguru updaten :)
____

Oeh! Ik zie net dat er nu "Nut UPS monitoring" inzit. Nu wil ik zeker upgraden :) En Midnight Commander nu erook standaard in helemaal top! :)

[ Voor 6% gewijzigd door victorb op 26-05-2014 21:59 ]

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
Blu-ray is (voor thuisgebruik) toch wel zo'n beetje de bovengrens qua bandbreedte, als je stream meer dan 40 Mbit trekt dan moet je eens kijken hoe je je transcoding hebt ingesteld want je kunt geen informatie creëren die er niet is; je staat dan nodeloos bandbreedte en CPU te verspillen :+

Goed, 40 mbit per stream max, 2 streams, 80 mbit upload vanaf de server, theoretisch nog 920 mbit upload over. Verder ben je met 120 mbit aan het downloaden, theoretisch nog 880 mbit download over. Aan beide kanten gaat er wat vanaf aan ACK's en controlesignalen en whatever, maar mijns inziens zit je nowhere near saturatie van je gigabit-link.

Die i3 zou ook snel genoeg moeten zijn om 2 streams te transcoden (als je al niet aan het DirectPlayen bent) dus dat lijkt het me ook niet echt... Wat zegt `top` terwijl er 2 streams lopen en de boel hapert en stottert?

Weet je zeker dat je op de server en de link tussen de switches op gigabit draait?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Hmmm. Ik lijk wat probleempjes tegen te komen bij het configureren van spindown.

code:
1
2
3
4
5
6
7
8
May 28 11:32:52 zfsguru spindown: No devices specified!
May 28 11:32:52 zfsguru root: /etc/rc: WARNING: failed to start spindown
May 28 11:32:52 zfsguru root: /etc/rc: WARNING: Unable to load kernel module green_saver
May 28 11:32:52 zfsguru kernel: KLD green_saver.ko: depends on splash - not available or version mismatch
May 28 11:32:52 zfsguru kernel: linker_load_file: Unsupported file type
May 28 11:34:36 zfsguru sshd[715]: error: PAM: authentication error for root from 192.168.0.189
May 28 11:34:38 zfsguru sshd[715]: error: Received disconnect from 192.168.0.189: 13: Unable to authenticate [preauth]
May 28 11:34:56 zfsguru su: ssh to root on /dev/pts/0



Powered by ZFSguru version 0.2.0-beta9
Running official system image 10.1-001 featuring FreeBSD 10.0-STABLE with ZFS v5000.
Running Root-on-ZFS distribution.

Hoe zorg ik er nu voor dat da1,da2 en da5 wat minder watts gaan trekken?

pkg install spindown gedaan => package was reeds geinstalleerd. Ook in /etc/rc.conf de volgende regels:
zfsguru_spindown_enable="YES"
zfsguru_spindown_timer="900"
zfsguru_spindown_disks="da1 da2 da5"

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat zijn SCSI-disks via een SAS controller bijvoorbeeld. Ik weet niet meer of 'spindown' wel werkte op SCSI disks. Maar je kunt wel een utility gebruiken met dezelfde naam ('spindown' - hoe origineel) die in de portstree staat. Die werkt wel met SCSI disks.

Spindown is volgnes mij al geïnstalleerd op 11.0-001 en misschien ook 10.1-001 dus kijk of het werkt: man spindown

Acties:
  • 0 Henk 'm!
victorb schreef op maandag 26 mei 2014 @ 21:54:
:9 Whooow al 3100x op youtube :) Ben blij dat ik er ook andere mee kan helpen.

2 schijven dood op een 6 disk RaidZ2 is niet fijn :P

Maar mijn array is weer online en heb 2 schijven geRMA'd en een coldspare erbij gehaald. Der zijn nog 2 schijven met bad sectors (1 met actieve en 1 met passieve) die monitor ik even deze week wat die doen. En waarschijnlijk gaan die ook RMA.

Ik heb gisteren Vlog gemaakt van het restoren van de array. Ik laat daar ook zien in hoe ik geplanned had om met HD crahes om te gaan.
1. Goede kast met HD trays
2. Kabel management zodat alles overzichtelijk is en je alleen aand e kabels hoeft te zetten die los moeten.
3. HD's genummerd en de disklabel met uitgebreide info. Dus geen kans op de verkeerde schijf los te halen
4. Winkel om de hoek zodat je op de fiets nieuwe schijf kan halen.
5. Winkel met goede service! Mycom Amstelveen

Mijn engels is niet goed sorry daarvoor ;)

[video]

verder draait mijn server helemaal probleem loos. Na mijn vakantie in juni/juli maar eens ZFSguru updaten :)
____

Oeh! Ik zie net dat er nu "Nut UPS monitoring" inzit. Nu wil ik zeker upgraden :) En Midnight Commander nu erook standaard in helemaal top! :)
Zijn je disks echt removed door het OS zelf, of heb jij dat gedaan? Want in de toekomst ben je beter af, als je alleen een "degraded" device hebt, om dat online te replacen, en niet te removen en dan een replace te doen. Zo blijft je array online (dus niet degraded) en verklein je de al astronomische kleine kans op dataverlies tot bijna nihil...

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
victorb schreef op maandag 26 mei 2014 @ 21:54:
Mijn engels is niet goed sorry daarvoor ;)
Bedankt voor deze video..
Je Engels is goed te volgen voor mij (veel Engelse talige collega's op mijn werk die ook niet allemaal vloeiend Engels spreken, inclusief mijzelf)

1 ding geleerd: disklabels, ik heb wel alles hot swappable, maar welke hdd nu in welke lade steekt..
Wellicht alsnog maar gaan doen.

Simpel eruit trekken en kijken waar het systeem over gaat piepen, is dat een optie :)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 03-10 21:25
jacovn schreef op woensdag 28 mei 2014 @ 13:36:
[...]

Bedankt voor deze video..
Je Engels is goed te volgen voor mij (veel Engelse talige collega's op mijn werk die ook niet allemaal vloeiend Engels spreken, inclusief mijzelf)

1 ding geleerd: disklabels, ik heb wel alles hot swappable, maar welke hdd nu in welke lade steekt..
Wellicht alsnog maar gaan doen.

Simpel eruit trekken en kijken waar het systeem over gaat piepen, is dat een optie :)
Ik moet dit ook nog eens labelen...

[ Voor 4% gewijzigd door A1AD op 28-05-2014 14:13 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 02-10 20:24
Regel 1 in de ICT toch, maak van jezelf en je collega's geen spoorzoekers, labelen..

Bij mij in de doos, ada0 t/m ada5 van onder naar boven met bij behorende sticker erop van de laatste 4cijfers van het Serial nummer, kans om de verkeerde uit de pool te trekken nihil denk ik. ;)

@CiPHER, Als ik de nieuwe drive weer terug zet na het resilveren op de oude plek is de volgorde weer netjes ada0 t/m ada5 toch, de kabels worden bij hotswap rack immers niet verplaatst, op de hotswap bracket een stikker met de laatste 4 cijfers van het Serial nummer, bij mij zijn het allemaal wddrives, dus eigenlijk hetzelfde wat CurlyMo doet. ;)

[ Voor 38% gewijzigd door Habana op 28-05-2014 18:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik zou niet labelen op devicenummer; dat kan namelijk veranderen. Label op disk naam, die je zelf hebt gegeven aan de hardeschijf. Als je 5 keer Samsung schijven hebt, kun je die prima samsung1 t/m samsung5 noemen. En dan plakkertjes/stickers/labels op de schijven zelf met Samsung1 t/m Samsung5. Dat is hoe ik het zou doen.

Acties:
  • 0 Henk 'm!
Ik label op merk - serienummer, met vervolgens een zichtbare stikker met dit serienummer. In geval van lange serienummers gebruik ik de laatste 4 karakters:
code:
1
2
3
4
5
          raidz2-0             ONLINE       0     0     0
            label/SG-Z1E54R7Q  ONLINE       0     0     0
            label/SG-W34068L3  ONLINE       0     0     0
            label/SS-2197      ONLINE       0     0     0
            label/SS-2191      ONLINE       0     0     0

SG = seageate
SS = samsung
WD = western digital

[ Voor 6% gewijzigd door CurlyMo op 28-05-2014 16:07 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Hallo ineens is mijn pool degraded geraakt,het systeem zegt dat er een hdd removed is door de administrator.
Ik heb er niks mee gedaan ook lijkt het erop dat ie de hdd als een usb ziet maar ook dat is niet het geval.
nummer is/was gpt06 er is niks mee gebeurd behalve dat er gedraaid mee wordt.
sickbeard en sabnzbd en een beetje streamen meer gebeurt er niet mee.
Smart heeft over die disk ook geen waarschuwingen gegeven en moet nu op zoek welke disk er kapot is.
Ik heb de disk weer online gekregen en smart en alles detecteren gewoon 11 disks,meer heb ik er ook niet in maar gpt06 blijft nog steeds verdwenen?
Ik kan ook niet erachter komen waar de gpt06 is gebleven en welk nummer die nu gekregen heb.
ada4 is ook ineens verdwenen dus ik neem aan dat dat gpt06 is/was?

[ Voor 24% gewijzigd door ikkeenjij36 op 28-05-2014 21:29 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Als je op de Disks pagina kijkt, zie je zowel je disks als de label zie ze hebben. Dan zou je snel moeten kunnen zien dat nummer 6 bijvoorbeeld niet meer aanwezig is, omdat je bijvoorbeeld 5 en 7 wel ziet, maar 6 niet. Het kan ook zijn dat die disk geen GPT label meer heeft. Dan moet je die betreffende disk opnieuw formatteren. Dan zou hij wel weer een label hebben en kun je op de Pools pagina (en dan op je pool klikken) de disk weer toevoegen, bij die pulldown menu's aan de rechterzijde als je omlaagscrollt. Bij die gekleurde balkjes.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Het gekke is dat idd die disk gpt06 verdwenen is in de disk pagina maar toch tel ik gewoon 11 disks,alleen waar die 06 gebleven is geen idee?
Ik heb dus geen idee waar die disk gebleven is en welk gpt label die heeft op dit moment,heel raar allemaal.

edit:nog een keer alle hdd's zijn dus aanwezig maar gpt06/ada4 is er dus niet meer.
Toch tel ik 11 schijven die ik er ook in heb zitten meer niet en niet minder.
die gpt06 heeft/is volgens het systeem door de admin verdwenen.
Nu worden er gewoon 11 schijven getelt en loopt het tot ada11 en gpt11.
ada4=gpt06 en is verdwenen en kan niet meer gevonden worden.
Waar voor deze situatie alles tot 10 geregistreerd werden dus ada10 en gpt10 want het begin was gpt00 en ada00

[ Voor 50% gewijzigd door ikkeenjij36 op 28-05-2014 22:36 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Maak eens een screenshot van de Disks pagina en DM deze aan me. Ben wel benieuwd. :)

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Verwijderd schreef op donderdag 29 mei 2014 @ 02:29:
Maak eens een screenshot van de Disks pagina en DM deze aan me. Ben wel benieuwd. :)
Ok komen eraan.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Heeft er al iemand ervaringen met het koppelen van Google-drive op ZFSguru?

Acties:
  • 0 Henk 'm!
Ik heb hier nog altijd mijn Ubuntu machine staan met verschillende pools, waaronder spiegeltje, een ontvangende pool voor zfs snapshots.

Onder ZFSguru trok ik altijd een van de twee disks er uit, die ging naar vaderlief, en ik had hier dan nog altijd een weliswaar degraded maar online pool waarnaar ik kon snapshot-senden en al.

Bij Ubuntu doet dat precies een beetje raar, ik heb de disk er uit getrokken (SEAGATE2 heette die) en dan krijg ik dit:

  pool: spiegeltje
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist for the pool to continue
        functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
  scan: scrub canceled on Wed May 28 17:00:51 2014
config:

        NAME                           STATE     READ WRITE CKSUM
        spiegeltje                     DEGRADED     0     0     0
          mirror-0                     DEGRADED     0     0     0
            ata-ST32000542AS_6XW26T73  ONLINE       0     0     0
            ata-ST32000542AS_5XW2PPQK  UNAVAIL      0     0     0  corrupted data


Prima denk ik dan, alleen die corrupted data vind ik wat raar daar vanachter.

Het rare is nu, als ik de disk terug insteek in de hotswap-bay en dit doe:

root@nas:~# zpool online spiegeltje ata-ST32000542AS_5XW2PPQK
cannot online ata-ST32000542AS_5XW2PPQK: no such device in pool


Krijg ik die foutmelding.

Dan maar eens op onderzoek gegaan, en wat zie ik:

drwxr-xr-x 2 root root 300 May 28 19:35 .
drwxr-xr-x 7 root root 140 May 27 17:05 ..
lrwxrwxrwx 1 root root  10 May 27 17:05 disk1-Z300 -> ../../sdh1
lrwxrwxrwx 1 root root  10 May 27 17:05 disk2-Z300 -> ../../sdm1
lrwxrwxrwx 1 root root  10 May 27 17:05 disk3-Z300 -> ../../sdg1
lrwxrwxrwx 1 root root  10 May 27 17:05 disk4-Z300 -> ../../sdj1
lrwxrwxrwx 1 root root  10 May 27 17:05 disk5-Z300 -> ../../sdi1
lrwxrwxrwx 1 root root  10 May 27 17:05 M4-1 -> ../../sdd1
lrwxrwxrwx 1 root root  10 May 27 17:05 M4-2 -> ../../sde1
lrwxrwxrwx 1 root root  10 May 27 17:05 M4-3 -> ../../sdf1
lrwxrwxrwx 1 root root  10 May 27 17:05 M500-ZIL -> ../../sdc3
lrwxrwxrwx 1 root root  10 May 27 17:05 PART-EVO250-L2ARC -> ../../sdb1
lrwxrwxrwx 1 root root  10 May 27 17:05 PART-EVO500 -> ../../sda1
lrwxrwxrwx 1 root root  10 May 27 17:05 SEAGATE1 -> ../../sdl2
lrwxrwxrwx 1 root root  10 May 28 19:35 zfs -> ../../sdk1


Die laatste; zfs -> ../../sdk1 dat is die SEAGATE2... (ook getest hoor, als ik die betreffende disk er uit trek dan is die entry ook weg) SEAGATE1 kent ie nog netjes (gelukkig), maar die andere is ie precies helemaal kwijt... Doe ik iets fout?

[ Voor 3% gewijzigd door HyperBart op 29-05-2014 17:39 ]


Acties:
  • 0 Henk 'm!
Ja, je gebruikt het disk id ipv het uuid of de partitienaam. Disk id is niet uniek. Het begint ook met ata omdat het op ahci zit. Zou je diezelfde disk via USB benaderen zou hij waarschijnlijk weer anders heten.

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Verwijderd schreef op donderdag 29 mei 2014 @ 02:29:
Maak eens een screenshot van de Disks pagina en DM deze aan me. Ben wel benieuwd. :)
Zijn er verschillende onderweg/aangekomen hoor!! :)

Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 29 mei 2014 @ 16:47:
Ja, je gebruikt het disk id ipv het uuid of de partitienaam. Disk id is niet uniek. Het begint ook met ata omdat het op ahci zit. Zou je diezelfde disk via USB benaderen zou hij waarschijnlijk weer anders heten.
Een koppel ballen gegroeid (en aangezien het toch mijn backup mirror was durfde ik ook wat meer) en ik heb nu een paar keer geprobeerd.

Eerst eens met gdisk aan de slag gegaan om te controleren dat alles wel ok zat met die partitielabels, dat leek allemaal ok.

Daarna eens geprobeerd met

zpool replace spiegeltje ATA-devicenaam labelnaam

Maar hij gaf aan dat hij dat device niet vond in de pool (het ata device). Bijzonder...

Uiteindelijk het zo beu geworden; de pool geremoved, en geimporteerd met je commando van je blog en nu komen ze ook effectief netjes als:

  pool: spiegeltje
 state: ONLINE
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Thu May 29 22:05:28 2014
    243G scanned out of 308G at 796M/s, 0h1m to go
    4.03G resilvered, 78.98% done
config:

        NAME          STATE     READ WRITE CKSUM
        spiegeltje    ONLINE       0     0     0
          mirror-0    ONLINE       0     0     0
            SEAGATE1  ONLINE       0     0     0
            SEAGATE2  ONLINE       0     0     1  (resilvering)

errors: No known data errors


Ik weet niet wat die disks geslikt hebben in de tussentijd, maar het resilveren gaat wel seeeehr schnell :+


  pool: spiegeltje
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: resilvered 7.55G in 0h6m with 0 errors on Thu May 29 22:12:26 2014
config:

        NAME          STATE     READ WRITE CKSUM
        spiegeltje    ONLINE       0     0     0
          mirror-0    ONLINE       0     0     0
            SEAGATE1  ONLINE       0     0     0
            SEAGATE2  ONLINE       0     0     1

errors: No known data errors
^C
root@nas:~# zpool clear
missing pool name
usage:
        clear [-nF] <pool> [device]
root@nas:~# zpool clear spiegeltje
root@nas:~# zpool status spiegeltje
  pool: spiegeltje
 state: ONLINE
  scan: resilvered 7.55G in 0h6m with 0 errors on Thu May 29 22:12:26 2014
config:

        NAME          STATE     READ WRITE CKSUM
        spiegeltje    ONLINE       0     0     0
          mirror-0    ONLINE       0     0     0
            SEAGATE1  ONLINE       0     0     0
            SEAGATE2  ONLINE       0     0     0

errors: No known data errors



Ik slaag er wel met geen stokken in om devices te verwijderen/remove van een pool:

root@nas:~# zpool add M4-STRIPE log /dev/disk/by-partlabel/M500-ZIL
root@nas:~#
root@nas:~#
root@nas:~#
root@nas:~#
root@nas:~# zpool status M4-STRIPE
  pool: M4-STRIPE
 state: ONLINE
  scan: scrub repaired 0 in 0h9m with 0 errors on Wed May  7 21:13:00 2014
config:

        NAME        STATE     READ WRITE CKSUM
        M4-STRIPE   ONLINE       0     0     0
          M4-1      ONLINE       0     0     0
          M4-2      ONLINE       0     0     0
          M4-3      ONLINE       0     0     0
        logs
          M500-ZIL  ONLINE       0     0     0

errors: No known data errors
root@nas:~# zpool remove M4-STRIPE M500-ZIL
cannot remove M500-ZIL: no such device in pool


Gaat volgens mij iets doodsimpels zijn, maar bv. in spiegeltje kan ik nu ook die SEAGATE2 niet vervangen door zichzelf of het ding te verwijderen...

Blijkbaar is dit een bug?
https://github.com/zfsonlinux/zfs/issues/1530

En effectief, als ik met zdb ga zoeken naar het GUID van het betreffende device, dan kan ik dat wel removen... Of kan het anders?

[ Voor 50% gewijzigd door HyperBart op 30-05-2014 13:14 ]


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Vraagje...
Ik wil mijn boot-disks (OCZ en Samsung) vervangen voor twee Intel's.
Is er een safe way door ze 1-voor-1 uit de L2ARC en SLOG te halen en dan eerste te vervangen en als die klaar is met syncen, de 2e disk doen?
(de L2ARC zou ik er zonder problemen uit kunnen trekken (met een 'nette' remove) dacht ik... maar de ZIL...???)
Of gaat dat in de categorie 'je hoofd in een wespennest steken' worden en moet je 'm gewoon van scratch af aan opnieuw opbouwen?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Sinds ZFS versie 19 kun je sLOG devices removen. Een ZIL verwijderen gaat niet; je kunt hooguit de ZIL verplaatsen van pool naar dedicated device (sLOG) of juist andersom (verwijderen van sLOG).

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Oke, dan kan ik 'm dus het beste moven naar een andere (dedicated) disk en na de disk-swap weer terug moven naar de partities op de Intel's.
Strak plan! Tnx.

Acties:
  • 0 Henk 'm!
Ik vind het maar bijzonder, blijkbaar kan je met ZFS op Linux een device niet aanspreken op zijn korte naam (de naam die je ziet in zpool status) om het offline te halen, te replacen, te detachen of wat dan ook...

Onder het motto, "doe ne keer zot" heb ik het volgende eens gedaan met mijn spiegeltje

Disk er uit getrokken
OS detecteert dat nog niet, prima dan!
Scrub gestart
ZFS detecteert een missende disk, oh oh
Pool wordt degraded
Disk fysiek terug in de hotswapbay geduwd
ZFS detecteert dit niet
zpool online spiegeltje guidvandedisk
disk komt terug online in zpool status en resilveren start
tijdens het resilveren de andere disk er eens uitgetrokken (ik had terwijl een zpool status spiegeltje 1 draaien)
een interval krijg ik een paar read/write (stuk of 34 te zien) en het volgende interval staat de disk al direct op unavailable.
eerste disk er fysiek terug ingeschoven
disk online gezet met zpool en het guid van de disk
resilveren gaat vrolijk door

  pool: spiegeltje
 state: ONLINE
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Fri May 30 17:02:08 2014
    308G scanned out of 308G at 2.44G/s, 0h0m to go
    3.50G resilvered, 99.99% done
config:

        NAME          STATE     READ WRITE CKSUM
        spiegeltje    ONLINE       0     0     0
          mirror-0    ONLINE       0     0     0
            SEAGATE1  ONLINE       0     0     0  (resilvering)
            SEAGATE2  ONLINE       0     0     0  (resilvering)


Ik denk dat dit dingen zijn die je met een traditionele RAID best niet doet :+

Wat ik me nu nog wel afvroeg, ZFS is vrolijk en vrij aan het resilveren, maar deze snelheden kloppen toch helemaal niet? En wat wil nu eigenlijk zeggen dat hij 3.51G geresilvered heeft? Was dat rotte data? Van waar komt ZOVEEL data? Die disks worden niet aangesproken/beschreven actief door mezelf of het OS en toch is er 3.51G aan data geresilvered?

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
[b]HyperBart schreef op donderdag 29 mei 2014 @ 22:08:[/

Uiteindelijk het zo beu geworden; de pool geremoved, en geimporteerd met je commando van je blog en nu
Welke blog ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 10:48
Ondertussen eens in mn kaat wezen kijken alle sata kabels eens l9s/vast gedaan en tadaa mijn gpt06 is er weer.
Geresilverd zonder fouten of repairs en pool is online.
Blijkt toch dat ik 12 schijven erin had zitten.
Ben rijker dan dat ik dacht 8)7 O-)

Acties:
  • 0 Henk 'm!

  • -Venom-
  • Registratie: Oktober 2004
  • Laatst online: 03-10 11:03
Even een NooB vraag tussendoor, ik heb momenteel server 2 voorzien van 6 x 250 gb schijven.
Nu staat daar ZFS Guru 0.2.0-beta8 op, schijven staan ingedeeld als raid z1 met nu 1,36 tb ruimte.

Ten eerste dit wordt de backup van de backup dus ik kan wat aanmodderen, is dit met 6 schijven de beste indeling of kan ik toch beter voor raid z2 gaan?

Voor mij is het hele ZFS gebeuren nieuw dus alle tips zijn welkom.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
5 disks in RAID-Z is optimaal
6 disks in RAID-Z2 is optimaal

Staat ook in de startpost.

Acties:
  • 0 Henk 'm!
Zover ik begreep kunnen feature flags ofwel actief / inactief zijn ofwel aangezet / uitgezet. Als je een feature flag niet activeert, dan zou de pool alsnog geïmporteerd kunnen worden door een zfs versie die de feature flag niet ondersteund. Pas als je een feature flag activeert, haal je deze mogelijkheid weg. Daarna kan je per filesystem kiezen of je de feature flag ook daadwerkelijk aan of uit zet. Daarin neem ik aan dat een pool v5000 zonder enige actieve feature flags het meest cross-platform compatible moet zijn.

Mocht deze aanname correct zijn, hoe kan je er dan voor zorgen dat zfs bij het upgraden van een pool niet automatisch alle feature flags activeert? Klopt deze aanname niet, dan is de vraag waarom het niet zo werkt en dan zal ik een issue indienen bij openzfs.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Goed punt! Zo heb ik er eigenlijk nooit over nagedacht...

Even niets...


Acties:
  • 0 Henk 'm!
Hmm, dan is de vraag waar je het dan moeten indienen. Dan maar FreeBSD zelf.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
CurlyMo schreef op zondag 01 juni 2014 @ 12:43:
Zover ik begreep kunnen feature flags ofwel actief / inactief zijn ofwel aangezet / uitgezet.
Dat is niet hoe het gedocumenteerd is.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
   Feature states
     Features can be in one of three states:

     active    This feature's on-disk format changes are in effect on the
               pool.  Support for this feature is required to import the pool
               in read-write mode.  If this feature is not read-only compati-
               ble, support is also required to import the pool in read-only
               mode (see "Read-only compatibility").

     enabled   An administrator has marked this feature as enabled on the
               pool, but the feature's on-disk format changes have not been
               made yet.  The pool can still be imported by software that does
               not support this feature, but changes may be made to the
               on-disk format at any time which will move the feature to the
               active state.  Some features may support returning to the
               enabled state after becoming active.  See feature-specific doc-
               umentation for details.

     disabled  This feature's on-disk format changes have not been made and
               will not be made unless an administrator moves the feature to
               the enabled state.  Features cannot be disabled once they have
               been enabled.
Als je een feature flag niet activeert, dan zou de pool alsnog geïmporteerd kunnen worden door een zfs versie die de feature flag niet ondersteund.
Alleen als het systeem wel ZFS versie v5000 ondersteunt. Om feature flags mogelijk te maken is ook de on-disk data format verandert. Dus een v5000 pool zonder features kun je niet op Solaris platform gebruiken.
Daarna kan je per filesystem kiezen of je de feature flag ook daadwerkelijk aan of uit zet.
Dit betreffen pool features; geen filesystem features. De filesystem versie is nog steeds 5, terwijl de pool versie 5000 is. Filesystem features zijn dus ongewijzigd.
Daarin neem ik aan dat een pool v5000 zonder enige actieve feature flags het meest cross-platform compatible moet zijn.
Waarom? Een dergelijke pool is niet bruikbaar met ZFS systemen van versie 28 en daaronder. Het meest compatible is natuurlijk een ZFS pool met versie 1.
Mocht deze aanname correct zijn, hoe kan je er dan voor zorgen dat zfs bij het upgraden van een pool niet automatisch alle feature flags activeert?
Staat toch netjes in de manpage? -V parameter

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
     zpool upgrade [-V version] -a | pool ...

         Enables all supported features on the given pool.  Once this is done,
         the pool will no longer be accessible on systems that do not support
         feature flags.  See zpool-features(7) for details on compatability
         with system sthat support feature flags, but do not support all fea-
         tures enabled on the pool.

         -a      Enables all supported features on all pools.

         -V version
                 Upgrade to the specified legacy version. If the -V flag is
                 specified, no features will be enabled on the pool.  This
                 option can only be used to increase version number up to the
                 last supported legacy version number.

Acties:
  • 0 Henk 'm!
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
[root@server /home/ssh]# zpool upgrade -V 5000 test
This system supports ZFS pool feature flags.

Successfully upgraded 'test' from version 28 to feature flags.
Enabled the following features on 'test':
  async_destroy
  empty_bpobj
  lz4_compress
  multi_vdev_crash_dump
  spacemap_histogram
  enabled_txg
  hole_birth
  extensible_dataset
  bookmarks


Doe ik iets verkeerd?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Hm, dat is inderdaad vreemd. Lijkt me iets voor de mailinglist.

Acties:
  • 0 Henk 'm!
Volgens mij klopt het dan toch?

Activated != Enabled.


v28 kan uberhaupt niet met feature flags overweg... Ook niet met flags die niet gebruikt worden...
v28 snapt simpelweg het formaat niet.

v5000 pools met features enabled maar niet active kunnen dus toch geimporteerd worden.

Even niets...


Acties:
  • 0 Henk 'm!
Daar ging het niet over. Als ik nu dus mijn pool upgrade in FreeBSD, dan kan ik hem niet importeren in zfsonlinux en ZFS-OSX omdat beide bijv. multi_vdev_crash_dump niet ondersteunen.

Met een compatible v5000 pool, bedoel ik dus een v5000 pool die te importeren is in alle zfs implementaties.

Sinds de 2 dagen regel reageer ik hier niet meer

Pagina: 1 ... 121 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.