Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
Ik heb weer eens iets stoms gedaan vermoed ik... Ik heb een ZVOL aangemaakt op mijn tank volume genaamd tank/iscsi met een grootte van 1792G. So far so good. Helaas ging het mis op het moment dat ik hier via targetcli een iSCSI volume van maakte. Dit ging flink fout, en ik heb na enkele problemen besloten om dat ZVOL weer te verwijderen. Echter, ik krijg de ruimte niet terug. Er is nog steeds 3,20T in gebruik, ook na herhaaldelijk exporteren en importeren van de pool. Iemand enig idee wat ik nog kan doen?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
$ sudo zfs list
NAME              USED  AVAIL  REFER  MOUNTPOINT
docs              868M  13,5G   825M  /docs
docs/git         32,8M  13,5G  32,8M  /docs/git
tank             3,28T   287G   695K  /tank
tank/Documents    118G   287G   118G  /tank/Documents
tank/Downloads    330M   287G   330M  /tank/Downloads
tank/Dreamspark   113G   287G   113G  /tank/Dreamspark
tank/E-Book      11,4M   287G  11,4M  /tank/E-Book
tank/Movies      22,8G   287G  22,8G  /tank/Movies
tank/Music        157G   287G   157G  /tank/Music
tank/Series       926G   287G   926G  /tank/Series
tank/Video       51,6G   287G  51,6G  /tank/Video
tank/tm          41,1G   287G  41,1G  /tank/tm
tank/vm_storage  48,5G   287G  48,5G  /tank/vm_storage

Acties:
  • 0 Henk 'm!
Gewoon lekker laten. Die ruimte komt vanzelf vrij. Misschien dat een scrub het kan versnellen?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
Een scrub helpt inderdaad, het is alleen vervelend dat ik nu dus moet wachten totdat ik weer kan "werken" omdat eerst alle ruimte vrij moet zijn voor ik een nieuw iSCSI volume kan aanmaken :') Naja, zo zij het dan maar.

Acties:
  • 0 Henk 'm!
Als je geen geduld hebt dan zou je ook vast een thin provisioned zvol kunnen maken:
http://www.cuddletech.com/blog/pivot/entry.php?id=729

Dan kan je in ieder geval verder met instellen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Sinds gisteren in het bezit van een extra 5 x 4TB...

Ik heb nu voorlopig een badblocks run gestart (4 passes) voor iedere disk.

Heeft er iemand nog wat zinnigs te vertellen over het "burnin'en" van disks?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Random seeks - maar ga je disks niet als een gek zitten belasten. Eerder gewoon het type gebruik dat hij de rest van zijn leven ook zal doen.

Verder betwijfel ik de noodzaak voor een 'burn in'. Het enige dat je daar denk ik mee bereikt is dat je de 'duds' oftewel de slechte exemplaren die na een week al crashen, eruit kunt halen voordat je begint met echte data opslaan.

Enkel sequentiëel lezen/schrijven daar belast je het mechanische gedeelte niet goed genoeg voor. En dit elke keer herhalen is wat betreft bad sectors niet erg relevant. Bovendien, sommige schijven zoals de Seagate 7200.14 doen standaard al aan BGMS (Background Media Scanning).

Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 22 juni 2015 @ 14:51:
Verder betwijfel ik de noodzaak voor een 'burn in'. Het enige dat je daar denk ik mee bereikt is dat je de 'duds' oftewel de slechte exemplaren die na een week al crashen, eruit kunt halen voordat je begint met echte data opslaan.

Enkel sequentiëel lezen/schrijven daar belast je het mechanische gedeelte niet goed genoeg voor. En dit elke keer herhalen is wat betreft bad sectors niet erg relevant. Bovendien, sommige schijven zoals de Seagate 7200.14 doen standaard al aan BGMS (Background Media Scanning).
Nou ja, het gaat me inderdaad wel over het uitrakelen van de duds...

Het is nu inderdaad wel sequentieel testen, maar daar gaat het in the end ook om draaien: opslaan van media bestanden voor het huishouden.

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
@ hyperbart

Wat gebruik je voor het inbranden.?
Wij laten onze disk ook altijd even indraaien, door gewoon heel veel data heen en weer te kopieren.
We hebben 1 keer gehad dat er gelijktijdig twee rotte exemplaren in de pool zaten en dat is niet fijn.
Met een burn in hadden we die er mooi uit gehaald.

Acties:
  • 0 Henk 'm!
Allereerst al even een happy bday!

Ik gebruik nu badblocks met vier passes om mijn disks even vol te schrijven... Daarna plan ik om eens mijn hele dataset over te kopieren en dagelijks een scrubje te laten lopen. Na een maandje gaan ze in productie en doe ik dus de migratie...

Acties:
  • 0 Henk 'm!
Same here, heb hier gewoon twee pools gehad. Een poos gebruik gemaakt van beide (af en toe een rsync tussen de pools). En nu alle verwijzigen naar de oude pool weggehaald. Hij is nog wel ONLINE maar in principe niet meer in use.

Binnenkort maar eens uitfaseren...

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:34

FREAKJAM

"MAXIMUM"

A1AD schreef op vrijdag 22 mei 2015 @ 13:55:
@tvwes, om te spelen met proxomox had ik een proxmox vm aangemaakt op een proxmox host en omdat ik geen subscription heb bij hun moet je een repo (de free repo) aanpassen om de onderdelen van proxmox te kunnen updaten (incl zfs...) en ja hoor, bij de vm dit helemaal vergeten |:( .
Ik had de vm wel geupdate zonder aandacht te schenken wat er nu juist werd geupdate.

Repo toevoegen > updaten > zfs auto import ok
Het auto zfs import/mount script is hier te vinden trouwens: "/etc/init.d/zfs-mount"

Mijn excuses voor jullie verloren tijd...
Proxmox 4 beta 1 is inmiddels uit. Misschien leuke nieuwe features om mee te spelen voor je?

is everything cool?


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
FREAKJAM schreef op vrijdag 26 juni 2015 @ 19:26:
[...]


Proxmox 4 beta 1 is inmiddels uit. Misschien leuke nieuwe features om mee te spelen voor je?
Yes, ik hou de ontwikkeling nauw in het oog. Ik ben aan het wachten op 4.0 voor ik volledig ga migreren maar de bèta komt sowieso op het test systeem.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Oeh, dat ziet er inderdaad wel uit als leuk speelgoed. Met het laten vallen van OpenVZ zou het eindelijk mogelijk moeten zijn om KVM met IOMMU-features tegelijkertijd met containers te kunnen gebruiken. In 3.4 was het nog de keuze: 'oude' kernel met OpenVZ en zonder IOMMU, of een nieuwe kernel met IOMMU maar zonder OpenVZ.

Niet geheel on-topic hier, maargoed :)

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:48
Ik heb een aantal jaartjes geleden een Linux (Arch Linux) systeem opgezet met ZFS on Linux. Op basis van een scrub blijkt nu echter dat een disk aan het failen is (ZFS geeft errors over beschadigde bestanden, uit verder onderzoek blijkt dat SMART o.a. bad sector allocations doorgeeft). Deze disk wil ik dus gaan vervangen, ik heb alleen geen idee hoe dit aan te pakken.

Een situatie schets:
SDD met Linux installatie
Seagate 3TB disk verdeelt in twee partities van 500GB en 2TB
WD 500GB disk

De volledige 500GB disk, en de 500GB partitie samen vormen via mirroring de "backup" pool. De 2TB partitie bevat vervolgens een "storage" pool. De failende pool in deze is vervolgens de "storage" pool, en de failende disk is dus de 3TB Seagate.

Met zpool status ziet dit er allemaal als volgt uit:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
  pool: backup
 state: ONLINE
  scan: scrub repaired 0 in 3h31m with 0 errors on Fri Jun 26 23:02:23 2015
config:

        NAME        STATE     READ WRITE CKSUM
        backup      ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdb1    ONLINE       0     0     0
            sdc2    ONLINE       0     0     0

errors: No known data errors

  pool: storage
 state: ONLINE
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://zfsonlinux.org/msg/ZFS-8000-8A
  scan: scrub repaired 0 in 7h26m with 3 errors on Sun Jun 28 07:36:07 2015
config:

        NAME        STATE     READ WRITE CKSUM
        storage     ONLINE       7     0     0
          sdc1      ONLINE       7     0     0

errors: 3 data errors, use '-v' for a list


Voor zover ik met mijn zeer beperkte ZFS kennis weet zou ik in dit geval een nieuwe disk kunnen plaatsen, deze hetzelfde partitioneren, en met zpool replace de failende partitie van de "backup" pool kunnen over zetten. Echter heb ik een vermoeden dat dit voor de "storage" pool niet mogelijk is, omdat deze maar op een enkele disk draait.

Concrete vraag:
Als ik een nieuwe disk plaats en deze hetzelfde partitioneer, is het dan mogelijk om de failende disk(/partitie) in de "storage" pool te vervangen door deze nieuwe disk(/partitie)? En als dit mogelijk is, kan ik de pool dan ook meteen vergroten? Door bv een 4TB disk te plaatsen met een 500GB en 3.5TB partitie.

Worst case zal het sowieso mogelijk zijn om een nieuwe pool aan te maken ("storage2") en de data over te kopiëren. Maar dan zal ik het overige van de pool ook opnieuw moeten inregelen, waar het het makkelijkst zou zijn als ik de bestaande pool kan blijven gebruiken.

De bestanden met data errors die ZFS nu geeft beschouw ik al als verloren, en dit is ook absoluut geen probleem. De belangrijke data staat op de "backup" pool die (nu nog) correct werkt.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Post eerst je SMART data eens voordat je dingen doet. Heb je kabelfouten uitgesloten? Zo nee, dan kan je schade aanrichten als je nu dingen gaat proberen.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:48
De output van smartctl -a kun je hier vinden.

Deze waardes daarbij lijken mij niet de bedoeling:
code:
1
2
3
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   120   096   006    Pre-fail  Always       -       243744848
  5 Reallocated_Sector_Ct   0x0033   099   099   036    Pre-fail  Always       -       1376


In eerste instantie dacht ik ook aan iets met kabel etc. Maar op het moment dat er puur iets met de kabel is lijkt mij dat in ieder geval die reallocated sector count gewoon 0 zou moeten zijn?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
De echt relevante waarde is:
code:
1
197 Current_Pending_Sector  0x0012   099   099   000    Old_age   Always       -       264

Dus 264 onleesbare sectoren. Daar komen je onleesbare/ontoegankelijke bestanden vandaan.

Deze schijf is onbetrouwbaar omdat een dergelijk groot aantal onleesbare sectoren veelal betekent dat de schijf in de toekomst opnieuw meerdere onleesbare sectoren krijgt. Je dient over meervoudige ZFS parity bescherming te beschikken om deze schijf nog bruikbaar dienst te kunnen laten doen.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:48
Ok, ander itempje dus wat hetzelfde aantoont :). Ik had snel vergeleken met de 500GB disk en daarop stonden #1 en #5 op 0, vandaar dat ik er ook al semi vanuit ging dat dat het falen aankaarte, zonder inhoudelijk goed naar de overige punten te kijken.

De schijf wil ik dan ook in ieder geval vervangen. Maar de vraag is dus hoe ik dat het beste kan doen, zonder alle data kwijt te raken. Als er een aantal bestanden missen (zoals de bestanden die nu al door ZFS als stuk zijn gemarkeerd) is dat geen probleem, maar alles weg gooien is weer het andere uiterste.

Zoals gezegd kan ik, voor zover ik weet, in dit geval, met een pool bestaande uit een enkele schrijf/partitie, deze niet vervangen met zpool replace zoals ik dat wel met de partitie uit de "backup" pool kan. Is dit correct? En ik denk dat de enige optie die ik dan over houd het aanmaken van een nieuwe pool is en de data dan gewoon over kopiëren? Waarbij ik in het laatste geval (nieuwe pool) ook meteen voor een andere setup kan gaan, bv met een grotere schrijf. Maar is dat in het geval van het vervangen van de schrijf binnen de bestaande pool ook mogelijk (mits vervangen met zpool replace überhaupt mogelijk is).

Acties:
  • 0 Henk 'm!
Om een concreet en kort antwoord te bieden op je vraag:

Nu we weten dat je disk eigenlijk de geest aan het geven is en je data best veel risico loopt omdat je geen redundantie hebt kan je enkele dingen doen om je data veilig te stellen:
  • Je data manueel kopieren naar een nieuwe (al dan betrouwbaardere) bestemming kopieren
  • Je data met ZFS send receive kopieren naar een nieuwe (al dan betrouwbaardere) bestemming kopieren
  • Een nieuw, apart device/partitie die op een andere disk staat introduceren als andere helft van een mirror op je bestaande pool.
Welke files zijn er verloren, weet je dat al?

Je kan eenvoudigweg van een "single device pool" een pool maken die bestaat uit je "rotte device" en een nieuw device door een zpool attach te doen, dan gaat ZFS zelf een resilver starten en ben je al wat betrouwbaarder uit... Dat geniet mijn voorkeur... Zo heb je betrouwbaarheid zolang je "rotte" disk het uithoudt, en moet je niet gaan rommelen met migraties, herinstallaties en dergelijke...

[ Voor 10% gewijzigd door HyperBart op 28-06-2015 21:13 ]


Acties:
  • 0 Henk 'm!
HyperBart schreef op zondag 28 juni 2015 @ 21:12:
Je kan eenvoudigweg van een "single device pool" een mirror pool maken door een zpool attach te doen, dan gaat ZFS zelf een resilver starten en ben je al wat betrouwbaarder uit... Dat geniet mijn voorkeur...
En net zo eenvoudig van je mirror weer een single disk pool maken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je kunt gewoon die ene schijf replacen. Tijdens de replace-procedure wordt de data vanaf de huidige schijf naar de nieuwe gekopiëerd. Ik heb alleen geen ervaring met hoe dit werkt indien er onleesbare data op staat. Maar het lijkt mij dat dit gewoon dient te werken. Dus probeer het!

Je kunt gewoon een partitie maken van minimaal dezelfde grootte als de originele disk, en dat gebruiken voor de replace commando. Dan behoud je de overige ruimte op je disk voor een andere pool of iets dergelijks.

Acties:
  • 0 Henk 'm!
Helemaal waar wat CurlyMo zegt, na je attach-commando heb je er 2 disks onder hangen, weliswaar eentje die wat onbetrouwbaarder is, maar die kan je er toch nog doorheen helpen als er God behoedt toch op je nieuwe disk toevallig ook een foutje voorkomt...

Heel simpel moet je het bekijken dat misschien net wanneer het nodig is de ene disk de andere nog kan helpen als de andere moeilijk doet...

@CiPHER : ik ben het niet eens met dat wat je nu zegt dat hij het gewoon even moet proberen, zie mijn alinea hierboven.

Liever 2 disks in mirror waarvan 1 onbetrouwbaarder is geworden en 1 nieuw die zich nog niet bewezen heeft, dan 1 nieuwe disk die zich nog niet bewezen heeft en misschien (gezien de badkuipcurve qua diskfails) in de eerste dagen na in productie nemen ook fouten geeft...

[ Voor 52% gewijzigd door HyperBart op 28-06-2015 21:18 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:48
HyperBart schreef op zondag 28 juni 2015 @ 21:12:
Een nieuw, apart device/partitie die op een andere disk staat introduceren als andere helft van een mirror op je bestaande pool.
Dit is dan inderdaad wat ik ga doen. Ik zal sowieso een nieuwe schrijf moeten kopen om de bestaande te vervangen.
Welke files zijn er verloren, weet je dat al?
De pool bevat alleen niet belangrijke data, voornamelijk series en films. De bestanden die niet meer gelezen kunnen worden zijn dan ook enkele afleveringen van een serie (allemaal in dezelfde map, dus die bestanden zullen ook "naast elkaar" hebben gestaan).
Je kan eenvoudigweg van een "single device pool" een pool maken die bestaat uit je "rotte device" en een nieuw device door een zpool attach te doen, dan gaat ZFS zelf een resilver starten en ben je al wat betrouwbaarder uit... Dat geniet mijn voorkeur... Zo heb je betrouwbaarheid zolang je "rotte" disk het uithoudt, en moet je niet gaan rommelen met migraties, herinstallaties en dergelijke...
Dank, dit was het antwoord waar ik naar op zoek was. Van wat ik mij kon herinneren van toen ik een aantal jaartjes geleden deze setup heb gemaakt was dat het, voor zover ik begreep, niet mogelijk was om disks toe te voegen aan een bestaande single disk pool. Dit blijkt dus wel mogelijk te zijn.
Verwijderd schreef op zondag 28 juni 2015 @ 21:14:
Je kunt gewoon die ene schijf replacen. Tijdens de replace-procedure wordt de data vanaf de huidige schijf naar de nieuwe gekopiëerd. Ik heb alleen geen ervaring met hoe dit werkt indien er onleesbare data op staat. Maar het lijkt mij dat dit gewoon dient te werken. Dus probeer het!
Gezien het feit dat ik de bestanden wel nog gedeeltelijk kan lezen lijkt mij dat ik ze in het uiterste geval ook kan verwijderen, dan zullen ze dus sowieso niet gekopieerd hoeven te worden. En in principe kan ik ze sowieso verwijderen, ze zijn toch al corrupt, dus heeft het geen zin om te ze te laten staan.
HyperBart schreef op zondag 28 juni 2015 @ 21:15:
Helemaal waar wat CurlyMo zegt, na je attach-commando heb je er 2 disks onder hangen, weliswaar eentje die wat onbetrouwbaarder is, maar die kan je er toch nog doorheen helpen als er God behoedt toch op je nieuwe disk toevallig ook een foutje voorkomt...
Goede tip, in eerste instantie zal ik de boel dan op beide schijven laten draaien, na een tijd "proef draaien" kan ik dan de foute schijf eruit halen. In het geval van de "backup" pool kan ik deze neem ik aan ook gebruiken als mirror met 3 schijven? De twee bestaande en dan de nieuwe.

Rest mij nog een vraag. Als ik nu een grotere schrijf koop, en daarop dan ook een grotere partitie zet voor de "storage" pool, dan zal ik in eerste instantie de 2TB limiet behouden, maar als ik dan later de huidige schijf detach, kan ik dan gebruik maken van de volledige ruimte? Dus doet ZFS dan (automatisch of op commando) een resize van de pool? Op basis hiervan kan ik dan een keuze maken of ik weer voor een 3TB of grotere schijf ga.

Voor de rest heb ik hiermee voldoende informatie. Met het lezen van de man pages/google zal het wel goed komen om t.z.t. de nieuwe schijf in gebruik te nemen.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Kan ik een v5000 pool onder zfsguru export doen, en zo import onder linux met zfs ?
Er staan verder geen features extra aan dan standaard aan staan.
Heb 15 seagate hdds verkocht en wil ze vervangen door hgst.

De koper kan dan kijken of hij nog wat met de content wil doen.
Het is een raid-z2 pool van 10 discs, en een raid-z1 van 5 discs.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
RobertMe schreef op zondag 28 juni 2015 @ 21:36:
In het geval van de "backup" pool kan ik deze neem ik aan ook gebruiken als mirror met 3 schijven? De twee bestaande en dan de nieuwe.
Dat kan maar is alleen niet erg efficiënt. Liever 4 disks in RAIDZ2 dan 3 disks in een 3-weg mirror.
Rest mij nog een vraag. Als ik nu een grotere schrijf koop, en daarop dan ook een grotere partitie zet voor de "storage" pool, dan zal ik in eerste instantie de 2TB limiet behouden, maar als ik dan later de huidige schijf detach, kan ik dan gebruik maken van de volledige ruimte? Dus doet ZFS dan (automatisch of op commando) een resize van de pool? Op basis hiervan kan ik dan een keuze maken of ik weer voor een 3TB of grotere schijf ga.
Ja dat kan.
jacovn schreef op maandag 29 juni 2015 @ 19:05:
Kan ik een v5000 pool onder zfsguru export doen, en zo import onder linux met zfs ?
Er staan verder geen features extra aan dan standaard aan staan.
CurlyMo in "Het grote ZFS topic"

[ Voor 16% gewijzigd door CurlyMo op 29-06-2015 19:15 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:48
CurlyMo schreef op maandag 29 juni 2015 @ 19:11:
[...]

Dat kan maar is alleen niet erg efficiënt. Liever 4 disks in RAIDZ2 dan 3 disks in een 3-weg mirror.


[...]

Ja dat kan.
Dank. Het draaien van de 3 disk mirror zal dan maar tijdelijk zijn. Puur om die nieuwe disk "te testen". Als ik dan later de slechte disk eruit haal wordt dit dus weer gewoon een 2 disk mirror. Deze pool wordt ook zeldzaam gebruikt. Er worden wel periodiek (handmatig) backups naar geschreven, maar deze worden in principe nooit geraadpleegd. Performance maakt in die zin dan ook niet zoveel uit, zolang de data maar veilig is opgeslagen.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Hmm als ik dat lees en dan kijk wat active is:
code:
1
2
3
4
5
6
7
8
9
Enabled    async_destroy                   Destroy filesystems asynchronously. 
 Active      empty_bpobj                      Snapshots use less space. 
Enabled    lz4_compress                     LZ4 compression algorithm support. 
Enabled    multi_vdev_crash_dump   Crash dumps to multiple vdev pools. 
 Active      spacemap_histogram        Spacemaps maintain space histograms. 
 Active      enabled_txg  
 Active       hole_birth  
Enabled    extensible_dataset           Enhanced dataset functionality, used by other features. 
Enabled    Bookmarks

Hij zal het wel zien als hij een import gaat doen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Dit zijn de features op linux op mijn nieuwe nas :
code:
1
2
3
4
5
6
7
8
9
10
11
12
root@riwinas2:~# zpool get all pool0 | grep feature
pool0  feature@async_destroy       enabled                     local
pool0  feature@empty_bpobj         enabled                     local
pool0  feature@lz4_compress        active                      local
pool0  feature@spacemap_histogram  active                      local
pool0  feature@enabled_txg         active                      local
pool0  feature@hole_birth          active                      local
pool0  feature@extensible_dataset  enabled                     local
pool0  feature@embedded_data       active                      local
pool0  feature@bookmarks           enabled                     local
pool0  feature@filesystem_limits   enabled                     local
pool0  feature@large_blocks        enabled                     local


En dit zijn ze op die van jacovn :
code:
1
2
3
4
5
6
7
8
9
Enabled    async_destroy                Destroy filesystems asynchronously.
 Active   empty_bpobj                    Snapshots use less space.
Enabled    lz4_compress                 LZ4 compression algorithm support.
Enabled    multi_vdev_crash_dump Crash dumps to multiple vdev pools.
 Active   spacemap_histogram         Spacemaps maintain space histograms.
 Active   enabled_txg 
 Active   hole_birth 
Enabled    extensible_dataset           Enhanced dataset functionality, used by other features.
Enabled    bookmarks


De enige 'extra' feature die aanwezig is op de freeBSD pool is dus de multi_vdev_crash_dump feature die onder ZoL nog niet bestaat. Maar aangezien deze enabled is maar niet Active denk ik dat de import van de 10 schijf raid-z2 wel zal lukken. Ik moet alleen zorgen dat ik een directory met symlinks maak naar de device namen die jacovn onder FreeBSD in de pool ziet.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
  pool: pool4
 state: ONLINE
  scan: scrub repaired 0 in 5h50m with 0 errors on Sat Apr 25 12:44:40 2015
config:

        NAME                     STATE     READ WRITE CKSUM
        pool4                    ONLINE       0     0     0
          raidz2-0               ONLINE       0     0     0
            gpt/ST4000_Z3013VNL  ONLINE       0     0     0
            gpt/ST4000_Z300V3G1  ONLINE       0     0     0
            gpt/ST4000_Z30146PF  ONLINE       0     0     0
            gpt/ST4000_Z300V342  ONLINE       0     0     0
            gpt/ST4000_Z300V3KX  ONLINE       0     0     0
            gpt/ST4000_Z3013WLW  ONLINE       0     0     0
            gpt/ST4000_Z3013VLC  ONLINE       0     0     0
            gpt/ST4000_Z3013W9T  ONLINE       0     0     0
            gpt/ST4000_Z3013YJL  ONLINE       0     0     0
            gpt/ST4000_Z3013XE4  ONLINE       0     0     0
        cache
          gpt/L2arcpool2         ONLINE       0     0     0

errors: No known data errors


Ik weet alleen nog niet hoe ik die gpt/ ervoor krijg. Met zpool import -d /tmp/gpt pool4 kijkt ZFS volgens mij alleen in die /tmp/gpt folder. Dus dan moet ik daar 10 linkjes (ln -s) maken naar de juiste schijven onder linux in de /dev/disk/by-id folder.
Ben benieuwd of dat gaat lukken :)

Ik zie dat er bij jou nog een L2arc cache device zit. Maar volgens mij hoef je die niet te hebben voor een succesvolle import van een pool. Anders hang ik er een SSD bij met een linkje ernaar toe vanaf gpt/L2arcpool2

Waarschuwing trouwens voor gebruikers van supermicro X10 moederborden: Koop geen Kingston ECC geheugen want dat werkt niet als je er 32GB in stopt. Heb het geheugen inmiddels weer via tweakers verkocht en Samsung geheugen van de QVL van Supermicro voor besteld.

[ Voor 7% gewijzigd door riwi op 30-06-2015 22:13 ]

PC specs


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:34

FREAKJAM

"MAXIMUM"

Draait hier anders al een jaar zonder problemen. Heb wel veel issues gelezen over de combinatie op het freenas forum. Hele tijd terug ook gemeld in dit topic. Hopelijk blijft het bij mij goed draaien.

is everything cool?


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
FREAKJAM schreef op dinsdag 30 juni 2015 @ 22:19:
Draait hier anders al een jaar zonder problemen. Heb wel veel issues gelezen over de combinatie op het freenas forum. Hele tijd terug ook gemeld in dit topic. Hopelijk blijft het bij mij goed draaien.
Heb je 16GB of 32GB?
Als ik in de A1/A2 slots strips deed boote hij niet en bleef met Initializing System en 55 in de rechteronderhoek hangen.
Als ik in de B1/B2 slots strips deed dan boote hij wel.
Met alle slots vol 4x8GB dan hing het en kwam ie dus nog niet eens in de bios.

X10SL7F heb ik gekocht. En Kingston KVR1333D3E9SK2/16GB 2 setjes 1.5 V.
Het Samsung geheugen dat ik nu krijg is 1.35V en 1600MHz

PC specs


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:34

FREAKJAM

"MAXIMUM"

32GB, Kingston KVR16E11K4/32. Ik denk dat ik geluk heb gehad of een batch heb die het gelukkig wel doet. Supermicro had in eerste instantie het geheugen ook gewoon op hun HCL staan, maar later verwijderd.

is everything cool?


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
X10SL7-F met Kingston ValueRAM KVR16E11K4/32 lijkt hier ook gewoon prima te draaien. Wel met ESXi met daarop onder andere een ZFSGuru VM.

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Uit ervaring kan ik daaraan toevoegen dat multi_vdev_crash_dump enabled geen probleem is voor het importeren van je pool in ZFS on Linux.

Acties:
  • 0 Henk 'm!

  • azerty
  • Registratie: Maart 2009
  • Laatst online: 26-09 14:36
FREAKJAM schreef op dinsdag 30 juni 2015 @ 22:40:
32GB, Kingston KVR16E11K4/32. Ik denk dat ik geluk heb gehad of een batch heb die het gelukkig wel doet. Supermicro had in eerste instantie het geheugen ook gewoon op hun HCL staan, maar later verwijderd.
Ik kan je hier enkel in bijtreden; hier draait het ook al een jaartje zonder problemen.

Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Ok dan kan de voorzichtige conclusie misschien zijn dat :
Kingston KVR1333D3E9SK2/16GB x2 niet werkt met 32GB in een X10 Supermicro bord.
Kingston KVR16E11K4/32 wel werkt met 32GB in een X10 Supermicro bord.

Voor de zekerheid is het advies dus om je bij een nieuwe build aan de HCL of QVL van supermicro te houden.

[ Voor 4% gewijzigd door riwi op 01-07-2015 10:19 ]

PC specs


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
RobertMe schreef op zondag 28 juni 2015 @ 21:36:
Dank, dit was het antwoord waar ik naar op zoek was. Van wat ik mij kon herinneren van toen ik een aantal jaartjes geleden deze setup heb gemaakt was dat het, voor zover ik begreep, niet mogelijk was om disks toe te voegen aan een bestaande single disk pool. Dit blijkt dus wel mogelijk te zijn.
Maar dit is toch niet waar. Je mag van een mirror een enkele pool maken of zelfs 2 gesplitst pools (zpool split) en je kan van een enkele pool een mirror maken maar je kan niet zomaar devices toevoegen en removen. Je kan wel toevoegen maar daarna is removal onmogelijk (dus geen zpool add doen want zpool remove werkt niet).

Ik vind dat je een rare setup hebt zonder redundantie. Ik zie de toegevoegde waarde niet zo. Al zal zfs op zichzelf al wat extra veiligheid brengen mbv de copy on write en de data checksumming.

PC specs


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:48
riwi schreef op woensdag 01 juli 2015 @ 20:26:
[...]


Maar dit is toch niet waar. Je mag van een mirror een enkele pool maken of zelfs 2 gesplitst pools (zpool split) en je kan van een enkele pool een mirror maken maar je kan niet zomaar devices toevoegen en removen. Je kan wel toevoegen maar daarna is removal onmogelijk (dus geen zpool add doen want zpool remove werkt niet).
Ik ben ook absoluut geen ZFS kenner, en heb toentertijd informatie gezocht die bij mijn beoogde setup zou passen. Vandaar dus ook dat ik niet specifiek op zoek ben gegaan naar dingen als het later uitbreiden van de pool met meer disks, toevoegen van redundantie, etc.
Ik vind dat je een rare setup hebt zonder redundantie. Ik zie de toegevoegde waarde niet zo. Al zal zfs op zichzelf al wat extra veiligheid brengen mbv de copy on write en de data checksumming.
Redundantie op de "storage" pool vind ik niet belangrijk, zoals gezegd, hier staan voornamelijk films en series op, als ik die volledige pool kwijt raak, heb ik zoiets van "shit happens" en begin ik opnieuw. Naast deze "storage" pool heb ik echter ook nog een "backup" pool, deze draait wel met redundantie omdat hier dus wel belangrijke dingen op staan.
Die dingen waarbij ik het dus wel belangrijk vind dat die goed bewaard worden, en een defecte disk moeten overleven, heb ik dus ook via een mirror draaien.

Daarnaast heb ik toen voor ZFS gekozen "because I can". Gewoon om eens iets ermee gedaan te hebben, en softwarematige mirroring, checksumming etc zijn daarbij leuke/handige features. Daarnaast had ik zonder ZFS nooit gevonden dat deze disk bad sectors had. Als ik gewoon ext4 had gedraaid waren de bestanden die nu in eerste instantie corrupt waren waarschijnlijk nooit meer gelezen, en zou ik pas veel later erachter zijn gekomen dat de disk bad sectors had (murphys law zou dan bijna zeggen dat ik pas erachter zou komen als de andere disk overleden was, en ik dan erachter kwam dat de andere kant van de mirror eigenlijk ook niet meer (betrouwbaar) werkte).

Nu draai ik (handmatig) periodiek een scrub en zie ik een dagje later precies wat de status is. Bij een ander filesystem is dat voor zover ik weet onmogelijk.



De nieuwe disk heb ik gisteren geplaatst, en aan beide pools heb ik deze disk als mirror toegevoegd. Alles draait nu dus weer (hopelijk) als een zonnetje :) Over een aantal maanden kan ik dan evt. de defecte disk eruit halen, en hopelijk kan ik nu dan weer een aantal jaartjes vooruit (systeem draait nu ong. 3 jaar zonder noemenswaardige problemen, dit was het eerste "issue", wat dankzij jullie hulp ook eenvoudig was op te lossen).

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Vandaag de dag van zfsguru nieuwe versie ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
riwi schreef op woensdag 01 juli 2015 @ 20:26:
[...]


Maar dit is toch niet waar. Je mag van een mirror een enkele pool maken of zelfs 2 gesplitst pools (zpool split) en je kan van een enkele pool een mirror maken maar je kan niet zomaar devices toevoegen en removen. Je kan wel toevoegen maar daarna is removal onmogelijk (dus geen zpool add doen want zpool remove werkt niet).
In geval van een mirror dus wel. Vandaar dat het i.p.v. add/remove dan ook attach/detach heet. De reden is eigenlijk ook simpel. Een mirror maken of splitten vereist geen block-pointer-rewrite. In de andere gevallen wel. Dat is ook de crux waarom ZFS in die zin niet zo flexibel is als andere oplossingen.

[ Voor 16% gewijzigd door CurlyMo op 01-07-2015 22:40 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 26-09 14:32

B2

wa' seggie?

jacovn schreef op woensdag 01 juli 2015 @ 21:32:
Vandaag de dag van zfsguru nieuwe versie ?
Nee dus, begint een soort van Duke Nukem Forever te worden ;)

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
Er is geen jaartal afgegeven, dus het zou ook 1 juli 2020 kunnen zijn... :P
Als je er op zit te wachten om een nieuw systeem te installeren, is het wel wat vervelend.

Acties:
  • 0 Henk 'm!
yamahabest schreef op donderdag 02 juli 2015 @ 09:00:
Er is geen jaartal afgegeven, dus het zou ook 1 juli 2020 kunnen zijn... :P
Als je er op zit te wachten om een nieuw systeem te installeren, is het wel wat vervelend.
Wat biedt dus die magische nieuwe ZFSGuru wat de oude niet heeft? De ZFSGuru ontwikkelaars hebben niet die mate van mijn vertrouwen dat ik op nieuwe versie zou gaan wachten. Dat is echter persoonlijk.

[ Voor 23% gewijzigd door CurlyMo op 02-07-2015 09:21 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
Ik dacht ergens iets gelezen te hebben over niet compatible?
Hier dus: http://zfsguru.com/forum/zfsgurudevelopment/948#5884. Alhoewel CiPHER daar nooit op gereageerd heeft, blijkbaar.
Misschien ben ik dus wel voor niets aan het wachten...

[ Voor 13% gewijzigd door yamahabest op 02-07-2015 09:37 ]


Acties:
  • 0 Henk 'm!
Als je iets specifieks over ZFSGuru te zeggen hebt en de manier waarop dat loopt (organisatorisch) dan zou ik je willen uitnodigen in het betreffende ZFSGuru topic.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 26-09 10:20
jacovn schreef op woensdag 01 juli 2015 @ 21:32:
Vandaag de dag van zfsguru nieuwe versie ?
Was er wat aangekondigd dat er zou komen?
Toevallig voor ik hier keek even op zfsguru site gekeken, maar daar werd ik niet veel wijzer..

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
CurlyMo schreef op donderdag 02 juli 2015 @ 09:42:
Als je iets specifieks over ZFSGuru te zeggen hebt en de manier waarop dat loopt (organisatorisch) dan zou ik je willen uitnodigen in het betreffende ZFSGuru topic.
Nee, ik heb niets specifiek te zeggen over ZFSGuru. Ja, ze zijn later dan de eerste berichten, maar daar kan je "vrijwiligers" niet echt op aanspreken, vind ik.
Phyt_ schreef op donderdag 02 juli 2015 @ 13:29:
[...]

Was er wat aangekondigd dat er zou komen?
Toevallig voor ik hier keek even op zfsguru site gekeken, maar daar werd ik niet veel wijzer..
http://zfsguru.com/forum/zfsgurudevelopment/966

[ Voor 27% gewijzigd door yamahabest op 02-07-2015 13:37 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Het jaar staat er inderdaad niet bij, maar normaal gesproken is het wel zo als je jaar weglaat dat het over huidig jaar gaat.

Wellicht in slaap gevallen en nog niet weer wakker daar ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik kan er niet veel over vertellen. Het is aan Jason dit keer. :)

Maar als het je puur om de systeemversie te doen is; waarom niet zelf updaten naar 10.1 of 10-STABLE via de instructies van de FreeBSD Handbook? Tenzij je dit te eng vindt. Je kunt ook handmatig BSD installeren en daar bovenop de web-interface.

Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 14-09 16:26
Riwi: Misschien is zpool import -d /dev/disk/by-partlabel een optie voor je als je wat met GPT wilt doen. Dat heb ik in mijn storage server ook zodat ik weet over welke disk het gaat omdat ze GPT namen per drive/partitie hebben en de bovenste drive is dan 3TB-1, 3TB-2 ... 3TB-13. Overzichtelijker dan de merk/sn of UUIDs (resp. /dev/disk/by-id of /dev/disk/by-uuid).

Werkt overigens alleen goed op Ubuntu. Debian (Wheezy) vergeet de GPT namen te registeren bij opstarten of zo.

[ Voor 6% gewijzigd door Contagion op 02-07-2015 17:13 ]


Acties:
  • 0 Henk 'm!
Debian vergeet dat niet, die hebben die udev rule gewoon niet.

Kan je zelf maken. Gewoon even googlen op "udev gpt rule".

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 16:38

Compizfox

Bait for wenchmarks

Verwijderd schreef op donderdag 02 juli 2015 @ 15:04:
Je kunt ook handmatig BSD installeren en daar bovenop de web-interface.
Dit heb ik laatst gedaan. Bevalt prima; ik had verwacht dat de installatie van FreeBSD veel moeilijker zou zijn.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
Verwijderd schreef op donderdag 02 juli 2015 @ 15:04:
Ik kan er niet veel over vertellen. Het is aan Jason dit keer. :)

Maar als het je puur om de systeemversie te doen is; waarom niet zelf updaten naar 10.1 of 10-STABLE via de instructies van de FreeBSD Handbook? Tenzij je dit te eng vindt. Je kunt ook handmatig BSD installeren en daar bovenop de web-interface.
Is het mogelijk om straks van beta10 naar 0.3 te upgraden?

Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Contagion schreef op donderdag 02 juli 2015 @ 17:07:
Riwi: Misschien is zpool import -d /dev/disk/by-partlabel een optie voor je als je wat met GPT wilt doen. Dat heb ik in mijn storage server ook zodat ik weet over welke disk het gaat omdat ze GPT namen per drive/partitie hebben en de bovenste drive is dan 3TB-1, 3TB-2 ... 3TB-13. Overzichtelijker dan de merk/sn of UUIDs (resp. /dev/disk/by-id of /dev/disk/by-uuid).

Werkt overigens alleen goed op Ubuntu. Debian (Wheezy) vergeet de GPT namen te registeren bij opstarten of zo.
Bedankt voor de tip. Ik vind de by-id wel prettig want dan is het volledig onafhankelijk van de plek en positie. je kan zo de 10 disks eruit halen en willekeurig terug steken en alles werkt weer. En het is handig als er eentje sneuvelt dat je gewoon het serienummer op de drive kan teruglezen. Het is wel handig zeker te weten welke disk je moet wisselen als er 30 in de kast zitten.
Ik gebruik slackware. Ik weet eigenlijk niet of die wel de udev voor gpt labels doet maar zo'n gpt udev rule zou ik toe kunnen voegen.

Ik heb vandaag het Samsung geheugen binnen gekregen dat op de QVL van Supermicro staat. Daarmee dezelfde resultaten als met het Kingston geheugen. Als er strips in A1/A2 zitten dan boot ie niet en hangt het op het startscherm met 55. Ook met 4 strips erin wil ie niet en hangt het met code 55 en 4 piepjes. En met 2 strips in B1/B2 doet ie het wel maar heb ik maar 16GB.

Ik begin te denken dat het supermicro x10sl7f bord gewoon stuk is. Had ik maar gewoon een Asus of Asrock gekocht denk ik al. Of heeft iemand nog andere ideeen? Misschien moet ik dit in een ander topic posten.

[ Voor 4% gewijzigd door riwi op 02-07-2015 21:05 ]

PC specs


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Dat is balen, dan moet er wel iets defect zijn.
Ik heb er echt 4 van 8 in zitten.
Ook 2 andere servers met x9scm-f en x9scm-f2 borden met kingston valueram. Dat is dan ook 4x8GB

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Ik zal eerst eens een ticket inschieten bij Supermicro

PC specs


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
4 Beeps = Unrecognized Processor

Staat in appendix A, maar voor jouw bord staat daar die 4 beep code niet bij.

Wat voor CPU heb je erin zitten ?

[ Voor 35% gewijzigd door jacovn op 02-07-2015 21:43 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Ik heb een mooie i3 uitgezocht met ECC ondersteuning : i3-4330
Die had 4MB cache ipv 3MB. Leek me wel goed.
Ik kon inderdaad die 4x beep code in de handleiding niet terug vinden.

http://ark.intel.com/prod...ocessor-4M-Cache-3_50-GHz

[ Voor 44% gewijzigd door riwi op 02-07-2015 21:56 ]

PC specs


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Dat is 4e generatie i3, en dat zou moeten werken. Wellicht bios upgrade nodig, maar dat moet supermicro je vertellen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • avdpeijl
  • Registratie: Maart 2014
  • Laatst online: 26-09 13:35
Verwijderd schreef op donderdag 02 juli 2015 @ 15:04:
Ik kan er niet veel over vertellen. Het is aan Jason dit keer. :)

Maar als het je puur om de systeemversie te doen is; waarom niet zelf updaten naar 10.1 of 10-STABLE via de instructies van de FreeBSD Handbook? Tenzij je dit te eng vindt. Je kunt ook handmatig BSD installeren en daar bovenop de web-interface.
Instructies beet gepakt, maar zie inderdaad direct al wat 'engs': GENERIC kernel is toch niet aanwezig (in ZFSGuru 10.1-002)?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Compizfox schreef op donderdag 02 juli 2015 @ 17:11:
Dit heb ik laatst gedaan. Bevalt prima; ik had verwacht dat de installatie van FreeBSD veel moeilijker zou zijn.
BSD had vroeger sysinstall, dat vond ik best te doen maar is zeker niet gebruiksvriendelijk te noemen.

De nieuwe installer (bsdinstall) kan ook naar ZFS installeren. Het heeft niet zoveel features als ZFSguru gebruikt, zoals zelf je ashift kunnen kiezen en recordsize (large_blocks) enzovoorts, en nog wat beperkingen. Maar wel tof dat FreeBSD ZFS nu eigenlijk standaard out-of-the-box aanbied voor alles, dus niet enkel de data maar ook de 'systeemdisk'.
yamahabest schreef op donderdag 02 juli 2015 @ 18:05:
Is het mogelijk om straks van beta10 naar 0.3 te upgraden?
Nee. ZFSguru 0.3 is incompatible met alles wat daarvoor uitkwam. Je kunt 0.2 blijven gebruiken, maar je kunt niet switchen tussen 0.2 en 0.3. Dat betekent een nieuwe LiveCD of USB image booten en 0.3 installeren. Je kunt wel gewoon op dezelfde pool installeren, en eenmaal geïnstalleerd kun je wel switchen van je nieuwe naar je oude installatie op de System->Booting pagina. Dat kan wel.

Omdat er nu ook USB images zijn, is het gemakkelijker voor mensen die geen CD drive of CD emulator hebben. Die hoeven nu niet meer naar de Virtualbox-methode te grijpen.
avdpeijl schreef op donderdag 02 juli 2015 @ 22:06:
Instructies beet gepakt, maar zie inderdaad direct al wat 'engs': GENERIC kernel is toch niet aanwezig (in ZFSGuru 10.1-002)?
ZFSguru gebruikt een custom kernel configuratiefile waarin extra dingen zitten zoals Infiniband (OFED), AltQ voor firewall traffic shaping en device polling wat CPU cycles kan schelen. Voor de rest gelijk aan de standaard GENERIC file voor amd64 platforms. Voor i386 (32-bit) platform heeft ZFSguru wel enkele tweaks, waaronder de KVA_SIZE tweak.

Maar als je de sourcecode hebt, kun je gewoon een GENERIC kernel bakken. De GENERIC kernelconfiguratie file zit bij de sourcecode inbegrepen (/usr/src/sys/amd64/conf/GENERIC). Je hoeft enkel een commando uit te voeren als: make -C /usr/src buildkernel KERNCONF=GENERIC

KERNCONF is zelfs optioneel als je een GENERIC kernel wilt. Het moeilijkste onderdeel van de upgrade is mergemaster. Ik zelf raad aan om wat backups te maken van je vitale bestanden (/etc/passwd, /etc/master.passwd, /etc/rc.conf, /boot/loader.conf, /.profile en nog wat meuk. Dan lekker alles installeren door mergemaster en niet per file handmatig beoordelen, dat is teveel werk als je grote sprongen maakt.

Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Dag allen , ik krijg na het rebooten mijn zfs server niet meer opgestart.

message:
FREEBSD/x86 boot
Default: IFVSERVER:/boot/kernel/kernel
boot:
/
FREEBSD/x86 boot
Default: IFVSERVER:/boot/kernel/kernel
boot:

situatie: 4 schijven in 2x mirror setup
zfsguru: 9.2-001 met pool v28
Er was niets mis met de pool of schijven (naar mijn weten toch)
Iemand een idee ?

Thx !

[ Voor 4% gewijzigd door johann1982 op 03-07-2015 13:03 ]


Acties:
  • 0 Henk 'm!
Heb je iets geupdate?

[ Voor 15% gewijzigd door FireDrunk op 03-07-2015 13:13 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Neen, enkel een VM naam voor autoboot van VM veranderd in /etc/rc.conf.
Pc is wel al een half jaar niet meer gereboot, is niet specifieks op geinstaleerd of geupdate sindsdien. Werkte altijd keurig.

Acties:
  • 0 Henk 'm!
Hmm, bestaat /boot/kernel/kernel?
Je kan een FreeBSD live cd booten en je pool importeren om dat te bekijken.

Even niets...


Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
FireDrunk schreef op vrijdag 03 juli 2015 @ 13:18:
Hmm, bestaat /boot/kernel/kernel?
Je kan een FreeBSD live cd booten en je pool importeren om dat te bekijken.
Ik heb de pool kunnen importeren vanop een live cd en zie inderdaad de bestanden van mijn pool. Maar hoe geraak ik aan het bootgedeelte van die pool ? (de datapool bootte zelf op)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
johann1982 schreef op vrijdag 03 juli 2015 @ 12:57:
Dag allen , ik krijg na het rebooten mijn zfs server niet meer opgestart.

situatie: 4 schijven in 2x mirror setup
Een dergelijke configuratie is niet bootable.

Waarschijnlijk ben je met één mirror met 2 schijven begonnen. Dan ZFSguru geïnstalleerd, daarna nog een mirror met twee disks toegevoegd aan de pool. Je pool blijft dan bootable zolang alle data op de eerste vdev staat. Zodra ook maar één snippertje op de 2e vdev staat (de 2e mirror) dan wordt je pool niet meer bootable.

Je kunt alleen booten van ZFS pools met één vdev. Dus een 20-disk RAID-Z3 is prima, maar een 2-disk stripe is dat niet.

Wat je wel kunt proberen is met een LiveCD naar 0.2-rc updaten en daarmee je bootcode updaten.

[ Voor 6% gewijzigd door Verwijderd op 03-07-2015 14:03 ]


Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Aja ok. Ik had een VM draaien (virtualbox) op die pool waar ik nu aan moet; hoe kan ik nu aan die data geraken ?
Verwijderd schreef op vrijdag 03 juli 2015 @ 14:02:
[...]

Een dergelijke configuratie is niet bootable.

Waarschijnlijk ben je met één mirror met 2 schijven begonnen. Dan ZFSguru geïnstalleerd, daarna nog een mirror met twee disks toegevoegd aan de pool. Je pool blijft dan bootable zolang alle data op de eerste vdev staat. Zodra ook maar één snippertje op de 2e vdev staat (de 2e mirror) dan wordt je pool niet meer bootable.

Je kunt alleen booten van ZFS pools met één vdev. Dus een 20-disk RAID-Z3 is prima, maar een 2-disk stripe is dat niet.

Wat je wel kunt proberen is met een LiveCD naar 0.2-rc updaten en daarmee je bootcode updaten.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Als je een livecd boot of op een andere manier kan booten naar een ZFSguru OS, dan kun je gewoon weer bij je data door je pool te importeren op de Pools pagina.

Dus een LiveCD is het makkelijkst. Je kunt ook een USB stick of kleine HDD/SSD gebruiken om daar ZFSguru op te installeren. Je kunt dit ook op systeem X doen en later op systeem Y de HDD/SSD/USB-stick gebruiken om van te booten. Dit zou als voordeel hebben dat je alleen in systeem X een optical drive hoeft te hebben. Of je maakt van Virtualbox gebruik om een USB-stick te maken.

Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Dag Cypher, dit werkt inderdaad en ik kan ook netjes aan de data van mijn pool. Er draaide echter bij zfsguru services virtualbox waar ik een VM in draaide. En die vind ik niet. (weet ook niet waar die opgeslagen word)
Verwijderd schreef op vrijdag 03 juli 2015 @ 14:14:
Als je een livecd boot of op een andere manier kan booten naar een ZFSguru OS, dan kun je gewoon weer bij je data door je pool te importeren op de Pools pagina.

Dus een LiveCD is het makkelijkst. Je kunt ook een USB stick of kleine HDD/SSD gebruiken om daar ZFSguru op te installeren. Je kunt dit ook op systeem X doen en later op systeem Y de HDD/SSD/USB-stick gebruiken om van te booten. Dit zou als voordeel hebben dat je alleen in systeem X een optical drive hoeft te hebben. Of je maakt van Virtualbox gebruik om een USB-stick te maken.

Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Als ik met een live cd update naar 0.2-rc en met de bootcode update; kan ik dan terug aan mijn virtualbox services bestanden ? (het zijn namelijk voornamelijk deze VM's waar ik aan moet kunnen , de data van de pool zelf is al een backup van een andere server)
Verwijderd schreef op vrijdag 03 juli 2015 @ 14:02:
[...]

Een dergelijke configuratie is niet bootable.

Waarschijnlijk ben je met één mirror met 2 schijven begonnen. Dan ZFSguru geïnstalleerd, daarna nog een mirror met twee disks toegevoegd aan de pool. Je pool blijft dan bootable zolang alle data op de eerste vdev staat. Zodra ook maar één snippertje op de 2e vdev staat (de 2e mirror) dan wordt je pool niet meer bootable.

Je kunt alleen booten van ZFS pools met één vdev. Dus een 20-disk RAID-Z3 is prima, maar een 2-disk stripe is dat niet.

Wat je wel kunt proberen is met een LiveCD naar 0.2-rc updaten en daarmee je bootcode updaten.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Virtualbox zelf is alleen geïnstalleerd op je ZFSguru-installatie op de pool. Maar je draait nu de LiveCD, dus je hebt ook geen services en je draait alsof je een verse ZFSguru installatie draait met helemaal niets geinstalleerd en alles standaard ingesteld.

De data van Virtualbox, dus ook je VM image wat dus een groot bestand is, kun je denk ik vinden in de speciale service-filesystem van je installatie. Dit kan bijvoorbeeld zijn:

tank/zfsguru/services/10.1-002

Indien 'tank' de naam van je pool is, en 10.1-002 de naam van je installatie is die je bij de laatste installatie-stap opgeeft.

Je dient dus een nieuwe installatie te maken op een bootable pool en daarop Virtualbox installeren en die toegang geven tot de bestaande data. Dit kun je doen door de inhoud van de service-filesystem zoals hierboven uitgelegd te kopiëren naar de service-filesystem van je nieuwe installatie. Die kan een andere poolnaam (eerste deel) en installatienaam (laatste deel) hebben. Maar moeilijk is dit niet want je ziet alle filesystems op de Filesystems pagina. Klik even op de 'show system filesystems' en je krijgt alle ZFSguru-specifieke dingen te zien. Waaronder alle service filesystems. Want de data van de services wordt op een eigen filesystem opgeslagen. Dit is makkelijk omdat je het zo makkelijk kunt mounten op je nieuwe installatie.

Nieuwe installatie, hoe doe je dat? Eerst nadenken waarop:
  • USB-stick: werkt alleen redelijk als het een goede is zoals Sandisk Extreme
  • SSD: natuurlijk perfect maar kost je de aanschaf van een SSD. Als je dat doet, koop dan wel een goede (Crucial MX).
  • HDD: je kunt een extra hardeschijf gebruiken. Maar dat is wat zonde, je hebt immers al vier schijven.
  • Je huidige hardeschijven: je huidige pool is niet bootbaar. Maar zou je alles opnieuw indelen dan kun je een partitie van x GB aan het begin van de schijven zetten die dienst doet als boot pool voor ZFSguru installaties en de service-data. De tweede veel grotere partitie is dan voor je data pool. Die hoeft dan niet bootable te zijn en kan uit meerdere vdevs bestaan.
De laatste optie lijkt mij het beste. Als je de data niet tijdelijk elders kunt plaatsen, kun je dit zonder dataverlies doen door van de mirror een stripe te maken. Dan kun je de nieuwe disks vervolgens optimaal partitioneren en vervolgens kopieer je van de oude naar de nieuwe pool.

Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Loos alarm;

Er bleek een SSD (losse kabel) niet meer goed aangesloten te zijn die fungeerde als bootpool.
Probleem opgelost.

Bedankt voor de snelle tussenkomst hier !
Verwijderd schreef op vrijdag 03 juli 2015 @ 14:55:
Virtualbox zelf is alleen geïnstalleerd op je ZFSguru-installatie op de pool. Maar je draait nu de LiveCD, dus je hebt ook geen services en je draait alsof je een verse ZFSguru installatie draait met helemaal niets geinstalleerd en alles standaard ingesteld.

De data van Virtualbox, dus ook je VM image wat dus een groot bestand is, kun je denk ik vinden in de speciale service-filesystem van je installatie. Dit kan bijvoorbeeld zijn:

tank/zfsguru/services/10.1-002

Indien 'tank' de naam van je pool is, en 10.1-002 de naam van je installatie is die je bij de laatste installatie-stap opgeeft.

Je dient dus een nieuwe installatie te maken op een bootable pool en daarop Virtualbox installeren en die toegang geven tot de bestaande data. Dit kun je doen door de inhoud van de service-filesystem zoals hierboven uitgelegd te kopiëren naar de service-filesystem van je nieuwe installatie. Die kan een andere poolnaam (eerste deel) en installatienaam (laatste deel) hebben. Maar moeilijk is dit niet want je ziet alle filesystems op de Filesystems pagina. Klik even op de 'show system filesystems' en je krijgt alle ZFSguru-specifieke dingen te zien. Waaronder alle service filesystems. Want de data van de services wordt op een eigen filesystem opgeslagen. Dit is makkelijk omdat je het zo makkelijk kunt mounten op je nieuwe installatie.

Nieuwe installatie, hoe doe je dat? Eerst nadenken waarop:
  • USB-stick: werkt alleen redelijk als het een goede is zoals Sandisk Extreme
  • SSD: natuurlijk perfect maar kost je de aanschaf van een SSD. Als je dat doet, koop dan wel een goede (Crucial MX).
  • HDD: je kunt een extra hardeschijf gebruiken. Maar dat is wat zonde, je hebt immers al vier schijven.
  • Je huidige hardeschijven: je huidige pool is niet bootbaar. Maar zou je alles opnieuw indelen dan kun je een partitie van x GB aan het begin van de schijven zetten die dienst doet als boot pool voor ZFSguru installaties en de service-data. De tweede veel grotere partitie is dan voor je data pool. Die hoeft dan niet bootable te zijn en kan uit meerdere vdevs bestaan.
De laatste optie lijkt mij het beste. Als je de data niet tijdelijk elders kunt plaatsen, kun je dit zonder dataverlies doen door van de mirror een stripe te maken. Dan kun je de nieuwe disks vervolgens optimaal partitioneren en vervolgens kopieer je van de oude naar de nieuwe pool.

Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

*O* Nice, het is me (na een hoop trouble shooting) gelukt! Backup is ook online in de Lian Li en dmv de m1115 een tweede array erbij gejetzt.

(na flashen zonder bios en aftapen van de 5&6e baan op de PCI express connector).

2e pool aangemaakt ivm falen van een vdev = falen pool.. (is een backup afterall..)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
sh-4.1# zpool status
  pool: zfspool1
 state: ONLINE
  scan: scrub repaired 0 in 13h9m with 0 errors on Sat Jun 20 10:21:53 2015
config:

    NAME        STATE     READ WRITE CKSUM
    zfspool1    ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb1    ONLINE       0     0     0
        2tb2    ONLINE       0     0     0
        2tb3    ONLINE       0     0     0
        2tb4    ONLINE       0     0     0
        2tb5    ONLINE       0     0     0
        2tb6    ONLINE       0     0     0

errors: No known data errors

  pool: zfspool2
 state: ONLINE
  scan: scrub repaired 0 in 0h0m with 0 errors on Sun Jul  5 21:03:17 2015
config:

    NAME        STATE     READ WRITE CKSUM
    zfspool2    ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb7    ONLINE       0     0     0
        2tb8    ONLINE       0     0     0
        2tb9    ONLINE       0     0     0
        2tb10   ONLINE       0     0     0
        2tb11   ONLINE       0     0     0
        2tb12   ONLINE       0     0     0
        2tb13   ONLINE       0     0     0
        2tb14   ONLINE       0     0     0

errors: No known data errors


happy..! *O*

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Bigs schreef op woensdag 01 juli 2015 @ 07:27:
[...]


Uit ervaring kan ik daaraan toevoegen dat multi_vdev_crash_dump enabled geen probleem is voor het importeren van je pool in ZFS on Linux.
Inderdaad. Het importeren van de ZFS guru pool onder ZoL ging zonder problemen. Ik hoefde ook geen symlinks aan te maken : simpel een zpool import -d /dev/disk/by-id poolnaam en het werkte.
Alleen het cachedevice moet ik nog zien te verwijderen. Omdat dit device niet bestaat laat het zich ook niet verwijderen. Ik heb al gelezen dat dat via de GUID wel moet kunnen.

Maar momenteel zit het moederbord weer in een doos richting Supermicro. Ik zag dat er 1 of 2 pinnetjes in de socket niet mooi recht omhoog stonden... Dus dat is denk ik de oorzaak van mijn memoryproblemen. Ben benieuwd wat Supermicro daar mee doet. Of dat ik gewoon 250 euro kwijt ben. Er valt natuurlijk niet meer te bewijzen of zo'n pen al stuk was toen ik hem kreeg of dat ik dat heb gedaan bij het installeren van de CPU cq het verwijderen van het plastic beschermkapje.

PC specs


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Was de doos dicht toen je het Mainbord kreeg ? Dus dicht geplakt ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 21:52
Hallo nadat ik van het booten van mijn zfs server dit zag wil ik hier even advies vragen,waar komt deze fout vandaan en wat is/gaat er fout mee?
foutmelding:
code:
1
2
3
(ada0:ahcich1:0:0:0): READ_FPDMA_QUEUED. ACB: 60 01 00 07 4c 40 00 00 00 00 00 00
(ada0:ahcich1:0:0:0): CAM status: Uncorrectable parity/CRC error
(ada0:ahcich1:0:0:0): Retrying command


hierbij een command vanuit putty:
smartctl -a -q noserial /dev/ada0
Waarbij ik deze uitvoer kreeg:
*knip*
Iemand een idee?

[ Voor 95% gewijzigd door Verwijderd op 07-07-2015 17:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dit topic gaat over ZFS, niet over SMART. Daarvoor is het SMART topic: Check je SMART. De topicstart daar gaat ook in op kabelfouten, zoals in jouw geval duidelijk te zien aan de UDMA CRC Errors.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 21:52
Verwijderd schreef op dinsdag 07 juli 2015 @ 17:19:
Dit topic gaat over ZFS, niet over SMART. Daarvoor is het SMART topic: Check je SMART. De topicstart daar gaat ook in op kabelfouten, zoals in jouw geval duidelijk te zien aan de UDMA CRC Errors.
Ok sorry ik zal hem daar plaatsen.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 21:52
Ook ik ben weer met zfsguru begonnnen.
Na eerst veel te lezen en uit te proberen draait ie sinds gisteren zonder problemen.
Pools aanmaken booten van mn ssd ging zonder problemen en de services zo kaal mogelijk gehouden.
Langzaam krijg ik het idee dat ik het licht heb gezien😊😊

Acties:
  • 0 Henk 'm!
ikkeenjij36 schreef op woensdag 08 juli 2015 @ 19:30:
Langzaam krijg ik het idee dat ik het licht heb gezien😊😊
Het zou zomaar kunnen dat wij daar nog blijer om zijn dan jij *O*

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
CurlyMo schreef op woensdag 08 juli 2015 @ 19:38:
[...]

Het zou zomaar kunnen dat wij daar nog blijer om zijn dan jij *O*
_O- :Y

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:34

FREAKJAM

"MAXIMUM"

CurlyMo schreef op woensdag 08 juli 2015 @ 19:38:
[...]

Het zou zomaar kunnen dat wij daar nog blijer om zijn dan jij *O*
:D _/-\o_

is everything cool?


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 21:52
Even een vraagje voor ik het verkeerd doe.
Ik heb nu nog 1 ssd over in mijn server,een adata 128 gb.
Die wou ik inzetten als zil en cache device.
Mijn systeem heeft 16gb ram wat is nu de beste verdeling voor die ssd en heeft het echt zin?
De server wordt gebruikt als dl bak en media serveren in huis.
Nog even een vraagje erbij:als ik in de webgui van zfsgurur headphones probeer te updaten gaat het mis,ik krijg na een aantal minuten de melding de server heeft de verbinding geweigerd dus kan niet geupdate worden(edit:na een reboot is hp geupdate en werkt het weer ineens(vreemd?)),sickbeard updaten gaat zonder probleem dus nu draait de service sabnzbd weer partial,ook de xserver krijg ik niet gestart dus ook niet virtualbox en rsync omdat die allemaal via xserver draaien denk ik dan.
Kan ik hier hulp voor krijgen misschien?
Er draait verder nog niks dus hij wordt ook niet belast of iets.
Dus heb 1 pool om te booten en een pool DATA die doet gewoon wat ie moet doen volgens mij en dat is storage aanbieden.

[ Voor 54% gewijzigd door ikkeenjij36 op 11-07-2015 00:04 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Die SSD is niet geschikt voor sLOG. En 16GiB RAM is prima - waarom zou je L2ARC nodig hebben? Het kan wel, maar is mogelijk een beetje zonde. Kun je de SSD niet voor iets anders gebruiken?

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 21:52
Verwijderd schreef op vrijdag 10 juli 2015 @ 23:50:
Die SSD is niet geschikt voor sLOG. En 16GiB RAM is prima - waarom zou je L2ARC nodig hebben? Het kan wel, maar is mogelijk een beetje zonde. Kun je de SSD niet voor iets anders gebruiken?
Misschien dat ik hem als backup schijf kan gebruiken en dan de ruimte die die in de server inneemt nog eens een xtra 4Tb schijf voor aanschaffen.

Acties:
  • 0 Henk 'm!
Zeau :> . De vakantie is al goed ingezet!

Vandaag in de voormiddag zijn we (FireDrunk en ik) begonnen (ehm, even corrigeren FD deed het meeste werk ;) ) met het ombouwen van mijn huidige NAS... Hij had al heel wat ervaring met mijn case, dus kende ook de in en outs er van... Maakte het bouwen heel snel en makkelijk.

Op dit moment zit mijn kast net over het kantje vol met 14 disks en 6 SSD's oOo :*) .

10 disks van mij
4 disks van FireDrunk

We hebben dus de migratie gestart, altijd fijn als je dan je eigen commando's nog even kan opzoeken hoe je dat in een one-liner kan doen :*) .

We hebben tijdens het bouwen ook nog een aantal fotootjes genomen. Met 20 SATA devices wordt het altijd wel een bende, maar op zich vind ik eigenlijk dat we het best netjes gedaan hebben... De kabelbende blijft ook vooral beperkt tot de achterkant. Eens FD's disks weg gaan wordt het vanvoor een stukje netter... Ik had speciaal een ATX verlengkabel besteld om helemaal mooi achterom te kunnen gaan, maar niet gedacht aan de P4 stekker |:( . Geen geblaat: voorlopig loopt die even langs voor...!

De hele kast is nu afgesloten en de warmste disk topt af op 56 graden voorlopig...

Alle data wordt nu aan een vrolijke 500 à 600MB/s gekopieerd naar de 4 + 1 pool.

Ondertussen hebben we op een fysieke test machine ook even gekeken hoe je een pool kan aanmaken waar je eigenlijk al heel snel een virtueel device uit kunt flikkeren (RAIDZ2 met missing device):
  • Directory voor RAM disk aanmaken : mkdir -p /media/RAMDISK
  • cd /media/RAMDISK
  • Sparse File aanmaken die minstens even groot is als je disks die je gaat gebruiken in je nieuwe array: dd if=/dev/zero of=5TBFILESPARSE bs=1M count=0 seek=5000K
  • Pool aanmaken met je sparsefile : zpool create test mirror /dev/disk/by-partlabel/4TB-A /media/RAMDISK/5TBFILESPARSE
  • Pool checken : zpool status
  • Device wat bestaat uit die sparse file offline'en : zpool offline test /media/RAMDISK/5TBFILESPARSE
  • RAM disk unmounten : umount /media/RAMDISK
Klaar :) .

Morgen of volgende week kan ik even de RAIDZ2 array aanmaken (veiligheidshalve koppel ik FD's disks dan even los), degrade ik hem door de sparse file te offline'en en ter zijner tijd prik ik dan mijn 10de disk om van FD's pool naar mijn pool en kan de resilver starten. Als er dan nog iets misloopt op mijn RAIDZ2 dan heb ik toch nog steeds een niet redundante kopie van mijn data op die 4 x 4TB van FD d:)b .


Wat foto's tijdens de build:

NAS build
Afbeeldingslocatie: http://static.tweakers.net/ext/f/f0lH57U1TlonmprAvBF8Dij8/thumb.jpgAfbeeldingslocatie: http://static.tweakers.net/ext/f/vFjiQ51VomxGYda2IMYflu4V/thumb.jpgAfbeeldingslocatie: http://static.tweakers.net/ext/f/TQNIaV29inWifbB1LPgj9bmg/thumb.jpg
Afbeeldingslocatie: http://static.tweakers.net/ext/f/gihVGZZdGbpQWnZgY02NMQWK/thumb.jpgAfbeeldingslocatie: http://static.tweakers.net/ext/f/6vH3pfS0RJQ0lBbrj0t3e0o3/thumb.jpgAfbeeldingslocatie: http://static.tweakers.net/ext/f/XJYCfS2dkkztOtcjPYZgciwC/thumb.jpg
Afbeeldingslocatie: http://static.tweakers.net/ext/f/BrfwvDuRvyghqpYFM4KfZd7I/thumb.jpg



------------------------------------------------------------------------------------------
| Dev | Model                     | GB   | Firmware | Temp | Hours | PS | RS | RSE | CRC |   
------------------------------------------------------------------------------------------
| sda | ST4000DM000-1F2168        | 4000 | CC52     | 40   | 3751  | 0  | 0  | ?   | 0   |   
| sdb | ST4000DM000-1F2168        | 4000 | CC52     | 43   | 4664  | 0  | 0  | ?   | 0   |   
| sdc | ST4000DM000-1F2168        | 4000 | CC52     | 43   | 13532 | 0  | 0  | ?   | 0   |   
| sdd | ST4000DM000-1F2168        | 4000 | CC51     | 43   | 19417 | 0  | 0  | ?   | 0   |   
| sde | ST4000DM000-1F2168        | 4000 | CC52     | 38   | 4665  | 0  | 0  | ?   | 0   |   
| sdf | ST4000DM000-1F2168        | 4000 | CC52     | 38   | 4661  | 0  | 0  | ?   | 0   |   
| sdg | ST4000DM000-1F2168        | 4000 | CC52     | 35   | 4664  | 0  | 0  | ?   | 0   |   
| sdh | M4-CT128M4SSD2            | 128  | 070H     | 0    | 13412 | 0  | 0  | 0   | 0   |   
| sdi | ST4000DM000-1F2168        | 4000 | CC52     | 41   | 13535 | 0  | 0  | ?   | 0   |   
| sdj | ST4000DM000-1F2168        | 4000 | CC52     | 43   | 13535 | 0  | 0  | ?   | 0   |   
| sdk | ST4000DM000-1F2168        | 4000 | CC51     | 53   | 19424 | 0  | 0  | ?   | 0   |   
| sdl | ST4000DM000-1F2168        | 4000 | CC52     | 44   | 13537 | 0  | 0  | ?   | 0   |   
| sdm | ST4000DM000-1F2168        | 4000 | CC52     | 41   | 13532 | 0  | 0  | ?   | 0   |   
| sdn | ST4000DM000-1F2168        | 4000 | CC51     | 54   | 19415 | 0  | 0  | ?   | 0   |   
| sdo | ST4000DM000-1F2168        | 4000 | CC51     | 56   | 19442 | 0  | 0  | ?   | 0   |   
| sdp | M4-CT128M4SSD2            | 128  | 0309     | 0    | 19954 | 0  | 0  | 0   | 0   |   
| sdq | M4-CT128M4SSD2            | 128  | 0309     | 0    | 19995 | 0  | 0  | 0   | 0   |   
| sdr | Samsung SSD 840 EVO 250GB | 250  | EXT0AB0Q | ?    | 24350 | ?  | 0  | ?   | 1   |   
| sds | Crucial_CT120M500SSD1     | 120  | MU03     | 49   | 13254 | 0  | 9  | 25  | 3   |   
| sdt | Samsung SSD 840 EVO 500GB | 500  | EXT0AB0Q | ?    | 19228 | ?  | 0  | ?   | 67  |   
------------------------------------------------------------------------------------------


:>

[ Voor 43% gewijzigd door HyperBart op 11-07-2015 20:48 ]


Acties:
  • 0 Henk 'm!
En bij deze de bevestiging dat FreeNAS prima werkt op een HP Microserver Gen8 en boot van MicroSD kaartje :)

Spindown werkt ook keurig!

[ Voor 10% gewijzigd door FireDrunk op 11-07-2015 21:21 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 21:52
Mooie build,ik vindt de kabel bende nog wel meevallen hoor.
Even een paar vraagjes over foutjes die ik in de log tegen kom
fout1:
code:
1
zfsguru root: /etc.rc: WARNING : failed precmd routine for mountd

fout2:
code:
1
zfsguru root: /etc.rc: WARNING: /etc/exports is not readable


Iemand enig idee en of is het ernstig?

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
HyperBart schreef op zaterdag 11 juli 2015 @ 17:56:
[...]
Op dit moment zit mijn kast net over het kantje vol met 14 disks en 6 SSD's oOo :*) .

[...]
Hoe heb je ze alle twintig van stroom voorzien :9~ ?

Een stapel molex-naar-sata adapters? Of heb je zelf iets geknutseld?

Acties:
  • 0 Henk 'm!
SanderH_ schreef op zaterdag 11 juli 2015 @ 21:48:
[...]


Hoe heb je ze alle twintig van stroom voorzien :9~ ?

Een stapel molex-naar-sata adapters? Of heb je zelf iets geknutseld?
Ja, wat dacht je :P .

Anders geraak ik niet tot sdT in mijn SMART output.

Even denken, uit mijn hoofd:

Voeding is een Seasonic G360, ik ken niet vanbuiten hoeveel SATA die levert.

2 x capacitor kabeltjes die 4 x SATA power geven (lekker stabiel), moet je bedenken dat per kabeltjes er telkens maar 3 connectors van gebruikt zijn wegens mijn kast waar vanonder 2 x een set van 3 disk bays zit

2 x kabeltje van 1 x sata naar 2 x SATA, die voeden de 4 disks die boven de sets van 2 x 3 disks zitten

Zo kom je tot 10 disks, de 4 disks van Thijs, daarvan zijn er 3 gevoed via een hotswap bay, en eentje ligt lost in de kast op het middenschot.

Een hoopje molex naar SATA's, op een van de laatste foto's zie je normaal een hele bussel zitten aan de voorkant. Die "cablemess" wordt later nog wel wat properder aangezien die 3in2x5,25 bay eigenlijk "rot versleten" is (plastic is doorgescheurd vanachter waar de schroefjes voor de mini-fans in gaan) en dus bijgevolg weg gaan...

De 6 SSD's worden gevoed door een 6 bay in 5,25 bay en die heeft 2 x molex aansluitingen, MAAR (en dat is wel fijn) die heeft voldoende aan 1 x molex om alle 6 de bays te voeden...

Thijs heeft nog foto's van de achterkant op zijn OnePlus staan dacht ik, die zou ie nog even moeten uploaden ;)

EDIT: laatste foto die gemaakt is stond blijkbaar niet in album:

Afbeeldingslocatie: https://photos-6.dropbox.com/t/2/AADWIosnGXoAQuuP4qQGgGAR9PajgK63ZIIfDUOo48x1Jw/12/829511/jpeg/2048x1536/3/_/1/2/2015-07-11%2016.31.04.jpg/EK39ZBia_OAEIAEgAigB/IfeGZqSTqjKcFslI4VzmRaCagqYN1zDTZ6od7f8G1k8


Door schade en schande heb ik nu wel geleerd dat hot-swap bays leuk zijn, maar het gaat altijd ten koste van stilte... Met deze kast vind ik dat nu wel een prioriteit. Er zijn nu 10 disks aan het "ratelen" voor de zfs send/rcv, tesamen met 4 disks die idle staan en het geheel maakt minder lawaai dan mijn oude Antec kast waar 5 idle disks in zaten... 8)7

Best
Investment
Ever
(computerwise)

[ Voor 50% gewijzigd door HyperBart op 11-07-2015 22:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ikkeenjij36 schreef op zaterdag 11 juli 2015 @ 21:37:
Even een paar vraagjes over foutjes die ik in de log tegen kom
fout1:
code:
1
zfsguru root: /etc.rc: WARNING : failed precmd routine for mountd

fout2:
code:
1
zfsguru root: /etc.rc: WARNING: /etc/exports is not readable


Iemand enig idee en of is het ernstig?
Dit betekent dat je NFS server niet werkt omdat er geen /etc/exports file is, omdat je nog geen NFS shares hebt gemaakt waarschijnlijk. Zolang je geen NFS gebruikt mag je dit rustig negeren.

Je kunt op de commandline eventueel doen als root gebruiker:
touch /etc/exports

Dan krijg je geen error meer als het goed is.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 21:52
Verwijderd schreef op zondag 12 juli 2015 @ 00:20:
[...]

Dit betekent dat je NFS server niet werkt omdat er geen /etc/exports file is, omdat je nog geen NFS shares hebt gemaakt waarschijnlijk. Zolang je geen NFS gebruikt mag je dit rustig negeren.

Je kunt op de commandline eventueel doen als root gebruiker:
touch /etc/exports

Dan krijg je geen error meer als het goed is.
Ok dat is dan eigenlijk wel raar.
Ik heb via de webgui ook nfs shares gemaakt van bepaalde files,die zijn echter nergens te vinden in mijn netwerk als nfs shares,hoe zou ik dit toch werkend kunnen krijgen?
Nog even een vraagje @cipher,heb jij enig idee waarom ik mijn x-services niet draaiend kan krijgen?
Ik heb er 3 rsyn x-server en virtualbox alle drie met x erachter en alledrie niet werkend te krijgen.

[ Voor 13% gewijzigd door ikkeenjij36 op 12-07-2015 00:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik raad af dat je met de grafische services speelt totdat de nieuwe images er zijn. Maar waarschijnlijk is Gnome niet geïnstalleerd bij je. Maar ik ken de oude manier van X niet meer goed van ZFSguru. Je hebt die denk ik ook niet nodig; de normale Virtualbox is goed genoeg met remote VNC access.

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 21:55

BCC

Trans IP bit sinds binnenkort twee terabyte zfs storage aan voor iets aan voor € 10 per maand. Heeft iemand ervaring met het oversturen van snapshots naar andere Pools voor offsite backups?

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Zal vanmiddag ook foto's van mn build posten. Heb nu 15 disks in een LianLi PCD8000 (geen sLOG of ZIL), is immers een back up.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
---------------------------------------------------------------------------------------------------------------------------
| DEV | MODEL                 | GB   | /DEV/DISK/BY-PATH                             | Temp | Hours | PS | RS | RSE | CRC |   
---------------------------------------------------------------------------------------------------------------------------
| sda | WDC WD20EFRX-68EUZN0  | 2000 | pci-0000:01:00.0-sas-0x4433221100000000-lun-0 | 29   | 8476  | 0  | 0  | 0   | 0   |   
| sdb | WDC WD20EARX-00PASB0  | 2000 | pci-0000:01:00.0-sas-0x4433221102000000-lun-0 | 30   | 14651 | 0  | 0  | 0   | 0   |   
| sdc | WDC WD20EZRX-00D8PB0  | 2000 | pci-0000:01:00.0-sas-0x4433221103000000-lun-0 | 28   | 15    | 0  | 0  | 0   | 0   |   
| sdd | WDC WD20EARX-00PASB0  | 2000 | pci-0000:01:00.0-sas-0x4433221104000000-lun-0 | 29   | 14660 | 0  | 0  | 0   | 0   |   
| sde | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:01:00.0-sas-0x4433221105000000-lun-0 | 30   | 12139 | 0  | 0  | 0   | 0   |   
| sdf | WDC WD20EZRX-00DC0B0  | 2000 | pci-0000:01:00.0-sas-0x4433221101000000-lun-0 | 30   | 3737  | 0  | 38 | 11  | 0   |   
| sdg | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:01:00.0-sas-0x4433221106000000-lun-0 | 28   | 14733 | 0  | 0  | 0   | 0   |   
| sdh | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:01:00.0-sas-0x4433221107000000-lun-0 | 28   | 14641 | 0  | 0  | 0   | 0   |   
| sdi | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:00:1f.2-scsi-0:0:0:0                 | 29   | 1304  | 0  | 0  | 0   | 0   |   
| sdj | WDC WD20EARS-00MVWB0  | 2000 | pci-0000:00:1f.2-scsi-1:0:0:0                 | 29   | 19515 | 0  | 0  | 0   | 0   |   
| sdk | WDC WD20EZRX-00DC0B0  | 2000 | pci-0000:00:1f.2-scsi-2:0:0:0                 | 29   | 1297  | 0  | 0  | 0   | 0   |   
| sdl | WDC WD20EARX-00PASB0  | 2000 | pci-0000:00:1f.2-scsi-3:0:0:0                 | 29   | 3774  | 0  | 0  | 0   | 0   |   
| sdm | WDC WD20EARX-00PASB0  | 2000 | pci-0000:00:1f.2-scsi-4:0:0:0                 | 29   | 1952  | 0  | 0  | 0   | 0   |   
| sdn | WDC WD20EARX-00PASB0  | 2000 | pci-0000:00:1f.2-scsi-5:0:0:0                 | 29   | 1304  | 0  | 0  | 0   | 0   |   
| sdo | WDC WD1600BEKT-00F3T0 | 160  | pci-0000:05:02.0-scsi-0:0:0:0                 | 29   | 27835 | 0  | 0  | 0   | 0   |   
---------------------------------------------------------------------------------------------------------------------------


(weet dat een disk reallocated sectors heeft, hoe t ff in de gaten).

Temps prima stabiel, goeie case:
Afbeeldingslocatie: http://tweakers.net/ext/f/D1twN3Bizqh4vDnpzAGYGTwI/thumb.png

[ Voor 3% gewijzigd door Kortfragje op 12-07-2015 10:05 ]

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!
@BCC, werkt perfect (snapshots naar offsite backup), maar dat is natuurlijk afhankelijk van je upload snelheid.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Kortfragje schreef op zondag 12 juli 2015 @ 10:04:
Zal vanmiddag ook foto's van mn build posten. Heb nu 15 disks in een LianLi PCD8000 (geen sLOG of ZIL), is immers een back up.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
---------------------------------------------------------------------------------------------------------------------------
| DEV | MODEL                 | GB   | /DEV/DISK/BY-PATH                             | Temp | Hours | PS | RS | RSE | CRC |   
---------------------------------------------------------------------------------------------------------------------------
| sda | WDC WD20EFRX-68EUZN0  | 2000 | pci-0000:01:00.0-sas-0x4433221100000000-lun-0 | 29   | 8476  | 0  | 0  | 0   | 0   |   
| sdb | WDC WD20EARX-00PASB0  | 2000 | pci-0000:01:00.0-sas-0x4433221102000000-lun-0 | 30   | 14651 | 0  | 0  | 0   | 0   |   
| sdc | WDC WD20EZRX-00D8PB0  | 2000 | pci-0000:01:00.0-sas-0x4433221103000000-lun-0 | 28   | 15    | 0  | 0  | 0   | 0   |   
| sdd | WDC WD20EARX-00PASB0  | 2000 | pci-0000:01:00.0-sas-0x4433221104000000-lun-0 | 29   | 14660 | 0  | 0  | 0   | 0   |   
| sde | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:01:00.0-sas-0x4433221105000000-lun-0 | 30   | 12139 | 0  | 0  | 0   | 0   |   
| sdf | WDC WD20EZRX-00DC0B0  | 2000 | pci-0000:01:00.0-sas-0x4433221101000000-lun-0 | 30   | 3737  | 0  | 38 | 11  | 0   |   
| sdg | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:01:00.0-sas-0x4433221106000000-lun-0 | 28   | 14733 | 0  | 0  | 0   | 0   |   
| sdh | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:01:00.0-sas-0x4433221107000000-lun-0 | 28   | 14641 | 0  | 0  | 0   | 0   |   
| sdi | WDC WD20EFRX-68AX9N0  | 2000 | pci-0000:00:1f.2-scsi-0:0:0:0                 | 29   | 1304  | 0  | 0  | 0   | 0   |   
| sdj | WDC WD20EARS-00MVWB0  | 2000 | pci-0000:00:1f.2-scsi-1:0:0:0                 | 29   | 19515 | 0  | 0  | 0   | 0   |   
| sdk | WDC WD20EZRX-00DC0B0  | 2000 | pci-0000:00:1f.2-scsi-2:0:0:0                 | 29   | 1297  | 0  | 0  | 0   | 0   |   
| sdl | WDC WD20EARX-00PASB0  | 2000 | pci-0000:00:1f.2-scsi-3:0:0:0                 | 29   | 3774  | 0  | 0  | 0   | 0   |   
| sdm | WDC WD20EARX-00PASB0  | 2000 | pci-0000:00:1f.2-scsi-4:0:0:0                 | 29   | 1952  | 0  | 0  | 0   | 0   |   
| sdn | WDC WD20EARX-00PASB0  | 2000 | pci-0000:00:1f.2-scsi-5:0:0:0                 | 29   | 1304  | 0  | 0  | 0   | 0   |   
| sdo | WDC WD1600BEKT-00F3T0 | 160  | pci-0000:05:02.0-scsi-0:0:0:0                 | 29   | 27835 | 0  | 0  | 0   | 0   |   
---------------------------------------------------------------------------------------------------------------------------


(weet dat een disk reallocated sectors heeft, hoe t ff in de gaten).

Temps prima stabiel, goeie case:
[afbeelding]
Met welk commando krijg je zo een mooi overzicht? :$

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!
A1AD schreef op zondag 12 juli 2015 @ 11:11:
[...]


Met welk commando krijg je zo een mooi overzicht? :$
Dat is showtools door Louwrentius, een Tweaker:

https://github.com/louwrentius/showtools

Ik heb er nu bv een alias aan gehangen "showsmart" en daar zit het volgende commando achter:

/root/showtools/show disk -mSsftHPrRC


En dan krijg je een gelijkaardige output (zoals die van mij, maar mijn copy paste was zonder serienummers, een van de twee S parameters moet je dan weg doen)... Ik vind die dev by path ID niet zo handig..

[ Voor 3% gewijzigd door HyperBart op 12-07-2015 11:16 ]


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Jah inderdaad, normaal heb ik die ook niet, ik run showtools dagelijks naar een .txt file dan gebruik ik ook-
-mSsftHPrRC

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
Ooit eens alternatief shell script gemaakt die min of meer hetzelfde doet, maar de python versie van Q is beter aangezien de output iets netter is.
Pagina: 1 ... 152 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.