Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
Ne idd zo bedoel ik het niet maar omdat ik weet dat jullie hier wel een beetje de experts zijn zeker in vergelijking met mezelf.
En aangezein de dames hier in huis nu beginnen te zeuren waar alles blijft/is moet je deze posts maar een beetje als paniek voetbal zien.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 09 februari 2014 @ 21:44:
Hoi ikkeenjij36,

Ik vind het knap dat je probeert allerlei zaken werkend te krijgen; maar ik vermoed toch dat zaken als iRedMail en andere packages werkend krijgen, boven jouw technisch niveau ligt. Gevolg is dat je voor vrijwel elke stap hulp nodig hebt en de kans dat het uiteindelijk gaat werken heel klein is. Al zou je het werkend krijgen, de manier hoe je omgaat met je server - veel nieuwe dingen proberen - kan ervoor zorgen dat het opeens niet meer gaat werken en dan kun je weer van voor af aan beginnen.

Mijn advies: wacht op kant en klare services of laat het gewoon varen. Je steekt veel moeite in iets wat weinig oplevert. Je draait nu MySQL met authenticatie uitgeschakeld; allemaal het volgen van tutorials. Daarmee kun je een hoop dingen slopen en eigenlijk doe je dingen waar je geen weet van hebt.

Begrijp me heel goed: ik juich beginnende gebruikers toe! Maar wees ook realistisch: sommige dingen zitten er niet in. Bovendien merk ik dat je regelmatig opnieuw moet installeren omdat er iets niet meer werkt. Ik zoek de aanleiding hiervoor toch bij het feit dat je laagdrempelig allerlei dingen probeert. Het zou verstandiger kunnen zijn om iets voorzichtiger en 'conservatiever' te zijn met je productieserver en nieuwe dingen uit te proberen in een virtual machine, zodat fouten en problemen niet direct je productieserver offline halen en je die weer opnieuw moet installeren. Kortom: ken je grenzen als beginnende gebruiker en doe wat nuttig is in jouw situatie.
@ikkeenjij36, ik heb je in mei ook nog eens op deze post van CiPHER gewezen en hij blijft van kracht. Ook nu weer op sabnzbd.

Daarnaast is mijn inhuur aanbod ook een redelijk serieus aanbod. Als je mij tijdelijk kan laten inloggen op je server via SSH, dan kan ik zelf het voor je fixen. Zo doe ik dat ook regelmatig voor mijn eigen software als blijkt dat een gebruiker niet de kennis heeft om iets goed te bugfixen. Máár, dan moet je dus wel weten hoe je een poort service naar de buitenwereld.

[ Voor 9% gewijzigd door CurlyMo op 23-12-2014 11:24 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
Idd maar wat ik zo raar vindt is dat het bij de meeste gewoon werkt behalve bij mij.
Ook heb ik deze keer niks bijzonders gedaan waardoor het niet zou moeten werken en daar raak ik best wel gefrusteerd van.
Ik heb geoon de gui van zfsguru en packages gebruikt en nog loopt het mis nu dan met de rechten van de mappen.
Het zou in principe toch gewoon moeten werken als ik voor de rest niks verander?

Acties:
  • 0 Henk 'm!
Wordt ik hier toch weer bijna uitgenodigd om een mening te geven over het pakketten systeem van ZFSGuru ;)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Dat is juist je probleem; Je hebt niets bijzonders gedaan.

Bij veel pakketten en vooral op Linux/FreeBSD wordt nu eenmaal interactie van de gebruiker verwacht. Niet alles werkt direct out of the box (oftewel kant en klaar). Vooral op Linux/FreeBSD is het instellen van permissies, services (systemd bijv) heel erg belangrijk.

[ Voor 9% gewijzigd door FREAKJAM op 23-12-2014 12:17 ]

is everything cool?


Acties:
  • 0 Henk 'm!
Dat is nogal ongenuanceerd. Veruit de meeste pakketten werken gewoon OOTB. Het probleem van bijv. sabnzbd is dat de het zelf moet configureren binnen het programma. Dat is dus het verschil tussen gaan klooien met de broncode (daarbij ook de init scrips van sabnzbd rekenend) of dat je de standaard configuratie mogelijkheid gebruikt die sabnzbd nodig heeft voor zijn functionaliteit zoals het instellen van een nieuwsgroep. Bij Transmission wordt van je verwacht dat je een download map instelt. Als je vervolgens die download map niet goed configureert hebt, dan is dat niet te verwijten aan het Transmission, maar aan jou als gebruiker. In Windows kan je ook niet zomaar uTorrent laten schrijven naar bijv. "c:\Program Files\Download".

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Misschien wel ongenuanceerd, maar ik probeer er wel mee duidelijk te maken dat de kans aanwezig is dat je gewoon nog veel moet instellen. Ik heb voor NZBDrone, SabNZBDd, Plex, CouchPotato, etc etc genoeg moeten instellen qua permissies en services. Geen enkel programma werkte bij mij in ieder geval OOTB. Zelfs bij CentOS wordt er van je verwacht dat je via systemctl de service/applicatie enabled en automatisch starten bij een reboot instelt.

Verder ben ik het ook met je eens dat het wellicht te hoog gegrepen is voor ikkeenjij36, dat heb ik zelf ook al een aantal keer aangehaald.

is everything cool?


Acties:
  • 0 Henk 'm!
Het probleem is dat ZFSguru de keuze heeft gemaakt on een _sabnzbd user aan te maken... Dat is voor zover ik weet niet default...

Als ZFSguru de keuze goed had uitgevoerd, had SabNZBd onder Share gedraaid, of hadden ze een gezamelijke groep gehad icm een umask...

Maar goed, dat is mijn mening.

ZFSguru is leuk, maar echt nog *lang* niet zo uitgekristalliseerd als veel andere pakketten.
@ikkeenjij36, ik denk dat je veel beter een simpel NASje kan kopen waar alles wat jij wil op zit, en ZFS even moet laten liggen tot FreeNAS / NAS4Free / ZFSguru volwassen genoeg is om aan jouw idealen te voldoen.

@FREAKJAM, dat je onder CentOS een service niet auto-start, is een restant van RedHat. Daar is dat zelfs met pakketten als Apache of MySQL, die starten default ook niet on boot.

Wel 1 heel commandotje :) (chkconfig mysql on)

Even niets...


Acties:
  • 0 Henk 'm!
Of een basis ZFS nas bouwen en daarnaast een Raspberry Pi kopen met XBian. Daarvoor heb ik lang geleden een all-on-one download pakket gemaakt dat wel OOTB moet werken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

FireDrunk schreef op dinsdag 23 december 2014 @ 12:38:

@FREAKJAM, dat je onder CentOS een service niet auto-start, is een restant van RedHat. Daar is dat zelfs met pakketten als Apache of MySQL, die starten default ook niet on boot.

Wel 1 heel commandotje :) (chkconfig mysql on)
Inmiddels systemctl enable mariadb :D

is everything cool?


Acties:
  • 0 Henk 'm!
FREAKJAM schreef op dinsdag 23 december 2014 @ 12:50:
Inmiddels systemctl enable mariadb :D
Dit beschouw ik niet als
Ik heb voor NZBDrone, SabNZBDd, Plex, CouchPotato, etc etc genoeg moeten instellen qua [...] services
Je hoeft namelijk nergens echt de broncode voor in te duiken of technische handelingen uit te voeren. Het is gewoon een standaard handeling die bij CentOS hoort.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
Ok jammer dat ik het dan niet voor elkaar kan krijgen.
Ik heb een tijdje xpenology gedraaid maar dat was ook niet alles.
Daarom had ik gedacht dat ik terug op zfsguru te gaan zonder toeters en bellen alleen sab sb cp hp te draaien.

Acties:
  • 0 Henk 'm!
Er zijn genoeg mogelijkheden om te bereiken wat je wil.
1. Bouw je ZFS NAS en download via je laptop / computer.
2. Bouw je ZFS NAS en draait een VM met je download programma's.
3. Bouw je ZFS NAS en zet daarnaast een Raspberry Pi in als download computer.
4. Koop een kant-en-klare NAS waarop je standaard pakketten kan installeren.

Ik vind het ook van lef getuigen dat je zo klooit met die download pakketten op een machine waar ook je belangrijke data op staat of komt te staan. Het zou in ieder geval mijn keuze niet zijn.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
Ach erg belangrijke data staat/stond er niet op maar op externe hdd.
Wel een hoop mediafiles.
Nu denk ik eraan om dan toch maar de dl progs in een vm te gaan draaien maar zal daar hulp bij nodig hebben.
Dus eerst nwe install zfsguru zonder enklen prog behalve dan virtualbox?
En daar dan de dl progs op draaien maar onder welk os dan?
Misschien wil/kan je mij daar wat hulp bij geven in mijn eigen topic dan?
Optie 3 is geen mogelijkheid omdat mn rpi ingezet wordt als volumio streamer voor mijn muziek.

[ Voor 10% gewijzigd door ikkeenjij36 op 23-12-2014 13:14 ]


Acties:
  • 0 Henk 'm!
Dan koop je er nog 1?

Even niets...


Acties:
  • 0 Henk 'm!

  • den 150
  • Registratie: Oktober 2002
  • Niet online
vanaalten schreef op maandag 22 december 2014 @ 15:40:
zijn er hier mensen die al zo'n event gehad hebben - een losse leesfout, dan wel een reparatie tijdens een scrub?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
   pool: datastore
 state: ONLINE
  scan: scrub repaired 120K in 3h12m with 0 errors on Sat Nov 22 01:34:21 2014
config:

        NAME                                          STATE     READ WRITE CKSUM
        datastore                                     ONLINE       0     0     0
          raidz1-0                                    ONLINE       0     0     0
            ata-WDC_WD15EARS-00Z5B1_WD-WMAVU1156844   ONLINE       0     0     0
            ata-WDC_WD15EARS-00MVWB0_WD-WCAZA3133233  ONLINE       0     0     0
            ata-ST1500DM003-9YN16G_W1E2KR7N           ONLINE       0     0     0
            ata-WDC_WD15EARS-00Z5B1_WD-WMAVU1367006   ONLINE       0     0     0

errors: No known data errors

Al eens 1 schijf vervangen (ik koop nooit meer 4 schijven ineens, zelfde batch = meer kans op zelfde fout), de andere schijven houden het nog goed vol

Acties:
  • 0 Henk 'm!
Volgens mij is dat nog steeds een fabeltje, en husselen de fabrikanten de schijven intern al om dat soort taferelen te voorkomen...

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
Budget voor dit jaar is helemaal op tenzij ik de staatsloterij win.

Acties:
  • 0 Henk 'm!
Dan wacht je 8 dagen.... |:(

[ Voor 7% gewijzigd door FireDrunk op 23-12-2014 13:24 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

CurlyMo schreef op dinsdag 23 december 2014 @ 12:56:
[...]

Dit beschouw ik niet als

[...]

Je hoeft namelijk nergens echt de broncode voor in te duiken of technische handelingen uit te voeren. Het is gewoon een standaard handeling die bij CentOS hoort.
Het was ook maar één voorbeeld van extra handelingen die ik moest uitvoeren, waarvan het systemctl commando inderdaad aansluit as handeling binnen CentOS. Ik heb ook genoeg chown/chmod permissies moeten aanpassen.

Is een Synology niks voor je @ikkeenjij36?

@CurlyMo
Ik heb je script trouwens gister nog ingericht, dank daarvoor! :)

[ Voor 6% gewijzigd door FREAKJAM op 23-12-2014 13:26 ]

is everything cool?


Acties:
  • 0 Henk 'm!
Als iemand script nodig heeft, vraag het eerst @CurlyMo

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
Synology nas heb ik gehad maar was niet flexibel genoeg naar mijn wensen en omdat ik toch al die disks had liggen maar voor een zelfbouw gegaan.
Als ik een syno zou nemen moet het een 36.. worden en dat is nu buiten bereik.
Heb ook al xpenology gedraaid maar toch ook niet helemaal lekker

[ Voor 12% gewijzigd door ikkeenjij36 op 23-12-2014 13:52 ]


Acties:
  • 0 Henk 'm!
ikkeenjij36 schreef op dinsdag 23 december 2014 @ 13:51:
Als ik een syno zou nemen moet het een 36.. worden en dat is nu buiten bereik.
Een zelfbouw NAS ook op dit moment. Ik had trouwens wel een PM verwacht

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 08-09 13:54

Hakker

a.k.a The Dude

Voor een download bak werkt Windows gewoon 10x fijner. Nee linux is niet met alles top en sabnzb enzo heb ik altijd 10x makkelijker op een windows bak draaiend dan wanneer ik het met linux doe. Eens in de week loop ik gewoon de mappen door en move ik het naar mijn fileserver. Hierdoor is mijn fileserver gewoon wat het is en is het allemaal netjes daar en mocht er wat met mijn download bak gebeuren (wat gewoon een nuc is) dan wissel ik die gewoon om.
Als ik wil kan ik het direct syncen natuurlijk maar ik ben nog geen script tegen gekomen wat alles doet zoals ik het wil dus dat half uurtje in de week wat ik nu nodig heb boeit mij niet zo.

[ Voor 17% gewijzigd door Hakker op 23-12-2014 17:31 ]

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
ikkeenjij36 schreef op dinsdag 23 december 2014 @ 13:51:
Synology nas heb ik gehad maar was niet flexibel genoeg naar mijn wensen en omdat ik toch al die disks had liggen maar voor een zelfbouw gegaan.
Als ik een syno zou nemen moet het een 36.. worden en dat is nu buiten bereik.
Heb ook al xpenology gedraaid maar toch ook niet helemaal lekker
Ik moet zeggen de problemen die jij lijkt te hebben ben ik wel benieuws naar...? Ik heb helemaal nergens last van. Ik heb nu zo`n half jaar een XPenology NAS staan met 3 3TB schijven. En verschillende apps geinstalleerd, Teamspeak, Sickrage, SabNZB, Photostation, en heb echt nergens last van. Behalve van volle schijven.....

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!
Hakker schreef op dinsdag 23 december 2014 @ 17:29:
Voor een download bak werkt Windows gewoon 10x fijner. Nee linux is niet met alles top en sabnzb enzo heb ik altijd 10x makkelijker op een windows bak draaiend dan wanneer ik het met linux doe. Eens in de week loop ik gewoon de mappen door en move ik het naar mijn fileserver. Hierdoor is mijn fileserver gewoon wat het is en is het allemaal netjes daar en mocht er wat met mijn download bak gebeuren (wat gewoon een nuc is) dan wissel ik die gewoon om.
Als ik wil kan ik het direct syncen natuurlijk maar ik ben nog geen script tegen gekomen wat alles doet zoals ik het wil dus dat half uurtje in de week wat ik nu nodig heb boeit mij niet zo.
Dat gaat bij mij 100% automatisch... Ik vind juist windows zwaar kut, omdat je niet makkelijk een mapping kan maken naar een share op een andere machine systeem-breed. Het is in principe user-based zo'n share, dus als je services onder SYSTEM wil draaien, ben je een klein beetje gefucked :P

Nee, ik prefereer zeker Linux met gewoon mountpoints over NFS :) Geen gare permissieproblemen :P

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
Nou ubuntu server erop gezet en draai met zfs,heb de pool kunnen importeren en alle files bestaan nog.
Ook kan ik de gedeelde files zien en zichtbaar maken op mijn win laptop maar heb er geen toegang in/op.
Is er ook een manier voor omdat voor elkaar te krijgen?

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

The ZFS Storage Blog!: Tutorial: Ubuntu NAS/SAN All-in-one!
Kijk onder het kopje Samba. Anders zijn er genoeg tutorials te vinden op het net.

[ Voor 22% gewijzigd door FREAKJAM op 23-12-2014 23:11 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 08:59
FREAKJAM schreef op dinsdag 23 december 2014 @ 23:01:
The ZFS Storage Blog!: Tutorial: Ubuntu NAS/SAN All-in-one!
Kijk onder het kopje Samba. Anders zijn er genoeg tutorials te vinden op het net.
Geprobeerd ook natuurlijk op google anders durfde ik hier de vraag niet te stellen maar het wil gewoon niet lukken. :o

Acties:
  • 0 Henk 'm!
Misschien goed om eens in te gaan op de vraag van @rikadoo.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

ZFS 0.6.3-1.2 voor EPEL/Fedora is uit. Je kunt nu ook ZFS draaien op de nieuwste Fedora 21 release.
A new stable point release, 0.6.3-1.2, for EPEL / Fedora has been tagged. It includes backports of several patches to allow building with kernels up through Linux 3.18. It also includes several important bug fixes. For the full changelog see the following links.
Meteen even mijn CentOS 7 updaten dan maar :+

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
(1/8): libnvpair1-0.6.3-1.2.el7.centos.x86_64.rpm                                                          |  28 kB  00:00:00
(2/8): libuutil1-0.6.3-1.2.el7.centos.x86_64.rpm                                                           |  34 kB  00:00:01
(3/8): libzfs2-0.6.3-1.2.el7.centos.x86_64.rpm                                                             | 113 kB  00:00:00
(4/8): spl-0.6.3-1.2.el7.centos.x86_64.rpm                                                                 |  24 kB  00:00:00
(5/8): libzpool2-0.6.3-1.2.el7.centos.x86_64.rpm                                                           | 392 kB  00:00:01
(6/8): zfs-0.6.3-1.2.el7.centos.x86_64.rpm                                                                 | 292 kB  00:00:00
(7/8): zfs-dkms-0.6.3-1.2.el7.centos.noarch.rpm                                                            | 1.7 MB  00:00:01
(8/8): spl-dkms-0.6.3-1.2.el7.centos.noarch.rpm                                                            | 452 kB  00:00:03
----------------------------------------------------------------------------------------------------------------------------------
Total                                                                                             560 kB/s | 3.0 MB  00:00:05
Running transaction check
Running transaction test
Transaction test succeeded
Running transaction
  Updating   : libuutil1-0.6.3-1.2.el7.centos.x86_64                                                                         1/16
  Updating   : libnvpair1-0.6.3-1.2.el7.centos.x86_64                                                                        2/16
  Updating   : libzpool2-0.6.3-1.2.el7.centos.x86_64                                                                         3/16
  Updating   : spl-dkms-0.6.3-1.2.el7.centos.noarch                                                                          4/16

[ Voor 69% gewijzigd door FREAKJAM op 24-12-2014 13:40 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 08-09 13:54

Hakker

a.k.a The Dude

FireDrunk schreef op dinsdag 23 december 2014 @ 18:28:
[...]


Dat gaat bij mij 100% automatisch... Ik vind juist windows zwaar kut, omdat je niet makkelijk een mapping kan maken naar een share op een andere machine systeem-breed. Het is in principe user-based zo'n share, dus als je services onder SYSTEM wil draaien, ben je een klein beetje gefucked :P

Nee, ik prefereer zeker Linux met gewoon mountpoints over NFS :) Geen gare permissieproblemen :P
Maar zoals ik al aangaf ik gebruik dat niet. Ik wijzig mappen nog, haal onnodige bestanden weg voor ik ze naar mijn server gooi. Een copy queue is zelf misschien 3 minuten werk over SMB. Total Commander en Teracopy doen de rest.
Ik wilde het eens een keer netjes houden en niet elke keer overal meuk hebben staan maar gewoon echt op orde en er is geen oplossing die dat echt automatisch doet.
Sabnzb, Couchpotato enzo doen al aardig wat maar verslikken zich nog wel eens met downloads.

Om die reden heb ik dus ook dat niet op mijn server draaien. Het enige wat ik erop heb staan is ncdc.

[ Voor 4% gewijzigd door Hakker op 24-12-2014 15:57 ]

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


Acties:
  • 0 Henk 'm!
Mijn collectie is 99% op orde en alles is netjes gesorteerd en renamed. Ik doe niets meer met de hand :)

Even niets...


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
FireDrunk schreef op woensdag 24 december 2014 @ 16:41:
Mijn collectie is 99% op orde en alles is netjes gesorteerd en renamed. Ik doe niets meer met de hand :)
Inderdaad, zoals ongeveer iedereen hier: http://gathering.tweakers.net/forum/list_messages/1531619

[ Voor 14% gewijzigd door A1AD op 24-12-2014 17:55 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FutureCow
  • Registratie: December 2000
  • Laatst online: 07:56

FutureCow

(C) FutureCow

Ik had even een vraag over mijn ZFS aanpassing. Omdat ik het 1,5 jaar geleden had opgezet, weet ik niet meer helemaal precies of ik alle commando's op de juiste manier doe.

Situatie nu:
raidz1:
Disk1: 1TB
Disk2: 2TB
Disk3: 2TB
logs:
Disk4 (60GB)

Door deze configuratie gebruik ik nu dus maar 1TB van elke HDD.
Ik had eerder al andere 1 TB HDD vervangen met een van 2TB. Omdat de opslag nu redelijk vol begint te raken wil ik mijn laatse van 1TB vervangen met een van 2TB(De 3 HDD zijn dan 100% gelijk).

Dus dan moet het volgende gedaan worden:
- Nieuwe HD erin stoppen (Disk5)
- sudo zpool replace tank Disk1 Disk5

Dan wordt de nieuwe disk toegevoegd aan mijn bestaand pool(tank).
Daarna moet ik de pool vergroten,
- sudo zpool set autoexpand=on tank

of
- zpool online -e tank

of
- zpool export tank
- zpool import tank

Welke van deze is het beste om te kiezen?

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

FutureCow schreef op zaterdag 27 december 2014 @ 13:48:
Ik had even een vraag over mijn ZFS aanpassing. Omdat ik het 1,5 jaar geleden had opgezet, weet ik niet meer helemaal precies of ik alle commando's op de juiste manier doe.

Situatie nu:
raidz1:
Disk1: 1TB
Disk2: 2TB
Disk3: 2TB
logs:
Disk4 (60GB)

Door deze configuratie gebruik ik nu dus maar 1TB van elke HDD.
Ik had eerder al andere 1 TB HDD vervangen met een van 2TB. Omdat de opslag nu redelijk vol begint te raken wil ik mijn laatse van 1TB vervangen met een van 2TB(De 3 HDD zijn dan 100% gelijk).

Dus dan moet het volgende gedaan worden:
- Nieuwe HD erin stoppen (Disk5)
- sudo zpool replace tank Disk1 Disk5

Dan wordt de nieuwe disk toegevoegd aan mijn bestaand pool(tank).
Daarna moet ik de pool vergroten,
- sudo zpool set autoexpand=on tank

of
- zpool online -e tank

of
- zpool export tank
- zpool import tank

Welke van deze is het beste om te kiezen?
(Tikfouten voorbehouden, dikke vingers op een smartphone ;) )

Voor zo ver de hersenen t nog bij t juiste end hebben na de kerst overdaad:

Je mag de
- sudo zpool set autoexpand=on tank
voorafgaand ( maar ook na het vervangen van de disk doen schijnt weinig uit te maken).
- Nieuwe HD erin stoppen (Disk5)
- sudo zpool replace tank Disk1 Disk5

De replace triggert een resilver, dit kun je controleren door
- zpool tank status te runnen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • DenDries
  • Registratie: Januari 2006
  • Laatst online: 27-09 09:20
Mijn NAS (FreeNAS 9.3) is vandaag helaas onderuit gegaan (vermoedelijk defect moederbord).

Heb één van zijn disken (mirror) eruit gehaald en in een externe bay gestopt in de hoop de data onder Ubuntu te kunnen recupereren (heb wel nog backups maar heb deze nog niet meteen voorhanden).

root@thinkpad:/home/ddegendt# dmesg | grep ZFS
[ 5521.500383] ZFS: Loaded module v0.6.3-4~trusty, ZFS pool version 5000, ZFS filesystem version 5

Wanneer ik de zpool echter probeer te importeren, krijg ik het volgende:
root@thinkpad:/home/ddegendt# zpool import DATAMIRROR -f
This pool uses the following feature(s) not supported by this system:
com.delphix:hole_birth
com.delphix:embedded_data
cannot import 'DATAMIRROR': unsupported version or feature

Kan ik deze features op één of andere manier in ubuntu krijgen? De schijf read-only kunnen mounten zou al een grote hulp zijn...

Acties:
  • 0 Henk 'm!
Al een ZFSGuru live-cd geprobeerd?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Een import in Ubuntu gaat je niet lukken. Laatst ook ondervonden toen ik per ongeluk wat pool features had geupdate na een import van mijn pool in een FreeNAS Beta. Enkel een import in ZFSGuru (of weer gewoon FreeNAS) zoals CurlyMo al aangeeft gaat werken.

is everything cool?


Acties:
  • 0 Henk 'm!

  • DenDries
  • Registratie: Januari 2006
  • Laatst online: 27-09 09:20
Bedankt voor de tips! Zal ZFSGuru eens proberen, ziet er goed uit!

Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 12:38
Ben als nieuweling nu bezig met een ZFS systeem: twee 6TB disks als mirror, een SSD als boot/OS disk, Debian 'Jessie' als OS met ZFS-on-Linux in gebruik. Nu heb ik na reboot het probleem dat de pool niet gemount is wegens afwezige disks.

De voorgeschiedenis:
Ik had een werkende setup door de handleiding van FireDrunk te volgen (dank daarvoor!). Daarna wilde ik wat verbruiksmetingen doen met de harddisks niet meegenomen, twee verschillende voedingen en zo, dus daarvoor had ik de harde schijven afgekoppeld van voeding en SATA. Tot zover de voorgeschiedenis.

Nu dus de harde schijven weer aangesloten en na herstart gezien dat de datapool niet gemount is. Wat checks:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
root@nas:/var/log# zpool status
no pools available
root@nas:/var/log# zpool import
   pool: datapool
     id: 8067623275604026846
  state: FAULTED
 status: One or more devices contains corrupted data.
 action: The pool cannot be imported due to damaged devices or data.
        The pool may be active on another system, but can be imported using
        the '-f' flag.
   see: http://zfsonlinux.org/msg/ZFS-8000-5E
 config:

        datapool                               FAULTED  corrupted data
          mirror-0                             ONLINE
            ata-WDC_WD60EZRX-00MVLB1_WD-WX...  UNAVAIL  corrupted data
            ata-WDC_WD60EZRX-00MVLB1_WD-WX...  UNAVAIL  corrupted data

De harde schijven zijn wel aanwezig als /dev/sdb en /dev/sdc, smart status 'pass'. Ook zichtbaar onder /dev/disk/by-partlabel/DATAPOOL-A-WD-WX..., dus wat mij betreft zijn ze wel degelijk available.

Poging om ze online te brengen:
code:
1
2
root@nas:/var/log# zpool online  datapool ata-WDC_WD60EZRX-00MVLB1_WD-WX...
cannot open 'datapool': no such pool

OK, natuurlijk is die datapool er niet. Dus eerst de datapool importen?
code:
1
2
root@nas:/var/log# zpool import -f datapool
cannot import 'datapool': one or more devices is currently unavailable

... en nu heb ik het gevoel in een cirkeltje te draaien. Pool kan niet online omdat de disken niet online zijn, disken kunnen niet online omdat de pool niet online is. Iemand een suggestie?

Ook nog geprobeerd of de datapool opnieuw gecreate kan worden:
code:
1
2
3
4
root@nas:/var/log# zpool create datapool mirror /dev/disk/by-partlabel/DATAPOOL-A-WD-WX... /dev/disk/by-partlabel/DATAPOOL-B-WD-WX...
invalid vdev specification
use '-f' to override the following errors:
/dev/disk/by-partlabel/DATAPOOL-A-WD-WX... is part of potentially active pool 'datapool'

(serienummers van harddisks hierboven vervangen door "...")

De link waarnaar verwezen werd (ZFS-8000-5E melding) is niet heel positief, "all data is lost" en zo, maar daarbij gaat het om disks die 'faulted' in plaats van 'unavail' zijn.

Acties:
  • 0 Henk 'm!
zpool import -d /dev/disk/by-partlabel

Even niets...


Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 12:38
FireDrunk schreef op dinsdag 30 december 2014 @ 13:17:
zpool import -d /dev/disk/by-partlabel
Ah, dat werkte, bijna! :)
code:
1
2
3
4
5
6
7
8
9
10
11
root@nas:# zpool import -d /dev/disk/by-partlabel
   pool: datapool
     id: 8067623275604026846
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

        datapool                 ONLINE
          mirror-0               ONLINE
            DATAPOOL-A-WD-WX...  ONLINE
            DATAPOOL-B-WD-WX...  ONLINE

... die importeert dus niets, maar doet alleen "Lists pools available to import". Die 'action' regel gaf een volgende hint:
code:
1
2
3
4
5
6
7
8
9
10
11
12
root@nas:# zpool import -d /dev/disk/by-partlabel datapool
root@nas:# zpool status
  pool: datapool
 state: ONLINE
  scan: none requested
config:

        NAME                     STATE     READ WRITE CKSUM
        datapool                 ONLINE       0     0     0
          mirror-0               ONLINE       0     0     0
            DATAPOOL-A-WD-WX...  ONLINE       0     0     0
            DATAPOOL-B-WD-WX...  ONLINE       0     0     0
*O*

Zou alleen dat laatste commando (zpool import -d /dev/... datapool) genoeg geweest zijn, of heeft dat eerste commando (zpool import -d /dev/...) nog iets administratiefs voorbereid?

Anyway, de boel is weer online - dank voor de tip!

Acties:
  • 0 Henk 'm!
FireDrunk schreef op zondag 02 maart 2014 @ 11:40:
Als je die disk weer online krijgt, zou ik je partities (mits je GPT gebruikt) een partitie label geven, en daar je pool op importeren.

Je kan dat doen door eerst je pool te exporteren
zpool export [poolnaam]

En daarnaa je pool weer te importeren met de -d optie:
zpool import -d /dev/disk/by-partlabel/
FireDrunk schreef op donderdag 27 november 2014 @ 12:44:
Gebruik alsjeblieft niet die device id's :S

Als je van ZFSguru afkomt, kan je beter doen:

zpool import -d /dev/disk/by-partlabel/ [poolnaam]

Krijg je keurig netjes je GPT labeltjes.
FireDrunk schreef op vrijdag 28 november 2014 @ 09:36:
[...]
Maar zoals je in mijn andere blogpost kan lezen, is
zpool import -d /dev/disk/by-partlabel/ 

eigenlijk altijd de betere optie.
FireDrunk schreef op maandag 15 december 2014 @ 11:06:
[...]
Je kan de labels naar voren krijgen als je de pool even exporteert, en daarna weer importeert met:

zpool import -d /dev/disk/by-partlabel/ [poolnaam]
Gonadan schreef op maandag 15 december 2014 @ 15:08:
[...]
code:
1
sudo zpool import -d /dev/disk/by-partlabel data1

En hij doet het weer prima. :?
FREAKJAM schreef op maandag 15 december 2014 @ 15:20:
[...]
Wat krijg je als je sudo zpool import -d /dev/disk/by-partlabel/ doet?
[...]
Volgens mij had ik even een déjà-vu momentje ;)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Wellicht bestaat onderstaande bug zelfs ook nog in Jessie (In Debian Wheezy had ik hetzelfde probleem).
https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=681809
FREAKJAM schreef op vrijdag 28 november 2014 @ 09:24:
[...]


Minder laconiek zijn zie ik wel weer. Ik had dit artikel gister ook gevonden maar toen ik zag dat de "bug" al twee jaar oud was en dacht ik dat dat de oplossing niet kon zijn. Ik heb de partlabel rules gemoved naar het einde en nu werkt het inderdaad. :)

Verder het volgende veranderd in /etc/default/zfs en nu auto mount hij ook mijn pool in Debian.

code:
1
2
3
4
# Sould we use '-d /dev/disk/by-id' when importing pool.
# This is recomended, but the default 'no' uses the cache
# file
USE_DISK_BY_ID='no'

[ Voor 3% gewijzigd door FREAKJAM op 30-12-2014 14:08 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 09:46

Gonadan

Admin Beeld & Geluid, Harde Waren
CurlyMo schreef op dinsdag 30 december 2014 @ 13:57:

Volgens mij had ik even een déjà-vu momentje ;)
Neem deze even mee en je bent er helemaal. ;)
FREAKJAM schreef op maandag 15 december 2014 @ 17:12:
[...]


echo manual >/etc/init/zpool-import.override
>
> ^ That worked.
>
> But I'm not clear what it's doing?

This reverts behavior and causes import to happen later when mountall calls /sbin/zfs, which implicitly loads the zfs.ko driver, which does an automatic import.

Dat? :+

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 12:38
CurlyMo schreef op dinsdag 30 december 2014 @ 13:57:
[...]


Volgens mij had ik even een déjà-vu momentje ;)
Ah, oh... excuses voor een FAQ-vraag... :X
Ik lees hier al wel een tijdje mee, maar dat soort commando's en het 'waarom' begint bij mij toch pas te komen als ik er zelf mee aan de gang ga. Ik dacht ook al wel wat zelf gezocht te hebben, maar heb daarbij niet hier teruggezocht.
FREAKJAM schreef op dinsdag 30 december 2014 @ 14:07:
Wellicht bestaat onderstaande bug zelfs ook nog in Jessie (In Debian Wheezy had ik hetzelfde probleem).
https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=681809
Hmm, lastig voor mij om te zeggen. De ticket staat wel op
 Marked as fixed in versions 180. Request was from Marco d'Itri <md@linux.it> to control@bugs.debian.org. (Sat, 26 Apr 2014 16:45:10 GMT) 

... 10 maanden geleden gefixed. Kijk ik in /lib/udev/rules.d/60-persistent-storage.rules, dan zie ik inderdaad allerlei uuid-zaken naar het eind geschoven. Ook zie ik na een reboot twee symlinks vanuit /dev/disk/by-partlabel naar /dev/sdb en /dev/sdc.
Dus zonder verstand van zaken: volgens mij is het in 'Jessie' opgelost.

(desondanks wordt m'n pool nog niet ge-automount, ondanks "USE_DISK_BY_ID='no'" in /etc/default/zfs, dus daar moet ik eens naar kijken)

Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 09:46

Gonadan

Admin Beeld & Geluid, Harde Waren
Nogmaals, kijk even naar die extra post van freakjam die ik geciteerd heb. Dat was bij mij de laatste stap om het automatisch werkend te krijgen na een reboot.

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 12:38
Gonadan schreef op dinsdag 30 december 2014 @ 16:27:
Nogmaals, kijk even naar die extra post van freakjam die ik geciteerd heb. Dat was bij mij de laatste stap om het automatisch werkend te krijgen na een reboot.
Ah, die had ik gemist inderdaad.

Had zelf een wat lelijkere oplossing: in /etc/rc.local de regel "zpool import -d /dev/disk/by-partlabel datapool". Doet het goed, maar voelde niet heel fraai.

De oplossing die jij suggereert ben ik nog niet helemaal over uit. Na de eerste reboot was de pool automatisch gemount, na de tweede en derde niet (en moest in handmatig weer "zpool import -d /dev..." doen).

Wat voor mij nu wat moeilijk is: op internet vind je allerlei verschillende oplossingen, onduidelijk welke voor Debian geschikt zijn (waarschijnlijk de Ubuntu-oplossingen, maar toch...) en geen die ik werkend gekregen heb. Ook heb ik nog geen logmeldingen gezien waar ik wat mee kan - ik neem aan dat ik die in syslog zou moeten zien, maar dat ziet er schoon uit. Ook onduidelijk of de package 'mountall' nodig is en wat dat precies doet. Voor nu hou ik het maar even bij die vieze oplossing in rc.local, maar ik heb nog wat uitzoekwerk te gaan.

Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 09:46

Gonadan

Admin Beeld & Geluid, Harde Waren
Check deze anders nog even, wellicht helpt het: https://github.com/zfsonl...l-FAQ-and-troubleshooting

Die heb ik nagelopen, plus de handleiding van Firedruk en dan die laatst aangedragen optie. Daarna werkte het zonder problemen.

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Gonadan schreef op dinsdag 30 december 2014 @ 18:11:
Check deze anders nog even, wellicht helpt het: https://github.com/zfsonl...l-FAQ-and-troubleshooting

Die heb ik nagelopen, plus de handleiding van Firedruk en dan die laatst aangedragen optie. Daarna werkte het zonder problemen.
Ik denk dat bovenstaande niet eens van toepassing is. Dit geldt voor Ubuntu en vanaalten draait Debian Jesse. Debian heeft zijn eigen ZFS repo en volgens mij komt Jesse zelfs met systemd, dus gebeurt het mounten op basis van services. Toen ik bovenstaande issues had in Ubuntu heb ik de genoemde fix niet door hoeven voeren voor Debian. Ik had simpelweg mountissues omdat mijn partlabels niet herkend werden wat ik uiteindelijk had opgelost door de storage rules aan te passen zoals gemeld in mijn vorige post. Grote verschil was dat ik wel stable Wheezy draaide.

[ Voor 8% gewijzigd door FREAKJAM op 30-12-2014 18:17 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 12:38
FREAKJAM schreef op dinsdag 30 december 2014 @ 18:14:
Ik denk dat bovenstaande niet eens van toepassing is. Dit geldt voor Ubuntu en vanaalten draait Debian Jesse. Debian heeft zijn eigen ZFS repo
Hmm, dat dus niet. Tenminste, de repository komt van ZFS-on-Linux:
code:
1
deb [arch=amd64] http://archive.zfsonlinux.org/debian jessie main


Volgens mij is het meer dat Ubuntu ZFS in een eigen repository heeft, als ik dit zo lees. Maar ik ken Ubuntu weer niet zo goed.
en volgens mij komt Jesse zelfs met systemd, dus gebeurt het mounten op basis van services.
Klopt inderdaad. Systemd ben ik ook nog compleet niet in thuis - net afgelopen weekend m'n server geupgrade naar Jessie en die nieuwe NAS met Jessie geinstalleerd. Geen idee wat systemd voor ZFS doet.
Toen ik bovenstaande issues had in Ubuntu heb ik de genoemde fix niet door hoeven voeren voor Debian. Ik had simpelweg mountissues omdat mijn partlabels niet herkend werden wat ik uiteindelijk had opgelost door de storage rules aan te passen zoals gemeld in mijn vorige post. Grote verschil was dat ik wel stable Wheezy draaide.
... en dat lijkt op zich dus opgelost te zijn in Jessie. Tenminste, wat ik zie is dat tijdens boot de directory /dev/disk/by-partlabel gevuld is met twee links naar /dev/sdb en sdc.

Maar goed, komende dagen nog eens wat dieper er in duiken. Vooralsnog draait het goed, ondanks dat het geen fraaie oplossing is.

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Ja, dat bedoelde ik eigenlijk, dat Ubuntu ZFS zijn eigen repo heeft. De install instructies zijn per distro ook anders. Als by-partlabel in ieder gewordt wordt gelinked zit je goed denk ik zo. Bij mij werden de links niet gemaakt onder Wheezy en dat zorgde bij mij voor de mount issues.

Wat is de reden van je upgrade trouwens? Jesse is nog niet stable, wel?

[ Voor 11% gewijzigd door FREAKJAM op 30-12-2014 21:54 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 12:38
FREAKJAM schreef op dinsdag 30 december 2014 @ 21:53:
Wat is de reden van je upgrade trouwens? Jesse is nog niet stable, wel?
Het gaat wat off-topic, maar m'n normale server (mail, download, tot-nu-toe-storage en andere taken) heb ik vooral geupgrade omdat ik er nu de tijd voor had, omdat Jessie behoorlijk richting stabiel gaat (150 release-critical bugs, da's *minder* bugs dan dat Wheezy nu heeft) en omdat ik merkte dat Wheezy wat te oud begon te worden (geen OwnCloud, Darwin CalenderServer wilde niet meer met Thunderbird/Lightning praten en zo).

De NAS heb ik met Jessie uitgerust omdat ik bij voorkeur m'n systemen gelijk heb (dus binnenkort ook m'n mediaplayer upgraden van Ubuntu naar Debian Jessie ;) ) en omdat ik de verwachting had dat Jessie iets meer compatible zou zijn met de ZoL packages. Wat die ene bug over by-partlabel betreft lijkt dat wel te kloppen. :)

Daarbij: het is voor persoonlijk gebruik, valt het om dan ben ik de enige die baalt. Dan is enig risico ook wel te verantwoorden.

Acties:
  • 0 Henk 'm!

  • iZi
  • Registratie: Maart 2000
  • Laatst online: 01-02 14:58

iZi

Leuker kan ik het niet maken..

Ik probeer het hier ook maar eens.

Een paar dagen geleden heb ik besloten om mijn Fedora server (F19) opnieuw te installeren met Fedora Server 21. Ook omdat ZFS on Linux een Fedora 21 repo heeft aangemaakt.

Alles verliep soepeltjes, ZPOOLs exporteren vanuit de oude installatie en importen in de nieuwe installatie zonder probleem.

Na een paar dagen viel mij op dat de CPU nogal gestressed was gedurende de dag.
In top blijkt dat een proces "zfs_iput_taskq" constant op 100% cpu blijft staan.

Na wat onderzoek op Google kwam ik een aantal topics tegen van mensen die dezelfde problemen hadden. Het blijkt een probleem te zijn die in eerdere versies van ZFS vaak aanwezig was en resulteerde in een deadlock. In versie 0.6.3 zou dit opgelost moeten zijn.

Echter ik heb versie 0.6.3-1.2 geinstalleerd.

Ook werd duidelijk dat dit probleem hoogstwaarschijnlijk te maken heeft met directory based xattr wat de default is in ZFS. Het probleem valt mogelijk op te lossen door inode based xattr in te schakelen (xattr=sa). Recommended ook voor systemen die gebruik maken van SELinux, dus ook in mijn geval.

Maar de vraag is of ik dit kan inschakelen op bestaande pools zonder dat ik zorgen hoef te maken over dataverlies.

Natuurlijk is het veiliger om een nieuwe pool aan te maken, maar dan moet ik 10TB aan data verplaatsen waar ik niet echt op zit te wachten.

Heeft iemand hier ervaring mee?

Acties:
  • 0 Henk 'm!
Kan je niet beter gewoon even SELinux uitzetten om te kijken of dat helpt? Voor thuis vind ik persoonlijk SELinux toch best overdreven...

Even niets...


Acties:
  • 0 Henk 'm!

  • iZi
  • Registratie: Maart 2000
  • Laatst online: 01-02 14:58

iZi

Leuker kan ik het niet maken..

Oh sorry, voor de duidelijkheid SELinux staat nu default uit op mijn server.
Niet dat deze optie iets uit maakt voor het probleem dat "zfs_iput_taskq" 100% CPU belast.

In de toekomst wil ik wel SELinux inschakelen.
Mijn server wordt namelijk intensief gebruik voor web- en streaming diensten als ownCloud, Plex, webhosting, etc..Daarom is SELinux wel aan te raden in mijn geval, maar dat even ter zijde.

Acties:
  • 0 Henk 'm!
Volgens mij kan je die xattr meuk gewoon uitzetten. Xattr atttributen zijn non-POSIX attributen die in ZFS metadata opgeslagen worden. Ik zou verwachten dat die gewoon verwijderd worden als je het support er voor uitzet. Maar pin me er niet op vast.

Even niets...


Acties:
  • 0 Henk 'm!

  • ph0t0nix
  • Registratie: December 2006
  • Laatst online: 28-09 00:38
Volgens mij is het zo dat als je POSIX ACLs gebruikt, deze worden opgeslagen in de xattrs. Wel iets om op te letten dus.

Daarnaast is de xattr=sa optie niet op alle platforms geïmplementeerd (volgens mij alleen op Linux).

Acties:
  • 0 Henk 'm!

  • iZi
  • Registratie: Maart 2000
  • Laatst online: 01-02 14:58

iZi

Leuker kan ik het niet maken..

Klopt ZoL geeft aan dat het beter is om xattr=sa te gebruiken in verband met performance én speciaal voor SELinux gebruikers.
Daarbij wordt wel aangegeven dat xattr=sa niet gebruikt wordt op platformen als BSD of Solaris, dus enkel voor ZoL.

In mijn geval geen probleem.

Acties:
  • 0 Henk 'm!
Je verliest dus je ACLs, maar volgens mij geen data.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

iZi schreef op donderdag 01 januari 2015 @ 14:48:
Mijn server wordt namelijk intensief gebruik voor web- en streaming diensten als ownCloud, Plex, webhosting, etc..Daarom is SELinux wel aan te raden in mijn geval, maar dat even ter zijde.
Volgens mij valt dat wel mee hoor. Ik geef toe dat ik niet veel verstand heb van SELinux maar ik heb nog nooit gehoord van iemand die SELinux gebruikt op een server voor persoonlijk / thuisgebruik.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • iZi
  • Registratie: Maart 2000
  • Laatst online: 01-02 14:58

iZi

Leuker kan ik het niet maken..

Na het backuppen van al mijn belangrijke data heb ik vannacht toch de setting xattr=sa aangepast, gelukkig zonder data verlies.

Nu hopen dat het probleem dat "zfs_iput_taskq" 100% CPU belast voorbij is. In ieder geval tot op heden geen last van gehad.

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
Voor de mensen die FreeBSD in een VM draaien staat er dit op de horizon:
Dit is een CFT in Current. Voordat dit in Stable is zal het nog wel een tijdje duren.
For the last few weeks, I've been working on adding support for KVM clock
in the projects/paravirt branch. Currently, a KVM VM guest will end up
selecting either the HPET or ACPI as the timecounter source. Unfortunately,
this is very costly since every timecounter fetch causes a VM exit. KVM
clock allows the guest to use the TSC instead; it is very similar to the
existing Xen timer.

The performance difference between HPET/ACPI and KVMCLOCK can be dramatic:
a simple disk benchmark goes from 10K IOPs to 100K IOPs.

The patch is attached is attached or available at [1]. I'd appreciate any
testing.

https://reviews.freebsd.org/D1429 - paravirt: Generalize parts of the XEN
timer code into pvclock
https://reviews.freebsd.org/D1430 - paravirt: Add interface to calculate
the TSC frequency from pvclock
https://reviews.freebsd.org/D1431 - paravirt: Add simple hypervisor
registration and detection interface
https://reviews.freebsd.org/D1432 - paravirt: Add detection of bhyve using
new hypervisor interface
https://reviews.freebsd.org/D1433 - paravirt: Add detection of VMware using
new hypervisor interface
https://reviews.freebsd.org/D1434 - paravirt: Add detection of KVM using
new hypervisor interface
https://reviews.freebsd.org/D1435 - paravirt: Add KVM clock timecounter
support

My current plan is to MFC this series to 10-STABLE, and commit a
self-contained KVM clock to the other stable branches.

[1] - https://people.freebsd.org/~bryanv/patches/kvm_clock-1.patch

[ Voor 32% gewijzigd door matty___ op 05-01-2015 12:28 ]


Acties:
  • 0 Henk 'm!
Nice! Dat klinkt goed :D

Even niets...


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 10:38
Ik ga 'm binnenkort eens proberen :) misschien dat IO op m'n FreeBSD vm's eens meer in de buurt komt bij linux.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!
FREAKJAM schreef op woensdag 24 december 2014 @ 13:36:
ZFS 0.6.3-1.2 voor EPEL/Fedora is uit. Je kunt nu ook ZFS draaien op de nieuwste Fedora 21 release.


[...]


Meteen even mijn CentOS 7 updaten dan maar :+

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
(1/8): libnvpair1-0.6.3-1.2.el7.centos.x86_64.rpm                                                          |  28 kB  00:00:00
(2/8): libuutil1-0.6.3-1.2.el7.centos.x86_64.rpm                                                           |  34 kB  00:00:01
(3/8): libzfs2-0.6.3-1.2.el7.centos.x86_64.rpm                                                             | 113 kB  00:00:00
(4/8): spl-0.6.3-1.2.el7.centos.x86_64.rpm                                                                 |  24 kB  00:00:00
(5/8): libzpool2-0.6.3-1.2.el7.centos.x86_64.rpm                                                           | 392 kB  00:00:01
(6/8): zfs-0.6.3-1.2.el7.centos.x86_64.rpm                                                                 | 292 kB  00:00:00
(7/8): zfs-dkms-0.6.3-1.2.el7.centos.noarch.rpm                                                            | 1.7 MB  00:00:01
(8/8): spl-dkms-0.6.3-1.2.el7.centos.noarch.rpm                                                            | 452 kB  00:00:03
----------------------------------------------------------------------------------------------------------------------------------
Total                                                                                             560 kB/s | 3.0 MB  00:00:05
Running transaction check
Running transaction test
Transaction test succeeded
Running transaction
  Updating   : libuutil1-0.6.3-1.2.el7.centos.x86_64                                                                         1/16
  Updating   : libnvpair1-0.6.3-1.2.el7.centos.x86_64                                                                        2/16
  Updating   : libzpool2-0.6.3-1.2.el7.centos.x86_64                                                                         3/16
  Updating   : spl-dkms-0.6.3-1.2.el7.centos.noarch                                                                          4/16
Om hier maar eens op terug te komen (en je suggestie over Cockpit), zojuist een Fedora 21 VM gemaakt, en ik moet zeggen:

_/-\o_ _/-\o_ _/-\o_ _/-\o_ @ Cockpit... Dat tooltje werkt echt subliem. Super simpel, en super snel.
Hij pikt nog geen ZFS, maar ik denk niet dat het super veel moeite is om dat erin te krijgen.
Ondersteuning voor LVM en andere RAID devices is er al wel, dus ik denk dat er relatief makkelijk een ZFS plugin gemaakt zou moeten kunnen worden.

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Hoe heb jij cockpit werkend gekregen? Als ik de VM uitrol en direct cockpit start via de browser krijg ik een inlogscherm maar dan kom ik niet ingelogd. Zover ik heb begrepen werkt cockpit op basis van authenticatie middels active directory of IPA. Via systemctl het een en ander ingesteld, maar ik kwam niet verder dus na 2x vanaf scratch installeren heb ik het opgegeven.

Fedora 21 lijkt me verder ook erg interessant, maar het is niet helemaal dadelijk wat hun LTS is voor Fedora 21 server. Ik vind het sowieso vreemd dat Fedora nu ineens in 3 smaken komt. Had het eerder verwacht bij CentOS.

[ Voor 42% gewijzigd door FREAKJAM op 05-01-2015 14:43 ]

is everything cool?


Acties:
  • 0 Henk 'm!
Cockpit pakt gewoon lokale users?

Ik heb een Fedora 21 netinstall gedaan, en daarna yum install cockpit.

code:
1
2
3
4
yum install cockpit
firewall-cmd --permanent --add-service=cockpit
firewall-cmd --reload
systemctl start cockpit

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
wordt spannend komende dagen. Heb een server met een degraded array. De schijf komt vandaag of morgen binnen (ondertussen staat de server ook uit). meteen maar een 2tb ervan gemaakt.

1 schijf is echt naar zijn gootje, die gaat vervangen worden.
Een andere schijf geeft een error (maar die staat er al een tijdje) het is een nieuwe schijf dus ik vraag me af waar die error voor staat. Het is volgens mij End-to-End_Error. maar die error was er al heel vroeg bij (de schijf zelf is minder dan een jaar oud. Iemand enig idee wat die error betekent?

Had het al eens opgezocht, conclusie was dat je het kon negeren... maar ik ben toch wel benieuwd wat het precies betekent.

[ Voor 14% gewijzigd door justice strike op 05-01-2015 14:53 ]

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

FireDrunk schreef op maandag 05 januari 2015 @ 14:47:
Cockpit pakt gewoon lokale users?

Ik heb een Fedora 21 netinstall gedaan, en daarna yum install cockpit.

code:
1
2
3
4
yum install cockpit
firewall-cmd --permanent --add-service=cockpit
firewall-cmd --reload
systemctl start cockpit
Lokaal vertikte hij het bij mij. Vanavond nog eens testen. Ik had het verder hetzelfde ingericht als jij. (Echter wel SELinux en de firewall uitgezet, maar dat maakt geen verschil denk ik).

is everything cool?


Acties:
  • 0 Henk 'm!
Firewall was wel belangrijk, default werkte het alleen localhost.
SELinux staat default.

Even niets...


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
justice strike schreef op maandag 05 januari 2015 @ 14:52:
wordt spannend komende dagen. Heb een server met een degraded array. De schijf komt vandaag of morgen binnen (ondertussen staat de server ook uit). meteen maar een 2tb ervan gemaakt.

1 schijf is echt naar zijn gootje, die gaat vervangen worden.
Een andere schijf geeft een error (maar die staat er al een tijdje) het is een nieuwe schijf dus ik vraag me af waar die error voor staat. Het is volgens mij End-to-End_Error. maar die error was er al heel vroeg bij (de schijf zelf is minder dan een jaar oud. Iemand enig idee wat die error betekent?

Had het al eens opgezocht, conclusie was dat je het kon negeren... maar ik ben toch wel benieuwd wat het precies betekent.
Nu maar hopen dat je schijven het allemaal nog doen als je je server weer aanzet. Als servers al lange tijd aanstaan is het mi meestal beter om dat zo te laten.

Overigens probeer ik altijd de array eerst weer op te bouwen met de falende schijf.. zo'n schijf doet het soms nog maanden zonder problemen.

Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
deze schijf wordt in het bios zelfs niet meer herkend. en de schijven doen het ansich wel. gisteren nog opgestart om te kijken wat er allemaal kapot was... ook de scrub stopgezet die gister begon te draaien. Moet ansich geen probleem zijn.

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

FireDrunk schreef op maandag 05 januari 2015 @ 14:47:
Cockpit pakt gewoon lokale users?

Ik heb een Fedora 21 netinstall gedaan, en daarna yum install cockpit.

code:
1
2
3
4
yum install cockpit
firewall-cmd --permanent --add-service=cockpit
firewall-cmd --reload
systemctl start cockpit
Doh, blijkbaar probeert ie gewoon eerst passthrough of iets dergelijks te doen. Als ik nu het popup cancel in Chrome en vervolgens mijn credentials invoer op de webpagina zelf doet ie het. Docker integratie is ook erg cool!

is everything cool?


Acties:
  • 0 Henk 'm!
Ah ja, die eerste http login popup moest ik idd ook wegklikken.

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

FireDrunk schreef op maandag 05 januari 2015 @ 21:03:
Ah ja, die eerste http login popup moest ik idd ook wegklikken.
Ik had eigenlijk gehoopt dat ZFS al out of the box zou werken met cockpit. Beetje jammer wel, ziet er inderdaad best tof uit allemaal.

edit:
Mocht je willen spelen met de laatste dev-versie: (versie 0.35-1.fc21 ipv 0.27-2.fc21)

code:
1
2
3
sudo yum-config-manager --add-repo https://copr.fedoraproject.org/coprs/sgallagh/cockpit-preview/repo/fedora-21/sgallagh-cockpit-preview-fedora-21.repo
sudo yum update
sudo systemctl restart cockpit

[ Voor 42% gewijzigd door FREAKJAM op 06-01-2015 00:48 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
wilde nog even iets nagaan, ik denk dat ik het antwoord wel weet maar toch maar even dubbel checken.

Kun je van raidz1 naar raidz2 gaan zonder te rebuilden (alleen maar resilveren van de extra schijf?). Dat kon een aantal jaar geleden niet, maar is dat nu veranderd?

Dan ook maar meteen naar de tweede vraag, mocht het bovenstaande niet kunnen. Waarom zou je voor raidz1 kiezen inplaats van een degraded raidz2 of raidz3 array. kwa protectie moet het hetzelfde zijn en ik denk dat het kwa performance weinig scheelt.

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Je kan volgens mij niet van RAIDZ1 naar Z2 migreren. Waarom degraded draaien niet slim zou zijn, zou ik je ook niet kunnen vertellen. Kan zo geen nadelen verzinnen.

(Behalve dat monitoring tools misschien altijd zeuren :+ )

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
FireDrunk schreef op woensdag 07 januari 2015 @ 19:03:
Je kan volgens mij niet van RAIDZ1 naar Z2 migreren. Waarom degraded draaien niet slim zou zijn, zou ik je ook niet kunnen vertellen. Kan zo geen nadelen verzinnen.

(Behalve dat monitoring tools misschien altijd zeuren :+ )
zou zfs niet gewoon standaard een z3 of z4 array degraded moeten aanmaken?

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Er zijn volgens mij wel redenen om dat niet te doen, maar ik kan zo niet verzinnen welke...

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
FireDrunk schreef op donderdag 08 januari 2015 @ 11:31:
Er zijn volgens mij wel redenen om dat niet te doen, maar ik kan zo niet verzinnen welke...
cpu overhead voor het berekenen van parity bit 2 en 3... maar volgens mij moet je die calculatie ook uit kunnen zetten (tenzij de calculatie als de bits 1 block van 2 of 3 berekent)

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Je kan die calculatie niet uitzetten, dat gebeurd volgens mij echt in een van de onderste lagen van ZFS... En die laag weet niet dat jij 'expres' een disk eruit getrokken hebt.

Ik heb even online gezocht, en ik lees overal dat het in theorie prima kan, en dat het alleen maar performance kost, verder niets.

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Dat is niet standaard omdat dan bij elke lees actie een parity check moet gebeuren om de correcte data te rebuilden. Bij een volledige array is alle data direct aanwezig en moet dat enkel gebeuren om een CRC error te recoveren.
Geen al te groot probleem, maar zorgt voor hogere CPU belasting, extra delay, en waarschijnlijk een lagere leessnelheid. Vandaar niet standaard.

Acties:
  • 0 Henk 'm!
ik zou zeggen, koop die extra schijf gewoon :) Scheelt je een hoop gedonder...

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
Ik heb weer eens heel erg pech, er is alweer een schijf dood bij mij. Dat, en mijn SAS controller deed maf. Les voor de volgende keer, zelfs als je het ding in Linux flashed en vervolgens reset is dat geen garantie voor de stabiliteit. Altijd een reboot erachteraan gooien :P

Die grap heeft me wel haast een disk gekost, die nu wel héél snel aan het resilveren is geslagen o.O

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
$ sudo zpool status
  pool: tank
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
    continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Fri Jan  9 23:52:40 2015
    3,00T scanned out of 3,63T at 3,82G/s, 0h2m to go
    229M resilvered, 82,62% done
config:

    NAME                                         STATE     READ WRITE CKSUM
    tank                                         DEGRADED     0     0     0
      raidz2-0                                   DEGRADED     0     0     0
        ata-HGST_HTS541010A9E680_J810001VJ1Y3XA  UNAVAIL      0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3ST5B  ONLINE       0     0     0  (resilvering)
        ata-HGST_HTS541010A9E680_JB100013J3TXGB  ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB40001MGG3MJC  ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4HGNB  ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4J15B  ONLINE       0     0     0

errors: No known data errors


Hoe doen jullie het eigenlijk, hebben jullie een schijf in de kast liggen voor als er een uitvalt, of?

EDIT: En daar gaat mijn controller wederom. Iemand enig idee wat dit inhoud?
code:
1
2
3
4
5
6
7
8
Jan 10 00:14:09 server kernel: [  748.955046] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:09 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: [  751.077735] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: [  751.093983] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: [  751.517460] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)

[ Voor 24% gewijzigd door Xudonax op 10-01-2015 00:15 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Xudonax schreef op zaterdag 10 januari 2015 @ 00:12:
Hoe doen jullie het eigenlijk, hebben jullie een schijf in de kast liggen voor als er een uitvalt, of?
Ik koop er pas 1 wanneer het nodig is. Ik maak wel goede backups.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!
Xudonax schreef op zaterdag 10 januari 2015 @ 00:12:
Ik heb weer eens heel erg pech, er is alweer een schijf dood bij mij. Dat, en mijn SAS controller deed maf. Les voor de volgende keer, zelfs als je het ding in Linux flashed en vervolgens reset is dat geen garantie voor de stabiliteit. Altijd een reboot erachteraan gooien :P

Die grap heeft me wel haast een disk gekost, die nu wel héél snel aan het resilveren is geslagen o.O

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
$ sudo zpool status
  pool: tank
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
    continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Fri Jan  9 23:52:40 2015
    3,00T scanned out of 3,63T at 3,82G/s, 0h2m to go
    229M resilvered, 82,62% done
config:

    NAME                                         STATE     READ WRITE CKSUM
    tank                                         DEGRADED     0     0     0
      raidz2-0                                   DEGRADED     0     0     0
        ata-HGST_HTS541010A9E680_J810001VJ1Y3XA  UNAVAIL      0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3ST5B  ONLINE       0     0     0  (resilvering)
        ata-HGST_HTS541010A9E680_JB100013J3TXGB  ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB40001MGG3MJC  ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4HGNB  ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4J15B  ONLINE       0     0     0

errors: No known data errors


Hoe doen jullie het eigenlijk, hebben jullie een schijf in de kast liggen voor als er een uitvalt, of?

EDIT: En daar gaat mijn controller wederom. Iemand enig idee wat dit inhoud?
code:
1
2
3
4
5
6
7
8
Jan 10 00:14:09 server kernel: [  748.955046] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:09 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: [  751.077735] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: [  751.093983] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: [  751.517460] mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Jan 10 00:14:11 server kernel: mpt2sas0: log_info(0x31080000): originator(PL), code(0x08), sub_code(0x0000)
Volgens mij zijn die logmeldingen een klein bugje in de firmware. Heb ik ook gehad. Geloof dat de oplossing een recentere firmware van LSI installeren was...

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
Dit is de meest recente FW (20.00.00.00), ik zie alleen wel dat de NVDATA nog wel op versie 14.00.00.00 zit. Maar ik heb het vermoeden dat er een probleem in mijn Icy dock ToughArmor zit. Als ik de schijf die hier als UNAVAIL staat in een USB3 enclosure stop dan start deze vrolijk op en zie ik de partities en alles :S

Ik ga maar eens even met kabeltjes spelen denk ik...

EDIT: Okay... Schiet mij maar lek. De schijf die problemen geeft (en hierboven als UNAVAIL staat) weigerd te werken op zowel de Intel SATA controller als de IBM M1015. Echter, in de USB behuizing doet 'ie gezellig mee en gaat alles goed. Nu is het natuurlijk niet de bedoeling om die USB behuizing 24/7 aangesloten te laten... Tenzij iemand een brilliant idee heeft ga ik maar eens kijken om een echt nieuwe schijf te bestellen.

[ Voor 36% gewijzigd door Xudonax op 10-01-2015 15:19 ]


Acties:
  • 0 Henk 'm!

  • funnyname
  • Registratie: Juni 2002
  • Laatst online: 16-11-2023
Ik wil een ZFS NAS met Infiniband gaan bouwen, hiervoor had ik bedacht dat twee SSD's aan te raden is om de benodigde performance en redundantie te halen. :9

Ik heb dan in gedachten:
  • Ubuntu in (MD)RAID 1 mirror
  • SLOG ook in mirror
  • L2ARC in striping
Is het aan te raden om het zo aan te pakken of kan ik bv toch beter het OS op een flashdrive zetten en de L2ARC en SLOG op één SSD? (de extra kosten vind ik geen probleem, maar het moet wel zin hebben)
Wat voor type partitie kan ik het beste kiezen voor de L2ARC en SLOG?
Zie ik nog iets anders over het hoofd misschien?
:?

Alle inzichten en opmerkingen zijn welkom
d:)b

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
Tenzij je je geen downtime kunt veroorloven zou ik je OS gewoon op een enkele SSD zetten, puur omdat je anders rare problemen kunt krijgen met UEFI. Been there, done that :( Verder, een SLOG SSD hoeft niet bijzonder groot te zijn, grofweg 5~10x je dataoverdacht per seconde meen ik. L2ARC wil je ook niet bijzonder groot hebben, want het moet allemaal wel in je geheugen gemapped worden.

Ik zou beginnen zonder L2ARC, en investeren in voldoende geheugen. Afhankelijk van je gebruik is 16~32GB een aardig begin. Zorg alleen wel dat je later makkelijk naar 64GB of meer kan indien nodig ;)

Wat betreft partitietype, dat maakt weinig uit. ZFS geeft hier niets om. In tutorials zie ik vaak bf00 langskomen als het om GPT disks gaat, of bf als het om MBR disks gaat.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 10:52
funnyname schreef op zaterdag 10 januari 2015 @ 15:07:
Ik wil een ZFS NAS met Infiniband gaan bouwen
Alle inzichten en opmerkingen zijn welkom
d:)b
Als je een NAS bouwt, waarom dan uberhaupt met SSDs aan de slag? Zie mijn signature voor wat overpeinzingen over ZFS voor een NAS.

Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 28-09 12:58

Kortfragje

......

Ik heb nu twee zfs servers (server en backup) met de volgende config. De belangrijke data heb ik naast op server en backup ook bij crashplan en op een NTFS off-site backup.

code:
1
2
3
4
5
6
7
8
9
10
KarelDoorman
    NAME        STATE     READ WRITE CKSUM
    zfspool     ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb1    ONLINE       0     0     0
        2tb2    ONLINE       0     0     0
        2tb3    ONLINE       0     0     0
        2tb4    ONLINE       0     0     0
        2tb5    ONLINE       0     0     0
        2tb6    ONLINE       0     0     0


Daarvan wil ik bij de hoofdserver de 2tb disken door 6tb disken vervangen, en alle anderen in een ri-vier case plaatsen (en een tweetal disks bijzetten).

Omdat ik de backup pool intact wil houden en uitbreiden dacht ik aan het volgende voor de backup server:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
MichielDeRuyter
    NAME        STATE     READ WRITE CKSUM
    zfspool     ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb1    ONLINE       0     0     0
        2tb2    ONLINE       0     0     0
        2tb3    ONLINE       0     0     0
        2tb4    ONLINE       0     0     0
        2tb5    ONLINE       0     0     0
        2tb6    ONLINE       0     0     0
      raidz2-1  ONLINE       0     0     0
        2tb7    ONLINE       0     0     0
        2tb8    ONLINE       0     0     0
        2tb9    ONLINE       0     0     0
        2tb10   ONLINE       0     0     0
        2tb11   ONLINE       0     0     0
        2tb12   ONLINE       0     0     0
        2tb13   ONLINE       0     0     0
        2tb14   ONLINE       0     0     0


Nu heb ik drie overpeinzingen waarop ik feedback zou waarderen

1 is een 6 disk raidz2 met 6TB disks reeel of waanzin (beter raidz3?)
2 kan ik een tweede vdev toevoegen zoals ik van plan ben zonder problemen?
3 ik heb voor de backup server een 750 w voeding (60A op de 12v en 25A op de 5V), ik neem aan dat dit ruim voldoende is?

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Er is iets raars gebeurd bij mijn ubuntu 14.04 64 bit server, zfsnative vandaag.

dmesg
code:
1
[  40.866181] ZFS: Loaded module v0.6.3-5~trusty, ZFS pool version 5000, ZFS filesystem version 5


Ik heb vandaag een overleden schijf opgemerkt (overleden tijdens de grub blijkbaar). Dat is niet zo bijzonder, komt wel eens voor helaas. Maar na een restart van het systeem (hoopte dat het weer online zou komen) is mijn zpool ook veranderd.

Ik had namelijk een raidz2 /dev/disk/by-id/ pool aangemaakt en zie hieronder, nu is de hele pool ineens veranderd.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
pool: pool
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
    invalid.  Sufficient replicas exist for the pool to continue
    functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
  scan: scrub repaired 0 in 19h55m with 0 errors on Sat Jan 10 18:55:29 2015
config:

    NAME                      STATE     READ WRITE CKSUM
    pool                      DEGRADED     0     0     0
      raidz2-0                DEGRADED     0     0     0
        sdd                   ONLINE       0     0     0
        10666137421697801643  UNAVAIL      0     0     0  was /dev/disk/by-id/ata-ST2000DL003-9VT166_5YD9Z9QQ-part1
        sdc                   ONLINE       0     0     0
        sdb                   ONLINE       0     0     0
        sde                   ONLINE       0     0     0
        sdf                   ONLINE       0     0     0


Hoe kan het dat alle devices in mijn pool ineens een andere identifer hebben gekregen? En waar moet ik beginnen om dit weer terug te krijgen zoals ik he was - /dev/disk/by-id ?

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
Volgens mij kun je de pool exporteren, en daarna weer importeren. Bij het importeren kun je het pad opgeven waar naar de schijven gezocht dient te worden. De exacte argumenten voor bij het importeren weet ik helaas niet meer :-(

Acties:
  • 0 Henk 'm!
FireDrunk schreef op dinsdag 09 december 2014 @ 11:17:
Is een bekend probleem, ik heb het zelf ook gehad, en al bij HyperBart moeten fixen.

De oplossing is:

code:
1
2
3
4
zpool export [poolnaam]
echo manual > /etc/init/zpool-import.override
zpool import -d /dev/disk/by-id/ [poolnaam]
reboot


Het kan zo zijn, dat applicaties als SabNZBd roet in het eten gooien omdat ze 1 keer eerder gestart zijn dan je pool gemount wordt, waardoor SabNZBd directories aanmaakt ipv wacht tot je ZFS pool actief wordt.

Dit zorgt er later weer voor dat ZFS de pool niet kan mounten om dat de directories niet leeg zijn. Even opletten dus.

Succes!
(Ik gebruik zelf liever zpool import -d /dev/disk/by-partlabel/, maar dat is persoonlijk).

[ Voor 6% gewijzigd door FireDrunk op 10-01-2015 22:18 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
FireDrunk schreef op zaterdag 10 januari 2015 @ 09:59:
[...]

Volgens mij zijn die logmeldingen een klein bugje in de firmware. Heb ik ook gehad. Geloof dat de oplossing een recentere firmware van LSI installeren was...
In mijn geval zo te zien helaas niet. 4 van de resterende 5 schijven hebben al 150k UDMA CRC errors volgens SMART, en dat aantal loopt op. De andere schijf zit op "pas" op 50k... Dat word dus een nieuwe schijf en twee nieuwe SFF8087 => SATA kabels ben ik bang :(

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Ik heb net een Dell H310 geflashed met LSI 9211-8i IT-mode firmware, en die werkt nu prima als LSI sas2/sata-controller in mijn openindiana nasje. d:)b Aanrader, die kaartjes kun je voor weinig op de kop tikken, ik heb deze voor 60 euro van een tweaker overgenomen :)

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • jantje112
  • Registratie: Maart 2002
  • Laatst online: 28-09 08:04
Hopelijk hier iemand een advies. Heb hier nog 4 3 tb schijven liggen. 2 maal 7200 toeren en 2 maal 5900.

Hier wil ik een backupserver van maken in combinatie met een i3 bord en 6 gb geheugen. Als besturingssysteem heb ik freenas geïnstalleerd en dit ziet er goed en bruikbaar uit (9.3)

Mijn idee is om bij beide schijven een bijpassende te kopen zodat ik 2 setjes van 3 indentiek heb.

Idee was eerst om 2 raid 5 setjes te maken van effectief 6 gb (UFS). Is er een voordeel om toch een ZFS pool te maken en zo ja, hoe zou deze eruit moeten zien? 2 verschillende snelheden in 1 pool lijkt mij niet effectief?

Snelheid is voor mij geen hoogste prio. Downloads gebeuren op een NUC (die ook als mediapc in de woonkamer staat) en de hoofdserver is voor back-ups en " af en toe" gebruik.

Acties:
  • 0 Henk 'm!

  • funnyname
  • Registratie: Juni 2002
  • Laatst online: 16-11-2023
Q schreef op zaterdag 10 januari 2015 @ 19:06:
[...]
Als je een NAS bouwt, waarom dan uberhaupt met SSDs aan de slag? Zie mijn signature voor wat overpeinzingen over ZFS voor een NAS.
Ik wil via Infiniband (10Gb) kijken hoe ik een zo hoog mogelijke performance kan krijgen, vandaar dat ik met SSD(s) wil werken.
Pagina: 1 ... 139 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.