Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 03-10 16:18

FREAKJAM

"MAXIMUM"

Ik heb nu Ubuntu 13.10 met ZFS on Linux als testopstelling draaien, maar je kunt zowel 12.04 als 13.10 uiteindelijk upgraden naar 14.04.
The upgrade path in this instance is to the same end;
13.10 will version upgrade to 14.04
12.04 LTS will also directly upgrade to version 14.04 // LTS to LTS version.

You might be better to install 13.10, it has enhancements not available in 12.04, and as well, in my opinion, 13.10 is considerably faster than 12.04. I think the transition from 13.10 to 14.04 will be smoother than that from 12.04 .
The final release of the Trusty Tahr is scheduled for:

Ubuntu 14.04 LTS – April 17th

[ Voor 80% gewijzigd door FREAKJAM op 13-03-2014 00:47 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Je kan 14.04 gewoon al installeren, dit is dan alleen nog een developer preview totdat alles live gaat.. maar verder draait het prima.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Paul C schreef op woensdag 12 maart 2014 @ 22:40:
[...] wil ik graag een beetje oefenen met een virtual machine. Mijn kennis van alles behalve Windows is vrij beperkt (ik SSH soms naar mijn hosting machine om cron-tabs te beheren, maar dat is het wel zo'n beetje).

Ik denk dat ik het liefste op basis van Linux wil draaien, [...]
Als je kennis op dit moment al dusdanig beperkt is, zou ik gewoon voor ZFSguru kiezen.
Simpeler als een paar muisklikken kan je het bijna niet maken, en de rest kan je via de webinterface doen.
Dan kan je zonder problemen eerst eens wat gevoel opbouwen hoe het werkt, functionaliteiten etc.
Wil je een VPN-server... kijk eens naar pfSense (complete distro/package gebaseerd op FreeBSD) of als het je alleen om een VPN-server gaat zou je kunnen kijken naar OpenVPN Access Server.
Dusdanig 'blanco' hier in stappen en dan ook gelijk dingen willen combineren kan wel eens voor onverwachte problemen zorgen die je dan ook nog moet zien op te lossen.
Gewoon alles in losse VM's proppen en draaien zou mijn advies zijn.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 05:47
Hallo na het upgraden van zfsguru naar 11.0.1 heb ik een klein probleempje met sabnzbd,ik krijg namenlijk deze melding:(pyopenssl (python-ssl) niet geinstalleerd).
Hoe krijg ik dit werkend?

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 05-10 11:26
ikkeenjij36 schreef op donderdag 13 maart 2014 @ 18:47:
Hallo na het upgraden van zfsguru naar 11.0.1 heb ik een klein probleempje met sabnzbd,ik krijg namenlijk deze melding:(pyopenssl (python-ssl) niet geinstalleerd).
Hoe krijg ik dit werkend?
Heb jij dit een virtual machine gedaan of gelijk op je NAS? ;). Wel blijven nadenken!

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 05:47
rechtstreeks op de nas bij de services inbegrepen van zfsguru

Acties:
  • 0 Henk 'm!

  • Shai-Hulud
  • Registratie: September 2007
  • Laatst online: 00:10
ikkeenjij36 schreef op donderdag 13 maart 2014 @ 18:47:
Hallo na het upgraden van zfsguru naar 11.0.1 heb ik een klein probleempje met sabnzbd,ik krijg namenlijk deze melding:(pyopenssl (python-ssl) niet geinstalleerd).
Hoe krijg ik dit werkend?
Dit kan ik bevestigen. Ook bij mij wil sabnzbdplus niet meer installeren.
Terug naar 10.0-002 werkt het weer wel.

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Voor de OS X users die ZFS in OS X willen...er is een nieuw project maar ditmaal eentje die "OpenZFS" gebruikt: OpenZFS on OS X (o3x).

Acties:
  • 0 Henk 'm!

  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 22-06 12:17
ppl schreef op donderdag 13 maart 2014 @ 21:20:
Voor de OS X users die ZFS in OS X willen...er is een nieuw project maar ditmaal eentje die "OpenZFS" gebruikt: OpenZFS on OS X (o3x).
Interessant, vraag is alleen hoe stabiel dit is. Er zijn in het verleden verschillende pogingen gedaan om ZFS naar MacOSX te brengen, waaronder een ex-developer van Apple (ik meen zelfs dat het een commerciële uitgave was/is). Er is zelfs ooit de belofte van Apple geweest om ZFS in hun OS te integreren (dat was bij Snow Leopard, als ik me niet vergis).
In ieder geval, technisch moet het toch een stuk makkelijker zijn dan ZFS te porten naar Linux, want OSX heeft veel weg van FreeBSD.

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 09:15
Trunksmd schreef op vrijdag 14 maart 2014 @ 16:30:
[...]

Interessant, vraag is alleen hoe stabiel dit is. Er zijn in het verleden verschillende pogingen gedaan om ZFS naar MacOSX te brengen, waaronder een ex-developer van Apple (ik meen zelfs dat het een commerciële uitgave was/is). Er is zelfs ooit de belofte van Apple geweest om ZFS in hun OS te integreren (dat was bij Snow Leopard, als ik me niet vergis).
In ieder geval, technisch moet het toch een stuk makkelijker zijn dan ZFS te porten naar Linux, want OSX heeft veel weg van FreeBSD.
Voor timemachine is het natuurlijk perfect met de snapshots

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Shai-Hulud schreef op donderdag 13 maart 2014 @ 20:53:
Dit kan ik bevestigen. Ook bij mij wil sabnzbdplus niet meer installeren.
Terug naar 10.0-002 werkt het weer wel.
Probleem is gevonden. Workaround is ook simpel. Voordat je SABnzbd+ installeert, installeer dan eerst de Dependencies -> GNU Compiler Collection service. Dan werkt het wel.

Updated service voor 11.0-001 komen binnenkort:
- GitLab
- SABnzbd+ met nieuwe autosub en fixed dependencies
- Webstream; downloaden van streams van UitzendingGemist - zelfgebouwde service

Acties:
  • 0 Henk 'm!

  • Shai-Hulud
  • Registratie: September 2007
  • Laatst online: 00:10
Verwijderd schreef op vrijdag 14 maart 2014 @ 19:07:
[...]

Probleem is gevonden. Workaround is ook simpel. Voordat je SABnzbd+ installeert, installeer dan eerst de Dependencies -> GNU Compiler Collection service. Dan werkt het wel.

Updated service voor 11.0-001 komen binnenkort:
- GitLab
- SABnzbd+ met nieuwe autosub en fixed dependencies
- Webstream; downloaden van streams van UitzendingGemist - zelfgebouwde service
Dank je, dat was inderdaad de oplossing, inmiddels werkt het weer :)

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 05:47
Verwijderd schreef op vrijdag 14 maart 2014 @ 19:07:
[...]

Probleem is gevonden. Workaround is ook simpel. Voordat je SABnzbd+ installeert, installeer dan eerst de Dependencies -> GNU Compiler Collection service. Dan werkt het wel.

Updated service voor 11.0-001 komen binnenkort:
- GitLab
- SABnzbd+ met nieuwe autosub en fixed dependencies
- Webstream; downloaden van streams van UitzendingGemist - zelfgebouwde service
En weer een snelle oplossing voor zfsguru.
God wat een heerlijk project toch
_/-\o_ _/-\o_ _/-\o_

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Ik ben met een herinstallatie bezig, mijn server draaide debian wheezy 7.4, volledig geupdate. Dat staat er nu weer op. Toch met de installatie van debian-zfs krijg ik de volgende melding:
Setting up zfs-dkms (0.6.2-4~wheezy) ...
Loading new zfs-0.6.2 DKMS files...
First Installation: checking all kernels...
Building only for 3.2.0-4-amd64
Building initial module for 3.2.0-4-amd64
configure: error:
*** Please make sure the kmod spl devel <kernel> package for your
*** distribution is installed then try again. If that fails you
*** can specify the location of the spl objects with the
*** '--with-spl-obj=PATH' option.
Error! Bad return status for module build on kernel: 3.2.0-4-amd64 (x86_64)
Consult /var/lib/dkms/zfs/0.6.2/build/make.log for more information.
Dat log '/var/lib/dkms/zfs/0.6.2/build/make.log' bestaat niet.

Hij gaat wel door, en zegt kort daarna 'Setting up zfsutils (0.6.2-4~wheezy) ...' zonder foutmelding. Aan het eind komt dit nog even voorbij:
Examining /etc/kernel/header_postinst.d.
run-parts: executing /etc/kernel/header_postinst.d/dkms 3.2.0-4-amd64
Ik heb m'n pools geimporteerd, alles lijkt te werken. Ik heb gezocht op die melding hierboven maar kan er maar weinig over vinden. Hier in het topic stond ook iets over niet ondersteunde kernel-versie (3.13rc2 geloof ik) maar dat heb ik niet, ik zit gewoon op de default 3.2.

kmod en spl en spl-dkms zijn geinstalleerd, maar die regel vind ik onduidelijk wat tie nu precies wilt hebben, dus mischien bedoelt tie iets anders?

Ik weet niet zo goed wat ik hier nu mee aan moet, mis ik nog iets?

[ Voor 4% gewijzigd door InflatableMouse op 15-03-2014 08:57 ]


Acties:
  • 0 Henk 'm!
SPL moet eerder geinstalleerd zijn dan ZFS(-dkms) maar waarom dat bij jou fout gaat weet ik niet.
Je kan DKMS handmatig aftrappen.

Even niets...


Acties:
  • 0 Henk 'm!

  • Boyangles
  • Registratie: Oktober 2009
  • Nu online
Sinds een tijdje draai ik thuis Debian met ZFS on linux, en dat werkt eigenlijk heel goed. Echter snap ik iets niet i.v.m. de gerapporteerde grootte van een dataset.

Het zit zo: ik heb de volgende datasets (zfs list):
code:
1
2
3
4
5
6
7
8
tank                  47.7G  1.74T   136K  none
tank/downloads         208K  1.74T   208K  /mnt/downloads
tank/user1            18.2G  1.74T   172K  /mnt/ellis
tank/user1/documents  84.3M  1.74T  84.3M  /mnt/ellis/documents
tank/user1/pictures   18.1G  1.74T  18.1G  /mnt/ellis/pictures
tank/user2            29.5G  1.74T   172K  /mnt/kevin
tank/user2/documents  5.40G  1.74T  5.40G  /mnt/kevin/documents
tank/user2/pictures   24.1G  1.74T  24.1G  /mnt/kevin/pictures


In tank/downloads zitten (verrassing) mijn downloads, echter volgens zfs list zit er hier maar 208K in? Als ik met df -h check, dan zie ik het volgende:

code:
1
/dev/disk/by-uuid/a24010ca-7e5a-4c79-a5f1-fa0b725b46ea  222G   32G  179G  15% /


De folders in tank/downloads kan ik via SMB benaderen, en zijn samen ook ongeveer 32G groot.

Alles uit tank/downloads wordt bij / gerekend op de een of andere manier lijkt het. Als ik iets verwijder uit tank/downloads, dan wordt de gerapporteerde grootte daadwerkelijk kleiner in mountpoint /.

Zitten mijn downloads nou niet in de dataset tank/downloads, maar op het 'gewone' filesystem /? Ik snap het niet! :?

Acties:
  • 0 Henk 'm!
met sudo zfs mount kan je zien welke datasets er daadwerkelijk gemount zijn.

Even niets...


Acties:
  • 0 Henk 'm!

  • Boyangles
  • Registratie: Oktober 2009
  • Nu online
Pff, m'n hele pool is niet gemount. Dat verklaart het een en ander..

Blijkbaar na een reboot niet automatisch gemount. Zal eens opzoeken hoe ik dat kan instellen. |:(

Thanks in elk geval O-)

EDIT:

Nu loop ik echter tegen het volgende aan. Met een zfs mount -a, krijg ik de melding

code:
1
cannot mount '/mnt/downloads': directory is not empty


Nu kan ik tank/downloads wel mounten met 'zfs mount -O tank/downloads', maar nog steeds kloppen de gerapporteerde groottes niet dan: er lijkt niets in tank/download (=/mnt/downloads) te zitten, maar dit lijkt alles in root partition / te zitten. :/

Ben niet zo heel erg thuis in ZFS, maar als er dingen fout gaan, dan weet ik niet zo goed waar ik het moet zoeken..

[ Voor 57% gewijzigd door Boyangles op 15-03-2014 10:50 ]


Acties:
  • 0 Henk 'm!
Mount point gaan over elkaar heen, dus de data word niet ineens verplaatst van / naar /jemountpooint. Dat zul je even met de hand moeten doen.

Even niets...


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

FireDrunk schreef op zaterdag 15 maart 2014 @ 10:00:
SPL moet eerder geinstalleerd zijn dan ZFS(-dkms) maar waarom dat bij jou fout gaat weet ik niet.
Je kan DKMS handmatig aftrappen.
Dat heb ik nog niet eerder gedaan, welke parameters moet ik opgeven om dat te forceren?

Tx!

Acties:
  • 0 Henk 'm!
dkms autoinstall volgens mij

Even niets...


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Dat geeft na een halve seconde de prompt terug zonder enige output.

Met 'status' krijg ik de volgende output:
# dkms status
spl, 0.6.2, 3.2.0-4-amd64, x86_64: installed
zfs, 0.6.2, 3.2.0-4-amd64, x86_64: installed


Lijkt gewoon goed te zijn dan toch? Beide geven aan installed.

Acties:
  • 0 Henk 'm!
Dan zal het inderdaad wel goed zijn.

Even niets...


Acties:
  • 0 Henk 'm!

  • Boyangles
  • Registratie: Oktober 2009
  • Nu online
FireDrunk schreef op zaterdag 15 maart 2014 @ 10:54:
Mount point gaan over elkaar heen, dus de data word niet ineens verplaatst van / naar /jemountpooint. Dat zul je even met de hand moeten doen.
Bedankt voor je hulp. Had tijdelijk een nieuwe dataset gemaakt, daar met rsync alles heen gezet, oude /mnt/downloads en tank/downloads verwijderd, nieuwe dataset aangemaakt, en alles weer terug met rsync. Lijkt goed te zijn zo :)

Acties:
  • 0 Henk 'm!
*O*

[ Voor 100% gewijzigd door FireDrunk op 15-03-2014 12:41 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 08:16

sphere

Debian abuser

Xudonax schreef op woensdag 12 maart 2014 @ 22:56:
Hoewel ik een grote fan ben van Fedora, werken de regelmatige kernel updates hier heel erg in het nadeel van de stabiliteit. Debian/Ubuntu lijkt mij ook de beste keuze aangezien dit gewoon een fatsoenlijk en stabiel systeem is. Wel zou ik kijken voor een Ubuntu LTS als je voor Ubuntu gaat, maar de laatste LTS is alweer bijna 2 jaar oud meen ik...
Volgens mij komt 14.04 in april uit, of althans gepland.

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
sphere schreef op zaterdag 15 maart 2014 @ 14:12:
[...]

Volgens mij komt 14.04 in april uit, of althans gepland.
Protip: getal voor de punt is jaartal, getal achter de punt de maand ;)

.04 in april, .10 in oktober :) en meestal zo'n 3-4 maanden van tevoren beginnen de eerste beta builds zodat je alvast kan proefdraaien

Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 08:16

sphere

Debian abuser

Ik doelde er meer op dat 14.04 een lts versie is :)

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Trunksmd schreef op vrijdag 14 maart 2014 @ 16:30:
Interessant, vraag is alleen hoe stabiel dit is. Er zijn in het verleden verschillende pogingen gedaan om ZFS naar MacOSX te brengen, waaronder een ex-developer van Apple (ik meen zelfs dat het een commerciële uitgave was/is). Er is zelfs ooit de belofte van Apple geweest om ZFS in hun OS te integreren (dat was bij Snow Leopard, als ik me niet vergis).
Dat was het hoofd van het HFS ontwikkelteam bij Apple en degene die het originele Apple ZFS project heeft opgestart. Nadat hij bij Apple is weggegaan heeft hij z'n eigen bedrijf opgezet waar hij die ZFS for OS X ontwikkeling voortzette (Z-410 heette het eerst, tegenwoordig is het Zevo en het is van Greenbytes). Naar het schijnt is dit een zeer stabiele versie die ook vrij up to date is met bijv. de implementatie in FreeBSD, Illumos, enz.
In ieder geval, technisch moet het toch een stuk makkelijker zijn dan ZFS te porten naar Linux, want OSX heeft veel weg van FreeBSD.
Yup. OS X gebruikt veel spullen uit de BSD wereld en dan voornamelijk die van FreeBSD. Dat maakt het porten al wat makkelijker. De kernel daarentegen is wel een heel ander beestje dan die van FreeBSD.
matty___ schreef op vrijdag 14 maart 2014 @ 17:52:
Voor timemachine is het natuurlijk perfect met de snapshots
In theorie alleen want Time Machine werkt alleen met HFS+, niet met ZFS. OpenSolaris demonstreerde dat je een vergelijkbare functie zonder problemen kunt opzetten met de snapshot functie in ZFS. Velen hoopten ook dat dit met OS X ook zou kunnen maar helaas, Apple stopte het ZFS project zonder opgaaf van reden.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:41
ppl schreef op zaterdag 15 maart 2014 @ 23:22:
[...]

Dat was het hoofd van het HFS ontwikkelteam bij Apple en degene die het originele Apple ZFS project heeft opgestart. Nadat hij bij Apple is weggegaan heeft hij z'n eigen bedrijf opgezet waar hij die ZFS for OS X ontwikkeling voortzette (Z-410 heette het eerst, tegenwoordig is het Zevo en het is van Greenbytes). Naar het schijnt is dit een zeer stabiele versie die ook vrij up to date is met bijv. de implementatie in FreeBSD, Illumos, enz.
Helaas:

https://storagemojo.com/2013/06/20/can-mac-zfs-be-saved/

Wordt ook weer mee geleurd (greenbytes schijnt er vanaf te willen).

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Wat is nu het standaard migratiepad om alle data op mijn Synology naar een ZFS nas te verhuizen?
Ik heb geen tijdelijke storage tot mijn beschikking. Ik dacht aan het volgende:

- breek de mirror in de Syno
- creeer op de nas een pool met één schijf
- rsync tussen Syno en nas
- verhuis de schijf uit de Syno naar de ZFS nas
- mirror maken.

Iets zegt met dat dit te simpel is. Gaarne jullie commentaar.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:41
Persoonlijk zou ik toch een extra schijf kopen/regelen voor een backup. Op het moment dat je de mirror breekt en je de verplaatste schijf in je nas initialiseerd heb je geen kopie/backup meer. Zul je net zien dat je de verkeerde kant op rsynct ofzo en poef alles weg.

Maar volgens mij zou dit moeten werken, wat je hier schetst.

[ Voor 10% gewijzigd door Q op 16-03-2014 13:50 ]


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Thanks. Backup schijven heb ik: eentje thuis en eentje off site. Maar die zijn slechts 500G en bevatten alleen de écht belangrijke zaken.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Q schreef op zondag 16 maart 2014 @ 10:17:
Helaas:

https://storagemojo.com/2013/06/20/can-mac-zfs-be-saved/

Wordt ook weer mee geleurd (greenbytes schijnt er vanaf te willen).
Wellicht dat ze daarom met OpenZFS on OS X zijn gekomen. Anderzijds: met die release (o3x) loopt het qua ZFS wel weer gelijk met de rest van de operating systems die ZFS gebruiken. Geen al te gekke versieverschillen meer. We zullen zien :)

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Q schreef op zondag 16 maart 2014 @ 13:49:
Persoonlijk zou ik toch een extra schijf kopen/regelen voor een backup. Op het moment dat je de mirror breekt en je de verplaatste schijf in je nas initialiseerd heb je geen kopie/backup meer. Zul je net zien dat je de verkeerde kant op rsynct ofzo en poef alles weg.

Maar volgens mij zou dit moeten werken, wat je hier schetst.
Speaking of which....

Momenteel heb ik een dagelijkse backup lopen naar een e-sata schijfje. Hoe gaat ZFS om met dat soort externe schijven? Is het common practice om daar je backupje naar toe te schrijven?

Ik heb 2 backup disks die ik regelmatig omwissel. Eentje gaat mee off site en ik neem de ander weer mee terug. Gaat hot-plug en ZFS lekker samen?

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:41
hansdegit schreef op zondag 16 maart 2014 @ 21:00:
[...]

Speaking of which....

Momenteel heb ik een dagelijkse backup lopen naar een e-sata schijfje. Hoe gaat ZFS om met dat soort externe schijven? Is het common practice om daar je backupje naar toe te schrijven?

Ik heb 2 backup disks die ik regelmatig omwissel. Eentje gaat mee off site en ik neem de ander weer mee terug. Gaat hot-plug en ZFS lekker samen?
Een schijf lostrekken zonder het file system te umounten is nooit goed. Dat in acht nemend, moet het goed komen met ZFS.

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Ik zie ineens in dmesg:
[25281.983298] ata3.00: exception Emask 0x10 SAct 0x0 SErr 0x4090000 action 0xe frozen
[25281.983368] ata3.00: irq_stat 0x00400040, connection status changed
[25281.983422] ata3: SError: { PHYRdyChg 10B8B DevExch }
[25281.983466] ata3.00: failed command: FLUSH CACHE EXT
[25281.983513] ata3.00: cmd ea/00:00:00:00:00/00:00:00:00:00/a0 tag 0
[25281.983629] ata3.00: status: { DRDY }
[25281.983667] ata3: hard resetting link
[25287.728777] ata3: link is slow to respond, please be patient (ready=0)
[25289.687191] ata3: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[25289.841040] ata3.00: ACPI cmd ef/10:06:00:00:00:00 (SET FEATURES) succeeded
[25289.841046] ata3.00: ACPI cmd f5/00:00:00:00:00:00 (SECURITY FREEZE LOCK) filtered out
[25289.841050] ata3.00: ACPI cmd b1/c1:00:00:00:00:00 (DEVICE CONFIGURATION OVERLAY) filtered out
[25289.897006] ata3.00: ACPI cmd ef/10:06:00:00:00:00 (SET FEATURES) succeeded
[25289.897013] ata3.00: ACPI cmd f5/00:00:00:00:00:00 (SECURITY FREEZE LOCK) filtered out
[25289.897017] ata3.00: ACPI cmd b1/c1:00:00:00:00:00 (DEVICE CONFIGURATION OVERLAY) filtered out
[25289.905062] ata3.00: configured for UDMA/133
[25289.905068] ata3.00: retrying FLUSH 0xea Emask 0x10
[25289.905216] ata3: EH complete
Herhaalt een keer of 10 en toen ging m'n pool in degraded state. De disk is terug, smart ziet geen problemen en een zpool clear bracht alles terug in online state.

Mooie verhaal is dat tie aandezelfde SATA port hangt als die Seagate (die ik al weg heb geflikkerd). Die was mischien niet stuk dus (woops).

Wat zijn die ata meldingen en kan ik daar iets aan doen?

Acties:
  • 0 Henk 'm!
Hangen
[25281.983298] ata3.00: exception Emask 0x10 SAct 0x0 SErr 0x4090000 action 0xe [b]frozen[/b]

OS geeft disk een trap
[25281.983667] ata3: [b]hard[/b] resetting link

En disk doet het weer.
[25289.841040] ata3.00: ACPI cmd ef/10:06:00:00:00:00 (SET FEATURES) succeeded
[25289.897006] ata3.00: ACPI cmd ef/10:06:00:00:00:00 (SET FEATURES) succeeded


Eenmalig: Kan een hickupje zijn wat je nooit meer gaat zien (stand van de zon, maan, kometen die langsvliegen, bliksem, random IO error, noem het maar op)
Vaker: Disk even langdurig testen, en/of kabeltje eens vervangen.

Even niets...


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Dank, ga ik vanmiddag doen inderdaad, even ander poortje proberen.

Dat riedeltje deed tie 10 of 11 keer achter elkaar binnen enkele seconden/minuten. Vanacht is het weer gebeurd, state was weer degraded vanochtend, zelfde verhaal.

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Wat zou nou handiger zijn qua setup:
- een grote SSD binnen ZFS uitdelen als tier I supersnelle storage of
- een stuk van de SSD reserveren als SLOG en L2ARC en ZFS lekker laten uitzoeken welke blokken op de L2ARC komen
- allebei
- alleen SLOG creeren en de rest van de SSD benutten als tier I pool.

Nadeel van het uitdelen van (een deel van) de SSD voor snelle storage is, dat je zelf moet gaan nadenken. Dat kan voor een luie IT -er natuurlijk niet de bedoeling zijn...

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
hansdegit schreef op maandag 17 maart 2014 @ 21:44:
Wat zou nou handiger zijn qua setup:
- een grote SSD binnen ZFS uitdelen als tier I supersnelle storage of
- een stuk van de SSD reserveren als SLOG en L2ARC en ZFS lekker laten uitzoeken welke blokken op de L2ARC komen
- allebei
- alleen SLOG creeren en de rest van de SSD benutten als tier I pool.

Nadeel van het uitdelen van (een deel van) de SSD voor snelle storage is, dat je zelf moet gaan nadenken. Dat kan voor een luie IT -er natuurlijk niet de bedoeling zijn...
ZIL/L2ARC... any day of the week.

ZFS' ARC concept is superslim in het bepalen wat wel gebruikt wordt en wat niet.. dit kan je niet zelf nabootsen door bepaalde data op 1 plek te reserveren.. daarnaast zorgt het er voor dat je gehele array sneller wordt (in zowel lees als schrijf acties), en mocht je SSD het begeven, is er niet (direct) iets mis... win/win zou ik zeggen.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 10:33
Hangt vanaf wat voor data er op komt te staan. Ik heb hier media (films/series) erop staan en ik gebruik helemaal geen ssd, heeft ook geen toegevoegde waarde.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:41
GioStyle schreef op maandag 17 maart 2014 @ 22:08:
Hangt vanaf wat voor data er op komt te staan. Ik heb hier media (films/series) erop staan en ik gebruik helemaal geen ssd, heeft ook geen toegevoegde waarde.
Dat is het enige juiste antwoord.

Lees ook het artikel eens in mijn signature.

Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Voor de mensen die ZFS willen gebruiken en twijfelen over de grootte en nut van arc/l2arc:
1 fileserver met meerdere pools waarbij elke pool voorzien is van l2arc. Pool voor VM's over NFS, pool voor client-opslag over ISCSI en een pool voor bulk-opslag over ISCSI (bestanden <500MB) Deze bestanden worden eenmalig geschreven en veelvuldig gelezen.
Het systeem heeft 24GB RAM en in totaal 900GB SSD.
Dit zijn de resultaten van reads die het systeem de afgelopen zes maanden heeft verwerkt (1 dag gemiddelde)
  • ARC 601.08K hits, 26.40K misses. 95% komt uit RAM
  • L2ARC 1.66K hits, 24.59K misses. 6% kom uit SSD
Ik zou investeren in RAM en pas SSD's inzetten als de geheugenbanken vol zitten.

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Heeft iemand toevallig dat zfshealth script aangepast zodat het goed op debian/ubuntu werkt?

Ik krijg twee fouten en geen idee hoe ik dat moet aanpassen.
code:
1
currentDate=$(date +%s)

+%s struikelt tie over

en
code:
1
scrubDate=$(date -j -f '%Y%b%e-%H%M%S' $scrubRawDate'-000000' +%s)


-j zegt tie klopt niet, en ik denk dat +%s aan het eind ook niet maar zo ver komt tie niet. Mischien is er nog wel meer mis, geen idee eigenlijk :9

[ Voor 5% gewijzigd door InflatableMouse op 18-03-2014 07:38 ]


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Q schreef op maandag 17 maart 2014 @ 22:45:
[...]
Dat is het enige juiste antwoord.

Lees ook het artikel eens in mijn signature.
Uiteraard.

Welk van de 4 artikelen in je sig?

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • servies
  • Registratie: December 1999
  • Laatst online: 08:34

servies

Veni Vidi Servici

InflatableMouse schreef op dinsdag 18 maart 2014 @ 07:37:
Heeft iemand toevallig dat zfshealth script aangepast zodat het goed op debian/ubuntu werkt?

Ik krijg twee fouten en geen idee hoe ik dat moet aanpassen.
code:
1
currentDate=$(date +%s)

+%s struikelt tie over

en
code:
1
scrubDate=$(date -j -f '%Y%b%e-%H%M%S' $scrubRawDate'-000000' +%s)


-j zegt tie klopt niet, en ik denk dat +%s aan het eind ook niet maar zo ver komt tie niet. Mischien is er nog wel meer mis, geen idee eigenlijk :9
Hmm, op mijn CentOS levert het eerste geen probleem op. Voor het 2e gok ik dat je 3 regels lager in het script moet kijken...

[ Voor 16% gewijzigd door servies op 18-03-2014 09:08 ]


Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 30-09 10:12

Midas.e

Is handig met dinges

InflatableMouse schreef op dinsdag 18 maart 2014 @ 07:37:
Heeft iemand toevallig dat zfshealth script aangepast zodat het goed op debian/ubuntu werkt?

Ik krijg twee fouten en geen idee hoe ik dat moet aanpassen.
code:
1
currentDate=$(date +%s)

+%s struikelt tie over

en
code:
1
scrubDate=$(date -j -f '%Y%b%e-%H%M%S' $scrubRawDate'-000000' +%s)


-j zegt tie klopt niet, en ik denk dat +%s aan het eind ook niet maar zo ver komt tie niet. Mischien is er nog wel meer mis, geen idee eigenlijk :9
je bedoelt deze? https://calomel.org/zfs_health_check_script.html

3 regels lager staat iets over GNU Linux ;-)

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 03-10 16:18

FREAKJAM

"MAXIMUM"

Inderdaad:
"Also, take a look at the section for "scrubExpire" and set the script to either use FreeBSD or Ubuntu's version of the date script format."
# zetten voor

code:
1
2
scrubRawDate=$(/sbin/zpool status $volume | grep scrub | awk '{print $15 $12 $13}')
     scrubDate=$(date -j -f '%Y%b%e-%H%M%S' $scrubRawDate'-000000' +%s)


# verwijderen

code:
1
2
   #scrubRawDate=$(/sbin/zpool status $volume | grep scrub | awk '{print $11" "$12" " $13" " $14" "$15}')
    #scrubDate=$(date -d "$scrubRawDate" +%s)

is everything cool?


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

servies schreef op dinsdag 18 maart 2014 @ 09:07:
[...]

Hmm, op mijn CentOS levert het eerste geen probleem op. Voor het 2e gok ik dat je 3 regels lager in het script moet kijken...
Ja beetje duh momentje, had beter moeten lezen. Nu ik dat heb aangepast zeurt tie ook niet meer over die - j en %s.

Dank!

Acties:
  • 0 Henk 'm!
nieuws: Crucial kondigt M550-ssd's aan

Yay, goed nieuws voor de SLOG/ZIL gebruikers, weer een extra optie :D

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Wat mij alleen niet helemaal duidelijk is, is of ie nu al leverbaar is of niet.
Mijn broer heeft er toevallig afgelopen weekend twee Crucial's gehaald. Ik twijfel nu alleen of het de M500 of de M550 was.
Hij was iig wel belachelijk snel. oOo

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:41
Over scriptjes voor ZFS op Linux gesproken, is dit nog leuk?

http://louwrentius.com/static/files/architratio.sh

Laat IOPS zien met hit ratio van ARC en L2ARC iedere x seconden (default 5)

Hier onder start ik een ouderwetse DVD en stop ik 'm. Om daarna 3 VM's over iSCSI te starten.
Formatting is nog wat lelijk.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
root@server:~# ./architratio.sh 
...
IOPs: 0 | ARC cache hit ratio: 0 % | Hitrate: 0 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 7 | ARC cache hit ratio: 100.00 % | Hitrate: 7 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 42 | ARC cache hit ratio: 83.00 % | Hitrate: 35 / Missrate: 7 | L2ARC 0 0 / 7
IOPs: 0 | ARC cache hit ratio: 0 % | Hitrate: 0 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 800 | ARC cache hit ratio: 89.00 % | Hitrate: 713 / Missrate: 87 | L2ARC 0 0 / 87
IOPs: 298 | ARC cache hit ratio: 83.00 % | Hitrate: 250 / Missrate: 48 | L2ARC 0 0 / 48
IOPs: 0 | ARC cache hit ratio: 0 % | Hitrate: 0 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 0 | ARC cache hit ratio: 0 % | Hitrate: 0 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 0 | ARC cache hit ratio: 0 % | Hitrate: 0 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 3 | ARC cache hit ratio: 100.00 % | Hitrate: 3 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 4 | ARC cache hit ratio: 100.00 % | Hitrate: 4 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 53 | ARC cache hit ratio: 43.00 % | Hitrate: 23 / Missrate: 30 | L2ARC 0 0 / 30
IOPs: 274 | ARC cache hit ratio: 82.00 % | Hitrate: 227 / Missrate: 47 | L2ARC 0 0 / 47
IOPs: 417 | ARC cache hit ratio: 72.00 % | Hitrate: 303 / Missrate: 114 | L2ARC 0 0 / 114
IOPs: 331 | ARC cache hit ratio: 98.00 % | Hitrate: 325 / Missrate: 6 | L2ARC 0 0 / 6
IOPs: 231 | ARC cache hit ratio: 93.00 % | Hitrate: 215 / Missrate: 16 | L2ARC 0 0 / 16
IOPs: 299 | ARC cache hit ratio: 92.00 % | Hitrate: 277 / Missrate: 22 | L2ARC 0 0 / 22
IOPs: 226 | ARC cache hit ratio: 100.00 % | Hitrate: 226 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 263 | ARC cache hit ratio: 100.00 % | Hitrate: 263 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 305 | ARC cache hit ratio: 85.00 % | Hitrate: 260 / Missrate: 45 | L2ARC 0 0 / 45
IOPs: 267 | ARC cache hit ratio: 100.00 % | Hitrate: 267 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 207 | ARC cache hit ratio: 100.00 % | Hitrate: 207 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 264 | ARC cache hit ratio: 100.00 % | Hitrate: 264 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 226 | ARC cache hit ratio: 100.00 % | Hitrate: 226 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 327 | ARC cache hit ratio: 84.00 % | Hitrate: 276 / Missrate: 51 | L2ARC 0 0 / 51
IOPs: 256 | ARC cache hit ratio: 100.00 % | Hitrate: 256 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 224 | ARC cache hit ratio: 100.00 % | Hitrate: 224 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 267 | ARC cache hit ratio: 100.00 % | Hitrate: 267 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 217 | ARC cache hit ratio: 100.00 % | Hitrate: 217 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 261 | ARC cache hit ratio: 100.00 % | Hitrate: 261 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 320 | ARC cache hit ratio: 84.00 % | Hitrate: 269 / Missrate: 51 | L2ARC 0 0 / 51
IOPs: 263 | ARC cache hit ratio: 100.00 % | Hitrate: 263 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 46 | ARC cache hit ratio: 100.00 % | Hitrate: 46 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 0 | ARC cache hit ratio: 0 % | Hitrate: 0 / Missrate: 0 | L2ARC 0 0 / 0
IOPs: 12 | ARC cache hit ratio: 91.00 % | Hitrate: 11 / Missrate: 1 | L2ARC 0 0 / 1
IOPs: 1865 | ARC cache hit ratio: 18.00 % | Hitrate: 337 / Missrate: 1528 | L2ARC 0 0 / 1528
IOPs: 4509 | ARC cache hit ratio: 22.00 % | Hitrate: 1035 / Missrate: 3474 | L2ARC 0 0 / 3474
IOPs: 2132 | ARC cache hit ratio: 48.00 % | Hitrate: 1030 / Missrate: 1102 | L2ARC 0 0 / 1102
IOPs: 261 | ARC cache hit ratio: 39.00 % | Hitrate: 102 / Missrate: 159 | L2ARC 0 0 / 159
IOPs: 185 | ARC cache hit ratio: 20.00 % | Hitrate: 37 / Missrate: 148 | L2ARC 0 0 / 148

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
jadjong schreef op dinsdag 18 maart 2014 @ 01:39:
Voor de mensen die ZFS willen gebruiken en twijfelen over de grootte en nut van arc/l2arc:
1 fileserver met meerdere pools waarbij elke pool voorzien is van l2arc. Pool voor VM's over NFS, pool voor client-opslag over ISCSI en een pool voor bulk-opslag over ISCSI (bestanden <500MB) Deze bestanden worden eenmalig geschreven en veelvuldig gelezen.
Het systeem heeft 24GB RAM en in totaal 900GB SSD.
Dit zijn de resultaten van reads die het systeem de afgelopen zes maanden heeft verwerkt (1 dag gemiddelde)
  • ARC 601.08K hits, 26.40K misses. 95% komt uit RAM
  • L2ARC 1.66K hits, 24.59K misses. 6% kom uit SSD
Ik zou investeren in RAM en pas SSD's inzetten als de geheugenbanken vol zitten.
Mag ik hier nog eens op terugkomen?

Stel je nu voor dat je enorm veel ARC misses creeert doordat je NAS 's nachts uit staat. Ik weet het, da's niet helemaal conform het standaard gebruik van zo'n ding, maar dat doe ik nu met mijn Syno ook en eigenlijk heb ik nog niet echt de behoefte gehad om die in de nacht te laten doorzoemen.

Dan wordt je L2ARC vanzelf "warm", toch?

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
hansdegit schreef op woensdag 19 maart 2014 @ 09:33:
[...]

Mag ik hier nog eens op terugkomen?

Stel je nu voor dat je enorm veel ARC misses creeert doordat je NAS 's nachts uit staat. Ik weet het, da's niet helemaal conform het standaard gebruik van zo'n ding, maar dat doe ik nu met mijn Syno ook en eigenlijk heb ik nog niet echt de behoefte gehad om die in de nacht te laten doorzoemen.

Dan wordt je L2ARC vanzelf "warm", toch?
Beide zijn leeg na een reboot. ARC vult zichzelf binnen een paar uur, l2arc doet er een paar dagen over.

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
L2ARC leeg na een reboot? Oké....da's nieuw voor me. Lijkt me niet zinvol om een L2ARC expliciet te schonen bij een reboot, maar daar zullen vast redenen voor zijn.
Terug naar de tekentafel.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!
Er zijn ook al wel ideeën over persistent L2ARC binnen de community, maar dat staat nog op losse schroeven, vooral omdat de ARC de metadata over L2ARC bevat. Die moet dus bij shutdown eerst gepersisteerd worden.

Even niets...


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Wat een ellende hier zeg! Nadat de ene na de andere disk stuk is gegaan (3 sinds de bouw van die server) heb ik continue problemen met een specifieke disk die uitvalt en dus een pool degraded raakt.

Heb em nu weer aan een ander poortje gehangen maar gekke is dat tie het bijna een week goed heeft gedaan en nu ineens weer begint. Ik dacht dat het eindelijk opgelost was :(.

Als tie er nu niet mee ophoudt ga een een nieuw kabeltje ergens uit een doos trekken.

Begin het zo onderhand wel een beetje zat te worden, moet toch een moment komen dat dat ding langer dan een week zonder problemen zoemt of niet dan? 8)7

Pfff....

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Zijn het nieuwe / oude (en hoe oud) disken, en heb je misschien al eens gekeken wat SMART roept over de disken?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@FireDrunk
Ik zou juist zeggen dat bij het booten een dergelijke validatie plaatsvindt, en niet bij het afsluiten. In de tussentijd kan er natuurlijk vanalles gebeurd zijn.

ZFS zou persistent L2ARC kunnen implementeren door bij elke boot de L2ARC aan te zwengelen en de metadata na te lopen; als deze synced is met een oudere transaction group, kan ZFS de metadata synchroniseren en uiteindelijk de L2ARC in gebruik nemen. Met zo'n manier van 'gevalideerde metadata' maakt het niet uit als de SSD oude (meta)data bevat; er wordt simpelweg gebruikt wat op dit moment nog actueel is; de verouderde delen worden gewoon in de reclaimation-pool gestopt.

Er zijn trouwens wel wat ZFS features bijgekomen in FreeBSD head: spacemap_histogram, extensible_dataset, bookmarks, enabled_txg en hole_birth. Allemaal leuk maar nog niet de echte knallers zoals block pointer rewrite of persistent L2ARC, wat natuurlijk veel coolere features zijn. Maar toch fijn dat ZFS doorontwikkeld wordt. :)

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

]Byte\[ schreef op woensdag 19 maart 2014 @ 14:02:
Zijn het nieuwe / oude (en hoe oud) disken, en heb je misschien al eens gekeken wat SMART roept over de disken?
Deze is nog niet zo oud, maar dat zegt niet zo veel. Is een WD, SMART ziet er denk ik allemaal goed uit, ding geeft nooit errors of warnings (SMART van de disk zelf dan). De melding die ik krijg heb ik eerder in het topic gepost, het zijn ATA melden van de kernel. Disconnect, freeze, hard reset en dan komt tie soms weer even terug.

Gebeurde dus nu net weer, ik heb nu een kabeltje gewisseld met de Cdrom drive die ik niet gebruik.

Nu is het duidelijk denk ik, andere kabel andere poort, gebeurd nog steeds. Is dus wel degelijk de disk.

Heb er maar weer eentje gewisseld, de 4de ondertussen. Maar ik ga die oude nu eerst goed testen in een andere pc.

Om moedeloos van te worden dit. :(

[ Voor 16% gewijzigd door InflatableMouse op 19-03-2014 15:45 ]


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 03-10 22:35
Iemand hier ervaring met transmission op de nieuwste freenas (9.2.1.2 release)? Ik probeer de jail en download directory op aparte disks te krijgen, in mijn geval jail op ssd (jail) en downloads op hdd (download). Dit omdat ik dacht dat het leuk zou zijn om de jails op een ssd(tje) te plaatsen, maar die bied niet echt ruimte om ook als download schijf te dienen.

Wat ik dacht te kunnen doen is simpelweg in de configuratie van transmission de "download directory" wijzigen van /usr/pbi/transmission-amd64/etc/transmission/home/Downloads naar /mnt/download. Dit resulteert keer op de keer in na 4 MB downloaden in het bericht "permission denied". Er is al de wereld over geschreven aan op internet, dus ik ben lekker aan prutsen geweest. Wat heb ik verder al geprobeerd:
  • user "transmission" uid 921 en group "transmission" gid 921 aanmaken en alle rechten geven op /mnt/download = permission denied
  • ook "other" rwx toegang geven op /mnt/download = permission denied
  • storage toevoegen aan de transmission jail = spiegelt alleen wat er binnen de jail geschreven wordt (aka jail ssd slibt nog snel vol
  • chmod -R 777 op /mnt/download (zelfs als root permission denied - transmission neemt het volume over? - dit werkte op 9.2 wel)
Ondertussen verschillende keren opnieuw opstarten en de plugin / jail destroyen op opnieuw aanmaken. Ik ben er nu wel een beetje zat van. Het lijkt mij toch geen rare gedachte om je downloads buiten de jail terecht te willen laten komen of wil ik nu iets wat niet mogelijk is? Heeft iemand hier de verlossende tip?

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 04-10 19:09
Het hele nut van een jail is nu juist dat het een jail is. Hoewel ik hetzelfde wil als jij lijkt het mij juist onlogisch als iets buiten een jail kan komen :P

Werkt een hardlink van /usr/pbi/transmission-amd64/etc/transmission/home/Downloads naar /mnt/download wel?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Verwijderd schreef op woensdag 19 maart 2014 @ 14:04:
[...]
Er zijn trouwens wel wat ZFS features bijgekomen in FreeBSD head: spacemap_histogram, extensible_dataset, bookmarks, enabled_txg en hole_birth. Allemaal leuk maar nog niet de echte knallers zoals block pointer rewrite of persistent L2ARC, wat natuurlijk veel coolere features zijn. Maar toch fijn dat ZFS doorontwikkeld wordt. :)
Duidelijk. Persistent L2ARC is nog toekomstmuziek. Dan ga ik een deel van de SSD als SLOG reserveren en de rest in een snelle pool gooien.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 03-10 22:35
Paul schreef op woensdag 19 maart 2014 @ 16:12:
Het hele nut van een jail is nu juist dat het een jail is. Hoewel ik hetzelfde wil als jij lijkt het mij juist onlogisch als iets buiten een jail kan komen :P

Werkt een hardlink van /usr/pbi/transmission-amd64/etc/transmission/home/Downloads naar /mnt/download wel?
Ik weet dat het de veiligheid niet ten goede komt, maar ik wou het toch graag proberen :X Met hardlink ben ik niet bekend, heb je een linkje?

Edit: hmmmf, net even geprobeerd om te downloaden naar /media (binnen de jail) maar zelfs dat wordt niet geaccepteerd (ook permission denied). Op de standaard locatie loopt het wel gewoon door. Misschien zit er wel ergens een bugje... :/

[ Voor 18% gewijzigd door Patatjemet op 19-03-2014 16:39 ]

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Paul schreef op woensdag 19 maart 2014 @ 16:12:
Het hele nut van een jail is nu juist dat het een jail is. Hoewel ik hetzelfde wil als jij lijkt het mij juist onlogisch als iets buiten een jail kan komen :P

Werkt een hardlink van /usr/pbi/transmission-amd64/etc/transmission/home/Downloads naar /mnt/download wel?
Je dient een mount toe te voegen voor je jail, ik heb zelf:

dit is de regel die ik heb toegevoegd heb aan fstab (ik gebruik nas4free, via "thebrig", maar het idee is hetzelfde denk ik)

"/main/Downloads /main/jails/bench/main/Downloads nullfs rw 0 0"

voor jou zou dat iets als
"/mnt/download /usr/pbi/transmission-amd64/etc/transmission/home/Downloads nullfs rw 0 0"

moeten zijn

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Unbelievable!

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
# zpool status
  pool: datapool
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
    continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Wed Mar 19 20:04:27 2014
    1.36T scanned out of 3.33T at 2.87G/s, 0h11m to go
    0 resilvered, 40.82% done
config:

    NAME                                            STATE     READ WRITE CKSUM
    datapool                                        DEGRADED     0     0     0
      raidz2-0                                      DEGRADED     0     0     0
        ata-Hitachi_HDS5C3020ALA632_ML0220F30Z09GD  ONLINE       0     0     0
        ata-WDC_WD20EADS-11R6B1_WD-WCAVY2473346     ONLINE       0     0     0
        ata-ST2000DM001-9YN164_W1E0KXJV             ONLINE       0     0     0
        ata-WDC_WD20EARS-00MVWB0_WD-WMAZA1448932    ONLINE       0     0     0
        replacing-4                                 UNAVAIL     36   215     4  insufficient replicas
          ata-WDC_WD20EARS-00MVWB0_WD-WCAZAA800271  UNAVAIL      0     0     0
          ata-WDC_WD20EARS-00MVWB0_WD-WMAZA1451367  UNAVAIL      0     0     0
        ata-Hitachi_HDS5C3020ALA632_ML0220F30Z0A1D  UNAVAIL      0     0     0

errors: No known data errors


Die Hitachi kachelt onderuit tijdens resilvering. Had nog 11 minuten te gaan!

Ik begrijp niet meer zo goed wat er allemaal aan de hand is hoor. Het is alleen met die datapool. Ik geloof niet meer zo goed dat er iets met die disks aan de hand is eigenlijk. Het moet haast wel dat er iets anders aan de hand is, er gaan toch niet 5 disks stuk in een maand tijd?

Maar dan sluit ik het anders aan, start opnieuw op en dan lijkt alles weer goed.

Zou er iets zijn dat na verloop van tijd "stuk" gaat? Een bug ergens of zo?

Hij staat weer te resilveren ... maar veel vertrouwen heb ik er niet meer in hoor ...

:'(

Edit: scan: resilvered 61.9G in 0h38m with 0 errors on Wed Mar 19 20:51:54 2014

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
En dat is de reden dat je voor raidz2 gaat, en niet raidz1 ... in dat geval was je in een hoop stinkende peop beland nu.

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

RAID is geen vervanging voor backups. De data is het probleem niet.

Probleem is dat er continue disks uitvallen met vage ata errors. Die Hitachi zat dus op de M1015 dus het probleem is niet beperkt tot de interne SATA controller(s).

Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 03-10 22:35
Mijn gedachte is om de problemen te zoeken bij een brakke voeding (aansluiting), mocht je die al vervangen hebben dan gaat die vlieger natuurlijk niet op.

Heb je een andere voeding en sata of molex splitters waarmee je de boel kunt aansluiten? Heb anders nog wel een zwikje sata splitters om die uit te sluiten?

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 05-10 23:03
InflatableMouse schreef op woensdag 19 maart 2014 @ 13:55:
Wat een ellende hier zeg! Nadat de ene na de andere disk stuk is gegaan (3 sinds de bouw van die server) heb ik continue problemen met een specifieke disk die uitvalt en dus een pool degraded raakt.

Heb em nu weer aan een ander poortje gehangen maar gekke is dat tie het bijna een week goed heeft gedaan en nu ineens weer begint. Ik dacht dat het eindelijk opgelost was :(.

Als tie er nu niet mee ophoudt ga een een nieuw kabeltje ergens uit een doos trekken.
Doet mij ook meteen aan de voeding en bekabeling denken: is de bekabeling, voeding en netspanning wel in orde? Een rotte voeding, netstekker, sata of power plug kan een hoop ellende veroorzaken iig. Zo kan moederbord vrolijk doordraaien op de 5V rail terwijl de HDD spindles zich stukdraaien op een rotte 12V.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Het is misschien een beetje ver gezocht... Maar heb je al eens naar je voeding gekeken?
Brakke voedingen willen ook nog wel eens voor onvoorspelbare problemen zorgen.
Maar in jou geval begint dit wel extreme vormen aan te nemen....

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Goeie inderdaad! Gisterenavond viel me ook al op dat de probleemdisks aan de splitters hangen.

De voeding is aan de lichte kant maar op zich wel voldoende. Ik denk echter dat het komt omdat er maar 1 kabel is met molex stekkers, en daar zitten toevallig alle splitters naar sata converters aan.

Dus ik moet of sata Y-splitters hebben zodat ik de splitters kan verdelen over de verschillende kabels of ik moet een nieuwe voeding hebben.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Hmmmmm.... Y-splitters....
Daar krijg ik jeuk van.
Die willen zeker nog al eens de oorzaak zijn van problemen. Vooral de molex-splitters willen nog wel eens geen goed contact maken en bij de minste geringste trilling gaan ze 'vonken' met alle gevolgen van dien voor de disks.
Ik probeer het zoveel mogelijk te vermijden. En als het dan toch moet, dan doe ik het op floppy/cardreaders/CD-/DVD-drives etc.

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Maar ja, ik kan geen voeding vinden met 13 SATA connectors ... Seasonic (1 kW) heeft er 11.

Of is het zo dat je voor die modulaire voedingen los kabels er bij kan kopen om meer aan te sluiten?

Acties:
  • 0 Henk 'm!
Veel mensen gebruiken deze:
http://highflow.nl/aanslu...h-capacitor-sst-cp06.html

Persoonlijk heb ik niets tegen Molex, maar je moet wel heel goed uitkijken. Van die goedkope kneut splitters zijn inderdaad niet handig. Ik gebruik deze:

http://highflow.nl/aanslu...remium-sleeved-black.html

Maar als je echt zoveel disks van stroom wil voorzien, zou ik toch opteren voor een fatsoenlijke kast met een backplane...

[ Voor 13% gewijzigd door FireDrunk op 20-03-2014 10:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
Je zou ook voor deze splitters kunnen gaan: pricewatch: Silverstone SST-CP06 4x SATA Je krijgt er dan drie keer SATA bij. De kabels zijn wel behoorlijk stug, maar na wat buigen zijn ze flexibel genoeg om om te kunnen gaan met kleinere afstanden tussen de schijven.
Of anders moet je zelf een mooie kabel in elkaar zetten. Bijvoorbeeld door de kabels van een ATX voeding in te zetten. Daar knip je dan een aantal draden vanaf en je zet daar dan SATA power connectors op.
Afbeeldingslocatie: http://i.ebayimg.com/t/90-Degrees-Sata-Power-Connector-With-End-Cap-For-Cable-Modding-Shakmods-New-/00/s/NTAwWDUwMA==/z/PIwAAOxydlFSsZXq/$_12.JPG
Let er daarbij op dat je niet enkel 'end cap' connectors neemt. Je wil de kabel er ook doorheen laten gaan. ;) Nog meer Tweakers punten als je gewoon een andere kabel pakt en de SATA power connectoren daar vanaf haalt en die op een nieuwe kabel plaatst.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 04-10 14:38
Deze gebruik ik ook al jaren, voor goede montage en onderlinge afstanden gebruik ik oude defecte harde schijven.. ;)

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Seasonic X-650 erin gezet en een nieuwe degelijke molex-sata converter er in gezet. Zit beter, netter en die converter zit op een eigen aansluiting ipv met nog 2 of 3 andere disks er bij aan.

Ben meteen maar een scrub aan het runnen na het drama van gisterenavond (server heeft uitgestaan tot nu net).

Nog geen fouten, maar staat pas een uurtje aan of zo.

Fingers crossed!!

Acties:
  • 0 Henk 'm!

Verwijderd

Idee: Bestanden ontsluiten via NFSv4 én Samba4 gekoppeld aan ActiveDirectory. Zou een mooie combinatie zijn als ACL manipulaties in beide client werelden (NFSv4 clients Linux - en SMB clients Win7) dezelfde toegang krijgen. Iemand hier ervaring mee? :?

( als winbind voor nss en pam ingezet kan worden dan zou m.i. de resolving consistent moeten zijn over meerdere servers gezien er in NFSv4 met name strings wordt gewerkt i.p.v. numerieke uid's/gid's )

Acties:
  • 0 Henk 'm!

  • kunnen
  • Registratie: Februari 2004
  • Niet online
-

[ Voor 101% gewijzigd door kunnen op 22-03-2014 03:20 ]


Acties:
  • 0 Henk 'm!
Als je toch al BTFS draait, waarom dan de moeite doen om over te stappen op ZFS?
En je kan denk ik ook gewoon je mirror breken, disk op LUKS leggen, en weer syncen, dan andere disk detachen, en op LUKS leggen en weer syncen.

Dan heb je ook encrypted BTRFS gok ik zo.

Even niets...


Acties:
  • 0 Henk 'm!

  • gertvdijk
  • Registratie: November 2003
  • Laatst online: 03-10 12:27
kunnen schreef op donderdag 20 maart 2014 @ 23:36:
[...]
mijn root filesystem (nu op SSD)
[...]
Dan zou ik dus booten van een enkele ZFS-pool van de 3 hard drives in een RAID-constructie (RAIDZ?), en de 3 SSDs als L2ARC/ZIL gebruiken.
[...]
En is de uiteindelijke performance ongeveer vergelijkbaar met mijn huidige SSD-snelheid? Of kan ik mijn setup beter houden zoals die is?
L2ARC is niet persistent. Na een reboot wordt net als je swap partitie dit als een pristine schoon volume gezien.
https://github.com/zfsonlinux/zfs/issues/925
Met andere woorden; alle reads tijdens boot zijn allemaal misses en zal dus dezelfde snelheid hebben als alleen harddisks.
Illumos heeft het al wel voor elkaar, trouwens. http://wiki.illumos.org/display/illumos/Persistent+L2ARC

[ Voor 8% gewijzigd door gertvdijk op 21-03-2014 09:23 ]

Kia e-Niro 2021 64 kWh DynamicPlusLine. See my GitHub and my blog for articles on security and other stuff.


Acties:
  • 0 Henk 'm!

  • PsychoG
  • Registratie: Augustus 1999
  • Laatst online: 19-09 06:41

PsychoG

Pumpin&#039; on your stereo...

gertvdijk schreef op vrijdag 21 maart 2014 @ 09:22:
[...]

L2ARC is niet persistent. Na een reboot wordt net als je swap partitie dit als een pristine schoon volume gezien.
https://github.com/zfsonlinux/zfs/issues/925
Met andere woorden; alle reads tijdens boot zijn allemaal misses en zal dus dezelfde snelheid hebben als alleen harddisks.
Illumos heeft het al wel voor elkaar, trouwens. http://wiki.illumos.org/display/illumos/Persistent+L2ARC
Klein toevoeging maar Persistent L2ARC is nog niet code-complete in Illumos (helaas).

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 05-10 21:18
InflatableMouse schreef op donderdag 20 maart 2014 @ 18:57:
Seasonic X-650 erin gezet en een nieuwe degelijke molex-sata converter er in gezet. Zit beter, netter en die converter zit op een eigen aansluiting ipv met nog 2 of 3 andere disks er bij aan.

Ben meteen maar een scrub aan het runnen na het drama van gisterenavond (server heeft uitgestaan tot nu net).

Nog geen fouten, maar staat pas een uurtje aan of zo.

Fingers crossed!!
Ik heb nog wel wat sata kabels van Seasonic liggen voor de X voedingen.
Volgens mij kun je toch 6 x modulaire stekker kwijt ?
Dan heb je met 6 2 voudige 12, en met 5 2-voudige en een 3 voudige 13.

Ik moet kijken welke ik heb liggen, je kunt ze tegen portokosten krijgen van me. (Seasonic stuurt ze op aanvraag ook naar je op)
Ik gebruik alleen de molex stekkers voor norco backplanes, dus doe niets meer met de sata.
Heb ook nog wel 1 of 2 speciaal gemaakte, die hebben 5 sata power, maar die passen alleen op een 5 in3 rack qua spacing.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

jacovn schreef op vrijdag 21 maart 2014 @ 11:07:
[...]

Ik heb nog wel wat sata kabels van Seasonic liggen voor de X voedingen.
Volgens mij kun je toch 6 x modulaire stekker kwijt ?
Dan heb je met 6 2 voudige 12, en met 5 2-voudige en een 3 voudige 13.

Ik moet kijken welke ik heb liggen, je kunt ze tegen portokosten krijgen van me. (Seasonic stuurt ze op aanvraag ook naar je op)
Ik gebruik alleen de molex stekkers voor norco backplanes, dus doe niets meer met de sata.
Heb ook nog wel 1 of 2 speciaal gemaakte, die hebben 5 sata power, maar die passen alleen op een 5 in3 rack qua spacing.
Hey, bedankt voor het aanbod maar het is niet nodig. Ik kan zoals je ook al aangeeft desnoods ook bij Seasonic aanvragen maar tot nu toe is het allemaal goed! Geen fouten meer en dat verloopstekkertje is van goede kwaliteit, zit verder niet in de weg.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 05-10 21:18
Mooi, als het je uit je lijden had verlost had je ze mogen hebben:)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 05:47
Hallo na het installeren van versie 11.0-001 zfsguru staan er allerlei services al geinstalleerd die op de vorige versie ook geinstalleerd stonden.
Echter willen deze services niet starten maar zijn allemaal wel gedownload en geinstalleerd.
Ook na verschillende reboots blijft dit hetzelfde?
Na het verwijderen en opnieuw installeren werken ze ook nog niet en krijg ik ze met geen mogelijk werkend.
Wie herkend dit probleem en kan mij wijzen in de goeie richting?

Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 08:16

sphere

Debian abuser

Verwijderd schreef op donderdag 20 maart 2014 @ 22:35:
Idee: Bestanden ontsluiten via NFSv4 én Samba4 gekoppeld aan ActiveDirectory. Zou een mooie combinatie zijn als ACL manipulaties in beide client werelden (NFSv4 clients Linux - en SMB clients Win7) dezelfde toegang krijgen. Iemand hier ervaring mee? :?

( als winbind voor nss en pam ingezet kan worden dan zou m.i. de resolving consistent moeten zijn over meerdere servers gezien er in NFSv4 met name strings wordt gewerkt i.p.v. numerieke uid's/gid's )
Ik ken geen open source oplossing hiervoor. Gaat mis met locking. NetApp kan het wel bijv. en dan nog hebben we op de zaak soms problemen.

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ikkeenjij36 schreef op vrijdag 21 maart 2014 @ 19:14:
Hallo na het installeren van versie 11.0-001 zfsguru staan er allerlei services al geinstalleerd die op de vorige versie ook geinstalleerd stonden.
Echter willen deze services niet starten maar zijn allemaal wel gedownload en geinstalleerd.
Ik denk dat je dezelfde servicedirectory hergebruikt. Probeer je installatie een andere naam te geven; dat kan bij stap 4 van de installatie. Maar je kunt ook de zfsguru/services/11.0-001 service folder verwijderen (files pagina->show system fs->destroy) en doe dan een nieuwe installatie.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 05:47
Ja idd dit wass de oplossing cipher bedankt weer.
Ik wacht met spanning af op de geupdate versie en ga die dan maar eens uitproberen.
Nu nog even een vraagje,ik kan van mijn server af geen nfs instellen.
Heb de mappen ook met nfs geshared maar zowel xbmc op mijn laptop en op mijn raspberrypi ziet of vindt geen nfs shaes als ik ze bij/in wil voegen en ook gaat mijn library niet naar de mysql server toe,of kan ik beter deze dingen in het xbmc forum stellen?
Ook wil de server niet meer verschijnen in mijn netwerk omgeving,hij is wel nog te bereiken via ip adres en ssh enz.
Bedankt weer voor je vlotte hulp hier.

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 10:15
Als je de shares in XBMC niet kunt vinden, dan kun je nog proberen om het IP + sharepad zelf in te voeren.
Hier werkt het prima.

http://wiki.xbmc.org/?title=NFS#NFS_sharing_from_ZFSGuru

Acties:
  • 0 Henk 'm!
Dadona schreef op donderdag 20 maart 2014 @ 10:12:
Je zou ook voor deze splitters kunnen gaan: pricewatch: Silverstone SST-CP06 4x SATA Je krijgt er dan drie keer SATA bij. De kabels zijn wel behoorlijk stug, maar na wat buigen zijn ze flexibel genoeg om om te kunnen gaan met kleinere afstanden tussen de schijven.
Of anders moet je zelf een mooie kabel in elkaar zetten. Bijvoorbeeld door de kabels van een ATX voeding in te zetten. Daar knip je dan een aantal draden vanaf en je zet daar dan SATA power connectors op.
[afbeelding]
Let er daarbij op dat je niet enkel 'end cap' connectors neemt. Je wil de kabel er ook doorheen laten gaan. ;) Nog meer Tweakers punten als je gewoon een andere kabel pakt en de SATA power connectoren daar vanaf haalt en die op een nieuwe kabel plaatst.
Zo heb ik het idd gedaan, plugs van een defecte silverstone splitter gehaald en van een voeding en zo beginnen modden.

Idee had ik origineel van deze kerel: YouTube: Black Dwarf Videos

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Ik vraag me al een tijdje wat af. Vooral sinds ik nu Ubuntu draai.

Ik zie dat linux zelf ook een deel van het geheugen reserveert voor cache. En hoewel ik een beetje geheugen als cache prima (aangezien mijn root partitie ext4 is) hoef dat helemaal niet zoveel te zijn. Het komt van SSD's af (mdadm mirror) en word puur gebruikt om op te starten en wat programma's vanaf te draaien. Alle andere data bevind zich netjes in ZFS pools.

Helaas kan ik nergens vinden waar ik een max cache grootte of iets dergelijks kan instellen. Heeft iemand van jullie een idee? Ik zou 2GB of zelfs 4GB aan cache prima vinden, maar 7GB is nergens voor nodig, zoveel binaries laad ik niet eens in mijn mijn (ext4) root partitie (qua gevoel iig).

7531940 cached

Ik heb dan ook ergens het vermoeden dan linux stiekem ook zaken mijn van ZFS volumes aan het cachen is, wat uiteraard niet de bedoeling is.

code:
1
2
3
4
5
top - 21:06:47 up 13 days,  6:02,  1 user,  load average: 0.04, 0.13, 0.11
Tasks: 407 total,   1 running, 406 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.2 us,  0.2 sy,  0.0 ni, 99.2 id,  0.3 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem:  24577560 total, 24380100 used,   197460 free,   192036 buffers
KiB Swap:        0 total,        0 used,        0 free,  7531940 cached[


Iemand een idee?

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 05:47
Hallo van alles geprobeerd delen met nfs aan en uitgezet op de server mappen van de shares verwijderd en opnieuw aangemaakt maar de nfs shares worden nog steeds niet gezien door xbmc?
Wat doe ik/gaat er hier fout?

Acties:
  • 0 Henk 'm!
We hebben nog steeds geen glazen bol...

Wat probeer je te bereiken?
Wat heb je al gedaan (exacte instellingen)?
Wat is je verwachtte uitkomst?
Wat is de daadwerkelijke uitkomst?
Wat zeggen de log files?

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 05:47
FireDrunk schreef op zondag 23 maart 2014 @ 12:02:
We hebben nog steeds geen glazen bol...

Wat probeer je te bereiken?
Wat heb je al gedaan (exacte instellingen)?
Wat is je verwachtte uitkomst?
Wat is de daadwerkelijke uitkomst?
Wat zeggen de log files?
Ik heb nfs shares gemaakt voor de mappen films en tvseries zodat ik met xbmc die kan/wil bereiken/toevoegen omdat samba teveel buffering geeft.
Dus mappen verwijderd opnieuw aangemaakt/gedeeldmet nfs.Logfiles zeggen helemaal niks omdat de files volgens de server gewoon gedeeld zijn in/met nfs.

Acties:
  • 0 Henk 'm!
Ik ga er even vanuit dat je nog steeds ZFSguru gebruikt? Hoe heb je de shares exact geconfigureerd?

(maak anders even een screenshotje van je Share pagina :) )

Even niets...


Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 08:16

sphere

Debian abuser

Quindor schreef op zaterdag 22 maart 2014 @ 21:18:
Helaas kan ik nergens vinden waar ik een max cache grootte of iets dergelijks kan instellen. Heeft iemand van jullie een idee? Ik zou 2GB of zelfs 4GB aan cache prima vinden, maar 7GB is nergens voor nodig, zoveel binaries laad ik niet eens in mijn mijn (ext4) root partitie (qua gevoel iig).

7531940 cached

Ik heb dan ook ergens het vermoeden dan linux stiekem ook zaken mijn van ZFS volumes aan het cachen is, wat uiteraard niet de bedoeling is.
Waar baseer je al deze uitspraken op? Heb je liever dat je OS niks cachet en zodra jij wat nodig hebt page faults genereert en het van de disk moet halen? Linux is geen Windows.

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!
Nee, hij wil dat het uit ARC komt in plaats van regulier Linux Cache, en Windows kent hetzelfde mechanisme hoor (vanaf Vista).

Even niets...

Pagina: 1 ... 115 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.