Acties:
  • 0 Henk 'm!

  • nwagenaar
  • Registratie: Maart 2001
  • Laatst online: 22:08

nwagenaar

God, root. What's the differen

Uiteraard al geprobeerd :+

WTF. Het werkt. Ik moest een import doen op basis van disk-by-id en voila. Volume is nu groter geworden :s

[ Voor 67% gewijzigd door nwagenaar op 05-02-2015 12:17 ]

Mijn Neo Geo MVS collectie


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

nwagenaar schreef op donderdag 05 februari 2015 @ 12:12:
Uiteraard al geprobeerd :+

WTF. Het werkt. Ik moest een import doen op basis van disk-by-id en voila. Volume is nu groter geworden :s
Zoals FD in zijn ZoL storage blog aanhaalt is het aanmaken en export/import op basis van /dev/disk-by-id "good practice" al is het maar omdat je dan je pool eigenlijk straffeloos kunt importeren als je een disk om steekt. Dit laatste geeft problemen als je /dev/sda aanhoudt.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
Misschien staat dit al wel ergens in dit topic, maar ik heb het niet kunnen vinden.
In de inleiding staat een tegenstrijdigheid, volgens mij, betreffende ZIL/L2ARC

Bij Krachtige ZFS NAS: "Solid State Drives: 1x Intel 320 voor Dedicated ZIL en een Crucial M4 / Samsung 830 of reguliere consumenten SSD voor L2ARC caching. Deze dien je te gebruiken op de onboard SATA van de chipset (AHCI)."

Verder op bij "Kan ik een of meerdere SSD's voor meerdere taken gebruiken?": "Met meerdere SSDs wil je alle taken spreiden over alle SSDs. Wat je niet wilt is een SSD helemaal voor SLOG gebruiken en de ander helemaal voor L2ARC. Dan worden ze ongelijkmatig belast en haal je geen performancevoordeel wat je anders wel zou hebben. Je wilt dus juist de taken gelijkmatig verdelen over al je SSDs. L2ARC doe je altijd in striping (RAID0) terwijl SLOG je voor mirroring kunt kiezen."

Wat is nu waarheid?
En wat voor SSDs kan je hier tegenwoordig het beste voor pakken?

Ik ben namelijk op dit moment een server aan het samen stellen die deels voor storage gaat dienen, en deels als datastore voor een ESXi machine, beide via iSCSI:
- SuperMicro X10SRH-CLN4F
- Intel Xeon E5-1620 V3
- Kingston ValueRAM KVR21R15S4K4/32
- 6x WD Red SATA 6 Gb/s WD50EFRX
- ZIL/L2ARC disk, welke zouden hiervoor aan te raden zijn?

Ik zit zelf nog even te twijfelen of er genoeg geheugen in zit? De 6 keer 5TB zou als RAID-Z2 geconfigureerd worden.
Of denk ik juist te groot, en is 32GB ruim zat, ook als ik in de toekomst nog wat disks er bij zou prikken? Oftewel zou ik ook met een Xeon E3 af kunnen?

Acties:
  • 0 Henk 'm!
Ik heb jaren lang een ZFS machine met 8GB RAM gedraait, en dat werkte prima. Ook als target storage voor VM's. Zolang die 8GB goed verdeelt is (2GB OS en 6GB ARC in mijn geval) zul je niet snel performance degradatie zien.

Ga je dingen als L2ARC gebruiken voor een pool van 2TB, ga je inderdaad wat krap in je geheugen zitten. L2ARC kost nou eenmaal wat geheugen.

Het zelfde geld in een nog grotere mate voor Deduplication omdat de DDT tables in RAM opgeslagen moeten worden.

Het ligt *TOTAAL* aan je eisen en doelen voor het systeem... Jij zegt ISCSi target voor een ESXi machine, dan denk ik:

- Hoeveel VM's?
- Hoeveel IOPS?
- Wat voor lijn leg je tussen de machines?
- Hoe groot wil je je (L2)ARC maken?
- Wil je compressie gebruiken?
- Wil je Deduplicatie gebruiken?

Even niets...


Acties:
  • 0 Henk 'm!

  • funnyname
  • Registratie: Juni 2002
  • Laatst online: 16-11-2023
Ik heb op twee MB's en drie controllers geprobeerd WDTLER te draaien, maar iedere keer krijg ik de melding dat er geen drives gevonden kunnen worden, waarschijnlijk omdat mijn controller niet ondersteund wordt ..
(Z77 AHCI controller, C222 AHCI controller en LSI 2308 RT controller)

Wat is nu precies de impact op de WD RED schijven als ik TLER op 7 sec. laat staan?

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
Het ligt *TOTAAL* aan je eisen en doelen voor het systeem... Jij zegt ISCSi target voor een ESXi

machine, dan denk ik:
Goede vragen, ik heb niet overal een antwoord op, want ik ben er nog niet zo in thuis.
Ben met ZFS thuis begonnen, in de hobbysfeer, maar door het starten van een nieuw bedrijf, ben ik verantwoordelijk geworden voor het IT-gedeelte. Ik heb er wel wat feeling voor, maar ik heb geen opleiding richting systeembeheerder of iets dergelijks gevolgd. Ben van oorsprong een C++/C# ontwikkelaar met een Technische Informatica opleiding.

Ik ga zo goed mogelijk proberen antwoord te geven op je vragen.
In het begin een stuk of 10, later worden het er waarschijnlijk meer. Zijn wat simpele Linux webservers, wat linux database "servers" en een OpenVPN AS appliance.
Later komen er waarschijnlijk wat database servers bij, die ook zwaarder belast worden.
Dit weet ik niet precies.
FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Wat voor lijn leg je tussen de machines?
Mijn huidige plan is om twee 1 gigabit verbindingen te trunken, ik wilde niet gelijk naar 10 gigabit of iets
dergelijks. Of het moet hier duidelijk worden dat dat moet voor de gewenste snelheid.
FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Hoe groot wil je je (L2)ARC maken?
Zoals al gezegd, ik heb op dit moment te weinig praktijkervaring om hier een antwoord op te geven.
Door RAID-Z2 zou het om 20TB effectief beschikbare ruimte gaan.
FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Wil je compressie gebruiken?
- Wil je Deduplicatie gebruiken?
Zou leuk zijn om te kunnen gebruiken, maar is niet perse nodig. HDs zijn geselecteerd op wat we denken nodig te zijn.
Wat ik er van lees, lijkt het voornamelijk de CPU te belasten? Vanuit dat oogpunt zou het wel moeten kunnen, lijkt me?


Daarnaast hou ik wel rekening met de mogelijkheid om in de ESXi server zelf een paar schijven te zetten, al dan niet via ZFS, voor HD intensieve virtual machines.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Voor bedrijfsmatige toepassingen zou ik zelf wel een SLOG gebruiken met twee SSD partities gemirrord. Want alhoewel dit niet verplicht is, zou je IO writes instorten als een SLOG device er mee kapt. Idem voor L2ARC. Omdat SSDs al zo tyfus snel en behoorlijk goedkoop zijn, vind ik mirrorren van SSDs verstandiger dan RAID0 gaan doen voor performance die je de komende 3 jaar niet gaat benutten.

Acties:
  • 0 Henk 'm!
yamahabest schreef op donderdag 05 februari 2015 @ 20:16:
[...]


Goede vragen, ik heb niet overal een antwoord op, want ik ben er nog niet zo in thuis.
Ben met ZFS thuis begonnen, in de hobbysfeer, maar door het starten van een nieuw bedrijf, ben ik verantwoordelijk geworden voor het IT-gedeelte. Ik heb er wel wat feeling voor, maar ik heb geen opleiding richting systeembeheerder of iets dergelijks gevolgd. Ben van oorsprong een C++/C# ontwikkelaar met een Technische Informatica opleiding.

Ik ga zo goed mogelijk proberen antwoord te geven op je vragen.


[...]


In het begin een stuk of 10, later worden het er waarschijnlijk meer. Zijn wat simpele Linux webservers, wat linux database "servers" en een OpenVPN AS appliance.
Later komen er waarschijnlijk wat database servers bij, die ook zwaarder belast worden.
Het is even belangrijk om enigzins een beeld te hebben van de load. 10 VMś die stil staan, genereren praktisch 0 load. 9 VMś die niks staan te doen, en 1 VM die continu staat te benchen, is natuurlijk weer een ander verhaal.

Mijn idee: Als je je VM's echt alleen zelf gebruikt, dus zonder enige echte (test-)gebruiker, kan je er wel 100 op een testclustertje draaien.
[...]


Dit weet ik niet precies.


[...]


Mijn huidige plan is om twee 1 gigabit verbindingen te trunken, ik wilde niet gelijk naar 10 gigabit of iets
dergelijks. Of het moet hier duidelijk worden dat dat moet voor de gewenste snelheid.
iSCSI, NFS of FibreChannel? (Of zelfs InfiniBand?, maar dat gok ik niet :+)
[...]


Zoals al gezegd, ik heb op dit moment te weinig praktijkervaring om hier een antwoord op te geven.
Door RAID-Z2 zou het om 20TB effectief beschikbare ruimte gaan.


[...]


Zou leuk zijn om te kunnen gebruiken, maar is niet perse nodig. HDs zijn geselecteerd op wat we denken nodig te zijn.
Wat ik er van lees, lijkt het voornamelijk de CPU te belasten? Vanuit dat oogpunt zou het wel moeten kunnen, lijkt me?
Compressie is niet zo duur (je hebt alleen een fatsoenlijke CPU nodig.
Deduplicatie is een verhaal apart, dat is echt een _hele_ zware optie. Het kost je veel RAM, en op een dataset van 20TB zou ik het niet eens aan durven zetten met 64GB geheugen.

Als je daarentegen Deduplicatie aan zet voor een 500GB-1TB LUN met VM's, hoef je je een stuk minder druk te maken.
Daarnaast hou ik wel rekening met de mogelijkheid om in de ESXi server zelf een paar schijven te zetten, al dan niet via ZFS, voor HD intensieve virtual machines.
Precies wat ik heb gedaan. Een lokale SSD voor de kleine Test VM's. Voor het grotere werk een paar HDD's.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Heb nu sinds 2 jaar een goed werkende NAS met ZFSGURU. De laatste paar maanden geeft ie alleen vaak problemen met het gebruik van transmission. Op een gegeven moment is de NAS niet meer te bereiken en geeft ie een "re0: watchdog timeout" aan. Na wat googlen schijnt dit te maken te hebben met de onboard ethernet poort van het moederbord (Asrock B75 Pro3-M). Echter heb ik niet direct een oplossing voor dit probleem kunnen vinden.

iemand een idee?

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
Verwijderd schreef op vrijdag 06 februari 2015 @ 13:39:
Heb nu sinds 2 jaar een goed werkende NAS met ZFSGURU. De laatste paar maanden geeft ie alleen vaak problemen met het gebruik van transmission. Op een gegeven moment is de NAS niet meer te bereiken en geeft ie een "re0: watchdog timeout" aan. Na wat googlen schijnt dit te maken te hebben met de onboard ethernet poort van het moederbord (Asrock B75 Pro3-M). Echter heb ik niet direct een oplossing voor dit probleem kunnen vinden.

iemand een idee?
Een Intel nic kopen :+

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Klopt ja, die Realtek NIC gaat flippen bij bepaalde load. Ik heb er nu op 11-CURRENT geen last meer van, maar dat kan ook door mijn gebruiksgedrag komen.

De oplossing is vrij simpel: koop een Intel PRO/1000 CT kaartje voor twee tientjes en gebruik die ipv je Realtek-chip.

Acties:
  • 0 Henk 'm!
Je kan ook eens proberen om in je BIOS ASPM uit te zetten... Ik heb ook wel eens een crashende Realtek NIC gehad omdat hij (door wat custom scripting enzo :+) teveel in standby ging, en instabiel werd.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Heb gelijk maar even een upgrade gedaan naar 11-Current. Eens kijken of dat verschil maakt en hoe lang ie het zo volhoudt.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Het is misschien flauw, maar wel het beste advies wat er is voor mensen die zelf iets bouwen. Alleen Intel of HP nics voor mijn apparatuur. Anders alleen maar gezeik. En qua kosten hebben we het over tientjes werk.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Q schreef op vrijdag 06 februari 2015 @ 17:45:
[...]


Het is misschien flauw, maar wel het beste advies wat er is voor mensen die zelf iets bouwen. Alleen Intel of HP nics voor mijn apparatuur. Anders alleen maar gezeik. En qua kosten hebben we het over tientjes werk.
Niks niet flauw, ik heb een msi bord met celeron gekocht, onder windows prima, maar onder esxi wordt de nic niet herkend. Onder freebsd overigens wel.
Uiteraard ook geen intel nic. Ik had nog een 2 poort intel liggen, en die erin en alles werkte gelijk.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • funnyname
  • Registratie: Juni 2002
  • Laatst online: 16-11-2023
funnyname schreef op donderdag 05 februari 2015 @ 17:21:
Ik heb op twee MB's en drie controllers geprobeerd WDTLER te draaien, maar iedere keer krijg ik de melding dat er geen drives gevonden kunnen worden, waarschijnlijk omdat mijn controller niet ondersteund wordt ..
(Z77 AHCI controller, C222 AHCI controller en LSI 2308 RT controller)

Wat is nu precies de impact op de WD RED schijven als ik TLER op 7 sec. laat staan?
Kan iemand hier nog wat over zeggen :?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Voor DOS moet je je controller in IDE mode instellen; met AHCI/RAID wordt vrijwel altijd je disk niet herkend.

TLER disks met ZFS werken prima. Het gevaar komt pas als je array degraded is en de disk dus de laatste mogelijkheid om data terug te winnen. Pas in die situatie heb je een nadeel aan TLER wanneer er bad sectors komen die vervolgens niet kunnen worden recovered door TLER die de recoverytijd tot 7 seconden beperkt. Zolang je pool redundant is zoals mirror/RAID-Z zonder missende disks, dan is er geen nadeel aan TLER disks.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

jacovn schreef op vrijdag 06 februari 2015 @ 17:58:
[...]

Niks niet flauw, ik heb een msi bord met celeron gekocht, onder windows prima, maar onder esxi wordt de nic niet herkend. Onder freebsd overigens wel.
Uiteraard ook geen intel nic. Ik had nog een 2 poort intel liggen, en die erin en alles werkte gelijk.
esxi doet het prima met mijn Realtek nic anders, je moet alleen zelf een esxi-image maken met de drivers erin.

Acties:
  • 0 Henk 'm!

  • funnyname
  • Registratie: Juni 2002
  • Laatst online: 16-11-2023
OK thanks for the info (en eigenlijk logisch dat onder DOS de controller op IDE moet staan, dat had ik zelf moeten bedenken..)

Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 24-09 22:56
funnyname schreef op vrijdag 06 februari 2015 @ 19:14:
OK thanks for the info (en eigenlijk logisch dat onder DOS de controller op IDE moet staan, dat had ik zelf moeten bedenken..)
Ik had begrepen dat WDTLER.exe niet zou werken met WD-Reds, zou je kunnen laten weten of dit wel werkt, ik ben wel benieuwd… thanks

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
dcm360 schreef op vrijdag 06 februari 2015 @ 18:39:
[...]

esxi doet het prima met mijn Realtek nic anders, je moet alleen zelf een esxi-image maken met de drivers erin.
Tja dat gaat mij te ver, en het was me te langzaam op die celeron. Torrents via unbunto op esxi was 200 mbit langzamer dan bare metal unbunto.
Simpelweg te langzame cpu met 1.1 Ghz denk ik.

Het ging meer over the out of box ervaring, niet of het met veel tweaking werkbaar te krijgen is.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • funnyname
  • Registratie: Juni 2002
  • Laatst online: 16-11-2023
Ik kan bevestigen dat WDTLER inderdaad helemaal niet werkt met de WD RED's. (not supported)
Misschien is GREEN toch een mooier kleurtje voor ZFS :X

Acties:
  • 0 Henk 'm!
Mijn Hummingboard i2eX ARMv7 offsite backup draait sinds mijn laatste post echt lekker stabiel:
code:
1
2
root@xbian ~  # uptime
 09:52:32 up 35 days, 20:27,  1 user,  load average: 1.39, 1.15, 0.56

Zo nu en dan bleek het betreffende familielid toch extra stopcontacten nodig te hebben dus werd de Hummingboard hard uit en weer aangezet, maar de laatste 35 dagen loopt het dus prima.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Ik lees net een leuk feitje waar ik zelf niet bij stil stond.

http://www.accs.com/p_and_p/ZFS/ZFS.PDF

Als je een L2ARC gebruikt, dan wordt alle metadata van de data in het L2ARC in je RAM bewaard. Dat betekent dus feitenlijk minder ruimte voor je ARC.

Worst-case gaat je performance dus nog eerder achteruit dan vooruit, omdat nu meer data uit het L2ARC moet komen, wat langzamer is dan RAM. Als ik het goed begrijp ten minste.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:20
Q schreef op zondag 08 februari 2015 @ 20:10:
Ik lees net een leuk feitje waar ik zelf niet bij stil stond.

http://www.accs.com/p_and_p/ZFS/ZFS.PDF

Als je een L2ARC gebruikt, dan wordt alle metadata van de data in het L2ARC in je RAM bewaard. Dat betekent dus feitenlijk minder ruimte voor je ARC.

Worst-case gaat je performance dus nog eerder achteruit dan vooruit, omdat nu meer data uit het L2ARC moet komen, wat langzamer is dan RAM. Als ik het goed begrijp ten minste.
Wat je zegt klopt helemaal. Ik geloof dat je ongeveer rekening moet houden voor elke 5-10GB wat je aan L2ARC neemt, ongeveer 1GB aan geheugen moet reserveren. Doe je dat niet, dan kan inderdaad je performance flink zakken.

Elke situatie is natuurlijk anders, maar normaal gesproken is geheugen toevoegen het best wat je kan doen qua performanceverbetering. :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Grappig, nog meer reden dus om geld in meer RAM te investeren en niet in SSDs.

Acties:
  • 0 Henk 'm!

  • Scooper
  • Registratie: Juni 2001
  • Laatst online: 28-09 08:21
Ik heb nogal rare problemen met mijn ZFS-NAS.

Ik maakte eerst alleen gebruik van mijn Intel-controller waarop 1 SSD (OS+VMs) en 5x 3TB WD Greens zaten in RAID-Z1. Dit heeft een paar jaar probleemloos gewerkt.

Ik heb een half jaar geleden mijn setup bijgewerkt naar een wellicht nogal ongebruikelijk situatie: 1xSSD voor OS en 7x 3TB WD Greens in RAID-Z1. Om ruimteverlies tegen te gaan maak ik gebruik van ashift=9, de pool is dus optimized voor 512B sectoren. Deze keuze heb ik gemaakt omdat mijn mobo 8 SATA-poorten heeft en ik opslag belangrijker vindt dan performance.

De twee extra schijven heb ik aan de on-board ASMedia controller gehangen. Deze staan natuurlijk niet erg goed bekend, maar wederom: performance is redelijk ondergeschikt aan de opslag zelf. Daarnaast hoefde ik nu geen insteekkaarten te bestellen.

Dit draait over het algemeen prima, maar af en toe vliegen er ineens één of meerdere schijven uit. Deze komen dan naar boven met de status 'REMOVED'. Na een volledige power-down worden de schijven weer gevonden en is er niets meer aan de hand. Het gaat elke keer om dezelfde schijven op poort 3 en 4 van de Intel-controller. De load op het systeem is niet de aanleiding voor het offline gooien van de schijven. Dit gebeurt gewoon op willekeurige momenten. Deze momenten kunnen ook ver uit elkaar liggen. In de maand januari heeft het probleem zich helemaal niet voorgedaan en draaide alles prima.

Bij het analyseren van het probleem heb ik als eerste test de SATA-kabels vervangen op de probleempoorten. Helaas heeft dit niet geholpen, want het probleem deed zich weer voor. Als tweede test heb ik de schijven die op deze poorten stonden omgewisseld met de schijven die op poort 5 en 6 van de intel-controller zaten. Helaas wederom geen resultaat. Vanochtend was de pool weer unavailable en waren er 5(!) schijven met de status 'REMOVED'. De grap is dat alle schijven zijn uitgevallen, behalve juist de schijven op poort 3 en 4 van de Intel-controller 8)7

In het log is dit als volgt zichtbaar geworden:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Feb  8 21:16:28 zfsguru kernel: ada7 at ahcich7 bus 0 scbus7 target 0 lun 0
Feb  8 21:16:28 zfsguru kernel: ada7: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0272598 detached
Feb  8 21:16:28 zfsguru kernel: (ada7:ahcich7:0:0:0): Periph destroyed
Feb  8 21:16:28 zfsguru kernel: ada6 at ahcich6 bus 0 scbus6 target 0 lun 0
Feb  8 21:16:28 zfsguru kernel: ada6: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0194729 detached
Feb  8 21:16:28 zfsguru kernel: (ada6:ahcich6:0:0:0): Periph destroyed
Feb  8 21:16:38 zfsguru kernel: ada0 at ahcich0 bus 0 scbus0 target 0 lun 0
Feb  8 21:16:38 zfsguru kernel: ada0: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N1538790 detached
Feb  8 21:16:38 zfsguru kernel: ada3 at ahcich3 bus 0 scbus3 target 0 lun 0
Feb  8 21:16:38 zfsguru kernel: ada3: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0176466 detached
Feb  8 21:16:38 zfsguru kernel: ada1 at ahcich1 bus 0 scbus1 target 0 lun 0
Feb  8 21:16:38 zfsguru kernel: ada1: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N0865516 detached
Feb  8 21:16:38 zfsguru kernel: (ada3:ahcich3:0:0:0): Periph destroyed
Feb  8 21:16:38 zfsguru kernel: (ada1:ahcich1:0:0:0): Periph destroyed
Feb  8 21:16:38 zfsguru kernel: (ada0:ahcich0:0:0:0): Periph destroyed


Hebben jullie ideeën waar dit aan zou kunnen liggen? Ik heb zelf de volgende verdachten:
- ASMedia controller
- Moederbord
- Voeding

Ik draai ZFSGuru 0.2.0-beta10 op FreeBSD 10.0-STABLE (system image 10.1-001).

SRK35ZS-W


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Scooper schreef op maandag 09 februari 2015 @ 10:59:
Ik heb nogal rare problemen met mijn ZFS-NAS.

Ik maakte eerst alleen gebruik van mijn Intel-controller waarop 1 SSD (OS+VMs) en 5x 3TB WD Greens zaten in RAID-Z1. Dit heeft een paar jaar probleemloos gewerkt.

Ik heb een half jaar geleden mijn setup bijgewerkt naar een wellicht nogal ongebruikelijk situatie: 1xSSD voor OS en 7x 3TB WD Greens in RAID-Z1. Om ruimteverlies tegen te gaan maak ik gebruik van ashift=9, de pool is dus optimized voor 512B sectoren. Deze keuze heb ik gemaakt omdat mijn mobo 8 SATA-poorten heeft en ik opslag belangrijker vindt dan performance.

De twee extra schijven heb ik aan de on-board ASMedia controller gehangen. Deze staan natuurlijk niet erg goed bekend, maar wederom: performance is redelijk ondergeschikt aan de opslag zelf. Daarnaast hoefde ik nu geen insteekkaarten te bestellen.

Dit draait over het algemeen prima, maar af en toe vliegen er ineens één of meerdere schijven uit. Deze komen dan naar boven met de status 'REMOVED'. Na een volledige power-down worden de schijven weer gevonden en is er niets meer aan de hand. Het gaat elke keer om dezelfde schijven op poort 3 en 4 van de Intel-controller. De load op het systeem is niet de aanleiding voor het offline gooien van de schijven. Dit gebeurt gewoon op willekeurige momenten. Deze momenten kunnen ook ver uit elkaar liggen. In de maand januari heeft het probleem zich helemaal niet voorgedaan en draaide alles prima.

Bij het analyseren van het probleem heb ik als eerste test de SATA-kabels vervangen op de probleempoorten. Helaas heeft dit niet geholpen, want het probleem deed zich weer voor. Als tweede test heb ik de schijven die op deze poorten stonden omgewisseld met de schijven die op poort 5 en 6 van de intel-controller zaten. Helaas wederom geen resultaat. Vanochtend was de pool weer unavailable en waren er 5(!) schijven met de status 'REMOVED'. De grap is dat alle schijven zijn uitgevallen, behalve juist de schijven op poort 3 en 4 van de Intel-controller 8)7

In het log is dit als volgt zichtbaar geworden:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Feb  8 21:16:28 zfsguru kernel: ada7 at ahcich7 bus 0 scbus7 target 0 lun 0
Feb  8 21:16:28 zfsguru kernel: ada7: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0272598 detached
Feb  8 21:16:28 zfsguru kernel: (ada7:ahcich7:0:0:0): Periph destroyed
Feb  8 21:16:28 zfsguru kernel: ada6 at ahcich6 bus 0 scbus6 target 0 lun 0
Feb  8 21:16:28 zfsguru kernel: ada6: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0194729 detached
Feb  8 21:16:28 zfsguru kernel: (ada6:ahcich6:0:0:0): Periph destroyed
Feb  8 21:16:38 zfsguru kernel: ada0 at ahcich0 bus 0 scbus0 target 0 lun 0
Feb  8 21:16:38 zfsguru kernel: ada0: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N1538790 detached
Feb  8 21:16:38 zfsguru kernel: ada3 at ahcich3 bus 0 scbus3 target 0 lun 0
Feb  8 21:16:38 zfsguru kernel: ada3: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0176466 detached
Feb  8 21:16:38 zfsguru kernel: ada1 at ahcich1 bus 0 scbus1 target 0 lun 0
Feb  8 21:16:38 zfsguru kernel: ada1: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N0865516 detached
Feb  8 21:16:38 zfsguru kernel: (ada3:ahcich3:0:0:0): Periph destroyed
Feb  8 21:16:38 zfsguru kernel: (ada1:ahcich1:0:0:0): Periph destroyed
Feb  8 21:16:38 zfsguru kernel: (ada0:ahcich0:0:0:0): Periph destroyed
Mmm, rondje "m'n glazen bol" doet t vandaag ff niet.
Hebben jullie ideeën waar dit aan zou kunnen liggen? Ik heb zelf de volgende verdachten:
- ASMedia controller
Welke Asmedia controller (wilde gok ASM1062)

Ik heb, voor een bekende, een kleine 2 jaar geleden een storage bakje op basis van een Asrock B75 Pro3-M (ASM0162 SATA) [Intel i3/16 GB RAM) in elkaar gezet. De SSD (OS) is aangesloten op de eerste SATA3 poort vd Intel chipset en de 6 SATA disks resp. 5x op de intel controller en 1 op de 1e poort vd Asm controller.
De bak draait ZFSguru, ik weet niet exact welke versie, maar in ieder geval niet de laatste.
- Moederbord
Welke moederbord en zijn er meer meldingen mbt dit moederbord en SATA problemen?
- Voeding
Wederom welke voeding, wattage, leeftijd (grofweg), etc
Ik draai ZFSGuru 0.2.0-beta10 op FreeBSD 10.0-STABLE (system image 10.1-001).
Zou ik, op t eerste gezicht, geen problemen mee verwachten

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Scooper
  • Registratie: Juni 2001
  • Laatst online: 28-09 08:21
Juist omdat het glazenbol-werk is ben ik benieuwd of iemand anders een dergelijke situatie heeft meegemaakt. Wellicht kan dat mijn oplossingsrichting wat vernauwen.

Het gaat om de ASMedia ASM1061 controller die onboard op het moederbord zit.

Bij deze de specs van de NAS:
Intel i5-3470
16GB DDR3 Corsair
ASRock B75 Pro3-M, SSD inderdaad op de eerste en enige SATA3-poort.
Be-Quiet Pure Power L7 300W
Samsung 830 128GB SSD
7x 3TB WD Green WD30EZRX

Leeftijd van dit geheel is 2,5 jaar.

[ Voor 13% gewijzigd door Scooper op 09-02-2015 12:01 ]

SRK35ZS-W


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Heb je de SMART gecontroleerd van je disks? Wat zegt ZFSguru daarover? Screenshotje van de SMART pagina?

Lijkt mij eerder een gevalletje met kabels; omdat in dezelfde seconde meerdere disks verdwijnen. Power splitter probleem misschien? Gebruik je Molex-stroomsplitterkabels of 100% SATA power?

[ Voor 48% gewijzigd door Verwijderd op 09-02-2015 12:22 ]


Acties:
  • 0 Henk 'm!

  • Scooper
  • Registratie: Juni 2001
  • Laatst online: 28-09 08:21
Afbeeldingslocatie: http://s22.postimg.org/eumx1jw5t/smart.png

De kabel-errors zijn al van voor dit probleem. Dat was een verrotte kabel die inmiddels is vervangen.
Ik zal als ik thuis ben nog wel even controleren hoe de schijven van stroom worden voorzien, kans is aanwezig dat dit ook via molex-splitters is gebeurd. Uiteindelijk worden de schijven wel middels de SATA-power kabels voorzien van stroom.

De inhoudelijk smart ziet er overigens ook overal netjes uit, geen leesfouten en dergelijke.

[ Voor 15% gewijzigd door Scooper op 09-02-2015 13:14 ]

SRK35ZS-W


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Scooper schreef op maandag 09 februari 2015 @ 13:12:
[afbeelding]

De kabel-errors zijn al van voor dit probleem. Dat was een verrotte kabel die inmiddels is vervangen.
Ik zal als ik thuis ben nog wel even controleren hoe de schijven van stroom worden voorzien, kans is aanwezig dat dit ook via molex-splitters is gebeurd. Uiteindelijk worden de schijven wel middels de SATA-power kabels voorzien van stroom.

De inhoudelijk smart ziet er overigens ook overal netjes uit, geen leesfouten en dergelijke.
Idd. even je splitters na kijken, er zijn hier verschillende mensen die met molex -> SATA power splitters gezeur hebben gehad. Uiteindelijk waren deze van Silverstone in mijn geval een betere keuzehttp://tweakers.net/price...one-sst-cp06-4x-sata.html, of je moet losse SATA power connectoren op een kabel zetten.

[ Voor 16% gewijzigd door Pantagruel op 09-02-2015 14:16 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Scooper
  • Registratie: Juni 2001
  • Laatst online: 28-09 08:21
Dat zijn wel mooie dingen inderdaad. Het zou natuurlijk ook nog kunnen dat de voeding de 7 schijven op 1 rail niet aankan, maar dan zou je verwachten dat de schijven eruit vliegen bij hoge load en dat is niet het geval.

Ik ga de splitters/stroom in elk geval even checken. Bedankt voor jullie input.

SRK35ZS-W


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dan zou je dat bij het opspinnen merken, omdat een hardeschijf dan 4 tot 5 keer zoveel verbruikt.

Ik wil zelf nooit meer Molex. Teveel gezeik mee gehad. Als ik een kabel aansluit, wil ik dat die is aangesloten. Niet dat als je met je pink het kabeltje beweegt hij eventjes geen contact meer maakt en dat soort ongein. Dus ik gebruik inderdaad alleen nog maar SATA power splitters.

Of dat je probleem is? Het voldoet in elk geval wel aan de symptomen.

Acties:
  • 0 Henk 'm!

  • Scooper
  • Registratie: Juni 2001
  • Laatst online: 28-09 08:21
Ik heb de schijven wel ingesteld om in standby te gaan, het komt dus regelmatig voor dat alle schijven tegelijk het signaal voor de spin-up krijgen. Ik ga de molex splitters er tussenuit halen en de standby eraf halen. Kijken of het probleem dan nog voorkomt.

SRK35ZS-W


Acties:
  • 0 Henk 'm!

  • M@rijn
  • Registratie: December 2001
  • Laatst online: 21:06
Hier op het werkt geeft de NAS (Nas4free 9.3.0.2 -1310 met M1015 controller) enkele weken na zn upgrade problemen, vorige week een herinstallatie gedaan op een nieuwe USB stick aangezien ik dacht dat daar het probleem in zat maar vanochtend weer het zelfde.

Processen (samba/ rsync en zelfs ls ) die blijven hangen, de zpool status is goed en laat alle schijven als online zien.
Het enige rare wat ik kan vinden is dat als ik top doe dat de vastgelopen processen de STATE zfs hebben en dat het killen van de betreffende processen (dmv. kill -9) ook niet werkt.

Iemand suggesties wat dit zou kunnen zijn?

Acties:
  • 0 Henk 'm!

  • M@rijn
  • Registratie: December 2001
  • Laatst online: 21:06
Oh sorry, k had t er natuurlijk wel even bij kunnen zetten :P

code:
1
2
3
4
5
6
last pid: 23395;  load averages:  2.17,  2.06,  1.61                                                                             up 6+16:58:48  10:24:31
40 processes:  1 running, 38 sleeping, 1 zombie
CPU:  0.4% user,  0.0% nice, 14.9% system,  0.6% interrupt, 84.1% idle
Mem: 82M Active, 180M Inact, 2099M Wired, 80M Buf, 5514M Free
ARC: 1024M Total, 88M MFU, 712M MRU, 18K Anon, 98M Header, 134M Other
Swap: 4096M Total, 4096M Free


Voorbeeld van zo'n proces

code:
1
2
  PID USERNAME      THR PRI NICE   SIZE    RES STATE   C   TIME    WCPU COMMAND
14655 root            1  20    0 19356K  2836K zfs     4   0:00   0.00% rsync

Acties:
  • 0 Henk 'm!
Voor wie er tegenaan loopt. Gisteren is mijn systeem schijf gecrashed. Gelukkig had ik netjes een backup op een externe schijf staan (met de rest van mijn belangrijke data). Dus even booten van een ZFSGuru live cd, vervolgens de backup instellen als systeem schijf:
code:
1
# zpool set bootfs=backup/server/zfsguru/10.1-001 backup


Daarna even de fstab aanpassen naar de nieuwe locatie:
code:
1
2
3
4
# zfs set mountpoint=/opt backup/server/zfsguru/10.1-001
# nano /opt/etc/fstab
...
# zfs set mountpoint=legacy backup/server/zfsguru/10.1-001


Daarna geboot van mijn backup schijf.

Om de backup weer zo snel mogelijk als backup terug te zetten heb ik vervolgens een USB stick ingericht als tijdelijke systeemschijf. Standaard partities (met boot) maken in ZFSGuru, daarna een nieuwe pool aangemaakt.

Vervolgens de systeem backup overgezet naar de USB stick;
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# zfs create xroot/zfsguru
# zfs create xroot/zfsguru/10.1-001
# zfs create xroot/zfsguru/10.1-001/usr
# zfs create xroot/zfsguru/10.1-001/var
# zfs create xroot/zfsguru/10.1-001/var/log

# zfs send backup/server/zfsguru/10.1-001@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001@GMT-2014.11.13-00.00.00
# zfs send backup/server/zfsguru/10.1-001/usr@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001/usr@GMT-2014.11.13-00.00.00
# zfs send backup/server/zfsguru/10.1-001/var@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001/var@GMT-2014.11.13-00.00.00
# zfs send backup/server/zfsguru/10.1-001/var/log@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001/var/log@GMT-2014.11.13-00.00.00

# zfs rollback xroot/zfsguru/10.1-001@GMT-2014.11.13-00.00.00
# zfs rollback xroot/zfsguru/10.1-001/usr@GMT-2014.11.13-00.00.00
# zfs rollback xroot/zfsguru/10.1-001/var@GMT-2014.11.13-00.00.00
# zfs rollback xroot/zfsguru/10.1-001/var/log@GMT-2014.11.13-00.00.00

# zpool set bootfs=xroot/zfsguru/10.1-001 xroot
# zfs set mounpoint=/opt xroot/zfsguru/10.1-001


Dan weer je /opt/etc/fstab aanpassen

code:
1
2
# zfs set mounpoint=legacy xroot/zfsguru/10.1-001
# reboot


Nu kan ik mooi vanaf mijn USB stick booten. Zodra de nieuwe schijf binnen is, maak ik een pool even groot als de huidige USB stick (16GB). Dan kan ik van de nieuwe schijf een mirror maken van de USB stick. Vervolgens haal ik de USB stick weer uit de mirror en heb ik mijn oude systeem weer terug :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
M@rijn schreef op dinsdag 10 februari 2015 @ 10:25:
Oh sorry, k had t er natuurlijk wel even bij kunnen zetten :P

code:
1
2
3
4
5
6
last pid: 23395;  load averages:  2.17,  2.06,  1.61                                                                             up 6+16:58:48  10:24:31
40 processes:  1 running, 38 sleeping, 1 zombie
CPU:  0.4% user,  0.0% nice, 14.9% system,  0.6% interrupt, 84.1% idle
Mem: 82M Active, 180M Inact, 2099M Wired, 80M Buf, 5514M Free
ARC: 1024M Total, 88M MFU, 712M MRU, 18K Anon, 98M Header, 134M Other
Swap: 4096M Total, 4096M Free


Voorbeeld van zo'n proces

code:
1
2
  PID USERNAME      THR PRI NICE   SIZE    RES STATE   C   TIME    WCPU COMMAND
14655 root            1  20    0 19356K  2836K zfs     4   0:00   0.00% rsync
Staat er ergens compressie aan ofzo? Of deduplicatie?

Even niets...


Acties:
  • 0 Henk 'm!

  • M@rijn
  • Registratie: December 2001
  • Laatst online: 21:06
Beide staat uit, ik heb enkel een tweetal SSD's als logs en als cache, m'n zpool status:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
  pool: pool1
 state: ONLINE
status: One or more devices are configured to use a non-native block size.
    Expect reduced performance.
action: Replace affected devices with devices that support the
    configured block size, or migrate data to a properly configured
    pool.
  scan: scrub in progress since Tue Feb 10 10:02:06 2015
        515G scanned out of 1.73T at 295M/s, 1h12m to go
        0 repaired, 29.13% done
config:

    NAME        STATE     READ WRITE CKSUM
    pool1       ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        da2     ONLINE       0     0     0
        da3     ONLINE       0     0     0
        da4     ONLINE       0     0     0
        da5     ONLINE       0     0     0
        da6     ONLINE       0     0     0
        da7     ONLINE       0     0     0
    logs
      da0p1     ONLINE       0     0     0  block size: 512B configured, 4096B native
    cache
      da1p1     ONLINE       0     0     0

errors: No known data errors


Ik weet niet zeker, maar zou het uit de pool halen van de logs en cache ssd een suggestie zijn?

[ Voor 4% gewijzigd door M@rijn op 10-02-2015 10:36 ]


Acties:
  • 0 Henk 'm!
Tja, met een scrub in progress zal het niet snel gaan sowieso :)

Even niets...


Acties:
  • 0 Henk 'm!

  • M@rijn
  • Registratie: December 2001
  • Laatst online: 21:06
Nee klopt die heb ik zojuist nog maar eens aangeslingerd extra omdat ik geen grip krijg op waar het probleem zit en ik bang ben dat er zo files kwijt of corrupt zouden zijn.

Het raarste vind ik persoonlijk is dat een kill -9 niet werkt op de processen, zelfs niet bij een simpele ls.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

@CurlyMo

Mooie mini how-to. Handig als je idd. geen mirrored OS pool draait (saved my butt the last time 8) )
FireDrunk schreef op dinsdag 10 februari 2015 @ 10:44:
Tja, met een scrub in progress zal het niet snel gaan sowieso :)
Nee dan nadert de snelheid vaak aan die van dikke pap door een trechter.
Probeer de neiging om te rebooten (in de hoop dat de traagheid dan weg is) te beheersen want de scrub gaat vrolijk weer verder na de reboot. Maar zo aan de getallen te zien is de scrub straks gedaan.
Aha, lees net dat de scrub handmatig is aangezet.


Voor de duidelijkheid, wat is de upgrade geweest en hoe zit t met de vrije ruimte op t sticky??

[ Voor 12% gewijzigd door Pantagruel op 10-02-2015 10:55 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • M@rijn
  • Registratie: December 2001
  • Laatst online: 21:06
Ja de scrub zit ik niet direct over in, sowieso niet direct over performance, enkel dus bij bepaalde ls of rsync acties. Maar die ls actie's doe ik op mappen waar niet veel in zit.

Acties:
  • 0 Henk 'm!
Hmm, vreemd probleem... Zou zo 1,2,3, niet weten waar je moet zoeken.

Even niets...


Acties:
  • 0 Henk 'm!

  • M@rijn
  • Registratie: December 2001
  • Laatst online: 21:06
Ik begin ondertussen nas4free te verdenken, dat ik 9.2 draaide was er 0 probleem en enkele weken na updaten krijg ik dit nu allemaal. Mogelijk maar eens een downgrade naar 9.2 inplannen... :(

Acties:
  • 0 Henk 'm!
Draai anders eens een:
zfs get all

Even niets...


Acties:
  • 0 Henk 'm!

  • M@rijn
  • Registratie: December 2001
  • Laatst online: 21:06
Geen vreemde dingen zo te zien;

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
NAME   PROPERTY              VALUE                  SOURCE
pool1  type                  filesystem             -
pool1  creation              Wed Jun  4 11:41 2014  -
pool1  used                  1.15T                  -
pool1  available             5.98T                  -
pool1  referenced            1.15T                  -
pool1  compressratio         1.00x                  -
pool1  mounted               yes                    -
pool1  quota                 none                   default
pool1  reservation           none                   default
pool1  recordsize            128K                   default
pool1  mountpoint            /mnt/pool1             local
pool1  sharenfs              off                    default
pool1  checksum              on                     default
pool1  compression           off                    default
pool1  atime                 on                     default
pool1  devices               on                     default
pool1  exec                  on                     default
pool1  setuid                on                     default
pool1  readonly              off                    default
pool1  jailed                off                    default
pool1  snapdir               hidden                 default
pool1  aclmode               discard                default
pool1  aclinherit            restricted             default
pool1  canmount              on                     default
pool1  xattr                 off                    temporary
pool1  copies                1                      default
pool1  version               5                      -
pool1  utf8only              off                    -
pool1  normalization         none                   -
pool1  casesensitivity       sensitive              -
pool1  vscan                 off                    default
pool1  nbmand                off                    default
pool1  sharesmb              off                    default
pool1  refquota              none                   default
pool1  refreservation        none                   default
pool1  primarycache          all                    default
pool1  secondarycache        all                    default
pool1  usedbysnapshots       0                      -
pool1  usedbydataset         1.15T                  -
pool1  usedbychildren        19.1M                  -
pool1  usedbyrefreservation  0                      -
pool1  logbias               latency                default
pool1  dedup                 off                    default
pool1  mlslabel                                     -
pool1  sync                  standard               default
pool1  refcompressratio      1.00x                  -
pool1  written               1.15T                  -
pool1  logicalused           1.15T                  -
pool1  logicalreferenced     1.15T                  -
pool1  filesystem_limit      none                   default
pool1  snapshot_limit        none                   default
pool1  filesystem_count      none                   default
pool1  snapshot_count        none                   default

Acties:
  • 0 Henk 'm!
Ziet er inderdaad heel normaal uit. Je kan nog eens proberen om Logbias te switchen.

Even niets...


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
@m@rijn
Is de hba geflashed naar de versie van de nieuwe nas4free.
Het beste is om deze gelijk te houden. Ik weet zo 1,2,3 niet welke versie van de driver nas4free heeft.
Versie 20 zou ik zo en zo niet gebruiken aangezien daar meer mensen problemene mee hebben.

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
FireDrunk schreef op vrijdag 06 februari 2015 @ 09:49:
Het is even belangrijk om enigzins een beeld te hebben van de load. 10 VMś die stil staan, genereren praktisch 0 load. 9 VMś die niks staan te doen, en 1 VM die continu staat te benchen, is natuurlijk weer een ander verhaal.

Mijn idee: Als je je VM's echt alleen zelf gebruikt, dus zonder enige echte (test-)gebruiker, kan je er wel 100 op een testclustertje draaien.
Het zijn wel machines die gebruikt gaan worden door gebruikers. In het begin een 10 tal gebruikers, een samba server, een subversion server, een dhcp/dns server, een paar test db servers met naar alle waarschijnlijkheid redelijke datasets.
iSCSI, NFS of FibreChannel? (Of zelfs InfiniBand?, maar dat gok ik niet :+)
Mijn plan was om iSCSI te gaan gebruiken. FibreChannel of InfiniBand klinkt goed, als ik het zo na lees op internet, maar ik heb geen ide hoe ik het op moet zetten.
Compressie is niet zo duur (je hebt alleen een fatsoenlijke CPU nodig.
Ik zit op dit moment even te twijvelen tussen een Xeon E3 of een E5, oorspronkelijk was ik voor een Intel Xeon E5-1620 V3 gegaan, maar daarbij was ik er vanuit gegaan, dat er redelijk wat geheugen nodig was. Vanuit die gedachte een E5, want een E3 heeft natuurlijk een maximum van 64GB.
Deduplicatie is een verhaal apart, dat is echt een _hele_ zware optie. Het kost je veel RAM, en op een dataset van 20TB zou ik het niet eens aan durven zetten met 64GB geheugen.

Als je daarentegen Deduplicatie aan zet voor een 500GB-1TB LUN met VM's, hoef je je een stuk minder druk te maken.
In principe ben ik geen deduplicatie/compressie nodig. Kan je deduplicatie aanzetten op een subgedeelte van je pool?
Precies wat ik heb gedaan. Een lokale SSD voor de kleine Test VM's. Voor het grotere werk een paar HDD's.
Ja, maar heb jij dan alles in 1 machine zitten, of heb je een SSD in de ESXi machine en de HDDs in een losse machine?
Zou je voor de veiligheid in de ESXi server 3 SSD's of HDD's in RAID-Z1 zetten, of wil ik dan te veel veiligheid creeren?

Acties:
  • 0 Henk 'm!
Een E3 doet maar 32GB, en ze doen beide Compressie met 3 vingers in hun neus.
Je kan Deduplicatie en Compressie per Filesystem aan of uit zetten.

Over je laatste punt: Ik gebruik VT-d, dus zowel ESXi als ZFS. (Root partitie van de VM staat op de SSD, hij krijgt vanuit ESXi een controller, en daar draait een ZFS pool op.)

Even niets...


Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
Ja, klopt, je hebt gelijk E3 doet maar 32GB.
En ja, op die manier gebruik ik het thuis ook, op een X10SL7-F.

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 20:35
GioStyle schreef op zondag 08 februari 2015 @ 20:29:
[...]


Wat je zegt klopt helemaal. Ik geloof dat je ongeveer rekening moet houden voor elke 5-10GB wat je aan L2ARC neemt, ongeveer 1GB aan geheugen moet reserveren. Doe je dat niet, dan kan inderdaad je performance flink zakken.

Elke situatie is natuurlijk anders, maar normaal gesproken is geheugen toevoegen het best wat je kan doen qua performanceverbetering. :)
Neemt elke 5 tot 10GB aan l2arc nu 1GB geheugen echt in, of is dit een richtlijn voor het alloceren van l2arc?

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ZFS stopt met vullen van de L2ARC zodra je te weinig RAM hebt. Dus te weinig RAM betekent niet volledig gebruikte L2ARC. Dat is alles. L2ARC gebruikt pas ruimte als het daadwerkelijk benut wordt.

L2ARC wordt vooral gebruikt voor non-contiguous I/O dus kleine snippertjes I/O. Dan is een paar gigabyte aan L2ARC eigenlijk al erg veel. In de L1ARC (RAM) worden ook grote datablokken in de MRU opgeslagen; bij L2ARC is dit niet zo.

[ Voor 37% gewijzigd door Verwijderd op 13-02-2015 20:10 ]


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 20:35
ik loop op een test NAS nu tegen een vervelend probleem aan. Er zitten schijven van vershillende pools en verschillende configs in die ik niet leeg gemaakt heb. Als ik een nieuw aangemaakt pool wil importeren, dan vind ie 2 pools met dezelfde naam. Eentje staat op unavailable en andere online.
Ik wil die unavailabe niet meer zien, hoe krijg ik dit voor elkaar? Ik denk dat ie hier met het booten ook op kapot gaat namelijk.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Keiichi schreef op vrijdag 13 februari 2015 @ 22:58:
ik loop op een test NAS nu tegen een vervelend probleem aan. Er zitten schijven van vershillende pools en verschillende configs in die ik niet leeg gemaakt heb. Als ik een nieuw aangemaakt pool wil importeren, dan vind ie 2 pools met dezelfde naam. Eentje staat op unavailable en andere online.
Ik wil die unavailabe niet meer zien, hoe krijg ik dit voor elkaar? Ik denk dat ie hier met het booten ook op kapot gaat namelijk.
Post ten eerste eens wat meer info, anders wordt het lastig helpen. Welk OS, wat zijn je instellingen, wat zeggen de logs etc etc.

is everything cool?


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 20:35
FreeBSD 10.1 installer, vanuit de shell. Geen logs. Het enige wat ik te horen krijg bij zpool import zroot, dat er meerdere pools met die naam zijn waarvan 1tje unavailable.
Ik denk dat er nog ergens metadata gevonden wordt op de huidige schijven van een oude pool toen ik hier een andere partionering op had staan.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Gewoon een 'zpool export <poolnaam>' zal zo'n stale pool doen vergeten. Je kunt bij het importeren ook een parameter meegeven die zorgt dat ZFS de pool niet onthoudt.

* nevermind, verkeerd gelezen :P *

Maar in dat geval: verwijder (destroy) je pool voortaan voordat je er een nieuwe opzet, al helemaal met dezelfde naam. Je kunt de naam trouwens wel veranderen, met het import commando. Zie 'man zpool' bij het kopje over import.

[ Voor 189% gewijzigd door Verwijderd op 14-02-2015 01:10 ]


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
dd eroverheen?

ps. Ik zal zware unit z'n legacy voortzetten (x9scmf,1270,16g en lsi9201-16i). Stack wordt vermoedelijk esxi5.5 + opensm (op gelijkaardige doos) naar debian zfs/scst of nexentastor/openindiana. De solarissen zijn wat performanter maar het hangt er vanaf of ik de IB controllers aan de praat krijg. De esxi + opensm naar debian custom kernel patched zfs/scst heb ik al een tijdje stabiel in lab draaien (tov. nu debian-op-stock-kernel+opensm+zfs+scst naar esxi5.1uNogwat). Kaartjes zijn nog altijd de voltaire 400ex'ds of ik dacht mlnx mhgh28-xtc's

Kleine reminder voor degene hierboven die IB overweegt, doe jezelf een plezier, ga 10gbe of fc.

pps. er staan momenteel 2 10gbe switches in V/A, procurve 910x al-24g en een force10/dell relabel. Als ik mezelf goed genoeg heb ingelezen zou ik met die force10 cx4/sff-externalsas-nogwat kunnen doen naar mn IB kaarten, mogelijk leuke optie aangezien ik de kabels/kaarten toch al heb om dan even 10gbe te bezoeken. Sell me more?

[ Voor 146% gewijzigd door analog_ op 14-02-2015 01:09 ]


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 20:35
Verwijderd schreef op zaterdag 14 februari 2015 @ 00:42:
Gewoon een 'zpool export <poolnaam>' zal zo'n stale pool doen vergeten. Je kunt bij het importeren ook een parameter meegeven die zorgt dat ZFS de pool niet onthoudt.

* nevermind, verkeerd gelezen :P *

Maar in dat geval: verwijder (destroy) je pool voortaan voordat je er een nieuwe opzet, al helemaal met dezelfde naam. Je kunt de naam trouwens wel veranderen, met het import commando. Zie 'man zpool' bij het kopje over import.
Ik heb het uiteindelijk opgelost door een zpool labelclear op alle partities :)

Ander probleem dat nu ook bij m'n nieuwe NAS opgesteekt. L2arc die 'degraded' raakt.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
[root@nas /tank]# zfs-stats -L

------------------------------------------------------------------------
ZFS Subsystem Report                            Sat Feb 14 08:47:28 2015
------------------------------------------------------------------------

L2 ARC Summary: (DEGRADED)
        Passed Headroom:                        1.59m
        Tried Lock Failures:                    69.08k
        IO In Progress:                         1.12k
        Low Memory Aborts:                      14
        Free on Write:                          11.20k
        Writes While Full:                      104.89k
        R/W Clashes:                            38
        Bad Checksums:                          8.70k
        IO Errors:                              3.48k
        SPA Mismatch:                           105.37m

L2 ARC Size: (Adaptive)                         385.20  GiB
        Header Size:                    0.19%   757.99  MiB

L2 ARC Evicts:
        Lock Retries:                           234
        Upon Reading:                           0

L2 ARC Breakdown:                               1.84m
        Hit Ratio:                      3.48%   63.97k
        Miss Ratio:                     96.52%  1.77m
        Feeds:                                  118.49k

L2 ARC Buffer:
        Bytes Scanned:                          44.07   TiB
        Buffer Iterations:                      118.49k
        List Iterations:                        6.72m
        NULL List Iterations:                   2.29m

L2 ARC Writes:
        Writes Sent:                    100.00% 108.50k

------------------------------------------------------------------------


In zpool iostat klopt de ruimte ook niet meer:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
                            capacity     operations    bandwidth
pool                     alloc   free   read  write   read  write
-----------------------  -----  -----  -----  -----  -----  -----
tank                     1.61T  7.45T  3.41K     20   422M  83.9K
  raidz2                 1.61T  7.45T  3.41K     20   422M  83.9K
    gpt/WD-WMC5C0D6E885      -      -    891      5  55.5M  26.4K
    gpt/WD-WMC5C0D7VE5C      -      -    882      5  55.5M  28.8K
    gpt/9WM42LXF             -      -    867      4  55.4M  28.0K
    gpt/9WM42E9G             -      -    857      5  55.4M  28.0K
    gpt/9WM42LY8             -      -    849      4  55.5M  28.8K
    gpt/9WM3RW3J             -      -    860      4  55.5M  30.4K
    gpt/WD-WCAU48917130      -      -    684      4  55.5M  28.0K
    gpt/WD-WCAU48917395      -      -    679      4  55.3M  28.8K
    gpt/WD-WCAU48917410      -      -    724      4  55.5M  28.8K
    gpt/WD-WCAU48917197      -      -    687      5  55.4M  28.0K
logs                         -      -      -      -      -      -
  mirror                  128K  3.97G      0      0      0      0
    gpt/zil1                 -      -      0      0      0      0
    gpt/zil2                 -      -      0      0      0      0
cache                        -      -      -      -      -      -
  gpt/l2arc1              198G  16.0E      0      0      0      0
  gpt/l2arc2              184G  16.0E      0      0      0      0


Mijn l2arc bestaat uit 2 partities op m'n ssd (m550's) met elke 64G ruimte. In m'n andere NAS had ik een Crucial M500. Een soort gelijk issue heb ik hier gevonen: https://bugs.freenas.org/issues/5347 . Daar wordt het afgedaan als een hardware issue, maar ik heb nu een iets andere ssd en daar heb ik het zelfde issue (Is het verschil misschien te klein?)

Ik draai FreeBSD 10.1. Heeft er iemand anders ervaringen met m500 of m550 ssd's in l2arc?

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Enige wat ik ken is deze commit: http://freshbsd.org/commit/freebsd/r273192
Use write_psize instead of write_asize when doing vdev_space_update.
Without this change the accounting of L2ARC usage would be wrong and
give 16EB free space because the number became negative and overflows.
Maar als je 10.1 final draait, zou je deze commit moeten hebben.

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 20:35
Verwijderd schreef op zaterdag 14 februari 2015 @ 10:30:
Enige wat ik ken is deze commit: http://freshbsd.org/commit/freebsd/r273192


[...]


Maar als je 10.1 final draait, zou je deze commit moeten hebben.
Ik draaide
code:
1
'FreeBSD nas 10.1-RELEASE FreeBSD 10.1-RELEASE #0 r274401: Tue Nov 11 21:02:49 UTC 2014     root@releng1.nyi.freebsd.org:/usr/obj/usr/src/sys/GENERIC  amd64'


Heb gisteravond een update naar
code:
1
FreeBSD nas 10.1-RELEASE-p5 FreeBSD 10.1-RELEASE-p5 #0: Tue Jan 27 08:55:07 UTC 2015     root@amd64-builder.daemonology.net:/usr/obj/usr/src/sys/GENERIC  amd64


Maar ook vind het probleem daar plaats...

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Dit begrijp ik niet....

Maak ik clones van filesystems aan, die maak ik beschikbaar met zowel smb als NFS. Ik zie de clones wél via SMB, maar niet via NFS. Dat wil zeggen: via NFS zie ik ze wel, maar zijn de clones leeg. Via Windows zie ik de inhoud wel.

Hoe kan ik de gesharede clones beschikbaar krijgen via NFS?

zfsguru, btw...

[ Voor 17% gewijzigd door hansdegit op 15-02-2015 15:03 ]

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Check of je filesystem wel geëxporteerd wordt met NFS:

showmount -e

Staat je mount daar niet tussen, dan is hij niet actief.

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Jazeker! Anders zou het mount commando vanaf de andere kant niet werken.... Hij staat er ook tussen.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 27-09 15:50

MikeVM

- Baloo -

MikeVM schreef op woensdag 04 februari 2015 @ 14:21:
ik heb laatst heel veel bestanden verwijdert, mijn pool geeft nu netjes 1TB freespace aan,
maar in de filesystem ziet hij maar 128GB

[afbeelding]

[afbeelding]

is er ergens nog een verborgen recycle bin?
dit probleem is er nog steeds, hij mist ongeveer ergens een TB aan freespace.


Afbeeldingslocatie: http://puu.sh/fWVdF/f689d6b65d.png
Afbeeldingslocatie: http://puu.sh/fWVgF/10b4054744.png

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@hansdegit: wat voor client? kun je df -h en ls -l output geven van de gemounte share vanaf die client? Kan het zijn dat er enkel dotfiles te zien zijn? zoals .zfs enzo. Dat zie je standaard niet. Bestanden die met een punt beginnen zijn 'hidden files' onder UNIX.

@MikeVM: heb je snapshots? Zo ja dan kunnen die ruimte in beslag nemen als je bestanden hebt verwijderd die nog wel door de snapshot worden gereserveerd. Dat betekent dat je de vrije ruimte van bestanden verwijderen niet terug krijgt, totdat je de snapshot verwijdert.

Acties:
  • 0 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 27-09 15:50

MikeVM

- Baloo -

Verwijderd schreef op zondag 15 februari 2015 @ 16:12:
@MikeVM: heb je snapshots? Zo ja dan kunnen die ruimte in beslag nemen als je bestanden hebt verwijderd die nog wel door de snapshot worden gereserveerd. Dat betekent dat je de vrije ruimte van bestanden verwijderen niet terug krijgt, totdat je de snapshot verwijdert.
Afbeeldingslocatie: http://puu.sh/fWXGj/cac181ee0a.png

zou een scrub kunnen helpen?

[ Voor 3% gewijzigd door MikeVM op 15-02-2015 16:16 ]

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Nee, maar weet je zeker dat de getallen niet kloppen? Heb je een berekening daarvan of hoe heb je dat vastgesteld? Hoe veel disks in RAID-Z2 heb je?

Want je weet dat zpool commando ruwe ruimte weergeeft; dus inclusief de parity. zfs commando geeft enkel bruikbare ruimte aan. Dus ook exclusief metadata.

Daarnaast; je wilt je pool niet te vol proppen. Je hebt hem nu al veels te vol. Na verloop van tijd zal fragmentatie zorgen voor veel seeks op je pool en dat leidt tot performancedegradatie. Tenzij je om de zoveel tijd de pool opnieuw aanmaakt en herstelt van backup; maar dat doen niet veel mensen.

Acties:
  • 0 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 27-09 15:50

MikeVM

- Baloo -

ik heb het budget helaas niet om hem uit te breiden.

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Verwijderd schreef op zondag 15 februari 2015 @ 16:12:
@hansdegit: wat voor client? kun je df -h en ls -l output geven van de gemounte share vanaf die client? Kan het zijn dat er enkel dotfiles te zien zijn? zoals .zfs enzo. Dat zie je standaard niet. Bestanden die met een punt beginnen zijn 'hidden files' onder UNIX.
Client is een Synology, die spreekt Linux. Het NFS gedeelte klopt echt wel, want als ik een file neerzet op die share, zie ik 'em meteen in de Syno. Ik zal een poging wagen om te laten zien wat ik bedoel.
code:
1
2
3
4
5
6
7
8
9
10
11
Cloudserver> ls -lrt
drwxr-xr-x    2 root     1000             2 Feb 15 14:39 etc
drwxr-xr-x    2 root     1000             2 Feb 15 14:39 foto
drwxr-xr-x    2 root     1000             2 Feb 15 14:40 handycam
drwxr-xr-x    2 root     1000             2 Feb 15 14:40 isootjes
drwxr-xr-x    2 root     1000             2 Feb 15 14:40 mail
drwxr-xr-x    2 root     1000             2 Feb 15 14:40 share
drwxr-xr-x    2 root     1000             2 Feb 15 14:40 test
drwxr-xr-x    2 root     1000             2 Feb 15 14:41 users
drwxr-xr-x    2 root     1000             2 Feb 15 14:41 warez
drwxr-xr-x    2 root     1000             2 Feb 15 14:41 web


Alle files die je hier ziet zijn feitelijk clones van snapshots van filesystemen. Je verwacht dus dat wanneer ik naar de directory "test" navigeer, ik alle files uit die clone te zien krijg. Even checken:
code:
1
2
3
4
5
6
7
8
Cloudserver> echo $PWD
/volume1/fullbackup/hdtier

Cloudserver> cd users
Cloudserver> ls -lrt
Cloudserver> ls -lart
drwxr-xr-x    2 root     1000             2 Feb 15 14:41 .
drwxrwxrwx   12 1000     1000            13 Feb 15 17:36 ..


Als ik precies hetzelfde doe, maar dan op een Windows machine, zie ik die files uit "users" wel. Mijn conclusie: als je via NFS een gecloond filesysteem benadert, kan je geen gebruik maken van zfs pleziertjes. Maar wél via samba :?

Nog even, maar dan op de server zélf:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
[root@zfsguru /hdtier/etc/scripts]# cd /hdtier/fullbackup
[root@zfsguru /hdtier/fullbackup]# ls -lrt
total 154
drwxrwxrwx    2 share  share    2 Apr 18  2014 share/
drwxrwxrwx    8 root   wheel    8 May  9  2014 users/
drwxrwxrwx  149 root   wheel  151 Sep 29 13:50 foto/
drwxrwxrwx   96 root   wheel  104 Sep 30 20:15 handycam/
drwxrwxrwx   28 share  share   30 Dec 12 11:50 web/
drwxrwxrwx   42 share  share  115 Dec 12 13:15 warez/
drwxrwxrwx   13 share  share   18 Feb 13 14:11 isootjes/
drwxrwxrwx    5 share  share    5 Feb 14 14:03 etc/
drwxrwxrwx   15 share  share   74 Feb 14 22:47 mail/
drwxrwxrwx    4 share  share    5 Feb 15 11:54 test/

[root@zfsguru /hdtier/fullbackup]# cd users
[root@zfsguru /hdtier/fullbackup/users]# ls -lrt
total 115
drwxrwxrwx   2 gitje  share    2 Nov 18  2010 Rens/
drwxrwxrwx   2 gitje  share    2 Dec 16  2011 Maartje/
drwxrwxrwx   3 gitje  share    4 Oct 22 19:58 Jelle/
drwxrwxrwx  15 gitje  share   72 Nov 17 19:19 Mieke/
drwxrwxrwx  14 gitje  share   38 Nov 20 21:54 Gitje/
drwxrwxrwx  35 gitje  share  112 Dec  3 12:22 Hans/

vaag, toch?

Misschien ten overvloede, de mount vanaf de syno is als volgt:
code:
1
2
/bin/mount 192.168.0.20:/hdtier/fullbackup /volume1/fullbackup/hdtier
/bin/mount 192.168.0.20:/ssdtier/fullbackup /volume1/fullbackup/ssdtier

[ Voor 27% gewijzigd door hansdegit op 15-02-2015 17:55 ]

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik zie geen files; enkel directories. Directories kunnen ook filesystems zijn.
..zijn feitelijk clones van snapshots van filesystemen. Je verwacht dus dat wanneer ik naar de directory "test" navigeer, ik alle files uit die clone te zien krijg.
Alleen als die clone ook is geëxporteerd EN GEMOUNT.

NFS doet standaard niet aan het crossen van mountpoints! Is dat wellicht je issue?

Dus stel je hebt een server met /NFSEXPORTED filesystem op ZFS en daarin meer filesystems die je als directories ziet met 'ls -l' output, dan zijn al die directories leeg als je kijkt op de client waarmee je NFS hebt gemount. De reden is dat je die filesystems (de 'directories') niet hebt gemount en dus is de inhoud niet zichtbaar.

Bij Samba/CIFS is het crossen van mountpoints geen issue. Bij NFS is dit hoe het protocol is gemaakt. Ik gebruik zelf een script om alle filesystems te mounten op mijn Linux desktops.

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

nevermind, vorige post verkeerd gelezen :)

[ Voor 99% gewijzigd door FREAKJAM op 16-02-2015 08:53 ]

is everything cool?


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Zijn punt is volgens mij dat zijn 'lege directory' geen directory is, maar een ander filesystem, die hij niet heeft gemount via NFS. Dus het probleem van cross-mountpoint NFS sharing.

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Verwijderd schreef op zondag 15 februari 2015 @ 18:44:
[...]
Ik zie geen files; enkel directories. Directories kunnen ook filesystems zijn.
[...]
Op school heb ik geleerd dat in Unix alles een file is....
Alleen als die clone ook is geëxporteerd EN GEMOUNT.

NFS doet standaard niet aan het crossen van mountpoints! Is dat wellicht je issue?
Mmmm...Als het nou een symlink was, was ik het wel eens met NFS. Maar ik snap geloof ik niet zo wat nu het crossen van mountpoints is. Ik zou verwachten dat de inhoud van de clone gewoon keurig door ZFS gereconstrueerd wordt, ook wanneer ik die clone via NFS benader.

Wat wordt er nu gecrossed? Niets toch?

Maar je zegt dus dat ik de separaat gekloonde snapshots één voor één moet exporteren en dan mounten van de syno?


edit: ik begin het te brgrijpen, geloof ik.... Het eigenlijke filesystem wat ik via de clone probeer te benaderen, is niet hetzelfde filesystem als het fs wat gemount is. Wél dezelfde pool, maar da's niet zo relevant, geloof if.

Da's een beetje balen, want nu moet ik mijn syno gaan vertellen welke filesystems er allemaal zijn op de zfs server. Of ik moet het de Syno laten vragen, natuurlijk.

[ Voor 18% gewijzigd door hansdegit op 15-02-2015 20:22 ]

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Stel je hebt ZFS filesystems:

tank/data
tank/data/music
tank/data/video

En je exporteert tank/data met NFS. Die mount je in Linux client over het netwerk. Prima.

Maar de directories 'music' en 'video' zijn leeg; terwijl ZFS daar gewoon data heeft staan. Dit is wat ik bedoel met het crossen van mountpoints.

De oplossing is redelijk simpel: mount ook alle subfilesystems. Dus niet alleen tank/data mounten in je linux client, maar ook tank/data/music en tank/data/video. Bij het mounten in Linux pas je je lokale mountpoint daarop aan middels een /music en /video suffix erachter. Ik gebruik zelf een script hiervoor.


code:
1
2
3
4
5
6
7
8
9
sudo mkdir -p /media/green && sudo mkdir -p /media/dev && \
sudo mount 10.0.0.2:/green/share /media/green && \
sudo mount 10.0.0.2:/green/share/doc /media/green/doc && \
sudo mount 10.0.0.2:/green/share/download /media/green/download && \
sudo mount 10.0.0.2:/green/share/games /media/green/games && \
sudo mount 10.0.0.4:/schatkist/share /media/dev && \
sudo mount 10.0.0.4:/schatkist/share/dev /media/dev/dev && \
sudo mount 10.0.0.4:/schatkist/share/volume /media/dev/volume
echo "return value = ${?}"

Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 00:17
Verwijderd schreef op zondag 15 februari 2015 @ 20:27:
De oplossing is redelijk simpel: mount ook alle subfilesystems.
Euh, of je configureert je server gewoon met de crossmnt/nohide-optie in exports? Dat is er juist voor bedoeld.
nohide

This option is based on the option of the same name provided in IRIX NFS. Normally, if a server exports two filesystems one of which is mounted on the other, then the client will have to mount both filesystems explicitly to get access to them. If it just mounts the parent, it will see an empty directory at the place where the other filesystem is mounted. That filesystem is "hidden".

Setting the nohide option on a filesystem causes it not to be hidden, and an appropriately authorised client will be able to move from the parent to that filesystem without noticing the change.

crossmnt

This option is similar to nohide but it makes it possible for clients to move from the filesystem marked with crossmnt to exported filesystems mounted on it. Thus when a child filesystem "B" is mounted on a parent "A", setting crossmnt on "A" has the same effect as setting "nohide" on B.

[ Voor 34% gewijzigd door Thralas op 15-02-2015 20:39 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Uit de FreeBSD manpage:
All ZFS file systems in the subtree below the NFSv4 tree root must be exported. NFSv4 does not use the mount protocol and does permit clients to cross server mount point boundaries, although not all clients are capable of crossing the mountpoints.
Kortom, NFSv4 zou het kunenn, NFSv3 niet. Uiteraard kunnen er verschillen zijn tussen FreeBSD en Linux; de manpage die jij noemt is mogelijk voor de Linux NFS server; niet de Linux NFS client of de BSD NFS server.

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Het zit als volgt:

filesystems:
hdtier/fullbackup
hdtier/users

Nu maak ik een snapshot van hdtier/users@20150215, ik doe een clone van dat snapshot en plaats de clone in hdtier/fullbackup:
code:
1
zfs clone hdtier/users@20150215 hdtier/fullbackup/users


hdtier/fullbackup is door de Syno gemount. Wanneer ik nu vanuit de Syno naar die directory wandel, zie ik "users" wel staan, maar die blijkt leeg, wat op de server dus niet zo is.

@Cipher, jij stelt dus dat dit een cross mountpoint situatie is?

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ja; de clone is een eigen filesystem (dataset). Die moet je opzichzelf exporteren en ook in Linux mounten. Tenzij je dus een cross-mountpoint feature gebruikt, zoals bij BSD met NFSv4 kan.

Hier hoor je ook te zien dat je clone geshared is:

zfs get sharenfs | grep hdtier

[ Voor 24% gewijzigd door Verwijderd op 15-02-2015 20:56 ]


Acties:
  • 0 Henk 'm!
@hansdegit, Waar je rekening mee moet houden is dat NFS met gedeelde linux permissies werkt, maar CIFS niet. Als je dus via NFS bestanden deelt, dan moeten de gebruikers, groepen en permissies aan beide kanten overeenkomen. Via CIFS werkt dat allemaal wat makkelijker. Wat gebeurt er dus wanneer je de user:group van je mappen / bestanden veranderd van root:wheel, naar share:share of iets anders. Als je permissies niet goed staan, dan ga je namelijk ook geen bestanden zien aan de andere kant. Wat je ook kan proberen is je bestanden / mappen de "execute" permissies geven. Die zijn namelijk nodig voor "listing" van bestanden.

[ Voor 15% gewijzigd door CurlyMo op 15-02-2015 21:18 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@CurlyMo: volgens mij is dat een ander issue. Want als je dan ls -l op die map doet, krijg je permission denied.

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
En ik had het zo mooi bedacht... Alles mounten vanaf de Syno en dan mijn zfs server naar de Cloud backuppen middels Cloud Sync van Synology... -O-

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@hansdegit: kun je niet gewoon mounten dan op Synology? Wat is het probleem? Als je het één kunt mounten, kun je toch ook het ander mounten?

Acties:
  • 0 Henk 'm!
Ik zou het toch eens proberen. Niet geschoten altijd mis :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Tuurlijk kan ik die filesystems wel mounten, dat is het punt niet.

Maar de opzet moet drastisch veranderen. Nu maak ik om de zoveel tijd een snapshot. Als ik alle clones vanaf de Syno separaat moet mounten kan het dus zomaar zijn dat een mount niet meer geldig is omdat er een nieuw snapshot en een nieuwe clone klaar staat. Dan heb ik dus een mount naar een clone die niet meer bestaat.

Back to the drawing board.

[ Voor 6% gewijzigd door hansdegit op 15-02-2015 22:11 ]

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 20:35
Keiichi schreef op zondag 15 februari 2015 @ 09:22:
[...]


Ik draaide
code:
1
'FreeBSD nas 10.1-RELEASE FreeBSD 10.1-RELEASE #0 r274401: Tue Nov 11 21:02:49 UTC 2014     root@releng1.nyi.freebsd.org:/usr/obj/usr/src/sys/GENERIC  amd64'


Heb gisteravond een update naar
code:
1
FreeBSD nas 10.1-RELEASE-p5 FreeBSD 10.1-RELEASE-p5 #0: Tue Jan 27 08:55:07 UTC 2015     root@amd64-builder.daemonology.net:/usr/obj/usr/src/sys/GENERIC  amd64


Maar ook vind het probleem daar plaats...
Heb de laatste stable kernel uitgechecked, gecompiled, en nu lijkt het wel goed te werken.

code:
1
FreeBSD nas 10.1-STABLE FreeBSD 10.1-STABLE #0 r278805: Sun Feb 15 18:50:50 UTC 2015     ik@nas:/usr/obj/usr/src/sys/GENERIC  amd64


het wordt eens tijd dat FreeBSD naar git switched, dan kun je ook veel makkelijker zoeken welke commit in welke branch zit (vind ik bij SVN een draak om daar achter te komen)

-edit-

Na een avondje is ie toch weer verkeerd gegaan

code:
1
2
3
cache                        -      -      -      -      -      -
  gpt/l2arc1             64.0G  72.3G  16.0E     0%         -
  gpt/l2arc2             64.0G  63.7G   318M     0%         -

[ Voor 12% gewijzigd door Keiichi op 16-02-2015 00:29 ]

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!
@hansdegit, wat wil je uiteindelijk bereiken met jouw setup? Wat is het doel om dit zo te doen?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Ik wil alle filesystems van mijn ZFS server backuppen naar mijn Google Drive.

De connectie naar Google wordt verzorgd door de Syno. Synology Cloud Sync spiegelt een -voor de Synology- lokale directory aan de inhoud van je Google Drive. Ik wil dus mijn filesystemen op die specifieke directory projecteren middels een NFS mount zonder dat ik een kopie hoef te maken van al mijn data.

Nu is het natuurlijk vrij simpel om dan maar een rechtstreekse mount te maken van de actuele filesystems op de zfs server, maar er zitten ook databases tussen die een bepaalde mate van consistentie vereisen. Daarvoor is een clone of een snapshot natuurlijk ideaal.

Dus, in essentie, wil ik clones/snapshots van mijn zfs systeem beschikbaar maken in de Cloud Sync directory van de Syno. En die zal het dan wel eens naar mijn Google Drive pompen @14k4 bps.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!
Ik heb het verlossende antwoord gevonden. Het is een beperking van ZFS:
http://compas.cs.stonybrook.edu/downloads/zfs-over-nfs/
https://github.com/zfsonlinux/zfs/issues/616

Mijn setup hier werkt ook niet via NFS (ook als reactie op jou :) ):
CurlyMo in "Het grote ZFS topic"

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik ga ervanuit dat die patch uit 2012 allang is verwerkt. Zijn issue is dat die clone mountpoint geeneens gemount wordt; de client heeft enkel de hoofd filesystem gemount.

Acties:
  • 0 Henk 'm!
Het klopt dat wanneer je de children apart mount het werkt. De vraag is alleen, waarom moet dat in dit geval? Je zou toch gewoon de inhoud van de onderliggende mappen moeten kunnen zien?

Ik heb het even lokaal geprobeerd:
code:
1
2
3
4
5
zfs create tank/test
dd if=/dev/random of=/tank/test/10mb.file bs=1000k count=10
zfs snapshot tank/test@clone
zfs create tank/clones
zfs clone tank/test@clone tank/clones/test


Vervolgens zowel tank/test als tank/clones beschikbaar maken als NFS share. Het klopt dat je in tank/test het 10mb.file bestand ziet, maar niet in tank/clones/test niet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 28-09 14:38
Wat is de best practice als het op boot drives aankomt bij ZFS?

2 SSD's of 2.5" schijven in RAID en daarop het O/S? Als je het O/S op 1 schijf gooit en die gaat stuk ben je de sigaar, of niet?

Acties:
  • 0 Henk 'm!
Als je voor 1 schijf kiest, kijk dan even naar mijn rescue plan. Afgelopen week was mijn systeem schijf gecrashed, maar door een goede setup is mijn downtime minimaal geweest. Nu draai ik overigens op 2 SSD's. Linkje staat in de TS.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 27-09 15:50

MikeVM

- Baloo -

Verwijderd schreef op zondag 15 februari 2015 @ 16:20:
Nee, maar weet je zeker dat de getallen niet kloppen? Heb je een berekening daarvan of hoe heb je dat vastgesteld? Hoe veel disks in RAID-Z2 heb je?

Want je weet dat zpool commando ruwe ruimte weergeeft; dus inclusief de parity. zfs commando geeft enkel bruikbare ruimte aan. Dus ook exclusief metadata.

Daarnaast; je wilt je pool niet te vol proppen. Je hebt hem nu al veels te vol. Na verloop van tijd zal fragmentatie zorgen voor veel seeks op je pool en dat leidt tot performancedegradatie. Tenzij je om de zoveel tijd de pool opnieuw aanmaakt en herstelt van backup; maar dat doen niet veel mensen.
10 Disks WD Green 3TB RaidZ2 > 2,72TB*8 = 21,76TB

code:
1
2
3
4
5
6
7
8
[ssh@zfsguru ~]$ df -h
Filesystem                      Size    Used   Avail Capacity  Mounted on
Data                            581G     25G    556G     4%    /Data
Data/_Public                     20T     20T    556G    97%    /Data/_Public
Data/_VM                        595G     40G    556G     7%    /Data/_VM
Data/_ZFSGURU                   556G     48M    556G     0%    /Data/_ZFSGURU
Data/zfsguru                    556G    348K    556G     0%    /Data/zfsguru
Data/zfsguru/download           556G    329K    556G     0%    /Data/zfsguru/download


vorige week heb ik ongeveer 1TB aan data verwijdert, de data is weg, maar er kwam geen free space bij.

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!

  • wmn79
  • Registratie: April 2007
  • Laatst online: 27-09 22:15
wmn79 schreef op vrijdag 13 februari 2015 @ 18:55:
Ik wil binnenkort de Proliant Microserver G1610T gaan kopen en deze in gaan zetten om mijn oude Conceptronic CH3SNAS met Alt-F firmware te vervangen. Ik wil op de server of Freenas of ZFSguru gaan draaien. Daarbij wil ik het liefst de twee schijven uit mijn oude NAS (2x Samsung Spinpoint F4 EG HD204UI, 2TB) hergebruiken en er een derde 2TB disk bij te kopen zodat ik de drie schijven in raidz1 kan zetten. Qua data red ik dat makkelijk, momenteel zit ik nog net niet op 1TB.

Nu vraag ik me nog twee dingen af:
  • Is het handig om voor die derde schijf een identieke schijf 2ehands te kopen of kan ik gewoon iedere willekeurige 2 TB schijf kopen en deze gebruiken in combinatie met de twee Samsung schijven?
  • Hoeveel geheugen zal ik er bij prikken 4GB of 8GB? Met 8GB ben ik meteen toekomstvast en kan ik in de toekomst de server eventueel ook nog inzetten voor andere taken. Met 4GB (dus 6GB) moet het alleen voor de NAS functionaliteiten prima werken volgens mij. Wat zijn jullie ideeën daarover?
Had dit in het proliant server topic geplaatst maar misschien is het hier beter op z'n plek. Hebben jullie hier ideeën over?

Acties:
  • 0 Henk 'm!

  • toelie
  • Registratie: December 2006
  • Laatst online: 24-11-2023
Keiichi schreef op vrijdag 13 februari 2015 @ 19:19:
[...]
Neemt elke 5 tot 10GB aan l2arc nu 1GB geheugen echt in, of is dit een richtlijn voor het alloceren van l2arc?
Nee dit is een richtlijn. Bij mij bijvoorbeeld neemt 226G aan L2ARC maar 7GB geheugen in beslag. Dit kun je zien door arcstat.pl (scriptje voor ARC en L2ARC statistics) te runnen voor en na het toevoegen van je L2ARC ssd.
Pagina: 1 ... 141 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.