Even niets...
WTF. Het werkt. Ik moest een import doen op basis van disk-by-id en voila. Volume is nu groter geworden
[ Voor 67% gewijzigd door nwagenaar op 05-02-2015 12:17 ]
Zoals FD in zijn ZoL storage blog aanhaalt is het aanmaken en export/import op basis van /dev/disk-by-id "good practice" al is het maar omdat je dan je pool eigenlijk straffeloos kunt importeren als je een disk om steekt. Dit laatste geeft problemen als je /dev/sda aanhoudt.nwagenaar schreef op donderdag 05 februari 2015 @ 12:12:
Uiteraard al geprobeerd
WTF. Het werkt. Ik moest een import doen op basis van disk-by-id en voila. Volume is nu groter geworden
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
In de inleiding staat een tegenstrijdigheid, volgens mij, betreffende ZIL/L2ARC
Bij Krachtige ZFS NAS: "Solid State Drives: 1x Intel 320 voor Dedicated ZIL en een Crucial M4 / Samsung 830 of reguliere consumenten SSD voor L2ARC caching. Deze dien je te gebruiken op de onboard SATA van de chipset (AHCI)."
Verder op bij "Kan ik een of meerdere SSD's voor meerdere taken gebruiken?": "Met meerdere SSDs wil je alle taken spreiden over alle SSDs. Wat je niet wilt is een SSD helemaal voor SLOG gebruiken en de ander helemaal voor L2ARC. Dan worden ze ongelijkmatig belast en haal je geen performancevoordeel wat je anders wel zou hebben. Je wilt dus juist de taken gelijkmatig verdelen over al je SSDs. L2ARC doe je altijd in striping (RAID0) terwijl SLOG je voor mirroring kunt kiezen."
Wat is nu waarheid?
En wat voor SSDs kan je hier tegenwoordig het beste voor pakken?
Ik ben namelijk op dit moment een server aan het samen stellen die deels voor storage gaat dienen, en deels als datastore voor een ESXi machine, beide via iSCSI:
- SuperMicro X10SRH-CLN4F
- Intel Xeon E5-1620 V3
- Kingston ValueRAM KVR21R15S4K4/32
- 6x WD Red SATA 6 Gb/s WD50EFRX
- ZIL/L2ARC disk, welke zouden hiervoor aan te raden zijn?
Ik zit zelf nog even te twijfelen of er genoeg geheugen in zit? De 6 keer 5TB zou als RAID-Z2 geconfigureerd worden.
Of denk ik juist te groot, en is 32GB ruim zat, ook als ik in de toekomst nog wat disks er bij zou prikken? Oftewel zou ik ook met een Xeon E3 af kunnen?
Ga je dingen als L2ARC gebruiken voor een pool van 2TB, ga je inderdaad wat krap in je geheugen zitten. L2ARC kost nou eenmaal wat geheugen.
Het zelfde geld in een nog grotere mate voor Deduplication omdat de DDT tables in RAM opgeslagen moeten worden.
Het ligt *TOTAAL* aan je eisen en doelen voor het systeem... Jij zegt ISCSi target voor een ESXi machine, dan denk ik:
- Hoeveel VM's?
- Hoeveel IOPS?
- Wat voor lijn leg je tussen de machines?
- Hoe groot wil je je (L2)ARC maken?
- Wil je compressie gebruiken?
- Wil je Deduplicatie gebruiken?
Even niets...
(Z77 AHCI controller, C222 AHCI controller en LSI 2308 RT controller)
Wat is nu precies de impact op de WD RED schijven als ik TLER op 7 sec. laat staan?
Goede vragen, ik heb niet overal een antwoord op, want ik ben er nog niet zo in thuis.FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
Het ligt *TOTAAL* aan je eisen en doelen voor het systeem... Jij zegt ISCSi target voor een ESXi
machine, dan denk ik:
Ben met ZFS thuis begonnen, in de hobbysfeer, maar door het starten van een nieuw bedrijf, ben ik verantwoordelijk geworden voor het IT-gedeelte. Ik heb er wel wat feeling voor, maar ik heb geen opleiding richting systeembeheerder of iets dergelijks gevolgd. Ben van oorsprong een C++/C# ontwikkelaar met een Technische Informatica opleiding.
Ik ga zo goed mogelijk proberen antwoord te geven op je vragen.
In het begin een stuk of 10, later worden het er waarschijnlijk meer. Zijn wat simpele Linux webservers, wat linux database "servers" en een OpenVPN AS appliance.FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Hoeveel VM's?
Later komen er waarschijnlijk wat database servers bij, die ook zwaarder belast worden.
Dit weet ik niet precies.FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Hoeveel IOPS?
Mijn huidige plan is om twee 1 gigabit verbindingen te trunken, ik wilde niet gelijk naar 10 gigabit of ietsFireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Wat voor lijn leg je tussen de machines?
dergelijks. Of het moet hier duidelijk worden dat dat moet voor de gewenste snelheid.
Zoals al gezegd, ik heb op dit moment te weinig praktijkervaring om hier een antwoord op te geven.FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Hoe groot wil je je (L2)ARC maken?
Door RAID-Z2 zou het om 20TB effectief beschikbare ruimte gaan.
Zou leuk zijn om te kunnen gebruiken, maar is niet perse nodig. HDs zijn geselecteerd op wat we denken nodig te zijn.FireDrunk schreef op donderdag 05 februari 2015 @ 16:00:
- Wil je compressie gebruiken?
- Wil je Deduplicatie gebruiken?
Wat ik er van lees, lijkt het voornamelijk de CPU te belasten? Vanuit dat oogpunt zou het wel moeten kunnen, lijkt me?
Daarnaast hou ik wel rekening met de mogelijkheid om in de ESXi server zelf een paar schijven te zetten, al dan niet via ZFS, voor HD intensieve virtual machines.
Het is even belangrijk om enigzins een beeld te hebben van de load. 10 VMś die stil staan, genereren praktisch 0 load. 9 VMś die niks staan te doen, en 1 VM die continu staat te benchen, is natuurlijk weer een ander verhaal.yamahabest schreef op donderdag 05 februari 2015 @ 20:16:
[...]
Goede vragen, ik heb niet overal een antwoord op, want ik ben er nog niet zo in thuis.
Ben met ZFS thuis begonnen, in de hobbysfeer, maar door het starten van een nieuw bedrijf, ben ik verantwoordelijk geworden voor het IT-gedeelte. Ik heb er wel wat feeling voor, maar ik heb geen opleiding richting systeembeheerder of iets dergelijks gevolgd. Ben van oorsprong een C++/C# ontwikkelaar met een Technische Informatica opleiding.
Ik ga zo goed mogelijk proberen antwoord te geven op je vragen.
[...]
In het begin een stuk of 10, later worden het er waarschijnlijk meer. Zijn wat simpele Linux webservers, wat linux database "servers" en een OpenVPN AS appliance.
Later komen er waarschijnlijk wat database servers bij, die ook zwaarder belast worden.
Mijn idee: Als je je VM's echt alleen zelf gebruikt, dus zonder enige echte (test-)gebruiker, kan je er wel 100 op een testclustertje draaien.
iSCSI, NFS of FibreChannel? (Of zelfs InfiniBand?, maar dat gok ik niet[...]
Dit weet ik niet precies.
[...]
Mijn huidige plan is om twee 1 gigabit verbindingen te trunken, ik wilde niet gelijk naar 10 gigabit of iets
dergelijks. Of het moet hier duidelijk worden dat dat moet voor de gewenste snelheid.
Compressie is niet zo duur (je hebt alleen een fatsoenlijke CPU nodig.[...]
Zoals al gezegd, ik heb op dit moment te weinig praktijkervaring om hier een antwoord op te geven.
Door RAID-Z2 zou het om 20TB effectief beschikbare ruimte gaan.
[...]
Zou leuk zijn om te kunnen gebruiken, maar is niet perse nodig. HDs zijn geselecteerd op wat we denken nodig te zijn.
Wat ik er van lees, lijkt het voornamelijk de CPU te belasten? Vanuit dat oogpunt zou het wel moeten kunnen, lijkt me?
Deduplicatie is een verhaal apart, dat is echt een _hele_ zware optie. Het kost je veel RAM, en op een dataset van 20TB zou ik het niet eens aan durven zetten met 64GB geheugen.
Als je daarentegen Deduplicatie aan zet voor een 500GB-1TB LUN met VM's, hoef je je een stuk minder druk te maken.
Precies wat ik heb gedaan. Een lokale SSD voor de kleine Test VM's. Voor het grotere werk een paar HDD's.Daarnaast hou ik wel rekening met de mogelijkheid om in de ESXi server zelf een paar schijven te zetten, al dan niet via ZFS, voor HD intensieve virtual machines.
Even niets...
Verwijderd
iemand een idee?
Een Intel nic kopenVerwijderd schreef op vrijdag 06 februari 2015 @ 13:39:
Heb nu sinds 2 jaar een goed werkende NAS met ZFSGURU. De laatste paar maanden geeft ie alleen vaak problemen met het gebruik van transmission. Op een gegeven moment is de NAS niet meer te bereiken en geeft ie een "re0: watchdog timeout" aan. Na wat googlen schijnt dit te maken te hebben met de onboard ethernet poort van het moederbord (Asrock B75 Pro3-M). Echter heb ik niet direct een oplossing voor dit probleem kunnen vinden.
iemand een idee?
De oplossing is vrij simpel: koop een Intel PRO/1000 CT kaartje voor twee tientjes en gebruik die ipv je Realtek-chip.
Even niets...
Verwijderd
Het is misschien flauw, maar wel het beste advies wat er is voor mensen die zelf iets bouwen. Alleen Intel of HP nics voor mijn apparatuur. Anders alleen maar gezeik. En qua kosten hebben we het over tientjes werk.
Niks niet flauw, ik heb een msi bord met celeron gekocht, onder windows prima, maar onder esxi wordt de nic niet herkend. Onder freebsd overigens wel.Q schreef op vrijdag 06 februari 2015 @ 17:45:
[...]
Het is misschien flauw, maar wel het beste advies wat er is voor mensen die zelf iets bouwen. Alleen Intel of HP nics voor mijn apparatuur. Anders alleen maar gezeik. En qua kosten hebben we het over tientjes werk.
Uiteraard ook geen intel nic. Ik had nog een 2 poort intel liggen, en die erin en alles werkte gelijk.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Kan iemand hier nog wat over zeggenfunnyname schreef op donderdag 05 februari 2015 @ 17:21:
Ik heb op twee MB's en drie controllers geprobeerd WDTLER te draaien, maar iedere keer krijg ik de melding dat er geen drives gevonden kunnen worden, waarschijnlijk omdat mijn controller niet ondersteund wordt ..
(Z77 AHCI controller, C222 AHCI controller en LSI 2308 RT controller)
Wat is nu precies de impact op de WD RED schijven als ik TLER op 7 sec. laat staan?
TLER disks met ZFS werken prima. Het gevaar komt pas als je array degraded is en de disk dus de laatste mogelijkheid om data terug te winnen. Pas in die situatie heb je een nadeel aan TLER wanneer er bad sectors komen die vervolgens niet kunnen worden recovered door TLER die de recoverytijd tot 7 seconden beperkt. Zolang je pool redundant is zoals mirror/RAID-Z zonder missende disks, dan is er geen nadeel aan TLER disks.
esxi doet het prima met mijn Realtek nic anders, je moet alleen zelf een esxi-image maken met de drivers erin.jacovn schreef op vrijdag 06 februari 2015 @ 17:58:
[...]
Niks niet flauw, ik heb een msi bord met celeron gekocht, onder windows prima, maar onder esxi wordt de nic niet herkend. Onder freebsd overigens wel.
Uiteraard ook geen intel nic. Ik had nog een 2 poort intel liggen, en die erin en alles werkte gelijk.
Ik had begrepen dat WDTLER.exe niet zou werken met WD-Reds, zou je kunnen laten weten of dit wel werkt, ik ben wel benieuwd… thanksfunnyname schreef op vrijdag 06 februari 2015 @ 19:14:
OK thanks for the info (en eigenlijk logisch dat onder DOS de controller op IDE moet staan, dat had ik zelf moeten bedenken..)
Tja dat gaat mij te ver, en het was me te langzaam op die celeron. Torrents via unbunto op esxi was 200 mbit langzamer dan bare metal unbunto.dcm360 schreef op vrijdag 06 februari 2015 @ 18:39:
[...]
esxi doet het prima met mijn Realtek nic anders, je moet alleen zelf een esxi-image maken met de drivers erin.
Simpelweg te langzame cpu met 1.1 Ghz denk ik.
Het ging meer over the out of box ervaring, niet of het met veel tweaking werkbaar te krijgen is.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Misschien is GREEN toch een mooier kleurtje voor ZFS

1
2
| root@xbian ~ # uptime 09:52:32 up 35 days, 20:27, 1 user, load average: 1.39, 1.15, 0.56 |
Zo nu en dan bleek het betreffende familielid toch extra stopcontacten nodig te hebben dus werd de Hummingboard hard uit en weer aangezet, maar de laatste 35 dagen loopt het dus prima.
Sinds de 2 dagen regel reageer ik hier niet meer
http://www.accs.com/p_and_p/ZFS/ZFS.PDF
Als je een L2ARC gebruikt, dan wordt alle metadata van de data in het L2ARC in je RAM bewaard. Dat betekent dus feitenlijk minder ruimte voor je ARC.
Worst-case gaat je performance dus nog eerder achteruit dan vooruit, omdat nu meer data uit het L2ARC moet komen, wat langzamer is dan RAM. Als ik het goed begrijp ten minste.
Wat je zegt klopt helemaal. Ik geloof dat je ongeveer rekening moet houden voor elke 5-10GB wat je aan L2ARC neemt, ongeveer 1GB aan geheugen moet reserveren. Doe je dat niet, dan kan inderdaad je performance flink zakken.Q schreef op zondag 08 februari 2015 @ 20:10:
Ik lees net een leuk feitje waar ik zelf niet bij stil stond.
http://www.accs.com/p_and_p/ZFS/ZFS.PDF
Als je een L2ARC gebruikt, dan wordt alle metadata van de data in het L2ARC in je RAM bewaard. Dat betekent dus feitenlijk minder ruimte voor je ARC.
Worst-case gaat je performance dus nog eerder achteruit dan vooruit, omdat nu meer data uit het L2ARC moet komen, wat langzamer is dan RAM. Als ik het goed begrijp ten minste.
Elke situatie is natuurlijk anders, maar normaal gesproken is geheugen toevoegen het best wat je kan doen qua performanceverbetering.
Ik maakte eerst alleen gebruik van mijn Intel-controller waarop 1 SSD (OS+VMs) en 5x 3TB WD Greens zaten in RAID-Z1. Dit heeft een paar jaar probleemloos gewerkt.
Ik heb een half jaar geleden mijn setup bijgewerkt naar een wellicht nogal ongebruikelijk situatie: 1xSSD voor OS en 7x 3TB WD Greens in RAID-Z1. Om ruimteverlies tegen te gaan maak ik gebruik van ashift=9, de pool is dus optimized voor 512B sectoren. Deze keuze heb ik gemaakt omdat mijn mobo 8 SATA-poorten heeft en ik opslag belangrijker vindt dan performance.
De twee extra schijven heb ik aan de on-board ASMedia controller gehangen. Deze staan natuurlijk niet erg goed bekend, maar wederom: performance is redelijk ondergeschikt aan de opslag zelf. Daarnaast hoefde ik nu geen insteekkaarten te bestellen.
Dit draait over het algemeen prima, maar af en toe vliegen er ineens één of meerdere schijven uit. Deze komen dan naar boven met de status 'REMOVED'. Na een volledige power-down worden de schijven weer gevonden en is er niets meer aan de hand. Het gaat elke keer om dezelfde schijven op poort 3 en 4 van de Intel-controller. De load op het systeem is niet de aanleiding voor het offline gooien van de schijven. Dit gebeurt gewoon op willekeurige momenten. Deze momenten kunnen ook ver uit elkaar liggen. In de maand januari heeft het probleem zich helemaal niet voorgedaan en draaide alles prima.
Bij het analyseren van het probleem heb ik als eerste test de SATA-kabels vervangen op de probleempoorten. Helaas heeft dit niet geholpen, want het probleem deed zich weer voor. Als tweede test heb ik de schijven die op deze poorten stonden omgewisseld met de schijven die op poort 5 en 6 van de intel-controller zaten. Helaas wederom geen resultaat. Vanochtend was de pool weer unavailable en waren er 5(!) schijven met de status 'REMOVED'. De grap is dat alle schijven zijn uitgevallen, behalve juist de schijven op poort 3 en 4 van de Intel-controller

In het log is dit als volgt zichtbaar geworden:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| Feb 8 21:16:28 zfsguru kernel: ada7 at ahcich7 bus 0 scbus7 target 0 lun 0 Feb 8 21:16:28 zfsguru kernel: ada7: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0272598 detached Feb 8 21:16:28 zfsguru kernel: (ada7:ahcich7:0:0:0): Periph destroyed Feb 8 21:16:28 zfsguru kernel: ada6 at ahcich6 bus 0 scbus6 target 0 lun 0 Feb 8 21:16:28 zfsguru kernel: ada6: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0194729 detached Feb 8 21:16:28 zfsguru kernel: (ada6:ahcich6:0:0:0): Periph destroyed Feb 8 21:16:38 zfsguru kernel: ada0 at ahcich0 bus 0 scbus0 target 0 lun 0 Feb 8 21:16:38 zfsguru kernel: ada0: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N1538790 detached Feb 8 21:16:38 zfsguru kernel: ada3 at ahcich3 bus 0 scbus3 target 0 lun 0 Feb 8 21:16:38 zfsguru kernel: ada3: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0176466 detached Feb 8 21:16:38 zfsguru kernel: ada1 at ahcich1 bus 0 scbus1 target 0 lun 0 Feb 8 21:16:38 zfsguru kernel: ada1: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N0865516 detached Feb 8 21:16:38 zfsguru kernel: (ada3:ahcich3:0:0:0): Periph destroyed Feb 8 21:16:38 zfsguru kernel: (ada1:ahcich1:0:0:0): Periph destroyed Feb 8 21:16:38 zfsguru kernel: (ada0:ahcich0:0:0:0): Periph destroyed |
Hebben jullie ideeën waar dit aan zou kunnen liggen? Ik heb zelf de volgende verdachten:
- ASMedia controller
- Moederbord
- Voeding
Ik draai ZFSGuru 0.2.0-beta10 op FreeBSD 10.0-STABLE (system image 10.1-001).
SRK35ZS-W
Mmm, rondje "m'n glazen bol" doet t vandaag ff niet.Scooper schreef op maandag 09 februari 2015 @ 10:59:
Ik heb nogal rare problemen met mijn ZFS-NAS.
Ik maakte eerst alleen gebruik van mijn Intel-controller waarop 1 SSD (OS+VMs) en 5x 3TB WD Greens zaten in RAID-Z1. Dit heeft een paar jaar probleemloos gewerkt.
Ik heb een half jaar geleden mijn setup bijgewerkt naar een wellicht nogal ongebruikelijk situatie: 1xSSD voor OS en 7x 3TB WD Greens in RAID-Z1. Om ruimteverlies tegen te gaan maak ik gebruik van ashift=9, de pool is dus optimized voor 512B sectoren. Deze keuze heb ik gemaakt omdat mijn mobo 8 SATA-poorten heeft en ik opslag belangrijker vindt dan performance.
De twee extra schijven heb ik aan de on-board ASMedia controller gehangen. Deze staan natuurlijk niet erg goed bekend, maar wederom: performance is redelijk ondergeschikt aan de opslag zelf. Daarnaast hoefde ik nu geen insteekkaarten te bestellen.
Dit draait over het algemeen prima, maar af en toe vliegen er ineens één of meerdere schijven uit. Deze komen dan naar boven met de status 'REMOVED'. Na een volledige power-down worden de schijven weer gevonden en is er niets meer aan de hand. Het gaat elke keer om dezelfde schijven op poort 3 en 4 van de Intel-controller. De load op het systeem is niet de aanleiding voor het offline gooien van de schijven. Dit gebeurt gewoon op willekeurige momenten. Deze momenten kunnen ook ver uit elkaar liggen. In de maand januari heeft het probleem zich helemaal niet voorgedaan en draaide alles prima.
Bij het analyseren van het probleem heb ik als eerste test de SATA-kabels vervangen op de probleempoorten. Helaas heeft dit niet geholpen, want het probleem deed zich weer voor. Als tweede test heb ik de schijven die op deze poorten stonden omgewisseld met de schijven die op poort 5 en 6 van de intel-controller zaten. Helaas wederom geen resultaat. Vanochtend was de pool weer unavailable en waren er 5(!) schijven met de status 'REMOVED'. De grap is dat alle schijven zijn uitgevallen, behalve juist de schijven op poort 3 en 4 van de Intel-controller![]()
In het log is dit als volgt zichtbaar geworden:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Feb 8 21:16:28 zfsguru kernel: ada7 at ahcich7 bus 0 scbus7 target 0 lun 0 Feb 8 21:16:28 zfsguru kernel: ada7: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0272598 detached Feb 8 21:16:28 zfsguru kernel: (ada7:ahcich7:0:0:0): Periph destroyed Feb 8 21:16:28 zfsguru kernel: ada6 at ahcich6 bus 0 scbus6 target 0 lun 0 Feb 8 21:16:28 zfsguru kernel: ada6: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0194729 detached Feb 8 21:16:28 zfsguru kernel: (ada6:ahcich6:0:0:0): Periph destroyed Feb 8 21:16:38 zfsguru kernel: ada0 at ahcich0 bus 0 scbus0 target 0 lun 0 Feb 8 21:16:38 zfsguru kernel: ada0: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N1538790 detached Feb 8 21:16:38 zfsguru kernel: ada3 at ahcich3 bus 0 scbus3 target 0 lun 0 Feb 8 21:16:38 zfsguru kernel: ada3: <WDC WD30EZRX-00DC0B0 80.00A80> s/n WD-WMC1T0176466 detached Feb 8 21:16:38 zfsguru kernel: ada1 at ahcich1 bus 0 scbus1 target 0 lun 0 Feb 8 21:16:38 zfsguru kernel: ada1: <WDC WD30EZRX-00D8PB0 80.00A80> s/n WD-WMC4N0865516 detached Feb 8 21:16:38 zfsguru kernel: (ada3:ahcich3:0:0:0): Periph destroyed Feb 8 21:16:38 zfsguru kernel: (ada1:ahcich1:0:0:0): Periph destroyed Feb 8 21:16:38 zfsguru kernel: (ada0:ahcich0:0:0:0): Periph destroyed
Welke Asmedia controller (wilde gok ASM1062)Hebben jullie ideeën waar dit aan zou kunnen liggen? Ik heb zelf de volgende verdachten:
- ASMedia controller
Ik heb, voor een bekende, een kleine 2 jaar geleden een storage bakje op basis van een Asrock B75 Pro3-M (ASM0162 SATA) [Intel i3/16 GB RAM) in elkaar gezet. De SSD (OS) is aangesloten op de eerste SATA3 poort vd Intel chipset en de 6 SATA disks resp. 5x op de intel controller en 1 op de 1e poort vd Asm controller.
De bak draait ZFSguru, ik weet niet exact welke versie, maar in ieder geval niet de laatste.
Welke moederbord en zijn er meer meldingen mbt dit moederbord en SATA problemen?- Moederbord
Wederom welke voeding, wattage, leeftijd (grofweg), etc- Voeding
Zou ik, op t eerste gezicht, geen problemen mee verwachtenIk draai ZFSGuru 0.2.0-beta10 op FreeBSD 10.0-STABLE (system image 10.1-001).
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Het gaat om de ASMedia ASM1061 controller die onboard op het moederbord zit.
Bij deze de specs van de NAS:
Intel i5-3470
16GB DDR3 Corsair
ASRock B75 Pro3-M, SSD inderdaad op de eerste en enige SATA3-poort.
Be-Quiet Pure Power L7 300W
Samsung 830 128GB SSD
7x 3TB WD Green WD30EZRX
Leeftijd van dit geheel is 2,5 jaar.
[ Voor 13% gewijzigd door Scooper op 09-02-2015 12:01 ]
SRK35ZS-W
Lijkt mij eerder een gevalletje met kabels; omdat in dezelfde seconde meerdere disks verdwijnen. Power splitter probleem misschien? Gebruik je Molex-stroomsplitterkabels of 100% SATA power?
[ Voor 48% gewijzigd door Verwijderd op 09-02-2015 12:22 ]

De kabel-errors zijn al van voor dit probleem. Dat was een verrotte kabel die inmiddels is vervangen.
Ik zal als ik thuis ben nog wel even controleren hoe de schijven van stroom worden voorzien, kans is aanwezig dat dit ook via molex-splitters is gebeurd. Uiteindelijk worden de schijven wel middels de SATA-power kabels voorzien van stroom.
De inhoudelijk smart ziet er overigens ook overal netjes uit, geen leesfouten en dergelijke.
[ Voor 15% gewijzigd door Scooper op 09-02-2015 13:14 ]
SRK35ZS-W
Idd. even je splitters na kijken, er zijn hier verschillende mensen die met molex -> SATA power splitters gezeur hebben gehad. Uiteindelijk waren deze van Silverstone in mijn geval een betere keuzehttp://tweakers.net/price...one-sst-cp06-4x-sata.html, of je moet losse SATA power connectoren op een kabel zetten.Scooper schreef op maandag 09 februari 2015 @ 13:12:
[afbeelding]
De kabel-errors zijn al van voor dit probleem. Dat was een verrotte kabel die inmiddels is vervangen.
Ik zal als ik thuis ben nog wel even controleren hoe de schijven van stroom worden voorzien, kans is aanwezig dat dit ook via molex-splitters is gebeurd. Uiteindelijk worden de schijven wel middels de SATA-power kabels voorzien van stroom.
De inhoudelijk smart ziet er overigens ook overal netjes uit, geen leesfouten en dergelijke.
[ Voor 16% gewijzigd door Pantagruel op 09-02-2015 14:16 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik ga de splitters/stroom in elk geval even checken. Bedankt voor jullie input.
SRK35ZS-W
Ik wil zelf nooit meer Molex. Teveel gezeik mee gehad. Als ik een kabel aansluit, wil ik dat die is aangesloten. Niet dat als je met je pink het kabeltje beweegt hij eventjes geen contact meer maakt en dat soort ongein. Dus ik gebruik inderdaad alleen nog maar SATA power splitters.
Of dat je probleem is? Het voldoet in elk geval wel aan de symptomen.
SRK35ZS-W
Processen (samba/ rsync en zelfs ls ) die blijven hangen, de zpool status is goed en laat alle schijven als online zien.
Het enige rare wat ik kan vinden is dat als ik top doe dat de vastgelopen processen de STATE zfs hebben en dat het killen van de betreffende processen (dmv. kill -9) ook niet werkt.
Iemand suggesties wat dit zou kunnen zijn?
Even niets...
1
2
3
4
5
6
| last pid: 23395; load averages: 2.17, 2.06, 1.61 up 6+16:58:48 10:24:31 40 processes: 1 running, 38 sleeping, 1 zombie CPU: 0.4% user, 0.0% nice, 14.9% system, 0.6% interrupt, 84.1% idle Mem: 82M Active, 180M Inact, 2099M Wired, 80M Buf, 5514M Free ARC: 1024M Total, 88M MFU, 712M MRU, 18K Anon, 98M Header, 134M Other Swap: 4096M Total, 4096M Free |
Voorbeeld van zo'n proces
1
2
| PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 14655 root 1 20 0 19356K 2836K zfs 4 0:00 0.00% rsync |
1
| # zpool set bootfs=backup/server/zfsguru/10.1-001 backup |
Daarna even de fstab aanpassen naar de nieuwe locatie:
1
2
3
4
| # zfs set mountpoint=/opt backup/server/zfsguru/10.1-001 # nano /opt/etc/fstab ... # zfs set mountpoint=legacy backup/server/zfsguru/10.1-001 |
Daarna geboot van mijn backup schijf.
Om de backup weer zo snel mogelijk als backup terug te zetten heb ik vervolgens een USB stick ingericht als tijdelijke systeemschijf. Standaard partities (met boot) maken in ZFSGuru, daarna een nieuwe pool aangemaakt.
Vervolgens de systeem backup overgezet naar de USB stick;
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| # zfs create xroot/zfsguru # zfs create xroot/zfsguru/10.1-001 # zfs create xroot/zfsguru/10.1-001/usr # zfs create xroot/zfsguru/10.1-001/var # zfs create xroot/zfsguru/10.1-001/var/log # zfs send backup/server/zfsguru/10.1-001@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001@GMT-2014.11.13-00.00.00 # zfs send backup/server/zfsguru/10.1-001/usr@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001/usr@GMT-2014.11.13-00.00.00 # zfs send backup/server/zfsguru/10.1-001/var@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001/var@GMT-2014.11.13-00.00.00 # zfs send backup/server/zfsguru/10.1-001/var/log@GMT-2015.02.09-00.00.00 | zfs receive xroot/zfsguru/10.1-001/var/log@GMT-2014.11.13-00.00.00 # zfs rollback xroot/zfsguru/10.1-001@GMT-2014.11.13-00.00.00 # zfs rollback xroot/zfsguru/10.1-001/usr@GMT-2014.11.13-00.00.00 # zfs rollback xroot/zfsguru/10.1-001/var@GMT-2014.11.13-00.00.00 # zfs rollback xroot/zfsguru/10.1-001/var/log@GMT-2014.11.13-00.00.00 # zpool set bootfs=xroot/zfsguru/10.1-001 xroot # zfs set mounpoint=/opt xroot/zfsguru/10.1-001 |
Dan weer je /opt/etc/fstab aanpassen
1
2
| # zfs set mounpoint=legacy xroot/zfsguru/10.1-001 # reboot |
Nu kan ik mooi vanaf mijn USB stick booten. Zodra de nieuwe schijf binnen is, maak ik een pool even groot als de huidige USB stick (16GB). Dan kan ik van de nieuwe schijf een mirror maken van de USB stick. Vervolgens haal ik de USB stick weer uit de mirror en heb ik mijn oude systeem weer terug
Sinds de 2 dagen regel reageer ik hier niet meer
Staat er ergens compressie aan ofzo? Of deduplicatie?M@rijn schreef op dinsdag 10 februari 2015 @ 10:25:
Oh sorry, k had t er natuurlijk wel even bij kunnen zetten
code:
1 2 3 4 5 6 last pid: 23395; load averages: 2.17, 2.06, 1.61 up 6+16:58:48 10:24:31 40 processes: 1 running, 38 sleeping, 1 zombie CPU: 0.4% user, 0.0% nice, 14.9% system, 0.6% interrupt, 84.1% idle Mem: 82M Active, 180M Inact, 2099M Wired, 80M Buf, 5514M Free ARC: 1024M Total, 88M MFU, 712M MRU, 18K Anon, 98M Header, 134M Other Swap: 4096M Total, 4096M Free
Voorbeeld van zo'n proces
code:
1 2 PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 14655 root 1 20 0 19356K 2836K zfs 4 0:00 0.00% rsync
Even niets...
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| pool: pool1 state: ONLINE status: One or more devices are configured to use a non-native block size. Expect reduced performance. action: Replace affected devices with devices that support the configured block size, or migrate data to a properly configured pool. scan: scrub in progress since Tue Feb 10 10:02:06 2015 515G scanned out of 1.73T at 295M/s, 1h12m to go 0 repaired, 29.13% done config: NAME STATE READ WRITE CKSUM pool1 ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 da2 ONLINE 0 0 0 da3 ONLINE 0 0 0 da4 ONLINE 0 0 0 da5 ONLINE 0 0 0 da6 ONLINE 0 0 0 da7 ONLINE 0 0 0 logs da0p1 ONLINE 0 0 0 block size: 512B configured, 4096B native cache da1p1 ONLINE 0 0 0 errors: No known data errors |
Ik weet niet zeker, maar zou het uit de pool halen van de logs en cache ssd een suggestie zijn?
[ Voor 4% gewijzigd door M@rijn op 10-02-2015 10:36 ]
Even niets...
Het raarste vind ik persoonlijk is dat een kill -9 niet werkt op de processen, zelfs niet bij een simpele ls.
Mooie mini how-to. Handig als je idd. geen mirrored OS pool draait (saved my butt the last time
Nee dan nadert de snelheid vaak aan die van dikke pap door een trechter.FireDrunk schreef op dinsdag 10 februari 2015 @ 10:44:
Tja, met een scrub in progress zal het niet snel gaan sowieso
Probeer de neiging om te rebooten (in de hoop dat de traagheid dan weg is) te beheersen want de scrub gaat vrolijk weer verder na de reboot. Maar zo aan de getallen te zien is de scrub straks gedaan.
Aha, lees net dat de scrub handmatig is aangezet.
Voor de duidelijkheid, wat is de upgrade geweest en hoe zit t met de vrije ruimte op t sticky??
[ Voor 12% gewijzigd door Pantagruel op 10-02-2015 10:55 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
zfs get all
Even niets...
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
| NAME PROPERTY VALUE SOURCE pool1 type filesystem - pool1 creation Wed Jun 4 11:41 2014 - pool1 used 1.15T - pool1 available 5.98T - pool1 referenced 1.15T - pool1 compressratio 1.00x - pool1 mounted yes - pool1 quota none default pool1 reservation none default pool1 recordsize 128K default pool1 mountpoint /mnt/pool1 local pool1 sharenfs off default pool1 checksum on default pool1 compression off default pool1 atime on default pool1 devices on default pool1 exec on default pool1 setuid on default pool1 readonly off default pool1 jailed off default pool1 snapdir hidden default pool1 aclmode discard default pool1 aclinherit restricted default pool1 canmount on default pool1 xattr off temporary pool1 copies 1 default pool1 version 5 - pool1 utf8only off - pool1 normalization none - pool1 casesensitivity sensitive - pool1 vscan off default pool1 nbmand off default pool1 sharesmb off default pool1 refquota none default pool1 refreservation none default pool1 primarycache all default pool1 secondarycache all default pool1 usedbysnapshots 0 - pool1 usedbydataset 1.15T - pool1 usedbychildren 19.1M - pool1 usedbyrefreservation 0 - pool1 logbias latency default pool1 dedup off default pool1 mlslabel - pool1 sync standard default pool1 refcompressratio 1.00x - pool1 written 1.15T - pool1 logicalused 1.15T - pool1 logicalreferenced 1.15T - pool1 filesystem_limit none default pool1 snapshot_limit none default pool1 filesystem_count none default pool1 snapshot_count none default |
Even niets...
Is de hba geflashed naar de versie van de nieuwe nas4free.
Het beste is om deze gelijk te houden. Ik weet zo 1,2,3 niet welke versie van de driver nas4free heeft.
Versie 20 zou ik zo en zo niet gebruiken aangezien daar meer mensen problemene mee hebben.
Het zijn wel machines die gebruikt gaan worden door gebruikers. In het begin een 10 tal gebruikers, een samba server, een subversion server, een dhcp/dns server, een paar test db servers met naar alle waarschijnlijkheid redelijke datasets.FireDrunk schreef op vrijdag 06 februari 2015 @ 09:49:
Het is even belangrijk om enigzins een beeld te hebben van de load. 10 VMś die stil staan, genereren praktisch 0 load. 9 VMś die niks staan te doen, en 1 VM die continu staat te benchen, is natuurlijk weer een ander verhaal.
Mijn idee: Als je je VM's echt alleen zelf gebruikt, dus zonder enige echte (test-)gebruiker, kan je er wel 100 op een testclustertje draaien.
Mijn plan was om iSCSI te gaan gebruiken. FibreChannel of InfiniBand klinkt goed, als ik het zo na lees op internet, maar ik heb geen ide hoe ik het op moet zetten.iSCSI, NFS of FibreChannel? (Of zelfs InfiniBand?, maar dat gok ik niet)
Ik zit op dit moment even te twijvelen tussen een Xeon E3 of een E5, oorspronkelijk was ik voor een Intel Xeon E5-1620 V3 gegaan, maar daarbij was ik er vanuit gegaan, dat er redelijk wat geheugen nodig was. Vanuit die gedachte een E5, want een E3 heeft natuurlijk een maximum van 64GB.Compressie is niet zo duur (je hebt alleen een fatsoenlijke CPU nodig.
In principe ben ik geen deduplicatie/compressie nodig. Kan je deduplicatie aanzetten op een subgedeelte van je pool?Deduplicatie is een verhaal apart, dat is echt een _hele_ zware optie. Het kost je veel RAM, en op een dataset van 20TB zou ik het niet eens aan durven zetten met 64GB geheugen.
Als je daarentegen Deduplicatie aan zet voor een 500GB-1TB LUN met VM's, hoef je je een stuk minder druk te maken.
Ja, maar heb jij dan alles in 1 machine zitten, of heb je een SSD in de ESXi machine en de HDDs in een losse machine?Precies wat ik heb gedaan. Een lokale SSD voor de kleine Test VM's. Voor het grotere werk een paar HDD's.
Zou je voor de veiligheid in de ESXi server 3 SSD's of HDD's in RAID-Z1 zetten, of wil ik dan te veel veiligheid creeren?
Je kan Deduplicatie en Compressie per Filesystem aan of uit zetten.
Over je laatste punt: Ik gebruik VT-d, dus zowel ESXi als ZFS. (Root partitie van de VM staat op de SSD, hij krijgt vanuit ESXi een controller, en daar draait een ZFS pool op.)
Even niets...
En ja, op die manier gebruik ik het thuis ook, op een X10SL7-F.
Neemt elke 5 tot 10GB aan l2arc nu 1GB geheugen echt in, of is dit een richtlijn voor het alloceren van l2arc?GioStyle schreef op zondag 08 februari 2015 @ 20:29:
[...]
Wat je zegt klopt helemaal. Ik geloof dat je ongeveer rekening moet houden voor elke 5-10GB wat je aan L2ARC neemt, ongeveer 1GB aan geheugen moet reserveren. Doe je dat niet, dan kan inderdaad je performance flink zakken.
Elke situatie is natuurlijk anders, maar normaal gesproken is geheugen toevoegen het best wat je kan doen qua performanceverbetering.
Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/
L2ARC wordt vooral gebruikt voor non-contiguous I/O dus kleine snippertjes I/O. Dan is een paar gigabyte aan L2ARC eigenlijk al erg veel. In de L1ARC (RAM) worden ook grote datablokken in de MRU opgeslagen; bij L2ARC is dit niet zo.
[ Voor 37% gewijzigd door Verwijderd op 13-02-2015 20:10 ]
Ik wil die unavailabe niet meer zien, hoe krijg ik dit voor elkaar? Ik denk dat ie hier met het booten ook op kapot gaat namelijk.
Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/
Post ten eerste eens wat meer info, anders wordt het lastig helpen. Welk OS, wat zijn je instellingen, wat zeggen de logs etc etc.Keiichi schreef op vrijdag 13 februari 2015 @ 22:58:
ik loop op een test NAS nu tegen een vervelend probleem aan. Er zitten schijven van vershillende pools en verschillende configs in die ik niet leeg gemaakt heb. Als ik een nieuw aangemaakt pool wil importeren, dan vind ie 2 pools met dezelfde naam. Eentje staat op unavailable en andere online.
Ik wil die unavailabe niet meer zien, hoe krijg ik dit voor elkaar? Ik denk dat ie hier met het booten ook op kapot gaat namelijk.
is everything cool?
Ik denk dat er nog ergens metadata gevonden wordt op de huidige schijven van een oude pool toen ik hier een andere partionering op had staan.
Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/
* nevermind, verkeerd gelezen
Maar in dat geval: verwijder (destroy) je pool voortaan voordat je er een nieuwe opzet, al helemaal met dezelfde naam. Je kunt de naam trouwens wel veranderen, met het import commando. Zie 'man zpool' bij het kopje over import.
[ Voor 189% gewijzigd door Verwijderd op 14-02-2015 01:10 ]
ps. Ik zal zware unit z'n legacy voortzetten (x9scmf,1270,16g en lsi9201-16i). Stack wordt vermoedelijk esxi5.5 + opensm (op gelijkaardige doos) naar debian zfs/scst of nexentastor/openindiana. De solarissen zijn wat performanter maar het hangt er vanaf of ik de IB controllers aan de praat krijg. De esxi + opensm naar debian custom kernel patched zfs/scst heb ik al een tijdje stabiel in lab draaien (tov. nu debian-op-stock-kernel+opensm+zfs+scst naar esxi5.1uNogwat). Kaartjes zijn nog altijd de voltaire 400ex'ds of ik dacht mlnx mhgh28-xtc's
Kleine reminder voor degene hierboven die IB overweegt, doe jezelf een plezier, ga 10gbe of fc.
pps. er staan momenteel 2 10gbe switches in V/A, procurve 910x al-24g en een force10/dell relabel. Als ik mezelf goed genoeg heb ingelezen zou ik met die force10 cx4/sff-externalsas-nogwat kunnen doen naar mn IB kaarten, mogelijk leuke optie aangezien ik de kabels/kaarten toch al heb om dan even 10gbe te bezoeken. Sell me more?
[ Voor 146% gewijzigd door analog_ op 14-02-2015 01:09 ]
Ik heb het uiteindelijk opgelost door een zpool labelclear op alle partitiesVerwijderd schreef op zaterdag 14 februari 2015 @ 00:42:
Gewoon een 'zpool export <poolnaam>' zal zo'n stale pool doen vergeten. Je kunt bij het importeren ook een parameter meegeven die zorgt dat ZFS de pool niet onthoudt.
* nevermind, verkeerd gelezen*
Maar in dat geval: verwijder (destroy) je pool voortaan voordat je er een nieuwe opzet, al helemaal met dezelfde naam. Je kunt de naam trouwens wel veranderen, met het import commando. Zie 'man zpool' bij het kopje over import.
Ander probleem dat nu ook bij m'n nieuwe NAS opgesteekt. L2arc die 'degraded' raakt.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
| [root@nas /tank]# zfs-stats -L ------------------------------------------------------------------------ ZFS Subsystem Report Sat Feb 14 08:47:28 2015 ------------------------------------------------------------------------ L2 ARC Summary: (DEGRADED) Passed Headroom: 1.59m Tried Lock Failures: 69.08k IO In Progress: 1.12k Low Memory Aborts: 14 Free on Write: 11.20k Writes While Full: 104.89k R/W Clashes: 38 Bad Checksums: 8.70k IO Errors: 3.48k SPA Mismatch: 105.37m L2 ARC Size: (Adaptive) 385.20 GiB Header Size: 0.19% 757.99 MiB L2 ARC Evicts: Lock Retries: 234 Upon Reading: 0 L2 ARC Breakdown: 1.84m Hit Ratio: 3.48% 63.97k Miss Ratio: 96.52% 1.77m Feeds: 118.49k L2 ARC Buffer: Bytes Scanned: 44.07 TiB Buffer Iterations: 118.49k List Iterations: 6.72m NULL List Iterations: 2.29m L2 ARC Writes: Writes Sent: 100.00% 108.50k ------------------------------------------------------------------------ |
In zpool iostat klopt de ruimte ook niet meer:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
| capacity operations bandwidth pool alloc free read write read write ----------------------- ----- ----- ----- ----- ----- ----- tank 1.61T 7.45T 3.41K 20 422M 83.9K raidz2 1.61T 7.45T 3.41K 20 422M 83.9K gpt/WD-WMC5C0D6E885 - - 891 5 55.5M 26.4K gpt/WD-WMC5C0D7VE5C - - 882 5 55.5M 28.8K gpt/9WM42LXF - - 867 4 55.4M 28.0K gpt/9WM42E9G - - 857 5 55.4M 28.0K gpt/9WM42LY8 - - 849 4 55.5M 28.8K gpt/9WM3RW3J - - 860 4 55.5M 30.4K gpt/WD-WCAU48917130 - - 684 4 55.5M 28.0K gpt/WD-WCAU48917395 - - 679 4 55.3M 28.8K gpt/WD-WCAU48917410 - - 724 4 55.5M 28.8K gpt/WD-WCAU48917197 - - 687 5 55.4M 28.0K logs - - - - - - mirror 128K 3.97G 0 0 0 0 gpt/zil1 - - 0 0 0 0 gpt/zil2 - - 0 0 0 0 cache - - - - - - gpt/l2arc1 198G 16.0E 0 0 0 0 gpt/l2arc2 184G 16.0E 0 0 0 0 |
Mijn l2arc bestaat uit 2 partities op m'n ssd (m550's) met elke 64G ruimte. In m'n andere NAS had ik een Crucial M500. Een soort gelijk issue heb ik hier gevonen: https://bugs.freenas.org/issues/5347 . Daar wordt het afgedaan als een hardware issue, maar ik heb nu een iets andere ssd en daar heb ik het zelfde issue (Is het verschil misschien te klein?)
Ik draai FreeBSD 10.1. Heeft er iemand anders ervaringen met m500 of m550 ssd's in l2arc?
Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/
Maar als je 10.1 final draait, zou je deze commit moeten hebben.Use write_psize instead of write_asize when doing vdev_space_update.
Without this change the accounting of L2ARC usage would be wrong and
give 16EB free space because the number became negative and overflows.
Ik draaideVerwijderd schreef op zaterdag 14 februari 2015 @ 10:30:
Enige wat ik ken is deze commit: http://freshbsd.org/commit/freebsd/r273192
[...]
Maar als je 10.1 final draait, zou je deze commit moeten hebben.
1
| 'FreeBSD nas 10.1-RELEASE FreeBSD 10.1-RELEASE #0 r274401: Tue Nov 11 21:02:49 UTC 2014 root@releng1.nyi.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64' |
Heb gisteravond een update naar
1
| FreeBSD nas 10.1-RELEASE-p5 FreeBSD 10.1-RELEASE-p5 #0: Tue Jan 27 08:55:07 UTC 2015 root@amd64-builder.daemonology.net:/usr/obj/usr/src/sys/GENERIC amd64 |
Maar ook vind het probleem daar plaats...
Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/
Maak ik clones van filesystems aan, die maak ik beschikbaar met zowel smb als NFS. Ik zie de clones wél via SMB, maar niet via NFS. Dat wil zeggen: via NFS zie ik ze wel, maar zijn de clones leeg. Via Windows zie ik de inhoud wel.
Hoe kan ik de gesharede clones beschikbaar krijgen via NFS?
zfsguru, btw...
[ Voor 17% gewijzigd door hansdegit op 15-02-2015 15:03 ]
showmount -e
Staat je mount daar niet tussen, dan is hij niet actief.
dit probleem is er nog steeds, hij mist ongeveer ergens een TB aan freespace.MikeVM schreef op woensdag 04 februari 2015 @ 14:21:
ik heb laatst heel veel bestanden verwijdert, mijn pool geeft nu netjes 1TB freespace aan,
maar in de filesystem ziet hij maar 128GB
[afbeelding]
[afbeelding]
is er ergens nog een verborgen recycle bin?


\\ Baloo \\ Mijn iRacing profiel
@MikeVM: heb je snapshots? Zo ja dan kunnen die ruimte in beslag nemen als je bestanden hebt verwijderd die nog wel door de snapshot worden gereserveerd. Dat betekent dat je de vrije ruimte van bestanden verwijderen niet terug krijgt, totdat je de snapshot verwijdert.
Verwijderd schreef op zondag 15 februari 2015 @ 16:12:
@MikeVM: heb je snapshots? Zo ja dan kunnen die ruimte in beslag nemen als je bestanden hebt verwijderd die nog wel door de snapshot worden gereserveerd. Dat betekent dat je de vrije ruimte van bestanden verwijderen niet terug krijgt, totdat je de snapshot verwijdert.

zou een scrub kunnen helpen?
[ Voor 3% gewijzigd door MikeVM op 15-02-2015 16:16 ]
\\ Baloo \\ Mijn iRacing profiel
Want je weet dat zpool commando ruwe ruimte weergeeft; dus inclusief de parity. zfs commando geeft enkel bruikbare ruimte aan. Dus ook exclusief metadata.
Daarnaast; je wilt je pool niet te vol proppen. Je hebt hem nu al veels te vol. Na verloop van tijd zal fragmentatie zorgen voor veel seeks op je pool en dat leidt tot performancedegradatie. Tenzij je om de zoveel tijd de pool opnieuw aanmaakt en herstelt van backup; maar dat doen niet veel mensen.
\\ Baloo \\ Mijn iRacing profiel
Client is een Synology, die spreekt Linux. Het NFS gedeelte klopt echt wel, want als ik een file neerzet op die share, zie ik 'em meteen in de Syno. Ik zal een poging wagen om te laten zien wat ik bedoel.Verwijderd schreef op zondag 15 februari 2015 @ 16:12:
@hansdegit: wat voor client? kun je df -h en ls -l output geven van de gemounte share vanaf die client? Kan het zijn dat er enkel dotfiles te zien zijn? zoals .zfs enzo. Dat zie je standaard niet. Bestanden die met een punt beginnen zijn 'hidden files' onder UNIX.
1
2
3
4
5
6
7
8
9
10
11
| Cloudserver> ls -lrt drwxr-xr-x 2 root 1000 2 Feb 15 14:39 etc drwxr-xr-x 2 root 1000 2 Feb 15 14:39 foto drwxr-xr-x 2 root 1000 2 Feb 15 14:40 handycam drwxr-xr-x 2 root 1000 2 Feb 15 14:40 isootjes drwxr-xr-x 2 root 1000 2 Feb 15 14:40 mail drwxr-xr-x 2 root 1000 2 Feb 15 14:40 share drwxr-xr-x 2 root 1000 2 Feb 15 14:40 test drwxr-xr-x 2 root 1000 2 Feb 15 14:41 users drwxr-xr-x 2 root 1000 2 Feb 15 14:41 warez drwxr-xr-x 2 root 1000 2 Feb 15 14:41 web |
Alle files die je hier ziet zijn feitelijk clones van snapshots van filesystemen. Je verwacht dus dat wanneer ik naar de directory "test" navigeer, ik alle files uit die clone te zien krijg. Even checken:
1
2
3
4
5
6
7
8
| Cloudserver> echo $PWD /volume1/fullbackup/hdtier Cloudserver> cd users Cloudserver> ls -lrt Cloudserver> ls -lart drwxr-xr-x 2 root 1000 2 Feb 15 14:41 . drwxrwxrwx 12 1000 1000 13 Feb 15 17:36 .. |
Als ik precies hetzelfde doe, maar dan op een Windows machine, zie ik die files uit "users" wel. Mijn conclusie: als je via NFS een gecloond filesysteem benadert, kan je geen gebruik maken van zfs pleziertjes. Maar wél via samba
Nog even, maar dan op de server zélf:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
| [root@zfsguru /hdtier/etc/scripts]# cd /hdtier/fullbackup [root@zfsguru /hdtier/fullbackup]# ls -lrt total 154 drwxrwxrwx 2 share share 2 Apr 18 2014 share/ drwxrwxrwx 8 root wheel 8 May 9 2014 users/ drwxrwxrwx 149 root wheel 151 Sep 29 13:50 foto/ drwxrwxrwx 96 root wheel 104 Sep 30 20:15 handycam/ drwxrwxrwx 28 share share 30 Dec 12 11:50 web/ drwxrwxrwx 42 share share 115 Dec 12 13:15 warez/ drwxrwxrwx 13 share share 18 Feb 13 14:11 isootjes/ drwxrwxrwx 5 share share 5 Feb 14 14:03 etc/ drwxrwxrwx 15 share share 74 Feb 14 22:47 mail/ drwxrwxrwx 4 share share 5 Feb 15 11:54 test/ [root@zfsguru /hdtier/fullbackup]# cd users [root@zfsguru /hdtier/fullbackup/users]# ls -lrt total 115 drwxrwxrwx 2 gitje share 2 Nov 18 2010 Rens/ drwxrwxrwx 2 gitje share 2 Dec 16 2011 Maartje/ drwxrwxrwx 3 gitje share 4 Oct 22 19:58 Jelle/ drwxrwxrwx 15 gitje share 72 Nov 17 19:19 Mieke/ drwxrwxrwx 14 gitje share 38 Nov 20 21:54 Gitje/ drwxrwxrwx 35 gitje share 112 Dec 3 12:22 Hans/ |
vaag, toch?
Misschien ten overvloede, de mount vanaf de syno is als volgt:
1
2
| /bin/mount 192.168.0.20:/hdtier/fullbackup /volume1/fullbackup/hdtier /bin/mount 192.168.0.20:/ssdtier/fullbackup /volume1/fullbackup/ssdtier |
[ Voor 27% gewijzigd door hansdegit op 15-02-2015 17:55 ]
Ik zie geen files; enkel directories. Directories kunnen ook filesystems zijn.hansdegit schreef op zondag 15 februari 2015 @ 17:42:
Alle files die je hier ziet
Alleen als die clone ook is geëxporteerd EN GEMOUNT...zijn feitelijk clones van snapshots van filesystemen. Je verwacht dus dat wanneer ik naar de directory "test" navigeer, ik alle files uit die clone te zien krijg.
NFS doet standaard niet aan het crossen van mountpoints! Is dat wellicht je issue?
Dus stel je hebt een server met /NFSEXPORTED filesystem op ZFS en daarin meer filesystems die je als directories ziet met 'ls -l' output, dan zijn al die directories leeg als je kijkt op de client waarmee je NFS hebt gemount. De reden is dat je die filesystems (de 'directories') niet hebt gemount en dus is de inhoud niet zichtbaar.
Bij Samba/CIFS is het crossen van mountpoints geen issue. Bij NFS is dit hoe het protocol is gemaakt. Ik gebruik zelf een script om alle filesystems te mounten op mijn Linux desktops.
[ Voor 99% gewijzigd door FREAKJAM op 16-02-2015 08:53 ]
is everything cool?
Op school heb ik geleerd dat in Unix alles een file is....Verwijderd schreef op zondag 15 februari 2015 @ 18:44:
[...]
Ik zie geen files; enkel directories. Directories kunnen ook filesystems zijn.
[...]
Mmmm...Als het nou een symlink was, was ik het wel eens met NFS. Maar ik snap geloof ik niet zo wat nu het crossen van mountpoints is. Ik zou verwachten dat de inhoud van de clone gewoon keurig door ZFS gereconstrueerd wordt, ook wanneer ik die clone via NFS benader.Alleen als die clone ook is geëxporteerd EN GEMOUNT.
NFS doet standaard niet aan het crossen van mountpoints! Is dat wellicht je issue?
Wat wordt er nu gecrossed? Niets toch?
Maar je zegt dus dat ik de separaat gekloonde snapshots één voor één moet exporteren en dan mounten van de syno?
edit: ik begin het te brgrijpen, geloof ik.... Het eigenlijke filesystem wat ik via de clone probeer te benaderen, is niet hetzelfde filesystem als het fs wat gemount is. Wél dezelfde pool, maar da's niet zo relevant, geloof if.
Da's een beetje balen, want nu moet ik mijn syno gaan vertellen welke filesystems er allemaal zijn op de zfs server. Of ik moet het de Syno laten vragen, natuurlijk.
[ Voor 18% gewijzigd door hansdegit op 15-02-2015 20:22 ]
tank/data
tank/data/music
tank/data/video
En je exporteert tank/data met NFS. Die mount je in Linux client over het netwerk. Prima.
Maar de directories 'music' en 'video' zijn leeg; terwijl ZFS daar gewoon data heeft staan. Dit is wat ik bedoel met het crossen van mountpoints.
De oplossing is redelijk simpel: mount ook alle subfilesystems. Dus niet alleen tank/data mounten in je linux client, maar ook tank/data/music en tank/data/video. Bij het mounten in Linux pas je je lokale mountpoint daarop aan middels een /music en /video suffix erachter. Ik gebruik zelf een script hiervoor.
1
2
3
4
5
6
7
8
9
| sudo mkdir -p /media/green && sudo mkdir -p /media/dev && \ sudo mount 10.0.0.2:/green/share /media/green && \ sudo mount 10.0.0.2:/green/share/doc /media/green/doc && \ sudo mount 10.0.0.2:/green/share/download /media/green/download && \ sudo mount 10.0.0.2:/green/share/games /media/green/games && \ sudo mount 10.0.0.4:/schatkist/share /media/dev && \ sudo mount 10.0.0.4:/schatkist/share/dev /media/dev/dev && \ sudo mount 10.0.0.4:/schatkist/share/volume /media/dev/volume echo "return value = ${?}" |
Euh, of je configureert je server gewoon met de crossmnt/nohide-optie in exports? Dat is er juist voor bedoeld.Verwijderd schreef op zondag 15 februari 2015 @ 20:27:
De oplossing is redelijk simpel: mount ook alle subfilesystems.
nohide
This option is based on the option of the same name provided in IRIX NFS. Normally, if a server exports two filesystems one of which is mounted on the other, then the client will have to mount both filesystems explicitly to get access to them. If it just mounts the parent, it will see an empty directory at the place where the other filesystem is mounted. That filesystem is "hidden".
Setting the nohide option on a filesystem causes it not to be hidden, and an appropriately authorised client will be able to move from the parent to that filesystem without noticing the change.
crossmnt
This option is similar to nohide but it makes it possible for clients to move from the filesystem marked with crossmnt to exported filesystems mounted on it. Thus when a child filesystem "B" is mounted on a parent "A", setting crossmnt on "A" has the same effect as setting "nohide" on B.
[ Voor 34% gewijzigd door Thralas op 15-02-2015 20:39 ]
Kortom, NFSv4 zou het kunenn, NFSv3 niet. Uiteraard kunnen er verschillen zijn tussen FreeBSD en Linux; de manpage die jij noemt is mogelijk voor de Linux NFS server; niet de Linux NFS client of de BSD NFS server.All ZFS file systems in the subtree below the NFSv4 tree root must be exported. NFSv4 does not use the mount protocol and does permit clients to cross server mount point boundaries, although not all clients are capable of crossing the mountpoints.
filesystems:
hdtier/fullbackup
hdtier/users
Nu maak ik een snapshot van hdtier/users@20150215, ik doe een clone van dat snapshot en plaats de clone in hdtier/fullbackup:
1
| zfs clone hdtier/users@20150215 hdtier/fullbackup/users |
hdtier/fullbackup is door de Syno gemount. Wanneer ik nu vanuit de Syno naar die directory wandel, zie ik "users" wel staan, maar die blijkt leeg, wat op de server dus niet zo is.
@Cipher, jij stelt dus dat dit een cross mountpoint situatie is?
Hier hoor je ook te zien dat je clone geshared is:
zfs get sharenfs | grep hdtier
[ Voor 24% gewijzigd door Verwijderd op 15-02-2015 20:56 ]
[ Voor 15% gewijzigd door CurlyMo op 15-02-2015 21:18 ]
Sinds de 2 dagen regel reageer ik hier niet meer

Sinds de 2 dagen regel reageer ik hier niet meer
Maar de opzet moet drastisch veranderen. Nu maak ik om de zoveel tijd een snapshot. Als ik alle clones vanaf de Syno separaat moet mounten kan het dus zomaar zijn dat een mount niet meer geldig is omdat er een nieuw snapshot en een nieuwe clone klaar staat. Dan heb ik dus een mount naar een clone die niet meer bestaat.
Back to the drawing board.
[ Voor 6% gewijzigd door hansdegit op 15-02-2015 22:11 ]
Heb de laatste stable kernel uitgechecked, gecompiled, en nu lijkt het wel goed te werken.Keiichi schreef op zondag 15 februari 2015 @ 09:22:
[...]
Ik draaide
code:
1 'FreeBSD nas 10.1-RELEASE FreeBSD 10.1-RELEASE #0 r274401: Tue Nov 11 21:02:49 UTC 2014 root@releng1.nyi.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64'
Heb gisteravond een update naar
code:
1 FreeBSD nas 10.1-RELEASE-p5 FreeBSD 10.1-RELEASE-p5 #0: Tue Jan 27 08:55:07 UTC 2015 root@amd64-builder.daemonology.net:/usr/obj/usr/src/sys/GENERIC amd64
Maar ook vind het probleem daar plaats...
1
| FreeBSD nas 10.1-STABLE FreeBSD 10.1-STABLE #0 r278805: Sun Feb 15 18:50:50 UTC 2015 ik@nas:/usr/obj/usr/src/sys/GENERIC amd64 |
het wordt eens tijd dat FreeBSD naar git switched, dan kun je ook veel makkelijker zoeken welke commit in welke branch zit (vind ik bij SVN een draak om daar achter te komen)
-edit-
Na een avondje is ie toch weer verkeerd gegaan
1
2
3
| cache - - - - - - gpt/l2arc1 64.0G 72.3G 16.0E 0% - gpt/l2arc2 64.0G 63.7G 318M 0% - |
[ Voor 12% gewijzigd door Keiichi op 16-02-2015 00:29 ]
Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/
Sinds de 2 dagen regel reageer ik hier niet meer
De connectie naar Google wordt verzorgd door de Syno. Synology Cloud Sync spiegelt een -voor de Synology- lokale directory aan de inhoud van je Google Drive. Ik wil dus mijn filesystemen op die specifieke directory projecteren middels een NFS mount zonder dat ik een kopie hoef te maken van al mijn data.
Nu is het natuurlijk vrij simpel om dan maar een rechtstreekse mount te maken van de actuele filesystems op de zfs server, maar er zitten ook databases tussen die een bepaalde mate van consistentie vereisen. Daarvoor is een clone of een snapshot natuurlijk ideaal.
Dus, in essentie, wil ik clones/snapshots van mijn zfs systeem beschikbaar maken in de Cloud Sync directory van de Syno. En die zal het dan wel eens naar mijn Google Drive pompen @14k4 bps.
http://compas.cs.stonybrook.edu/downloads/zfs-over-nfs/
https://github.com/zfsonlinux/zfs/issues/616
Mijn setup hier werkt ook niet via NFS (ook als reactie op jou
CurlyMo in "Het grote ZFS topic"
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb het even lokaal geprobeerd:
1
2
3
4
5
| zfs create tank/test dd if=/dev/random of=/tank/test/10mb.file bs=1000k count=10 zfs snapshot tank/test@clone zfs create tank/clones zfs clone tank/test@clone tank/clones/test |
Vervolgens zowel tank/test als tank/clones beschikbaar maken als NFS share. Het klopt dat je in tank/test het 10mb.file bestand ziet, maar niet in tank/clones/test niet.
Sinds de 2 dagen regel reageer ik hier niet meer
2 SSD's of 2.5" schijven in RAID en daarop het O/S? Als je het O/S op 1 schijf gooit en die gaat stuk ben je de sigaar, of niet?
Sinds de 2 dagen regel reageer ik hier niet meer
10 Disks WD Green 3TB RaidZ2 > 2,72TB*8 = 21,76TBVerwijderd schreef op zondag 15 februari 2015 @ 16:20:
Nee, maar weet je zeker dat de getallen niet kloppen? Heb je een berekening daarvan of hoe heb je dat vastgesteld? Hoe veel disks in RAID-Z2 heb je?
Want je weet dat zpool commando ruwe ruimte weergeeft; dus inclusief de parity. zfs commando geeft enkel bruikbare ruimte aan. Dus ook exclusief metadata.
Daarnaast; je wilt je pool niet te vol proppen. Je hebt hem nu al veels te vol. Na verloop van tijd zal fragmentatie zorgen voor veel seeks op je pool en dat leidt tot performancedegradatie. Tenzij je om de zoveel tijd de pool opnieuw aanmaakt en herstelt van backup; maar dat doen niet veel mensen.
1
2
3
4
5
6
7
8
| [ssh@zfsguru ~]$ df -h Filesystem Size Used Avail Capacity Mounted on Data 581G 25G 556G 4% /Data Data/_Public 20T 20T 556G 97% /Data/_Public Data/_VM 595G 40G 556G 7% /Data/_VM Data/_ZFSGURU 556G 48M 556G 0% /Data/_ZFSGURU Data/zfsguru 556G 348K 556G 0% /Data/zfsguru Data/zfsguru/download 556G 329K 556G 0% /Data/zfsguru/download |
vorige week heb ik ongeveer 1TB aan data verwijdert, de data is weg, maar er kwam geen free space bij.
\\ Baloo \\ Mijn iRacing profiel
Had dit in het proliant server topic geplaatst maar misschien is het hier beter op z'n plek. Hebben jullie hier ideeën over?wmn79 schreef op vrijdag 13 februari 2015 @ 18:55:
Ik wil binnenkort de Proliant Microserver G1610T gaan kopen en deze in gaan zetten om mijn oude Conceptronic CH3SNAS met Alt-F firmware te vervangen. Ik wil op de server of Freenas of ZFSguru gaan draaien. Daarbij wil ik het liefst de twee schijven uit mijn oude NAS (2x Samsung Spinpoint F4 EG HD204UI, 2TB) hergebruiken en er een derde 2TB disk bij te kopen zodat ik de drie schijven in raidz1 kan zetten. Qua data red ik dat makkelijk, momenteel zit ik nog net niet op 1TB.
Nu vraag ik me nog twee dingen af:
- Is het handig om voor die derde schijf een identieke schijf 2ehands te kopen of kan ik gewoon iedere willekeurige 2 TB schijf kopen en deze gebruiken in combinatie met de twee Samsung schijven?
- Hoeveel geheugen zal ik er bij prikken 4GB of 8GB? Met 8GB ben ik meteen toekomstvast en kan ik in de toekomst de server eventueel ook nog inzetten voor andere taken. Met 4GB (dus 6GB) moet het alleen voor de NAS functionaliteiten prima werken volgens mij. Wat zijn jullie ideeën daarover?
Nee dit is een richtlijn. Bij mij bijvoorbeeld neemt 226G aan L2ARC maar 7GB geheugen in beslag. Dit kun je zien door arcstat.pl (scriptje voor ARC en L2ARC statistics) te runnen voor en na het toevoegen van je L2ARC ssd.Keiichi schreef op vrijdag 13 februari 2015 @ 19:19:
[...]
Neemt elke 5 tot 10GB aan l2arc nu 1GB geheugen echt in, of is dit een richtlijn voor het alloceren van l2arc?
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.