ZFS is idd de target. Inmiddels niet meer, ik heb die machine opgeruimd en de backup naar Acronis gezet. Ik neig er wel naar om weer terug te gaan op ZFS, aangezien de kosten van Acronis inmiddels best wel aantikken (ik zat toen nog niet aan mijn 2.5TB minimale afname per maand en betaalde het toch wel).CurlyMo schreef op vrijdag 19 juni 2020 @ 12:59:
[...]
ZFS is je dus je target en niet je source? Jammer dat dat niet anders gaat.
En wat is de source dan? Persoonlijke linux machines?_JGC_ schreef op vrijdag 19 juni 2020 @ 13:03:
[...]
ZFS is idd de target. Inmiddels niet meer, ik heb die machine opgeruimd en de backup naar Acronis gezet. Ik neig er wel naar om weer terug te gaan op ZFS, aangezien de kosten van Acronis inmiddels best wel aantikken (ik zat toen nog niet aan mijn 2.5TB minimale afname per maand en betaalde het toch wel).
Sinds de 2 dagen regel reageer ik hier niet meer
VPS'en met linux bij TransIP. Mooi dat ze snapshot "backups" aanbieden, maar als je een mailbox, los mailtje of database wilt restoren kan dat niet, vandaar de keuze om het offsite te trekken met rsync (en een script die percona xtrabackup gebruikt voor incrementele MySQL backups).CurlyMo schreef op vrijdag 19 juni 2020 @ 14:08:
[...]
En wat is de source dan? Persoonlijke linux machines?
Ik heb op mijn VPS'en ook altijd ZoL zodat ik send/receive kan doen._JGC_ schreef op vrijdag 19 juni 2020 @ 14:49:
[...]
VPS'en met linux bij TransIP. Mooi dat ze snapshot "backups" aanbieden, maar als je een mailbox, los mailtje of database wilt restoren kan dat niet, vandaar de keuze om het offsite te trekken met rsync (en een script die percona xtrabackup gebruikt voor incrementele MySQL backups).
Sinds de 2 dagen regel reageer ik hier niet meer
Ik snap dat, maar ik vraag me wel af of er geen mooiere alternatieven zouden kunnen zijn. Niet dat we hier een probleem hoeven op te lossen wat je zelf duidelijk aangeeft niet te hebben._JGC_ schreef op vrijdag 19 juni 2020 @ 12:56:
@Q ZFS werkt met Copy On Write. Als je rsync daar gebruik van laat maken (--inplace) krijg je gefragmenteerde doelbestanden. Je kunt ook besluiten om niet --inplace te gebruiken, dan krijg je gewoon een nieuw doelbestand, maar dan groeien je snapshots de pan uit qua opslagruimte.
Nog niet zolang geleden heb ik een nieuwe ZFS NAS gebouwd op basis van XigmaNAS (FreeBSD).
Hierin zitten zes Toshiba MQ03ABB300 schijven maar ik zie zorgwekkende gegevens:
Start_Stop_Count 9
Power_On_Hours 1020
Load_Cycle_Count 25290
Load-in_Time 265
Dus na anderhalf maandje zit het systeem al aan 25.000+ load cycles. Dat is dus gemiddeld 25 cycles per uur. Als dat zo verder gaat, zal elke schijf 200.000 cycles per jaar aantikken.
Wat heb ik al geprobeerd:
- Always On
- Power Management disabled (ook APM op level 128 en 254)
- Zoeken naar firmware update of software tools
Wat kan ik nog doen om te vermijden dat elke 2 minuten de schijven hun kop parkeren ? Ik vermoed dat deze niet meer dan een paar honderdduizend cycles kunnen en het is niet evident 3TB of grotere schijven te vinden die niet SMR zijn, dit zijn de enige
Ik zou het nog even willen uithouden totdat 4TB SSD's betaalbaar zijn
Hierin zitten zes Toshiba MQ03ABB300 schijven maar ik zie zorgwekkende gegevens:
Start_Stop_Count 9
Power_On_Hours 1020
Load_Cycle_Count 25290
Load-in_Time 265
Dus na anderhalf maandje zit het systeem al aan 25.000+ load cycles. Dat is dus gemiddeld 25 cycles per uur. Als dat zo verder gaat, zal elke schijf 200.000 cycles per jaar aantikken.
Wat heb ik al geprobeerd:
- Always On
- Power Management disabled (ook APM op level 128 en 254)
- Zoeken naar firmware update of software tools
Wat kan ik nog doen om te vermijden dat elke 2 minuten de schijven hun kop parkeren ? Ik vermoed dat deze niet meer dan een paar honderdduizend cycles kunnen en het is niet evident 3TB of grotere schijven te vinden die niet SMR zijn, dit zijn de enige
Ik zou het nog even willen uithouden totdat 4TB SSD's betaalbaar zijn
@Phuncz Weet je zeker dat de Load_Cycle_Count waarde klopt? Iedere fabrikant gebruikt weer eigen identifiers voor z'n SMART-waardes. Het kan zijn dat die in dit geval niet 100% lekker gemapped zijn door je OS (zeker FreeBSD blinkt niet uit in hardware support).
No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.
@Freeaqingme
/f/image/XapYETedhte2AUjZehiVtPoW.png?f=fotoalbum_medium)
Verder weet ik niet hoe ik het preciezer kan te weten komen. De andere data lijkt namelijk zeer goed te kloppen.
/f/image/XapYETedhte2AUjZehiVtPoW.png?f=fotoalbum_medium)
Verder weet ik niet hoe ik het preciezer kan te weten komen. De andere data lijkt namelijk zeer goed te kloppen.
Ik dacht even bij de support van Toshiba te kijken, maar als ik het model (MQ03ABB300) invul op de support site van Toshiba dan vind ik niet die schijf. Waar je die verder zou moeten kunnen vinden weet ik ook niet.Phuncz schreef op maandag 22 juni 2020 @ 20:24:
@Freeaqingme
[Afbeelding]
Verder weet ik niet hoe ik het preciezer kan te weten komen. De andere data lijkt namelijk zeer goed te kloppen.
Verder kom ik ook niet. Hier is iemand die ook zo'n disk heeft, maar die zit met dubbel zo veel uur aan een significant lagere load cycle count. Ik weet even niet wat je verder nog zou kunnen doen.
EDIT: Vergeten te zeggen; de kans dat de mapping wel goed is is groter dan dat 'ie niet goed is. Zeker als de rest van de waardes wel lijkt te kloppen. Dan zou ik de oplossing niet per se in deze richting zoeken.
[ Voor 9% gewijzigd door Freeaqingme op 22-06-2020 21:18 ]
No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.
@Freeaqingme
Ze zijn inderdaad niet makkelijk om informatie over te vinden. Ik heb het vermoeden dat deze ook niet bedoeld zijn voor de retail maar de OEM markt. De documenten die ik al eerder heb gevonden zijn deze:
https://toshiba.semicon-s...Bxxx-Product-Overview.pdf
https://www.toshiba.co.jp/tech/review/en/01_02/pdf/a07.pdf
Maar daar haal ik geen specs uit die Load Cycles noemt. Ik kan niet verklaren waarom jouw voorbeeld zoveel minder cycles heeft.
Dit zijn de settings die ik al een paar dagen heb staan, met geen verschil in de hoeveelheid cycles per dag.
Ze zijn inderdaad niet makkelijk om informatie over te vinden. Ik heb het vermoeden dat deze ook niet bedoeld zijn voor de retail maar de OEM markt. De documenten die ik al eerder heb gevonden zijn deze:
https://toshiba.semicon-s...Bxxx-Product-Overview.pdf
https://www.toshiba.co.jp/tech/review/en/01_02/pdf/a07.pdf
Maar daar haal ik geen specs uit die Load Cycles noemt. Ik kan niet verklaren waarom jouw voorbeeld zoveel minder cycles heeft.
Dit zijn de settings die ik al een paar dagen heb staan, met geen verschil in de hoeveelheid cycles per dag.
/f/image/qDZz9tc9fqZYPJbD8c434YOX.png?f=fotoalbum_medium)
[ Voor 5% gewijzigd door Phuncz op 22-06-2020 20:55 ]
Ik heb een server migratie gehad. Ik heb nu 4 schijven die in een mirror/striped set staan.
Deze config is 2x3TB en 2x2TB. In totaal heb ik dus 5TB ruimte.
Ik nog een sata poortje over en een 2TB schijf over. Nu is de vraag kan ik deze inzetten voor parity/hot spare?
En zo ja hoe doe ik dat?
Deze config is 2x3TB en 2x2TB. In totaal heb ik dus 5TB ruimte.
Ik nog een sata poortje over en een 2TB schijf over. Nu is de vraag kan ik deze inzetten voor parity/hot spare?
En zo ja hoe doe ik dat?
Wat is hoop? Uitgestelde teleurstelling
https://www.thegeekdiary....spares-in-a-storage-pool/Dj Neo Ziggy schreef op dinsdag 23 juni 2020 @ 11:32:
Ik heb een server migratie gehad. Ik heb nu 4 schijven die in een mirror/striped set staan.
Deze config is 2x3TB en 2x2TB. In totaal heb ik dus 5TB ruimte.
Ik nog een sata poortje over en een 2TB schijf over. Nu is de vraag kan ik deze inzetten voor parity/hot spare?
En zo ja hoe doe ik dat?
Ik heb me er verder niet in verdiept maar de 2 TB schijf kan natuurlijk niet als spare dienen voor de 3TB VDEV.
Mogelijk dat je de 2 TB schijf exclusief kunt toewijzen aan een vdev.
Nee dat zie ik ook nu in, maar wel als parity?
Wat is hoop? Uitgestelde teleurstelling
De parity disk zal net zo groot moeten zijn als je individuele delen / de kleinste disk bepaald de grote van alle disks.Dj Neo Ziggy schreef op dinsdag 23 juni 2020 @ 14:31:
Nee dat zie ik ook nu in, maar wel als parity?
Als je dus zegt:
mirror van 2x 3TB
mirror van 2x 2TB
Daar overheen RAIDZ1
Dan blijft er van die 3TB mirror nog maar 2TB over en dus effectief 4TB i.p.v. 5TB. Immers wordt voor elke bit(positie) zeg maar over alle disks samen de parity berekent en op de laatste disk gezet. Het maximum aantal bruikbare bits (per disk) is dan dus ook beperkt door het aantal bits dat op de parity disk kunnen (/überhaupt de kleinste disk, want als een "gewone" disk kleiner is heb je daar alsnog geen positie op om parity over te berekeken)
* Overigens werkt het bij ZFS met RAIDZ afaik sowieso weer wat anders omdat die geen parity disks heeft. Parity wordt op een willekeurige disk gezet en elke disk kan/zal dus een combinatie van daadwerkelijke (striped) data plus parity bevatten.
Nee, zo werk ZFS niet.Dj Neo Ziggy schreef op dinsdag 23 juni 2020 @ 14:31:
Nee dat zie ik ook nu in, maar wel als parity?
Ik zou de 2tb schijf op de plank laten liggen als replacement.
@Dj Neo Ziggy Hot spare is zinloos. Kies beter voor een aanvullend parity niveau. Dus:
2-weg mirror + spare kan beter een 3-weg mirror worden
RAIDZ1 + spare kan beter een RAIDZ2 worden
enz.
2-weg mirror + spare kan beter een 3-weg mirror worden
RAIDZ1 + spare kan beter een RAIDZ2 worden
enz.
Sinds de 2 dagen regel reageer ik hier niet meer
Thanx voor alle tips. hij gaat op de plank
Wat is hoop? Uitgestelde teleurstelling
Momenteel heb ik 2x2 ZFS gecombineerde schijven in mijn NAS hangen. De één is 2x3TB (dus 6TB), de andere is 2x2TB (4TB).
Aangezien ik backups maak op dezelfde machine, vind ik dit eigenlijk niet zo'n handige en goede oplossing. Mijn idee dan ook deze 2x2TB bij te voegen bij de huidige dataset en een schijf erbij kopen van 4TB/6TB voor mijn essentiële data waarover ik backups maak op een andere machine. Er staan veel series op mijn NAS, die download ik wel opnieuw mocht de boel crashen.
Is dit handig? Kan ik gewoon 'blijven stapelen'? Wat doet dit aan de prestaties? Ik heb ook nog een SSD die ik zou willen inzetten als cache, maar ook hier lees ik veel mixed verhalen over.
Thanks!
Aangezien ik backups maak op dezelfde machine, vind ik dit eigenlijk niet zo'n handige en goede oplossing. Mijn idee dan ook deze 2x2TB bij te voegen bij de huidige dataset en een schijf erbij kopen van 4TB/6TB voor mijn essentiële data waarover ik backups maak op een andere machine. Er staan veel series op mijn NAS, die download ik wel opnieuw mocht de boel crashen.
Is dit handig? Kan ik gewoon 'blijven stapelen'? Wat doet dit aan de prestaties? Ik heb ook nog een SSD die ik zou willen inzetten als cache, maar ook hier lees ik veel mixed verhalen over.
Thanks!
Ik sta zelf helemaal achter je redenatie en plan. Ik zou mij geen zorgen maken over de prestaties.HollowGamer schreef op donderdag 25 juni 2020 @ 12:28:
Momenteel heb ik 2x2 ZFS gecombineerde schijven in mijn NAS hangen. De één is 2x3TB (dus 6TB), de andere is 2x2TB (4TB).
Aangezien ik backups maak op dezelfde machine, vind ik dit eigenlijk niet zo'n handige en goede oplossing. Mijn idee dan ook deze 2x2TB bij te voegen bij de huidige dataset en een schijf erbij kopen van 4TB/6TB voor mijn essentiële data waarover ik backups maak op een andere machine. Er staan veel series op mijn NAS, die download ik wel opnieuw mocht de boel crashen.
Is dit handig? Kan ik gewoon 'blijven stapelen'? Wat doet dit aan de prestaties? Ik heb ook nog een SSD die ik zou willen inzetten als cache, maar ook hier lees ik veel mixed verhalen over.
Thanks!
De data zal in de overgebleven pool zal niet naar verhouding gebalanced zijn over de VDEVs maar ik denk dat dit geen probleem is. Ik laat me echter graag corrigeren door mede-tweakers.
Ik zie ook geen reden voor een SSD in dit verhaal.
Zolang je maar een backup schijf aan een andere computer hangt (al is het een Raspberry Pi4), zit je goed. Het enige risico wat overblijft is brand/diefstal.
Op het moment heb ik op mijn "oude" thuisserver/nas een aantal datasets met documenten etc. Deze zou ik graag willen overzetten naar mijn nieuwe thuisserver/nas, maar dan wel encrypten (met ZFS native encryption). Alleen, hoe?
Ik heb een (parent) dataset aangemaakt met encryption, en vervolgens een send & receive gedaan: zfs send -R source@snap | zfs receive parent. Verrassend genoeg werkt dit, maar de child heeft dan geen encrypion meer
(uiteraard kwam ik daar pas veel later achter / nadat die had gefaald en ik nog wat pogingen nodig had om een deel met 200GB nieuwe data over te zetten). Nu een nieuwe dataset aangemaakt, die wel netjes de encrypion overneemt van de parent. Maar een nieuwe send & receive mislukt dan weer op dat de dataset al bestaat en -F nodig is. Waarbij ik weer vrees dat een -F ervoor zorgt dat de encryption verloren gaat. Ook een snelle Google zoekopdracht geeft daarbij aan dat het niet zo eenvoudig is om een dataset te repliceren en daarbij encryption te enablen. Mogelijke oplossing die langs kwam was de -R laten vallen en alleen het oudste snapshot over te zetten, en daarna met een -I de rest binnen te halen. Wat zijn dus jullie ervaringen hiermee?
Overigens worden de datasets nu ook al gerepliceerd naar een Orange Pi, liefst kan ik daar de nieuwe snapshots dadelijk aan vast plakken. Maar dat zal vast niet gaan lukken, gezien ik een raw send & receive wil gaan doen die kant op, en dus de encryption behouden, zonder uiteraard de encryption key op de Pi te zetten (later wil ik die Pi dan ook nog buitenshuis gaan plaatsen).
Ik heb een (parent) dataset aangemaakt met encryption, en vervolgens een send & receive gedaan: zfs send -R source@snap | zfs receive parent. Verrassend genoeg werkt dit, maar de child heeft dan geen encrypion meer

Overigens worden de datasets nu ook al gerepliceerd naar een Orange Pi, liefst kan ik daar de nieuwe snapshots dadelijk aan vast plakken. Maar dat zal vast niet gaan lukken, gezien ik een raw send & receive wil gaan doen die kant op, en dus de encryption behouden, zonder uiteraard de encryption key op de Pi te zetten (later wil ik die Pi dan ook nog buitenshuis gaan plaatsen).
Ik heb mijn eigen vraag / probleem van hierboven intussen soort van opgelost, gedeeltelijk met trial en error en gedeeltelijk met RTFM.
Waar het op neer komt is dat een enkel snapshot overzetten als child van een encrypted dataset wel werkt, maar een incremental update niet meer, omdat de dataset dan verandert zou zijn.
Oftewel:
Waarbij new/parent encrypted is werkt, en new/parent/child is dan ook encrypted op basis van parent.
Echter faalt het bijwerken dan:
Dit geeft een error dat de dataset is aangepast.
Wat echter wel werkt is de encryptie expliciet toepassen op de nieuwe dataset. Ook dan moet het oudste snapshot eerst worden overgezet, maar daarna kan de rest wel incrimenteel, oftewel, dit werkt wel:
Waarom dit werkt ben ik echter niet achter gekomen. Noch heb ik enig idee wat het nadeel is van het opnieuw/expliciet toepassen van de encryptie instellingen. Maar het geeft dus in ieder geval het resultaat dat snapshots steeds opnieuw bijgewerkt kunnen worden vanaf de bron.
Overigens heb ik het laatste ook geprobeerd met een -R, maar ook dat werkt niet. Exacte error weet ik niet meer, maar na overzetten van het initiële snapshot klapt die eruit. Vervolgens de rest van de snapshots overzetten met een -I kan dan weer wel.
Waar het op neer komt is dat een enkel snapshot overzetten als child van een encrypted dataset wel werkt, maar een incremental update niet meer, omdat de dataset dan verandert zou zijn.
Oftewel:
# zfs send old/data@old | zfs receive new/parent/child
Waarbij new/parent encrypted is werkt, en new/parent/child is dan ook encrypted op basis van parent.
Echter faalt het bijwerken dan:
# zfs send -I @old old/data@new | zfs receive new/parent/child
Dit geeft een error dat de dataset is aangepast.
Wat echter wel werkt is de encryptie expliciet toepassen op de nieuwe dataset. Ook dan moet het oudste snapshot eerst worden overgezet, maar daarna kan de rest wel incrimenteel, oftewel, dit werkt wel:
# zfs send old/data@old | zfs receive -o encrypion=on -o keyformat=raw -o keylocation=file:///... new/parent/child # zfs send -I @old old/data@new | zfs receive new/parent/child
Waarom dit werkt ben ik echter niet achter gekomen. Noch heb ik enig idee wat het nadeel is van het opnieuw/expliciet toepassen van de encryptie instellingen. Maar het geeft dus in ieder geval het resultaat dat snapshots steeds opnieuw bijgewerkt kunnen worden vanaf de bron.
Overigens heb ik het laatste ook geprobeerd met een -R, maar ook dat werkt niet. Exacte error weet ik niet meer, maar na overzetten van het initiële snapshot klapt die eruit. Vervolgens de rest van de snapshots overzetten met een -I kan dan weer wel.
Ik weet niet hoe je APM uitgezet hebt, maar heb je het resultaat ook gechecked?Phuncz schreef op maandag 22 juni 2020 @ 20:02:
Nog niet zolang geleden heb ik een nieuwe ZFS NAS gebouwd op basis van XigmaNAS (FreeBSD).
Hierin zitten zes Toshiba MQ03ABB300 schijven maar ik zie zorgwekkende gegevens:
Start_Stop_Count 9
Power_On_Hours 1020
Load_Cycle_Count 25290
Load-in_Time 265
Dus na anderhalf maandje zit het systeem al aan 25.000+ load cycles. Dat is dus gemiddeld 25 cycles per uur. Als dat zo verder gaat, zal elke schijf 200.000 cycles per jaar aantikken.
Wat heb ik al geprobeerd:
- Always On
- Power Management disabled (ook APM op level 128 en 254)
- Zoeken naar firmware update of software tools
Wat kan ik nog doen om te vermijden dat elke 2 minuten de schijven hun kop parkeren ? Ik vermoed dat deze niet meer dan een paar honderdduizend cycles kunnen en het is niet evident 3TB of grotere schijven te vinden die niet SMR zijn, dit zijn de enige![]()
Ik zou het nog even willen uithouden totdat 4TB SSD's betaalbaar zijn
Zou je eens een
camcontrol identify da1
Overigens is er best wat marge, ik heb 5 stuks HGST Travelstar 5k1000 en ik zat ook niet op te letten, de oudste schijf heeft deze smart stats:
9 Power_On_Hours 0x0012 001 001 000 Old_age Always - 47402 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 60 193 Load_Cycle_Count 0x0012 001 001 000 Old_age Always - 4041753
Ik overweeg op het moment om de schijven te vervangen door jouw MQ03's omdat dit een van de weinige grote PMR 2.5" disks zijn, dus als we het bij jou gefixt krijgen dan kan ik met een gerust hart schijven gaan vervangen
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Om hier nogmaals op terug te komen:
Dus eerst dan:
zoals ik al had aangegeven. Maar new/parent/child heeft dan zijn eigen encryption properties (encryption, keyformat, keylocation, ...), en zfs get encryptionroot new/parent/child geeft dan ook new/parent/child aan, i.p.v. new/parent. Maar na:
is dat weer allemaal weggepoetst. De encryptionroot is dan new/parent, encryption blijft wel expliciet ingesteld, ne als keyformat, maar de keylocation wordt dan op none gezet.
Ik kwam zojuist change-key -i <filesystem> tegen, en dan wordt de encryptie op "inherit" gezet en is alles "in orde" wat mij betreft.RobertMe schreef op zondag 28 juni 2020 @ 11:34:
Noch heb ik enig idee wat het nadeel is van het opnieuw/expliciet toepassen van de encryptie instellingen. Maar het geeft dus in ieder geval het resultaat dat snapshots steeds opnieuw bijgewerkt kunnen worden vanaf de bron.
Dus eerst dan:
# zfs send old/data@old | zfs receive -o encrypion=on -o keyformat=raw -o keylocation=file:///... new/parent/child # zfs send -I @old old/data@new | zfs receive new/parent/child
zoals ik al had aangegeven. Maar new/parent/child heeft dan zijn eigen encryption properties (encryption, keyformat, keylocation, ...), en zfs get encryptionroot new/parent/child geeft dan ook new/parent/child aan, i.p.v. new/parent. Maar na:
# zfs change-key -i new/parent/chlid
is dat weer allemaal weggepoetst. De encryptionroot is dan new/parent, encryption blijft wel expliciet ingesteld, ne als keyformat, maar de keylocation wordt dan op none gezet.
Ik zie je bericht nu pas. Bizar is dat deze APM level 128 aanduidt terwijl het in de web-interface staat op 254.P5ycho schreef op woensdag 1 juli 2020 @ 15:41:
[...]
Ik weet niet hoe je APM uitgezet hebt, maar heb je het resultaat ook gechecked?
Zou je eens eenwillen doen?camcontrol identify da1
Overigens is er best wat marge, ik heb 5 stuks HGST Travelstar 5k1000 en ik zat ook niet op te letten, de oudste schijf heeft deze smart stats:
9 Power_On_Hours 0x0012 001 001 000 Old_age Always - 47402 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 60 193 Load_Cycle_Count 0x0012 001 001 000 Old_age Always - 4041753
Ik overweeg op het moment om de schijven te vervangen door jouw MQ03's omdat dit een van de weinige grote PMR 2.5" disks zijn, dus als we het bij jou gefixt krijgen dan kan ik met een gerust hart schijven gaan vervangen
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
| pass2: <TOSHIBA MQ03ABB300 JP050U> ATA8-ACS SATA 3.x device pass2: 600.000MB/s transfers, Command Queueing Enabled protocol ATA8-ACS SATA 3.x device model TOSHIBA MQ03ABB300 firmware revision JP050U serial number 18KAW0OIT WWN *** additional product id cylinders 16383 heads 16 sectors/track 63 sector size logical 512, physical 4096, offset 0 LBA supported 268435455 sectors LBA48 supported 5860533168 sectors PIO supported PIO4 DMA supported WDMA2 UDMA5 media RPM 5400 Zoned-Device Commands no Feature Support Enabled Value Vendor read ahead yes yes write cache yes yes flush cache yes yes Native Command Queuing (NCQ) yes 32 tags NCQ Priority Information no NCQ Non-Data Command no NCQ Streaming no Receive & Send FPDMA Queued no NCQ Autosense no SMART yes yes security yes no power management yes yes microcode download yes yes advanced power management yes yes 128/0x80 automatic acoustic management no no media status notification no no power-up in Standby yes no write-read-verify no no unload yes yes general purpose logging yes yes free-fall no no sense data reporting no no extended power conditions no no device statistics notification no no Data Set Management (DSM/TRIM) no Trusted Computing no encrypts all user data no Sanitize no Host Protected Area (HPA) yes no 5860533168/5860533167 HPA - Security yes no Accessible Max Address Config no |
Met
code:
heb ik APM uitgeschakeld, nu moet ik het in de gaten houden. Momenteel 1.300 Power On Hours en 34.000 Load Cycle Count gemiddeld. Ik was eigenlijk van plan dit te laten varen en te hopen dat het minimaal 3 jaren uithoudt. Maar als jij met 4 miljoen cycles het nog steeds trekt, moet ik me misschien geen zorgen maken.1
| sudo camcontrol apm da1 |
Ik kan de schijven wel aanraden met mijn korte ervaring. Ze zijn stil: tot nu toe heb ik ze steeds moeten herkennen of ze aan staan door trilling te voelen in de drive cage. Qua performance mag ik ook niet klagen in RAID-Z2, zpool scrub ging aan 350MB/sec als ik enkel de used space tel, full array is dat 470MB/sec.
Kijk, zo pik ik ook nog wat op. Ik heb nog in m'n rc.local staan voor alle disks, blijkbaar is daar ondertussen een makkelijkere optie voor. Vergeet niet, een reboot en apm staat weer aan.
600000 load cycles is average, ik zou er niet op gokken iig.
camcontrol cmd adaX -a "EF 85 00 00 00 00 00 00 00 00 00 00"
600000 load cycles is average, ik zou er niet op gokken iig.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
@P5ycho Zojuist gechecked maar Load Cycle Count blijft lustig doortikken. Ik heb ze nu terug op 128 gezet. via camcontrol.
@P5ycho Mogelijk de LSI 9205-8i SAS controller ? Anders heb ik geen idee.
Let wel op dat ik niet zeg dat de schijf de APM functie weigert, maar dat de LCC waarde blijft stijgen. Een lopende theorie van mij is dat de kop een load cycle doet om zijn head heating te calibreren, resetten of te testen en dit niet (compleet) uit te schakelen valt.
Momenteel hou ik de waardes bij in verhouding met de Power On Hours om te zien of een bepaalde instelling meer of minder effect heeft op het aantal LCC per "Power On Hours". Ik heb blijkbaar één keer een instelling gehad waardoor deze minimaal stegen, maar dit is al een lange tijd geleden voordat ik het op die manier bijhield en dus niet heb genoteerd.
Let wel op dat ik niet zeg dat de schijf de APM functie weigert, maar dat de LCC waarde blijft stijgen. Een lopende theorie van mij is dat de kop een load cycle doet om zijn head heating te calibreren, resetten of te testen en dit niet (compleet) uit te schakelen valt.
Momenteel hou ik de waardes bij in verhouding met de Power On Hours om te zien of een bepaalde instelling meer of minder effect heeft op het aantal LCC per "Power On Hours". Ik heb blijkbaar één keer een instelling gehad waardoor deze minimaal stegen, maar dit is al een lange tijd geleden voordat ik het op die manier bijhield en dus niet heb genoteerd.
[ Voor 34% gewijzigd door Phuncz op 05-07-2020 08:09 ]
De LSI controller verzorgt scsi-ata translatie, misschien gaat daar nog iets mis?
De piezo heaters op de arm worden juist aangestuurd tijdens het positioneren lijkt me.
Wat gebeurt er als:
Als daar niets uitkomt dan is het misschien nog de moeite waard om met 1 disk de LSI controller te bypassen.
De piezo heaters op de arm worden juist aangestuurd tijdens het positioneren lijkt me.
Wat gebeurt er als:
camcontrol devlist camcontrol identify da1 -v camcontrol apm da1 camcontrol identify da1 -v camcontrol cmd ada0 -a "EF 85 00 00 00 00 00 00 00 00 00 00" camcontrol identify da1 -v
Als daar niets uitkomt dan is het misschien nog de moeite waard om met 1 disk de LSI controller te bypassen.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Voor de duidelijkheid, die SAS kaart staat in IT-mode, dus als een Host-Based Adapter.
Die voorlaatste cmd ken ik niet maar is ada0 niet fout ? da0 is de boot drive namelijk.
code:
1
2
3
4
5
6
7
8
9
| [admin@xigmanas ~]$ sudo camcontrol devlist <NECVMWar VMware SATA CD00 1.00> at scbus2 target 0 lun 0 (pass0,cd0) <VMware Virtual disk 2.0> at scbus32 target 0 lun 0 (pass1,da0) <ATA TOSHIBA MQ03ABB3 0U> at scbus33 target 0 lun 0 (pass2,da1) <ATA TOSHIBA MQ03ABB3 0U> at scbus33 target 1 lun 0 (pass3,da2) <ATA TOSHIBA MQ03ABB3 0U> at scbus33 target 2 lun 0 (pass4,da3) <ATA TOSHIBA MQ03ABB3 0U> at scbus33 target 3 lun 0 (pass5,da4) <ATA TOSHIBA MQ03ABB3 0U> at scbus33 target 4 lun 0 (pass6,da5) <ATA TOSHIBA MQ03ABB3 0U> at scbus33 target 5 lun 0 (pass7,da6) |
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
| [admin@xigmanas ~]$ sudo camcontrol identify da1 -v camcontrol: sending ATA ATA_IDENTIFY via pass_16 with timeout of 30000 msecs pass2: Raw identify data: 0: 0040 3fff c837 0010 0000 0000 003f 0000 8: 0000 0000 3831 414b 3057 494f 0054 0000 16: 0000 0000 0000 0000 0000 8000 0000 504a 24: 3530 5530 0000 4f54 4853 4249 2041 514d 32: 3330 4241 3342 3030 0000 0000 0000 0000 40: 0000 0000 0000 0000 0000 0000 0000 8010 48: 0000 2f00 4000 0200 0000 0007 3fff 0010 56: 003f fc10 00fb 0110 ffff 0fff 0007 0007 64: 0003 0078 0078 0078 0078 0108 0000 0000 72: 0000 0000 0000 001f ef0e 0006 004c 0044 80: 01f8 0000 746b 7d69 6163 7469 bc49 6163 88: 203f 8123 8123 0080 fffe 0000 0000 0000 96: 0000 0000 0000 0000 a3b0 5d50 0001 0000 104: 0000 0000 6003 0000 5000 0398 4490 40da 112: 0000 0000 0000 0000 0000 0000 0000 401c 120: 401c 0000 0000 0000 0000 0000 0000 0000 128: 0021 0000 0000 0000 0000 0000 0000 0000 136: 0000 0000 0000 0000 0000 0000 0000 0000 144: 0000 0000 0000 0000 0000 0000 0000 0000 152: 0000 0000 0000 0000 0000 0000 0000 0000 160: 0000 0000 0000 0000 0000 0000 0000 0000 168: 0003 0000 0000 0000 0000 0000 0000 0000 176: 0000 0000 0000 0000 0000 0000 0000 0000 184: 0000 0000 0000 0000 0000 0000 0000 0000 192: 0000 0000 0000 0000 0000 0000 0000 0000 200: 0000 0000 0000 0000 0000 0000 003d 0000 208: 0000 4000 0000 0000 0000 0000 0000 0000 216: 0000 1518 0000 0000 0000 0000 103f 0000 224: 0000 0000 0000 0000 0000 0000 a3b0 5d50 232: 0001 0000 0001 0080 0000 0000 0000 0000 240: 0000 0000 0000 0000 0000 0000 0000 0000 248: 0000 0000 0000 0000 0000 0000 0000 fba5 camcontrol: sending ATA READ_NATIVE_MAX_ADDRESS48 via pass_16 with timeout of 5000 msecs pass2: <TOSHIBA MQ03ABB300 JP050U> ATA8-ACS SATA 3.x device pass2: 600.000MB/s transfers, Command Queueing Enabled protocol ATA8-ACS SATA 3.x device model TOSHIBA MQ03ABB300 firmware revision JP050U serial number 18KAW0OIT WWN *** additional product id cylinders 16383 heads 16 sectors/track 63 sector size logical 512, physical 4096, offset 0 LBA supported 268435455 sectors LBA48 supported 5860533168 sectors PIO supported PIO4 DMA supported WDMA2 UDMA5 media RPM 5400 Zoned-Device Commands no Feature Support Enabled Value Vendor read ahead yes yes write cache yes yes flush cache yes yes Native Command Queuing (NCQ) yes 32 tags NCQ Priority Information no NCQ Non-Data Command no NCQ Streaming no Receive & Send FPDMA Queued no NCQ Autosense no SMART yes yes security yes no power management yes yes microcode download yes yes advanced power management yes yes 128/0x80 automatic acoustic management no no media status notification no no power-up in Standby yes no write-read-verify no no unload yes yes general purpose logging yes yes free-fall no no sense data reporting no no extended power conditions no no device statistics notification no no Data Set Management (DSM/TRIM) no Trusted Computing no encrypts all user data no Sanitize no Host Protected Area (HPA) yes no 5860533168/5860533167 HPA - Security yes no Accessible Max Address Config no |
code:
1
| [admin@xigmanas ~]$ sudo camcontrol apm da1 |
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
| [admin@xigmanas ~]$ sudo camcontrol identify da1 -v camcontrol: sending ATA ATA_IDENTIFY via pass_16 with timeout of 30000 msecs pass2: Raw identify data: 0: 0040 3fff c837 0010 0000 0000 003f 0000 8: 0000 0000 3831 414b 3057 494f 0054 0000 16: 0000 0000 0000 0000 0000 8000 0000 504a 24: 3530 5530 0000 4f54 4853 4249 2041 514d 32: 3330 4241 3342 3030 0000 0000 0000 0000 40: 0000 0000 0000 0000 0000 0000 0000 8010 48: 0000 2f00 4000 0200 0000 0007 3fff 0010 56: 003f fc10 00fb 0110 ffff 0fff 0007 0007 64: 0003 0078 0078 0078 0078 0108 0000 0000 72: 0000 0000 0000 001f ef0e 0006 004c 0044 80: 01f8 0000 746b 7d69 6163 7461 bc41 6163 88: 203f 8123 8123 0080 fffe 0000 0000 0000 96: 0000 0000 0000 0000 a3b0 5d50 0001 0000 104: 0000 0000 6003 0000 5000 0398 4490 40da 112: 0000 0000 0000 0000 0000 0000 0000 401c 120: 401c 0000 0000 0000 0000 0000 0000 0000 128: 0021 0000 0000 0000 0000 0000 0000 0000 136: 0000 0000 0000 0000 0000 0000 0000 0000 144: 0000 0000 0000 0000 0000 0000 0000 0000 152: 0000 0000 0000 0000 0000 0000 0000 0000 160: 0000 0000 0000 0000 0000 0000 0000 0000 168: 0003 0000 0000 0000 0000 0000 0000 0000 176: 0000 0000 0000 0000 0000 0000 0000 0000 184: 0000 0000 0000 0000 0000 0000 0000 0000 192: 0000 0000 0000 0000 0000 0000 0000 0000 200: 0000 0000 0000 0000 0000 0000 003d 0000 208: 0000 4000 0000 0000 0000 0000 0000 0000 216: 0000 1518 0000 0000 0000 0000 103f 0000 224: 0000 0000 0000 0000 0000 0000 a3b0 5d50 232: 0001 0000 0001 0080 0000 0000 0000 0000 240: 0000 0000 0000 0000 0000 0000 0000 0000 248: 0000 0000 0000 0000 0000 0000 0000 0ba5 camcontrol: sending ATA READ_NATIVE_MAX_ADDRESS48 via pass_16 with timeout of 5000 msecs pass2: <TOSHIBA MQ03ABB300 JP050U> ATA8-ACS SATA 3.x device pass2: 600.000MB/s transfers, Command Queueing Enabled protocol ATA8-ACS SATA 3.x device model TOSHIBA MQ03ABB300 firmware revision JP050U serial number 18KAW0OIT WWN *** additional product id cylinders 16383 heads 16 sectors/track 63 sector size logical 512, physical 4096, offset 0 LBA supported 268435455 sectors LBA48 supported 5860533168 sectors PIO supported PIO4 DMA supported WDMA2 UDMA5 media RPM 5400 Zoned-Device Commands no Feature Support Enabled Value Vendor read ahead yes yes write cache yes yes flush cache yes yes Native Command Queuing (NCQ) yes 32 tags NCQ Priority Information no NCQ Non-Data Command no NCQ Streaming no Receive & Send FPDMA Queued no NCQ Autosense no SMART yes yes security yes no power management yes no microcode download yes yes advanced power management yes no 128/0x80 automatic acoustic management no no media status notification no no power-up in Standby yes no write-read-verify no no unload yes yes general purpose logging yes yes free-fall no no sense data reporting no no extended power conditions no no device statistics notification no no Data Set Management (DSM/TRIM) no Trusted Computing no encrypts all user data no Sanitize no Host Protected Area (HPA) yes no 5860533168/5860533167 HPA - Security yes no Accessible Max Address Config no |
Die voorlaatste cmd ken ik niet maar is ada0 niet fout ? da0 is de boot drive namelijk.
Ai ja dat is een c/p fout van mij. Dit is de rauwe apm disable command. Ada0 moet daar natuurlijk da1 zijn.
ls hiermee je apm disabled en je load cycle count loopt nog steeds op, dan doet die schijf iets buiten apm om met z'n koppen, of de LSI controller doet niet wat van hem gevraagd wordt.
ls hiermee je apm disabled en je load cycle count loopt nog steeds op, dan doet die schijf iets buiten apm om met z'n koppen, of de LSI controller doet niet wat van hem gevraagd wordt.
[ Voor 6% gewijzigd door P5ycho op 05-07-2020 15:45 ]
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Bluh! Jaren geleden een (degraded) NAS opgebouwd met ZFSGuru (onder water FreeBSD), memory disk aangemaakt, pool aangemaakt, en na data transfer een HD toegevoegd en resilver gedraaid. Appeltje eitje!
Inmiddels heb ik een Microserver Gen8 erbij, en wilde ik hetzelfde trucje doen, maar dan... gebaseerd op Debian Buster en ZFS-on-linux. Maar... eenzelfde degraded NAS opbouwen in Debian is wat lastiger.... zo blijkt!
Heb volgens deze handleiding een ramdisk aangemaakt met het commando:
Hij is daarna zichtbaar als ik het volgende commando uitvoer: echter als ik vervolgens een ZPOOL wil aanmaken dan kan ik deze niet gebruiken. Ik zie de ramdisk helaas óók niet in /dev terug komen helaas. Merk op, ik voer het commando middels "sudo" uit, dus het kan niet aan de rechten liggen m.i.
Toen dacht ik, ik zet een zpool op met een USB stick, degrade deze, en replace hem daarna met de Ramdisk, maar ook dat mocht niet (logisch verder, maar wilde het even uitsluiten).
Heeft één van jullie een idee wat ik verkeerd doe in deze?
Inmiddels heb ik een Microserver Gen8 erbij, en wilde ik hetzelfde trucje doen, maar dan... gebaseerd op Debian Buster en ZFS-on-linux. Maar... eenzelfde degraded NAS opbouwen in Debian is wat lastiger.... zo blijkt!
Heb volgens deze handleiding een ramdisk aangemaakt met het commando:
mount -t tmpfs -o size=512m tmpfs /mnt/ramdisk
Hij is daarna zichtbaar als ik het volgende commando uitvoer:
df -h
Toen dacht ik, ik zet een zpool op met een USB stick, degrade deze, en replace hem daarna met de Ramdisk, maar ook dat mocht niet (logisch verder, maar wilde het even uitsluiten).
Heeft één van jullie een idee wat ik verkeerd doe in deze?
Wanna play?
Wil je nou een RAM-disk gebruiken als ZFS pool? Ben je dan niet bezig om de hele filosofie achter ZFS om zeep te helpen?F-Tim schreef op maandag 6 juli 2020 @ 15:56:
Bluh! Jaren geleden een (degraded) NAS opgebouwd met ZFSGuru (onder water FreeBSD), memory disk aangemaakt, pool aangemaakt, en na data transfer een HD toegevoegd en resilver gedraaid. Appeltje eitje!
Inmiddels heb ik een Microserver Gen8 erbij, en wilde ik hetzelfde trucje doen, maar dan... gebaseerd op Debian Buster en ZFS-on-linux. Maar... eenzelfde degraded NAS opbouwen in Debian is wat lastiger.... zo blijkt!
Heb volgens deze handleiding een ramdisk aangemaakt met het commando:mount -t tmpfs -o size=512m tmpfs /mnt/ramdisk
Hij is daarna zichtbaar als ik het volgende commando uitvoer:echter als ik vervolgens een ZPOOL wil aanmaken dan kan ik deze niet gebruiken. Ik zie de ramdisk helaas óók niet in /dev terug komen helaas. Merk op, ik voer het commando middels "sudo" uit, dus het kan niet aan de rechten liggen m.i.df -h
Toen dacht ik, ik zet een zpool op met een USB stick, degrade deze, en replace hem daarna met de Ramdisk, maar ook dat mocht niet (logisch verder, maar wilde het even uitsluiten).
Heeft één van jullie een idee wat ik verkeerd doe in deze?
QnJhaGlld2FoaWV3YQ==
Welke melding krijg je? ZoL wil tegenwoordig dacht ik by default zelf partities aanmaken.
Dat gedrag kan je uitzetten met een flag dacht ik, misschien is dat nodig als je memory backed devices gebruikt.
Dat gedrag kan je uitzetten met een flag dacht ik, misschien is dat nodig als je memory backed devices gebruikt.
Even niets...
De ZFSGuru manier gaat uit van een lazy provisioning. Dus een memory disk met dezelfde grootte als de HDD's. Door lazy provisioning neemt die geen ruimte in bij het aanmaken van de pool. Je moet opnieuw voor het vullen de memory disk verwijderen.F-Tim schreef op maandag 6 juli 2020 @ 15:56:
Heeft één van jullie een idee wat ik verkeerd doe in deze?
Sinds de 2 dagen regel reageer ik hier niet meer
Nee hoor, dit is enkel voor de initialisatie van de pool. Daarna gooi ik de ramdisk er direct uit. Tijdens de initiële data transfer is de pool dan inderdaad degraded, pas na overdracht heb ik een HD over en kan ik de pool resilveren. Aangezien je niet van een 3-disk Z1 naar een 4-disk Z1 kunt uitbreiden is dit een workaround.Brahiewahiewa schreef op maandag 6 juli 2020 @ 16:21:
[...]
Wil je nou een RAM-disk gebruiken als ZFS pool? Ben je dan niet bezig om de hele filosofie achter ZFS om zeep te helpen?
Hij geeft dan de volgende melding;FireDrunk schreef op maandag 6 juli 2020 @ 16:21:
Welke melding krijg je? ZoL wil tegenwoordig dacht ik by default zelf partities aanmaken.
Dat gedrag kan je uitzetten met een flag dacht ik, misschien is dat nodig als je memory backed devices gebruikt.
cannot open 'tmpfs': no such device in /dev must be a full path or shorthand device name
Terwijl ik bij hem duidelijk zie staan bij df -h:
Filesystem Size Used Avail Use% Mounted on udev 7.8G 0 7.8G 0% /dev tmpfs 1.6G 9.3M 1.6G 1% /run /dev/md0 59G 4.1G 52G 8% / tmpfs 7.9G 0 7.9G 0% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs 7.9G 0 7.9G 0% /sys/fs/cgroup tank 42G 128K 42G 1% /tank tmpfs 1.6G 4.6M 1.6G 1% /run/user/1000 tmpfs 3.0T 0 3.0T 0% /mnt/ramdisk
Klopt, ben ik ook van planCurlyMo schreef op maandag 6 juli 2020 @ 16:26:
[...]
De ZFSGuru manier gaat uit van een lazy provisioning. Dus een memory disk met dezelfde grootte als de HDD's. Door lazy provisioning neemt die geen ruimte in bij het aanmaken van de pool. Je moet opnieuw voor het vullen de memory disk verwijderen.
Wanna play?
Hoe heb je de ramdisk aangemaakt?
Het moet een echte ramdisk zijn, niet alleen een directory met tmpfs mount.
Het moet een echte ramdisk zijn, niet alleen een directory met tmpfs mount.
Even niets...
EerstFireDrunk schreef op maandag 6 juli 2020 @ 19:38:
Hoe heb je de ramdisk aangemaakt?
Het moet een echte ramdisk zijn, niet alleen een directory met tmpfs mount.
mkdir /mnt/ramdisk
mount -t tmpfs -o size=3T tmpfs /mnt/ramdisk
Gezien je reactie dus niet de juiste methode?
Wanna play?
Dat is denk ik niet goed genoeg, je moet een device backed ramdisk maken. Denk dat het ofwel met een loop device moet, of met /dev/ram0 via kernel parameters.
Even niets...
En hoe doe ik dat?FireDrunk schreef op maandag 6 juli 2020 @ 19:50:
Dat is denk ik niet goed genoeg, je moet een device backed ramdisk maken. Denk dat het ofwel met een loop device moet, of met /dev/ram0 via kernel parameters.
Het hele commando wordt dan
mount -t tmpfs -o loop,size=3T tmpfs /mnt/ramdisk
Wanna play?
http://www.linuxfocus.org...%20your%20files%20to%20it.
Denk ik.
Gewoon /dev/ram0 gebruiken dus.
Denk ik.
Gewoon /dev/ram0 gebruiken dus.
[ Voor 10% gewijzigd door FireDrunk op 06-07-2020 20:20 ]
Even niets...
Waarom een ramdisk backend en niet een bestand?
root@pve:/# df -h /tmp Filesystem Size Used Avail Use% Mounted on rpool/ROOT/pve-1 5.9G 3.0G 2.9G 52% / root@pve:/# truncate -s 3T /tmp/a root@pve:/# truncate -s 3T /tmp/b root@pve:/# truncate -s 3T /tmp/c root@pve:/# zpool create temp raidz1 /tmp/a /tmp/b /tmp/c root@pve:/# zpool list temp NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT temp 8.98T 205K 8.98T - - 0% 0% 1.00x ONLINE - root@pve:/# zpool status temp pool: temp state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM temp ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 /tmp/a ONLINE 0 0 0 /tmp/b ONLINE 0 0 0 /tmp/c ONLINE 0 0 0 errors: No known data errors
Sinds de 2 dagen regel reageer ik hier niet meer
Geeft helaas de volgende meldingFireDrunk schreef op maandag 6 juli 2020 @ 20:19:
http://www.linuxfocus.org...%20your%20files%20to%20it.
Denk ik.
Gewoon /dev/ram0 gebruiken dus.
mke2fs 1.44.5 (15-Dec-2018) The file /dev/ram0 does not exist and no size was specified.
Wat volgens je site het volgende betekent: Those three commands will make a directory for the ramdisk , format the ramdisk (create a filesystem), and mount the ramdisk to the directory "/tmp/ramdisk0". Now you can treat that directory as a pretend partition! Go ahead and use it like any other directory or as any other partition.
If the formatting of the ramdisk faild then you might have no support for ramdisk compiled into the Kernel. The Kernel configuration option for ramdisk is CONFIG_BLK_DEV_RAM .
Ofwel... ik moet eerst nog uitzoeken hoe ik ramdisk support toevoeg.
hmmm ... of niet! Dit lijkt idd ook te werken! Thanks!CurlyMo schreef op maandag 6 juli 2020 @ 20:32:
[...]
Waarom een ramdisk backend en niet een bestand?
root@pve:/# df -h /tmp Filesystem Size Used Avail Use% Mounted on rpool/ROOT/pve-1 5.9G 3.0G 2.9G 52% / root@pve:/# truncate -s 3T /tmp/a root@pve:/# truncate -s 3T /tmp/b root@pve:/# truncate -s 3T /tmp/c root@pve:/# zpool create temp raidz1 /tmp/a /tmp/b /tmp/c root@pve:/# zpool list temp NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT temp 8.98T 205K 8.98T - - 0% 0% 1.00x ONLINE - root@pve:/# zpool status temp pool: temp state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM temp ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 /tmp/a ONLINE 0 0 0 /tmp/b ONLINE 0 0 0 /tmp/c ONLINE 0 0 0 errors: No known data errors
Wanna play?
Gelukt?
Sinds de 2 dagen regel reageer ik hier niet meer
Yup...! Instant
Nu ff verder puzzelen met Samba... Windows werkt totaal niet mee. Vanaf een iOS app werkt het inloggen, via samba-client ook, maar Windows geeft aan dat het wachtwoord onjuist is vreemd genoeg.
[ Voor 22% gewijzigd door F-Tim op 06-07-2020 23:11 ]
Wanna play?
Zoooo! Inmiddels de setup op de 2de locatie draaiende
ben wel benieuwd of ik iets fout heb gedaan, de resilver performance van ZFS-on-linux is namelijk wel echt véél lager dan die op FreeBSD.
Ter info, mijn eigen oude systeem, haalt met een Pentium G1840 en 8GB (non-ecc) geheugen met 6x4TB disks een resilver performance van +/- 500Mb/s op FreeBSD.
Het nieuwe systeem wat ik heb gebouwd doet met een G2020T en 16GB (ECC) geheugen met 4x3TB disks (op een 4xSATA - SAS connector) een resilver performance van 25Mb/s op Debian met de laatste zfs-on-linux.
Kan ik nog iets aan deze performance doen?
En... als ik ná de resilver een corrupt bestand heb, dit bestand verwijder, zpool clear uitvoer, is die nieuwe resilver dan ook verplicht? Hij loopt nu nl. een 2de resilver, maar ik zou verwachten dat verwijderen van een bestand voldoende zou zijn.
Ter info, mijn eigen oude systeem, haalt met een Pentium G1840 en 8GB (non-ecc) geheugen met 6x4TB disks een resilver performance van +/- 500Mb/s op FreeBSD.
Het nieuwe systeem wat ik heb gebouwd doet met een G2020T en 16GB (ECC) geheugen met 4x3TB disks (op een 4xSATA - SAS connector) een resilver performance van 25Mb/s op Debian met de laatste zfs-on-linux.
Kan ik nog iets aan deze performance doen?
En... als ik ná de resilver een corrupt bestand heb, dit bestand verwijder, zpool clear uitvoer, is die nieuwe resilver dan ook verplicht? Hij loopt nu nl. een 2de resilver, maar ik zou verwachten dat verwijderen van een bestand voldoende zou zijn.
Wanna play?
Heb je een ZFS versie uit de standaard Debian repo geïnstalleerd? Of heb je een extra Repo geactiveerd?
Even niets...
Ik heb hem uit de contrib branche van de default Debian source, geen andere sources toegevoegd. Als ik de package version van zfsutils-linux ophaal uit apt, dan is dat 0.7.12-2+deb10u2FireDrunk schreef op maandag 13 juli 2020 @ 10:07:
Heb je een ZFS versie uit de standaard Debian repo geïnstalleerd? Of heb je een extra Repo geactiveerd?
Wanna play?
Dat is de 'vorige' stable versie van ZFS.
0.8 geeft een stuk betere Scrub performance.
Volgens mij komt die van mij uit de backports repo.
root@nas:~# dpkg -l | grep zfs ii libzfs2linux 0.8.4-1~bpo10+1 amd64 OpenZFS filesystem library for Linux ii zfs-dkms 0.8.4-1~bpo10+1 all OpenZFS filesystem kernel modules for Linux ii zfs-zed 0.8.4-1~bpo10+1 amd64 OpenZFS Event Daemon ii zfsutils-linux 0.8.4-1~bpo10+1 amd64 command-line tools to manage OpenZFS filesystems
0.8 geeft een stuk betere Scrub performance.
Volgens mij komt die van mij uit de backports repo.
[ Voor 3% gewijzigd door FireDrunk op 13-07-2020 10:16 ]
Even niets...
Ahhh, dat verklaart, en het is dan simpelweg op te lossen door de buster-backports toe te voegen zoals ook hier beschreven staat? Of moet het echt een andere repo worden?
En is het dan ook zo simpel als de buster-backports aan de sources.list toe te voegen en een apt update en apt upgrade te draaien? Of moet ik daarna ook nog handmatige extra stappen doen zoals bv de pool opnieuw importeren?
En is het dan ook zo simpel als de buster-backports aan de sources.list toe te voegen en een apt update en apt upgrade te draaien? Of moet ik daarna ook nog handmatige extra stappen doen zoals bv de pool opnieuw importeren?
[ Voor 6% gewijzigd door F-Tim op 13-07-2020 10:30 ]
Wanna play?
Voor zover ik weet niet, ik heb gewoon een `apt update && apt upgrade` gedraait.
Even niets...
Zojuist even gedaan op mijn 'Buster' opslagmachine. Toegevoegd aan /etc/apt/sources.list:F-Tim schreef op maandag 13 juli 2020 @ 10:24:
Ahhh, dat verklaart, en het is dan simpelweg op te lossen door de buster-backports toe te voegen zoals ook hier beschreven staat? Of moet het echt een andere repo worden?
En is het dan ook zo simpel als de buster-backports aan de sources.list toe te voegen en een apt update en apt upgrade te draaien? Of moet ik daarna ook nog handmatige extra stappen doen zoals bv de pool opnieuw importeren?
code:
1
| deb http://deb.debian.org/debian buster-backports main contrib non-free |
Daarna enkel apt update en apt upgrade draaien maakte geen verschil - die backports is blijkbaar by default niet enabled. In plaats daarvan wel:
code:
1
| apt install -t buster-backports dkms spl-dkms |
...waarna ik automatisch een nieuwere zfs-dkms en zfsutils-linux erbij kreeg. Wel daarna nog een apt autoremove gedaan om op te ruimen.
Ondertussen een scrub aan het doen, al een half uur, maar die staat nog op 0.00% completed (en normaal is 'ie binnen een uur of 14 wel klaar, dus 0.00% is gek).
Wel zie ik in de status nog:
code:
1
2
3
4
5
| status: Some supported features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(5) for details. |
...dus dat is ook nog iets om te overwegen.
Draai hier al geruime tijd op de 0.8 branch:
root@amalthea:~# grep -i codename /etc/os-release VERSION_CODENAME=buster root@amalthea:~# apt policy zfs-dkms zfs-dkms: Geïnstalleerd: 0.8.4-1~bpo10+1 Kandidaat: 0.8.4-1~bpo10+1 Versietabel: 0.8.4-1 450 450 http://httpredir.debian.org/debian testing/contrib amd64 Packages 250 http://httpredir.debian.org/debian sid/contrib amd64 Packages *** 0.8.4-1~bpo10+1 750 750 http://httpredir.debian.org/debian buster-backports/contrib amd64 Packages 100 /var/lib/dpkg/status 0.7.12-2+deb10u2 900 900 http://cdn-fastly.deb.debian.org/debian buster/contrib amd64 Packages
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
Nice! Heb het idd ook zo moeten doen, de apt update && apt upgrade deed niet genoeg idd.vanaalten schreef op maandag 13 juli 2020 @ 14:07:
[...]
Zojuist even gedaan op mijn 'Buster' opslagmachine. Toegevoegd aan /etc/apt/sources.list:
code:
1 deb http://deb.debian.org/debian buster-backports main contrib non-free
Daarna enkel apt update en apt upgrade draaien maakte geen verschil - die backports is blijkbaar by default niet enabled. In plaats daarvan wel:
code:
1 apt install -t buster-backports dkms spl-dkms
...waarna ik automatisch een nieuwere zfs-dkms en zfsutils-linux erbij kreeg. Wel daarna nog een apt autoremove gedaan om op te ruimen.
Ondertussen een scrub aan het doen, al een half uur, maar die staat nog op 0.00% completed (en normaal is 'ie binnen een uur of 14 wel klaar, dus 0.00% is gek).
Wel zie ik in de status nog:
code:
1 2 3 4 5 status: Some supported features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(5) for details.
...dus dat is ook nog iets om te overwegen.
Na een reboot ook nog even zpool upgrade -a uitgevoerd, voor de reboot hield de kernel nog de oude 0.7.12 versie vast (zpool version liet 2 versies zien, zfs met 0.8.4 en een zfs-kmod met de oude versie).
Inmiddels ook een nieuwe scrub afgetrapt, en al meteen een flinke performance verbetering zichtbaar (300Mb/s and rising...).
Wellicht een stomme vraag (door mijn gebrek aan diepgaande Linux kennis) maar hoe weet je dat je dkms en spl-dkms moet hebben in deze?
Wanna play?
@F-Tim omdat anders ZFS niet werkt.
Sinds de 2 dagen regel reageer ik hier niet meer
De vereiste volg ik het nog, maar DKMS is geen onderdeel van zfs toch? Althans... als het staat voor "Dynamic Kernel Module Support", dan is het toch generieker? Er zullen immers ook meer DKMS modules zijn? En als dat zo is, hoe zou ik kunnen weten dat ik DKMS nu met de buster-backports moet installeren voor mijn "verouderde zfs" vraagstuk?
Ik probeer gewoon langzaam meer van Linux te begrijpen, en deze verbintenis zie ik nog niet direct, vandaar ook de vraag
Wanna play?
Hoe is het intussen met je scrub?vanaalten schreef op maandag 13 juli 2020 @ 14:07:
[...]
Zojuist even gedaan op mijn 'Buster' opslagmachine. Toegevoegd aan /etc/apt/sources.list:
code:
1 deb http://deb.debian.org/debian buster-backports main contrib non-free
Daarna enkel apt update en apt upgrade draaien maakte geen verschil - die backports is blijkbaar by default niet enabled. In plaats daarvan wel:
code:
1 apt install -t buster-backports dkms spl-dkms
...waarna ik automatisch een nieuwere zfs-dkms en zfsutils-linux erbij kreeg. Wel daarna nog een apt autoremove gedaan om op te ruimen.
Ondertussen een scrub aan het doen, al een half uur, maar die staat nog op 0.00% completed (en normaal is 'ie binnen een uur of 14 wel klaar, dus 0.00% is gek).
Wel zie ik in de status nog:
code:
1 2 3 4 5 status: Some supported features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(5) for details.
...dus dat is ook nog iets om te overwegen.
Even niets...
Ik heb het idee dat wat ik wil niet kan, maar hoop dat jullie me toch een oplossing kunnen bieden..
Ik heb een raidz2 pool met daarin 4x4TB 2.5" (Seagate ST4000LM024, SMR...) schijven.
Een van de schijven begint sector errors te geven dus ik oriënteer me vast op een vervanger, en dan het liefst niet SMR. De enige realistische optie in 2.5" die ik vind is de Toshiba MQ03ABB300, maar die is dus 3TB.
Op fora gaat het vaak over het uitbreiden van je pool door replacen met grotere schijven, maar kan het dus op een manier ook de andere klant op: 4TB vervangen door 3TB (en uiteindelijk wellicht op 4x3TB uitkomen)?
Ik heb een raidz2 pool met daarin 4x4TB 2.5" (Seagate ST4000LM024, SMR...) schijven.
Een van de schijven begint sector errors te geven dus ik oriënteer me vast op een vervanger, en dan het liefst niet SMR. De enige realistische optie in 2.5" die ik vind is de Toshiba MQ03ABB300, maar die is dus 3TB.
Op fora gaat het vaak over het uitbreiden van je pool door replacen met grotere schijven, maar kan het dus op een manier ook de andere klant op: 4TB vervangen door 3TB (en uiteindelijk wellicht op 4x3TB uitkomen)?
@smirrrie kan niet inderdaad.
Sinds de 2 dagen regel reageer ik hier niet meer
Als je deze schijf overweegt, hou er rekening mee dat de voorraad aan het opdrogen is. Deze zijn end-of-life en ik zie de voorraad en prijs zakken bij de leveranciers, waarschijnlijk omdat ze ervan af willen. Ik heb er me recent nog een paar besteld als cold spare want het ziet er niet naar uit dat fabrikanten nog nieuwe 2,5” modellen willen uitbrengen.smirrrie schreef op woensdag 22 juli 2020 @ 20:56:
De enige realistische optie in 2.5" die ik vind is de Toshiba MQ03ABB300, maar die is dus 3TB.
ahh thanks, goed om te weten..Phuncz schreef op donderdag 23 juli 2020 @ 06:57:
[...]
Als je deze schijf overweegt, hou er rekening mee dat de voorraad aan het opdrogen is. Deze zijn end-of-life en ik zie de voorraad en prijs zakken bij de leveranciers, waarschijnlijk omdat ze ervan af willen. Ik heb er me recent nog een paar besteld als cold spare want het ziet er niet naar uit dat fabrikanten nog nieuwe 2,5” modellen willen uitbrengen.
Helaas! Optie dan is denk ik om de pool tijdelijk op een andere schijf te parkeren (zfs send), daarna de pool te verwijderen, slechte disk vervangen en pool opnieuw aanmaken met 3x4TB en 1x3TB (waar de kleinste schijf dus de uiteindelijke grootte bepaalt) en restoren met zfs receive?
Of zijn er nog manieren waar ik hetzelfde kan bereiken; zfs send naar de 3TB schijf en vandaar uit de pool uitbreiden of iets dergelijks?
Ik zou het volgende doen.smirrrie schreef op donderdag 23 juli 2020 @ 10:17:
[...]
ahh thanks, goed om te weten..
[...]
Helaas! Optie dan is denk ik om de pool tijdelijk op een andere schijf te parkeren (zfs send), daarna de pool te verwijderen, slechte disk vervangen en pool opnieuw aanmaken met 3x4TB en 1x3TB (waar de kleinste schijf dus de uiteindelijke grootte bepaalt) en restoren met zfs receive?
Of zijn er nog manieren waar ik hetzelfde kan bereiken; zfs send naar de 3TB schijf en vandaar uit de pool uitbreiden of iets dergelijks?
1. Pool maken met je 3TB schijf.
2. Data kopiëren.
3. 1 4TB schijf uit je brakke RAIDZ2 pool halen en de 3TB pool naar een mirror promoverennnnn.
4. Overige 2 4TB schijven gebruiken om een nieuwe degraded RAIDZ2 pool te maken van 3TB. Je kan daarvoor je partitie tabel van je 3TB schijf gebruiken.
5. 1 4TB schijf uit je mirror halen en een van de degraded schijven van je RAIDZ2 laten vervangen.
6. De 3TB de laatste degraded schijf laten vervangen.
7. Klaar
Zo heb je tijdens het proces de meeste bescherming van je data gehad.
Sinds de 2 dagen regel reageer ik hier niet meer
super, thanks! De huidige pool zit net rond de 3TB dus met wat opschonen kom ik er wel in stap 2.CurlyMo schreef op donderdag 23 juli 2020 @ 10:56:
[...]
Ik zou het volgende doen.
1. Pool maken met je 3TB schijf.
2. Data kopiëren.
3. 1 4TB schijf uit je brakke RAIDZ2 pool halen en de 3TB pool naar een mirror promoverennnnn.
4. Overige 2 4TB schijven gebruiken om een nieuwe degraded RAIDZ2 pool te maken van 3TB. Je kan daarvoor je partitie tabel van je 3TB schijf gebruiken.
5. 1 4TB schijf uit je mirror halen en een van de degraded schijven van je RAIDZ2 laten vervangen.
6. De 3TB de laatste degraded schijf laten vervangen.
7. Klaar
Zo heb je tijdens het proces de meeste bescherming van je data gehad.
Heb na het opzetten van zfs 3 jaar geleden in FreeNAS er weinig omkijken naar gehad, dus ik moet maar even inlezen.. snap nog niet helemaal hoe stap 4 zou moeten bijvoorbeeld, het stuk over de partitie tabel.
@Phuncz , hoe is het nu met je load cycle count op de.MQ03's?
Ik twijfel nog tussen nu met 5x MQ03 3TB mijn bestaande raidz1 vergroten of later 4x 4-5TB SMR raidz1 in combinatie met een mirrored ~512GB ssd Allocation Class vdev ('special' vdev, voor alle records kleiner dan 1MB) bouwen. Die laatste is wel wat expirimenteler, en ik zal moeten wachten tot FreeBSD 13 landt.
Ik hoop toch dat 2.5" disks nog even gemeengoed blijven.
Ik twijfel nog tussen nu met 5x MQ03 3TB mijn bestaande raidz1 vergroten of later 4x 4-5TB SMR raidz1 in combinatie met een mirrored ~512GB ssd Allocation Class vdev ('special' vdev, voor alle records kleiner dan 1MB) bouwen. Die laatste is wel wat expirimenteler, en ik zal moeten wachten tot FreeBSD 13 landt.
Ik hoop toch dat 2.5" disks nog even gemeengoed blijven.
[ Voor 1% gewijzigd door P5ycho op 24-07-2020 11:38 . Reden: ssd size, raid type toegevoegd ]
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
@P5ycho Ik heb eigenlijk besloten er niet meer naar te kijken totdat er eentje kapot gaat. Momenteel staan ze allemaal rond de 45.000 cycles na 1.780 uren, wat ongeveer 25 cycles per uur is. Volgens de SMART gegevens zitten ze op 96% van hun leven na 74 dagen, wat zou betekenen dat ze na een jaar van dit gedrag op 80% van hun verwachte levensduur. Dat zou neerkomen op 5 jaar 24/7 dus ik ga er niet meer om miepen 
Ik zou niet te lang wachten, volgens Azerty.nl heeft de leverancier nog "maar" 218 stuks momenteel, dat was eerder deze week 230 en eerder deze maand nog 300+. De goedkoopste is momenteel bij SiComputers:
pricewatch: Toshiba MQ03ABB300, 3TB
Beschouw ze dan ook als een koopje (25€/TB in 2,5" verruit de voordeligste) en koop ook een cold spare of twee want ik verwacht dat ze na de zomer nergens meer te krijgen zijn.
Ik zou niet te lang wachten, volgens Azerty.nl heeft de leverancier nog "maar" 218 stuks momenteel, dat was eerder deze week 230 en eerder deze maand nog 300+. De goedkoopste is momenteel bij SiComputers:
pricewatch: Toshiba MQ03ABB300, 3TB
Beschouw ze dan ook als een koopje (25€/TB in 2,5" verruit de voordeligste) en koop ook een cold spare of twee want ik verwacht dat ze na de zomer nergens meer te krijgen zijn.
Hoe bevallen deze 2.5 SMR schijven? Ik heb de 5tb variant klaarliggen. (draaien nu 4 van in een xpenology testbak, dat lijkt prima te gaan)smirrrie schreef op woensdag 22 juli 2020 @ 20:56:
Ik heb het idee dat wat ik wil niet kan, maar hoop dat jullie me toch een oplossing kunnen bieden..
Ik heb een raidz2 pool met daarin 4x4TB 2.5" (Seagate ST4000LM024, SMR...) schijven.
Een van de schijven begint sector errors te geven dus ik oriënteer me vast op een vervanger, en dan het liefst niet SMR. De enige realistische optie in 2.5" die ik vind is de Toshiba MQ03ABB300, maar die is dus 3TB.
Op fora gaat het vaak over het uitbreiden van je pool door replacen met grotere schijven, maar kan het dus op een manier ook de andere klant op: 4TB vervangen door 3TB (en uiteindelijk wellicht op 4x3TB uitkomen)?
Op zich geen problemen mee gehad. Ik gebruik ze voor media opslag thuis (streamen), dus echte performance is niet zo heel belangrijk. Haal er in raidz2 ongeveer 130MB/s mee tijdens lokale copy acties uit m'n hoofd, via netwerk gewoon gbit. Draaien nu meer dan 3 jaar 24/7, alleen bad sectors bij een schijf nu dus wat op zich ook niet heel raar is voor consumer drives na deze tijd denk ik.jantje112 schreef op vrijdag 24 juli 2020 @ 19:34:
[...]
Hoe bevallen deze 2.5 SMR schijven? Ik heb de 5tb variant klaarliggen. (draaien nu 4 van in een xpenology testbak, dat lijkt prima te gaan)
Twijfel nog een beetje of ik voor de vervanger dus voor non-smr 3TB Toshiba ga, of toch weer gewoon smr 4TB..
SMR is op zich niet direct slecht, zolang schijven de juiste flags maar zetten en discard commando's accepteren.
Als ik kijk naar SSDs heb ik tegenwoordig liever een TLC drive dan de eerste generatie SLC SSDs. Niet om de prijs of performance, maar puur omdat die oude dingen de sectoren 1-op-1 mappen als een harddisk.
Als ik kijk naar SSDs heb ik tegenwoordig liever een TLC drive dan de eerste generatie SLC SSDs. Niet om de prijs of performance, maar puur omdat die oude dingen de sectoren 1-op-1 mappen als een harddisk.
Dat is juist het probleem: de meeste (alle?) SMR schijven maken zich niet bekend als SMR en ondersteunen bv. geen TRIM commando’s. Ook moet het storage systeem in het OS hier rekening mee houden. Dus voorlopig moet je nog steeds zelf voorzorgen nemen dat je niet in de problemen komt. Vroeg of laat._JGC_ schreef op zaterdag 25 juli 2020 @ 13:39:
SMR is op zich niet direct slecht, zolang schijven de juiste flags maar zetten en discard commando's accepteren.
WDs schijnen wel TRIM te ondersteunen. Zelf heb ik de hier alom bekende Seagate 5TB 2,5" maar die ondersteunen het niet. Maar sowieso zit daar, bij de externe, ook een crappy USB SATA adapter bij zonder ondersteuning voor UASP ondersteuning waardoor je überhaupt geen SATA commando's, zoals TRIM, er naar toe kunt sturen. Zal dus ook wel verklaren waarom de Seagates geen TRIM ondersteunen, zonder de disk uit de behuizing te halen zou het toch al niet kunnen.Phuncz schreef op zaterdag 25 juli 2020 @ 14:02:
[...]
Dat is juist het probleem: de meeste (alle?) SMR schijven maken zich niet bekend als SMR en ondersteunen bv. geen TRIM commando’s. Ook moet het storage systeem in het OS hier rekening mee houden. Dus voorlopig moet je nog steeds zelf voorzorgen nemen dat je niet in de problemen komt. Vroeg of laat.
Maar bij mijn weten is het gebruik van SMR bij WD juist "ontdekt" doordat sommige modellen / typenummers ineens ondersteuning voor TRIM hadden.
Vandaag gekeken wat nu de oorzaak was dat de afgelopen 3 geschedulede scrubs faalden. Elke keer ging de server in een reboot 5 procent in de scrub. Ik dacht dat de voeding de oorzaak was (defect). Die vervangen echter na een nieuwe scrub wederom een reboot. Bij toeval raakte ik een van de zes schijven aan, die was erg heet, tegen het niet kunnen vasthouden aan. En natuurlijk lekker dicht tegen elkaar aan (2* 2,5inch schijven in één 3,25inch bracket). Was nu dan het moment aangebroken om die FAN die demonstratief voor het storage compartiment zat geplaatst, aan te sluiten? Eenmaal aangesloten blijven alle schijven tijdens de scrub 48°C en geen reboots meer, jeuj! Maw ventilatie is toch wel een aandachtspuntje onder load, ook voor schijven.
Overigens eindigden de scrubs in het verleden altijd succesvol. Wellicht dat na een update van ZFS de load op de schijven wat toegenomen is tijdens een scrub waardoor de temp wat hoger uitvalt?
Overigens eindigden de scrubs in het verleden altijd succesvol. Wellicht dat na een update van ZFS de load op de schijven wat toegenomen is tijdens een scrub waardoor de temp wat hoger uitvalt?
[ Voor 11% gewijzigd door WeaZuL op 25-07-2020 19:45 ]
NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict
Kleine update rondom mijn SMR Pool:
Gister was ik zo slim om met wat downloads mijn pool vol te laten lopen. Dat was niet erg handig
Load van het systeem steeg naar 15, en was bijna compleet onbestuurbaar. Gelukkig houdt ZFS tegenwoordig wat meer reserve ruimte vrij (15MB ofzo), waardoor ik nog wel files kon verwijderen om weer ruimte te maken.
De SMR pool kan er erg slecht tegen om vol te zijn, en daarnaast nog behoorlijk wat IO om zijn oren te krijgen.
Ik zag IOwait van > 95%, waarbij de latency ook behoorlijk op aan het lopen was (openen van een text file met vim op de array duurde > 10 seconden).
Vandaag dus maar besloten om mijn 'incoming' downloads in ieder geval van de array af te gaan halen, zodat de array iets meer rust krijgt.
Mocht er dus nog discussie zijn of SMR schijven icm ZFS verstandig is in je server, weet dan, dat je niet een heel druk download bestaan er op na moet houden op zo'n pool
* FireDrunk gaat kijken of de FusionIO kaart die hij ooit eens voor een prikkie van iemand overgenomen heeft, hier kan helpen
Gister was ik zo slim om met wat downloads mijn pool vol te laten lopen. Dat was niet erg handig
Load van het systeem steeg naar 15, en was bijna compleet onbestuurbaar. Gelukkig houdt ZFS tegenwoordig wat meer reserve ruimte vrij (15MB ofzo), waardoor ik nog wel files kon verwijderen om weer ruimte te maken.
De SMR pool kan er erg slecht tegen om vol te zijn, en daarnaast nog behoorlijk wat IO om zijn oren te krijgen.
Ik zag IOwait van > 95%, waarbij de latency ook behoorlijk op aan het lopen was (openen van een text file met vim op de array duurde > 10 seconden).
Vandaag dus maar besloten om mijn 'incoming' downloads in ieder geval van de array af te gaan halen, zodat de array iets meer rust krijgt.
Mocht er dus nog discussie zijn of SMR schijven icm ZFS verstandig is in je server, weet dan, dat je niet een heel druk download bestaan er op na moet houden op zo'n pool
* FireDrunk gaat kijken of de FusionIO kaart die hij ooit eens voor een prikkie van iemand overgenomen heeft, hier kan helpen
Even niets...
Oftewel, the right tool for the job. Hier gaan alle downloads naar mijn SSD mirror waar ook mij VM's en mijn software development bestanden staan. Dat is allemaal vluchtige data waarbij hoge random reads gewenst is.FireDrunk schreef op woensdag 29 juli 2020 @ 10:30:
Kleine update rondom mijn SMR Pool:
Zodra downloads klaar zijn verplaatst ik ze naar de SMR pool.
Sinds de 2 dagen regel reageer ik hier niet meer
Ja, exact. Ik maak veel gebruik van Torrents, waar het best onhandig is om de data lang op de SSD's te laten staan terwijl je aan het seeden bent. Als het op 1 array staat, kunnen tools als Sonarr en Radarr hardlinks gebruiken om de data toch nog te kunnen blijven seeden.
Die functionaliteit moet ik nu dus opgeven
Hardlinks tussen verschillende devices kunnen helaas niet. Binnen een ZFS pool kan dat wel.
Die functionaliteit moet ik nu dus opgeven
Hardlinks tussen verschillende devices kunnen helaas niet. Binnen een ZFS pool kan dat wel.
Even niets...
Werken hardlinks niet alleen op hetzelfde filesystem / mountpoint / ...? En gezien je potentieel op 1 ZFS pool meerdere datasets hebt zouden ze dan ook niet meer werken?FireDrunk schreef op woensdag 29 juli 2020 @ 10:36:
Ja, exact. Ik maak veel gebruik van Torrents, waar het best onhandig is om de data lang op de SSD's te laten staan terwijl je aan het seeden bent. Als het op 1 array staat, kunnen tools als Sonarr en Radarr hardlinks gebruiken om de data toch nog te kunnen blijven seeden.
Die functionaliteit moet ik nu dus opgeven
Hardlinks tussen verschillende devices kunnen helaas niet. Binnen een ZFS pool kan dat wel.
* RobertMe heeft "dat" weer in Docker draaien, en ook dan werken hardlinks niet, ondanks dezelfde onderliggende ZFS dataset (maar als losse volumes in de container).
Edit:
Overigens komen die ~10 seconde waits me wel aardig bekend voor van toen ik een SMR in mirror had (met PMR) en database er op draaide.
[ Voor 7% gewijzigd door RobertMe op 29-07-2020 11:39 ]
Hardlinks werken in ZFS dacht ik zelfs cross filesystem, maar ik weet het niet zeker. Ik heb het niet heel uitgebreid getest. (Functie zit in Sonarr). Ik draai overigens ook alles in docker, maar mount alle relevante ZFS directories op de host.
Even niets...
Ook een mooi voorbeeld van right tool for the jobRobertMe schreef op woensdag 29 juli 2020 @ 11:38:
[...]
Overigens komen die ~10 seconde waits me wel aardig bekend voor van toen ik een SMR in mirror had (met PMR) en database er op draaide.
Sinds de 2 dagen regel reageer ik hier niet meer
Alleen werd dat nooit uitgelegd in zuinige server topic. Daarom toen één HDD uit mirror bad sectors vertoonde die Seagate gekocht, maar dat werkte dus niet echt.... Nu nieuwe server op gezet met 3x shucked WD (3,5" PMR dus) terwijl ik nu LXC containers heb die vanaf SSD draaien en HDDs alleen bulk storage doen. Dus juist nu in nieuwe setup had ik wel voor SMR kunnen gaan. Maar ach, die Seagate hangt nu aan Orange Pi voor backup. Alleen nog een case ontwerpen en printen en dan offsite plaatsen. Dan heeft die ook nog een goede toepassing gekregen.CurlyMo schreef op woensdag 29 juli 2020 @ 12:33:
[...]
Ook een mooi voorbeeld van right tool for the job
Klopt, je zult zelf zuinigheid in dat topic relatief moeten maken aan beoogd gebruik, in plaats van zuinigheid in absolute termen te zien.RobertMe schreef op woensdag 29 juli 2020 @ 14:49:
[...]
Alleen werd dat nooit uitgelegd in zuinige server topic.
Dat soort vragen kan je beter hier stellen.
Sinds de 2 dagen regel reageer ik hier niet meer
Misschien interessant om een special device te gebruiken voor metadata en kleine records ipv een 2e pool?FireDrunk schreef op woensdag 29 juli 2020 @ 10:36:
Ja, exact. Ik maak veel gebruik van Torrents, waar het best onhandig is om de data lang op de SSD's te laten staan terwijl je aan het seeden bent. Als het op 1 array staat, kunnen tools als Sonarr en Radarr hardlinks gebruiken om de data toch nog te kunnen blijven seeden.
Die functionaliteit moet ik nu dus opgeven
Hardlinks tussen verschillende devices kunnen helaas niet. Binnen een ZFS pool kan dat wel.
Ben even je setup kwijt, maar bijv:
5x raidz1 smr
Recordsize=2M of 4M (512K of 1M per disk)
2x SSD, special:metadata+records <2M
[ Voor 9% gewijzigd door P5ycho op 30-07-2020 22:28 ]
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
@FireDrunk Nee, ik bedoel een allocation class vdev, aka 'special'.
Je kunt een VDEV aanmaken waar je bijvoorbeeld aleeen metadata, of records onder een bepaalde grootte opslaat. In theorie zouden kleine records dan vanzelf op SSD landen, en grote records op je HDD's.
https://forums.servetheho...ormance-benchmarks.26111/
Alleen beschikbaar in 0.8 en relatief nieuw, dus pas op.
edit: voorbeeld
opstelling:
5x raidz1 smr
2x SSD, special:metadata+small records
default pool recordsize 128k
special_small_blocks=128k -> alles gelijk of onder de 128k komt op special
op SMR willen we 1M per disk per record -> 1M*(disks-parity) = 1M * 4 = 4M
default landt alles op special, want alles gelijk of lager dan 128k landt op special. Dit is prima, lekker vlot.
Als je een SQL db hebt draaien zet je het filesystem met de db op recordsize=16k, komt automatisch op SSD's want 16k <= 128k en SQL schrijft in 16k chunks. Als je torrents download zet je je recordsize op 64k, landt op je SSD's. Een move van temp naar de meer permanente locatie /data/ISOs met recordsize=4M -> HDD's.
Je kunt een VDEV aanmaken waar je bijvoorbeeld aleeen metadata, of records onder een bepaalde grootte opslaat. In theorie zouden kleine records dan vanzelf op SSD landen, en grote records op je HDD's.
https://forums.servetheho...ormance-benchmarks.26111/
Alleen beschikbaar in 0.8 en relatief nieuw, dus pas op.
edit: voorbeeld
opstelling:
5x raidz1 smr
2x SSD, special:metadata+small records
default pool recordsize 128k
special_small_blocks=128k -> alles gelijk of onder de 128k komt op special
op SMR willen we 1M per disk per record -> 1M*(disks-parity) = 1M * 4 = 4M
default landt alles op special, want alles gelijk of lager dan 128k landt op special. Dit is prima, lekker vlot.
Als je een SQL db hebt draaien zet je het filesystem met de db op recordsize=16k, komt automatisch op SSD's want 16k <= 128k en SQL schrijft in 16k chunks. Als je torrents download zet je je recordsize op 64k, landt op je SSD's. Een move van temp naar de meer permanente locatie /data/ISOs met recordsize=4M -> HDD's.
[ Voor 49% gewijzigd door P5ycho op 03-08-2020 10:52 ]
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Ik draai al een tijdje FreeNAS. Helemaal blij mee. Tot m'n moederboard overleed. Allemaal opgelost nu hardware weer draaien. Ik heb een apart topic aangemaakt maar ben zo brutaal 'm hier ook even te linken:
Zpool import faalt(one or more devices were being resilverd)
Kort door de bocht:
Hier de output van zpool import (en zpool import -f geeft FreeNAS problemen en een panic):
root@freenas[~]# zpool import
pool: six4tb
id: 13928668106559313930
state: DEGRADED
status: One or more devices were being resilvered.
action: The pool can be imported despite missing or damaged devices. The
fault tolerance of the pool may be compromised if imported.
config:
six4tb DEGRADED
raidz1-0 DEGRADED
gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2 ONLINE
gptid/75e759d8-a341-11ea-9020-d050996ff8e2 ONLINE
gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2 ONLINE
gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2 ONLINE
gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2 ONLINE
replacing-5 UNAVAIL insufficient replicas
13571676615721927902 UNAVAIL cannot open
18182716167874336493 UNAVAIL cannot open
Als ik dit zo bekijk zijn er dus 5 schijven online en 1 niet? Die ene schijf (misschien dom bedenk ik me nu) heb ik gewiped. Ik heb de oude schijf ook nog nog voor de resilver maar ben bang dat ook niet meer een geheel ervan ziet, al geprobeerd. Ik hoopte dat ik 'm wel kon importeren zo en dat resilveren weer opnieuw start. .... Niet dus
. Dat resilveren is dus niet goed gegaan. Kan ik van deze pool met 5 van de 6 schijven niet een benaderbare pool maken? En dan weer schijf 6 toevoegen en dan resilveren (en die laten afmaken)
Ik hoop echt dat iemand een idee heeft hoe ik deze pool weer online kan krijgen. Hartelijk dank voor het lezen en meedenken
ik raak er een beetje gefrustreerd van ;-(
Zpool import faalt(one or more devices were being resilverd)
Kort door de bocht:
Hier de output van zpool import (en zpool import -f geeft FreeNAS problemen en een panic):
root@freenas[~]# zpool import
pool: six4tb
id: 13928668106559313930
state: DEGRADED
status: One or more devices were being resilvered.
action: The pool can be imported despite missing or damaged devices. The
fault tolerance of the pool may be compromised if imported.
config:
six4tb DEGRADED
raidz1-0 DEGRADED
gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2 ONLINE
gptid/75e759d8-a341-11ea-9020-d050996ff8e2 ONLINE
gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2 ONLINE
gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2 ONLINE
gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2 ONLINE
replacing-5 UNAVAIL insufficient replicas
13571676615721927902 UNAVAIL cannot open
18182716167874336493 UNAVAIL cannot open
Als ik dit zo bekijk zijn er dus 5 schijven online en 1 niet? Die ene schijf (misschien dom bedenk ik me nu) heb ik gewiped. Ik heb de oude schijf ook nog nog voor de resilver maar ben bang dat ook niet meer een geheel ervan ziet, al geprobeerd. Ik hoopte dat ik 'm wel kon importeren zo en dat resilveren weer opnieuw start. .... Niet dus
Ik hoop echt dat iemand een idee heeft hoe ik deze pool weer online kan krijgen. Hartelijk dank voor het lezen en meedenken
@WTM RAIDZ1 dus je kan 1 schijf missen, dus ook gewoon je pool importeren. Degraded is niet Faulted. Dus eerst importeren en als dat is gelukt, dan zou ik beide schijven weer terug in je systeem zetten en weer online brengen.
Overigens geef je in het geheel niet (met commando's en logs) weer wat je tot nu toe hebt gedaan?
Overigens geef je in het geheel niet (met commando's en logs) weer wat je tot nu toe hebt gedaan?
Sinds de 2 dagen regel reageer ik hier niet meer
@WTM , welke "problemen" krijg je precies bij een import -f (anders dan de panic)? Als FreeNAS een kernel panic geeft ben ik wel benieuwd naar de logs. Je zou natuurlijk als alternatief even een (USB) bootje kunnen doen naar ubuntu en een import -f doen wachten tot de resilvering compleet is en weer booten naar FreeNAS
Dank voor je reply!CurlyMo schreef op vrijdag 7 augustus 2020 @ 22:59:
@WTM RAIDZ1 dus je kan 1 schijf missen, dus ook gewoon je pool importeren. Degraded is niet Faulted. Dus eerst importeren en als dat is gelukt, dan zou ik beide schijven weer terug in je systeem zetten en weer online brengen.
Overigens geef je in het geheel niet (met commando's en logs) weer wat je tot nu toe hebt gedaan?
Zpool import -f had ik geprobeerd dus. Maar lukte niet, dan boot het met errors. Waar kan ik logs vinden ? Ik heb deze foto gemaakt van het scherm:
https://share.icloud.com/photos/0hFbTTcKAMJbpZrdCtq1oCRsg
Dank voor je reactie! Ik weet niet waar ik logs kan vinden, wil wel even kijken.Xantis schreef op vrijdag 7 augustus 2020 @ 23:02:
@WTM , welke "problemen" krijg je precies bij een import -f (anders dan de panic)? Als FreeNAS een kernel panic geeft ben ik wel benieuwd naar de logs. Je zou natuurlijk als alternatief even een (USB) bootje kunnen doen naar ubuntu en een import -f doen wachten tot de resilvering compleet is en weer booten naar FreeNAS
Zpool import -f had ik geprobeerd dus. Maar lukte niet, dan boot het met errors. Waar kan ik logs vinden ? Ik heb deze foto gemaakt van het scherm:
https://share.icloud.com/photos/0hFbTTcKAMJbpZrdCtq1oCRsg
Is wat er op het scherm staat, weet niet of je daar chocolade van kan maken ? ;-)
Resilveren en de pool weer goed maken en dan importeren lijkt me een strak plan. Welke Ubuntu zou je aanraden ? Dan boot ik daarmee even op usb. Hoe zou ik dan moeten resilveren?
Zpool import -f en kijken of het dan online komt?
@WTM Je klinkt me niet als iemand die weet wat die aan het doen is? Heb je voordat je aan FreeNAS begon verschillende scenario's getest waarop het fout kan gaan zodat je weet wat je moet doen om het op te lossen zodra het fout gaat?
Ik denk dat een eigen topic hiervoor ook het meest geschikt is, gezien het helpdesk kakakter van je vraag.
Ik denk dat een eigen topic hiervoor ook het meest geschikt is, gezien het helpdesk kakakter van je vraag.
Sinds de 2 dagen regel reageer ik hier niet meer
het is zeker anders dan Windows en MacOS. Deze machine heb ik zelf in elkaar gezet. Draai FreeNAS sinds 9.3. Heb verschillende jails draaien, eerst warden en nu omgezet naar IOCage. ZFS gaat prima normaliter, schijven eruit halen via GUI als er een stuk ging lukt prima en nieuwe hangen en resilveren in GUI ook. Ook snapshots terugzetten ging prima. Ik wil alleen niet iets verkeerd doen in Shell. Ik had trouwens een apart topic aangemaakt.CurlyMo schreef op zaterdag 8 augustus 2020 @ 07:47:
@WTM Je klinkt me niet als iemand die weet wat die aan het doen is? Heb je voordat je aan FreeNAS begon verschillende scenario's getest waarop het fout kan gaan zodat je weet wat je moet doen om het op te lossen zodra het fout gaat?
Ik denk dat een eigen topic hiervoor ook het meest geschikt is, gezien het helpdesk kakakter van je vraag.
Probeer eerst eens de laatste Ubuntu Live CD.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb Ubuntu server ingeinstalleerd op een SSD en heb nu toegang via ssh tot de machineCurlyMo schreef op zaterdag 8 augustus 2020 @ 09:16:
Probeer eerst eens de laatste Ubuntu Live CD.
Standaard kan er niets met ZFS gebeuren lijkt het. Ik heb sudo apt install zfsutils-linux gedaan -> nu kan ik met sudo zpool import weer hetzelfde te zien krijgen:
wim@ubuntufreenas:~$ sudo zpool import
admin
pool: six4tb
id: 13928668106559313930
state: DEGRADED
status: One or more devices were being resilvered.
action: The pool can be imported despite missing or damaged devices. The
fault tolerance of the pool may be compromised if imported.
config:
six4tb DEGRADED
raidz1-0 DEGRADED
sdd ONLINE
sdc2 ONLINE
sde ONLINE
sdf ONLINE
sda ONLINE
replacing-5 UNAVAIL insufficient replicas
13571676615721927902 UNAVAIL
18182716167874336493 UNAVAIL
@CurlyMo: Wat ik denk dat ik nu moet doen: sudo zpool import -f
en dan hoop ik dat die online gaat. Vervolgens zou ik weer in FreeNAS willen proberen 'm daar te importeren. Of wat gaat er gebeuren? :-)
Na een klein onderhoudje had ik per ongeluk één van de connectors los van de storage controller en kon een aantal schijven niet meer zien. Server uit, connector goed aangesloten, alle schijven gedecteerd maar had toen mijn zpool als DEGRADED. Eén van de schijven was niet goed opgenomen in de pool, heb deze maar replaced want ik kreeg het niet in orde. De schijf is geresilvered, zpool is nu ONLINE, maar nu heb ik dit:
/f/image/zm2MciUzJfg8L0zijb8vem9M.png?f=fotoalbum_large)
(da7 is unknown/unformatted)
/f/image/QXpRHPsdfTF7OZSh7wAMfShG.png?f=fotoalbum_large)
/f/image/2HiBPHcxo33Gc3hYMQ1axlqF.png?f=fotoalbum_large)
Enig idee hoe ik dit oplos ?
/f/image/zm2MciUzJfg8L0zijb8vem9M.png?f=fotoalbum_large)
(da7 is unknown/unformatted)
/f/image/QXpRHPsdfTF7OZSh7wAMfShG.png?f=fotoalbum_large)
/f/image/2HiBPHcxo33Gc3hYMQ1axlqF.png?f=fotoalbum_large)
Enig idee hoe ik dit oplos ?
Dank @CurlyMo & @XantisXantis schreef op vrijdag 7 augustus 2020 @ 23:02:
@WTM , welke "problemen" krijg je precies bij een import -f (anders dan de panic)? Als FreeNAS een kernel panic geeft ben ik wel benieuwd naar de logs. Je zou natuurlijk als alternatief even een (USB) bootje kunnen doen naar ubuntu en een import -f doen wachten tot de resilvering compleet is en weer booten naar FreeNAS
Ik heb Ubuntu geïnstalleerd op een SSD.
Het volgende heb ik gedaan:
sudo zpool import
Waarbij de ene pool wel online kwam en andere niet.
vervolgens
sudo zpool import -f six4tb
Dat duurde even en het lijkt erop dat het geheel aan 't resilveren is :-)
als ik zpool status opvraag zie ik nu dat de pool aan het resilveren is. Nog iets van 7:30 te gaan.
Dank voor de hulp ! Ik laat even weten als het straks gelukt is (hopelijk) om in FreeNAS dan weer de boel te importeren.
/edit gaat lekker dat resilveren:
:~$ zpool status
pool: six4tb
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Fri Jul 10 17:45:31 2020
7.14T scanned at 980M/s, 5.46T issued at 750M/s, 15.1T total
0B resilvered, 36.13% done, 0 days 03:45:05 to go
config:
NAME STATE READ WRITE CKSUM
six4tb DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
sdi ONLINE 0 0 0
sdh2 ONLINE 0 0 0
sdj ONLINE 0 0 0
sdk ONLINE 0 0 0
sde ONLINE 0 0 0
replacing-5 UNAVAIL 0 0 0 insufficient replicas
13571676615721927902 UNAVAIL 0 0 0 was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
18182716167874336493 UNAVAIL 0 0 0 was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
errors: No known data errors
[ Voor 39% gewijzigd door WTM op 08-08-2020 15:11 ]
Na het resilveren in Ubuntu heb ik vanavond weer kunnen booten in FreeNAS. Ik heb de oude config file geladen en het e.e.a. springt weer aan :-) (jails draaien weer enz.)
Helemaal top @CurlyMo & @Xantis
De pool is nog degraded. Ik wil dus een disk er weer aanhangen.
Dit geeft zfspool status:
pool: six4tb
state: DEGRADED
scan: resilvered 0 in 29 days 01:42:30 with 0 errors on Sat Aug 8 21:28:01 2020
config:
NAME STATE READ WRITE CKSUM
six4tb DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2 ONLINE 0 0 0
gptid/75e759d8-a341-11ea-9020-d050996ff8e2 ONLINE 0 0 0
gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2 ONLINE 0 0 0
gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2 ONLINE 0 0 0
gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2 ONLINE 0 0 0
replacing-5 UNAVAIL 0 0 0
13571676615721927902 UNAVAIL 0 0 0 was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
18182716167874336493 UNAVAIL 0 0 0 was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
errors: No known data errors
Het is 1 disk die ik moet vervangen maar als ik in de GUI van FreeNAS dat doe kan ik kiezen 'welke' ?
Of was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
Of was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
Ik kan kiezen voor offline, online, replace of detach
Eerder een schijf vervangen was replace maar dan had ik maar een keuze. Kan ik veilig een van de twee detach doen en een andere replace (en dan de schijf selecteren die ik er vers ingedaan heb?) (en dan gaat de pool weer resilveren denk ik?)
Helemaal top @CurlyMo & @Xantis
De pool is nog degraded. Ik wil dus een disk er weer aanhangen.
Dit geeft zfspool status:
pool: six4tb
state: DEGRADED
scan: resilvered 0 in 29 days 01:42:30 with 0 errors on Sat Aug 8 21:28:01 2020
config:
NAME STATE READ WRITE CKSUM
six4tb DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2 ONLINE 0 0 0
gptid/75e759d8-a341-11ea-9020-d050996ff8e2 ONLINE 0 0 0
gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2 ONLINE 0 0 0
gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2 ONLINE 0 0 0
gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2 ONLINE 0 0 0
replacing-5 UNAVAIL 0 0 0
13571676615721927902 UNAVAIL 0 0 0 was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
18182716167874336493 UNAVAIL 0 0 0 was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
errors: No known data errors
Het is 1 disk die ik moet vervangen maar als ik in de GUI van FreeNAS dat doe kan ik kiezen 'welke' ?
Of was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
Of was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
Ik kan kiezen voor offline, online, replace of detach
Eerder een schijf vervangen was replace maar dan had ik maar een keuze. Kan ik veilig een van de twee detach doen en een andere replace (en dan de schijf selecteren die ik er vers ingedaan heb?) (en dan gaat de pool weer resilveren denk ik?)
@WTM, Gebruik a.u.b. code tags. Dat helpt degene die je helpen een hoop.
Heb je al geprobeerd beide schijven weer online te brengen? Dat lijkt me het meest zuiver.
Heb je al geprobeerd beide schijven weer online te brengen? Dat lijkt me het meest zuiver.
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo excuus, zal code tags proberen te gebruikenCurlyMo schreef op zaterdag 8 augustus 2020 @ 22:20:
@WTM, Gebruik a.u.b. code tags. Dat helpt degene die je helpen een hoop.
Heb je al geprobeerd beide schijven weer online te brengen? Dat lijkt me het meest zuiver.
Ik heb op online geklikt in de GUI bij allebei maar maakt niets uit verder, ze komen niet online ik zag wel dit in de console:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| Aug 8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=4321123093847478765 Aug 8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=7341696284033616375 Aug 8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=3675791852414277510 Aug 8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10778351145683311183 Aug 8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10677478820108001500 Aug 8 22:22:37 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=13571676615721927902 Aug 8 22:22:37 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=18182716167874336493 Aug 8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=4321123093847478765 Aug 8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=7341696284033616375 Aug 8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=3675791852414277510 Aug 8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10778351145683311183 Aug 8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10677478820108001500 Aug 8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=13571676615721927902 Aug 8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=18182716167874336493 |
En ze zijn wel beide aangesloten?WTM schreef op zaterdag 8 augustus 2020 @ 22:26:
[...]
Ik heb op online geklikt in de GUI bij allebei maar maakt niets uit verder, ze komen niet online ik zag wel dit in de console:
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo Het zijn 6 schijven van 4 tb en alle 6 zijn aangesloten.
Als ik commando geom disk list ingeef krijg ik dit:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
| Geom name: ada0 Providers: 1. Name: ada0 Mediasize: 120034123776 (112G) Sectorsize: 512 Mode: r1w1e2 descr: KINGSTON SA400S37120G lunid: 502b2a201d1c1b1a ident: 50026B7783537431 rotationrate: 0 fwsectors: 63 fwheads: 16 Geom name: ada1 Providers: 1. Name: ada1 Mediasize: 120034123776 (112G) Sectorsize: 512 Mode: r0w0e0 descr: KINGSTON SA400S37120G lunid: 502b2a201d1c1b1a ident: 50026B77835370E4 rotationrate: 0 fwsectors: 63 fwheads: 16 Geom name: ada2 Providers: 1. Name: ada2 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: WDC WD40EZRX-00SPEB0 lunid: 50014ee2b760a382 ident: WD-WCC4E3ZLHRUH rotationrate: 5400 fwsectors: 63 fwheads: 16 Geom name: da0 Providers: 1. Name: da0 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: ATA WDC WD40EFRX-68W lunid: 50014ee20dec28ad ident: WD-WCC4E0DJA3PL rotationrate: 5400 fwsectors: 63 fwheads: 255 Geom name: da1 Providers: 1. Name: da1 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r0w0e0 descr: ATA WDC WD40EFRX-68N lunid: 50014ee20fd78891 ident: WD-WCC7K6HY4PV7 rotationrate: 5400 fwsectors: 63 fwheads: 255 Geom name: da2 Providers: 1. Name: da2 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: ATA WDC WD40EZRX-00S lunid: 50014ee20cb5a633 ident: WD-WCC4E3ZLH8N4 rotationrate: 5400 fwsectors: 63 fwheads: 255 Geom name: da3 Providers: 1. Name: da3 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: ATA WDC WD40EZRX-00S lunid: 50014ee2b7623327 ident: WD-WCC4E6ANY67J rotationrate: 5400 fwsectors: 63 fwheads: 255 Geom name: da4 Providers: 1. Name: da4 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: ATA WDC WD40EFRX-68N lunid: 50014ee26660a080 ident: WD-WCC7K2DN975L rotationrate: 5400 fwsectors: 63 fwheads: 255 Geom name: da5 Providers: 1. Name: da5 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: ATA WDC WD40EFRX-68N lunid: 50014ee20f085a07 ident: WD-WCC7K6PP5J2X rotationrate: 5400 fwsectors: 63 fwheads: 255 Geom name: da6 Providers: 1. Name: da6 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: ATA WDC WD40EFRX-68W lunid: 50014ee2b7cc4ad7 ident: WD-WCC4E6XHCYY3 rotationrate: 5400 fwsectors: 63 fwheads: 255 Geom name: da7 Providers: 1. Name: da7 Mediasize: 4000787030016 (3.6T) Sectorsize: 512 Stripesize: 4096 Stripeoffset: 0 Mode: r2w2e5 descr: ATA WDC WD40EFRX-68W lunid: 50014ee261f4760d ident: WD-WCC4E5JYD30T rotationrate: 5400 fwsectors: 63 fwheads: 255 |
en bij zpool status krijg ik dit te zien:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
| % zpool status pool: freenas-boot state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM freenas-boot ONLINE 0 0 0 ada0p2 ONLINE 0 0 0 errors: No known data errors pool: six4tb state: DEGRADED scan: resilvered 0 in 29 days 01:42:30 with 0 errors on Sat Aug 8 21:28:01 2020 config: NAME STATE READ WRITE CKSUM six4tb DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2 ONLINE 0 0 0 gptid/75e759d8-a341-11ea-9020-d050996ff8e2 ONLINE 0 0 0 gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2 ONLINE 0 0 0 gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2 ONLINE 0 0 0 gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2 ONLINE 0 0 0 replacing-5 UNAVAIL 0 0 0 13571676615721927902 UNAVAIL 0 0 0 was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2 18182716167874336493 UNAVAIL 0 0 0 was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2 errors: No known data errors pool: three4tb state: ONLINE scan: resilvered 4.70M in 0 days 00:00:02 with 0 errors on Fri Aug 7 12:08:00 2020 config: NAME STATE READ WRITE CKSUM three4tb ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 gptid/83c6492f-85bd-11e7-a5e3-d050996ff8e2 ONLINE 0 0 0 gptid/849990df-85bd-11e7-a5e3-d050996ff8e2 ONLINE 0 0 0 gptid/8565e3f6-85bd-11e7-a5e3-d050996ff8e2 ONLINE 0 0 0 errors: No known data errors % |
Volgens mij zijn er dus bij six4tb nu 5 schijven online en kan er nog maar 1 schijf bij. Misschien iets mis gegaan met de vorige keer resilveren toen de boel uitviel met kapotte moederboard. Vervolgens in Ubuntu de resilver afgemaakt en kwam de pool online.
De schijf 'da1' zou ik er dus aan willen hangen en dat die weer schijf 6 gaat worden.
/edit: overigens ada0 en ada1 ga ik straks samen combineren tot boot pool dat zijn twee kingston ssd's
@WTM, probeer de gptid symlink eens te herstellen?
Op de plek van de * even het goede nummer pakken.
Daarna weer proberen de schijven online te brengen.
# ln -s /dev/da* /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2 # ln -s /dev/da* /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
Op de plek van de * even het goede nummer pakken.
Daarna weer proberen de schijven online te brengen.
Sinds de 2 dagen regel reageer ik hier niet meer
Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.