Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 00:21
CurlyMo schreef op vrijdag 19 juni 2020 @ 12:59:
[...]

ZFS is je dus je target en niet je source? Jammer dat dat niet anders gaat.
ZFS is idd de target. Inmiddels niet meer, ik heb die machine opgeruimd en de backup naar Acronis gezet. Ik neig er wel naar om weer terug te gaan op ZFS, aangezien de kosten van Acronis inmiddels best wel aantikken (ik zat toen nog niet aan mijn 2.5TB minimale afname per maand en betaalde het toch wel).

Acties:
  • 0 Henk 'm!
_JGC_ schreef op vrijdag 19 juni 2020 @ 13:03:
[...]

ZFS is idd de target. Inmiddels niet meer, ik heb die machine opgeruimd en de backup naar Acronis gezet. Ik neig er wel naar om weer terug te gaan op ZFS, aangezien de kosten van Acronis inmiddels best wel aantikken (ik zat toen nog niet aan mijn 2.5TB minimale afname per maand en betaalde het toch wel).
En wat is de source dan? Persoonlijke linux machines?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 00:21
CurlyMo schreef op vrijdag 19 juni 2020 @ 14:08:
[...]

En wat is de source dan? Persoonlijke linux machines?
VPS'en met linux bij TransIP. Mooi dat ze snapshot "backups" aanbieden, maar als je een mailbox, los mailtje of database wilt restoren kan dat niet, vandaar de keuze om het offsite te trekken met rsync (en een script die percona xtrabackup gebruikt voor incrementele MySQL backups).

Acties:
  • 0 Henk 'm!
_JGC_ schreef op vrijdag 19 juni 2020 @ 14:49:
[...]

VPS'en met linux bij TransIP. Mooi dat ze snapshot "backups" aanbieden, maar als je een mailbox, los mailtje of database wilt restoren kan dat niet, vandaar de keuze om het offsite te trekken met rsync (en een script die percona xtrabackup gebruikt voor incrementele MySQL backups).
Ik heb op mijn VPS'en ook altijd ZoL zodat ik send/receive kan doen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
_JGC_ schreef op vrijdag 19 juni 2020 @ 12:56:
@Q ZFS werkt met Copy On Write. Als je rsync daar gebruik van laat maken (--inplace) krijg je gefragmenteerde doelbestanden. Je kunt ook besluiten om niet --inplace te gebruiken, dan krijg je gewoon een nieuw doelbestand, maar dan groeien je snapshots de pan uit qua opslagruimte.
Ik snap dat, maar ik vraag me wel af of er geen mooiere alternatieven zouden kunnen zijn. Niet dat we hier een probleem hoeven op te lossen wat je zelf duidelijk aangeeft niet te hebben. ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Nog niet zolang geleden heb ik een nieuwe ZFS NAS gebouwd op basis van XigmaNAS (FreeBSD).
Hierin zitten zes Toshiba MQ03ABB300 schijven maar ik zie zorgwekkende gegevens:

Start_Stop_Count 9
Power_On_Hours 1020
Load_Cycle_Count 25290
Load-in_Time 265

Dus na anderhalf maandje zit het systeem al aan 25.000+ load cycles. Dat is dus gemiddeld 25 cycles per uur. Als dat zo verder gaat, zal elke schijf 200.000 cycles per jaar aantikken.

Wat heb ik al geprobeerd:
- Always On
- Power Management disabled (ook APM op level 128 en 254)
- Zoeken naar firmware update of software tools

Wat kan ik nog doen om te vermijden dat elke 2 minuten de schijven hun kop parkeren ? Ik vermoed dat deze niet meer dan een paar honderdduizend cycles kunnen en het is niet evident 3TB of grotere schijven te vinden die niet SMR zijn, dit zijn de enige :)
Ik zou het nog even willen uithouden totdat 4TB SSD's betaalbaar zijn :)

Acties:
  • +1 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 20:30
@Phuncz Weet je zeker dat de Load_Cycle_Count waarde klopt? Iedere fabrikant gebruikt weer eigen identifiers voor z'n SMART-waardes. Het kan zijn dat die in dit geval niet 100% lekker gemapped zijn door je OS (zeker FreeBSD blinkt niet uit in hardware support).

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

@Freeaqingme
Afbeeldingslocatie: https://tweakers.net/i/tw1BIStAf5V7Ef6E71HwkppoPeg=/234x176/filters:strip_exif()/f/image/XapYETedhte2AUjZehiVtPoW.png?f=fotoalbum_medium

Verder weet ik niet hoe ik het preciezer kan te weten komen. De andere data lijkt namelijk zeer goed te kloppen.

Acties:
  • +1 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 20:30
Phuncz schreef op maandag 22 juni 2020 @ 20:24:
@Freeaqingme
[Afbeelding]

Verder weet ik niet hoe ik het preciezer kan te weten komen. De andere data lijkt namelijk zeer goed te kloppen.
Ik dacht even bij de support van Toshiba te kijken, maar als ik het model (MQ03ABB300) invul op de support site van Toshiba dan vind ik niet die schijf. Waar je die verder zou moeten kunnen vinden weet ik ook niet.

Verder kom ik ook niet. Hier is iemand die ook zo'n disk heeft, maar die zit met dubbel zo veel uur aan een significant lagere load cycle count. Ik weet even niet wat je verder nog zou kunnen doen.

EDIT: Vergeten te zeggen; de kans dat de mapping wel goed is is groter dan dat 'ie niet goed is. Zeker als de rest van de waardes wel lijkt te kloppen. Dan zou ik de oplossing niet per se in deze richting zoeken.

[ Voor 9% gewijzigd door Freeaqingme op 22-06-2020 21:18 ]

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

@Freeaqingme
Ze zijn inderdaad niet makkelijk om informatie over te vinden. Ik heb het vermoeden dat deze ook niet bedoeld zijn voor de retail maar de OEM markt. De documenten die ik al eerder heb gevonden zijn deze:
https://toshiba.semicon-s...Bxxx-Product-Overview.pdf
https://www.toshiba.co.jp/tech/review/en/01_02/pdf/a07.pdf

Maar daar haal ik geen specs uit die Load Cycles noemt. Ik kan niet verklaren waarom jouw voorbeeld zoveel minder cycles heeft.

Dit zijn de settings die ik al een paar dagen heb staan, met geen verschil in de hoeveelheid cycles per dag.

Afbeeldingslocatie: https://tweakers.net/i/CpWN-HQ_OweeUaEVp0uZ_QW-r2U=/234x176/filters:strip_exif()/f/image/qDZz9tc9fqZYPJbD8c434YOX.png?f=fotoalbum_medium

[ Voor 5% gewijzigd door Phuncz op 22-06-2020 20:55 ]


Acties:
  • 0 Henk 'm!

  • Dj Neo Ziggy
  • Registratie: Januari 2000
  • Laatst online: 14:02
Ik heb een server migratie gehad. Ik heb nu 4 schijven die in een mirror/striped set staan.

Deze config is 2x3TB en 2x2TB. In totaal heb ik dus 5TB ruimte.
Ik nog een sata poortje over en een 2TB schijf over. Nu is de vraag kan ik deze inzetten voor parity/hot spare?

En zo ja hoe doe ik dat?

Wat is hoop? Uitgestelde teleurstelling


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Dj Neo Ziggy schreef op dinsdag 23 juni 2020 @ 11:32:
Ik heb een server migratie gehad. Ik heb nu 4 schijven die in een mirror/striped set staan.

Deze config is 2x3TB en 2x2TB. In totaal heb ik dus 5TB ruimte.
Ik nog een sata poortje over en een 2TB schijf over. Nu is de vraag kan ik deze inzetten voor parity/hot spare?

En zo ja hoe doe ik dat?
https://www.thegeekdiary....spares-in-a-storage-pool/

Ik heb me er verder niet in verdiept maar de 2 TB schijf kan natuurlijk niet als spare dienen voor de 3TB VDEV.
Mogelijk dat je de 2 TB schijf exclusief kunt toewijzen aan een vdev.

Acties:
  • 0 Henk 'm!

  • Dj Neo Ziggy
  • Registratie: Januari 2000
  • Laatst online: 14:02
Nee dat zie ik ook nu in, maar wel als parity?

Wat is hoop? Uitgestelde teleurstelling


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:37
Dj Neo Ziggy schreef op dinsdag 23 juni 2020 @ 14:31:
Nee dat zie ik ook nu in, maar wel als parity?
De parity disk zal net zo groot moeten zijn als je individuele delen / de kleinste disk bepaald de grote van alle disks.

Als je dus zegt:
mirror van 2x 3TB
mirror van 2x 2TB
Daar overheen RAIDZ1
Dan blijft er van die 3TB mirror nog maar 2TB over en dus effectief 4TB i.p.v. 5TB. Immers wordt voor elke bit(positie) zeg maar over alle disks samen de parity berekent en op de laatste disk gezet. Het maximum aantal bruikbare bits (per disk) is dan dus ook beperkt door het aantal bits dat op de parity disk kunnen (/überhaupt de kleinste disk, want als een "gewone" disk kleiner is heb je daar alsnog geen positie op om parity over te berekeken)

* Overigens werkt het bij ZFS met RAIDZ afaik sowieso weer wat anders omdat die geen parity disks heeft. Parity wordt op een willekeurige disk gezet en elke disk kan/zal dus een combinatie van daadwerkelijke (striped) data plus parity bevatten.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Dj Neo Ziggy schreef op dinsdag 23 juni 2020 @ 14:31:
Nee dat zie ik ook nu in, maar wel als parity?
Nee, zo werk ZFS niet.

Ik zou de 2tb schijf op de plank laten liggen als replacement.

Acties:
  • +1 Henk 'm!
@Dj Neo Ziggy Hot spare is zinloos. Kies beter voor een aanvullend parity niveau. Dus:
2-weg mirror + spare kan beter een 3-weg mirror worden
RAIDZ1 + spare kan beter een RAIDZ2 worden
enz.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Dj Neo Ziggy
  • Registratie: Januari 2000
  • Laatst online: 14:02
Thanx voor alle tips. hij gaat op de plank

Wat is hoop? Uitgestelde teleurstelling


Acties:
  • 0 Henk 'm!

  • HollowGamer
  • Registratie: Februari 2009
  • Niet online
Momenteel heb ik 2x2 ZFS gecombineerde schijven in mijn NAS hangen. De één is 2x3TB (dus 6TB), de andere is 2x2TB (4TB).

Aangezien ik backups maak op dezelfde machine, vind ik dit eigenlijk niet zo'n handige en goede oplossing. Mijn idee dan ook deze 2x2TB bij te voegen bij de huidige dataset en een schijf erbij kopen van 4TB/6TB voor mijn essentiële data waarover ik backups maak op een andere machine. Er staan veel series op mijn NAS, die download ik wel opnieuw mocht de boel crashen.

Is dit handig? Kan ik gewoon 'blijven stapelen'? Wat doet dit aan de prestaties? Ik heb ook nog een SSD die ik zou willen inzetten als cache, maar ook hier lees ik veel mixed verhalen over.

Thanks!

Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
HollowGamer schreef op donderdag 25 juni 2020 @ 12:28:
Momenteel heb ik 2x2 ZFS gecombineerde schijven in mijn NAS hangen. De één is 2x3TB (dus 6TB), de andere is 2x2TB (4TB).

Aangezien ik backups maak op dezelfde machine, vind ik dit eigenlijk niet zo'n handige en goede oplossing. Mijn idee dan ook deze 2x2TB bij te voegen bij de huidige dataset en een schijf erbij kopen van 4TB/6TB voor mijn essentiële data waarover ik backups maak op een andere machine. Er staan veel series op mijn NAS, die download ik wel opnieuw mocht de boel crashen.

Is dit handig? Kan ik gewoon 'blijven stapelen'? Wat doet dit aan de prestaties? Ik heb ook nog een SSD die ik zou willen inzetten als cache, maar ook hier lees ik veel mixed verhalen over.

Thanks!
Ik sta zelf helemaal achter je redenatie en plan. Ik zou mij geen zorgen maken over de prestaties.

De data zal in de overgebleven pool zal niet naar verhouding gebalanced zijn over de VDEVs maar ik denk dat dit geen probleem is. Ik laat me echter graag corrigeren door mede-tweakers.

Ik zie ook geen reden voor een SSD in dit verhaal.

Zolang je maar een backup schijf aan een andere computer hangt (al is het een Raspberry Pi4), zit je goed. Het enige risico wat overblijft is brand/diefstal.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:37
Op het moment heb ik op mijn "oude" thuisserver/nas een aantal datasets met documenten etc. Deze zou ik graag willen overzetten naar mijn nieuwe thuisserver/nas, maar dan wel encrypten (met ZFS native encryption). Alleen, hoe?

Ik heb een (parent) dataset aangemaakt met encryption, en vervolgens een send & receive gedaan: zfs send -R source@snap | zfs receive parent. Verrassend genoeg werkt dit, maar de child heeft dan geen encrypion meer 8)7 (uiteraard kwam ik daar pas veel later achter / nadat die had gefaald en ik nog wat pogingen nodig had om een deel met 200GB nieuwe data over te zetten). Nu een nieuwe dataset aangemaakt, die wel netjes de encrypion overneemt van de parent. Maar een nieuwe send & receive mislukt dan weer op dat de dataset al bestaat en -F nodig is. Waarbij ik weer vrees dat een -F ervoor zorgt dat de encryption verloren gaat. Ook een snelle Google zoekopdracht geeft daarbij aan dat het niet zo eenvoudig is om een dataset te repliceren en daarbij encryption te enablen. Mogelijke oplossing die langs kwam was de -R laten vallen en alleen het oudste snapshot over te zetten, en daarna met een -I de rest binnen te halen. Wat zijn dus jullie ervaringen hiermee?

Overigens worden de datasets nu ook al gerepliceerd naar een Orange Pi, liefst kan ik daar de nieuwe snapshots dadelijk aan vast plakken. Maar dat zal vast niet gaan lukken, gezien ik een raw send & receive wil gaan doen die kant op, en dus de encryption behouden, zonder uiteraard de encryption key op de Pi te zetten (later wil ik die Pi dan ook nog buitenshuis gaan plaatsen).

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:37
Ik heb mijn eigen vraag / probleem van hierboven intussen soort van opgelost, gedeeltelijk met trial en error en gedeeltelijk met RTFM.

Waar het op neer komt is dat een enkel snapshot overzetten als child van een encrypted dataset wel werkt, maar een incremental update niet meer, omdat de dataset dan verandert zou zijn.
Oftewel:
# zfs send old/data@old | zfs receive new/parent/child

Waarbij new/parent encrypted is werkt, en new/parent/child is dan ook encrypted op basis van parent.
Echter faalt het bijwerken dan:
# zfs send -I @old old/data@new | zfs receive new/parent/child

Dit geeft een error dat de dataset is aangepast.

Wat echter wel werkt is de encryptie expliciet toepassen op de nieuwe dataset. Ook dan moet het oudste snapshot eerst worden overgezet, maar daarna kan de rest wel incrimenteel, oftewel, dit werkt wel:
# zfs send old/data@old | zfs receive -o encrypion=on -o keyformat=raw -o keylocation=file:///... new/parent/child
# zfs send -I @old old/data@new | zfs receive new/parent/child

Waarom dit werkt ben ik echter niet achter gekomen. Noch heb ik enig idee wat het nadeel is van het opnieuw/expliciet toepassen van de encryptie instellingen. Maar het geeft dus in ieder geval het resultaat dat snapshots steeds opnieuw bijgewerkt kunnen worden vanaf de bron.

Overigens heb ik het laatste ook geprobeerd met een -R, maar ook dat werkt niet. Exacte error weet ik niet meer, maar na overzetten van het initiële snapshot klapt die eruit. Vervolgens de rest van de snapshots overzetten met een -I kan dan weer wel.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
Phuncz schreef op maandag 22 juni 2020 @ 20:02:
Nog niet zolang geleden heb ik een nieuwe ZFS NAS gebouwd op basis van XigmaNAS (FreeBSD).
Hierin zitten zes Toshiba MQ03ABB300 schijven maar ik zie zorgwekkende gegevens:

Start_Stop_Count 9
Power_On_Hours 1020
Load_Cycle_Count 25290
Load-in_Time 265

Dus na anderhalf maandje zit het systeem al aan 25.000+ load cycles. Dat is dus gemiddeld 25 cycles per uur. Als dat zo verder gaat, zal elke schijf 200.000 cycles per jaar aantikken.

Wat heb ik al geprobeerd:
- Always On
- Power Management disabled (ook APM op level 128 en 254)
- Zoeken naar firmware update of software tools

Wat kan ik nog doen om te vermijden dat elke 2 minuten de schijven hun kop parkeren ? Ik vermoed dat deze niet meer dan een paar honderdduizend cycles kunnen en het is niet evident 3TB of grotere schijven te vinden die niet SMR zijn, dit zijn de enige :)
Ik zou het nog even willen uithouden totdat 4TB SSD's betaalbaar zijn :)
Ik weet niet hoe je APM uitgezet hebt, maar heb je het resultaat ook gechecked?
Zou je eens een
camcontrol identify da1
willen doen?

Overigens is er best wat marge, ik heb 5 stuks HGST Travelstar 5k1000 en ik zat ook niet op te letten, de oudste schijf heeft deze smart stats:
  9 Power_On_Hours          0x0012   001   001   000    Old_age   Always       -       47402
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       60
193 Load_Cycle_Count        0x0012   001   001   000    Old_age   Always       -       4041753

Ik overweeg op het moment om de schijven te vervangen door jouw MQ03's omdat dit een van de weinige grote PMR 2.5" disks zijn, dus als we het bij jou gefixt krijgen dan kan ik met een gerust hart schijven gaan vervangen :+

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:37
Om hier nogmaals op terug te komen:
RobertMe schreef op zondag 28 juni 2020 @ 11:34:
Noch heb ik enig idee wat het nadeel is van het opnieuw/expliciet toepassen van de encryptie instellingen. Maar het geeft dus in ieder geval het resultaat dat snapshots steeds opnieuw bijgewerkt kunnen worden vanaf de bron.
Ik kwam zojuist change-key -i <filesystem> tegen, en dan wordt de encryptie op "inherit" gezet en is alles "in orde" wat mij betreft.

Dus eerst dan:
# zfs send old/data@old | zfs receive -o encrypion=on -o keyformat=raw -o keylocation=file:///... new/parent/child
# zfs send -I @old old/data@new | zfs receive new/parent/child

zoals ik al had aangegeven. Maar new/parent/child heeft dan zijn eigen encryption properties (encryption, keyformat, keylocation, ...), en zfs get encryptionroot new/parent/child geeft dan ook new/parent/child aan, i.p.v. new/parent. Maar na:
# zfs change-key -i new/parent/chlid

is dat weer allemaal weggepoetst. De encryptionroot is dan new/parent, encryption blijft wel expliciet ingesteld, ne als keyformat, maar de keylocation wordt dan op none gezet.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

P5ycho schreef op woensdag 1 juli 2020 @ 15:41:
[...]

Ik weet niet hoe je APM uitgezet hebt, maar heb je het resultaat ook gechecked?
Zou je eens een
camcontrol identify da1
willen doen?

Overigens is er best wat marge, ik heb 5 stuks HGST Travelstar 5k1000 en ik zat ook niet op te letten, de oudste schijf heeft deze smart stats:
  9 Power_On_Hours          0x0012   001   001   000    Old_age   Always       -       47402
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       60
193 Load_Cycle_Count        0x0012   001   001   000    Old_age   Always       -       4041753

Ik overweeg op het moment om de schijven te vervangen door jouw MQ03's omdat dit een van de weinige grote PMR 2.5" disks zijn, dus als we het bij jou gefixt krijgen dan kan ik met een gerust hart schijven gaan vervangen :+
Ik zie je bericht nu pas. Bizar is dat deze APM level 128 aanduidt terwijl het in de web-interface staat op 254.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
pass2: <TOSHIBA MQ03ABB300 JP050U> ATA8-ACS SATA 3.x device
pass2: 600.000MB/s transfers, Command Queueing Enabled

protocol              ATA8-ACS SATA 3.x
device model          TOSHIBA MQ03ABB300
firmware revision     JP050U
serial number         18KAW0OIT
WWN                   ***
additional product id
cylinders             16383
heads                 16
sectors/track         63
sector size           logical 512, physical 4096, offset 0
LBA supported         268435455 sectors
LBA48 supported       5860533168 sectors
PIO supported         PIO4
DMA supported         WDMA2 UDMA5
media RPM             5400
Zoned-Device Commands no

Feature                      Support  Enabled   Value           Vendor
read ahead                     yes      yes
write cache                    yes      yes
flush cache                    yes      yes
Native Command Queuing (NCQ)   yes              32 tags
NCQ Priority Information       no
NCQ Non-Data Command           no
NCQ Streaming                  no
Receive & Send FPDMA Queued    no
NCQ Autosense                  no
SMART                          yes      yes
security                       yes      no
power management               yes      yes
microcode download             yes      yes
advanced power management      yes      yes     128/0x80
automatic acoustic management  no       no
media status notification      no       no
power-up in Standby            yes      no
write-read-verify              no       no
unload                         yes      yes
general purpose logging        yes      yes
free-fall                      no       no
sense data reporting           no       no
extended power conditions      no       no
device statistics notification no       no
Data Set Management (DSM/TRIM) no
Trusted Computing              no
encrypts all user data         no
Sanitize                       no
Host Protected Area (HPA)      yes      no      5860533168/5860533167
HPA - Security                 yes      no
Accessible Max Address Config  no


Met
code:
1
sudo camcontrol apm da1
heb ik APM uitgeschakeld, nu moet ik het in de gaten houden. Momenteel 1.300 Power On Hours en 34.000 Load Cycle Count gemiddeld. Ik was eigenlijk van plan dit te laten varen en te hopen dat het minimaal 3 jaren uithoudt. Maar als jij met 4 miljoen cycles het nog steeds trekt, moet ik me misschien geen zorgen maken.

Ik kan de schijven wel aanraden met mijn korte ervaring. Ze zijn stil: tot nu toe heb ik ze steeds moeten herkennen of ze aan staan door trilling te voelen in de drive cage. Qua performance mag ik ook niet klagen in RAID-Z2, zpool scrub ging aan 350MB/sec als ik enkel de used space tel, full array is dat 470MB/sec.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
Kijk, zo pik ik ook nog wat op. Ik heb nog
camcontrol cmd adaX -a "EF 85 00 00 00 00 00 00 00 00 00 00"
in m'n rc.local staan voor alle disks, blijkbaar is daar ondertussen een makkelijkere optie voor. Vergeet niet, een reboot en apm staat weer aan.

600000 load cycles is average, ik zou er niet op gokken iig.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

@P5ycho Zojuist gechecked maar Load Cycle Count blijft lustig doortikken. Ik heb ze nu terug op 128 gezet. via camcontrol.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
@Phuncz Dat is maf, ik zou niet verwachten dat de disk de apm commands negeert. Is er een reden waarom je systeem de da(4) driver gebruikt ipv de gebruikelijke ada(4)?

[ Voor 38% gewijzigd door P5ycho op 05-07-2020 08:02 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

@P5ycho Mogelijk de LSI 9205-8i SAS controller ? Anders heb ik geen idee.
Let wel op dat ik niet zeg dat de schijf de APM functie weigert, maar dat de LCC waarde blijft stijgen. Een lopende theorie van mij is dat de kop een load cycle doet om zijn head heating te calibreren, resetten of te testen en dit niet (compleet) uit te schakelen valt.

Momenteel hou ik de waardes bij in verhouding met de Power On Hours om te zien of een bepaalde instelling meer of minder effect heeft op het aantal LCC per "Power On Hours". Ik heb blijkbaar één keer een instelling gehad waardoor deze minimaal stegen, maar dit is al een lange tijd geleden voordat ik het op die manier bijhield en dus niet heb genoteerd.

[ Voor 34% gewijzigd door Phuncz op 05-07-2020 08:09 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
De LSI controller verzorgt scsi-ata translatie, misschien gaat daar nog iets mis?
De piezo heaters op de arm worden juist aangestuurd tijdens het positioneren lijkt me.

Wat gebeurt er als:
camcontrol devlist
camcontrol identify da1 -v
camcontrol apm da1
camcontrol identify da1 -v
camcontrol cmd ada0 -a "EF 85 00 00 00 00 00 00 00 00 00 00"
camcontrol identify da1 -v


Als daar niets uitkomt dan is het misschien nog de moeite waard om met 1 disk de LSI controller te bypassen.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Voor de duidelijkheid, die SAS kaart staat in IT-mode, dus als een Host-Based Adapter.

code:
1
2
3
4
5
6
7
8
9
[admin@xigmanas ~]$ sudo camcontrol devlist
<NECVMWar VMware SATA CD00 1.00>   at scbus2 target 0 lun 0 (pass0,cd0)
<VMware Virtual disk 2.0>          at scbus32 target 0 lun 0 (pass1,da0)
<ATA TOSHIBA MQ03ABB3 0U>          at scbus33 target 0 lun 0 (pass2,da1)
<ATA TOSHIBA MQ03ABB3 0U>          at scbus33 target 1 lun 0 (pass3,da2)
<ATA TOSHIBA MQ03ABB3 0U>          at scbus33 target 2 lun 0 (pass4,da3)
<ATA TOSHIBA MQ03ABB3 0U>          at scbus33 target 3 lun 0 (pass5,da4)
<ATA TOSHIBA MQ03ABB3 0U>          at scbus33 target 4 lun 0 (pass6,da5)
<ATA TOSHIBA MQ03ABB3 0U>          at scbus33 target 5 lun 0 (pass7,da6)


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
[admin@xigmanas ~]$ sudo camcontrol identify da1 -v
camcontrol: sending ATA ATA_IDENTIFY via pass_16 with timeout of 30000 msecs
pass2: Raw identify data:
   0: 0040 3fff c837 0010 0000 0000 003f 0000
   8: 0000 0000 3831 414b 3057 494f 0054 0000
  16: 0000 0000 0000 0000 0000 8000 0000 504a
  24: 3530 5530 0000 4f54 4853 4249 2041 514d
  32: 3330 4241 3342 3030 0000 0000 0000 0000
  40: 0000 0000 0000 0000 0000 0000 0000 8010
  48: 0000 2f00 4000 0200 0000 0007 3fff 0010
  56: 003f fc10 00fb 0110 ffff 0fff 0007 0007
  64: 0003 0078 0078 0078 0078 0108 0000 0000
  72: 0000 0000 0000 001f ef0e 0006 004c 0044
  80: 01f8 0000 746b 7d69 6163 7469 bc49 6163
  88: 203f 8123 8123 0080 fffe 0000 0000 0000
  96: 0000 0000 0000 0000 a3b0 5d50 0001 0000
 104: 0000 0000 6003 0000 5000 0398 4490 40da
 112: 0000 0000 0000 0000 0000 0000 0000 401c
 120: 401c 0000 0000 0000 0000 0000 0000 0000
 128: 0021 0000 0000 0000 0000 0000 0000 0000
 136: 0000 0000 0000 0000 0000 0000 0000 0000
 144: 0000 0000 0000 0000 0000 0000 0000 0000
 152: 0000 0000 0000 0000 0000 0000 0000 0000
 160: 0000 0000 0000 0000 0000 0000 0000 0000
 168: 0003 0000 0000 0000 0000 0000 0000 0000
 176: 0000 0000 0000 0000 0000 0000 0000 0000
 184: 0000 0000 0000 0000 0000 0000 0000 0000
 192: 0000 0000 0000 0000 0000 0000 0000 0000
 200: 0000 0000 0000 0000 0000 0000 003d 0000
 208: 0000 4000 0000 0000 0000 0000 0000 0000
 216: 0000 1518 0000 0000 0000 0000 103f 0000
 224: 0000 0000 0000 0000 0000 0000 a3b0 5d50
 232: 0001 0000 0001 0080 0000 0000 0000 0000
 240: 0000 0000 0000 0000 0000 0000 0000 0000
 248: 0000 0000 0000 0000 0000 0000 0000 fba5

camcontrol: sending ATA READ_NATIVE_MAX_ADDRESS48 via pass_16 with timeout of 5000 msecs
pass2: <TOSHIBA MQ03ABB300 JP050U> ATA8-ACS SATA 3.x device
pass2: 600.000MB/s transfers, Command Queueing Enabled

protocol              ATA8-ACS SATA 3.x
device model          TOSHIBA MQ03ABB300
firmware revision     JP050U
serial number         18KAW0OIT
WWN                   ***
additional product id
cylinders             16383
heads                 16
sectors/track         63
sector size           logical 512, physical 4096, offset 0
LBA supported         268435455 sectors
LBA48 supported       5860533168 sectors
PIO supported         PIO4
DMA supported         WDMA2 UDMA5
media RPM             5400
Zoned-Device Commands no

Feature                      Support  Enabled   Value           Vendor
read ahead                     yes      yes
write cache                    yes      yes
flush cache                    yes      yes
Native Command Queuing (NCQ)   yes              32 tags
NCQ Priority Information       no
NCQ Non-Data Command           no
NCQ Streaming                  no
Receive & Send FPDMA Queued    no
NCQ Autosense                  no
SMART                          yes      yes
security                       yes      no
power management               yes      yes
microcode download             yes      yes
advanced power management      yes      yes     128/0x80
automatic acoustic management  no       no
media status notification      no       no
power-up in Standby            yes      no
write-read-verify              no       no
unload                         yes      yes
general purpose logging        yes      yes
free-fall                      no       no
sense data reporting           no       no
extended power conditions      no       no
device statistics notification no       no
Data Set Management (DSM/TRIM) no
Trusted Computing              no
encrypts all user data         no
Sanitize                       no
Host Protected Area (HPA)      yes      no      5860533168/5860533167
HPA - Security                 yes      no
Accessible Max Address Config  no


code:
1
[admin@xigmanas ~]$ sudo camcontrol apm da1


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
[admin@xigmanas ~]$ sudo camcontrol identify da1 -v
camcontrol: sending ATA ATA_IDENTIFY via pass_16 with timeout of 30000 msecs
pass2: Raw identify data:
   0: 0040 3fff c837 0010 0000 0000 003f 0000
   8: 0000 0000 3831 414b 3057 494f 0054 0000
  16: 0000 0000 0000 0000 0000 8000 0000 504a
  24: 3530 5530 0000 4f54 4853 4249 2041 514d
  32: 3330 4241 3342 3030 0000 0000 0000 0000
  40: 0000 0000 0000 0000 0000 0000 0000 8010
  48: 0000 2f00 4000 0200 0000 0007 3fff 0010
  56: 003f fc10 00fb 0110 ffff 0fff 0007 0007
  64: 0003 0078 0078 0078 0078 0108 0000 0000
  72: 0000 0000 0000 001f ef0e 0006 004c 0044
  80: 01f8 0000 746b 7d69 6163 7461 bc41 6163
  88: 203f 8123 8123 0080 fffe 0000 0000 0000
  96: 0000 0000 0000 0000 a3b0 5d50 0001 0000
 104: 0000 0000 6003 0000 5000 0398 4490 40da
 112: 0000 0000 0000 0000 0000 0000 0000 401c
 120: 401c 0000 0000 0000 0000 0000 0000 0000
 128: 0021 0000 0000 0000 0000 0000 0000 0000
 136: 0000 0000 0000 0000 0000 0000 0000 0000
 144: 0000 0000 0000 0000 0000 0000 0000 0000
 152: 0000 0000 0000 0000 0000 0000 0000 0000
 160: 0000 0000 0000 0000 0000 0000 0000 0000
 168: 0003 0000 0000 0000 0000 0000 0000 0000
 176: 0000 0000 0000 0000 0000 0000 0000 0000
 184: 0000 0000 0000 0000 0000 0000 0000 0000
 192: 0000 0000 0000 0000 0000 0000 0000 0000
 200: 0000 0000 0000 0000 0000 0000 003d 0000
 208: 0000 4000 0000 0000 0000 0000 0000 0000
 216: 0000 1518 0000 0000 0000 0000 103f 0000
 224: 0000 0000 0000 0000 0000 0000 a3b0 5d50
 232: 0001 0000 0001 0080 0000 0000 0000 0000
 240: 0000 0000 0000 0000 0000 0000 0000 0000
 248: 0000 0000 0000 0000 0000 0000 0000 0ba5

camcontrol: sending ATA READ_NATIVE_MAX_ADDRESS48 via pass_16 with timeout of 5000 msecs
pass2: <TOSHIBA MQ03ABB300 JP050U> ATA8-ACS SATA 3.x device
pass2: 600.000MB/s transfers, Command Queueing Enabled

protocol              ATA8-ACS SATA 3.x
device model          TOSHIBA MQ03ABB300
firmware revision     JP050U
serial number         18KAW0OIT
WWN                   ***
additional product id
cylinders             16383
heads                 16
sectors/track         63
sector size           logical 512, physical 4096, offset 0
LBA supported         268435455 sectors
LBA48 supported       5860533168 sectors
PIO supported         PIO4
DMA supported         WDMA2 UDMA5
media RPM             5400
Zoned-Device Commands no

Feature                      Support  Enabled   Value           Vendor
read ahead                     yes      yes
write cache                    yes      yes
flush cache                    yes      yes
Native Command Queuing (NCQ)   yes              32 tags
NCQ Priority Information       no
NCQ Non-Data Command           no
NCQ Streaming                  no
Receive & Send FPDMA Queued    no
NCQ Autosense                  no
SMART                          yes      yes
security                       yes      no
power management               yes      no
microcode download             yes      yes
advanced power management      yes      no      128/0x80
automatic acoustic management  no       no
media status notification      no       no
power-up in Standby            yes      no
write-read-verify              no       no
unload                         yes      yes
general purpose logging        yes      yes
free-fall                      no       no
sense data reporting           no       no
extended power conditions      no       no
device statistics notification no       no
Data Set Management (DSM/TRIM) no
Trusted Computing              no
encrypts all user data         no
Sanitize                       no
Host Protected Area (HPA)      yes      no      5860533168/5860533167
HPA - Security                 yes      no
Accessible Max Address Config  no


Die voorlaatste cmd ken ik niet maar is ada0 niet fout ? da0 is de boot drive namelijk.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
Ai ja dat is een c/p fout van mij. Dit is de rauwe apm disable command. Ada0 moet daar natuurlijk da1 zijn.
ls hiermee je apm disabled en je load cycle count loopt nog steeds op, dan doet die schijf iets buiten apm om met z'n koppen, of de LSI controller doet niet wat van hem gevraagd wordt.

[ Voor 6% gewijzigd door P5ycho op 05-07-2020 15:45 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Bluh! Jaren geleden een (degraded) NAS opgebouwd met ZFSGuru (onder water FreeBSD), memory disk aangemaakt, pool aangemaakt, en na data transfer een HD toegevoegd en resilver gedraaid. Appeltje eitje!

Inmiddels heb ik een Microserver Gen8 erbij, en wilde ik hetzelfde trucje doen, maar dan... gebaseerd op Debian Buster en ZFS-on-linux. Maar... eenzelfde degraded NAS opbouwen in Debian is wat lastiger.... zo blijkt!

Heb volgens deze handleiding een ramdisk aangemaakt met het commando:
mount -t tmpfs -o size=512m tmpfs /mnt/ramdisk


Hij is daarna zichtbaar als ik het volgende commando uitvoer:
df -h
echter als ik vervolgens een ZPOOL wil aanmaken dan kan ik deze niet gebruiken. Ik zie de ramdisk helaas óók niet in /dev terug komen helaas. Merk op, ik voer het commando middels "sudo" uit, dus het kan niet aan de rechten liggen m.i.

Toen dacht ik, ik zet een zpool op met een USB stick, degrade deze, en replace hem daarna met de Ramdisk, maar ook dat mocht niet (logisch verder, maar wilde het even uitsluiten).

Heeft één van jullie een idee wat ik verkeerd doe in deze? :)

Wanna play?


Acties:
  • 0 Henk 'm!

  • Brahiewahiewa
  • Registratie: Oktober 2001
  • Laatst online: 30-09-2022

Brahiewahiewa

boelkloedig

F-Tim schreef op maandag 6 juli 2020 @ 15:56:
Bluh! Jaren geleden een (degraded) NAS opgebouwd met ZFSGuru (onder water FreeBSD), memory disk aangemaakt, pool aangemaakt, en na data transfer een HD toegevoegd en resilver gedraaid. Appeltje eitje!

Inmiddels heb ik een Microserver Gen8 erbij, en wilde ik hetzelfde trucje doen, maar dan... gebaseerd op Debian Buster en ZFS-on-linux. Maar... eenzelfde degraded NAS opbouwen in Debian is wat lastiger.... zo blijkt!

Heb volgens deze handleiding een ramdisk aangemaakt met het commando:
mount -t tmpfs -o size=512m tmpfs /mnt/ramdisk


Hij is daarna zichtbaar als ik het volgende commando uitvoer:
df -h
echter als ik vervolgens een ZPOOL wil aanmaken dan kan ik deze niet gebruiken. Ik zie de ramdisk helaas óók niet in /dev terug komen helaas. Merk op, ik voer het commando middels "sudo" uit, dus het kan niet aan de rechten liggen m.i.

Toen dacht ik, ik zet een zpool op met een USB stick, degrade deze, en replace hem daarna met de Ramdisk, maar ook dat mocht niet (logisch verder, maar wilde het even uitsluiten).

Heeft één van jullie een idee wat ik verkeerd doe in deze? :)
Wil je nou een RAM-disk gebruiken als ZFS pool? Ben je dan niet bezig om de hele filosofie achter ZFS om zeep te helpen?

QnJhaGlld2FoaWV3YQ==


Acties:
  • 0 Henk 'm!
Welke melding krijg je? ZoL wil tegenwoordig dacht ik by default zelf partities aanmaken.
Dat gedrag kan je uitzetten met een flag dacht ik, misschien is dat nodig als je memory backed devices gebruikt.

Even niets...


Acties:
  • 0 Henk 'm!
F-Tim schreef op maandag 6 juli 2020 @ 15:56:
Heeft één van jullie een idee wat ik verkeerd doe in deze? :)
De ZFSGuru manier gaat uit van een lazy provisioning. Dus een memory disk met dezelfde grootte als de HDD's. Door lazy provisioning neemt die geen ruimte in bij het aanmaken van de pool. Je moet opnieuw voor het vullen de memory disk verwijderen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Brahiewahiewa schreef op maandag 6 juli 2020 @ 16:21:
[...]

Wil je nou een RAM-disk gebruiken als ZFS pool? Ben je dan niet bezig om de hele filosofie achter ZFS om zeep te helpen?
Nee hoor, dit is enkel voor de initialisatie van de pool. Daarna gooi ik de ramdisk er direct uit. Tijdens de initiële data transfer is de pool dan inderdaad degraded, pas na overdracht heb ik een HD over en kan ik de pool resilveren. Aangezien je niet van een 3-disk Z1 naar een 4-disk Z1 kunt uitbreiden is dit een workaround.
FireDrunk schreef op maandag 6 juli 2020 @ 16:21:
Welke melding krijg je? ZoL wil tegenwoordig dacht ik by default zelf partities aanmaken.
Dat gedrag kan je uitzetten met een flag dacht ik, misschien is dat nodig als je memory backed devices gebruikt.
Hij geeft dan de volgende melding;
cannot open 'tmpfs': no such device in /dev
must be a full path or shorthand device name

Terwijl ik bij hem duidelijk zie staan bij df -h:
Filesystem      Size  Used Avail Use% Mounted on
udev            7.8G     0  7.8G   0% /dev
tmpfs           1.6G  9.3M  1.6G   1% /run
/dev/md0         59G  4.1G   52G   8% /
tmpfs           7.9G     0  7.9G   0% /dev/shm
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs           7.9G     0  7.9G   0% /sys/fs/cgroup
tank             42G  128K   42G   1% /tank
tmpfs           1.6G  4.6M  1.6G   1% /run/user/1000
tmpfs           3.0T     0  3.0T   0% /mnt/ramdisk
CurlyMo schreef op maandag 6 juli 2020 @ 16:26:
[...]

De ZFSGuru manier gaat uit van een lazy provisioning. Dus een memory disk met dezelfde grootte als de HDD's. Door lazy provisioning neemt die geen ruimte in bij het aanmaken van de pool. Je moet opnieuw voor het vullen de memory disk verwijderen.
Klopt, ben ik ook van plan :)

Wanna play?


Acties:
  • 0 Henk 'm!
Hoe heb je de ramdisk aangemaakt?
Het moet een echte ramdisk zijn, niet alleen een directory met tmpfs mount.

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
FireDrunk schreef op maandag 6 juli 2020 @ 19:38:
Hoe heb je de ramdisk aangemaakt?
Het moet een echte ramdisk zijn, niet alleen een directory met tmpfs mount.
Eerst
mkdir /mnt/ramdisk
en vervolgens
mount -t tmpfs -o size=3T tmpfs /mnt/ramdisk

Gezien je reactie dus niet de juiste methode?

Wanna play?


Acties:
  • 0 Henk 'm!
Dat is denk ik niet goed genoeg, je moet een device backed ramdisk maken. Denk dat het ofwel met een loop device moet, of met /dev/ram0 via kernel parameters.

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
FireDrunk schreef op maandag 6 juli 2020 @ 19:50:
Dat is denk ik niet goed genoeg, je moet een device backed ramdisk maken. Denk dat het ofwel met een loop device moet, of met /dev/ram0 via kernel parameters.
En hoe doe ik dat? :P Zojuist met wat googlen kwam ik hier op uit, maar als ik de optie -o loop toevoeg dan krijg ik de melding "mount: bad usage".

Het hele commando wordt dan
mount -t tmpfs -o loop,size=3T tmpfs /mnt/ramdisk
welke dus helaas niet goed is.

Wanna play?


Acties:
  • 0 Henk 'm!
http://www.linuxfocus.org...%20your%20files%20to%20it.

Denk ik.

Gewoon /dev/ram0 gebruiken dus.

[ Voor 10% gewijzigd door FireDrunk op 06-07-2020 20:20 ]

Even niets...


Acties:
  • +2 Henk 'm!
Waarom een ramdisk backend en niet een bestand?
root@pve:/# df -h /tmp
Filesystem        Size  Used Avail Use% Mounted on
rpool/ROOT/pve-1  5.9G  3.0G  2.9G  52% /
root@pve:/# truncate -s 3T /tmp/a
root@pve:/# truncate -s 3T /tmp/b
root@pve:/# truncate -s 3T /tmp/c
root@pve:/# zpool create temp raidz1 /tmp/a /tmp/b /tmp/c
root@pve:/# zpool list temp
NAME   SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
temp  8.98T   205K  8.98T        -         -     0%     0%  1.00x    ONLINE  -
root@pve:/# zpool status temp
  pool: temp
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        temp        ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            /tmp/a  ONLINE       0     0     0
            /tmp/b  ONLINE       0     0     0
            /tmp/c  ONLINE       0     0     0

errors: No known data errors

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Geeft helaas de volgende melding
mke2fs 1.44.5 (15-Dec-2018)
The file /dev/ram0 does not exist and no size was specified.

Wat volgens je site het volgende betekent: Those three commands will make a directory for the ramdisk , format the ramdisk (create a filesystem), and mount the ramdisk to the directory "/tmp/ramdisk0". Now you can treat that directory as a pretend partition! Go ahead and use it like any other directory or as any other partition.
If the formatting of the ramdisk faild then you might have no support for ramdisk compiled into the Kernel. The Kernel configuration option for ramdisk is CONFIG_BLK_DEV_RAM .


Ofwel... ik moet eerst nog uitzoeken hoe ik ramdisk support toevoeg.
CurlyMo schreef op maandag 6 juli 2020 @ 20:32:
[...]

Waarom een ramdisk backend en niet een bestand?
root@pve:/# df -h /tmp
Filesystem        Size  Used Avail Use% Mounted on
rpool/ROOT/pve-1  5.9G  3.0G  2.9G  52% /
root@pve:/# truncate -s 3T /tmp/a
root@pve:/# truncate -s 3T /tmp/b
root@pve:/# truncate -s 3T /tmp/c
root@pve:/# zpool create temp raidz1 /tmp/a /tmp/b /tmp/c
root@pve:/# zpool list temp
NAME   SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
temp  8.98T   205K  8.98T        -         -     0%     0%  1.00x    ONLINE  -
root@pve:/# zpool status temp
  pool: temp
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        temp        ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            /tmp/a  ONLINE       0     0     0
            /tmp/b  ONLINE       0     0     0
            /tmp/c  ONLINE       0     0     0

errors: No known data errors
hmmm ... of niet! Dit lijkt idd ook te werken! Thanks!

Wanna play?


Acties:
  • 0 Henk 'm!
F-Tim schreef op maandag 6 juli 2020 @ 20:55:
[...]
Dit lijkt idd ook te werken! Thanks!
Gelukt?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Yup...! Instant :)

Nu ff verder puzzelen met Samba... Windows werkt totaal niet mee. Vanaf een iOS app werkt het inloggen, via samba-client ook, maar Windows geeft aan dat het wachtwoord onjuist is vreemd genoeg.

[ Voor 22% gewijzigd door F-Tim op 06-07-2020 23:11 ]

Wanna play?


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Zoooo! Inmiddels de setup op de 2de locatie draaiende :) ben wel benieuwd of ik iets fout heb gedaan, de resilver performance van ZFS-on-linux is namelijk wel echt véél lager dan die op FreeBSD.

Ter info, mijn eigen oude systeem, haalt met een Pentium G1840 en 8GB (non-ecc) geheugen met 6x4TB disks een resilver performance van +/- 500Mb/s op FreeBSD.

Het nieuwe systeem wat ik heb gebouwd doet met een G2020T en 16GB (ECC) geheugen met 4x3TB disks (op een 4xSATA - SAS connector) een resilver performance van 25Mb/s op Debian met de laatste zfs-on-linux.

Kan ik nog iets aan deze performance doen?

En... als ik ná de resilver een corrupt bestand heb, dit bestand verwijder, zpool clear uitvoer, is die nieuwe resilver dan ook verplicht? Hij loopt nu nl. een 2de resilver, maar ik zou verwachten dat verwijderen van een bestand voldoende zou zijn.

Wanna play?


Acties:
  • 0 Henk 'm!
Heb je een ZFS versie uit de standaard Debian repo geïnstalleerd? Of heb je een extra Repo geactiveerd?

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
FireDrunk schreef op maandag 13 juli 2020 @ 10:07:
Heb je een ZFS versie uit de standaard Debian repo geïnstalleerd? Of heb je een extra Repo geactiveerd?
Ik heb hem uit de contrib branche van de default Debian source, geen andere sources toegevoegd. Als ik de package version van zfsutils-linux ophaal uit apt, dan is dat 0.7.12-2+deb10u2

Wanna play?


Acties:
  • +1 Henk 'm!
Dat is de 'vorige' stable versie van ZFS.

root@nas:~# dpkg -l | grep zfs
ii  libzfs2linux                     0.8.4-1~bpo10+1                     amd64        OpenZFS filesystem library for Linux
ii  zfs-dkms                         0.8.4-1~bpo10+1                     all          OpenZFS filesystem kernel modules for Linux     
ii  zfs-zed                          0.8.4-1~bpo10+1                     amd64        OpenZFS Event Daemon
ii  zfsutils-linux                   0.8.4-1~bpo10+1                     amd64        command-line tools to manage OpenZFS filesystems


0.8 geeft een stuk betere Scrub performance.
Volgens mij komt die van mij uit de backports repo.

[ Voor 3% gewijzigd door FireDrunk op 13-07-2020 10:16 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Ahhh, dat verklaart, en het is dan simpelweg op te lossen door de buster-backports toe te voegen zoals ook hier beschreven staat? Of moet het echt een andere repo worden?

En is het dan ook zo simpel als de buster-backports aan de sources.list toe te voegen en een apt update en apt upgrade te draaien? Of moet ik daarna ook nog handmatige extra stappen doen zoals bv de pool opnieuw importeren?

[ Voor 6% gewijzigd door F-Tim op 13-07-2020 10:30 ]

Wanna play?


Acties:
  • +1 Henk 'm!
Voor zover ik weet niet, ik heb gewoon een `apt update && apt upgrade` gedraait.

Even niets...


Acties:
  • +1 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 18:33
F-Tim schreef op maandag 13 juli 2020 @ 10:24:
Ahhh, dat verklaart, en het is dan simpelweg op te lossen door de buster-backports toe te voegen zoals ook hier beschreven staat? Of moet het echt een andere repo worden?

En is het dan ook zo simpel als de buster-backports aan de sources.list toe te voegen en een apt update en apt upgrade te draaien? Of moet ik daarna ook nog handmatige extra stappen doen zoals bv de pool opnieuw importeren?
Zojuist even gedaan op mijn 'Buster' opslagmachine. Toegevoegd aan /etc/apt/sources.list:
code:
1
deb http://deb.debian.org/debian        buster-backports        main contrib non-free

Daarna enkel apt update en apt upgrade draaien maakte geen verschil - die backports is blijkbaar by default niet enabled. In plaats daarvan wel:
code:
1
apt install -t buster-backports dkms spl-dkms

...waarna ik automatisch een nieuwere zfs-dkms en zfsutils-linux erbij kreeg. Wel daarna nog een apt autoremove gedaan om op te ruimen.

Ondertussen een scrub aan het doen, al een half uur, maar die staat nog op 0.00% completed (en normaal is 'ie binnen een uur of 14 wel klaar, dus 0.00% is gek).

Wel zie ik in de status nog:
code:
1
2
3
4
5
status: Some supported features are not enabled on the pool. The pool can
        still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(5) for details.

...dus dat is ook nog iets om te overwegen.

Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Draai hier al geruime tijd op de 0.8 branch:

root@amalthea:~# grep -i codename /etc/os-release 
VERSION_CODENAME=buster
root@amalthea:~# apt policy zfs-dkms
zfs-dkms:
  Geïnstalleerd: 0.8.4-1~bpo10+1
  Kandidaat:     0.8.4-1~bpo10+1
  Versietabel:
     0.8.4-1 450
        450 http://httpredir.debian.org/debian testing/contrib amd64 Packages
        250 http://httpredir.debian.org/debian sid/contrib amd64 Packages
 *** 0.8.4-1~bpo10+1 750
        750 http://httpredir.debian.org/debian buster-backports/contrib amd64 Packages
        100 /var/lib/dpkg/status
     0.7.12-2+deb10u2 900
        900 http://cdn-fastly.deb.debian.org/debian buster/contrib amd64 Packages

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
vanaalten schreef op maandag 13 juli 2020 @ 14:07:
[...]

Zojuist even gedaan op mijn 'Buster' opslagmachine. Toegevoegd aan /etc/apt/sources.list:
code:
1
deb http://deb.debian.org/debian        buster-backports        main contrib non-free

Daarna enkel apt update en apt upgrade draaien maakte geen verschil - die backports is blijkbaar by default niet enabled. In plaats daarvan wel:
code:
1
apt install -t buster-backports dkms spl-dkms

...waarna ik automatisch een nieuwere zfs-dkms en zfsutils-linux erbij kreeg. Wel daarna nog een apt autoremove gedaan om op te ruimen.

Ondertussen een scrub aan het doen, al een half uur, maar die staat nog op 0.00% completed (en normaal is 'ie binnen een uur of 14 wel klaar, dus 0.00% is gek).

Wel zie ik in de status nog:
code:
1
2
3
4
5
status: Some supported features are not enabled on the pool. The pool can
        still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(5) for details.

...dus dat is ook nog iets om te overwegen.
Nice! Heb het idd ook zo moeten doen, de apt update && apt upgrade deed niet genoeg idd.
Na een reboot ook nog even zpool upgrade -a uitgevoerd, voor de reboot hield de kernel nog de oude 0.7.12 versie vast (zpool version liet 2 versies zien, zfs met 0.8.4 en een zfs-kmod met de oude versie).

Inmiddels ook een nieuwe scrub afgetrapt, en al meteen een flinke performance verbetering zichtbaar (300Mb/s and rising...).

Wellicht een stomme vraag (door mijn gebrek aan diepgaande Linux kennis) maar hoe weet je dat je dkms en spl-dkms moet hebben in deze?

Wanna play?


Acties:
  • 0 Henk 'm!
@F-Tim omdat anders ZFS niet werkt.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
De vereiste volg ik het nog, maar DKMS is geen onderdeel van zfs toch? Althans... als het staat voor "Dynamic Kernel Module Support", dan is het toch generieker? Er zullen immers ook meer DKMS modules zijn? En als dat zo is, hoe zou ik kunnen weten dat ik DKMS nu met de buster-backports moet installeren voor mijn "verouderde zfs" vraagstuk?

Ik probeer gewoon langzaam meer van Linux te begrijpen, en deze verbintenis zie ik nog niet direct, vandaar ook de vraag :)

Wanna play?


Acties:
  • +1 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Omdat er meer dan één kernel beschikbaar is, en Debian gaat niet voor elke beschikbare kernel apart pakketten aanbieden. De modules worden gewoon gecompileerd bij installatie.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!
vanaalten schreef op maandag 13 juli 2020 @ 14:07:
[...]

Zojuist even gedaan op mijn 'Buster' opslagmachine. Toegevoegd aan /etc/apt/sources.list:
code:
1
deb http://deb.debian.org/debian        buster-backports        main contrib non-free

Daarna enkel apt update en apt upgrade draaien maakte geen verschil - die backports is blijkbaar by default niet enabled. In plaats daarvan wel:
code:
1
apt install -t buster-backports dkms spl-dkms

...waarna ik automatisch een nieuwere zfs-dkms en zfsutils-linux erbij kreeg. Wel daarna nog een apt autoremove gedaan om op te ruimen.

Ondertussen een scrub aan het doen, al een half uur, maar die staat nog op 0.00% completed (en normaal is 'ie binnen een uur of 14 wel klaar, dus 0.00% is gek).

Wel zie ik in de status nog:
code:
1
2
3
4
5
status: Some supported features are not enabled on the pool. The pool can
        still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(5) for details.

...dus dat is ook nog iets om te overwegen.
Hoe is het intussen met je scrub?

Even niets...


Acties:
  • 0 Henk 'm!

  • smirrrie
  • Registratie: Oktober 2005
  • Laatst online: 20:26
Ik heb het idee dat wat ik wil niet kan, maar hoop dat jullie me toch een oplossing kunnen bieden..

Ik heb een raidz2 pool met daarin 4x4TB 2.5" (Seagate ST4000LM024, SMR...) schijven.

Een van de schijven begint sector errors te geven dus ik oriënteer me vast op een vervanger, en dan het liefst niet SMR. De enige realistische optie in 2.5" die ik vind is de Toshiba MQ03ABB300, maar die is dus 3TB.

Op fora gaat het vaak over het uitbreiden van je pool door replacen met grotere schijven, maar kan het dus op een manier ook de andere klant op: 4TB vervangen door 3TB (en uiteindelijk wellicht op 4x3TB uitkomen)?

Acties:
  • 0 Henk 'm!
@smirrrie kan niet inderdaad.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

smirrrie schreef op woensdag 22 juli 2020 @ 20:56:
De enige realistische optie in 2.5" die ik vind is de Toshiba MQ03ABB300, maar die is dus 3TB.
Als je deze schijf overweegt, hou er rekening mee dat de voorraad aan het opdrogen is. Deze zijn end-of-life en ik zie de voorraad en prijs zakken bij de leveranciers, waarschijnlijk omdat ze ervan af willen. Ik heb er me recent nog een paar besteld als cold spare want het ziet er niet naar uit dat fabrikanten nog nieuwe 2,5” modellen willen uitbrengen.

Acties:
  • 0 Henk 'm!

  • smirrrie
  • Registratie: Oktober 2005
  • Laatst online: 20:26
Phuncz schreef op donderdag 23 juli 2020 @ 06:57:
[...]

Als je deze schijf overweegt, hou er rekening mee dat de voorraad aan het opdrogen is. Deze zijn end-of-life en ik zie de voorraad en prijs zakken bij de leveranciers, waarschijnlijk omdat ze ervan af willen. Ik heb er me recent nog een paar besteld als cold spare want het ziet er niet naar uit dat fabrikanten nog nieuwe 2,5” modellen willen uitbrengen.
ahh thanks, goed om te weten..
Helaas! Optie dan is denk ik om de pool tijdelijk op een andere schijf te parkeren (zfs send), daarna de pool te verwijderen, slechte disk vervangen en pool opnieuw aanmaken met 3x4TB en 1x3TB (waar de kleinste schijf dus de uiteindelijke grootte bepaalt) en restoren met zfs receive?

Of zijn er nog manieren waar ik hetzelfde kan bereiken; zfs send naar de 3TB schijf en vandaar uit de pool uitbreiden of iets dergelijks?

Acties:
  • 0 Henk 'm!
smirrrie schreef op donderdag 23 juli 2020 @ 10:17:
[...]


ahh thanks, goed om te weten..


[...]


Helaas! Optie dan is denk ik om de pool tijdelijk op een andere schijf te parkeren (zfs send), daarna de pool te verwijderen, slechte disk vervangen en pool opnieuw aanmaken met 3x4TB en 1x3TB (waar de kleinste schijf dus de uiteindelijke grootte bepaalt) en restoren met zfs receive?

Of zijn er nog manieren waar ik hetzelfde kan bereiken; zfs send naar de 3TB schijf en vandaar uit de pool uitbreiden of iets dergelijks?
Ik zou het volgende doen.

1. Pool maken met je 3TB schijf.
2. Data kopiëren.
3. 1 4TB schijf uit je brakke RAIDZ2 pool halen en de 3TB pool naar een mirror promoverennnnn.
4. Overige 2 4TB schijven gebruiken om een nieuwe degraded RAIDZ2 pool te maken van 3TB. Je kan daarvoor je partitie tabel van je 3TB schijf gebruiken.
5. 1 4TB schijf uit je mirror halen en een van de degraded schijven van je RAIDZ2 laten vervangen.
6. De 3TB de laatste degraded schijf laten vervangen.
7. Klaar

Zo heb je tijdens het proces de meeste bescherming van je data gehad.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • smirrrie
  • Registratie: Oktober 2005
  • Laatst online: 20:26
CurlyMo schreef op donderdag 23 juli 2020 @ 10:56:
[...]

Ik zou het volgende doen.

1. Pool maken met je 3TB schijf.
2. Data kopiëren.
3. 1 4TB schijf uit je brakke RAIDZ2 pool halen en de 3TB pool naar een mirror promoverennnnn.
4. Overige 2 4TB schijven gebruiken om een nieuwe degraded RAIDZ2 pool te maken van 3TB. Je kan daarvoor je partitie tabel van je 3TB schijf gebruiken.
5. 1 4TB schijf uit je mirror halen en een van de degraded schijven van je RAIDZ2 laten vervangen.
6. De 3TB de laatste degraded schijf laten vervangen.
7. Klaar

Zo heb je tijdens het proces de meeste bescherming van je data gehad.
super, thanks! De huidige pool zit net rond de 3TB dus met wat opschonen kom ik er wel in stap 2.
Heb na het opzetten van zfs 3 jaar geleden in FreeNAS er weinig omkijken naar gehad, dus ik moet maar even inlezen.. snap nog niet helemaal hoe stap 4 zou moeten bijvoorbeeld, het stuk over de partitie tabel.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
@Phuncz , hoe is het nu met je load cycle count op de.MQ03's?

Ik twijfel nog tussen nu met 5x MQ03 3TB mijn bestaande raidz1 vergroten of later 4x 4-5TB SMR raidz1 in combinatie met een mirrored ~512GB ssd Allocation Class vdev ('special' vdev, voor alle records kleiner dan 1MB) bouwen. Die laatste is wel wat expirimenteler, en ik zal moeten wachten tot FreeBSD 13 landt.

Ik hoop toch dat 2.5" disks nog even gemeengoed blijven.

[ Voor 1% gewijzigd door P5ycho op 24-07-2020 11:38 . Reden: ssd size, raid type toegevoegd ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

@P5ycho Ik heb eigenlijk besloten er niet meer naar te kijken totdat er eentje kapot gaat. Momenteel staan ze allemaal rond de 45.000 cycles na 1.780 uren, wat ongeveer 25 cycles per uur is. Volgens de SMART gegevens zitten ze op 96% van hun leven na 74 dagen, wat zou betekenen dat ze na een jaar van dit gedrag op 80% van hun verwachte levensduur. Dat zou neerkomen op 5 jaar 24/7 dus ik ga er niet meer om miepen :)

Ik zou niet te lang wachten, volgens Azerty.nl heeft de leverancier nog "maar" 218 stuks momenteel, dat was eerder deze week 230 en eerder deze maand nog 300+. De goedkoopste is momenteel bij SiComputers:
pricewatch: Toshiba MQ03ABB300, 3TB

Beschouw ze dan ook als een koopje (25€/TB in 2,5" verruit de voordeligste) en koop ook een cold spare of twee want ik verwacht dat ze na de zomer nergens meer te krijgen zijn.

Acties:
  • 0 Henk 'm!

  • jantje112
  • Registratie: Maart 2002
  • Laatst online: 15-09 13:16
smirrrie schreef op woensdag 22 juli 2020 @ 20:56:
Ik heb het idee dat wat ik wil niet kan, maar hoop dat jullie me toch een oplossing kunnen bieden..

Ik heb een raidz2 pool met daarin 4x4TB 2.5" (Seagate ST4000LM024, SMR...) schijven.

Een van de schijven begint sector errors te geven dus ik oriënteer me vast op een vervanger, en dan het liefst niet SMR. De enige realistische optie in 2.5" die ik vind is de Toshiba MQ03ABB300, maar die is dus 3TB.

Op fora gaat het vaak over het uitbreiden van je pool door replacen met grotere schijven, maar kan het dus op een manier ook de andere klant op: 4TB vervangen door 3TB (en uiteindelijk wellicht op 4x3TB uitkomen)?
Hoe bevallen deze 2.5 SMR schijven? Ik heb de 5tb variant klaarliggen. (draaien nu 4 van in een xpenology testbak, dat lijkt prima te gaan)

Acties:
  • 0 Henk 'm!

  • smirrrie
  • Registratie: Oktober 2005
  • Laatst online: 20:26
jantje112 schreef op vrijdag 24 juli 2020 @ 19:34:
[...]


Hoe bevallen deze 2.5 SMR schijven? Ik heb de 5tb variant klaarliggen. (draaien nu 4 van in een xpenology testbak, dat lijkt prima te gaan)
Op zich geen problemen mee gehad. Ik gebruik ze voor media opslag thuis (streamen), dus echte performance is niet zo heel belangrijk. Haal er in raidz2 ongeveer 130MB/s mee tijdens lokale copy acties uit m'n hoofd, via netwerk gewoon gbit. Draaien nu meer dan 3 jaar 24/7, alleen bad sectors bij een schijf nu dus wat op zich ook niet heel raar is voor consumer drives na deze tijd denk ik.

Twijfel nog een beetje of ik voor de vervanger dus voor non-smr 3TB Toshiba ga, of toch weer gewoon smr 4TB..

Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 00:21
SMR is op zich niet direct slecht, zolang schijven de juiste flags maar zetten en discard commando's accepteren.

Als ik kijk naar SSDs heb ik tegenwoordig liever een TLC drive dan de eerste generatie SLC SSDs. Niet om de prijs of performance, maar puur omdat die oude dingen de sectoren 1-op-1 mappen als een harddisk.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

_JGC_ schreef op zaterdag 25 juli 2020 @ 13:39:
SMR is op zich niet direct slecht, zolang schijven de juiste flags maar zetten en discard commando's accepteren.
Dat is juist het probleem: de meeste (alle?) SMR schijven maken zich niet bekend als SMR en ondersteunen bv. geen TRIM commando’s. Ook moet het storage systeem in het OS hier rekening mee houden. Dus voorlopig moet je nog steeds zelf voorzorgen nemen dat je niet in de problemen komt. Vroeg of laat.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:37
Phuncz schreef op zaterdag 25 juli 2020 @ 14:02:
[...]

Dat is juist het probleem: de meeste (alle?) SMR schijven maken zich niet bekend als SMR en ondersteunen bv. geen TRIM commando’s. Ook moet het storage systeem in het OS hier rekening mee houden. Dus voorlopig moet je nog steeds zelf voorzorgen nemen dat je niet in de problemen komt. Vroeg of laat.
WDs schijnen wel TRIM te ondersteunen. Zelf heb ik de hier alom bekende Seagate 5TB 2,5" maar die ondersteunen het niet. Maar sowieso zit daar, bij de externe, ook een crappy USB SATA adapter bij zonder ondersteuning voor UASP ondersteuning waardoor je überhaupt geen SATA commando's, zoals TRIM, er naar toe kunt sturen. Zal dus ook wel verklaren waarom de Seagates geen TRIM ondersteunen, zonder de disk uit de behuizing te halen zou het toch al niet kunnen.

Maar bij mijn weten is het gebruik van SMR bij WD juist "ontdekt" doordat sommige modellen / typenummers ineens ondersteuning voor TRIM hadden.

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 15-09 13:22

WeaZuL

Try embedded, choose ARM!

Vandaag gekeken wat nu de oorzaak was dat de afgelopen 3 geschedulede scrubs faalden. Elke keer ging de server in een reboot 5 procent in de scrub. Ik dacht dat de voeding de oorzaak was (defect). Die vervangen echter na een nieuwe scrub wederom een reboot. Bij toeval raakte ik een van de zes schijven aan, die was erg heet, tegen het niet kunnen vasthouden aan. En natuurlijk lekker dicht tegen elkaar aan (2* 2,5inch schijven in één 3,25inch bracket). Was nu dan het moment aangebroken om die FAN die demonstratief voor het storage compartiment zat geplaatst, aan te sluiten? Eenmaal aangesloten blijven alle schijven tijdens de scrub 48°C en geen reboots meer, jeuj! Maw ventilatie is toch wel een aandachtspuntje onder load, ook voor schijven.
Overigens eindigden de scrubs in het verleden altijd succesvol. Wellicht dat na een update van ZFS de load op de schijven wat toegenomen is tijdens een scrub waardoor de temp wat hoger uitvalt?

[ Voor 11% gewijzigd door WeaZuL op 25-07-2020 19:45 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • +1 Henk 'm!
Kleine update rondom mijn SMR Pool:

Gister was ik zo slim om met wat downloads mijn pool vol te laten lopen. Dat was niet erg handig :+
Load van het systeem steeg naar 15, en was bijna compleet onbestuurbaar. Gelukkig houdt ZFS tegenwoordig wat meer reserve ruimte vrij (15MB ofzo), waardoor ik nog wel files kon verwijderen om weer ruimte te maken.

De SMR pool kan er erg slecht tegen om vol te zijn, en daarnaast nog behoorlijk wat IO om zijn oren te krijgen.
Ik zag IOwait van > 95%, waarbij de latency ook behoorlijk op aan het lopen was (openen van een text file met vim op de array duurde > 10 seconden).

Vandaag dus maar besloten om mijn 'incoming' downloads in ieder geval van de array af te gaan halen, zodat de array iets meer rust krijgt.

Mocht er dus nog discussie zijn of SMR schijven icm ZFS verstandig is in je server, weet dan, dat je niet een heel druk download bestaan er op na moet houden op zo'n pool :)

* FireDrunk gaat kijken of de FusionIO kaart die hij ooit eens voor een prikkie van iemand overgenomen heeft, hier kan helpen >:)

Even niets...


Acties:
  • +1 Henk 'm!
FireDrunk schreef op woensdag 29 juli 2020 @ 10:30:
Kleine update rondom mijn SMR Pool:
Oftewel, the right tool for the job. Hier gaan alle downloads naar mijn SSD mirror waar ook mij VM's en mijn software development bestanden staan. Dat is allemaal vluchtige data waarbij hoge random reads gewenst is.

Zodra downloads klaar zijn verplaatst ik ze naar de SMR pool.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Ja, exact. Ik maak veel gebruik van Torrents, waar het best onhandig is om de data lang op de SSD's te laten staan terwijl je aan het seeden bent. Als het op 1 array staat, kunnen tools als Sonarr en Radarr hardlinks gebruiken om de data toch nog te kunnen blijven seeden.

Die functionaliteit moet ik nu dus opgeven :(
Hardlinks tussen verschillende devices kunnen helaas niet. Binnen een ZFS pool kan dat wel.

Even niets...


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:37
FireDrunk schreef op woensdag 29 juli 2020 @ 10:36:
Ja, exact. Ik maak veel gebruik van Torrents, waar het best onhandig is om de data lang op de SSD's te laten staan terwijl je aan het seeden bent. Als het op 1 array staat, kunnen tools als Sonarr en Radarr hardlinks gebruiken om de data toch nog te kunnen blijven seeden.

Die functionaliteit moet ik nu dus opgeven :(
Hardlinks tussen verschillende devices kunnen helaas niet. Binnen een ZFS pool kan dat wel.
Werken hardlinks niet alleen op hetzelfde filesystem / mountpoint / ...? En gezien je potentieel op 1 ZFS pool meerdere datasets hebt zouden ze dan ook niet meer werken?

* RobertMe heeft "dat" weer in Docker draaien, en ook dan werken hardlinks niet, ondanks dezelfde onderliggende ZFS dataset (maar als losse volumes in de container).

Edit:
Overigens komen die ~10 seconde waits me wel aardig bekend voor van toen ik een SMR in mirror had (met PMR) en database er op draaide.

[ Voor 7% gewijzigd door RobertMe op 29-07-2020 11:39 ]


Acties:
  • 0 Henk 'm!
Hardlinks werken in ZFS dacht ik zelfs cross filesystem, maar ik weet het niet zeker. Ik heb het niet heel uitgebreid getest. (Functie zit in Sonarr). Ik draai overigens ook alles in docker, maar mount alle relevante ZFS directories op de host.

Even niets...


Acties:
  • 0 Henk 'm!
RobertMe schreef op woensdag 29 juli 2020 @ 11:38:
[...]
Overigens komen die ~10 seconde waits me wel aardig bekend voor van toen ik een SMR in mirror had (met PMR) en database er op draaide.
Ook een mooi voorbeeld van right tool for the job :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:37
CurlyMo schreef op woensdag 29 juli 2020 @ 12:33:
[...]

Ook een mooi voorbeeld van right tool for the job :)
Alleen werd dat nooit uitgelegd in zuinige server topic. Daarom toen één HDD uit mirror bad sectors vertoonde die Seagate gekocht, maar dat werkte dus niet echt.... Nu nieuwe server op gezet met 3x shucked WD (3,5" PMR dus) terwijl ik nu LXC containers heb die vanaf SSD draaien en HDDs alleen bulk storage doen. Dus juist nu in nieuwe setup had ik wel voor SMR kunnen gaan. Maar ach, die Seagate hangt nu aan Orange Pi voor backup. Alleen nog een case ontwerpen en printen en dan offsite plaatsen. Dan heeft die ook nog een goede toepassing gekregen.

Acties:
  • 0 Henk 'm!
RobertMe schreef op woensdag 29 juli 2020 @ 14:49:
[...]

Alleen werd dat nooit uitgelegd in zuinige server topic.
Klopt, je zult zelf zuinigheid in dat topic relatief moeten maken aan beoogd gebruik, in plaats van zuinigheid in absolute termen te zien.

Dat soort vragen kan je beter hier stellen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
FireDrunk schreef op woensdag 29 juli 2020 @ 10:36:
Ja, exact. Ik maak veel gebruik van Torrents, waar het best onhandig is om de data lang op de SSD's te laten staan terwijl je aan het seeden bent. Als het op 1 array staat, kunnen tools als Sonarr en Radarr hardlinks gebruiken om de data toch nog te kunnen blijven seeden.

Die functionaliteit moet ik nu dus opgeven :(
Hardlinks tussen verschillende devices kunnen helaas niet. Binnen een ZFS pool kan dat wel.
Misschien interessant om een special device te gebruiken voor metadata en kleine records ipv een 2e pool?
Ben even je setup kwijt, maar bijv:
5x raidz1 smr
Recordsize=2M of 4M (512K of 1M per disk)
2x SSD, special:metadata+records <2M

[ Voor 9% gewijzigd door P5ycho op 30-07-2020 22:28 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!
@P5ycho Je bedoelt een mirror van SSDs toevoegen als extra L2ARC vdev, en daar dan die setting op aanpassen?

[ Voor 4% gewijzigd door FireDrunk op 31-07-2020 08:25 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 22:41
@FireDrunk Nee, ik bedoel een allocation class vdev, aka 'special'.
Je kunt een VDEV aanmaken waar je bijvoorbeeld aleeen metadata, of records onder een bepaalde grootte opslaat. In theorie zouden kleine records dan vanzelf op SSD landen, en grote records op je HDD's.

https://forums.servetheho...ormance-benchmarks.26111/

Alleen beschikbaar in 0.8 en relatief nieuw, dus pas op.


edit: voorbeeld
opstelling:
5x raidz1 smr
2x SSD, special:metadata+small records
default pool recordsize 128k
special_small_blocks=128k -> alles gelijk of onder de 128k komt op special
op SMR willen we 1M per disk per record -> 1M*(disks-parity) = 1M * 4 = 4M

default landt alles op special, want alles gelijk of lager dan 128k landt op special. Dit is prima, lekker vlot.
Als je een SQL db hebt draaien zet je het filesystem met de db op recordsize=16k, komt automatisch op SSD's want 16k <= 128k en SQL schrijft in 16k chunks. Als je torrents download zet je je recordsize op 64k, landt op je SSD's. Een move van temp naar de meer permanente locatie /data/ISOs met recordsize=4M -> HDD's.

[ Voor 49% gewijzigd door P5ycho op 03-08-2020 10:52 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

Ik draai al een tijdje FreeNAS. Helemaal blij mee. Tot m'n moederboard overleed. Allemaal opgelost nu hardware weer draaien. Ik heb een apart topic aangemaakt maar ben zo brutaal 'm hier ook even te linken:

Zpool import faalt(one or more devices were being resilverd)

Kort door de bocht:
Hier de output van zpool import (en zpool import -f geeft FreeNAS problemen en een panic):
root@freenas[~]# zpool import
pool: six4tb
id: 13928668106559313930
state: DEGRADED
status: One or more devices were being resilvered.
action: The pool can be imported despite missing or damaged devices. The
fault tolerance of the pool may be compromised if imported.
config:

six4tb DEGRADED
raidz1-0 DEGRADED
gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2 ONLINE
gptid/75e759d8-a341-11ea-9020-d050996ff8e2 ONLINE
gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2 ONLINE
gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2 ONLINE
gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2 ONLINE
replacing-5 UNAVAIL insufficient replicas
13571676615721927902 UNAVAIL cannot open
18182716167874336493 UNAVAIL cannot open

Als ik dit zo bekijk zijn er dus 5 schijven online en 1 niet? Die ene schijf (misschien dom bedenk ik me nu) heb ik gewiped. Ik heb de oude schijf ook nog nog voor de resilver maar ben bang dat ook niet meer een geheel ervan ziet, al geprobeerd. Ik hoopte dat ik 'm wel kon importeren zo en dat resilveren weer opnieuw start. .... Niet dus :-(. Dat resilveren is dus niet goed gegaan. Kan ik van deze pool met 5 van de 6 schijven niet een benaderbare pool maken? En dan weer schijf 6 toevoegen en dan resilveren (en die laten afmaken)

Ik hoop echt dat iemand een idee heeft hoe ik deze pool weer online kan krijgen. Hartelijk dank voor het lezen en meedenken _/-\o_ ik raak er een beetje gefrustreerd van ;-(

Acties:
  • 0 Henk 'm!
@WTM RAIDZ1 dus je kan 1 schijf missen, dus ook gewoon je pool importeren. Degraded is niet Faulted. Dus eerst importeren en als dat is gelukt, dan zou ik beide schijven weer terug in je systeem zetten en weer online brengen.

Overigens geef je in het geheel niet (met commando's en logs) weer wat je tot nu toe hebt gedaan?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Xantis
  • Registratie: April 2006
  • Laatst online: 15:29
@WTM , welke "problemen" krijg je precies bij een import -f (anders dan de panic)? Als FreeNAS een kernel panic geeft ben ik wel benieuwd naar de logs. Je zou natuurlijk als alternatief even een (USB) bootje kunnen doen naar ubuntu en een import -f doen wachten tot de resilvering compleet is en weer booten naar FreeNAS

Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

CurlyMo schreef op vrijdag 7 augustus 2020 @ 22:59:
@WTM RAIDZ1 dus je kan 1 schijf missen, dus ook gewoon je pool importeren. Degraded is niet Faulted. Dus eerst importeren en als dat is gelukt, dan zou ik beide schijven weer terug in je systeem zetten en weer online brengen.

Overigens geef je in het geheel niet (met commando's en logs) weer wat je tot nu toe hebt gedaan?
Dank voor je reply!

Zpool import -f had ik geprobeerd dus. Maar lukte niet, dan boot het met errors. Waar kan ik logs vinden ? Ik heb deze foto gemaakt van het scherm:

https://share.icloud.com/photos/0hFbTTcKAMJbpZrdCtq1oCRsg

Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

Xantis schreef op vrijdag 7 augustus 2020 @ 23:02:
@WTM , welke "problemen" krijg je precies bij een import -f (anders dan de panic)? Als FreeNAS een kernel panic geeft ben ik wel benieuwd naar de logs. Je zou natuurlijk als alternatief even een (USB) bootje kunnen doen naar ubuntu en een import -f doen wachten tot de resilvering compleet is en weer booten naar FreeNAS
Dank voor je reactie! Ik weet niet waar ik logs kan vinden, wil wel even kijken.

Zpool import -f had ik geprobeerd dus. Maar lukte niet, dan boot het met errors. Waar kan ik logs vinden ? Ik heb deze foto gemaakt van het scherm:

https://share.icloud.com/photos/0hFbTTcKAMJbpZrdCtq1oCRsg

Is wat er op het scherm staat, weet niet of je daar chocolade van kan maken ? ;-)

Resilveren en de pool weer goed maken en dan importeren lijkt me een strak plan. Welke Ubuntu zou je aanraden ? Dan boot ik daarmee even op usb. Hoe zou ik dan moeten resilveren?
Zpool import -f en kijken of het dan online komt?

Acties:
  • 0 Henk 'm!
@WTM Je klinkt me niet als iemand die weet wat die aan het doen is? Heb je voordat je aan FreeNAS begon verschillende scenario's getest waarop het fout kan gaan zodat je weet wat je moet doen om het op te lossen zodra het fout gaat?

Ik denk dat een eigen topic hiervoor ook het meest geschikt is, gezien het helpdesk kakakter van je vraag.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

CurlyMo schreef op zaterdag 8 augustus 2020 @ 07:47:
@WTM Je klinkt me niet als iemand die weet wat die aan het doen is? Heb je voordat je aan FreeNAS begon verschillende scenario's getest waarop het fout kan gaan zodat je weet wat je moet doen om het op te lossen zodra het fout gaat?

Ik denk dat een eigen topic hiervoor ook het meest geschikt is, gezien het helpdesk kakakter van je vraag.
het is zeker anders dan Windows en MacOS. Deze machine heb ik zelf in elkaar gezet. Draai FreeNAS sinds 9.3. Heb verschillende jails draaien, eerst warden en nu omgezet naar IOCage. ZFS gaat prima normaliter, schijven eruit halen via GUI als er een stuk ging lukt prima en nieuwe hangen en resilveren in GUI ook. Ook snapshots terugzetten ging prima. Ik wil alleen niet iets verkeerd doen in Shell. Ik had trouwens een apart topic aangemaakt.

Acties:
  • 0 Henk 'm!
Probeer eerst eens de laatste Ubuntu Live CD.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

CurlyMo schreef op zaterdag 8 augustus 2020 @ 09:16:
Probeer eerst eens de laatste Ubuntu Live CD.
Ik heb Ubuntu server ingeinstalleerd op een SSD en heb nu toegang via ssh tot de machine
Standaard kan er niets met ZFS gebeuren lijkt het. Ik heb sudo apt install zfsutils-linux gedaan -> nu kan ik met sudo zpool import weer hetzelfde te zien krijgen:

wim@ubuntufreenas:~$ sudo zpool import
admin
pool: six4tb
id: 13928668106559313930
state: DEGRADED
status: One or more devices were being resilvered.
action: The pool can be imported despite missing or damaged devices. The
fault tolerance of the pool may be compromised if imported.
config:

six4tb DEGRADED
raidz1-0 DEGRADED
sdd ONLINE
sdc2 ONLINE
sde ONLINE
sdf ONLINE
sda ONLINE
replacing-5 UNAVAIL insufficient replicas
13571676615721927902 UNAVAIL
18182716167874336493 UNAVAIL

@CurlyMo: Wat ik denk dat ik nu moet doen: sudo zpool import -f
en dan hoop ik dat die online gaat. Vervolgens zou ik weer in FreeNAS willen proberen 'm daar te importeren. Of wat gaat er gebeuren? :-)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Na een klein onderhoudje had ik per ongeluk één van de connectors los van de storage controller en kon een aantal schijven niet meer zien. Server uit, connector goed aangesloten, alle schijven gedecteerd maar had toen mijn zpool als DEGRADED. Eén van de schijven was niet goed opgenomen in de pool, heb deze maar replaced want ik kreeg het niet in orde. De schijf is geresilvered, zpool is nu ONLINE, maar nu heb ik dit:

Afbeeldingslocatie: https://tweakers.net/i/lYpjrwF4QmJOlw-hH_az18RAjKs=/800x/filters:strip_exif()/f/image/zm2MciUzJfg8L0zijb8vem9M.png?f=fotoalbum_large

(da7 is unknown/unformatted)

Afbeeldingslocatie: https://tweakers.net/i/Av7o8Qt2mrDqSgal_1TbUKu4L0A=/800x/filters:strip_exif()/f/image/QXpRHPsdfTF7OZSh7wAMfShG.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/teMRcsaSLnkbmXzB3nE1yCYllEE=/800x/filters:strip_exif()/f/image/2HiBPHcxo33Gc3hYMQ1axlqF.png?f=fotoalbum_large

Enig idee hoe ik dit oplos ?

Acties:
  • +1 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

Xantis schreef op vrijdag 7 augustus 2020 @ 23:02:
@WTM , welke "problemen" krijg je precies bij een import -f (anders dan de panic)? Als FreeNAS een kernel panic geeft ben ik wel benieuwd naar de logs. Je zou natuurlijk als alternatief even een (USB) bootje kunnen doen naar ubuntu en een import -f doen wachten tot de resilvering compleet is en weer booten naar FreeNAS
Dank @CurlyMo & @Xantis

Ik heb Ubuntu geïnstalleerd op een SSD.
Het volgende heb ik gedaan:

sudo zpool import

Waarbij de ene pool wel online kwam en andere niet.
vervolgens

sudo zpool import -f six4tb
Dat duurde even en het lijkt erop dat het geheel aan 't resilveren is :-)

als ik zpool status opvraag zie ik nu dat de pool aan het resilveren is. Nog iets van 7:30 te gaan.
Dank voor de hulp ! Ik laat even weten als het straks gelukt is (hopelijk) om in FreeNAS dan weer de boel te importeren.

/edit gaat lekker dat resilveren:
:~$ zpool status
pool: six4tb
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Fri Jul 10 17:45:31 2020
7.14T scanned at 980M/s, 5.46T issued at 750M/s, 15.1T total
0B resilvered, 36.13% done, 0 days 03:45:05 to go
config:

NAME STATE READ WRITE CKSUM
six4tb DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
sdi ONLINE 0 0 0
sdh2 ONLINE 0 0 0
sdj ONLINE 0 0 0
sdk ONLINE 0 0 0
sde ONLINE 0 0 0
replacing-5 UNAVAIL 0 0 0 insufficient replicas
13571676615721927902 UNAVAIL 0 0 0 was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
18182716167874336493 UNAVAIL 0 0 0 was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

errors: No known data errors

[ Voor 39% gewijzigd door WTM op 08-08-2020 15:11 ]


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

Na het resilveren in Ubuntu heb ik vanavond weer kunnen booten in FreeNAS. Ik heb de oude config file geladen en het e.e.a. springt weer aan :-) (jails draaien weer enz.)

Helemaal top @CurlyMo & @Xantis

De pool is nog degraded. Ik wil dus een disk er weer aanhangen.

Dit geeft zfspool status:

pool: six4tb
state: DEGRADED
scan: resilvered 0 in 29 days 01:42:30 with 0 errors on Sat Aug 8 21:28:01 2020
config:

NAME STATE READ WRITE CKSUM
six4tb DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2 ONLINE 0 0 0
gptid/75e759d8-a341-11ea-9020-d050996ff8e2 ONLINE 0 0 0
gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2 ONLINE 0 0 0
gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2 ONLINE 0 0 0
gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2 ONLINE 0 0 0
replacing-5 UNAVAIL 0 0 0
13571676615721927902 UNAVAIL 0 0 0 was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
18182716167874336493 UNAVAIL 0 0 0 was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

errors: No known data errors

Het is 1 disk die ik moet vervangen maar als ik in de GUI van FreeNAS dat doe kan ik kiezen 'welke' ?
Of was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
Of was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

Ik kan kiezen voor offline, online, replace of detach

Eerder een schijf vervangen was replace maar dan had ik maar een keuze. Kan ik veilig een van de twee detach doen en een andere replace (en dan de schijf selecteren die ik er vers ingedaan heb?) (en dan gaat de pool weer resilveren denk ik?)

Acties:
  • 0 Henk 'm!
@WTM, Gebruik a.u.b. code tags. Dat helpt degene die je helpen een hoop.

Heb je al geprobeerd beide schijven weer online te brengen? Dat lijkt me het meest zuiver.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

CurlyMo schreef op zaterdag 8 augustus 2020 @ 22:20:
@WTM, Gebruik a.u.b. code tags. Dat helpt degene die je helpen een hoop.

Heb je al geprobeerd beide schijven weer online te brengen? Dat lijkt me het meest zuiver.
@CurlyMo excuus, zal code tags proberen te gebruiken

Ik heb op online geklikt in de GUI bij allebei maar maakt niets uit verder, ze komen niet online ik zag wel dit in de console:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Aug  8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=4321123093847478765
Aug  8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=7341696284033616375
Aug  8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=3675791852414277510
Aug  8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10778351145683311183
Aug  8 22:22:36 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10677478820108001500
Aug  8 22:22:37 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=13571676615721927902
Aug  8 22:22:37 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=18182716167874336493
Aug  8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=4321123093847478765
Aug  8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=7341696284033616375
Aug  8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=3675791852414277510
Aug  8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10778351145683311183
Aug  8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10677478820108001500
Aug  8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=13571676615721927902
Aug  8 22:22:59 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=18182716167874336493

Acties:
  • 0 Henk 'm!
WTM schreef op zaterdag 8 augustus 2020 @ 22:26:
[...]
Ik heb op online geklikt in de GUI bij allebei maar maakt niets uit verder, ze komen niet online ik zag wel dit in de console:
En ze zijn wel beide aangesloten?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 00:06

WTM

CurlyMo schreef op zaterdag 8 augustus 2020 @ 22:44:
[...]

En ze zijn wel beide aangesloten?
@CurlyMo Het zijn 6 schijven van 4 tb en alle 6 zijn aangesloten.

Als ik commando geom disk list ingeef krijg ik dit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
Geom name: ada0
Providers:
1. Name: ada0
   Mediasize: 120034123776 (112G)
   Sectorsize: 512
   Mode: r1w1e2
   descr: KINGSTON SA400S37120G
   lunid: 502b2a201d1c1b1a
   ident: 50026B7783537431
   rotationrate: 0
   fwsectors: 63
   fwheads: 16

Geom name: ada1
Providers:
1. Name: ada1
   Mediasize: 120034123776 (112G)
   Sectorsize: 512
   Mode: r0w0e0
   descr: KINGSTON SA400S37120G
   lunid: 502b2a201d1c1b1a
   ident: 50026B77835370E4
   rotationrate: 0
   fwsectors: 63
   fwheads: 16

Geom name: ada2
Providers:
1. Name: ada2
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: WDC WD40EZRX-00SPEB0
   lunid: 50014ee2b760a382
   ident: WD-WCC4E3ZLHRUH
   rotationrate: 5400
   fwsectors: 63
   fwheads: 16

Geom name: da0
Providers:
1. Name: da0
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: ATA WDC WD40EFRX-68W
   lunid: 50014ee20dec28ad
   ident: WD-WCC4E0DJA3PL
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255

Geom name: da1
Providers:
1. Name: da1
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r0w0e0
   descr: ATA WDC WD40EFRX-68N
   lunid: 50014ee20fd78891
   ident: WD-WCC7K6HY4PV7
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255

Geom name: da2
Providers:
1. Name: da2
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: ATA WDC WD40EZRX-00S
   lunid: 50014ee20cb5a633
   ident: WD-WCC4E3ZLH8N4
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255

Geom name: da3
Providers:
1. Name: da3
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: ATA WDC WD40EZRX-00S
   lunid: 50014ee2b7623327
   ident: WD-WCC4E6ANY67J
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255

Geom name: da4
Providers:
1. Name: da4
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: ATA WDC WD40EFRX-68N
   lunid: 50014ee26660a080
   ident: WD-WCC7K2DN975L
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255

Geom name: da5
Providers:
1. Name: da5
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: ATA WDC WD40EFRX-68N
   lunid: 50014ee20f085a07
   ident: WD-WCC7K6PP5J2X
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255

Geom name: da6
Providers:
1. Name: da6
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: ATA WDC WD40EFRX-68W
   lunid: 50014ee2b7cc4ad7
   ident: WD-WCC4E6XHCYY3
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255

Geom name: da7
Providers:
1. Name: da7
   Mediasize: 4000787030016 (3.6T)
   Sectorsize: 512
   Stripesize: 4096
   Stripeoffset: 0
   Mode: r2w2e5
   descr: ATA WDC WD40EFRX-68W
   lunid: 50014ee261f4760d
   ident: WD-WCC4E5JYD30T
   rotationrate: 5400
   fwsectors: 63
   fwheads: 255


en bij zpool status krijg ik dit te zien:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
% zpool status
  pool: freenas-boot
 state: ONLINE
  scan: none requested
config:

    NAME        STATE     READ WRITE CKSUM
    freenas-boot  ONLINE       0     0     0
      ada0p2    ONLINE       0     0     0

errors: No known data errors

  pool: six4tb
 state: DEGRADED
  scan: resilvered 0 in 29 days 01:42:30 with 0 errors on Sat Aug  8 21:28:01 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    six4tb                                          DEGRADED     0     0     0
      raidz1-0                                      DEGRADED     0     0     0
        gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2  ONLINE       0     0     0
        gptid/75e759d8-a341-11ea-9020-d050996ff8e2  ONLINE       0     0     0
        gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2  ONLINE       0     0     0
        gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2  ONLINE       0     0     0
        gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2  ONLINE       0     0     0
        replacing-5                                 UNAVAIL      0     0     0
          13571676615721927902                      UNAVAIL      0     0     0  was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
          18182716167874336493                      UNAVAIL      0     0     0  was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

errors: No known data errors

  pool: three4tb
 state: ONLINE
  scan: resilvered 4.70M in 0 days 00:00:02 with 0 errors on Fri Aug  7 12:08:00 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    three4tb                                        ONLINE       0     0     0
      raidz1-0                                      ONLINE       0     0     0
        gptid/83c6492f-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0
        gptid/849990df-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0
        gptid/8565e3f6-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0

errors: No known data errors
%


Volgens mij zijn er dus bij six4tb nu 5 schijven online en kan er nog maar 1 schijf bij. Misschien iets mis gegaan met de vorige keer resilveren toen de boel uitviel met kapotte moederboard. Vervolgens in Ubuntu de resilver afgemaakt en kwam de pool online.

De schijf 'da1' zou ik er dus aan willen hangen en dat die weer schijf 6 gaat worden.
/edit: overigens ada0 en ada1 ga ik straks samen combineren tot boot pool dat zijn twee kingston ssd's

Acties:
  • 0 Henk 'm!
@WTM, probeer de gptid symlink eens te herstellen?

# ln -s /dev/da* /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
# ln -s /dev/da* /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

Op de plek van de * even het goede nummer pakken.

Daarna weer proberen de schijven online te brengen.

Sinds de 2 dagen regel reageer ik hier niet meer

Pagina: 1 ... 197 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.