Acties:
  • 0 Henk 'm!

  • cville
  • Registratie: Juni 2012
  • Laatst online: 22-06 18:11
Kaspers schreef op woensdag 28 april 2021 @ 21:32:
[...]


Ik heb nog niet eerder een restore gedaan terug naar m'n storage host vanaf m'n backup server. Maar in feite kun je daar wederom de syncoid cli voor gebruiken. Mijn advies zou wel zijn te 'restoren' (lees: repliceren) naar een schone zfspool.
Maar syncoid werkt alleen met snapshots en dat is je door syncoid gemaakte data niet. Moet je dan eerst nog sanoid gebruiken (op je backup server) en de resulterende snapshots met syncoid terugzetten?

12.090kWp → 40 panelen → oost/zuid/west | Tibber | EV


Acties:
  • 0 Henk 'm!
cville schreef op woensdag 28 april 2021 @ 21:39:
[...]


Maar syncoid werkt alleen met snapshots en dat is je door syncoid gemaakte data niet. Moet je dan eerst nog sanoid gebruiken (op je backup server) en de resulterende snapshots met syncoid terugzetten?
Syncoid gebruikt gewoon native zfs snapshots. Die kan je dus ook prima zonder syncoid terugzetten in geval van nood. Of syncoid dat zelf leuk gaat vinden is een tweede. Het is echter geen vendor-lockin.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • cville
  • Registratie: Juni 2012
  • Laatst online: 22-06 18:11
CurlyMo schreef op woensdag 28 april 2021 @ 21:40:
[...]

Syncoid gebruikt gewoon native zfs snapshots. Die kan je dus ook prima zonder syncoid terugzetten in geval van nood. Of syncoid dat zelf leuk gaat vinden is een tweede. Het is echter geen vendor-lockin.
Ik denk waarschijnlijk te moeilijk. Hier is mijn syncoid command:
code:
1
syncoid -r --compress lzo --no-resume --no-sync-snap rpool/ROOT/pve-1 wde/syncoid


Is het antwoord dan zo simpel als het syncoid command omdraaien zoals in:
code:
1
syncoid -r --compress lzo --no-resume --no-sync-snap wde/syncoid rpool/ROOT/pve-1

12.090kWp → 40 panelen → oost/zuid/west | Tibber | EV


Acties:
  • 0 Henk 'm!
cville schreef op woensdag 28 april 2021 @ 21:49:
[...]


Ik denk waarschijnlijk te moeilijk.
Ik ken syncoid niet. Ik gebruik het niet. Ik weet alleen wel dat syncoid onderliggend gewoon native ZFS snapshots gebruikt, dus dat kan je ook zonder syncoid herstellen mocht je dat met syncoid zelf niet lukken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
Ik zou gewoon de default opties gebruiken en "--compress lzo --no-resume --no-sync-snap" weglaten.

Sanoid pruned snapshots alleen op de lokale server. Wil je ook snapshots op je backup server "prunen", draai sanoid dan ook op de backup server met prune opties. Sanoid heeft een "sanoid-prune.service" systemd service die je daarvoor kan gebruiken.

Acties:
  • +1 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 07-06 09:27
@iGadget

Volgens mij kun je onder FreeBSD hiervoor HAST gebruiken.

Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 14-06 16:46

iGadget

Wowsers!

syl765 schreef op donderdag 29 april 2021 @ 15:19:
Volgens mij kun je onder FreeBSD hiervoor HAST gebruiken.
Dank voor je reactie. Ik gebruik echter geen FreeBSD, maar Proxmox (= Debian + Ubuntu Linux kernel).
Is HAST een (redelijk) nieuwe functionaliteit van ZFS? In dat geval zal het nog wel even duren voordat dit geport is.

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • +1 Henk 'm!
iGadget schreef op donderdag 29 april 2021 @ 15:23:
[...]
Is HAST een (redelijk) nieuwe functionaliteit van ZFS? In dat geval zal het nog wel even duren voordat dit geport is.
Komop, zulke dingen kan je toch makkelijk even opzoeken?

Daarnaast zijn er met ZFS 2.0 geen gescheiden codebases meer tussen FreeBSD en Linux.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 14-06 16:46

iGadget

Wowsers!

CurlyMo schreef op donderdag 29 april 2021 @ 15:31:
[...]
Komop, zulke dingen kan je toch makkelijk even opzoeken?
Je hebt helemaal gelijk. Ik ben inmiddels echter al een paar weken zoet met deze migratie terwijl ik er 3 dagen voor gerekend had. Heb inmiddels 85 browser vensters open staan met elke een tabje of 30, allemaal onderzoek naar de verschillende issues waar ik tegenaan loop. Dus had even een moment van zwakte en hoopte op een snel antwoord. Zal het nooit meer doen O-)
Daarnaast zijn er met ZFS 2.0 geen gescheiden codebases meer tussen FreeBSD en Linux.
Dat is natuurlijk fantastisch! Zal onderzoeken hoe ver Proxmox is met de implementatie van ZFS 2.0.

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • +1 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 07-06 09:27
HAST staat los van ZFS en geeft je een disk over het netwerk. Maar in hoeverre dit ook daadwerkelijk productie klaar is durf ik niet te zeggen. Het word volgens mij ook niet heel veel gebruikt. Als je gebruik maakt van proxmox is dat dus geen optie. In ieder geval succes met de zoektocht en hopelijk kom je snel tot een oplossing.

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

vanaalten schreef op woensdag 28 april 2021 @ 14:47:
@Thralas en @CurlyMo (en alle anderen die zinnige suggesties gedaan hebben): probleem opgelost!

In eerste instantie op die reservemachine
code:
1
echo max_performance > /sys/class/scsi_host/host0/link_power_management_policy
(en host1...host5) gedaan, na een scrub nul errors.

Bizar wel dat die link_power_management_policy de boosdoener is en dat dat zo ineens opkomt. Maar fijn dat het nu opgelost is. Enkel nog even die opties aan de opstartsequentie toevoegen.

Dank nogmaals voor het vele meedenken en de nuttige tips!
Ik blijf het een raar verhaal vinden...

- Stond die optie AAN of UIT in je UEFI/BIOS :?
- Zijn er nieuwere versies daarvan uitgekomen waarin mogelijk iets wordt gefixt omtrent SATA Link Power Management ?

Toen ik onlangs bezig was met mijn HTPC/NAS en ZFS heb ik eerst ALLE opties in mijn UEFI/BIOS nagelopen en dergelijke dingen specifiek uitgezet! :Y)
iGadget schreef op donderdag 29 april 2021 @ 15:37:
Ik ben inmiddels echter al een paar weken zoet met deze migratie terwijl ik er 3 dagen voor gerekend had.
Dat klinkt als of je het woord "effe" hebt gebruikt destijds : Niet doen! :+
Heb inmiddels 85 browser vensters open staan met elke een tabje of 30, allemaal onderzoek naar de verschillende issues waar ik tegenaan loop.
Herkenbaar! ;( _O-
Dat is natuurlijk fantastisch! Zal onderzoeken hoe ver Proxmox is met de implementatie van ZFS 2.0.
Volgens mij hier of in het Proxmox Topic al een keer gepost, maar bij deze nog een keer : Als je ZFS 2.0 wilt dan moet je Kernel naar versie 5.10 of hoger onder Debian en dus waarschijnlijk ook Proxmox :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
nero355 schreef op donderdag 29 april 2021 @ 17:49:
[...]

Volgens mij hier of in het Proxmox Topic al een keer gepost, maar bij deze nog een keer : Als je ZFS 2.0 wilt dan moet je Kernel naar versie 5.10 of hoger onder Debian en dus waarschijnlijk ook Proxmox :)
I beg to differ
robert@nas:~$ zfs version
zfs-2.0.4-pve1
zfs-kmod-2.0.4-pve1
robert@nas:~$ uname -a
Linux nas 5.4.106-1-pve #1 SMP PVE 5.4.106-1 (Fri, 19 Mar 2021 11:08:47 +0100) x86_64 GNU/Linux

Uit mijn hoofd verder ook niks geks gedaan qua additionele repos of zo. Uiteraard alleen de standaard community repo toegevoegd maar niks voor extra ZFS upgrades.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ik ook, vandaar ook de waarschijnlijk opmerking! :P

Mijn Debian 11 Testing installatie ging namelijk allerlei 5.10 libraries installeren, terwijl ik nog 5.4 draaide en pas na een upgrade naar 5.10 deed alles het ineens! B)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 14-06 16:46

iGadget

Wowsers!

Whoah, hier ook zie ik, sweet O+

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • +1 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Nu online
nero355 schreef op donderdag 29 april 2021 @ 17:49:
[...]

Ik blijf het een raar verhaal vinden...

- Stond die optie AAN of UIT in je UEFI/BIOS :?
- Zijn er nieuwere versies daarvan uitgekomen waarin mogelijk iets wordt gefixt omtrent SATA Link Power Management ?
Hmm, je hebt gelijk dat het nog niet 100% duidelijk is. Wel wat er aan de hand was en hoe het opgelost kon worden, maar niet hoe het ontstaan is.

Ik ben er nog wel een beetje naar aan het kijken maar ben bang dat het misschien nooit duidelijk gaat worden:
  • BIOS is afgelopen jaren niet bijgewerkt. Maar, wellicht dat de plotselinge spanningsuitval enkele weken geleden instellingen heeft omgegooid.
  • Nieuwere kernel: hmmm, ik heb dat in eerste instantie uitgesloten, maar nu twijfel ik. Ik kan aan de bestandsdatum zien dat de laatste kernel op 28 maart geinstalleerd is en de stroomstoring was op vrijdag 2 april - en de wekelijkse scrub op elke zaterdag. Dus wellicht dat die nieuwere kernel inderdaad een problematische setting erbij kreeg. Niet helemaal wat ik zou verwachten, Debian is over het algemeen best conservatief hierin.
Misschien dat ik er nig wat meer over kan vinden. Vooralsnog is het belangrijkste dat het weer betrouwbaar werkt. :)

Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Nu online
nero355 schreef op donderdag 29 april 2021 @ 18:51:
[...]

Ik ook, vandaar ook de waarschijnlijk opmerking! :P

Mijn Debian 11 Testing installatie ging namelijk allerlei 5.10 libraries installeren, terwijl ik nog 5.4 draaide en pas na een upgrade naar 5.10 deed alles het ineens! B)
Ik draai Debian stable met ZFS op een aantal systemen:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# uname -a
Linux archive 4.19.0-16-amd64 #1 SMP Debian 4.19.181-1 (2021-03-19) x86_64 GNU/Linux

# dpkg -l | grep zfs
ii  libzfs4linux                        2.0.3-1~bpo10+1               amd64        OpenZFS filesystem library for Linux
ii  zfs-dkms                            2.0.3-1~bpo10+1               all          OpenZFS filesystem kernel modules for Linux
ii  zfs-zed                             2.0.3-1~bpo10+1               amd64        OpenZFS Event Daemon
ii  zfsutils-linux                      2.0.3-1~bpo10+1               amd64        command-line tools to manage OpenZFS filesystems

# dpkg -l | grep linux-headers
ii  linux-headers-4.19.0-16-amd64       4.19.181-1                    amd64        Header files for Linux 4.19.0-16-amd64
ii  linux-headers-4.19.0-16-common      4.19.181-1                    all          Common header files for Linux 4.19.0-16
ii  linux-headers-5.10.0-0.bpo.5-amd64  5.10.24-1~bpo10+1             amd64        Header files for Linux 5.10.0-0.bpo.5-amd64
ii  linux-headers-5.10.0-0.bpo.5-common 5.10.24-1~bpo10+1             all          Common header files for Linux 5.10.0-0.bpo.5
ii  linux-headers-amd64                 5.10.24-1~bpo10+1             amd64        Header files for Linux amd64 configuration (meta-package)


Kernel is dus 4.19.X maar hij trekt wel 5.10 linux-headers mee naar binnen voor het bouwen van de ZFS 2.0 dkms modules.

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

@d3vlin Interessant! :)

Raar, maar interessant! :D

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 10:22
Ik denk dat ik een kleine scoop heb: ZFS gaat support krijgen voor object storage als onderliggend medium, zo werd gisteren gemeld in de maandelijkse call die de ZFS-developers onderling hebben door de oorspronkelijke bedenker van ZFS (Matt Ahrens).

De use case die ze in gedachte hebben is databases, met (dus) een kleine record size. Uiteindelijk is de bedoeling dat dit performant kan worden als je een grote read cache hebt; voor writes kan je dan een ZIL gebruiken (net als met HDD"s, vroeger).

Er wordt een user land agent geschreven in rust die zorgt voor de communicatie tussen de ZFS driver en de object storage provider (via S2-protocol voor Amazon S3, minio & netapp, etc. Maar ook Azure's eigen block storage protocol wordt gesupport).

Deze functionaliteit borduurt verder op de ondersteuning die eerder geschreven werd voor SMR-hard drives. Ook kwam in deze meeting nog het idee langs om wellicht redundancy in te bouwen: Net zoals dat je een zfs pool kan mirrorren over meerdere HDD's, zou je in theorie ook meerdere availability zones tegelijkertijd kunnen gebruiken voor redundancy.

Tot slot komt ook nog even de vraag langs over simultaan gebruik onder het mom van 'clustered zfs'. Concreet wordt voorgesteld dat je dan bijvoorbeeld 1 pool zou kunnen hebben, waarbij verschillende machines verschillende datasets binnen diezelfde pool zouden kunnen gebruiken (maar niet tegelijkertijd dezelfde dataset). Hierop wordt half knipogend gezegd dat het nu niet in scope zit maar to stay tuned.

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 14-06 16:46

iGadget

Wowsers!

@Freeaqingme Hoewel voor ik voor mijn persoonlijke usecase de meerwaarde (nog?) niet zie, zijn dit wel hele toffe ontwikkelingen! Persoonlijk nog interessanter lijkt me ondersteuning voor SMR drives (helemaal in combinatie met de RAID(Z) expansion die al een tijdje in de pijplijn zit). De zoekmachine geeft bij mij niet zo snel relevante resultaten vwbt SMR support, kun je hier meer over vertellen?

[ Voor 8% gewijzigd door iGadget op 13-05-2021 15:42 . Reden: improvements ]

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • +1 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 10:22
iGadget schreef op donderdag 13 mei 2021 @ 15:18:
@Freeaqingme Hoewel voor ik voor mijn persoonlijke usecase de meerwaarde (nog?) niet zie, zijn dit wel hele toffe ontwikkelingen!
Wat precies de use case ook niet is weet ik ook niet. Ongetwijfeld hebben ze een klant die het nodig heeft en dan wordt daar vast meer over helder bij een announcement. Belangrijker is in ieder geval dat ze nu alvast rekening houden met kleine blocksizes, dat maakt het een stuk uitdagender dan wanneer je blocks van 64MiB zou gebruiken.
iGadget schreef op donderdag 13 mei 2021 @ 15:18:
Persoonlijk nog interessanter lijkt me ondersteuning voor SMR drives (helemaal in combinatie met de RAID(Z) expansion die al een tijdje in de pijplijn zit). De zoekmachine geeft bij mij niet zo snel relevante resultaten vwbt SMR support, kun je hier meer over vertellen?
Ik moet bekennen dat ik daar niet heel veel over nagedacht had. De SMR support die ik ken heeft vooral betrekking op sequential resilvers & scrubs die in 0.8 zat. Verder hoor ik het oa op dit soort developer meetings wel eens langskomen maar kan me dat niet precies herinneren (en zie er ook niet gek veel van in de changelog tbh).

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 14-06 16:46

iGadget

Wowsers!

Freeaqingme schreef op donderdag 13 mei 2021 @ 15:56:
[...]
Wat precies de use case ook niet is weet ik ook niet. Ongetwijfeld hebben ze een klant die het nodig heeft en dan wordt daar vast meer over helder bij een announcement. Belangrijker is in ieder geval dat ze nu alvast rekening houden met kleine blocksizes, dat maakt het een stuk uitdagender dan wanneer je blocks van 64MiB zou gebruiken.
Moet bekennen dat ik nog nooit iets met blocksizes heb gedaan.
...De SMR support die ik ken heeft vooral betrekking op sequential resilvers & scrubs die in 0.8 zat. Verder hoor ik het oa op dit soort developer meetings wel eens langskomen maar kan me dat niet precies herinneren (en zie er ook niet gek veel van in de changelog tbh).
Voor mij was dit de reden dat ik echt dagen en dagen heb lopen zoeken naar een geschikte schijf voor mijn nieuwe storage server. Uiteindelijk heb ik de knoop doorgehakt en een 2e hands machine waar nog 6x 3TB HGST NAS schijven in zat gekocht, want ik kwam er echt niet uit voor het budget dat ik had.
Als er fatsoenlijke SMR support komt, dan wordt de veelbewandelde route van low-cost 2,5" USB3 schijven (waar stiekem vaak gewoon een SATA schijf in zit die los veel meer kost) ineens weer interessant.
Durf dit nu niet aan, heb helaas al mogen ervaren hoe heftig het effect van een Proxmox cluster icm ZFS op schijven kan zijn....

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • 0 Henk 'm!
iGadget schreef op donderdag 13 mei 2021 @ 19:28:
[...]

Moet bekennen dat ik nog nooit iets met blocksizes heb gedaan.
Je draait ook geen high-performance database? Dat zijn workflows waarin het wel degelijk verschil kan maken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

CurlyMo schreef op donderdag 13 mei 2021 @ 20:18:
Je draait ook geen high-performance database? Dat zijn workflows waarin het wel degelijk verschil kan maken.
Maar hoe vaak gebeurt dat nog :?

Zat er laatst nog over na te denken toen een vriend wat dingen vroeger over de blocksize en zo...

Vroeger was men heel erg met dat soort dingen bezig als het om een bepaald type server ging en alle storage op HDD's zat en dan eigenlijk vrijwel altijd in RAID vorm dus kreeg je bij je stripesize al de keuzes :
- 32 a 64 KB was dan voornamelijk voor kleine bestanden/drukke fileservers.
- 128 KB was een veilige tussenvariant die zowel voor kleine als grote bestanden voldeed.
- 256 KB was al meer voor voornamelijk grote bestanden.

En dan kreeg je natuurlijk nog de keuzes op filesystem niveau die weer zelfs per variant konden verschillen :
- NTFS voor Windows bakken met bijbehorende keuzes.
- EXT3 en EXT4 onder Linux waren een soort allround solution.
- XFS onder Linux stond echter weer bekend als dat filesystem voor hele grote bestanden.

Zijn dit soort keuzes en gedachtes nu helemaal de wereld uit sinds we oplossingen zoals BTRFS en ZFS hebben :?
Het enige wat ik zo gauw kan bedenken zijn de ashift waardes...
En op het moment dat je een ZFS Volume aanmaakt dan heb je niet eens met het formateren daarvan te maken!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!
nero355 schreef op donderdag 13 mei 2021 @ 20:38:
[...]

Maar hoe vaak gebeurt dat nog :?

Het enige wat ik zo gauw kan bedenken zijn de ashift waardes...
En op het moment dat je een ZFS Volume aanmaakt dan heb je niet eens met het formateren daarvan te maken!
Het betekent simpelweg of je database writes aligned zijn of niet. Zo niet, dan ben elk blok meerdere keren aan aan het schrijven.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 10:22
nero355 schreef op donderdag 13 mei 2021 @ 20:38:
[...]

Maar hoe vaak gebeurt dat nog :?

[...]

Zijn dit soort keuzes en gedachtes nu helemaal de wereld uit sinds we oplossingen zoals BTRFS en ZFS hebben :?
maken!
Vaak & ja. Je hebt inderdaad de ashift die voor heel je pool geldt, maar je hebt ook nog een record size die per dataset ingesteld kan worden. Volgens mij is het zo dat bij een recordsize van 64MiB iedere write+fsync 64 MiB kost. Da's prima voor wanneer je je Bluray films backupt, maar als je een database hebt die heel veel kleine writes doet (per rij 1 write soms/vaak) dan is het significant minder handig. Daarnaast kan er, afhankelijk van de toepassing, ook best wat performanceverschil in zitten.

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 14-06 16:46

iGadget

Wowsers!

CurlyMo schreef op donderdag 13 mei 2021 @ 20:18:
[...]
Je draait ook geen high-performance database? Dat zijn workflows waarin het wel degelijk verschil kan maken.
Nog(?) niet nee. Wellicht dat de VM's die ik draai op Proxmox (o.a. Nextcloud) in de achtergrond wel met high-performance databases werken, maar die heb ik zelf niet opgezet.

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • 0 Henk 'm!
iGadget schreef op donderdag 13 mei 2021 @ 23:08:
[...]

Nog(?) niet nee. Wellicht dat de VM's die ik draai op Proxmox (o.a. Nextcloud) in de achtergrond wel met high-performance databases werken, maar die heb ik zelf niet opgezet.
Nope, met deze vraag geef je duidelijk aan de scope niet te kennen :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 13-06 11:31
Ik heb nu ~10 2TB disks in m'n storage server zitten met beperkte ruimte nog over (ca. 500GB).


Ik heb een aantal disks besteld en ga van 2TB per disk naar 4TB per disks.

Alles in RAIDZ2. kan ik het beste ze allemaal 1 voor 1 repplaced of kan ik bijv ook direct 8 stuks tegelijk vervangen? (Ik heb hiervoor tijdelijk 2x 4-bay USB storage units van Fantec tot m'n beschikking).

Geen ruimte voor alles (tijdelijk) in de case aan te sluiten.

Acties:
  • +2 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 10:22
Dutch2007 schreef op vrijdag 14 mei 2021 @ 00:58:
Alles in RAIDZ2. kan ik het beste ze allemaal 1 voor 1 repplaced of kan ik bijv ook direct 8 stuks tegelijk vervangen? (Ik heb hiervoor tijdelijk 2x 4-bay USB storage units van Fantec tot m'n beschikking).
Je kan natuurlijk uitrekenen wat sneller zou zijn, maar ik denk dat de minst bewerkelijke route is om de bestaande hdd's in die usb dingen te stoppen, je nieuwe hdd's netjes in te bouwen. Op die laatste een nieuwe pool te definieren, met zfs import de oude pool importeren en dan met zfs send de data van de oude pool naar de nieuwe verplaatsen.

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 10:04

player-x

Disruptive by design

Dutch2007 schreef op vrijdag 14 mei 2021 @ 00:58:
Alles in RAIDZ2. kan ik het beste ze allemaal 1 voor 1 repplaced of kan ik bijv ook direct 8 stuks tegelijk vervangen?
Je hebt verschillende opties:
De mooiste is een tweede systeem bouwen met oude hardware, in bv een kast als deze met bv een oude of tweedehands 115x bordje, dat moet voor ongeveer €150 te doen zijn, en kan je een off/on-line 2de server maken. (de mooie 2hands oplossing)

Heb zelf een 2de off-line server die 1x per week automatisch aan gaat via een bios wake-up event (wake on lan werkt ook), en een off-line back-up maakt van de belangrijkste files.

Op die manier kan je een kopie maken in een dag of twee dagen met data controle via LAN.

En een dubbele back-up is altijd aan te bevelen voor onvervangbare data, gebruik daarnaast zelf al jaren buddybackup samen met vrienden voor de echt onvervangbare data, maar bv Google drive of dergelijke is ook een optie.

Anders zijn je eigen twee opties ook een prima oplossing, denk dat de usb oplossing het makkelijkste en snelst is, maar beide zijn prima, en de kans op data verlies is minimaal.

[ Voor 5% gewijzigd door player-x op 14-05-2021 22:11 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dutch2007 schreef op vrijdag 14 mei 2021 @ 00:58:
Ik heb nu ~10 2TB disks in m'n storage server zitten met beperkte ruimte nog over (ca. 500GB).
Alles in RAIDZ2.

Ik heb een aantal disks besteld en ga van 2TB per disk naar 4TB per disks.

Kan ik ze het beste allemaal 1 voor 1 repplaced of kan ik bijv ook direct 8 stuks tegelijk vervangen?
(Ik heb hiervoor tijdelijk 2x 4-bay USB storage units van Fantec tot m'n beschikking).

Geen ruimte voor alles (tijdelijk) in de case aan te sluiten.
Heb je nou 10 nieuwe schijven of 8 nieuwe schijven :?

Als het er maar 8 zijn dan zal je sowieso een nieuwe pool moeten gaan bouwen, want autoexpanden gaat dan niet, omdat je ze dan ook alle 10 moet vervangen! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
Ik denk dat dit de beste plek is om mijn vraag even te droppen :)

Ik ben voor een familielid aan het kijken om een klein servertje in elkaar te zetten (voor MKB gebruik, voornamelijk voor "gedeelde opslag" en evt. later wat meer server toepassingen). Keuzes qua hardware liggen bij mij en ik zal het ding verder ook gaan onderhouden. Zelf ook al 10 jaar of zo een thuisservertje draaien op consumentenhardware dus in die zin ben ik ook niet echt op zoek naar een kant en klare server of (semi dure) zakelijke hardware.

Ding zal ik Proxmox op gaan draaien met ZFS zodat ik de boel mooi kan syncen met mijn thuisserver en een Orange Pi. Mijn eigen server heb ik begin vorig jaar geupgrade / vervangen en toen de keuze voor ECC geheugen gemaakt (met een Intel i3-9100 en Fujitsu / Kontron moederbord). Echter blijkt ECC ondersteuning op de nieuwste Intel CPUs te ontbreken / alleen aanwezig bij de Xeons, en bij AMD (waar ik nog minder kaas van gegeten heb) lijkt ECC support volgens de pricewatch ook alleen op de server CPUs te zitten.
Mijn grote vraag is dan ook: hoe hard is ECC nodig? Ik weet in zoverre dat het voordelen bied om bitflips in het geheugen te voorkomen / detecteren en daarmee dus bestandscorruptie tegen te gaan. Ik vraag me dan alleen af hoe reëel de kans daarop is, ook gezien de meerprijs die het met zich mee zou brengen. Bij mijn i3-9100 systeem had ik niet echt het idee dat ik veel duurder uit kwam, die CPU kwam ik al op uit, Fujitsu / Kontron wordt veel gebruikt en zit ECC als bijkomstigheid op, dus dan nog net dat ECC RAM plaatsen is dan geen gekke keuze. Alleen hebben recente Intel (consumenten) CPUs klaarblijkelijk dus geen ECC ondersteuning, dus kom je al bij de veel duurdere Xeons uit. En een "oud" systeem samenstellen kan weer niet omdat bv de genoemde i3-9100 (vrijwel) niet verkrijgbaar is en daarnaast een stuk duurder (dan 10th/11th gen CPUs).
Wat is in deze dus wijsheid? Toch voor een systeem gaan met ECC geheugen, of is de kans op issues zo klein dat het de meerprijs niet waard is en dus lekker zonder ECC gaan draaien? Gezien ik dus ook periodieke backups / syncs zal doen naar 2 andere systemen lijkt de kans op dataverlies bij corruptie mij dan ook afwezig? De bitflip zou eventueel met een sync mee gaan, maar de oude snapshots zullen onaangepast blijven en daaruit zou een corrupt bestand dan teruggehaald kunnen worden, zou ik zeggen.

Acties:
  • +3 Henk 'm!
RobertMe schreef op zaterdag 15 mei 2021 @ 14:50:
Ik ben voor een familielid aan het kijken om een klein servertje in elkaar te zetten (voor MKB gebruik, voornamelijk voor "gedeelde opslag" en evt. later wat meer server toepassingen). Keuzes qua hardware liggen bij mij en ik zal het ding verder ook gaan onderhouden. Zelf ook al 10 jaar of zo een thuisservertje draaien op consumentenhardware dus in die zin ben ik ook niet echt op zoek naar een kant en klare server of (semi dure) zakelijke hardware.
De standaard vraag is in dit geval wat de kosten van downtime zijn. Als je familielid 10k per dag aan omzetverlies leidt bij een onbereikbare server, dan heb je daar direct de markt voor kant en klare servers te pakken. Dezelfde vraag als jouw backups falen, er een cryptoware langskomt, enz. Hoe zit het met privacy gevoeligheid van de data?

Ik denk dus dat ECC nog wel de minst relevante kwestie is van je dienst. We zijn tenminste op tweakers. Dan krijg je net weer een ander antwoord op de vraag dan gesteld :p

Is het budget zo laag dat ECC en Xeon nou echt zo'n probleem vormen, nog los van het gemak van vPro voor remote beheer.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
CurlyMo schreef op zaterdag 15 mei 2021 @ 15:22:
[...]

De standaard vraag is in dit geval wat de kosten van downtime zijn. Als je familielid 10k per dag aan omzetverlies leidt bij een onbereikbare server, dan heb je daar direct de markt voor kant en klare servers te pakken. Dezelfde vraag als jouw backups falen, er een cryptoware langskomt, enz. Hoe zit het met privacy gevoeligheid van de data?

Ik denk dus dat ECC nog wel de minst relevante kwestie is van je dienst. We zijn tenminste op tweakers. Dan krijg je net weer een ander antwoord op de vraag dan gesteld :p

Is het budget zo laag dat ECC en Xeon nou echt zo'n probleem vormen, nog los van het gemak van vPro voor remote beheer.
Allemaal zeer terechte vragen.

De situatieschets. Het gaat om een (eet)café, dus computer / administratie gebeuren is min of meer bijzaak. Het gaat dan ook voornamelijk om opslag van offertes en gemaakte facturen etc. Momenteel staan deze op een PC (Origineel mijn eerste zelfbouw PC, met een Core2Duo waar alleen een SSD bij is gezet :X 8)7 ), waarbij via Syncthing de belangrijke mappen worden gesynchroniseerd naar mijn zelfbouw server.
Qua privacy: die is er dus niet, ben ik mij bewust van, en het familielid zou dit evengoed moeten weten (maar wil wel van OneDrive af want cloud is vies bah :p). Andersom geldt ook dat ik, op locatie, sowieso op het systeem kan inloggen. De data is op mijn thuisserver vervolgens wel opgeslagen op een encrypted ZFS volume (key staat wel op dit systeem O-) ), waarbij de snapshots "raw" (oftewel encrypted) naar de Orange Pi gaan (hier staat de sleutel dan ook niet op). Maar evengoed zal ik ook bij een andere oplossing ("koop een HP / Dell / ... server") de boel mogen installeren en onderhouden, en dus root / admin toegang hebben en aan alle bestanden kunnen.
Qua ransomware: de belangrijke data komt momenteel dus al mijn kant op waar periodiek (elk kwartier / uur / dag) ZFS snapshots worden gemaakt. In die zin verwacht ik v.w.b. ransomware dus veilig te zijn want snapshots zijn read only. Uiteraard zou er wel iets kunnen gebeuren als iemand toegang verschaft tot de thuisserver. Maar de Orange Pi, die bij hem ligt, weer pull based werkt en mijn server daar überhaupt niet op kan inloggen. En andersom de Orange Pi een beperkte login op mijn server heeft en alleen snapshots kan senden, holden etc., dus zeker geen snapshots kan destroyen, noch heeft dat account sudo rechten. Dus toegang tot systeem A betekent niet dat ook de snapshots op systeem B verwijderd kunnen worden.

Voor mij dus een gevalletje "in het land der blinden is eenoog koning". Maar ik probeer wel alles zo goed / veilig mogelijk op te zetten en voor mijn gevoel is dat ook zo (enige wat echt mist naar mijn weten is een semi automatische offline backup). En vanuit mijzelf probeer ik dingen sowieso altijd zo goed / perfect mogelijk op te zetten (in ieder geval qua software, qua hardware ging ik anders wel direct voor een Xeon met ECC :+). En ging dit, zoals jij stelt, over een situatie waarbij downtime echt meteen zou zorgen voor omzetverlies dan had ik alsnog meteen "nee" verkocht. Immers is dit voor mij, als software developer van beroep, ook maar gehobby en iets waar mijn interesses liggen. Het is dan ook zeker niet mijn bedoeling om dit als "professionele" oplossing neer te zetten met "24/ support". (En was dit wel de bedoeling, had ik ook vriendelijk bedankt)

Acties:
  • +2 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 10:04

player-x

Disruptive by design

RobertMe schreef op zaterdag 15 mei 2021 @ 14:50:
Echter blijkt ECC ondersteuning op de nieuwste Intel CPUs te ontbreken / alleen aanwezig bij de Xeons, en bij AMD (waar ik nog minder kaas van gegeten heb) lijkt ECC support volgens de pricewatch ook alleen op de server CPUs te zitten.
Wat is de extra nut van een S1200, zelfs een Celeron van 10j oud kan prima ZFS draaien.

Gewoon i3-9300 nemen (goedkoper en wel prima verkrijgbaar), heeft ECC en vPro.
Is het budget erg krap (corona) kan je ook naar tweedehands kijken, alleen zijn er dan weinig aanbieders met een BTW bon.

En een Fujitsu of Supermicro kiezen met een C236 of C246 chipset, en als er geen VM, database of tientallen user tegelijk gebruik maken van de server, dan is 16GB aan geheugen meer dan voldoende.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 13-06 11:31
nero355 schreef op vrijdag 14 mei 2021 @ 15:18:
[...]

Heb je nou 10 nieuwe schijven of 8 nieuwe schijven :?

Als het er maar 8 zijn dan zal je sowieso een nieuwe pool moeten gaan bouwen, want autoexpanden gaat dan niet, omdat je ze dan ook alle 10 moet vervangen! ;)
Ik heb diverse 2TB schijven in RaidZ2, alle 2TB schijven ben ik aan het vervangen (enkele van deze zijn al 4TB).

Dat ik ze alle 10 dien te vervangen om de verdubbeling uiteindelijk te krijgen is bij mij bekend.

Autoexpand staan wel alvast aan :-) :P

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dutch2007 schreef op zaterdag 15 mei 2021 @ 18:05:
Ik heb diverse 2TB schijven in RaidZ2, alle 2TB schijven ben ik aan het vervangen (enkele van deze zijn al 4TB).

Dat ik ze alle 10 dien te vervangen om de verdubbeling uiteindelijk te krijgen is bij mij bekend.

Autoexpand staan wel alvast aan :-) :P
Tja, je zei er niks over dus ik dacht laat ik dat maar effe aanwijzen als mogelijk probleem :P
RobertMe schreef op zaterdag 15 mei 2021 @ 14:50:
Ik ben voor een familielid aan het kijken om een klein servertje in elkaar te zetten (voor MKB gebruik, voornamelijk voor "gedeelde opslag" en evt. later wat meer server toepassingen). Keuzes qua hardware liggen bij mij en ik zal het ding verder ook gaan onderhouden.
Waarom niet gewoon een 1U "pizzadoos formaat" cheapo servertje van Dell of HP kopen en daarin 2x 4 TB of zo proppen :?

Verder kan je natuurlijk ook voor een Gxxxx model gaan die ook ECC support hebben t/m de G5000 serie als het goed is in ieder geval :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Nu online
RobertMe schreef op zaterdag 15 mei 2021 @ 14:50:
Alleen hebben recente Intel (consumenten) CPUs klaarblijkelijk dus geen ECC ondersteuning, dus kom je al bij de veel duurdere Xeons uit.
Dit is meer een post voor het DIY NAS topic, maar ik zou eens kijken naar een refurbished servertje. Een eenvoudige (en voor een ZFS server toereikende) Xeon CPU kost in die markt een paar tientjes, ECC/REG geheugen ditto. Om je een idee te geven een paar eerste resultaten via Google:
https://www.serverzaak.nl...ore-2-40-ghz-80w-tdp.html
https://www.serverzaak.nl/componenten/ram-geheugen.html
https://www.serverzaak.nl/dell-poweredge-r210.html
etc.

Of even informeren bij collega tweaker @Hardware Junk.

[ Voor 3% gewijzigd door d3vlin op 17-05-2021 14:16 ]

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

d3vlin schreef op maandag 17 mei 2021 @ 14:11:
Dit is meer een post voor het DIY NAS topic, maar ik zou eens kijken naar een refurbished servertje. Een eenvoudige (en voor een ZFS server toereikende) Xeon CPU kost in die markt een paar tientjes, ECC/REG geheugen ditto. Om je een idee te geven een paar eerste resultaten via Google:
Ehh...

- https://www.serverzaak.nl...ore-2-40-ghz-80w-tdp.html
Dit is een Socket 2011 model en die gaat niet passen in een :
- https://www.serverzaak.nl/dell-poweredge-r210.html
:?

Daarnaast is een Xeon 3400 wel heel erg oud : Dergelijke nieuwere modellen worden met de E3 Xeon Serie geleverd die genoeg hebben aan alleen ECC geheugen :)
Of even informeren bij collega tweaker @Hardware Junk.
Heeft niks in V&A staan op het moment :?

Mocht het trouwens nog interessant/relevant zijn :
- Xeon E5 2000 modellen passen ook op een regulier X79 moederbord.
- Xeon E5 2000v2 modellen ook.

- Xeon E5 2000v3 modellen passen ook op een regulier X99 moederbord.
- Xeon E5 2000v4 modellen ook.

In alle gevallen kan je beter niet knoeien met ECC of Registered RAM, want dat is één groot gepuzzel! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Nu online
Dat snap ik, links puur ter referentie/indicatie van de prijzen in dat segment.
Heeft niks in V&A staan op het moment :?
Dat zei ik ook niet. Stuur hem even een DM of een email (server-express.nl), hij heeft genoeg geschikte hardware in de aanbieding en anders kan hij er waarschijnlijk wel aan komen voor nette prijzen en goede service.

[ Voor 6% gewijzigd door d3vlin op 17-05-2021 16:12 ]

Leaping Lab Rats!


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Om nog even op ECC terug te komen: bijna alle* AMD-CPU's ondersteunen ECC-geheugen, de vraag is meer of het moederbord het ook op een werkbare manier ondersteunt. Asrock Rack heeft best mooie moederborden die geschikt zijn.

* Uitgezonderd APU's. Daar werkt ECC wel op de PRO-varianten, niet op de rest

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

dcm360 schreef op dinsdag 18 mei 2021 @ 10:43:
Om nog even op ECC terug te komen: bijna alle* AMD-CPU's ondersteunen ECC-geheugen, de vraag is meer of het moederbord het ook op een werkbare manier ondersteunt. Asrock Rack heeft best mooie moederborden die geschikt zijn.

* Uitgezonderd APU's. Daar werkt ECC wel op de PRO-varianten, niet op de rest
Het was toch juist zo dat je altijd voor de Pro modellen moet kiezen als je gegarandeerde ECC support wilt hebben :?

Vooral omdat er helaas geen "Pro chipsets" bestaan... voor zover je daarvan kan spreken bij AMD dan...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
nero355 schreef op dinsdag 18 mei 2021 @ 15:40:
[...]

Het was toch juist zo dat je altijd voor de Pro modellen moet kiezen als je gegarandeerde ECC support wilt hebben :?

Vooral omdat er helaas geen "Pro chipsets" bestaan... voor zover je daarvan kan spreken bij AMD dan...
Voor zover ik weet ondersteunen alle zen2 en zen3 CPU's (onofficieel) ECC. Van de x570 borden heb ik gelezen dat alle x570 borden van Gigabyte en Asrock ECC. Maar zolang niks officieel is kan de daadwerkelijke ondersteuning nogal iffy zijn natuurlijk.

PVoutput Wie goed doet, die goed ontmoet.


Acties:
  • 0 Henk 'm!

  • Navi
  • Registratie: Maart 2007
  • Niet online
Bij o.a de Gigabyte X570 Aorus Pro staat het er gewoon bij dat er ECC in kan:

Dual Channel ECC/ Non-ECC Unbuffered DDR4, 4 DIMMs

https://www.gigabyte.com/...70-AORUS-PRO-rev-11-12#kf

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

AtlAntA schreef op zaterdag 29 mei 2021 @ 18:55:
Voor zover ik weet ondersteunen alle zen2 en zen3 CPU's (onofficieel) ECC. Van de x570 borden heb ik gelezen dat alle x570 borden van Gigabyte en Asrock ECC. Maar zolang niks officieel is kan de daadwerkelijke ondersteuning nogal iffy zijn natuurlijk.
Dat is dus het hele probleem... ;(
Navi schreef op zondag 30 mei 2021 @ 13:06:
Bij o.a de Gigabyte X570 Aorus Pro staat het er gewoon bij dat er ECC in kan:

Dual Channel ECC/ Non-ECC Unbuffered DDR4, 4 DIMMs

https://www.gigabyte.com/...70-AORUS-PRO-rev-11-12#kf
pricewatch: Gigabyte X570 Aorus PRO

Hoop geld voor een weinig spectaculair moederbord zonder IPMI dat voornamelijk op Gaming en RGB is gericht en makkelijk rond de € 80 minder had mogen kosten, zoals de AsRock Z87/97 Extreme4 bordjes die ik in het verleden heb gekocht! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • koelkast
  • Registratie: Juni 1999
  • Niet online
Donders, wat een info over ZFS en de mogelijkheden van Freenas/Truenas en consorten.
Ik heb juist een Truenas server gebouwd met RaidZ1 (3x8 TB disk), en heb uiteraard ook een goede backup nodig, maar daarnaast wil ik ook gebruik maken van deduplication.
Een aantal gedachten daarbij, zonder dat ik weet waar ik moet beginnen:

- deduplication / snapshotting dient ervoor om terug te kunnen naar een vorige versie van een file of meerder files, klopt dat?
- ik wil backuppen naar een ander Truenas ZFS systeem, dat bij mij thuis staat, maar ook naar een QNAP nas systeem bij mijn familie. Kan ik dan het beste rsync gebruiken, of zijn er andere/betere opties?

Je merkt mogelijk al dat ik er niet zo goed uit kom. Wel ben ik enthousiast om te leren en te ontdekken wat Truenas voor mogelijkheden biedt. Dus: heeft er iemand een beginners-tutorial of een stappenplan waarmee ik de boel qua backup goed kan inrichten?

Acties:
  • +3 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
koelkast schreef op dinsdag 1 juni 2021 @ 15:57:
- deduplication / snapshotting dient ervoor om terug te kunnen naar een vorige versie van een file of meerder files, klopt dat?
Deduplication en snapshoting zijn twee compleet verschillende dingen. Bij deduplication ziet ZFS zelf dat er een ander bestand(naam) is met dezelfde inhoud en zal daarom het bestand maar 1x opslaan. Dit is dus ook alleen interessant als je ook daadwerkelijk met duplicaten werkt (ook nog eens binnen dezelfde dataset).
V.w.b. snapshots heb je gelijk. Als je een snapshot aanmaakt wordt er als het ware een read-only kopie gemaakt van alle bestanden in die dataset. Echter is dat wel een "goedkope" kopie. Dit door gebruik te maken van "copy-on-write" (CoW). Pas op het moment dat een bestand wordt aangepast wordt het bestand opnieuw opgeslagen. Mogelijk dat daar dus ook je deduplication verwarring vandaan komt.
- ik wil backuppen naar een ander Truenas ZFS systeem, dat bij mij thuis staat, maar ook naar een QNAP nas systeem bij mijn familie. Kan ik dan het beste rsync gebruiken, of zijn er andere/betere opties?
ZFS heeft een ingebouwd systeem om snapshots over en weer te sturen, dit is zfs send / receive. Voordeel hiervan is dat ZFS de integriteit behoud en je als je bv gebruikt maakt van compressie op filesystem/dataset niveau, of encryptie, je de "opgeslagen bits" over de lijn stuurt i.p.v. de bestanden. Bij een encrypted dataset blijft de encryptie dan ook behouden en de ontvangende kant hoeft de encryptiesleutel dus niet te kennen en kan dus ook niet aan de data komen.
Maar dit werkt alleen echt goed / logisch met ZFS aan beide kanten, dus gaat niet perse werken met de QNAP NAS, immers zal die naar ik aanneem geen ZFS ondersteunen. Wat wel een mogelijkheid zou kunnen zijn, maar ik weet niet hoe logisch dat is, is gebruik maken van het feit dat send & receive twee losse operaties zijn. zfs send levert een grote blob op die je ook op de QNAP zou kunnen opslaan. En als je de backup moet herstellen kun je de blob met zfs receive weer inlezen op een ZFS systeem. Maar persoonlijk lijkt mij dat geen logische / handige optie.

Acties:
  • +4 Henk 'm!
RobertMe schreef op dinsdag 1 juni 2021 @ 16:12:
[...]
Bij deduplication ziet ZFS zelf dat er een ander bestand(naam) is met dezelfde inhoud en zal daarom het bestand maar 1x opslaan. Dit is dus ook alleen interessant als je ook daadwerkelijk met duplicaten werkt (ook nog eens binnen dezelfde dataset).
Aanvullend, dit gebeurt op block level niveau, niet op bestandsniveau.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 13-06 11:31
Ik wil op proxmox mijn 2TB schijven vervangen door 4TB.

Heb een 4-bay USB tray voor tijdelijke transfer.

zpool replace storage1 /dev/sdp /dev/sdv
zpool replace storage1 /dev/sdn /dev/sdu
zpool replace storage1 /dev/sdl /dev/sdt
zpool replace storage1 /dev/sdh /dev/sds


Ik krijg dan een foutmelding:

code:
1
cannot replace /dev/sdh2 with /dev/sds: no such device in pool


Moet die disk "/dev/sds" eerst aan de pool toegevoegd worden?

e.g.


code:
1
zpool add storage1 /dev/sds

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
Dutch2007 schreef op vrijdag 11 juni 2021 @ 01:30:
Ik wil op proxmox mijn 2TB schijven vervangen door 4TB.

Heb een 4-bay USB tray voor tijdelijke transfer.

zpool replace storage1 /dev/sdp /dev/sdv
zpool replace storage1 /dev/sdn /dev/sdu
zpool replace storage1 /dev/sdl /dev/sdt
zpool replace storage1 /dev/sdh /dev/sds


Ik krijg dan een foutmelding:

code:
1
cannot replace /dev/sdh2 with /dev/sds: no such device in pool


Moet die disk "/dev/sds" eerst aan de pool toegevoegd worden?

e.g.


code:
1
zpool add storage1 /dev/sds
ZFS werkt niet op deze manier met volledige paden naar de devices. Die gebruikt alleen het laatste deel, dus sdh2 en sds. Daarnaast wil je überhaupt niet deze namen gebruiken omdat deze wisselen op basis van waar en/of wanneer je de schijf aansluit, en dat wil je niet, want dadelijk ben je klaar met replacen, je bouwt alles in, en dan zijn deze namen veranderd. Daarom kun je het beste de ids van de schijven opzoeken in /dev/disk/by-id (evt even ls -l doen om te zien hoe deze terug linken naar /dev/sd* op dat moment). En de juiste namen van de huidige schijven kun je bv uit een zfs status halen. Daarin staan de huidige schijven in de pool onder vermelding van de identifier waarmee ze gekoppeld zijn. En IIRC doet Proxmox dat tijdens installatie ook op basis van /dev/disk/by-id.

Edit:
Overigens doet zfs add iets compleet anders en kun je daarna de pool zo ongeveer weggooien. zfs add voegt de opgegeven disk toe via striping (/RAID 0) en maakt de pool dus groter (echter kan dit uiteraard niet bij een raid-z setup, mocht je die gebruiken). Waarna je, vroeger, met een nogal permanent probleem zat dat je de schijf ook niet meer kon verwijderen.

En verder: voordat je vanalles gaat proberen: RTFM in combinatie met probeer het eens op basis van een test systeem in combinatie met bv een zpool op basis van image files i.p.v. fysieke disks. Want voordat je het weet zit je dadelijk of met een permanent gewijzigde zpool layout of heb je op een andere manier de pool gesloopt en ben je nog verder van huis.

[ Voor 20% gewijzigd door RobertMe op 11-06-2021 04:43 ]


Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 13-06 11:31
RobertMe schreef op vrijdag 11 juni 2021 @ 04:36:
[...]

ZFS werkt niet op deze manier met volledige paden naar de devices. Die gebruikt alleen het laatste deel, dus sdh2 en sds. Daarnaast wil je überhaupt niet deze namen gebruiken omdat deze wisselen op basis van waar en/of wanneer je de schijf aansluit, en dat wil je niet, want dadelijk ben je klaar met replacen, je bouwt alles in, en dan zijn deze namen veranderd. Daarom kun je het beste de ids van de schijven opzoeken in /dev/disk/by-id (evt even ls -l doen om te zien hoe deze terug linken naar /dev/sd* op dat moment). En de juiste namen van de huidige schijven kun je bv uit een zfs status halen. Daarin staan de huidige schijven in de pool onder vermelding van de identifier waarmee ze gekoppeld zijn. En IIRC doet Proxmox dat tijdens installatie ook op basis van /dev/disk/by-id.

Edit:
Overigens doet zfs add iets compleet anders en kun je daarna de pool zo ongeveer weggooien. zfs add voegt de opgegeven disk toe via striping (/RAID 0) en maakt de pool dus groter (echter kan dit uiteraard niet bij een raid-z setup, mocht je die gebruiken). Waarna je, vroeger, met een nogal permanent probleem zat dat je de schijf ook niet meer kon verwijderen.

En verder: voordat je vanalles gaat proberen: RTFM in combinatie met probeer het eens op basis van een test systeem in combinatie met bv een zpool op basis van image files i.p.v. fysieke disks. Want voordat je het weet zit je dadelijk of met een permanent gewijzigde zpool layout of heb je op een andere manier de pool gesloopt en ben je nog verder van huis.
Moest idd eerst even naar die WWN dingen kijken.

Ik heb ze in RAIDZ2 lopen, kan ik er dan 2 max tegelijk "doen" of kan ik ook 4 disks tegelijk laten resilveren? (per box heb ik 4 HDD slots)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dutch2007 schreef op vrijdag 11 juni 2021 @ 18:10:
Ik heb ze in RAIDZ2 lopen, kan ik er dan 2 max tegelijk "doen" of kan ik ook 4 disks tegelijk laten resilveren? (per box heb ik 4 HDD slots)
Ik weet niet hoeveel je aan de data bent gehecht, maar ik zou het volgende doen :

- Ervoor zorgen dat de AutoExpand vlag aanstaat!
- De HDD's 1 voor 1 vervangen!
- En dan de boel laten expanden :)

Verder moet je inderdaad echt even goed lezen over hetgene dat je aan het doen bent, want één foutje en je zit gelijk in de shit met dit soort dingen!

Ga daarom eens even flink lezen in Het grote ZFS topic hoe het WEL moet en wat de beste manier is om dit soort dingen veilig uit te voeren ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 13-06 11:31
nero355 schreef op zaterdag 12 juni 2021 @ 16:40:
[...]

Ik weet niet hoeveel je aan de data bent gehecht, maar ik zou het volgende doen :

- Ervoor zorgen dat de AutoExpand vlag aanstaat!
- De HDD's 1 voor 1 vervangen!
- En dan de boel laten expanden :)

Verder moet je inderdaad echt even goed lezen over hetgene dat je aan het doen bent, want één foutje en je zit gelijk in de shit met dit soort dingen!

Ga daarom eens even flink lezen in Het grote ZFS topic hoe het WEL moet en wat de beste manier is om dit soort dingen veilig uit te voeren ;)
- Auto Expand had ik al aan staan
- 1 voor 1 kan (zal wat langer duren met 10 disks en dan steeds rebuilden ^^)
- Zou meer irritant zijn als ik de data zou verliezen :o :9
- Heb apparte RAID1 Zfs pool voor backups.

Acties:
  • 0 Henk 'm!
Een stukje een crosspost maar een specifieke ZFS vraag:
Hoe komt dat na een resilver er na een scrub toch nog wat cksum errors achterblijven? Mijn ervaring was altijd "na een resilver doe ik altijd nog eens een scrub want doorgaans komen er nog een aantal achterblijvertjes qua fouten uit".
HyperBart schreef op dinsdag 8 juni 2021 @ 09:47:
Vandaag kreeg ik een berichtje van mijn server dat disk nummer 2 naar FAULTED is gegaan binnen mijn ZFS Pool met 1 RAIDZ2 VDEV.

Ik kan zelf niet inschatten hoe ernstige de fout is, wie kan even mee beoordelen. Er gaat voor de rest niks mis met sectors, het lijkt mij op het eerste zicht een communicatiefout tussen disk en controller, waarbij de diskmechanica en logica goed werkt maar er iets mis loopt bij het aanleveren/communiceren van de data.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0004   128   128   054    Old_age   Offline      -       108
  3 Spin_Up_Time            0x0007   180   180   024    Pre-fail  Always       -       319 (Average 411)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       131
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000a   100   100   067    Old_age   Always       -       0
  8 Seek_Time_Performance   0x0004   140   140   020    Old_age   Offline      -       15
  9 Power_On_Hours          0x0012   100   100   000    Old_age   Always       -       4214
 10 Spin_Retry_Count        0x0012   100   100   060    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       32
 22 Unknown_Attribute       0x0023   100   100   025    Pre-fail  Always       -       100
192 Power-Off_Retract_Count 0x0032   097   097   000    Old_age   Always       -       4442
193 Load_Cycle_Count        0x0012   097   097   000    Old_age   Always       -       4442
194 Temperature_Celsius     0x0002   185   185   000    Old_age   Always       -       35 (Min/Max 22/53)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       1

SMART Error Log Version: 1
ATA Error Count: 1
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 1 occurred at disk power-on lifetime: 4205 hours (175 days + 5 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  84 43 00 00 00 00 00  Error: ICRC, ABRT at LBA = 0x00000000 = 0

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  61 00 90 18 9c a3 40 08  32d+04:03:38.908  WRITE FPDMA QUEUED
  61 40 88 58 9f a3 40 08  32d+04:03:38.907  WRITE FPDMA QUEUED
  61 40 e0 18 9f a3 40 08  32d+04:03:38.907  WRITE FPDMA QUEUED
  61 40 78 d8 9b a3 40 08  32d+04:03:38.906  WRITE FPDMA QUEUED
  61 40 d8 98 9b a3 40 08  32d+04:03:38.906  WRITE FPDMA QUEUED




Aangezien ZFS O+ heb ik nu gewoon even de pool gecleared (=de fouten clearen, dus de pool terug op orde stellen en aangeven dat de disk terug mag mee doen), dan doet de disk hopelijk toch al terug (een tijdje mee, tenzij er wat ernstigers aan de hand is maar dan zal de disk ongetwijfeld er weer uit knikkeren.


root@nas:~# zpool clear poolnaam
scan: resilvered 493M in 0 days 00:00:05 with 0 errors on Tue Jun  8 10:11:36 2021
EDIT:

@Thralas ik zag nu ook dat een deel van mijn zpool status'en niet mee gekomen was, bij deze nog even.

Op 08/06 12.37AM werd ik verwittigd door ZED en smartd:
code:
1
2
3
4
5
6
7
8
9
10
11
12
The number of I/O errors associated with a ZFS device exceeded
acceptable levels. ZFS has marked the device as faulted.

 impact: Fault tolerance of the pool may be compromised.
    eid: 48
  class: statechange
  state: FAULTED
   host: nas
   time: 2021-06-08 00:37:29+0200
  vpath: /dev/disk/by-partlabel/disk-2-SERIENUMMER
  vguid: 0x650479A064440F15
   pool: 0x4CB3559B6DED0CAF


Om 1:03 AM:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
This message was generated by the smartd daemon running on:

   host name:  nas
   DNS domain: [Empty]

The following warning/error was logged by the smartd daemon:

Device: /dev/sdh [SAT], ATA error count increased from 0 to 1

Device info:
WDC WD120EDAZ-11F3RA0, S/N:serienummer, WWN:5-000cca-291e211da, FW:81.00A81, 12.0 TB

For details see host's SYSLOG.

You can also use the smartctl utility for further investigation.
Another message will be sent in 24 hours if the problem persists.


Die ochtend dan even een zpool status gedaan en die gaf aan dat op disk 2 er 15 write errors waren (dus geen cksum) waardoor het device in de vdev als faulted gemarkeerd werd, bijgevolg een degraded vdev en dus een degraded pool.

Na een "zpool clear poolnaam" begon er automatisch een resilver die voltooide met volgende output:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
ZFS has finished a resilver:

   eid: 56
 class: resilver_finish
  host: nas
  time: 2021-06-08 10:11:36+0200
  pool: poolnaam
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
 still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
 the pool may no longer be accessible by software that does not support
 the features. See zpool-features(5) for details.
  scan: resilvered 493M in 0 days 00:00:05 with 0 errors on Tue Jun  8 10:11:36 2021


Verder geen fouten, cksum errors of wat dan ook op dat moment. Scrub gestart.

Op woensdag 9 juni kreeg ik opnieuw een melding, richting het einde van de scrub:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
The number of checksum errors associated with a ZFS device
exceeded acceptable levels. ZFS has marked the device as
degraded.

 impact: Fault tolerance of the pool may be compromised.
    eid: 82
  class: statechange
  state: DEGRADED
   host: nas
   time: 2021-06-09 05:46:39+0200
  vpath: /dev/disk/by-partlabel/disk-2-serienummer
  vguid: 0x650479A064440F15
   pool: 0x4CB3559B6DED0CAF


Hierna opnieuw een clear gedaan, opnieuw een scrub en toen kwam alles met 0 fouten terug.


zpool history:
code:
1
2
3
4
5
6
7
8
9
10
11
12
2021-05-03.02:00:38 zpool scrub poolnaam
2021-05-10.02:00:39 zpool scrub poolnaam
2021-05-17.02:00:38 zpool scrub poolnaam
2021-05-24.02:00:33 zpool scrub poolnaam
2021-05-31.02:00:35 zpool scrub poolnaam
2021-06-07.02:00:36 zpool scrub poolnaam
2021-06-08.10:11:36 zpool clear poolnaam
2021-06-08.11:48:34 zpool scrub poolnaam
2021-06-08.14:51:53 zpool upgrade poolnaam
2021-06-09.08:58:38 zpool clear poolnaam
2021-06-09.08:59:16 zpool scrub poolnaam
2021-06-14.02:00:38 zpool scrub poolnaam


Kernel log ten tijde van fouten:

[Jun 8 00:36] ata6.00: exception Emask 0x10 SAct 0x10060000 SErr 0x400100 action 0x6 frozen
[  +0.000010] ata6.00: irq_stat 0x08000000, interface fatal error
[  +0.000002] ata6: SError: { UnrecovData Handshk }
[  +0.000002] ata6.00: failed command: WRITE FPDMA QUEUED
[  +0.000003] ata6.00: cmd 61/40:88:58:9f:a3/00:00:f0:00:00/40 tag 17 ncq dma 32768 out
                       res 40/00:00:18:9c:a3/00:00:f0:00:00/40 Emask 0x10 (ATA bus error)
[  +0.000002] ata6.00: status: { DRDY }
[  +0.000002] ata6.00: failed command: WRITE FPDMA QUEUED
[  +0.000002] ata6.00: cmd 61/00:90:18:9c:a3/03:00:f0:00:00/40 tag 18 ncq dma 393216 out
                       res 40/00:00:18:9c:a3/00:00:f0:00:00/40 Emask 0x10 (ATA bus error)
[  +0.000002] ata6.00: status: { DRDY }
[  +0.000002] ata6.00: failed command: WRITE FPDMA QUEUED
[  +0.000002] ata6.00: cmd 61/40:e0:18:9f:a3/00:00:f0:00:00/40 tag 28 ncq dma 32768 out
                       res 40/00:00:18:9c:a3/00:00:f0:00:00/40 Emask 0x10 (ATA bus error)
[  +0.000002] ata6.00: status: { DRDY }
[  +0.000003] ata6: hard resetting link
[  +0.313400] ata6: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
[  +0.000449] ata6.00: supports DRM functions and may not be fully accessible
[  +0.111403] ata6.00: supports DRM functions and may not be fully accessible
[  +0.008142] ata6.00: configured for UDMA/133
[  +0.000010] sd 6:0:0:0: [sdh] tag#17 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[  +0.000001] sd 6:0:0:0: [sdh] tag#17 Sense Key : Illegal Request [current]
[  +0.000001] sd 6:0:0:0: [sdh] tag#17 Add. Sense: Unaligned write command
[  +0.000002] sd 6:0:0:0: [sdh] tag#17 CDB: Write(16) 8a 00 00 00 00 00 f0 a3 9f 58 00 00 00 40 00 00
[  +0.000001] blk_update_request: I/O error, dev sdh, sector 4037255000 op 0x1:(WRITE) flags 0x700 phys_seg 8 prio class 0
[  +0.000007] zio pool=poolnaam vdev=/dev/disk/by-partlabel/disk-2-serienummer error=5 type=2 offset=2067071414272 size=32768 flags=180880
[  +0.000009] sd 6:0:0:0: [sdh] tag#18 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[  +0.000001] sd 6:0:0:0: [sdh] tag#18 Sense Key : Illegal Request [current]
[  +0.000001] sd 6:0:0:0: [sdh] tag#18 Add. Sense: Unaligned write command
[  +0.000001] sd 6:0:0:0: [sdh] tag#18 CDB: Write(16) 8a 00 00 00 00 00 f0 a3 9c 18 00 00 03 00 00 00
[  +0.000001] blk_update_request: I/O error, dev sdh, sector 4037254168 op 0x1:(WRITE) flags 0x700 phys_seg 6 prio class 0
[  +0.000003] zio pool=poolnaam vdev=/dev/disk/by-partlabel/disk-2-serienummer error=5 type=2 offset=2067070988288 size=393216 flags=40080c80
[  +0.000004] sd 6:0:0:0: [sdh] tag#28 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[  +0.000000] sd 6:0:0:0: [sdh] tag#28 Sense Key : Illegal Request [current]
[  +0.000001] sd 6:0:0:0: [sdh] tag#28 Add. Sense: Unaligned write command
[  +0.000001] sd 6:0:0:0: [sdh] tag#28 CDB: Write(16) 8a 00 00 00 00 00 f0 a3 9f 18 00 00 00 40 00 00
[  +0.000001] blk_update_request: I/O error, dev sdh, sector 4037254936 op 0x1:(WRITE) flags 0x700 phys_seg 8 prio class 0
[  +0.000002] zio pool=poolnaam vdev=/dev/disk/by-partlabel/disk-2-serienummer error=5 type=2 offset=2067071381504 size=32768 flags=180880
[  +0.000004] ata6: EH complete
Thralas schreef op maandag 14 juni 2021 @ 19:42:
[...]


De meest voordehandliggende uitleg is dat er nog steeds iets loos is. Wat heb je geresilvered en hoe?
Nou ja :+ Wat? Dat laat ik aan ZFS over. Ik heb de pool gecleared en de resilver trapte automatisch af (ik ga er van uit door ZED).
Wat voor disks zijn het, en hoe zijn de aangesloten?
Het zijn WDC WD120EDAZ-11F3RA0 schijven.
Ze zijn aangesloten via de onboard controller en een LSI 2008 (zijnde een M1015 in IT mode), in een verdeling 4 op LSI en 2 op onboard. De disk die bokte zat op de onboard van mijn Fujitsu D3644-B bordje. (zie inventaris NAS refreshed).
Verder laat je enkel SMART zien, maar je zou al argwaan moeten krijgen van die log: een checksum error op LBA 0 lijkt me wel erg toevallig. Wat zeggen de kernel logs ten tijde van die error en de overige checksum errors?
Ik heb de kernel logs er even bij geplakt.
[...]


Je moet er in ieder geval geen bijgeloof van maken; een full resilver raakt meestal al bijna alle (gebruikte) disk area. In geval van jouw Z2 zal hij sowieso N-2 disks aan diskruimte raken. Alles behalve de faulted disk zou je er bovendien al met reguliere scrubs uit moeten pikken.

Bij een full resilver van een simpele mirror of Z1 zou het in geen geval meerwaarde moeten voor zover ik kan beredeneren.

[ Voor 69% gewijzigd door HyperBart op 14-06-2021 23:54 ]


Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 08:32
HyperBart schreef op maandag 14 juni 2021 @ 15:01:
Een stukje een crosspost maar een specifieke ZFS vraag:
Hoe komt dat na een resilver er na een scrub toch nog wat cksum errors achterblijven?
De meest voordehandliggende uitleg is dat er nog steeds iets loos is. Wat heb je geresilvered en hoe? Wat voor disks zijn het, en hoe zijn de aangesloten?

Verder laat je enkel SMART zien, maar je zou al argwaan moeten krijgen van die log: een checksum error op LBA 0 lijkt me wel erg toevallig. Wat zeggen de kernel logs ten tijde van die error en de overige checksum errors?
Mijn ervaring was altijd "na een resilver doe ik altijd nog eens een scrub want doorgaans komen er nog een aantal achterblijvertjes qua fouten uit".
Je moet er in ieder geval geen bijgeloof van maken; een full resilver raakt meestal al bijna alle (gebruikte) disk area. In geval van jouw Z2 zal hij sowieso N-2 disks aan diskruimte raken. Alles behalve de faulted disk zou je er bovendien al met reguliere scrubs uit moeten pikken.

Bij een full resilver van een simpele mirror of Z1 zou het in geen geval meerwaarde moeten voor zover ik kan beredeneren.

Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 08:32
HyperBart schreef op maandag 14 juni 2021 @ 15:01:
De disk die bokte zat op de onboard van mijn Fujitsu D3644-B bordje. (zie inventaris NAS refreshed).
Kijk, met de kernel log komt de aap uit de mouw. Er treedt een bus error op bij een write, dat triggert een link reset. Vervolgens falen er nog een boel writes (lijken me queued writes ivm. NCQ). Kennelijk genoeg om je disk als faulted te markeren.

Door voor de koelkast: hoe kan het dat writes falen, dat is atypisch gedrag voor een (vermeend) falende disk?

Antwoord: het ligt niet aan je disks, maar je SATA link is instabiel. De gefaalde writes zijn slechts een symptoom. De vorige twee keer (zie onder) kwam dat door power saving-opties die (al dan niet handmatig) zijn aangezet.

Ik ga all-in. Zet ATA LPM eens uit, dat was de vorige twee keer ook het probleem.

Het is me alleen niet duidelijk in hoeverre die link crc error dezelfde oorzaak heeft, gezien de vreemde LBA lijkt me dat ook niet uitgesloten.

vanaalten in "Het grote ZFS topic"
CurlyMo in "Het grote zuinige server topic - deel 2"

Acties:
  • 0 Henk 'm!
Thralas schreef op dinsdag 15 juni 2021 @ 00:31:
[...]


Kijk, met de kernel log komt de aap uit de mouw. Er treedt een bus error op bij een write, dat triggert een link reset. Vervolgens falen er nog een boel writes (lijken me queued writes ivm. NCQ). Kennelijk genoeg om je disk als faulted te markeren.

Door voor de koelkast: hoe kan het dat writes falen, dat is atypisch gedrag voor een (vermeend) falende disk?

Antwoord: het ligt niet aan je disks, maar je SATA link is instabiel. De gefaalde writes zijn slechts een symptoom. De vorige twee keer (zie onder) kwam dat door power saving-opties die (al dan niet handmatig) zijn aangezet.

Ik ga all-in. Zet ATA LPM eens uit, dat was de vorige twee keer ook het probleem.

Het is me alleen niet duidelijk in hoeverre die link crc error dezelfde oorzaak heeft, gezien de vreemde LBA lijkt me dat ook niet uitgesloten.

vanaalten in "Het grote ZFS topic"
CurlyMo in "Het grote zuinige server topic - deel 2"
Ik heb nooit een powertop uitgevoerd en ik heb net even gecontroleerd en een

cat /sys/class/scsi_host/host*/link_power_management_policy

gedaan en die kwam 6 keer terug met max_performance.

Acties:
  • +1 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 08:32
Ai. Dat is wel erg vreemd dan.

Dan kom ik ook niet verder dan een kabeltje (uit)wisselen of wisselen tussen de LSI en onboard, voor zover mogelijk. Of de andere suggestie uit de gelinkte topics: SATA link speed limiteren om te kijken of de link dan wel stabiel blijkt.

Acties:
  • +3 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 10:04

player-x

Disruptive by design

*O* Eindelijk !!!! *O*

ArsTechnica: ZFS fans, rejoice—RAIDz expansion will be a thing very soon
Founding OpenZFS dev Matthew Ahrens opened a pull request last week.
OpenZFS founding developer Matthew Ahrens opened a PR for one of the most sought-after features in ZFS history—RAIDz expansion—last week. The new feature allows a ZFS user to expand the size of a single RAIDz vdev. For example, you can use the new feature to turn a three-disk RAIDz1 into a four, five, or six RAIDz1.
Dit is een functie die ik zo miste van de hardware raid kaarten

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • +2 Henk 'm!
player-x schreef op woensdag 16 juni 2021 @ 17:17:
*O* Eindelijk !!!! *O*

ArsTechnica: ZFS fans, rejoice—RAIDz expansion will be a thing very soon


[...]


Dit is een functie die ik zo miste van de hardware raid kaarten
Yes, best een leuke.

Aandachtspuntje: bestaande datablocks en hun pariteit worden niet volgens het nieuwe aantal disks verspreid. Dat wil dus zeggen dat als je een RAIDZ2 had van 5 disks en je breidt uit met 2 disks de blocks A B C P1 en P2 op die 5 disks stond herverdeeld worden maar niet herberekend worden volgens het nieuwe aantal disks.

Het blijft dus A B C P1 P2 waarbij een of twee blocks op de nieuwe disks terechtkomen om alles capaciteitsgewijs in balans te houden maar het is NIET zo dat hij gaat inlezen en er A B C D E P1 P2 van gaat maken oid. Je oude "pariteitsratio'" wordt dus behouden tenzij er wat wijzigt aan de files natuurlijk.

Why not reshape records/blocks during expansion?

It might seem odd that the initial expansion process doesn't rewrite all existing blocks to the new width while it's running—after all, it's reading and re-writing the data anyway, right? We asked Ahrens why the original width was left as-is, and the answer boils down to "it's easier and safer that way."

One key factor to recognize is that technically, the expansion isn't moving blocks; it's just moving sectors. The way it's written, the expansion code doesn't need to know where ZFS' logical block boundaries are—the expansion routine has no idea whether an individual sector is parity or data, let alone which block it belongs to.

Expansion could traverse all the block pointers to locate block boundaries, and then it would know which sector belongs to what block and how to re-shape the block, but according to Ahrens, doing things that way would be extremely invasive to ZFS' on-disk format. The expansion would need to continually update spacemaps on metaslabs to account for changes in the on-disk size of each block—and if the block is part of a dataset rather than a zvol, update the per-dataset and per-file space accounting as well.

If it really makes your teeth itch knowing you have four-wide stripes on a freshly five-wide vdev, you can just read and re-write your data yourself after expansion completes. The simplest way to do this is to use zfs snapshot, zfs send, and zfs receive to replicate entire datasets and zvols. If you're not worried about ZFS properties, a simple mv operation will do the trick.

However, we'd recommend in most cases just relaxing and letting ZFS do its thing. Your undersized blocks from older data aren't really hurting anything, and as you naturally delete and/or alter data over the life of the vdev, most of them will get re-written naturally as necessary, without the need for admin intervention or long periods of high storage load due to obsessively reading and re-writing everything all at once.

[ Voor 63% gewijzigd door HyperBart op 17-06-2021 12:12 ]


Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Vraag: ik heb een dedicated server met een 2x3TB backup disks in een mirrored pool. Ik draai op diezelfde machine verschillende VMs. Vraag is of het verstandig is om in de VMs ook ZFS te draaien. Reden zou zijn dat ik dan ZFS-toZFS backups (encrypted at rest, zfs send/recv) kan draaien naar de backup pool en bijv. snapshotting kan gebruiken. Ook is de complexiteit lager als ik overal ZFS kan gebruiken (ipv op sommige systemen weer LVM).

Is het een goed idee om ZFS binnen een VM te draaaien (2x CoW een probleem)? Of toch beter om iets als LVM te gebruiken en naar iets als Borg te kijken voor bijv. encrypted backups?

[ Voor 3% gewijzigd door mdbraber op 19-06-2021 16:36 ]


Acties:
  • 0 Henk 'm!
mdbraber schreef op zaterdag 19 juni 2021 @ 16:35:
Vraag: ik heb een dedicated server met een 2x3TB backup disks in een mirrored pool. Ik draai op diezelfde machine verschillende VMs. Vraag is of het verstandig is om in de VMs ook ZFS te draaien. Reden zou zijn dat ik dan ZFS-toZFS backups (encrypted at rest, zfs send/recv) kan draaien naar de backup pool en bijv. snapshotting kan gebruiken. Ook is de complexiteit lager als ik overal ZFS kan gebruiken (ipv op sommige systemen weer LVM).

Is het een goed idee om ZFS binnen een VM te draaaien (2x CoW een probleem)? Of toch beter om iets als LVM te gebruiken en naar iets als Borg te kijken voor bijv. encrypted backups?
Performance is natuurlijk lager, maar ik zou me er niet druk om maken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
@mdbraber
Je kan ook ZFS ZVOL's gebruiken, en die direct als disk aan een VM hangen? Dan kan je de disk lokaal snapshotten, dan heb je op het host systeem een ZFS kopie die je kan send-en-recieven.

Of ging het je juist om het makkelijk kunnen mounten van je backups (snapshots)? Want dat is met een zvol wat lastiger natuurlijk.

Maar wat @CurlyMo ook zegt, ZFS op ZFS is qua performance wat onverstandig misschien, maar voor de rest boeit het weinig.

Even niets...


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Ik zit even mezelf weer in te lezen in ZFS, maar eerst even een situatieschetsje:
  pool: data
 state: ONLINE
  scan: scrub repaired 0B in 10:06:57 with 0 errors on Sun Jun 13 10:30:59 2021
config:

        NAME        STATE     READ WRITE CKSUM
        data        ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
          raidz1-1  ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdi     ONLINE       0     0     0
            sdg     ONLINE       0     0     0

errors: No known data errors
Dit is mijn huidige pool. Vier van deze disks zijn 2TB groot, de andere 4 zijn 4TB groot. De disks van 2TB wil ik allemaal gaan vervangen voor v van 14TB groot. Dit zijn nog te shucken WD Elements, maar ik wil eerst even weten hoe ik de beoogde migratie het beste kan aanpakken. Is er een manier waarop ik (nu weet ik even niet exact welke raidz1 pool ik moet hebben) een van deze pools kan migreren naar de nieuw aan te maken?

Kan ik dit het beste aanpakken door een snapshot te maken en die over te zetten naar de nieuwe pool? Dus eerst met zfs snapshot -r data@moving en daarna zfs send -R sourcepool@moving | zfs receive -F [nieuwepool]? Of kan dat niet, omdat ik maar 1 data pool heb?

Of zijn de raidz1-0 en raidz1-1 de pools? Het is voor mij even geleden wat ook alweer precies een pool is. :+

[ Voor 5% gewijzigd door CH4OS op 08-07-2021 19:41 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
CH4OS schreef op donderdag 8 juli 2021 @ 19:37:
Ik zit even mezelf weer in te lezen in ZFS, maar eerst even een situatieschetsje:
  pool: data
 state: ONLINE
  scan: scrub repaired 0B in 10:06:57 with 0 errors on Sun Jun 13 10:30:59 2021
config:

        NAME        STATE     READ WRITE CKSUM
        data        ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
          raidz1-1  ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdi     ONLINE       0     0     0
            sdg     ONLINE       0     0     0

errors: No known data errors
Dit is mijn huidige pool. Vier van deze disks zijn 2TB groot, de andere 4 zijn 4TB groot. De disks van 2TB wil ik allemaal gaan vervangen voor v van 14TB groot. Dit zijn nog te shucken WD Elements, maar ik wil eerst even weten hoe ik de beoogde migratie het beste kan aanpakken. Is er een manier waarop ik (nu weet ik even niet exact welke raidz1 pool ik moet hebben) een van deze pools kan migreren naar de nieuw aan te maken?

Kan ik dit het beste aanpakken door een snapshot te maken en die over te zetten naar de nieuwe pool? Dus eerst met zfs snapshot -r data@moving en daarna zfs send -R sourcepool@moving | zfs receive -F [nieuwepool]? Of kan dat niet, omdat ik maar 1 data pool heb?

Of zijn de raidz1-0 en raidz1-1 de pools? Het is voor mij even geleden wat ook alweer precies een pool is. :+
Ik ben ook niet echt van de terminologie, maar wat ik er uit op maak is dat je één pool hebt, genaamd data. Deze pool bestaat vervolgens uit 2 vdevs met uhm "virtuele" schijven, zijnde raidz1-0 en raidz1-1, echter durf ik niet te zeggen of deze "gekoppeld" zijn via mirroring (beide slaan hetzelfde op) of striping (data wordt gedeeld). En deze beide vdevs bestaan dan weer uit andere vdeva bestaande de fysieke schijven (sd*).

V.w.b. migratie naar een nieuwe pool. Ja, je zou dan een snapshot kunnen maken en met send & receive over zetten. Waarbij je on principe de keuze hebt of je alleen dat ene snapshot over zet of ook alle eventueel tussenliggende snapshots. Maar daar zou je met de manual uit moeten kunnen komen (en kan ook niet heel veel mis mee gaan, behalve naar de verkeerde pool schrijven).

Acties:
  • 0 Henk 'm!
@CH4OS Wat wil je precies? Daadwerkelijk een hele nieuwe pool maken of de huidige pool groter maken door de 2TB's te vervangen door 14TB's?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

CurlyMo schreef op donderdag 8 juli 2021 @ 20:08:
@CH4OS Wat wil je precies? Daadwerkelijk een hele nieuwe pool maken of de huidige pool groter maken door de 2TB's te vervangen door 14TB's?
Ik heb momenteel in 1 pool: 4x2TB + 4x4TB. De 4x2TB wil ik vervangen voor de 4x14TB. De 4x14TB wil ik dus in dezelfde pool hebben, uiteindelijk. Lijkt me dat ik eerst de data moet overzetten en daarna de pool pas kan uitbreiden?

Bedankt voor de hulp zover, ook van @RobertMe! :Y

[ Voor 22% gewijzigd door CH4OS op 08-07-2021 20:14 ]


Acties:
  • +2 Henk 'm!
CH4OS schreef op donderdag 8 juli 2021 @ 20:12:
[...]

Ik heb momenteel in 1 pool: 4x2TB + 4x4TB. De 4x2TB wil ik vervangen voor de 4x14TB. De 4x14TB wil ik dus in dezelfde pool hebben, uiteindelijk. Lijkt me dat ik eerst de data moet overzetten en daarna de pool pas kan uitbreiden?
Enige wat je dan moet doen is een zfs replace data [oude disk] [nieuwe disk] voor alle 4 de schijven stuk voor stuk. Dat kost dus wat tijd omdat je tussendoor telkens moet wachten op de resilver. Zorg ook dat je autoexpand aan hebt staan.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

CurlyMo schreef op donderdag 8 juli 2021 @ 20:15:
[...]

Enige wat je dan moet doen is een zfs replace data [oude disk] [nieuwe disk] voor alle 4 de schijven stuk voor stuk. Dat kost dus wat tijd omdat je tussendoor telkens moet wachten op de resilver. Zorg ook dat je autoexpand aan hebt staan.
Dank voor de tip. Ik heb nu in elk geval autoexpand op on gezet. Dan kan ik nu met een gerust hart shucken. Dat het wat meer tijd kost vind ik niet erg.

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
CH4OS schreef op donderdag 8 juli 2021 @ 20:12:
Bedankt voor de hulp zover, ook van @RobertMe! :Y
Mijn aanname was dus dat je een nieuwe pool wou maken, vervolgens de oude schijven eruit trekken, en klaar (/nieuwe pool renamen naar oude naam). Als je alleen de 4x2TB wilt vervangen door 4x14TB onder dezelfde pool en dan dus de 4x4TB behouden dan moet je zoals @CurlyMo al aangeeft inderdaad de schijven een voor een zfs replacen

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Mooiste was idd nieuwe pool maken, data overzetten, oude disks formateren, 4x 4TB toevoegen aan de nieuwe pool, maar ik heb helaas maar 8 sata poorten beschikbaar in mijn VM die ZFS draait (omdat alle disks op mijn IBM M1015 controller aangesloten zitten). Kan dan wel een andere controller halen of een controller van het moederbord met passthrough ook door spelen en dan duimen dat die de schijven wel ziet, maar is me wat teveel gedoe.

De optie van @CurlyMo lijkt me dan het beste, dat kan ik ook nog eens gewoon doen terwijl die 8 (4x 2TB + 4x 14TB reeds aangesloten zijn).

[ Voor 14% gewijzigd door CH4OS op 08-07-2021 20:23 ]


Acties:
  • +1 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
@CH4OS: je disks zijn geïmporteerd als /dev/sdX. Die device namen kunnen na een reboot wijzigen. Beter is om te importeren via device namen die niet wijzigen:

zpool import -d /dev/disk/by-partlabel/... (of by-id, of by-partuuid)

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

willemw12 schreef op donderdag 8 juli 2021 @ 21:54:
@CH4OS: je disks zijn geïmporteerd als /dev/sdX. Die device namen kunnen na een reboot wijzigen. Beter is om te importeren via device namen die niet wijzigingen:

zpool import -d /dev/disk/by-partlabel/... (of by-id, of by-partuuid)
Hoe maakt dat voor de ZFS pool uit? :?

Acties:
  • 0 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
Voor de ZFS pool maakt het niets uit. De kans is misschien klein maar het automatisch importeren van de pool na een reboot kan falen.

Acties:
  • +1 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 08:32
willemw12 schreef op vrijdag 9 juli 2021 @ 06:24:
Voor de ZFS pool maakt het niets uit. De kans is misschien klein maar het automatisch importeren van de pool na een reboot kan falen.
Volgens mij is dat al lang geleden een stuk robuuster gemaakt.

Acties:
  • 0 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
@Thralas: Wist ik niet. Goed om te weten.

Stel de sdX namen/IDs wijzigen. Gaat ZFS dan via /dev/disk/by-partuuid of by-id proberen te importeren?

Acties:
  • 0 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
Denk van niet. Volgens mij betekenen die verbetering alleen dat die /dev/disk/ paden gecached kunnen worden (voor automatisch en handmatig import en dat je niet de -d optie in "zfs import" steeds hoeft te herhalen).

Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 08:32
Je hebt inderdaad toch gelijk, als je zpool.cache bekijkt staat daar ook echt niet meer dan het laatst bekende path (dus /dev/sd* als de pool zo geimporteerd is).

Acties:
  • 0 Henk 'm!

  • Nopel
  • Registratie: Februari 2009
  • Laatst online: 20-06 13:59
CH4OS schreef op donderdag 8 juli 2021 @ 19:37:
Dit is mijn huidige pool. Vier van deze disks zijn 2TB groot, de andere 4 zijn 4TB groot. De disks van 2TB wil ik allemaal gaan vervangen voor v van 14TB groot. Dit zijn nog te shucken WD Elements, maar ik wil eerst even weten hoe ik de beoogde migratie het beste kan aanpakken. Is er een manier waarop ik (nu weet ik even niet exact welke raidz1 pool ik moet hebben) een van deze pools kan migreren naar de nieuw aan te maken?
Ik hoop dat je gechecked hebt dat je WD Elements geen SMR drives zijn, want als je daarmee ooit 14TB moet resilveren komt dat nooit goed. En zelfs met PMR drives wordt afgeraden om nog raidz1 te gebruiken met zulke grote schijven, gebruik als het kan minstens raidz2.

Als je het toch op deze manier doet, dan is het commando zpool replace, niet zfs replace.

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

@Nopel Waren SMR drives niet enkel voor de 4-8TB disks van WD? Raidz2 kost mij ook teveel ruimte aan pariteit, dat ik er eigenlijk niet voor over heb. Ook is de bestaande pool raidz1.

Edit: WD gebruikte SMR voor 2-6TB disks, daarboven nooit.

[ Voor 14% gewijzigd door CH4OS op 10-07-2021 21:25 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Nopel schreef op zaterdag 10 juli 2021 @ 20:43:
[...]


Ik hoop dat je gechecked hebt dat je WD Elements geen SMR drives zijn, want als je daarmee ooit 14TB moet resilveren komt dat nooit goed. En zelfs met PMR drives wordt afgeraden om nog raidz1 te gebruiken met zulke grote schijven, gebruik als het kan minstens raidz2.

Als je het toch op deze manier doet, dan is het commando zpool replace, niet zfs replace.
Door wie wordt afgeraden om raidz1 te gebruiken met grote schijven, en waarom? Ik ben vooral benieuwd naar redenen die empirisch nog hout snijden.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
dcm360 schreef op zaterdag 10 juli 2021 @ 21:52:
[...]

Door wie wordt afgeraden om raidz1 te gebruiken met grote schijven, en waarom? Ik ben vooral benieuwd naar redenen die empirisch nog hout snijden.
Ben absoluut geen kenner, maar vast iets met kans op read errors tijdens de resilver? Maar ik vermoed dat dat bij ZFS weer een stuk minder aan de orde is dan bij "standaard" RAID 5. Omdat bij die laatste de kans groter is dat een schijf eruit gegooid wordt bij fouten, waar ZFS meestal wel verder ploetert als even wat mis zou gaan.

Acties:
  • +1 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
RAID-5 (RAID-Z1), waarin maar 1 disk mag falen, wordt met grotere disks al ongeveer 10 jaar lang door iedereen afgeraden sinds die disks beschikbaar zijn.

Waarom? Een resilver/rebuild van de pool met grotere disks duurt zolang, dat de kans dat nog een disk faalt tijdens de resilver statistisch niet meer insignificant is. Wanneer een tweede disk faalt, dan ben je al je data in die pool kwijt.

Een van de aller grootste problemen met SMR disks in een RAID is dat een resilver nog vele malen langer duurt dan met normale PMR disks. (ZFS is (nog) niet "SMR aware".)


ZFS "ploetert" niet door :). Bij ZFS krijgt je correcte data of geen data.

Bij een fout op een disk weet ZFS op welke disk de fout is en heeft daardoor de mogelijkheid om de juiste disk te corrigeren. Ben geen expert maar bij andere "standaard" hardware/software RAIDs, weet de software dat er een (parity) fout is maar weet niet op welke disk de fout is.

Acties:
  • +1 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 10:22
willemw12 schreef op zondag 11 juli 2021 @ 07:26:
Waarom? Een resilver/rebuild van de pool met grotere disks duurt zolang, dat de kans dat nog een disk faalt tijdens de resilver statisch niet meer insignificant is.
Het is niet alleen de duur. Immers, je zou kunnen denken 'wat is de kans dat in dezelfde 2 weken 2 disks doodgaan'. Toch is die kans significant omdat tijdens zo'n resilver je disks langere tijd continue voor ~100% benut worden.

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
Dat is een van de redenen waarom ik denk dat RAID in mirrors voor veel thuisgebruikers beter is dan parity RAID (RAID-5, RAID-6, ...). Een resilver van mirrors gaat sneller en misschien ook met minder disk header seeking (bewegingen).

Eigenlijk is voor een SMR disk een resilver een van de best use cases, n.l. sequentiële writes. Ik dacht het probleem was dat de write speeds van SMR disks meer onvoorspelbaar is dan die van normale PMR disks. Write speed van een SMR disk gaat plotseling omlaag wanneer de buffer vol is en ZFS denkt dan dat de disk defect is vanwege timeouts en zet de disk status vervolgens op "degraded".

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 09:18
Volgens mij draait ZFS juist meestal fijn verder als schijven moeilijk doen en krijg je dan hoogstens fouten in blokken, maar zal die niet snel zomaar een hele schijf eruit gooien. Het eruit gooien van schijven is iets dat ik als leek juist begrepen heb dat de hardware oplossingen doen. Echter moet je bij ZFS uiteraard wel hopen dat die corrupte blokken niet in de metadata zitten, want dan heb je natuurlijk alsnog een enorm probleem.

En v.w.b. SMR. Recentere ZFS versies hebben meerdere keren wijzigingen gekregen om meer sequentieel te doen, eerst scrub, daarna resilver. Dus de enorme performance issues die SMR geeft bij / door random writes zou dan veel minder op moeten treden.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

willemw12 schreef op zondag 11 juli 2021 @ 07:26:
RAID-5 (RAID-Z1), waarin maar 1 disk mag falen, wordt met grotere disks al ongeveer 10 jaar lang door iedereen afgeraden sinds die disks beschikbaar zijn.

Waarom? Een resilver/rebuild van de pool met grotere disks duurt zolang, dat de kans dat nog een disk faalt tijdens de resilver statistisch niet meer insignificant is. Wanneer een tweede disk faalt, dan ben je al je data in die pool kwijt.
Waar het dus naar mijn idee fout gaat, is dat het al 10 jaar gezegd wordt, maar dat het niet lukt om hard te maken waarom. De kans op falen zou dus niet meer statistisch insignificant moeten zijn, maar ik zie er geen onderbouwing voor. Er wordt hier en daar gewezen naar de URE, maar die waarde lijkt statistisch gezien dan weer geen hout te snijden (ik en vele andere met pools die regelmatig gescubbed worden zouden ze anders regelmatig moeten zien).

De duur van een resilver is iets waar ik mij ook geen zorgen over maak. Een scrub van mijn voor 27% gevulde pool met 3 schijven van 14TB duurt 5.5 uur. Zelfs als ik die meer vol schrijf, verwacht ik geen resilver in ordegrootte weken, maar ordegrootte dagen (hooguit 2, eerder 1).

Hetzelfde vertrouwen heb ik dan weer niet in een andere pool met 3 8TB SMR-schijven. De snelheid van een scrub is wel oké, maar gaat zelden de eerste poging foutloos. Binnen een maand na aanschaf had ik al wel door dat op die schijven geen belangrijke data moest komen (en staan er dus alleen lokale backups op).

Acties:
  • 0 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
Mijn ervaring is dat al na ongeveer 10 foute blokken (vind ik niet veel), tijdens een scrub, de disk degraded gemaakt wordt. Dat was weliswaar een single disk "test" pool, dus ZFS kon niets corrigeren maar het geeft wel aan dat ZFS niet eindeloos door "ploetert".

Voor ZFS moet de hardware liever niet te veel zelf proberen te repareren. Bij read/write errors geeft een disk specifiek voor NAS doeleinden het sneller op dan bijv. een desktop disk. Een desktop disk, of misschien ook een disk uit een externe USB disk behuizing, zal langer rereads/rewrites proberen uit te voeren om minder fouten aan software door te geven. Is met SMART te checken maar dat is geen onderdeel van ZFS en het is een check achteraf, dus dan kan het te laat zijn.

Misschien dat ze ZFS meer "SMR aware" gaan makenr. Ik denk niet dat SMR tot max. 6TB zal blijven. Zal wel hoger worden in de toekomst. Bijv., Western Digital heeft daar een aparte categorie voor, n.l. de "oude en vertrouwde" WD Red (non-Pro) categorie.

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

CurlyMo schreef op donderdag 8 juli 2021 @ 20:15:
Enige wat je dan moet doen is een zfs replace data [oude disk] [nieuwe disk] voor alle 4 de schijven stuk voor stuk. Dat kost dus wat tijd omdat je tussendoor telkens moet wachten op de resilver. Zorg ook dat je autoexpand aan hebt staan.
Ik kreeg niet gelijk alle disks aan de praat en had een verjaardag tussendoor, dus heb vandaag hier even verder naar gekeken. De disks worden intussen herkend, ik kan de data dus gaan migreren. Ik draai ZFS-on-Linux op basis van Debian, maar het zfs commando heeft helaas geen replace parameter. :(

Na een zoekopdracht kom ik wel zpool replace tegen, maar doe ik zowel zpool list als zfs list, dan krijg ik respectievelijk de melding 'No pools available' en 'No datasets available'.

EDIT:
Ah, ik moest even importeren met zpool import. :) Ik ga er daarom ook vanuit dat ik in plaats van zfs het commando zpool moet hebben. :)

EDIT2:
De pool is echter niet te importeren, omdat de pool in een faulted state is. Zelfs een zpool import -f doet niets.

EDIT3:
Ik realiseer mij net dat ik die letterlijk disk voor disk moet doen, ook fysiek... 8)7 Had de stille hoop dat ik gewoon 1:1 de 4 2TB disks kon 'clonen' naar de 14TB disks... Ik ga dus even de machine weer uit zetten en 3 2TB disks los halen en 3 4TB disks terug in de machine...

EDIT4:
Bummer, heb geen 4 SATA kabels thuis liggen, anders had ik nog een onboard controller met passthrough kunnen doorspelen naar de VM in kwestie, en daarop de rests van de disks kunnen aansluiten...

EDIT5: Resilvering loopt. :) Thanks voor de hulp iedereen! :)

[ Voor 31% gewijzigd door CH4OS op 11-07-2021 19:29 ]


Acties:
  • +2 Henk 'm!
CH4OS schreef op zondag 11 juli 2021 @ 18:06:
[...]
Ah, ik moest even importeren met zpool import. :) Ik ga er daarom ook vanuit dat ik in plaats van zfs het commando zpool moet hebben. :)
Klopt, die haal ik vaker door elkaar.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!
Het hebben van verschillende binaries in 1 'applicatie' blijf ik toch wel wat ouderwets vinden.
Ik zou liever zien dat ze iets doen als
zfs volume ...
en
zfs pool ...


Maar goed, dat zijn lastige changes :)

[ Voor 6% gewijzigd door FireDrunk op 12-07-2021 08:07 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • willemw12
  • Registratie: Maart 2015
  • Laatst online: 14-06 18:05
Dat is wat Btrfs heeft:

code:
1
btrfs filesystem


code:
1
btrfs subvolume


Zpool gaat over een ZFS "pool". Dat is duidelijk. Zfs gaat over een ZFS "filesystem (FS)". Maar eigenlijk is "dataset" de overkoepelende term voor filesystems, etc. Dus eigenlijk had het zds i.p.v. zfs moeten zijn?

Acties:
  • 0 Henk 'm!
CH4OS schreef op zondag 11 juli 2021 @ 18:06:
[...]
Ik kreeg niet gelijk alle disks aan de praat en had een verjaardag tussendoor, dus heb vandaag hier even verder naar gekeken. De disks worden intussen herkend, ik kan de data dus gaan migreren. Ik draai ZFS-on-Linux op basis van Debian, maar het zfs commando heeft helaas geen replace parameter. :(

Na een zoekopdracht kom ik wel zpool replace tegen, maar doe ik zowel zpool list als zfs list, dan krijg ik respectievelijk de melding 'No pools available' en 'No datasets available'.

EDIT:
Ah, ik moest even importeren met zpool import. :) Ik ga er daarom ook vanuit dat ik in plaats van zfs het commando zpool moet hebben. :)

EDIT2:
De pool is echter niet te importeren, omdat de pool in een faulted state is. Zelfs een zpool import -f doet niets.

EDIT3:
Ik realiseer mij net dat ik die letterlijk disk voor disk moet doen, ook fysiek... 8)7 Had de stille hoop dat ik gewoon 1:1 de 4 2TB disks kon 'clonen' naar de 14TB disks... Ik ga dus even de machine weer uit zetten en 3 2TB disks los halen en 3 4TB disks terug in de machine...

EDIT4:
Bummer, heb geen 4 SATA kabels thuis liggen, anders had ik nog een onboard controller met passthrough kunnen doorspelen naar de VM in kwestie, en daarop de rests van de disks kunnen aansluiten...

EDIT5: Resilvering loopt. :) Thanks voor de hulp iedereen! :)
Hij kan de data niet magisch bedenken natuurlijk, je moet het inderdaad doen met je te vervangen disks nog online.

Het is ook beter om ze te vervangen terwijl de te vervangen disk nog online is.
Dus disk 1 2 3 4 in je array, disk 5 gaat disk 1 vervangen. Dan hou je best alle disks online en hang je disk 5 in je server en doe je de vervanging met 5 disks draaiende. Dan kan zfs zowel pariteit en de bestaande data gebruiken, maximale beschikbaarheid.

Maar dan moet je natuurlijk genoeg poorten en kabels hebben.

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

HyperBart schreef op maandag 12 juli 2021 @ 10:30:
[...]


Hij kan de data niet magisch bedenken natuurlijk, je moet het inderdaad doen met je te vervangen disks nog online.

Het is ook beter om ze te vervangen terwijl de te vervangen disk nog online is.
Dus disk 1 2 3 4 in je array, disk 5 gaat disk 1 vervangen. Dan hou je best alle disks online en hang je disk 5 in je server en doe je de vervanging met 5 disks draaiende. Dan kan zfs zowel pariteit en de bestaande data gebruiken, maximale beschikbaarheid.

Maar dan moet je natuurlijk genoeg poorten en kabels hebben.
Dit is inderdaad een optie die ik overweeg, vanmorgen was de resilvering klaar (twee disks zijn sinds gisteravond resilvered), maar om een of andere reden zie ik de nieuwe 14TB disk niet terug in de pool, wel zie ik de oude nu als faulted wanneer ik de status van de pool opvraag. Vanavond maar even op mijn gemak bekijken. Misschien dan ook even vier SATA kabeltjes scoren. Dan kan ik alle disks aansluiten en gemakkelijker vervangen nadat ik de onboard Marvel controller ook heb doorgegeven aan de desbetreffende Debian VM. :)

Acties:
  • +1 Henk 'm!
CH4OS schreef op maandag 12 juli 2021 @ 10:34:
[...]
Dit is inderdaad een optie die ik overweeg, vanmorgen was de resilvering klaar (twee disks zijn sinds gisteravond resilvered), maar om een of andere reden zie ik de nieuwe 14TB disk niet terug in de pool, wel zie ik de oude nu als faulted wanneer ik de status van de pool opvraag. Vanavond maar even op mijn gemak bekijken. Misschien dan ook even vier SATA kabeltjes scoren. Dan kan ik alle disks aansluiten en gemakkelijker vervangen nadat ik de onboard Marvel controller ook heb doorgegeven aan de desbetreffende Debian VM. :)
Plaats eens een zpool status?

Verder zie je pas de nieuwe ruimte als alle schijven zijn vervangen door grotere varianten.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

CurlyMo schreef op maandag 12 juli 2021 @ 10:36:
Plaats eens een zpool status?

Verder zie je pas de nieuwe ruimte als alle schijven zijn vervangen door grotere varianten.
Ik ben op het moment aan het werk en heb geen remote access (ook staat de machine in kwestie momenteel uit). Ik zal op zijn vroegst vanavond antwoord kunnen geven op de vraag. :)

Acties:
  • +1 Henk 'm!
CH4OS schreef op maandag 12 juli 2021 @ 10:34:
[...]
Dit is inderdaad een optie die ik overweeg, vanmorgen was de resilvering klaar (twee disks zijn sinds gisteravond resilvered), maar om een of andere reden zie ik de nieuwe 14TB disk niet terug in de pool, wel zie ik de oude nu als faulted wanneer ik de status van de pool opvraag. Vanavond maar even op mijn gemak bekijken. Misschien dan ook even vier SATA kabeltjes scoren. Dan kan ik alle disks aansluiten en gemakkelijker vervangen nadat ik de onboard Marvel controller ook heb doorgegeven aan de desbetreffende Debian VM. :)
Ik denk dat je even rustig moet doen en stoppen, want als je een succesvolle replace hebt gedaan dan mag er niks meer in FAULTED staan. Ik raad je aan om hier even zpool status te posten zoals @CurlyMo zegt, je machine even niet uitzetten/rebooten in de tussentijd en van daaruit verder kijken.

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

HyperBart schreef op maandag 12 juli 2021 @ 14:00:
Ik denk dat je even rustig moet doen en stoppen, want als je een succesvolle replace hebt gedaan dan mag er niks meer in FAULTED staan. Ik raad je aan om hier even zpool status te posten zoals @CurlyMo zegt, je machine even niet uitzetten/rebooten in de tussentijd en van daaruit verder kijken.
Zo dacht ik vanmorgen ook, daarom dat ik toen al de machine uit gezet heb, zodat ik vanavond op mijn gemak kan kijken (en jullie vragen kan beantwoorden).

Acties:
  • +1 Henk 'm!
dcm360 schreef op zondag 11 juli 2021 @ 12:48:
[...]

Waar het dus naar mijn idee fout gaat, is dat het al 10 jaar gezegd wordt, maar dat het niet lukt om hard te maken waarom. De kans op falen zou dus niet meer statistisch insignificant moeten zijn, maar ik zie er geen onderbouwing voor. Er wordt hier en daar gewezen naar de URE, maar die waarde lijkt statistisch gezien dan weer geen hout te snijden (ik en vele andere met pools die regelmatig gescubbed worden zouden ze anders regelmatig moeten zien).

De duur van een resilver is iets waar ik mij ook geen zorgen over maak. Een scrub van mijn voor 27% gevulde pool met 3 schijven van 14TB duurt 5.5 uur. Zelfs als ik die meer vol schrijf, verwacht ik geen resilver in ordegrootte weken, maar ordegrootte dagen (hooguit 2, eerder 1).

Hetzelfde vertrouwen heb ik dan weer niet in een andere pool met 3 8TB SMR-schijven. De snelheid van een scrub is wel oké, maar gaat zelden de eerste poging foutloos. Binnen een maand na aanschaf had ik al wel door dat op die schijven geen belangrijke data moest komen (en staan er dus alleen lokale backups op).
Precies hoe ik er over denk en toch hou ik telkens vast aan minimaal twee disks voor pariteit sinds lang met grotere disks. Ondanks dat ik hier al 5 a 10 jaar draai met disks van 4TB en groter met wekelijkse scrubs (!) ben ik volgens mij nooit een URE statistiek foutje tegengekomen. Tenzij je mijn recente fout (zie paar posts terug) onder die noemer moet scharen.

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

@HyperBart en @CurlyMo ik heb hier de output van zpool status
  pool: data
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A
  scan: resilvered 2.96M in 00:03:54 with 1 errors on Mon Jul 12 17:56:41 2021
config:

        NAME                      STATE     READ WRITE CKSUM
        data                      DEGRADED     0     0     0
          raidz1-0                DEGRADED     0     0     0
            sdd                   ONLINE       0     0     1
            sdc                   ONLINE       0     0     1
            13984520045058853556  FAULTED      0     0     0  was /dev/sde1
            sdb                   ONLINE       0     0     1
          raidz1-1                ONLINE       0     0     0
            sdh                   ONLINE       0     0     0
            sdg                   ONLINE       0     0     0
            sdi                   ONLINE       0     0     0
            sdf                   ONLINE       0     0     0
De error betreft een permanent error op een bestand in de pool.

SDC is trouwens in dit overzicht de eerste disk van 14TB. :) Ik kan eventueel de 2TB ervoor terug doen en kijken hoe de status dan is? :) Morgen krijg ik trouwens ook een SATA kabel, dus dan kan ik met alle disks aanwezig de replace doen.

[ Voor 10% gewijzigd door CH4OS op 12-07-2021 18:24 ]

Pagina: 1 ... 204 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.