• consolefreak
  • Registratie: November 2002
  • Laatst online: 23:27
CurlyMo schreef op woensdag 13 september 2017 @ 12:26:
[...]

Ik vind het zo apart dat er weer twee weken overheen gaan voordat je reageert.
Tijd is een schaars iets, en er veranderd toch weinig aan de problemen als ik 't direct probeer op te lossen? Gisteren was een belangrijke deadline van mijn klant, dus nu heb ik iets meer tijd beschikbaar om één en ander uit te zoeken. Ik vraag het juist hier in het grote ZFS topic waar alle experts zitten toch :o
consolefreak schreef op woensdag 13 september 2017 @ 13:38:
[...]

Tijd is een schaars iets, en er veranderd toch weinig aan de problemen als ik 't direct probeer op te lossen? Gisteren was een belangrijke deadline van mijn klant, dus nu heb ik iets meer tijd beschikbaar om één en ander uit te zoeken. Ik vraag het juist hier in het grote ZFS topic waar alle experts zitten toch :o
Klopt, nadat je je pool alweer opnieuw hebt opgezet en via allerlei recovery tools alsnog probeert je data terug te krijgen i.p.v. voordat je verder destructief te werk gaat.

Sinds de 2 dagen regel reageer ik hier niet meer


  • consolefreak
  • Registratie: November 2002
  • Laatst online: 23:27
CurlyMo schreef op woensdag 13 september 2017 @ 13:46:
[...]

Klopt, nadat je je pool alweer opnieuw hebt opgezet en via allerlei recovery tools alsnog probeert je data terug te krijgen i.p.v. voordat je verder destructief te werk gaat.
Zoals ik al eerder aangaf heb ik twee omgevingen waarop de data stond.
  • Server Ananas: gecrashte schijven en encrypte disks -> pool niet meer te importeren. De data daarop is inderdaad compleet weg nu.
  • Server Banaan: pool bestaat nog steeds, is niet gemount, geen scrub plaatsgevonden en géén encryptie. Hierop zie ik als enige de mogelijkheid om data terug te kunnen halen.
Als de data niet van banaan terug te halen valt, dan al helemaal niet van ananas ivm de encryptie en alle problemen die daarbij komen kijken.

[ Voor 9% gewijzigd door consolefreak op 13-09-2017 13:50 ]

consolefreak schreef op woensdag 13 september 2017 @ 13:50:
[...]

Zoals ik al eerder aangaf heb ik twee omgevingen waarop de data stond.
  • Server Ananas: gecrashte schijven en encrypte disks -> pool niet meer te importeren. De data daarop is inderdaad compleet weg nu.
  • Server Banaan: pool bestaat nog steeds, is niet gemount, geen scrub plaatsgevonden en géén encryptie. Hierop zie ik als enige de mogelijkheid om data terug te kunnen halen.
Als de data niet van banaan terug te halen valt, dan al helemaal niet van ananas ivm de encryptie en alle problemen die daarbij komen kijken.
Als je nu eens een apart topic opent om dat allemaal met de experts hier eens te proberen?

Sinds de 2 dagen regel reageer ik hier niet meer


  • consolefreak
  • Registratie: November 2002
  • Laatst online: 23:27
CurlyMo schreef op woensdag 13 september 2017 @ 14:23:
[...]

Als je nu eens een apart topic opent om dat allemaal met de experts hier eens te proberen?
Omdat je nogal aandringt zal ik dat eens doen. Ik ben er overigens achtergekomen dat de ondersteuning voor ZFS nogal limited is van UFS Explorer:

Sun ZFS: data access and support of data recovery from simple and stripe ZPOOL. Limited support of lost data recovery. RAID-Z are not supported.
consolefreak schreef op donderdag 14 september 2017 @ 01:40:
[...]

Omdat je nogal aandringt zal ik dat eens doen. Ik ben er overigens achtergekomen dat de ondersteuning voor ZFS nogal limited is van UFS Explorer:
Je hoeft het voor mij niet te doen hoor.

Het is alleen frustrerend voor de experts hier om iemand zo te zien aanmodderen zonder de kans te krijgen om te helpen. Dan is het beter om helemaal geen vragen te stellen en stilletjes aan te modderen en daarmee alleen jezelf te frustreren :)

Sinds de 2 dagen regel reageer ik hier niet meer


  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 22:00
Ik heb deze week mijn nieuwe server met FreeNAS geïnstalleerd en geconfigureerd, maar ik heb hier een probleem met één van mijn jails i.c.m. Plex. Ik heb nl. geen toegang tot de Media Server van Plex op mijn andere apparaten wanneer de Web-GUI van Plex niet geopend is. Ik heb wat rond gezocht op het forum van FreeNAS, maar ik zie niets staan dat me kan helpen. Weet er iemand van jullie hoe ik de Plex Media Server actief kan houden zonder dat ik daarvoor de WEB-Gui moet openen via mijn desktop?

Ik kan nog niet bevestigen of dit ook geldt voor bv. mijn Sonarr jail, want deze zal maar maandag voor de eerste keer in werking zijn (dus zonder dat ik de GUI actief in een tabblad heb).

Heb tevens ook het probleem dat er niets van metadata kan opgehaald worden binnen de jail. Ik heb nog een (tijdelijke) Plex server draaien op mijn desktop en daar staat alles van plot, poster, etc. wel goed. Ik denk dus dat er binnen de jail geen netwerk is. Het vreemde is dat ik wel kan pingen naar bv. Google binnen de jail. VIMAGE heb ik uitgevinkt omdat dan mijn plugins niet meer kan aanzetten. DNS-server is die van google.com, dus daar kan het probleem ook niet liggen en ook die kan ik pingen. Staat ook in /etc/resolv.conf. Ik kan tevens ook pingen naar mijn default gateaway vanaf de jail.

Ik draai FreeNAS 9.3 op ESXi 6.5. Netwerkinstellingen staan correct (zowel die van FreeNAS als die van ESXi (idem voor de instellingen van oa vswitch). Heeft er iemand enig idee aan wat dit kan liggen?

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
Le Enfant! schreef op donderdag 14 september 2017 @ 19:47:
Ik heb deze week mijn nieuwe server met FreeNAS geïnstalleerd en geconfigureerd, maar ik heb hier een probleem met één van mijn jails i.c.m. Plex. Ik heb nl. geen toegang tot de Media Server van Plex op mijn andere apparaten wanneer de Web-GUI van Plex niet geopend is. Ik heb wat rond gezocht op het forum van FreeNAS, maar ik zie niets staan dat me kan helpen. Weet er iemand van jullie hoe ik de Plex Media Server actief kan houden zonder dat ik daarvoor de WEB-Gui moet openen via mijn desktop?

Ik kan nog niet bevestigen of dit ook geldt voor bv. mijn Sonarr jail, want deze zal maar maandag voor de eerste keer in werking zijn (dus zonder dat ik de GUI actief in een tabblad heb).

Heb tevens ook het probleem dat er niets van metadata kan opgehaald worden binnen de jail. Ik heb nog een (tijdelijke) Plex server draaien op mijn desktop en daar staat alles van plot, poster, etc. wel goed. Ik denk dus dat er binnen de jail geen netwerk is. Het vreemde is dat ik wel kan pingen naar bv. Google binnen de jail. VIMAGE heb ik uitgevinkt omdat dan mijn plugins niet meer kan aanzetten. DNS-server is die van google.com, dus daar kan het probleem ook niet liggen en ook die kan ik pingen. Staat ook in /etc/resolv.conf. Ik kan tevens ook pingen naar mijn default gateaway vanaf de jail.

Ik draai FreeNAS 9.3 op ESXi 6.5. Netwerkinstellingen staan correct (zowel die van FreeNAS als die van ESXi (idem voor de instellingen van oa vswitch). Heeft er iemand enig idee aan wat dit kan liggen?
En dit heeft iets te maken met ZFS omdat... ??

- Deze advertentie is geblokkeerd door Pi-Hole -


  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 22:00
A1AD schreef op donderdag 14 september 2017 @ 21:34:
[...]


En dit heeft iets te maken met ZFS omdat... ??
Zie topic warning in het DIY NAS topic.
Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
Le Enfant! schreef op donderdag 14 september 2017 @ 21:35:
[...]

Zie topic warning in het DIY NAS topic.

[...]
Ik zou denken dat je daar beter je vraag stelt.. Of er is een topic over plex ook.

Freenas != plex

[ Voor 23% gewijzigd door A1AD op 14-09-2017 21:49 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

Ik heb een ZOL stripe (raid0) met 2 disks, gemaakt toen ik data opsloeg die ik niet belangrijk genoeg vond voor een mirror.

Maar inmiddels is dat anders. Kan ik een 3e disk toevoegen als parity (raidz1)? En die vervolgens vullen/resilveren aan de hand van de reeds bestaande data?

Google toont mij verouderde forumposts waarin mensen zeggen dat het (nog) niet kan. Maar inmiddels zijn we 6 jaar verder, en het lijkt zo simpel.

🇪🇺 Buy from EU (GoT)

Kan nog altijd niet. Je kan wel die raid0 omzetten naar een raid01 dus van je stripe een mirror te maken. Maar, voordat je dat als optie ziet, zou ik die 2 schijven in een degraded raidz2 zetten, alles kopiëren en dan die vrijgekomen schijven aan je raidz2 toevoegen. Dat is echter nog steeds risicovol omdat je bij het omzetten van je pool geen redundantie hebt.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 22:00
Le Enfant! schreef op donderdag 14 september 2017 @ 19:47:
Ik heb deze week mijn nieuwe server met FreeNAS geïnstalleerd en geconfigureerd, maar ik heb hier een probleem met één van mijn jails i.c.m. Plex. Ik heb nl. geen toegang tot de Media Server van Plex op mijn andere apparaten wanneer de Web-GUI van Plex niet geopend is. Ik heb wat rond gezocht op het forum van FreeNAS, maar ik zie niets staan dat me kan helpen. Weet er iemand van jullie hoe ik de Plex Media Server actief kan houden zonder dat ik daarvoor de WEB-Gui moet openen via mijn desktop?
Blijkbaar had ik niet goed gekeken. O-)
Heb tevens ook het probleem dat er niets van metadata kan opgehaald worden binnen de jail. Ik heb nog een (tijdelijke) Plex server draaien op mijn desktop en daar staat alles van plot, poster, etc. wel goed. Ik denk dus dat er binnen de jail geen netwerk is. Het vreemde is dat ik wel kan pingen naar bv. Google binnen de jail. VIMAGE heb ik uitgevinkt omdat dan mijn plugins niet meer kan aanzetten. DNS-server is die van google.com, dus daar kan het probleem ook niet liggen en ook die kan ik pingen. Staat ook in /etc/resolv.conf. Ik kan tevens ook pingen naar mijn default gateaway vanaf de jail.
Dit probleem is dus te wijten aan het feit dat VIMAGE uitgevinkt is. Hiervoor zal ik meer info vragen op het forum van FreeNAS.

[ Voor 26% gewijzigd door Le Enfant! op 16-09-2017 21:14 ]


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Tot nu toe gaat het Orico 5x SATA600 Externe USB3 cabinet verhaal best goed!

uhoh (Windows 10 / AMD computer testen)
Initieel toen deze binnen kwam (het is al de tweede die ik bezit) was ik begonnen met het testen van 5x10TB Seagate IronWolf in het chassis aan mijn Ryzen 7 (x370 chipset) Windows 10 computer vast. Dit leek initieel goed te werken maar dat bleek uiteindelijk NIET zo te zijn.

Ik kreeg dat het cabinet (waarschijnlijk de controller) zichzelf soms een reset gaf waarna windows de disken verkeerd te zien kreeg (allemaal hetzelfde ID) wat uiteindelijk zelfs enkele keren corruptie heeft veroorzaakt! Dat zal er dus erg somber uit!

Na het rond zoeken en proberen van vele verschillende firmwares heb ik ook de ASmedia USB3.1 controller getest en hoewel dat een stuk beter ging, heb ik daar ook 1 hikje mee gehad.

Dat was dus niet zo tof en ik ben nog steeds in overleg met Orico hierover.

Het kan toch goed werken (Linux / Intel)/ Schijven groter dan 8TB
Aangezien het cabinet wat ik heb aan een Intel systeem hangt en nog nooit ook maar 1 error heb gegeven (ook ZFS) ben ik verder gaan zoeken. Online las ik dat de jMicron controller in het cabinet erg gevoelig is voor de gebruikte USB3 host controller.

Nieuwe test dus! Aangezien het Apollo Lake systeem nog niet binnen is heb ik een Haswell gebaseerd systeem gepakt (lijkt er het meeste op van alles wat ik heb) en ik ben meteen "voor broke" gegaan. Ik heb ZFS geïnstalleerd (er stond Fedora 25 op) en daar een RAIDz2 op gemaakt. Na enkele tests met DD en bonnie++ die allemaal zonder problemen verliepen (~225MB/sec write sustained naar disk) heb ik een DD aangezet die de hele schijf zou opvullen, alle 30TB netto. Aangezien ik een weekendje weg ging was daar mooi tijd voor. 8)

allwrittennoissues

Nu na het weekend, geen enkele write error en de disk is helemaal vol! _/-\o_ Ik heb daarna zo'n 1.4TB weer terug gelezen met DD en dat verliep ook prima.

disk read

Er draait nu een scrub om te zien of die de hele disk volledig door kan lezen. Deze loopt nu weer met gemiddeld zo'n 190MB/sec en hoewel dat ongeveer de snelheid van 1 van de disks die erin zit is, is het voor mijn doeleinden als "backup storage achter een internet lijn" meer dan voldoende!

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • +1 Henk 'm!
Je pool echt helemaal vol schrijven is niet aan te raden overigens ;)
Als ZFS echt vervelend is, ga je niet eens meer files kunnen verwijderen, omdat vanwege het Copy on write karakter je altijd een klein beetje ruimte vrij moet hebben...

(Als het toch gebeurt, is de oplossing vaak een snapshot weggooien, maar dan moet je die wel hebben ;) )

Overigens kudo's voor de originele setup! :)

(Mijn vermoeden over het slecht funtioneren van jMicron chipjes is weer eens bevestigd ;) )

[ Voor 17% gewijzigd door FireDrunk op 18-09-2017 08:43 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Le Enfant! schreef op donderdag 14 september 2017 @ 21:35:
[...]

Zie topic warning in het DIY NAS topic.

[...]
Nein, nein, nein, nein nein!

Je vraag gaat over Plex en niet over de onderliggende storage (FreeNAS + ZFS) software.

Dus; heb je prob's met:
- FreeNAS: FreeNAS topic
- Plex: Plex topic

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 18:43

BCC

Super nice!

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

@BCC Thnx :)

@FireDrunk
Klopt, het kan dus goed werken zo te zien maar bepaalde combinaties zijn gevaarlijk voor falen, wat het uiteindelijk een onbetrouwbaar product maakt helaas.

Qua ruimte ben ik me bewust dat volschrijven niet de bedoeling is, maar dit is allemaal puur voor test. Verder lijkt het erop dat ik in deze config wat "slack" overhoud qua RAIDz verdeling, zie volgende screenshot:
RAIDzslack

Het OS rapporteert op dit moment netjes 0 bytes free maar zou het CoW mechanisme daar wel gebruik van kunnen maken?

Verder loopt de scrub nog steeds prima op dit moment:
scrubgoingwell

Als het deze "stress" test overleefd durf ik er wel mee online als backup storage. Het is nog steeds niet de uiteindelijk hardware (de "server" komt hopelijk snel binnen) en daar zal ik uiteraard ook nog wat van dezelfde tests mee doen, maar het concept werkt hiermee iig. 8)

p.s. Ik zal als de scrub klaar is (of ik na zoveel TB besluit dat het goed genoeg is) eens proberen wat disks te husselen en zien of het systeem daarmee overweg kan vanwege de translate qua disk-id die erin zit.
p.p.s. SMART informatie uitlezen van smartctl werkt perfect! :)

smartinfojmicron

[ Voor 16% gewijzigd door Quindor op 18-09-2017 12:31 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Wat doet mijn ZFS pool nu wel en niet met current pending sectors?

Specs:
Freenas, Xeon proc met ecc geheugen, 3 x 2tb green schijven.
De pool is een ZRAID1 pool.

Op mijn Freenas systeem kreeg ik een SMART waarschuwing 1 Current pending sector,
ondertussen(2 dagen later) zijn de Current Pending Sectors opgelopen tot 11.
Ook zijn deze blijkbaar Offline Uncorrectable, die staat ook op 11.

Een scrub geeft niets van errors aan op deze pool, al heb er al meerdere gedraaid.

Ik had verwacht dat ze na een scrub of reallocated zouden worden en er iig een error in de scrub naar voren komt.

Het overschrijven met dd van de gevonden sectoren heeft ook niets veranderd in de SMART waarden en de scrub. Terwijl ik juist zou denken dat ik wat overhoop zou hebben gehaald op de schijf. (Heb inderdaad even aangeklooid, de redundancy gaf met dat misschien misplaatste vertrouwen :9 )

In het SMART topic heb ik nog geen reactie gekregen, maar tezamen met ZFS maakt dit het voor mij helemaal onbegrijpbaar, ik heb al een nieuwe schijf besteld en denk de falende schijf te kunnen replacen zonder dat de pool degraded gaat.

Maar is de oude schijf nu echt stuk aan het gaan?

Volle smart uitdraai staat eventueel in het SMART topic. De LBA's of first error verspringen ook met latere tests.

Acties:
  • 0 Henk 'm!
ZFS doet niets met bad sectors. Je systeem ook niet. De disk kan inderdaad er voor kiezen om ofwel de sector uit te zetten (Offline Uncorrectable) of niet (Pending sector).
Daarnaast kan hij kiezen om een andere sector in te zetten als vervangende sector (Reallocated).

Reallocated van een paar sectoren is niet direct erg, zolang het maar niet blijft oplopen.

Waarom een sector specifiek op Offline Uncorrectable blijft staan, weet ik zo niet, ik zou verwachten dat je inderdaad door direct naar een specifieke sector te schrijven, die reallocation kan triggeren. (Dat zou ik in ieder geval verwachten).

Als ik je smart nu lees, zie ik geen Offline Uncorrectable meer? (198) Er was dus 1 sector kapot (lees: slecht leesbaar, misschien een foutje wat net niet door ECC op te lossen was), maar die is waarschijnlijk gewoon geforceerd weer overschreven?

Ziet er nu wel weer prima uit.

[ Voor 4% gewijzigd door FireDrunk op 18-09-2017 16:47 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Die smart data is helaas wat ouder dan dat ik hier de fouten beschrijf,
ik zie ook dat ik op het moment van die uitdraai alleen nog een waarschuwing had gekregen :
Self-Test Log error count increased from 0 to 1

En nog niet over de current pending sectors.

De laatste uitdraai van SMART onderaan de post

Ik kan nog eens proberen het te overschrijven, dit is de eerste keer misschien niet goed gegaan en kan ik nog wel een goeie how-to voor opzoeken.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
smartctl 6.5 2016-05-07 r4318 [FreeBSD 11.0-STABLE amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Green
Device Model:     WDC WD20EZRX-00D8PB0
Serial Number:    WD-WMC4M0E2UK87
LU WWN Device Id: 5 0014ee 605656451
Firmware Version: 80.00A80
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Mon Sep 18 17:14:38 2017 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                    was completed without error.
                    Auto Offline Data Collection: Enabled.
Self-test execution status:      ( 113) The previous self-test completed having
                    the read element of the test failed.
Total time to complete Offline 
data collection:        (25800) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   2) minutes.
Extended self-test routine
recommended polling time:    ( 261) minutes.
Conveyance self-test routine
recommended polling time:    (   5) minutes.
SCT capabilities:          (0x7035) SCT Status supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       1701
  3 Spin_Up_Time            0x0027   175   170   021    Pre-fail  Always       -       4250
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       95
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   071   071   000    Old_age   Always       -       21696
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       46
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       27
193 Load_Cycle_Count        0x0032   198   198   000    Old_age   Always       -       6440
194 Temperature_Celsius     0x0022   121   107   000    Old_age   Always       -       26
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       11
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       11
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       119

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       10%     21694         3907024536
# 2  Short offline       Completed: read failure       10%     21683         3907024424
# 3  Short offline       Completed: read failure       10%     21659         3907023032
# 4  Extended offline    Completed: read failure       10%     21648         3907024424
# 5  Short offline       Completed: read failure       10%     21635         3907024424
# 6  Short offline       Completed: read failure       10%     21618         3907024424
# 7  Short offline       Completed: read failure       10%     21617         3907024424
# 8  Short offline       Completed without error       00%     21587         -
# 9  Short offline       Completed without error       00%     21563         -
#10  Short offline       Completed without error       00%     21539         -
#11  Short offline       Completed without error       00%     21515         -
#12  Short offline       Completed without error       00%     21491         -
#13  Short offline       Completed without error       00%     21467         -
#14  Short offline       Completed without error       00%     21443         -
#15  Short offline       Completed without error       00%     21419         -
#16  Short offline       Completed without error       00%     21395         -
#17  Short offline       Completed without error       00%     21371         -
#18  Short offline       Completed without error       00%     21347         -
#19  Short offline       Completed without error       00%     21323         -
#20  Short offline       Completed without error       00%     21299         -
#21  Short offline       Completed without error       00%     21275         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Acties:
  • 0 Henk 'm!
Denk dat de schijf helaas gewoon st0ek is :)

Even niets...


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Zo te zien werkt WD dan wel weer anders dan de Toshiba's die ik heb. Bij mij wisselt het tussen current pending en offline uncorrectable als de schijven respectievelijk wel en niet draaien. Ook bij mij krijgt een scrub ze overigens niet weg, wat dan weer inhoud dat er gewoon geen data in die sectoren (meer) staat.

Acties:
  • 0 Henk 'm!
dcm360 schreef op dinsdag 19 september 2017 @ 00:06:
Zo te zien werkt WD dan wel weer anders dan de Toshiba's die ik heb. Bij mij wisselt het tussen current pending en offline uncorrectable als de schijven respectievelijk wel en niet draaien. Ook bij mij krijgt een scrub ze overigens niet weg, wat dan weer inhoud dat er gewoon geen data in die sectoren (meer) staat.
Die volg ik even niet, hoe kan je SMART uitlezen als de schijf uit staat? Of bedoel je in standby?

Even niets...


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

FireDrunk schreef op dinsdag 19 september 2017 @ 08:40:
[...]


Die volg ik even niet, hoe kan je SMART uitlezen als de schijf uit staat? Of bedoel je in standby?
Ik bedoel met 'niet draaien' inderdaad standby.

Acties:
  • 0 Henk 'm!
Klinkt als een bugje in de smartcode van de disk.

Even niets...


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Het jMicron externe USB3 chassis saga continues!

De zpool scrub loopt nog steeds, het gaat om 5x 10TB dus dat gaat wel eventjes duren, zeker omdat de performance maximaal zo'n 225MB/sec is en niet de volle performance die de disken kunnen leveren (~200MB/sec per stuk!). Maar goed, dat wist ik van te voren en is op zich niet zo'n issue voor mij en met RAIDz2 moet dat ook wel los lopen.

Op dit moment is hij rond de 80%, zonder errors:
zpoolscrubstatus

Er gebeurt echter wel wat anders raars......
In heb begin liep de scrub met gemiddeld ~200MB/sec, een prima snelheid voor USB gekoppelde storage naar mijn mening. Echter soms zie ik dit voorbij komen:
scrubslowdown
Ofwel, de read speed is vrij wisselend geworden en gemiddeld gezien ingestort naar zo'n 100MB/sec. Dat maakt dat de scrub nog langer duurt dan dat deze al ging lopen.

Dus ik ben gaan testen wat dit veroorzaakt. Helaas heeft scrub geen pauze functie voor zover ik weet omdat ik het idee had dat de controller wellicht oververhit raakte of zo. Dag en nacht (en de temperatuur schommeling die daarbij komt) lijkt er echter geen effect op te hebben, dus ik ben er niet echt van overtuigd dat dat het is.

Dus wellicht is het een soort buffer die raar begint te doen? Dus als test heb ik gewoon eens met DD wat data richting dezelfde pool geschreven om te zien hoe dat loopt. Hier heb ik geen screenshot van, maar dat loopt eigenlijk meteen met de verwachte 200MB/sec. ZFS wisselt tussen lezen en schrijven vanwege de geheugen buffers, dus dat werkt zoals verwacht.

Het maffe is, daarna is het probleem van de wisselvallige read speed voor een tijd over? Zie het screenshot daarna:
scrubspeedfixed
Wat er dus precies gebeurt is mij nog niet helemaal duidelijk, maar het lijkt er mee te maken te hebben dat er continu met de maximale snelheid gelezen word. Het genereert gelukkig geen errors (zie status hierboven) maar het is wel apart.

In de praktijk verwacht ik dat het wel los loopt aangezien waarvoor deze server ingezet word (en de Gigabit poort) deze snelheid van verkeer nooit kunnen genereren. Maar tijdens een scrub is het wel een ding. Ik ga eens nadenken hoe ik dat oplos, een script wat om het uur eventjes 1GB DD'd naar de pool is ook wat lomp. :P :+

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • +1 Henk 'm!
Mocht je het nog niet kennen:
code:
1
zpool iostat backupstorage 1

Geeft ook mooie stats van de doorvoersnelheden en iops. Heb je het daarmee al vergeleken?

Sinds de 2 dagen regel reageer ik hier niet meer


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

CurlyMo schreef op donderdag 21 september 2017 @ 15:07:
Mocht je het nog niet kennen:
code:
1
zpool iostat backupstorage 1

Geeft ook mooie stats van de doorvoersnelheden en iops. Heb je het daarmee al vergeleken?
iostat

Jazeker, ben een stats junkie, heb deze temp server waar het nu aan hangt nog net niet in een grafana panel gehangen. :P

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED

Ik ben wel benieuwd wat zpool iostat zegt wanneer de scrub weer trager wordt.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

CurlyMo schreef op donderdag 21 september 2017 @ 15:33:
Ik ben wel benieuwd wat zpool iostat zegt wanneer de scrub weer trager wordt.
Hmm, interesting! Wat ik fysiek merk als ik bij de box sta is dat er een hoop "random seeks" gebeuren in plaats van sequentieel verkeer wat er normaal gebeurt bij de scrub.

I'll let you know (ik verwacht dat over enkele uren de scrub wel weer vervalt in het tragere patroon).

Aangezien deze post niet heel veel nuttige info bevat, enkele foto's dan maar van de test opstelling en van de eerdere waar 5x2TB in zit van 7 jaar oud en puur voor storj gebruikt word!

testopstelling1
testachterkant
storj

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
Ik zie dat ze op eBay "Flash Accelerator"'s verkopen voor SSD's, geschikt voor 400GB SSD drives.

Flash Accelerator F40 400GB Solid State
http://www.ebay.com/itm/122712474764?rmvSB=true

Enig idee wat ik me daarbij moet voorstellen?

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

chronoz schreef op donderdag 21 september 2017 @ 19:16:
Ik zie dat ze op eBay "Flash Accelerator"'s verkopen voor SSD's, geschikt voor 400GB SSD drives.

Flash Accelerator F40 400GB Solid State
http://www.ebay.com/itm/122712474764?rmvSB=true

Enig idee wat ik me daarbij moet voorstellen?
Google doet wonderen. Zo te zien is het een (Adaptec controller/LSI) SAS RAID/HBA controller met daarop 4x2.5" SATA SSD. De specs zijn op zich geinig, power usage is wel echt INSANE.

Ik verwacht dat een moderne SSD zoals een 860EVO wel al sneller is dan dit ding. Queue Depth 1 durf ik niet te zegen echter en er lijken caps op de kaart te zitten, maar je hebt uiteraard geen idee hoe versleten de cellen al zijn.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED

chronoz schreef op donderdag 21 september 2017 @ 19:16:
Ik zie dat ze op eBay "Flash Accelerator"'s verkopen voor SSD's, geschikt voor 400GB SSD drives.
Als je het type nummer in Google intikt dan is de datasheet het eerste resultaat.
Oracle’s Sun Flash Accelerator F40 PCIe Card accelerates applications and server performance by reducing storage latencies and increasing I/O throughput for greater productivity and business response. The low latency, high throughput, and IOPS performance of the Sun Flash Accelerator F40 PCIe Card help servers and their applications run faster and more efficient while reducing space and power.
KEY FEATURES
[...]
- Up to 149K IOPS (8K) performance
@Quindor was me net voor :P

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
Hij heeft de prijs al verhoogd van 65 naar 80. http://www.ebay.com/itm/122712474764 Dat houdt ook in dat de shipping naar Nederland omhoog gaat.

Ik zat even te denken.

Zou ik hier ooit iets aan hebben?
> Niet echt.
Dus ik heb er 1tje besteld.
Hij komt over 2 weken aan.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

CurlyMo schreef op donderdag 21 september 2017 @ 15:33:
Ik ben wel benieuwd wat zpool iostat zegt wanneer de scrub weer trager wordt.
Ik zag dat het probleem net weer begon, dus weer wat screenshots!

Dit blijft nu zo een beetje doorgaan, totdat ik bijvoorbeeld 1GB met DD naar het volume schrijf, daarna is het weer uren goed. :S

speeddecreasejmicron

Zoals ik al aangaf, dit zie ik voor het eerst na dagen de scrub te draaien, dus met "gebruik" lijkt het niet voor te komen.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Quindor schreef op vrijdag 22 september 2017 @ 00:56:
Ik zag dat het probleem net weer begon, dus weer wat screenshots!

Dit blijft nu zo een beetje doorgaan, totdat ik bijvoorbeeld 1GB met DD naar het volume schrijf, daarna is het weer uren goed. :S

[afbeelding]

Zoals ik al aangaf, dit zie ik voor het eerst na dagen de scrub te draaien, dus met "gebruik" lijkt het niet voor te komen.
NOFI, maar dat ding is dus JMicron based... wat had je anders verwacht ?!

Als ik één merk NIET vertrouw voor mijn storage is het JMicron wel :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

nero355 schreef op vrijdag 22 september 2017 @ 02:13:
[...]

NOFI, maar dat ding is dus JMicron based... wat had je anders verwacht ?!

Als ik één merk NIET vertrouw voor mijn storage is het JMicron wel :)
Nou ja, een goed werkend product? En ansich werkt het nog niet eens zo slecht, alleen dus het issue dat de snelheid soms laag word tijdens een rebuild maar dat het weer omhoog gaat zodra je wat naar het volume schrijft. Maar dat hoeft nog niet eens de jMicron controller te zijn, het kan bijvoorbeeld ook een USB controller/driver issue zijn?

Wat is jou ervaring ermee?

[ Voor 10% gewijzigd door Quindor op 22-09-2017 02:51 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Followup van de falende disk.

Na een replace door een nieuwe disk heb ik de schijf dit commando gegeven:
code:
1
dd if=/dev/zero bs=4k of=/dev/ada2


En voila, een correcte selftest en current pending sectors naar 0
Ik ga hem nog wat testen met random schrijven en zero'en om te kijken of hij volhoud, dan kan hij in de "mocht ik nog eens een schijf nodig hebben la".

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       1721
  3 Spin_Up_Time            0x0027   174   170   021    Pre-fail  Always       -       4291
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       96
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   071   071   000    Old_age   Always       -       21739
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       47
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       27
193 Load_Cycle_Count        0x0032   198   198   000    Old_age   Always       -       6452
194 Temperature_Celsius     0x0022   117   107   000    Old_age   Always       -       30
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       11
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       3

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     21739         -
# 2  Extended offline    Completed: read failure       10%     21720         3907024536
# 3  Short offline       Completed: read failure       10%     21710         3907024536
# 4  Short offline       Completed: read failure       10%     21694         3907024536
# 5  Short offline       Completed: read failure       10%     21683         3907024424
# 6  Short offline       Completed: read failure       10%     21659         3907023032
# 7  Extended offline    Completed: read failure       10%     21648         3907024424
# 8  Short offline       Completed: read failure       10%     21635         3907024424
# 9  Short offline       Completed: read failure       10%     21618         3907024424
#10  Short offline       Completed: read failure       10%     21617         3907024424
#11  Short offline       Completed without error       00%     21587         -
#12  Short offline       Completed without error       00%     21563         -
#13  Short offline       Completed without error       00%     21539         -
#14  Short offline       Completed without error       00%     21515         -
#15  Short offline       Completed without error       00%     21491         -
#16  Short offline       Completed without error       00%     21467         -
#17  Short offline       Completed without error       00%     21443         -
#18  Short offline       Completed without error       00%     21419         -
#19  Short offline       Completed without error       00%     21395         -
#20  Short offline       Completed without error       00%     21371         -
#21  Short offline       Completed without error       00%     21347         -

Acties:
  • +1 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Scrub is done, all is well!
scrubdone

102 uur is natuurlijk aardig wat (4,25 dag) maar is naar mijn mening nog wel te overleven. Het is ook een RAIDz2, dus als er een tweede disk klapt tijdens de rebuild (kans van ~10% of ~50% afhankelijk van hoe je het berekend) dan is de kans dat de tweede parity in die tijd eruit klapt erg klein.

Verder zijn alle disks nu meerdere malen, in meerdere vormen gechecked. Eerst met HDAT2 een full verify gegeven rechtstreeks aan een mobo SATA poort (alle disks afzonderlijk) en daarna in het USB3 cabinet met random data vol geschreven via DD en daarna een scrub via ZFS. Er zijn iig geen bad sectors. 8) (SMART re-allocated sector count is 0 op alle disks)

Het enige issue wat er nu dus echt overblijft is dat tijdens de scrub de performance soms instort, en deze weer normaal word na enkele writes. Ik verwacht dan ook dat dat in de praktijk, als de disks daadwerkelijk in gebruik zijn, een non-issue gaat zijn. Ik heb echter nog niet kunnen achterhalen waardoor dit optreed. Het kan aan het cabinet/jMicron controller liggen, maar bijvoorbeeld ook aan de (haswell) USB3 controller. Ik ben benieuwd hoe dit straks gaat werken met de Apollo Lake controller aangezien die een paar generaties nieuwer is.

Uiteraard moet ik straks als de "server" binnen is enkele tests nog eens doen, maar ik verwacht daar eigenlijk geen issues mee.

Voorlopige conclusie
Voor mij werkt het op deze manier adequaat genoeg om in te zetten als backup storage.
  • Performance is prima met ~200MB/sec read of write. Dat is 2x zoveel als de Gigabit poort überhaupt aan kan en vervolgens komt de machine remote ergens te staan dus boeit het sowieso al niet zoveel meer
  • Stabiliteit is na 10 dagen achter elkaar continu stress testen ook wel bewezen. In al die tijd, geen crashes, geen reboots, geen disconnects en geen enkel gemist bitje. (Dat was aan mijn AMD Ryzen Windows 10 systeem wel anders, daar hield hij het geen 2 uur vol!)
  • Een rebuild van een vol volume duurt ongeveer 100 uur, kan ik ook prima mee leven
  • Al met al is de "server" met dit cabinet eraan een zeer goedkope oplossing om 5 disks te draaien. Machine + cabinet is ~300 euro en hiermee krijg je 5 drivebays tot je beschikking voor als je capaciteit nodig hebt en niet perse performance! O+

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
Quindor schreef op zaterdag 23 september 2017 @ 17:24:
Scrub is done, all is well!
[afbeelding]

102 uur is natuurlijk aardig wat (4,25 dag) maar is naar mijn mening nog wel te overleven. Het is ook een RAIDz2, dus als er een tweede disk klapt tijdens de rebuild (kans van ~10% of ~50% afhankelijk van hoe je het berekend) dan is de kans dat de tweede parity in die tijd eruit klapt erg klein.

Verder zijn alle disks nu meerdere malen, in meerdere vormen gechecked. Eerst met HDAT2 een full verify gegeven rechtstreeks aan een mobo SATA poort (alle disks afzonderlijk) en daarna in het USB3 cabinet met random data vol geschreven via DD en daarna een scrub via ZFS. Er zijn iig geen bad sectors. 8) (SMART re-allocated sector count is 0 op alle disks)

Het enige issue wat er nu dus echt overblijft is dat tijdens de scrub de performance soms instort, en deze weer normaal word na enkele writes. Ik verwacht dan ook dat dat in de praktijk, als de disks daadwerkelijk in gebruik zijn, een non-issue gaat zijn. Ik heb echter nog niet kunnen achterhalen waardoor dit optreed. Het kan aan het cabinet/jMicron controller liggen, maar bijvoorbeeld ook aan de (haswell) USB3 controller. Ik ben benieuwd hoe dit straks gaat werken met de Apollo Lake controller aangezien die een paar generaties nieuwer is.

Uiteraard moet ik straks als de "server" binnen is enkele tests nog eens doen, maar ik verwacht daar eigenlijk geen issues mee.

Voorlopige conclusie
Voor mij werkt het op deze manier adequaat genoeg om in te zetten als backup storage.
  • Performance is prima met ~200MB/sec read of write. Dat is 2x zoveel als de Gigabit poort überhaupt aan kan en vervolgens komt de machine remote ergens te staan dus boeit het sowieso al niet zoveel meer
  • Stabiliteit is na 10 dagen achter elkaar continu stress testen ook wel bewezen. In al die tijd, geen crashes, geen reboots, geen disconnects en geen enkel gemist bitje. (Dat was aan mijn AMD Ryzen Windows 10 systeem wel anders, daar hield hij het geen 2 uur vol!)
  • Een rebuild van een vol volume duurt ongeveer 100 uur, kan ik ook prima mee leven
  • Al met al is de "server" met dit cabinet eraan een zeer goedkope oplossing om 5 disks te draaien. Machine + cabinet is ~300 euro en hiermee krijg je 5 drivebays tot je beschikking voor als je capaciteit nodig hebt en niet perse performance
Goed om te horen dat je chassis nu goed lijkt te werken.

Ik heb je verhaal een beetje gevolgd en ik ben blij voor je dat alles nu goed gaat.

Toch zou ik zelf heel erg voorzichtig zijn met zo’n oplossing.

Persoonlijk zou ik mensen afraden om voor jouw oplossing te kiezen.

Het klinkt mij te fragiel in de oren.

Juist als je de backup nodig hebt zie ik het mis gaan. Dan krijg je langdurig een hoge belasting op alle componenten.

ZFS gaat je niet beschermen als de hardware (controller) brak is.

Ruim vier dagen voor een scrub cq. Rebuild is zeer fors, maar om hoeveel data gaat het?

Als dat met 50% gebruik is dan kunnen die vier dagen nog verdubbelen naarmate de array verder vol loopt.

Dat vind ik echt spannend worden.

Acties:
  • 0 Henk 'm!
Q schreef op zondag 24 september 2017 @ 15:19:
[...]
Juist als je de backup nodig hebt zie ik het mis gaan. Dan krijg je langdurig een hoge belasting op alle componenten.
Hangt er vanaf wat je met de backup doet. Stel je hebt je backup nodig omdat je systeem is gestolen of afgebrand. @Quindor kan met zijn RAIDZ2 twee harde schijven uit de backup halen en die in de nieuwe server doen. Die twee schijven data laten over kopiëren naar een degraded RAIDZ2. Als dat klaar is de backup schijven weer uit je server halen en twee nieuwe schijven toevoegen om de degraded RAIDZ2 weer normaal online te brengen. Zo ben je nergens afhankelijk van je jmicron controller. Alles alles weer draait, je backup weer in ere herstellen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

@Q Ik snap je argumenten wel, maar dat ligt er net aan hoeveel je er van verwacht denk ik.

Een backup is voor mij een geversioneerd secundair kopie van mijn primare data. Dus naar mijn mening is de kans klein dat EN de primaire data verloren gaat EN het backup kopie, op hetzelfde moment. Dus daarom hoeft de backup storage geen 99,999999% oplossing te zijn, naar mijn mening.

Qua data volume voor de scrub, ik heb eerst met 200MB/sec met random data de gehele RAIDz2 gevuld (~28,5TB netto, 5x10TB) en daarna heb ik over die data een scrub gedraaid om alles weer terug te lezen. Worst case scenario is dus dat alles tot de nok toe vol zit en dat kost 4,5 dag. Totale duur van de stress test was daarmee ongeveer 7 a 8 dagen.
Dat was echter terwijl ik de "het lezen gaat na enkele uren trager" issue initieel nog niet door had. Bij normaal gebruik (er gebeurt meer op de disk) komt dat niet voor zoals de simulaties met enkele writes aantoonde. Maar goed, uitgaan van 4 dagen worst case lijkt me een veilig getal.

Ik snap dat ZFS uiteindelijk afhankelijk is van de controller, vandaar deze testen voordat ik het "in productie" neem, en tot nu toe, is daarbij nog geen enkel bitje omgevallen. Toch snap ik je argwaan wel, want anders was ik deze testen überhaupt niet aan het doen. :+

Ik zou het dan ook zeker niet inzetten voor (hoofd) productie doel einden, maar het USB3 chassis is prima geschikt voor als je oude HDD's online wilt houden maar geen ruimte meer heb in je server, of voor mijn toepassing, als backup storage waar performance zeker niet 1 van je eisen is. De gehele bandbreedte is minder dan wat 1 van de 5 disks kan leveren sequentieel. 8)7 Maar, dat gezegd hebbende is 200MB/sec ook weer niet flauw naar mijn mening, het blijft 2x zo snel als het gemiddelde gigabit touwtje.

@CurlyMo Good point! In het scenario wat je beschrijft ben je wel tijdelijk vatbaar voor dataloss omdat je de RAIDz2 deels afbreekt. Maar, als de nood echt hoog is en de controller (ondanks alle testen nu) toch ineens een issue blijkt op te leveren tijdens recovery, kan ik de schijven wel altijd gaan halen en in een andere machine met een Intel of LSI controller weer online brengen. :)

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!
Quindor schreef op zondag 24 september 2017 @ 17:10:
@CurlyMo Good point! In het scenario wat je beschrijft ben je wel tijdelijk vatbaar voor dataloss omdat je de RAIDz2 deels afbreekt. Maar, als de nood echt hoog is en de controller (ondanks alle testen nu) toch ineens een issue blijkt op te leveren tijdens recovery, kan ik de schijven wel altijd gaan halen en in een andere machine met een Intel of LSI controller weer online brengen. :)
Klopt, maar het verschil is dat je alleen maar leest van je degraded array. Dat gaat meestal wel goed. En opnieuw de kans dat .... enz

[ Voor 6% gewijzigd door CurlyMo op 24-09-2017 17:24 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Wat discussie vragen.

5 disk RAIDz2 Space penalty
RAIDz2 met 5x10TB is niet ideaal vanwege de 5 disks, hierdoor heb ik als het goed is enige space penalty in combinatie met het gebruik van ashift=12. Toen ik de disk vol schreef en "df -h" 0 bytes rapporteerde vertelde ZFS mij dat er nog 1,6TB beschikbaar was, dus ik verwacht in orde van die grote ongeveer.

Ik lees discussie over het gebruik van "zfs set recordsize=1M ". Zoals ik het begrijp kan dit deels het probleem oplossen omdat je dan niet meer met de 128K deel factor zit maar kan het bij kleine files nadelig zijn? Aangezien het backup storage is, zal de gemiddelde file/chunk 50MB of groter zijn, dus dat lijkt me een non-issue. Is het dan verstandig om deze setting aan te passen?

LZ4 compressie
Wederom dezelfde vraag. Ik ben gewend om op de meeste ZFS installaties LZ4 overal klakkeloos aan te zetten vanwege de besparing die het eventueel kan opleveren. Echter is CPU usage daarvan nooit een issue en ook is de data die op die pools geschreven word een mix van verschillende zaken.

Dit word echter backup storage, 99% van de data is compressed en/of encrypted. Heeft LZ4 compressie dan nog een voordeel voor bijvoorbeeld metadata of gaat het niets teweeg brengen en alleen maar CPU cycles van de "zielige" Apollo Lake CPU opeten, wat verwacht jullie?

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!
Quindor schreef op zondag 24 september 2017 @ 17:58:
Heeft LZ4 compressie dan nog een voordeel voor bijvoorbeeld metadata of gaat het niets teweeg brengen en alleen maar CPU cycles van de "zielige" Apollo Lake CPU opeten, wat verwacht jullie?
Dan nog niet druk om maken want het is backup storage. Ik had zelf ook dedup aanstaan, want opnieuw, het is maar backup storage. Dus performance is geen issue.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
LZ4 compressie stopt met comprimeren als de ratio onder een bepaald percentage ligt bij de eerste zoveel procent van de data, dus is niet erg om aan te zetten.

Even niets...


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

FireDrunk schreef op zondag 24 september 2017 @ 18:12:
LZ4 compressie stopt met comprimeren als de ratio onder een bepaald percentage ligt bij de eerste zoveel procent van de data, dus is niet erg om aan te zetten.
Daar ben ik me van bewust, maar de penalty is dus nog steeds verwaarloosbaar als je van te voren weet dat eigenlijk 99% van je data sowieso on-comprimeerbaar gaat zijn? Zijn er dan nog wel voordelen is eigenlijk mijn vraag.

Of is het formaat om alles gecomprimeerd op te slaan, inclusief metadata sowieso efficiënter?

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!
Metadata is nooit compressed dacht ik.
Maar performance loss is ook verwaarloosbaar.

Even niets...


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Quindor schreef op vrijdag 22 september 2017 @ 02:48:
Nou ja, een goed werkend product? En ansich werkt het nog niet eens zo slecht, alleen dus het issue dat de snelheid soms laag word tijdens een rebuild maar dat het weer omhoog gaat zodra je wat naar het volume schrijft. Maar dat hoeft nog niet eens de jMicron controller te zijn, het kan bijvoorbeeld ook een USB controller/driver issue zijn?

Wat is jou ervaring ermee?
Mijn mening over JMicron :
- SSD controller ?!
Ver vandaan blijven! Waarom ? We kennen allemaal wel de verhalen ondertussen denk ik.
- Controller in een Externe USB behuizing ?
Ver vandaan blijven! Waarom ? Voor een fabrikant gewerkt die heel wat ellende met die krengen had in verschillende USB produkten!
- Als losse SATA controller op een PCI/PCIe kaart of Onboard op een moederbord ?
Niet gebruiken en uitschakelen dat kreng!

Ja, maar wat moet ik dan wel gebruiken ?!
Silicon Image 3112/3114 of de PCIe 3132/3134 chipsets (waren vroeger veel op moederborden te vinden en op goedkope SATA add-on kaarten) of natuurlijk gewoon de LSI 2008/2308/3008/enz. controllers die ik onlangs voor € 57 op eBay heb gescoord, dankzij een tip op het overclock.com forum :*)

Verder wil Marvell ook nog weleens een goede keuze zijn en als het echt niet anders kan en je moederbord heeft hem toch al onboard... die AsMedia dingen, maar kijk goed naar wat je ermee gaat doen! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

Als ik twee stripe disks met een parity disk heb, en de parity gaat kapot, dan kan deze automatisch gerebuild/resilvered worden.

Maar als ik twee stripe disks heb zonder parity, hoe kan ik dan doen alsof er een parity was maar dat die stuk is, zodat er een parity disk herbouwd wordt op een nieuwe disk?

De logica proeft alsof dit zou moeten kunnen.
Sando schreef op zaterdag 16 september 2017 @ 18:25:
Ik heb een ZOL stripe (raid0) met 2 disks gemaakt [...]

Kan ik een 3e disk toevoegen als parity (raidz1)? [...]

[ Voor 20% gewijzigd door Sando op 24-09-2017 23:47 ]

🇪🇺 Buy from EU (GoT)


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

De logica loopt echter al snel vast als je gaat kijken naar hoe een RAIDZ is opgebouwd. Zo is er niet een 'parity-disk', de parity-data wordt verspreid over de disks.

Acties:
  • +1 Henk 'm!
Precies wat dcm360 zegt, ZFS (en bijna alle andere RAID engines) verspreiden de parity over de disks, waardoor je achteraf niet alsnog naar RAIDZ kan.

Sowieso kan niet zomaar het aantal VDEV's wijzigen in een Pool. 2 disks in stripe, zijn 2 VDEV's. Je kan deze dus ook transformeren naar 2 RAID1 VDEV door aan beide een disk te koppelen, maar je kan nooit van die 2 stripes 1 mirror maken. Dit omdat ZFS' interne huishouding al ingedeeld is in verschillende VDEV's.

Er lopen al jaren initiatieven om dit te bouwen, maar is nog nooit echt van de grond gekomen volgens mij.

Even niets...


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

@dcm360 @FireDrunk Ok, duidelijk: Het zit een stuk complexer in elkaar dan ik denk dacht.

Dus als ik van 2x 1TB raid0 naar 3x 1TB raidz1 wil, dan is de enige manier om de data tijdelijk op een externe schijf te zetten?

Is dan de snelste manier om snapshops van de verschillende volumes op een externe schijf te zetten ipv gewoon een rsync? Ik durf het bijna niet te zeggen, maar ik heb nog nooit met snapshots gewerkt. Kan ik één snapshot van de pool kan maken, of moet ik snapshots van alle volumes apart maken? Bevat de snapshot alleen data, of ook de configuratie van het volume (opties, compression, etc)?

[ Voor 7% gewijzigd door Sando op 25-09-2017 13:52 ]

🇪🇺 Buy from EU (GoT)


Acties:
  • +1 Henk 'm!
Ok veel vragen:
1) Ja, dat is de snelste manier, je maakt een pool op een 2e (storage) systeem, en je maakt een snapshot van je hele originele pool, en die zet je over dmv ZFS Send & Receive
2) dmv zfs snapshot -r <poolnaam>@<snapshotnaam> maak je een snapshot van je hele pool inc sub-filesystems
3) Een snapshot bevat zelf geen data, maar refereert naar data (het werkt dus anders dan veel andere snapshot mechanismen).

De opties die je hebt op de ontvangende pool worden bij het overzetten van het snapshot dmv zfs receive gehonoreerd.

Met andere woorden, als je op je bron pool of filesystem compressie uit hebt, maar op je target pool/filesystem aan, gaat de zfs send de data ongecomprimeerd inlezen, en de zfs receive aan de andere kant de data gecomprimeerd wegschrijven.

Even niets...


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

FireDrunk schreef op maandag 25 september 2017 @ 14:00:
je maakt een pool op een 2e (storage) systeem, en je maakt een snapshot van je hele originele pool, en die zet je over dmv ZFS Send & Receive
Ah, dus als ik de snapshot op een niet-ZFS externe schijf wil opslaan moet ik het eerst senden naar een bestand:
  • zfs snapshot -r <poolnaam>@<snapshotnaam>
  • zfs send <poolnaam>@<snapshotnaam> | gzip --fast > /mnt/external/<poolnaam>.zfs.gz
Maar gezien het volgende:
The original file system to be received must not exist while it is being transferred.
Kan ik dus niet eerst de gelijknamige volumes met configuratie (e.g. zfs compression, zfs encryption) maken. Hoe kan ik dan bijvoorbeeld compression op een volume aanzetten?

Laatste stap:
  • gzip -cd /mnt/external/<poolnaam>.zfs.gz | zfs recv <poolnaam>

🇪🇺 Buy from EU (GoT)

code:
1
zfs send -R <poolnaam>@<snapshotnaam>
Kan ik dus niet eerst de gelijknamige volumes met configuratie (e.g. zfs compression, zfs encryption) maken.
Dat kan wel, mits je de juiste parameters meegeeft aan zfs send / recv. Dit betreft volgens mij de -F parameter.

code:
1
Laatste stap:

Wat is de reden dat je niet direct je zfs send naar je zfs recv piped?

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

CurlyMo schreef op woensdag 27 september 2017 @ 15:28:

[/code]
Wat is de reden dat je niet direct je zfs send naar je zfs recv piped?
De reden voor dit alles is dat ik geen parity schijf aan mijn pool kan toevoegen. Dus target == source computer, target pool = source pool + een nieuwe schijf. De data moet tijdelijk op een externe schijf.

🇪🇺 Buy from EU (GoT)

Sando schreef op woensdag 27 september 2017 @ 16:49:
[...]


De reden voor dit alles is dat ik geen parity schijf aan mijn pool kan toevoegen. Dus target == source computer, target pool = source pool + een nieuwe schijf. De data moet tijdelijk op een externe schijf.
Oftwel, je doet alles binnen hetzelfde systeem?

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

CurlyMo schreef op woensdag 27 september 2017 @ 17:01:
[...]

Oftwel, je doet alles binnen hetzelfde systeem?
Correct!

🇪🇺 Buy from EU (GoT)

Dan zie ik nog steeds niet waarom je je send / recv niet kan pipen?

code:
1
zfs send (lokale pool A)@snap | zfs recv (lokale pool B)

Dit werkt gewoon prima.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

CurlyMo schreef op woensdag 27 september 2017 @ 17:47:
[...]

Dan zie ik nog steeds niet waarom je je send / recv niet kan pipen?
Ik kan toch niet receiven op de zelfde pool die ik juist wil destroyen om er een schijf aan toe te voegen?

-edit- oh wacht ik denk dat we langs elkaar heen praten. Zie Sando in "Het grote ZFS topic" en de drie berichten daarboven.

[ Voor 20% gewijzigd door Sando op 27-09-2017 18:19 ]

🇪🇺 Buy from EU (GoT)

Sando schreef op woensdag 27 september 2017 @ 18:12:
[...]


Ik kan toch niet receiven op de zelfde pool die ik juist wil destroyen om er een schijf aan toe te voegen?
Dan is de vraag waarom je van die externe schijf niet met ZFS initialiseert?

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

CurlyMo schreef op woensdag 27 september 2017 @ 19:05:
[...]

Dan is de vraag waarom je van die externe schijf niet met ZFS initialiseert?
Waarom wel? ZFS is erg onpraktisch als externe schijf. Bovendien gaat het hier om een éénmalige image, en een image file heeft 0 overhead. Het niet hoeven configureren van ZFS bespaart ook tijd. En in dit specifieke geval wellicht het belangrijkste: Hoewel de externe schijf de nodige vrije terabytes heeft, is deze niet leeg.

[ Voor 4% gewijzigd door Sando op 27-09-2017 19:23 ]

🇪🇺 Buy from EU (GoT)

Sando schreef op woensdag 27 september 2017 @ 19:21:
[...]
En in dit specifieke geval wellicht het belangrijkste: Hoewel de externe schijf de nodige vrije terabytes heeft, is deze niet leeg.
Helder. Dan werkt wat je nu probeert inderdaad goed genoeg.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

@CurlyMo behalve dan dat ik nog niet weet hoe ik de volumes op de "nieuwe" pool kan configureren (bijvoorbeeld compressie aan) voordat ik een snapshot van de hele pool terugzet.

🇪🇺 Buy from EU (GoT)

Je kan niet de settings van een individueel filesystem op de target pool wijzigen als je een replication stream doet (een pool syncen inclusief filesystems).

Of begrijp ik je vraag niet goed?

Even niets...


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

FireDrunk schreef op donderdag 28 september 2017 @ 10:43:
Je kan niet de settings van een individueel filesystem op de target pool wijzigen als je een replication stream doet (een pool syncen inclusief filesystems).
Staan de settings dan in de stream? Of laat ik het anders vragen:

Je hebt een pool, met verschillende volumes, en de volumes hebben verschillende settings. Je wilt de pool destroyen en opnieuw createn met een extra schijf erin. Je wilt de data behouden met de zelfde volumes en settings. Je hebt voldoende terabytes vrij op een externe niet-ZFS schijf om tijdelijk data te parkeren.

Hoe zou jij dit aanpakken?

🇪🇺 Buy from EU (GoT)

zfs snapshot -r pool@full
zfs send -R pool@full | gzip /mnt/usb-disk/backup.tar.gz
zpool destroy pool
zpool create pool {disks}
gunzip /mnt/usb-disk/backup.tar.gz | zfs receive pool@full

Of denk ik te simpel?

[ Voor 4% gewijzigd door FireDrunk op 28-09-2017 18:39 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

In hoeverre schaalt ZFS met hardware? Aan de ene kant hoor ik mensen zeggen: "ZFS is very hardware-hungry." Aan de andere kant draaien mensen ZFS op hun Raspberry Pi.

Nu wil ik 3 schijven in ZFS gebruiken op een oude [URL="https://tweakers.net/pricewatch/282330/zotac-fusion-itx-wifi/specificaties/"]pricewatch: Zotac Fusion-ITX WiFi[/URL] omdat ik die heb liggen. (Ik heb ook een Pi liggen, maar dat lijkt me echt meer een gimmick dan iets serieus.) Is dat gewoon doable, of is dat echt een slecht idee qua performance?
Nee, dat is dus ongeveer precies wat ik denk. Maar ik wil eerst weten of settings als compressie en native ZFS encryptie in mijn volume's dan meekomen. Want zo niet, dan lijkt het me nogal omslachtig om daarna nieuwe volumes aan te maken met de oude settings, om de gekopiëerde snapshots vervolgens intern nog een keer te kopiëren.

Anders kan ik beter rsync gebruiken ipv zfs send/recv.

🇪🇺 Buy from EU (GoT)


Acties:
  • +1 Henk 'm!
Sando schreef op dinsdag 3 oktober 2017 @ 11:50:
In hoeverre schaalt ZFS met hardware? Aan de ene kant hoor ik mensen zeggen: "ZFS is very hardware-hungry." Aan de andere kant draaien mensen ZFS op hun Raspberry Pi.
Dat heeft alles met prestaties te maken. Voor top prestaties is ZFS net iets specifieker qua hardware dan andere FS-en. Een RPi is overigens nogal een tricky setup, omdat er nog geen 64bit OS voor is en je daardoor snel tegen geheugenproblemen aanloopt. Ik heb zelf 1 jaar zo'n setup gehad als offsite backup en op een gegeven moment bleven er maar problemen ontstaan. In dit topic heb ik vaker over dat experiment geschreven. Toen maar een tweedehands oude Supermicro Atom gekocht voor € 25,- ter vervanging.
Is dat gewoon doable, of is dat echt een slecht idee qua performance?
Begin bij welke prestaties je verwacht?
Maar ik wil eerst weten of settings als compressie en native ZFS encryptie in mijn volume's dan meekomen.
Die komen mee ja.
Anders kan ik beter rsync gebruiken ipv zfs send/recv.
rsync is altijd een slecht idee met ZFS want ZFS send/recv :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
CurlyMo schreef op dinsdag 3 oktober 2017 @ 12:14:
[...]
Een RPi is overigens nogal een tricky setup, omdat er nog geen 64bit OS voor is en je daardoor snel tegen geheugenproblemen aanloopt.
Here you go: ftp://ftp.nl.freebsd.org/...3-20170925-r323985.img.xz

Acties:
  • 0 Henk 'm!
Nice! Oftewel, binnenkort maar eens een RPi 3.0 aanschaffen om het uit te proberen.

[ Voor 12% gewijzigd door CurlyMo op 03-10-2017 12:55 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

CurlyMo schreef op dinsdag 3 oktober 2017 @ 12:14:

[...]

Begin bij welke prestaties je verwacht?
Nou de array die ik wil maken kan in theorie 750 MByte/s lezen en 250 schrijven. Het zou mooi zijn als ik mijn gigabit LAN wel kan voltrekken, dus ongeveer 120 MByte per seconde lezen en schrijven.
Die komen mee ja.
Ah, kijk dat is precies wat ik nodig heb!

Kan ik zo'n image ook mounten als ik gzip achterwege laat? Dan kan ik controleren of de bestanden er ook daadwerkelijk in staan.

🇪🇺 Buy from EU (GoT)


Acties:
  • +1 Henk 'm!
Sando schreef op dinsdag 3 oktober 2017 @ 13:39:
[...]


Nou de array die ik wil maken kan in theorie 750 MByte/s lezen en 250 schrijven. Het zou mooi zijn als ik mijn gigabit LAN wel kan voltrekken, dus ongeveer 120 MByte per seconde lezen en schrijven.
Daar kunnen de mensen hier wel advies op geven.
Kan ik zo'n image ook mounten als ik gzip achterwege laat? Dan kan ik controleren of de bestanden er ook daadwerkelijk in staan.
Theoretisch moet het kunnen zegt men:
https://askubuntu.com/a/103411

Anders gewoon een zfs send naar een /dev/null Als er fouten in de stream zitten dan merk je het vanzelf. Je kan ook een simulate receive doen:
https://www.freebsd.org/c...D%208.1-RELEASE&query=zfs
zfs receive [-vnF] -d filesystem
[...]
-n

Do not actually receive the stream. This can be useful in con-
junction with the -v option to verify the name the receive
operation would use.
Je kan daarvoor bijvoorbeeld een pool maken in een bestand:
code:
1
2
# truncate -s 1MB /tmp/test
# zpool create test /tmp/test

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

Hmm, gaat toch niet helemaal lekker. Als ik grote hoeveelheden data van mijn huidige pool SEND en op een andere schijf RECEIVE, dan flikkert het beeldscherm op een gegeven moment (heel) afentoe. Na verloop van tijd crasht de Cinnamon GUI, en restart hij in software mode. En even later zijn er even I/O errors waardoor de SEND faalt. Meestal na 10 tot 40 GB. Ook als ik een andere doelschijf gebruik. Volgens mij is er geen mogelijkheid tot resume bij een onderbroken ZFS SEND.

Dit is weer een vaag probleem, en de oorzaak kan aan van alles liggen. Bronschijven, doelschijf, kabels, voeding, moederbord, videokaart. Ik snap niet waarom het crashen van video en I/O errors hand in hand gaan. Heeft iemand een idee? Daardoor lijkt het niet aan de ZFS-array te liggen, anders zou de I/O wel op zich zelf staan. Het vreemde is: In Windows kan ik grote hoeveelheden data heen en weer kopiëren zonder probleem. Enige verschil is dat ik dan niet de ZFS-array gebruik.

[ Voor 3% gewijzigd door Sando op 04-10-2017 22:11 ]

🇪🇺 Buy from EU (GoT)


Acties:
  • 0 Henk 'm!
Volgens mij is er geen mogelijkheid tot resume bij een onderbroken ZFS SEND.
Op veel van je vragen is ook antwoord te vinden in de documentatie van ZFS. Zoals deze vraag hier.

Welke OS gebruik je met welk systeemspecificaties? Probeer anders een FreeBSD voor de zekerheid?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Sando schreef op woensdag 4 oktober 2017 @ 22:10:
*knip*
Volgens mij is er geen mogelijkheid tot resume bij een onderbroken ZFS SEND.
Jawel hoor, ZFS on Linux heeft die feature al :)
Dit is weer een vaag probleem, en de oorzaak kan aan van alles liggen. Bronschijven, doelschijf, kabels, voeding, moederbord, videokaart. Ik snap niet waarom het crashen van video en I/O errors hand in hand gaan. Heeft iemand een idee? Daardoor lijkt het niet aan de ZFS-array te liggen, anders zou de I/O wel op zich zelf staan. Het vreemde is: In Windows kan ik grote hoeveelheden data heen en weer kopiëren zonder probleem. Enige verschil is dat ik dan niet de ZFS-array gebruik.
Klinkt alsof je systeem out of memory loopt of te weinig CPU over heeft voor ZFS. Dan gaat alles bokken.
Check de belasting van je systeem eens met top, htop, vmstat, en/of iostat eens terwijl je aan het kopiëren bent.

Even niets...


Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 01:22

Thomg

Aww yiss

Ik gebruik al een jaar of 2 a 3 lang een HDD in zfs mode ( meegenomen van een FreeNAS install ) en heb recent mijn plexserver opengegooid voor mijn vrienden.
Nu mijn schijf wat meer vol begint te raken heb ik me wat meer verdiept in hoe ik nuttiger met de schijf om kan gaan.
Nu doe ik wat commando's en zie ik de volgende dingen.
Afbeeldingslocatie: https://i.snag.gy/axESOp.jpg
Hieruit volgen wat vragen...
Waarom is de overhead zo mallot groot :o, blijkbaar verlies ik 1/32? Dat is reteveel op een 3,63 TiB schijffie.
Is er misschien een reden waarom mijn compressratio zo spectaculair... shit is?

Dacht misschien aan het overzetten naar ext4, maar dat is geen beginnen aan. Weet vrij zeker dat als ik al het opslag in dit huis bij elkaar optel dat ik niet over de 3TB heen ga :F

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:03

Compizfox

Bait for wenchmarks

Thomg schreef op vrijdag 6 oktober 2017 @ 19:53:
Ik gebruik al een jaar of 2 a 3 lang een HDD in zfs mode ( meegenomen van een FreeNAS install ) en heb recent mijn plexserver opengegooid voor mijn vrienden.
Nu mijn schijf wat meer vol begint te raken heb ik me wat meer verdiept in hoe ik nuttiger met de schijf om kan gaan.
Één schijf maar? Of meerdere in RAID?
Nu doe ik wat commando's en zie ik de volgende dingen.
[afbeelding]
Hieruit volgen wat vragen...
Waarom is de overhead zo mallot groot :o, blijkbaar verlies ik 1/32? Dat is reteveel op een 3,63 TiB schijffie.
Je verliest inderdaad 1/32 aan "slop space", dat klopt. Zie hier. Ik zie alleen niet direct waaruit je dat opmaakt, want ik zie veel meer overhead (0.66 TiB) dan dat. 1/32 van 3.62 TiB is maar 0.11 TiB.
Is er misschien een reden waarom mijn compressratio zo spectaculair... shit is?
Wat voor content staat erop? Als dat content is die al gecomprimeerd is (video's, foto's) dan ga je dat niet verder dan het entropielimiet kunnen comprimeren.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 01:22

Thomg

Aww yiss

Compizfox schreef op vrijdag 6 oktober 2017 @ 19:59:
[...]

Één schijf maar? Of meerdere in RAID?

[...]

Je verliest inderdaad 1/32 aan "slop space", dat klopt. Zie hier. Ik zie alleen niet direct waaruit je dat opmaakt, want ik zie veel meer overhead dan dat...

[...]

Wat voor content staat erop? Als dat content is die al gecomprimeerd is (video's, foto's) dan ga je dat niet verder dan het entropielimiet kunnen comprimeren.
Het is 1 4TB HDD.
Enkel ZFS omdat dat standaard was met FreeNAS op dat moment ik te lui was te converteren naar ext4.
En, mja, die extra veiligheid, waarom ook niet he :*)

1/32*3.62=0,113125 ~=~ (681-565)/1000=0,116
Las ook ergens dat dit 1/64 kon zijn? Weet niet of dit zomaar even aangepast kan worden.

Het is een wiswas aan content, van video's en foto's, tot projecten, tot code, tot documenten, tot images.

[ Voor 7% gewijzigd door Thomg op 06-10-2017 20:05 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:03

Compizfox

Bait for wenchmarks

Thomg schreef op vrijdag 6 oktober 2017 @ 20:02:
[...]

Het is 1 4TB HDD.
Enkel ZFS omdat dat standaard was met FreeNAS op dat moment ik te lui was te converteren naar ext4.

1/32*3.62=0,113125 ~=~ (681-565)/1000=0,116

Het is een wiswas aan content, van video's en foto's, tot projecten, tot code, tot documenten, tot images.
Je rekent nu met de resterende vrije ruimte, maar die 1/32 is van je totale pool size. Je zou dus maar 3.62/32=0.11 TiB in totaal aan "slop space" kwijt moeten zijn. Niet 1/32 van je resterende ruimte (wat bij jou, waarschijnlijk toevallig, ongeveer het geval is).

Jij bent nu 3.62 - 2.96 = 0.66 TiB in totaal kwijt aan overhead. Geen idee waar dat precies aan opgaat als het maar 1 HDD is...

[ Voor 3% gewijzigd door Compizfox op 06-10-2017 20:12 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • +1 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 01:22

Thomg

Aww yiss

Compizfox schreef op vrijdag 6 oktober 2017 @ 20:05:
[...]

Je rekent nu met de resterende vrije ruimte, maar die 1/32 is van je totale pool size. Je zou dus maar 3.62/32=0.11 TiB in totaal aan "slop space" kwijt moeten zijn. Niet 1/32 van je resterende ruimte (wat bij jou, waarschijnlijk toevallig, ongeveer het geval is).

Jij bent nu 0.66 TiB in totaal kwijt aan overhead. Geen idee waar dat precies aan opgaat als het maar 1 HDD is...
Deze delta is statisch, onafhankelijk van hoeveel ik verwijder en toevoeg. Dus ik denk dat dat wel klopt?
Of misschien snap ik het niet helemaal?

Vind 0.66 TiB wel veel die "poef" doet, hoe kom je op dit getal?

Zie dat je je bericht geüpdatet hebt, ik ben die ruimte niet kwijt, deze is nog free (565GB, that is).

[ Voor 6% gewijzigd door Thomg op 06-10-2017 20:09 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:03

Compizfox

Bait for wenchmarks

Thomg schreef op vrijdag 6 oktober 2017 @ 20:08:
[...]

Deze delta is statisch, onafhankelijk van hoeveel ik verwijder en toevoeg. Dus ik denk dat dat wel klopt?
Of misschien snap ik het niet helemaal?

Vind 0.66 TiB wel veel die "poef" doet, hoe kom je op dit getal?
Nevermind, verkeerd gelezen. En die tabel ook, want bij zfs list is de eerste kolom dus USED en niet totaal. Laat maar, mijn fout :P

Dan lijkt het gewoon te kloppen.

[ Voor 29% gewijzigd door Compizfox op 06-10-2017 20:13 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 01:22

Thomg

Aww yiss

Compizfox schreef op vrijdag 6 oktober 2017 @ 20:10:
[...]

Nevermind, verkeerd gelezen. En die tabel ook, want bij zfs list is de eerste kolom dus USED en niet totaal. Laat maar :P
Ahaha, ik moest dit zelf ook nog een paar keer checken, online is het ook hetzelfde als zpool list output.
Dan blijven alleen nog de originele vragen 8)

Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 20-09 10:05

Simkin

Bzzzzz

- niet meer nodig -

[ Voor 96% gewijzigd door Simkin op 10-10-2017 15:48 ]


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Inmiddels zijn alle spullen binnen en getest voor mijn DIY Cloud Backup project waar ik eerder over gesproken heb. Omdat dit topic niet helemaal vol te spammen met videos wil ik graag verwijzen naar mijn post in het DIY RAID NAS topic voor de mensen die benieuwd zijn hoe het uiteindelijk heeft uitgepakt en eruit ziet!

Orico 5bay

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 14:49

FREAKJAM

"MAXIMUM"

Was deze build al hier voorbij gekomen? 832 TB – ZFS on Linux – Project “Cheap and Deep";

[ Voor 29% gewijzigd door FREAKJAM op 16-10-2017 21:57 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 21:27
Niet overdrijven hè, slechts ~400TB per systeem. ;)

Acties:
  • 0 Henk 'm!
Gave build, wel zonde van die SSD's :P

Even niets...


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

Heeft iemand hier al eens zelf ZoL met native encryption gecompileerd?

Het is interessant, want het is veel sneller dan EcryptFS van Ubuntu of de LUKS optie van Debian.

Ik heb een poos een (eind 2016 zelf) gecompileerde versie gedraaid, voordat de encryption commits gemerged waren naar master. Inmiddels zit het al een half jaar in master, maar het is nog niet getagged. Waarschijnlijk gaat native encryption mee met een tagged release in ZoL 0.8. Echter ben ik bang dat het nog wel even duurt voordat dit in Ubuntu of Debian zit, want ookal zit ZoL al op 0.7.1, bij Debian (en Ubuntu geloof ik ook) zitten ze nog op 0.6.x.

Het werkt netjes, maar ik krijg het niet meer aan de praat vanaf master (git). Vorig jaar compileerde ZoL naar een handjevol modules die je allemaal moest inserten en dat werkte gewoon prima en robuust. Ging eigenlijk meteen goed. Maar als je het volgens de nieuwe guide doet, dan gebeurt er niks? Make install, en er gebeurt niks? Als je alle modules insert, werkt het niet? De guide voelt onvolledig. Er staat hoe je het moet builden. En dan?

Ben benieuwd of iemand dit (vanaf 0.7.x) al eens heeft geprobeerd op Debian of Ubuntu, en mij kan vertellen welke stappen je uitvoerde waar de guide ophoudt. DKMS? insmod? Make deb?

🇪🇺 Buy from EU (GoT)


Acties:
  • +1 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 19-09 20:56
Sando schreef op dinsdag 17 oktober 2017 @ 12:50:
Ben benieuwd of iemand dit (vanaf 0.7.x) al eens heeft geprobeerd op Debian of Ubuntu, en mij kan vertellen welke stappen je uitvoerde waar de guide ophoudt. DKMS? insmod? Make deb?
Wij draaien hier 0.7.2 in productie. We bouwen ook onze eigen kernels, dus daar compilen we ZFS gewoon in.

Snippet uit het build script:
git -C zfs/ checkout "zfs-${ZOL_ZFS_VERSION}"
(cd zfs;
find ../patches/zfs \
-type f -name '*.patch' | xargs -L1 -i'{}' sh -c "echo Applying patch '{}'; patch --ignore-whitespace -i{} -p1 || exit 255"\;
./autogen.sh
./configure --enable-linux-builtin --with-linux=../src
./copy-builtin ../src
)
Is vast niet voor iedereen een optie, maar als je toch je eigen kernel buildt dan werkt het prima. Voordeel is dat je niet op al je machines DKMS hoeft te draaien bij iedere kernel upgrade, en dat het niet voor kan komen dat je kernel boot zonder ZFS support (mijn - weliswaar beperkte - ervaring met DKMS). Ivm licensing is dat alleen geen optie als je je kernel ook distribute naar derde partijen (CDDL vs GPL)

In ../src staan de linux sources (linux 4.9 of op test 4.14-rc5), en in het mapje zfs een clone van zfsonlinux zelf. Patches hebben we met 0.7 nog niet nodig gehad. Op 0.6 gebruikten we wel wat patches die uiteindelijk in 0.7 zaten.

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

Ik wil een RAID Z1 maken met 3x10TB. Echter is dit 2x 200MB/s en 1x 100MB/s.

Nu vraag ik me af: Doet ZFS ook iets van benchmarken en lezen van de twee snelste schijven, of is de trage schijf hoe je het ook wendt of keert de bottleneck?

En bij schrijven, is de schrijfactie 'klaar' als 2 van de 3 schijven klaar zijn, of moet op de traagste schijf gewacht worden voordat de schrijfactie als compleet aan het systeem wordt gemeldt?

🇪🇺 Buy from EU (GoT)


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:51
Als je veel synchrone writes hebt zou ik sowieso niet op een spinning disk willen wachten, zet er dan een kleine SSD als SLOG bij :) De rest "wacht" alleen op de schijven als je er zoveel data naartoe burst dat de schijven het niet bijhouden en je transaction groups niet op tijd weggeschreven kunnen worden.

Daarnaast vraag ik me af hoe een fabrikant een 10 TB schijf uit kan brengen die maar 100 MB/sec kan schrijven? Is die ene een Archive schijf met SMR en zijn de andere twee dat niet of zo? Dan nog impact SMR alleen het schrijven bij mijn weten, niet het lezen.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • belrpr
  • Registratie: Februari 2010
  • Laatst online: 20-09 11:17
Iemand het volgende al eens gehad.
Ik heb dus een RAIDZ volume waarvan 1 disk faalt.
Nu start geeft het importeren van pools de fout:
root@FS-PRX-01-17:~# zpool import
pool: RAIDZ
id: 18225548103796699372
state: UNAVAIL
status: One or more devices are missing from the system.
action: The pool cannot be imported. Attach the missing
devices and try again.
see: http://zfsonlinux.org/msg/ZFS-8000-6X
config:

RAIDZ UNAVAIL missing device
ata-ST2000DM006-2DM164_W4Z4KQ5D ONLINE
ata-ST2000DM006-2DM164_W4Z4JN3W ONLINE
ata-ST2000DM006-2DM164_W4Z4KFVP ONLINE
ata-ST2000DM006-2DM164_W4Z4JS6E ONLINE
ata-ST2000DM006-2DM164_W4Z4KQ7P ONLINE
ata-ST2000DM006-2DM164_W4Z4KCYZ ONLINE
ata-ST2000DM006-2DM164_W4Z4KQZS ONLINE
ata-ST2000DM006-2DM164_W4Z4KQ6Y ONLINE
ata-ST2000DM006-2DM164_W4Z4KQ38 ONLINE

Additional devices are known to be part of this pool, though their
exact configuration cannot be determined.
Ik weet welke schijf defect is en deze fysiek verwijderd.
Geprobeerd om de schijf te verwijderen met het commando:
zpool remove RAIDZ ata-ST2000DM006-2DM164_W4Z4JSYB

maar dan zegt hij dat er geen pool RAIDZ is.

Acties:
  • 0 Henk 'm!
belrpr schreef op donderdag 19 oktober 2017 @ 15:18:
Iemand het volgende al eens gehad.
Ik heb dus een RAIDZ volume waarvan 1 disk faalt.
Nu start geeft het importeren van pools de fout:

[...]

Ik weet welke schijf defect is en deze fysiek verwijderd.
Geprobeerd om de schijf te verwijderen met het commando:
zpool remove RAIDZ ata-ST2000DM006-2DM164_W4Z4JSYB

maar dan zegt hij dat er geen pool RAIDZ is.
Is de disk echt helemaal dood of wordt hij nog wel herkend, want best practice is dat je de disk vervangt door een andere disk terwijl je falende disk nog wel onderdeel van je pool uitmaakt.

Ook is het altijd handig een falende disk uit je pool te halen voordat je je systeem offline brengt en je disk fysiek verwijdert.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • belrpr
  • Registratie: Februari 2010
  • Laatst online: 20-09 11:17
Disk word totaal niet meer herkend.
Het gebeurde op een proxmox machine waar een vm bleef hangen.
Na reboot was de pool offline.

* Update *
Na uren zoeken en testen lijkt mij de data verloren.
Ik vind het enorm raar dat hij niet zegt date de defecte disk niet beschikbaar is en dat hij de pool niet online kan brengen. Er is uiteindelijk slechts 1 disk defect.

[ Voor 47% gewijzigd door belrpr op 20-10-2017 00:29 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
Vreemd, ben je echt 100% zeker over welke disk stuk is? Stomme vraag maar toch...

En hoe is de health van de andere disks?

Acties:
  • 0 Henk 'm!
belrpr schreef op donderdag 19 oktober 2017 @ 16:56:
Disk word totaal niet meer herkend.
Het gebeurde op een proxmox machine waar een vm bleef hangen.
Na reboot was de pool offline.

* Update *
Na uren zoeken en testen lijkt mij de data verloren.
Ik vind het enorm raar dat hij niet zegt date de defecte disk niet beschikbaar is en dat hij de pool niet online kan brengen. Er is uiteindelijk slechts 1 disk defect.
Kan je een overzicht geven van wat je allemaal al geprobeerd hebt met wat er op verschillende sites wordt gesuggereerd? Bijv. de meest simpele vraag. Heb je het als eens in FreeBSD proberen te importeren?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • belrpr
  • Registratie: Februari 2010
  • Laatst online: 20-09 11:17
Q schreef op zaterdag 21 oktober 2017 @ 00:58:
Vreemd, ben je echt 100% zeker over welke disk stuk is? Stomme vraag maar toch...

En hoe is de health van de andere disks?
Vrij zeker. Ook eens op Windows pc proberen aan te sluiten maar je hoort de schijf opstarten en 2x hard tikken en dan stopt het spinnen.

Zal straks als ik thuis ben een opsomming geven.
Pagina: 1 ... 180 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.