Acties:
  • 0 Henk 'm!

  • marcel50506
  • Registratie: April 2012
  • Laatst online: 21-01 08:11
Ik heb gisteren een nieuwe NAS gekocht, mijn eerste :*) Het is een Synology DS220+, met 2 WD Red Plus 4TB schijven (WD40EFRX). Ik heb hem gisteravond geïnstalleerd, en vannacht heeft hij wat standaard checks gedaan op de schijven, om 5 uur vanmorgen was hij daarmee klaar.

Vanochtend viel me op dat de schijven continu lijken te draaien, het typische 'geratel' van HDD's. Ik heb nog letterlijk 0,0 data op de schijven staan, ik heb alleen een pool en twee volumes aangemaakt. De HDD's zouden ook na 10 minuten geen gebruik uit moeten gaan, volgens de instelling in DSM. Na wat research las ik wel een aantal posts over dat indexing lang kan duren, maar gezien er geen data op staat lijkt me dat niet het geval.

Vandaar mijn vraag: Is continu (24/7) draaiende schijven normaal, of zouden ze wel stiller moeten worden zodra de NAS een tijd niets doet?

Acties:
  • 0 Henk 'm!

  • leonbong
  • Registratie: Augustus 2002
  • Laatst online: 22:55
Al die nassen beloven (spin down) dat, weinig maken het waar.
Zeker als je alle “standaard apps” actief hebt zullen ze eigenlijk nooit gaan slapen.

Voor de hdds maakt het niet echt uit.

[ Voor 63% gewijzigd door leonbong op 06-01-2021 16:52 ]


Acties:
  • 0 Henk 'm!

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 19:41
Mijn Nassen gaan prima slapen.
Maar er zijn natuurlijk legio applicaties die door continue activiteiten die schrijven naar logfiles veroorzaken.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • MeltedForest
  • Registratie: Februari 2007
  • Laatst online: 07-05 10:35

MeltedForest

Lenny-t

Ik laat mijn schijven 24/7 draaien, maar ik draai surveillance station en elke motion detection wordt weggeschreven..

De meningen op internet zijn nogal verdeeld hierover maar het lijkt mij persoonlijk ook gezonder voor WD Reds (daar zijn ze dacht ik voor ontworpen) om ze constant te laten draaien dan down spin / up spin.

Acties:
  • 0 Henk 'm!

  • marcel50506
  • Registratie: April 2012
  • Laatst online: 21-01 08:11
Bedankt voor de reacties! Mijn gedachte was vooral dat het niet slecht moet zijn voor de schijven, maar dat is dan waarschijnlijk niet het geval.

Ik moet nog wel even een ander plekje vinden, in de woonkamer is het toch iets te luid.

Acties:
  • 0 Henk 'm!

  • KraveN
  • Registratie: November 2001
  • Laatst online: 00:09
Er zijn een aantal applicaties die ervoor zorgen dat je NAS niet in slaap gaat. Denk aan bijvoorbeeld docker, surveillance station, mail server, etc Dus als er één van die services actief is zullen je schijven niet in slaap gaan.Daarnaast is het idd zo dat volgens mij de WD red en ironwolf gemaakt zijn om lange perioden achter elkaar actief te blijven. Terwijl een normale HDD lievere kortere sessie heeft. Persoonlijk had ik het liever ook anders gezien, maar het komt volgens mij door het feit dat ze DSM verdelen over alle schijven, dat op het moment wanneer er een schijf kapot gaat je altijd nog in de interface kan komen zodat je het probleem kan oplossen. Vanuit dat oogpunt is de ontwerp keuze wel logisch

Acties:
  • 0 Henk 'm!

  • marcel50506
  • Registratie: April 2012
  • Laatst online: 21-01 08:11
In mijn geval was het zo dat hij direct na installatie bleef draaien, zonder dat ik extra services had gestart/geïnstalleerd. Ik had verwacht dat hij dan 'op z'n stilst' zou moeten zijn.

Is er geen overzicht te zien van welke services op dat moment draaien/de HDDs wakker houden? Ik heb via SSH wel 'top' gedraait, maar ik werd daar nog niet direct wijs uit.

Acties:
  • 0 Henk 'm!

  • Robo1993
  • Registratie: Februari 2006
  • Laatst online: 06-05 17:42
WD schrijven zijn inderdaad bedoeld om 24/7 te draaien. Ze hebben ook een laag stroomverbruik i.v.m. normale schrijven als ze idle draaien. Sterker nog, je zal zelfs mensen vinden die de vraag andersom stellen: hoe ze kunnen voorkomen dat ze in slaapstand gaan ;)

Dell U2412M, Intel Xeon W3680 @ 4,3GHz, AMD Radeon RX 5700XT, Scythe Mugen 2, Asus P6T, 12GB DDR3, Kingston A2000 NVMe 1TB, OCZ Vertex 4 120 GB, 2X 500GB WD Caviar Black RAID-0, Cooler Master Real Power M700W, Logitech G533, Logitech MX5500, @Odido 1 Gb/s


Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 08-05 16:03

Tortelli

mixing gas and haulin ass

Work around is om je applicaties op een SSD te installeren die 24/7 aanblijft en de data op een HDD te plaatsen. Je moet hiet natuurlijk wel ruimte voor hebben.

Valt me overigens op dat mijn (raid 6) array alsnog niet uitgaat.

22x330Wp Oost-Zuid-West, 24x360Wp Oost-West, Total 15.900Wp


Acties:
  • +2 Henk 'm!

  • TMDC
  • Registratie: September 2007
  • Niet online
Na schone installatie van mijn DS218play duurde het ook een hele tijd voor het systeem bedaard was. Er valt toch blijkbaar nog wel het nodige te indexeren. Geef het nog wat tijd.

Acties:
  • +1 Henk 'm!

  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

TMDC schreef op vrijdag 8 januari 2021 @ 12:49:
Na schone installatie van mijn DS218play duurde het ook een hele tijd voor het systeem bedaard was. Er valt toch blijkbaar nog wel het nodige te indexeren. Geef het nog wat tijd.
Bij mij ging hij ook niet in slaap 418play. Echter nadat ik aantal services niet meer gebruikte loste dat issue vanzelf op. En nu gaan ze wel in slaap. Maar welke services de oorzaak waren weet ik nog steeds niet.

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


Acties:
  • +1 Henk 'm!

  • KraveN
  • Registratie: November 2001
  • Laatst online: 00:09
Tortelli schreef op vrijdag 8 januari 2021 @ 12:35:
Work around is om je applicaties op een SSD te installeren die 24/7 aanblijft en de data op een HDD te plaatsen. Je moet hiet natuurlijk wel ruimte voor hebben.

Valt me overigens op dat mijn (raid 6) array alsnog niet uitgaat.
Dat werkt dus niet. DSM wordt namelijk verdeeld over alle schijven. Dus als je een applicatie gebruikt die 24/7 draait blijven alle schijven dus draaien. Althans ik had hetzelfde idee. 2 ssd schijven in SHR en dan wat losse schijven voor data. Alleen gaf synology aan dat dan alles zou blijven draaien zodra ik één van de services zou gebruiken die 24/7 draait. In mijn geval docker.

Acties:
  • 0 Henk 'm!

  • GoT
  • Registratie: Mei 2004
  • Niet online

GoT

/ / ( . Y . ) \ \

Misschien aan het data scrubben ?

o << Your asshole before prison.
O << Your asshole after prison.


Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 08-05 16:03

Tortelli

mixing gas and haulin ass

KraveN schreef op zaterdag 9 januari 2021 @ 12:20:
[...]


Dat werkt dus niet. DSM wordt namelijk verdeeld over alle schijven. Dus als je een applicatie gebruikt die 24/7 draait blijven alle schijven dus draaien. Althans ik had hetzelfde idee. 2 ssd schijven in SHR en dan wat losse schijven voor data. Alleen gaf synology aan dat dan alles zou blijven draaien zodra ik één van de services zou gebruiken die 24/7 draait. In mijn geval docker.
Je kunt die docker applicatie toch gewoon naar het SSD volume verplaatsen? En zorgen dat hij de bestanden zelf op de SSD heeft staan?

Moet zeggen dat hij bij mij dus ook niet goed functioneert hoor ;)

22x330Wp Oost-Zuid-West, 24x360Wp Oost-West, Total 15.900Wp


Acties:
  • +1 Henk 'm!

  • Mijzelf
  • Registratie: September 2004
  • Niet online
marcel50506 schreef op vrijdag 8 januari 2021 @ 12:04:
Is er geen overzicht te zien van welke services op dat moment draaien/de HDDs wakker houden?
Een tijd geleden heb ik daar een script voor geschreven, die alle disk access logt. De log bevat de programmanaam die de access plegen, en als je geluk hebt ook de filenaam die geaccessed word. Maar misschien ook allee maar bloknummers.
Het is niet geschreven voor een Synology, maar ik heb geen reden om te denken dat het daar niet op werkt.
Bovenin staat een logdir gedefinieerd, het is belangrijk dat die op een ramdisk staat, anders ben je je logger aan het loggen. Of bij jouw /tmp een ramdisk is kun je zien met
grep tmpfs /proc/mounts

Als /tmp er niet bijstaat, kun je waarschijnlijk /run gebruiken.

Het script moet draaien als root, en heeft als neven effect dat de kernel log buffer leeg zal zijn na de run.

Je kunt de log uitlezen met
<scriptname> log

of gewoon manueel ${logdir}/log1 bekijken

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
#!/bin/sh

logdir=/tmp/disklog
statusfile=${logdir}/status
pidfile=${logdir}/pid

InitialWait()
{
    local startdelay=$1
    local minutes=0
    while [ $startdelay -gt $minutes ] ; do
    for seconds in 00 05 10 15 20 25 30 35 40 45 50 55
    do
        if [ -f ${pidfile} ] ; then
        echo "Start delay active ${minutes}:${seconds}/$startdelay:00" >${statusfile}
            sleep 5
        else
        exit 0
        fi
    done
    let minutes=minutes+1
    done
}

Log()
{
    # Clear logbuffer and create files
    dmesg -c >/dev/null
    local logfile=${logdir}/log1
    local tmpfile=${logdir}/tmp
    touch ${logfile}
    exec 2>${logfile}
    # Enable kernel logging
    echo 1 > /proc/sys/vm/block_dump
    echo "Logging active" >${statusfile}

    local oldstamp=HHMM

    while [ -f ${pidfile} ] ; do
    sleep 1
    filesize=` du ${logfile} | awk '{print $1}' `
        if [ $filesize -gt 2048 ] ; then
        [ -f ${logdir}/log2 ] && rm ${logdir}/log2
        mv ${logfile} ${logdir}/log2
        touch ${logfile}
    fi
    # Filter out message about blockdevices we're not interested in
    dmesg -c | grep -v "proc\|rootfs\|sysfs\|tmpfs\|devpts\|sda\|cgroup" >${tmpfile}

    if [ ` wc -c ${tmpfile} | cut -d ' ' -f 1 ` -gt 0 ] ; then
        local stamp=` date +%H%M `
        [ "$stamp" != "$oldstamp" ] && oldstamp=$stamp && echo "==== ` date ` ====" >>${logfile}
        cat ${tmpfile} >>${logfile}
    fi
    done
}

Cleanup()
{
    echo 0 >/proc/sys/vm/block_dump
    [ -f ${pidfile} ] && rm ${pidfile}
    echo "Logging stopped : ` date `" >>${logdir}/log1
    echo "Logging stopped" >${statusfile}
}

Daemon()
{
    mkdir -p ${logdir}
    echo $$ >${pidfile}
    trap "Cleanup" INT TERM EXIT
    [ "$1" != "0" ] && InitialWait $1
    Log $2
}

Start()
{
    local minutes=0
    local foreground=0
    while [ "$1" != "" ] ; do
    case "$1" in
        "--wait="*)
        minutes=$(echo "$1" | cut -d '=' -f 2 )
        ;;
        "--foreground")
        foreground=1
        ;;
        *)
        echo "Unknown parameter ${1}"
        exit 1
        ;;
    esac
    shift
    done
    if [ "${foreground}" = "0" ] ; then
    /bin/sh ${0} "__DAEMON__" "--wait=${minutes}" >/dev/null 2>&1 &
    return
    fi
    Daemon ${minutes}
}

Status()
{
    [ -f ${pidfile} ] || return 1
    local pid=`cat ${pidfile}`
    if [ -d /proc/${pid} ] ; then
    if grep "$1" /proc/${pid}/cmdline 
    then
        return 0
    fi
    fi
    # Dangling pid file
    rm ${pidfile}
    return 1
}

case $1 in
    "__DAEMON__")
    shift 
    Start "$@" --foreground
    ;;
    "start")
    if Status $(basename $0)
    then
        echo "Already running" 
        exit 0
    fi
    shift
    Start "$@"
    ;;
    "stop")
    if [ -f ${pidfile} ] ; 
    then
        kill $(cat ${pidfile})
    else 
        echo "Not running"
    fi
    ;;
    "status")
    if Status $(basename $0)
    then
        cat ${statusfile}
    else 
        echo "Not running"
    fi
    ;;
    "log")
    cat ${logdir}/log2 ${logdir}/log1
    ;;
    *)
    cat <<__EOS__
Use: $(basename $0) [start|stop|status|log] <arguments>
Arguments:
    --wait=n Wait n minutes before starting, to wait for the disks to be asleep
    --foreground Do not deamonize 
__EOS__
    ;;
esac

Acties:
  • 0 Henk 'm!

  • KraveN
  • Registratie: November 2001
  • Laatst online: 00:09
Tortelli schreef op zaterdag 9 januari 2021 @ 14:02:
[...]


Je kunt die docker applicatie toch gewoon naar het SSD volume verplaatsen? En zorgen dat hij de bestanden zelf op de SSD heeft staan?

Moet zeggen dat hij bij mij dus ook niet goed functioneert hoor ;)
Dat zou je inderdaad verwachten, althans dat was ook mijn aanname. Dus ik ben nu mijn plan aan het herzien, ben er alleen nog niet uit hoe :) Het wordt in ieder geval niet de DS620 die ik op het oog had. Want de 5TB 2.5 inch hdd drives die ik wilde gebruiken zijn geen red's of ironwolfs Dus die kunnen niet tegen hele lange sessies.

https://www.synology.com/...stem_hardware_hibernation

Maar zoals ik het links en rechts op het forum lees en wat Synology heeft bevestigd is dat DSM verspreid wordt over een partitie op alle schrijven. Mocht er een schijf kapot gaan kun je altijd in DSM komen, zolang er in principe nog maar 1 werkt.

Waarom dan alle schijven blijven draaien als je een service draait op een SSD is mij nog een raadsel, maar misschien iets met systeemlogging die in DSM wordt weggeschreven en dus naar alle schijven.

Maar goed iedereen heeft er problemen mee, dus het zal wel werken zoals verwacht door Synology. Daarnaast schijnen de red's en de ironwolfs er goed mee om te kunnen gaan.

Acties:
  • 0 Henk 'm!

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 19:41
Als een applicatie gebruik maakt van system service dan komt daar logging bij aan te pas.
En Linux logging wordt op de systeem partitie gedaan en die staat in een mirror op elke disk in het systeem.

Je kunt in de verschillende logfiles kijken wat waardoor gelogd wordt.
Deze logfiles vind je in /var/log folder, sorteer ze op datum/tijd en kijk welke geupdate worden en waardoor.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

KraveN schreef op zaterdag 9 januari 2021 @ 14:28:
[...]


Dat zou je inderdaad verwachten, althans dat was ook mijn aanname. Dus ik ben nu mijn plan aan het herzien, ben er alleen nog niet uit hoe :) Het wordt in ieder geval niet de DS620 die ik op het oog had. Want de 5TB 2.5 inch hdd drives die ik wilde gebruiken zijn geen red's of ironwolfs Dus die kunnen niet tegen hele lange sessies.

https://www.synology.com/...stem_hardware_hibernation

Maar zoals ik het links en rechts op het forum lees en wat Synology heeft bevestigd is dat DSM verspreid wordt over een partitie op alle schrijven. Mocht er een schijf kapot gaan kun je altijd in DSM komen, zolang er in principe nog maar 1 werkt.

Waarom dan alle schijven blijven draaien als je een service draait op een SSD is mij nog een raadsel, maar misschien iets met systeemlogging die in DSM wordt weggeschreven en dus naar alle schijven.

Maar goed iedereen heeft er problemen mee, dus het zal wel werken zoals verwacht door Synology. Daarnaast schijnen de red's en de ironwolfs er goed mee om te kunnen gaan.
Mijn disks zijn WD Greens, met WDIDLE3 aangepast (dus head parking uitgezet) en zijn nu 12 jaar oud en hebben 3 nassen overleeft (2xZelfbouw, 1xDS418play)

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


Acties:
  • 0 Henk 'm!

  • marcel50506
  • Registratie: April 2012
  • Laatst online: 21-01 08:11
Mijzelf schreef op zaterdag 9 januari 2021 @ 14:22:
[...]

Een tijd geleden heb ik daar een script voor geschreven, die alle disk access logt. De log bevat de programmanaam die de access plegen, en als je geluk hebt ook de filenaam die geaccessed word. Maar misschien ook allee maar bloknummers.

[...]
Nice! Ik ga dat eens uitproberen. Geeft me meteen weer wat meer inzicht in wat 'm NAS allemaal doet en hoe 't werkt. Bedankt
Pagina: 1