Ik zal even mijn glazen bol afstoffen, zodat ik kan zien wat er precies in script.sh staat.. Even wachten, ben zo terug 
Besides, zijn 't nou threads of instances?
Je noemt beide in dezelfde posts.. Is er werkelijk een probleem of is er helemaal geen probleem?
Besides, zijn 't nou threads of instances?
[ Voor 37% gewijzigd door Osiris op 01-12-2015 12:03 ]
Wat zie je met pstree (met de --highlight-pid=PID optie)? Begin daar maar eerst eens mee.
Commandline FTW | Tweakt met mate
ps | grep rsync
pstree16647 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16648 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16649 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16650 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16655 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16656 admin 5072 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16657 admin 5080 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16658 admin 5080 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16659 admin 5080 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16660 admin 5080 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16665 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16666 admin 5072 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16675 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16676 admin 5080 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16677 admin 4936 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16678 admin 5072 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16720 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16721 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16722 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16723 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16724 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16725 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16726 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
16727 admin 4880 S /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru --del --delete-e
De inhoud van het script lijkt goed te gaan aangezien ik geen problemen ervaar bij het manual aftrappen. Zodra hetzelfde script via cron met eerder genoemde schedule verloopt krijg ik bovestaande resultaten met als gevolg een machine die door z'n geheugen heen schiet.|-crond(449)
|-crond(13194)---sh(16667)---bash(16669)---rsync(16675)---rsync(16676)---rsync(167+
|-crond(14534)---sh(16632)---bash(16636)---rsync(16650)---rsync(16658)---rsync(167+
|-crond(14536)---sh(16637)---bash(16638)---rsync(16647)---rsync(16657)---rsync(167+
|-crond(14540)---sh(16661)---bash(16662)---rsync(16665)---rsync(16666)---rsync(167+
|-crond(14589)---sh(16631)---bash(16634)---rsync(16648)---rsync(16659)---rsync(167+
|-crond(15853)---sh(16668)---bash(16670)---rsync(16677)---rsync(16678)---rsync(167+
|-crond(15898)---sh(16651)---bash(16652)---rsync(16655)---rsync(16660)---rsync(167+
|-crond(16427)---sh(16633)---bash(16635)---rsync(16649)---rsync(16656)---rsync(167+
maar zonder dat wij het script kunnen zien, kunnen wij niet oordelen over wat er mis kan lopen. Gelieve het script hier neer te zetten (zonder eventuele gevoelige informatie erin) tussen [code] tags.
No keyboard detected. Press F1 to continue.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
| #!/bin/bash # Backup dir LOCALDIR=/tmp/mnt/backupdir # Excludes EXCLUDE='/tmp/mnt/mountpoint/Backup/exclude.lst' NOW="$(date +"%Y-%m-%d")" LOGFILE="/tmp/mnt/mountpoint/Backup/backup-$NOW.log" rm $LOGFILE /tmp/mnt/mountpoint/entware-ng.arm/bin/rsync -tru \ --del \ --delete-excluded \ --stats \ --inplace \ --no-whole-file \ --no-inc-recursive \ --log-file=$LOGFILE \ --bwlimit=1400 \ --exclude-from $EXCLUDE \ $LOCALDIR \ /tmp/mnt/webdav |
Het gaat om een asuswrt-merlin router met 2.6.36.4brcmarm (busybox en entware packager).
Cron job voeg ik toe met:
Met onderstaande script check ik of dat goed ging:
Returns enkel de bovestaande job.
Cron job voeg ik toe met:
code:
1
| cru a backup "45 11 * * * /tmp/mnt/script.sh 2>&1c" |
Met onderstaande script check ik of dat goed ging:
code:
1
2
3
4
5
6
7
| !/bin/bash #List all cron jobs for all users for user in `cat /etc/passwd | cut -d":" -f1`; do echo $user; crontab -l -u $user; done |
Returns enkel de bovestaande job.
Hmm ding heeft hem niet per ongeluk ook ergens in /etc/cron.d/* nog eens toegevoegd ?
"cru l" laat er ook maar eentje zien ?
"cru l" laat er ook maar eentje zien ?
[ Voor 79% gewijzigd door gekkie op 01-12-2015 13:15 ]
Net even gechecked door de tijd weg te schrijven naar een log file met dit als resultaat
Dus het script wordt 8 keer uitgevoerd zodra de crond dit doet.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| 2015-12-01-13:52:07 - manual 2015-12-01-13:53:04 - manual 2015-12-01-14:00:01 - cron 2015-12-01-14:00:01 2015-12-01-14:00:01 2015-12-01-14:00:01 2015-12-01-14:00:01 2015-12-01-14:00:01 2015-12-01-14:00:01 2015-12-01-14:00:01 2015-12-01-14:13:01 - nog een cron na cru d en opnieuw toevoegen job 2015-12-01-14:13:01 2015-12-01-14:13:01 2015-12-01-14:13:01 2015-12-01-14:13:01 2015-12-01-14:13:01 2015-12-01-14:13:01 2015-12-01-14:13:01 |
Dus het script wordt 8 keer uitgevoerd zodra de crond dit doet.
Je probleem is dat je meerdere instances van crond hebt. Zie bv. ps ax | grep crond.Furfoot schreef op dinsdag 01 december 2015 @ 12:41:
ps | grep rsync
pstree
code:
1 2 3 4 5 6 7 8 9 |-crond(449) |-crond(13194)---sh(16667)---bash(16669)---rsync(16675)---rsync(16676)---rsync(167+ |-crond(14534)---sh(16632)---bash(16636)---rsync(16650)---rsync(16658)---rsync(167+ |-crond(14536)---sh(16637)---bash(16638)---rsync(16647)---rsync(16657)---rsync(167+ |-crond(14540)---sh(16661)---bash(16662)---rsync(16665)---rsync(16666)---rsync(167+ |-crond(14589)---sh(16631)---bash(16634)---rsync(16648)---rsync(16659)---rsync(167+ |-crond(15853)---sh(16668)---bash(16670)---rsync(16677)---rsync(16678)---rsync(167+ |-crond(15898)---sh(16651)---bash(16652)---rsync(16655)---rsync(16660)---rsync(167+ |-crond(16427)---sh(16633)---bash(16635)---rsync(16649)---rsync(16656)---rsync(167+
nice catch, daar lijkt het inderdaad op.
Het zouden in theorie nog threads kunnen zijn maar ik denk dat jij op het goede pad zit.
Ik zou dus even alle crond's afschieten en er dan 1 starten en kijken of het goed gaat.
De volgende vraag is dan hoe je aan 8 crond processen komt maar misschien heb je daar zelf wel een idee over.
Het zouden in theorie nog threads kunnen zijn maar ik denk dat jij op het goede pad zit.
Ik zou dus even alle crond's afschieten en er dan 1 starten en kijken of het goed gaat.
De volgende vraag is dan hoe je aan 8 crond processen komt maar misschien heb je daar zelf wel een idee over.
This post is warranted for the full amount you paid me for it.
Pagina: 1