Acties:
  • +1 Henk 'm!

  • Buzz_Fuzz
  • Registratie: Juni 2002
  • Laatst online: 02-09 21:21
Wat je nu wil, is je brondata op je pc backuppen naar je NAS en dan die doellocatie syncen naar smartphones. Waarom doe je het niet omgekeerd? Zet de foto's & muziek op je NAS, en laat die via bv Cloud Station syncen naar je PC & smartphones.

Sowieso komt Hyper Backup er in jouw verhaal niet bij kijken...
In hoeverre je Cloud Station kan configureren op vlak van (non-)shared folders, dat weet ik niet.

Kijk mss ook eens naar DS Photo & DS Audio.

Bij een incremental backup ben je je vorige versies niet kwijt. Ja een cryptolocker zou een volledig nieuwe backup triggeren, maar die komt naast je huidige te staan (=incremental). Bij een sync (zonder versioning functies) niet.

Mijn schema is als volgt:

Muziek/Video: 
  NAS (shared folder) -> Bvckup2 -> PC (backup-disk)
Docs: 
  PC -> Google Drive/Dropbox
     -> Bvckup2 -> NAS (hidden folder)
Foto's & alle andere data: 
  PC -> Bvckup2 -> NAS (hidden folder)
Images van SSD's: 
  PC -> Macrium Reflect -> NAS (hidden folder)

Daarnaast:
  NAS (hidden folder, behalve de ssd images) -> Hyper Backup -> Amazon Cloud Drive

En het geheel (manueel, tweetal keer per jaar): 
  NAS (shared & hidden folder) -> Bvckup2 -> external drive


Bvckup2 doet dus louter een sync. Voor muziek/video hoef ik geen versioning, wijzigt toch niet zo vaak, en heb altijd nog een offline drive liggen met een backup.
Voor alle andere data behalve disk images, verzorgt Hyper Backup de versioning op ACD. (Zo verspil ik minder ruimte op m'n NAS)

[ Voor 10% gewijzigd door Buzz_Fuzz op 27-11-2017 14:46 ]

My Road Trips through the United States, Canada & Iceland


Acties:
  • 0 Henk 'm!

  • Bluefall
  • Registratie: Mei 2009
  • Laatst online: 22:18
Amazon Drive Unlimited houdt op te bestaan.
Het 1TB plan gaat qua prijs ook direct de hoogte in naar €100/jaar.

Zo wordt C2 Recovery plots wel interessant.

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

Dit is al maanden bekend?.

Acties:
  • 0 Henk 'm!

Verwijderd

Question;

Momenteel heb ik mijn data middels:
- Hyper Backup naar USB die om de twee weken naar kantoor gaat en daar ligt
- Hyper Backup naar C2
- Cloud Sync naar B2 van Backblaze

Nou ben ik niet zo heel tevreden over Synology en Backblaze want hij heeft een keer aangegeven dat hij 100% klaar was terwijl dat niet zo was. De job verwijderen en opnieuw aanmaken heeft ervoor gezorgd dat het weer verder ging met backuppen.

Wat ik eigenlijk wil is een tweede usb harde schijf halen en dan om de week een backup maken via usb en die op het werk leggen. Echter, ik heb geen idee hoe ik dit kan bewerkstelligen met rotating USB drives. Hebben jullie hier ervaringen mee?

Acties:
  • +1 Henk 'm!

  • m2dekker
  • Registratie: Februari 2006
  • Laatst online: 11-09 15:08
Verwijderd schreef op maandag 11 december 2017 @ 21:45:
...
Wat ik eigenlijk wil is een tweede usb harde schijf halen en dan om de week een backup maken via usb en die op het werk leggen. Echter, ik heb geen idee hoe ik dit kan bewerkstelligen met rotating USB drives. Hebben jullie hier ervaringen mee?
Ik heb zelf 2 schijven waarop ik wekelijks een backup maak met "USB Copy" middels een "mirror" task.
Voor mij is het schijf er aanhangen, wachten tot de automatische taak klaar is, waarna hij unmounted wordt.

Enige beperking (voor mij) is de flexibiliteit :
Beperking #1
Je kunt maar een (root) map aanwijzen om te syncen.
Heb je dus meerdere volumes (of mappen in je root), dan wordt het lastig.
Beperking #2
Geen uitgebreid logging aanwezig
Bij synology een feature request aangemeld en ze zeggen dat ze er in de toekomst iets mee zullen gaan doen.

Common sense is so rare, it should be classified as a super power.


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Bluefall schreef op vrijdag 1 december 2017 @ 17:06:
Amazon Drive Unlimited houdt op te bestaan.
Het 1TB plan gaat qua prijs ook direct de hoogte in naar €100/jaar.

Zo wordt C2 Recovery plots wel interessant.
Nee hoor:
Your unlimited plan, ending on 1/15/18, is no longer offered. After that, your account will be automatically renewed into the 1 TB plan for your existing rate of $59.99 per year.
Blijft gewoon €60 per jaar voor 1TB. Ik heb +/- 650GB in Amazon staan dus ik blijf lekker bij Amazon Drive voor dat geld.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
Tortelli schreef op vrijdag 22 september 2017 @ 17:52:
Iemand ervaring met het overgaan van crashplan home > pro in docker?.
Heb mijne goed werkende gekregen door de uitleg van @FrenzyFreak ( FrenzyFreak in "[Synology] Backup strategieën en tools" ), maar nu naar de Pro versie?.

(probeer dat iig tot mijn abbo erop zit...)
Ik ben om naar CrashPlan Pro en ik kan mijn uitleg aanpassen als er nog behoefte aan is. Pro bleek uiteindelijk makkelijker dan Home.

Vanwege de grootte van mijn backupset van meer dan 5TB, is mijn upload wel opnieuw begonnen... maar over ~2 maanden is deze backup weer compleet. ;)

Ik heb nog een secundaire offsite Synology als primaire backup.

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

FrenzyFreak schreef op dinsdag 12 december 2017 @ 23:07:
[...]

Ik ben om naar CrashPlan Pro en ik kan mijn uitleg aanpassen als er nog behoefte aan is. Pro bleek uiteindelijk makkelijker dan Home.

Vanwege de grootte van mijn backupset van meer dan 5TB, is mijn upload wel opnieuw begonnen... maar over ~2 maanden is deze backup weer compleet. ;)

Ik heb nog een secundaire offsite Synology als primaire backup.
Heb na wat googlen Crashplan pro aan de gang gekregen in een nieuwe container, als ik niet oppas ga ik Docker nog eens daadwerkelijk begrijpen!.

Pro heeft echter dezelfde nadelen als de Home versie; de upload is zeer traag. Denk dat ik daarom uiteindelijk af ga stappen van Crashplan als we full price moeten gaan betalen, en het bij mijn offsite Synology hou. Er zit ook een terug verdien tijd in het plaatsen van een grotere HDD van je offsite oplossing, verdien je met 1-2 jaar terug......

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 19:56

MvL

Ik heb hier een Synology draaien waar ik handmatig mijn documenten naar een share kopieer, deze wordt weer ge-backuped naar Synology C2 backup. Kan dit automatisch, en is dit verstandig?

Ik ben aan het stoeien geweest met Synology Cloudserver en Drive, maar ik ben niet overtuigd dat dit de oplossing is.

Ook ben ik op zoek naar een goede backup oplossing voor mijn familie. Dit wil ik eerst naar mijn Synology doen, en de Synology maakt weer een C2 backup.

Acties:
  • 0 Henk 'm!

  • pietje63
  • Registratie: Juli 2001
  • Laatst online: 23:37

pietje63

RTFM

MvL schreef op vrijdag 15 december 2017 @ 17:12:
Ik ben aan het stoeien geweest met Synology Cloudserver en Drive, maar ik ben niet overtuigd dat dit de oplossing is.
Waar twijfel je aan? Bij mij werkt dat prima.

De grootste Nederlandstalige database met informatie over computers met zoekfunctie!!


Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

MvL schreef op vrijdag 15 december 2017 @ 17:12:
Ik heb hier een Synology draaien waar ik handmatig mijn documenten naar een share kopieer, deze wordt weer ge-backuped naar Synology C2 backup. Kan dit automatisch, en is dit verstandig?

Ik ben aan het stoeien geweest met Synology Cloudserver en Drive, maar ik ben niet overtuigd dat dit de oplossing is.

Ook ben ik op zoek naar een goede backup oplossing voor mijn familie. Dit wil ik eerst naar mijn Synology doen, en de Synology maakt weer een C2 backup.
Je kunt de backup functie in Windows 10 gebruiken, met als doel je Synology. Dan gaat het backuppen van bestanden iig al automatisch.

Een hyperbackup naar Synology's C2 platform is verder prima, heeft versioning etc.

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 22:32

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Arfman schreef op dinsdag 12 december 2017 @ 12:36:
[...]

Nee hoor:


[...]


Blijft gewoon €60 per jaar voor 1TB. Ik heb +/- 650GB in Amazon staan dus ik blijf lekker bij Amazon Drive voor dat geld.
Nadeel van Amazon is echter wel dat je backup in buckets terecht komt die je niet kan uitlezen via een browser. Je kan niet even snel iets uit je backup terughalen zonder je Syno. In C2 worden alle backups als normale bestanden weggeschreven en kan je via een webinterface deze bestanden ook downloaden. Dat was voor mij de reden dat ik ben geswitcht van Amazon naar C2.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • Pimmeh
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:13
MvL schreef op vrijdag 15 december 2017 @ 17:12:
Ik heb hier een Synology draaien waar ik handmatig mijn documenten naar een share kopieer, deze wordt weer ge-backuped naar Synology C2 backup. Kan dit automatisch, en is dit verstandig?

Ik ben aan het stoeien geweest met Synology Cloudserver en Drive, maar ik ben niet overtuigd dat dit de oplossing is.

Ook ben ik op zoek naar een goede backup oplossing voor mijn familie. Dit wil ik eerst naar mijn Synology doen, en de Synology maakt weer een C2 backup.
Ik gebruik duplicati, supergoede backup! Die backupt eens per week naar mijn Synology en doet aan versioning. Dus dan heb je het probleem afgevangen wanneer je een (crypto)virus oid krijgt. Om te voorkomen dat een virus op mijn PC direct bij mijn Synology kan, heb ik op mijn Synology een apart backup-account aangemaakt en die ontvangt via FTP zijn bestanden van Duplicati. Zo heb ik zoveel mogelijk gescheiden qua toegangsrechten. Op de synology draait dan weer CloudSync die de backupmap in sync houdt (via upload local changes only) met TransIP van Stack.

Dit schema voldoet aan het 3-2-1-backupschema. 3 verschillende kopieën van je data, op minimaal 2 verschillende apparaten waarvan minimaal 1 offsite.

Acties:
  • 0 Henk 'm!

  • Tralapo
  • Registratie: Januari 2008
  • Niet online
Hoe presteert CloudSync naar Stack bij jou? Voor de losse bestandjes lijkt het best aardig te gaan, maar mijn server stuurt ook elke nacht een backup (tar van circa 7GB) naar m'n NAS en die krijgt hij echt met moeite naar Stack. Soms staan er daar uiteindelijk 5 of 6 van in de wachtrij.

Acties:
  • 0 Henk 'm!

  • Pimmeh
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:13
Gaat prima, wat bedoel je 'met moeite'? En heb je misschien een sync schedule ingesteld waardoor hij niet meer synct? Of is je uploadsnelheid wellicht te traag? Reken eens uit hoe lang hij erover zou moeten doen bijvoorbeeld.

Acties:
  • 0 Henk 'm!

  • Tralapo
  • Registratie: Januari 2008
  • Niet online
Nee, er is geen schedule ingesteld en ook geen beperking op uploadsnelheid. Hij doet gewoon langer dan 24 uur over het uploaden van zo'n .tar.gz van 7,5 GB, waardoor de volgende alweer in de rij aansluit (er komt elke dag zo'n bestand binnen), waardoor de algemene snelheid omlaag lijkt te worden getrokken waardoor er eigenlijk altijd 4 of 5 van diezelfde bestanden in de wachtrij lijken te staan.

[ Voor 12% gewijzigd door Tralapo op 16-12-2017 18:57 ]


Acties:
  • 0 Henk 'm!

  • Pimmeh
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:13
Hmm, dat is minder 0,7 Mbit per seconde. Dat is wel heel erg traag ja.

Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
heb hier sinds kort via Cloud Sync TransIP stack aangezet.

Maar hij blijft dezelfde bestanden telkens opnieuw synchroniseren..
o.a .ISO bestanden..

zo duurt het syncen een eeuwigheid..

Iemand een idee of oplossing hiervoor ?

Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Microkid schreef op zaterdag 16 december 2017 @ 15:13:
[...]

Nadeel van Amazon is echter wel dat je backup in buckets terecht komt die je niet kan uitlezen via een browser. Je kan niet even snel iets uit je backup terughalen zonder je Syno. In C2 worden alle backups als normale bestanden weggeschreven en kan je via een webinterface deze bestanden ook downloaden. Dat was voor mij de reden dat ik ben geswitcht van Amazon naar C2.
:?
Buckets?

Je kunt ook zonder Syno je backupbestanden uitlezen, heb je wel de encryptiekey en een Windows programmaatje nodig.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • loyske
  • Registratie: Januari 2004
  • Laatst online: 11-09 13:34
Ik heb een probleempje in Hyper Backup. Ik heb een backup lopen naar C2 en dat gaat prima.
Nu wil ik een folder toevoegen aan de backup, maar een subfolder in die folder niet.
Als ik dus de hoofd folder aanvink, wordt de subfolder ook aangevinkt.
Vink ik de subfolder uit, dan wordt de hoofd folder ook uitgevinkt...
Is dit niet mogelijk of is dit een bug?

Acties:
  • +1 Henk 'm!

  • Orion84
  • Registratie: April 2002
  • Laatst online: 18:53

Orion84

Admin General Chat / Wonen & Mobiliteit

Fotogenie(k)?

Topicstarter
loyske schreef op dinsdag 19 december 2017 @ 09:18:
Ik heb een probleempje in Hyper Backup. Ik heb een backup lopen naar C2 en dat gaat prima.
Nu wil ik een folder toevoegen aan de backup, maar een subfolder in die folder niet.
Als ik dus de hoofd folder aanvink, wordt de subfolder ook aangevinkt.
Vink ik de subfolder uit, dan wordt de hoofd folder ook uitgevinkt...
Is dit niet mogelijk of is dit een bug?
Zo te zien gebeurt dat als die subfolder de enige subfolder is. Dat lijkt me inderdaad een bug, aangezien je de bestanden die naast die subfolder staan wel zou moeten kunnen backuppen.

Als workaround zou je een lege subfolder kunnen toevoegen, zodat de subfolder die je wilt uitsluiten van de backup niet meer de enige subfolder is. Dan zou het wel moeten werken.

Maar wellicht ook even melden bij Synology :)

The problem with common sense is that it's not all that common. | LinkedIn | Flickr


Acties:
  • 0 Henk 'm!

  • loyske
  • Registratie: Januari 2004
  • Laatst online: 11-09 13:34
Orion84 schreef op dinsdag 19 december 2017 @ 09:26:
[...]

Zo te zien gebeurt dat als die subfolder de enige subfolder is. Dat lijkt me inderdaad een bug, aangezien je de bestanden die naast die subfolder staan wel zou moeten kunnen backuppen.

Als workaround zou je een lege subfolder kunnen toevoegen, zodat de subfolder die je wilt uitsluiten van de backup niet meer de enige subfolder is. Dan zou het wel moeten werken.

Maar wellicht ook even melden bij Synology :)
Workaround geprobeerd, maar dan moet je dus wel de lege subfolder selecteren anders wordt nog steeds de hoofd folder uitgevinkt ;)

Melding bij Synology gemaakt.

Acties:
  • +1 Henk 'm!

  • Orion84
  • Registratie: April 2002
  • Laatst online: 18:53

Orion84

Admin General Chat / Wonen & Mobiliteit

Fotogenie(k)?

Topicstarter
loyske schreef op dinsdag 19 december 2017 @ 09:56:
[...]


Workaround geprobeerd, maar dan moet je dus wel de lege subfolder selecteren anders wordt nog steeds de hoofd folder uitgevinkt ;)
Ja, precies, zodra je alle subfolders uitvinkt word ook de parent uitgevinkt. Als je tenminste 1 subfolder aanvinkt werkt het wel.

The problem with common sense is that it's not all that common. | LinkedIn | Flickr


Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
niemand een idee, omtrend mijn TransIP stack probleem met Cloud Sync.. ?

Deze is nog steeds aan het uploaden van dezelfde bestanden als paar dagen geleden..
Hij blijft sommige constant opnieuw doen..
Snap er niks van...

Acties:
  • 0 Henk 'm!

  • keverjeroen
  • Registratie: Mei 2010
  • Laatst online: 04-09 14:43
FlorisVN schreef op dinsdag 19 december 2017 @ 11:06:
niemand een idee, omtrend mijn TransIP stack probleem met Cloud Sync.. ?

Deze is nog steeds aan het uploaden van dezelfde bestanden als paar dagen geleden..
Hij blijft sommige constant opnieuw doen..
Snap er niks van...
Hoe groot zijn de bestanden?

Zie: Let op: Het WebDAV protocol heeft een uploadlimiet van 4 GB. Op: https://www.transip.nl/kn...k-mijn-synology-koppelen/

Mijn LEGO dingetjes: www.KeverBricks.nl (insta, bricklink etc)


Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
aah ok,

thx voor je bericht keverjeroen,

bestanden zijn veel groter dan 4GB.

Jammer van deze limitatie..
Dan gaat het hele plan niet echt lukken met TransIP..

Heb idd volledig geconfigureerd volgens de handleiding van TransIP

[ Voor 17% gewijzigd door FlorisVN op 19-12-2017 12:18 ]


Acties:
  • 0 Henk 'm!

  • Pimmeh
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:13
Kun je de bestanden niet laten opsplitsen door het programma wat ze maakt met een max grootte van 1 GB of 500 MB? Als er dan iet misgaat met 1 bestand hoeft ie sowieso niet alles opnieuw te uploaden.

Acties:
  • 0 Henk 'm!

  • caspertje19
  • Registratie: Juni 2011
  • Laatst online: 20:30
Kun je niet lokaal een hyper backup maken en de backup syncen met webdav?

Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
idd, ik heb een lokale hyper backup.
Ik zal eens kijken of ik deze kan laten syncen met Stack TransIP.

Ik vraag me enkel wel af of Stack de hyperbackup bestanden toelaat.. ?

En wat ik echter niet begrijp is dat ik bijv. vanuit de browser wel gwn grote bestanden kan uploaden naar Stack. (4GB+)

maar dan werk ik zeker niet via een WebDAV verbinding.. ?

Acties:
  • 0 Henk 'm!

  • caspertje19
  • Registratie: Juni 2011
  • Laatst online: 20:30
Ik had zelf van de week ook een sync opgezet van een hyper cloud backup (weliswaar met encryptie), en deze succesvol gedownload op een Windows pc en kunnen herstellen. Maar ben heel benieuwd of het jou ook lukt

Acties:
  • 0 Henk 'm!

  • keverjeroen
  • Registratie: Mei 2010
  • Laatst online: 04-09 14:43
Kan je in Hyper backup een max bestandsgrootte aangeven? Dat kan ik nergens vinden..

Hier staat wel dat je rechtstreeks naar een webdav kan backuppen:
https://www.synology.com/...p/data_backup_destination

Na wat googelen lees ik wel problemen met backuppen naar de Transip websdav..

[ Voor 25% gewijzigd door keverjeroen op 19-12-2017 20:23 ]

Mijn LEGO dingetjes: www.KeverBricks.nl (insta, bricklink etc)


Acties:
  • 0 Henk 'm!

  • Tralapo
  • Registratie: Januari 2008
  • Niet online
keverjeroen schreef op dinsdag 19 december 2017 @ 12:15:
[...]

Hoe groot zijn de bestanden?

Zie: Let op: Het WebDAV protocol heeft een uploadlimiet van 4 GB. Op: https://www.transip.nl/kn...k-mijn-synology-koppelen/
Ah, kijk. Dat zal dan waarschijnlijk ook het probleem zijn dat ik heb. Vraag me af of die limiet er altijd al geweest is of recentelijk is ingesteld.

Edit: Zodra ik de map met bestanden van 7GB of meer heb uitgevinkt in de settings van Cloud Sync begint hij ineens als een razende bestanden te uploaden die er tot nu toe elke keer maar niet doorheen kwamen. Dit probleem is dan ook weg nu. Vreemd dat hij dus geen foutmelding of iets dergelijks geeft, maar gewoon doet alsof hij eeuwen nodig heeft om een te groot bestand up te loaden, waardoor de rest stil komt te vallen.

[ Voor 35% gewijzigd door Tralapo op 19-12-2017 20:52 ]


Acties:
  • 0 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 23:13
Vooralsnog een erg tevreden gebruiker van Synology C2 backup naar Frankfurt am Main (vermoedelijk is het een Amazon backend). Heb direct gekozen voor plan II en er loopt nu vier keer per dag een taak. Ik ben nog geen problemen tegengekomen.

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

FrenzyFreak schreef op dinsdag 12 december 2017 @ 23:07:
[...]

Ik ben om naar CrashPlan Pro en ik kan mijn uitleg aanpassen als er nog behoefte aan is. Pro bleek uiteindelijk makkelijker dan Home.

Vanwege de grootte van mijn backupset van meer dan 5TB, is mijn upload wel opnieuw begonnen... maar over ~2 maanden is deze backup weer compleet. ;)

Ik heb nog een secundaire offsite Synology als primaire backup.
Lijkt erop dat ik wat te voorbarig was, remote control van eea lijkt niet meer te werken momenteel via de normale Windows tool (4.9).

https://hub.docker.com/r/rungeict/crashplanpro/ Werkt niet meer, zult nu een Docker met VNC functie moeten gebruiken denk ik.

[ Voor 9% gewijzigd door Tortelli op 19-12-2017 21:30 ]


Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
Tortelli schreef op dinsdag 19 december 2017 @ 21:27:
[...]


Lijkt erop dat ik wat te voorbarig was, remote control van eea lijkt niet meer te werken momenteel via de normale Windows tool (4.9).

https://hub.docker.com/r/rungeict/crashplanpro/ Werkt niet meer, zult nu een Docker met VNC functie moeten gebruiken denk ik.
Gelukkig deed ik dit al. ;) Scheelt veel configuratie werk achteraf en werkt bijzonder prettig.

Ik ben om naar jlesage/crashplan-pro. Bijkomend voordeel is dat MAX_MEM nu een setting is, aan te geven in je docker run script.

Een nadeel is wel dat CrashPlan niet automatisch kan bijwerken. Dit zag ik als error in de logging (de update naar de nieuwe interface).

Dit betekent dus je installatiescript altijd goed bijhouden en af en toe zullen we dan handmatig de container moeten vernietigen en opnieuw het latest image weer opgooien. Ik heb nog geen versie gevonden die automatisch bijwerkt bij het stoppen/starten van de container zoals bv Plex dat doet.


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
docker run -d \
    --name=CrashPlan-Pro \
    -p 5800:5800 \
    -p 5900:5900 \
    -v /<LocalDockerFolder>:/config:rw \
    -v /<LocalDataFolder1>:/storage/<DockerDataFolder1>:ro \
    -v /<LocalDataFolder2>:/storage/<DockerDataFolder2>:ro \
    -e USER_ID=<UserID> \
    -e GROUP_ID=<GroupID> \
    -e TZ=Europe/Amsterdam \
    -e CRASHPLAN_SRV_MAX_MEM=6144M \
    -e CLEAN_TMP_DIR=1 \
    -e DISPLAY_WIDTH=1280 \
    -e DISPLAY_HEIGHT=1000 \
    jlesage/crashplan-pro:latest


Voor de update procedure wanneer er een update is:
code:
1
2
3
Update the image with "docker pull <image:tag>"
Stop and delete your container "docker rm -f <container>"
Start your container again "docker run -d --name <options> <image:tag>"

[ Voor 7% gewijzigd door FrenzyFreak op 19-12-2017 22:44 ]


Acties:
  • 0 Henk 'm!

  • keverjeroen
  • Registratie: Mei 2010
  • Laatst online: 04-09 14:43
Tralapo schreef op dinsdag 19 december 2017 @ 20:45:
[...]


Ah, kijk. Dat zal dan waarschijnlijk ook het probleem zijn dat ik heb. Vraag me af of die limiet er altijd al geweest is of recentelijk is ingesteld.

Edit: Zodra ik de map met bestanden van 7GB of meer heb uitgevinkt in de settings van Cloud Sync begint hij ineens als een razende bestanden te uploaden die er tot nu toe elke keer maar niet doorheen kwamen. Dit probleem is dan ook weg nu. Vreemd dat hij dus geen foutmelding of iets dergelijks geeft, maar gewoon doet alsof hij eeuwen nodig heeft om een te groot bestand up te loaden, waardoor de rest stil komt te vallen.
Die 4GB is een limiet op het Webdav protocol, dus dat is er altijd al geweest. Ik ben toevallig ook bezig met het instellen van een backup (of sync, nog even kijken wat het beste werkt) naar Stack. Voorheen was het te traag om iet mee te doen, maar tegenwoordig is het echt rete snel met uploaden. _/-\o_ Ook ik kwam een paar te grote bestanden tegen, maar dat zijn vooral archiefbestanden, die niet meer bewerkt worden, dus daar maak ik met winrar nu gewoon rars van, van max 3,5gb.

Mijn LEGO dingetjes: www.KeverBricks.nl (insta, bricklink etc)


Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

FrenzyFreak schreef op dinsdag 19 december 2017 @ 22:38:
[...]

Gelukkig deed ik dit al. ;) Scheelt veel configuratie werk achteraf en werkt bijzonder prettig.

Ik ben om naar jlesage/crashplan-pro. Bijkomend voordeel is dat MAX_MEM nu een setting is, aan te geven in je docker run script.

Een nadeel is wel dat CrashPlan niet automatisch kan bijwerken. Dit zag ik als error in de logging (de update naar de nieuwe interface).

Dit betekent dus je installatiescript altijd goed bijhouden en af en toe zullen we dan handmatig de container moeten vernietigen en opnieuw het latest image weer opgooien. Ik heb nog geen versie gevonden die automatisch bijwerkt bij het stoppen/starten van de container zoals bv Plex dat doet.


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
docker run -d \
    --name=CrashPlan-Pro \
    -p 5800:5800 \
    -p 5900:5900 \
    -v /<LocalDockerFolder>:/config:rw \
    -v /<LocalDataFolder1>:/storage/<DockerDataFolder1>:ro \
    -v /<LocalDataFolder2>:/storage/<DockerDataFolder2>:ro \
    -e USER_ID=<UserID> \
    -e GROUP_ID=<GroupID> \
    -e TZ=Europe/Amsterdam \
    -e CRASHPLAN_SRV_MAX_MEM=6144M \
    -e CLEAN_TMP_DIR=1 \
    -e DISPLAY_WIDTH=1280 \
    -e DISPLAY_HEIGHT=1000 \
    jlesage/crashplan-pro:latest


Voor de update procedure wanneer er een update is:
code:
1
2
3
Update the image with "docker pull <image:tag>"
Stop and delete your container "docker rm -f <container>"
Start your container again "docker run -d --name <options> <image:tag>"
Vanavond eens configureren!, het update probleem heb ik met mijn Unify controller ook maar dat is een handeling van 2 minuten (en die update ik ook niet al te regelmatig ;)).
Sla de commando's ook altijd op in een tekstbestand om later te kunnen reproduceren.

CP afdoende ramgeheugen geven is wel een must, heb zo'n 3-4GB in gebruik (~2TB aan data) :D .

Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
Tortelli schreef op woensdag 20 december 2017 @ 09:58:
[...]


Vanavond eens configureren!, het update probleem heb ik met mijn Unify controller ook maar dat is een handeling van 2 minuten (en die update ik ook niet al te regelmatig ;)).
Sla de commando's ook altijd op in een tekstbestand om later te kunnen reproduceren.

CP afdoende ramgeheugen geven is wel een must, heb zo'n 3-4GB in gebruik (~2TB aan data) :D .
Ik heb bij aankoop mijn 1815+ 16GB RAM gegeven, voornamelijk om CrashPlan te kunnen draaien. CrashPlan Pro krijgt momenteel 7GB RAM voor ~19TB aan data (professionele fotografie).

Maar aangezien alle backupsets van meer dan 5TB niet gemigreerd konden worden, moest ik overnieuw beginnen en zit hij nu op 8TB met nog wel een maandje te gaan. :X

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

@FrenzyFreak Draai ook op een 1815+ met 16GB ram ;), gekocht toen dat geheugen nog cheap was. Je hebt nu 4-5 afzonderlijke sets van max 5TB om dit probleem op te lossen denk ik?.

Snelheid van CP is echt zeer matig, denk dat ik er ook vanaf stap als mijn korting periode afgelopen is. Kan goedkoper (in verhouding met veel andere oplossingen) een 6 of 10TB HDD in mijn ouders NAS zetten en die volledig voor offside doeleinden inzetten (heb nu een set van ~1TB daarop staan).
Bij 22TB is dat wel een uitdaging; 918+ kopen met 4*10TB ;), grootste voordeel is dat je bij eventuele dataloss snel kunt herstellen.

[ Voor 25% gewijzigd door Tortelli op 20-12-2017 11:52 ]


Acties:
  • 0 Henk 'm!

  • loyske
  • Registratie: Januari 2004
  • Laatst online: 11-09 13:34
Orion84 schreef op dinsdag 19 december 2017 @ 09:58:
[...]

Ja, precies, zodra je alle subfolders uitvinkt word ook de parent uitgevinkt. Als je tenminste 1 subfolder aanvinkt werkt het wel.
Synology support komt met dezelfde "oplossing". Ze hebben een lege folder aangemaakt :+
Heb dus maar een feature inquiry aangemaakt.

En vanmorgen update van docker geinstalleerd op volume2, bad sector -> crash... arghhh |:(
2de WD Red 4TB die stuk gaat in korte tijd, wat een pech!

[ Voor 4% gewijzigd door loyske op 20-12-2017 12:55 ]


Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
@Tortelli Nee, ik gooi gewoon weer alles op een hoop. Aparte backupsets zijn niet makkelijker te onderhouden, want daarvoor moet ik de folderstructuur van mijn vriendin begrijpen 8)7 of zij moet met de backup rekening houden :+

De snelheid is wel oké, ik haal meestal wel 40Mbit upload (mijn max). Crashplan heeft opstarttijd nodig voordat de upload stabiliseert en ik zie het ook wel inzakken wanneer Amerika wakker wordt, maar de NAS upload toch 24/7. Vooral wanneer mijn backupset compleet is en incrementele uploads voldoende zijn, maakt dat niet veel meer uit.

Ik heb in de oude interface wel altijd onder de settings compression: off, dedupe: minimal gedraaid. Deze settings zijn verdwenen in de nieuwe interface, maar doen wonderen voor je upload. Op RAW foto's haalt compressie toch niets uit.

Ik heb al een 1511+ (2x 6TB, 2x 10TB in SHR) off-site staan voor de snelle restore. CrashPlan is meer voor de 3-2-1 backup regel en de "never delete deleted files" policy.

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

@FrenzyFreak Loop je dan niet weer tegen het limiet van Crashplan Pro aan; 5TB max?.

[ Voor 9% gewijzigd door Tortelli op 20-12-2017 12:31 ]


Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
@Tortelli
Nee, dat was alleen een migratie limiet waarbij zij je backupset omzetten naar de eisen voor CrashPlan Pro. En mogelijk een manier van hun om van de grootverbruikers af te komen :X

Nadat je om bent naar CrashPlan Pro is alles weer unlimited.

Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
bestanden welke ik los via de browser heb geupload, waren richting de 9-10GB uit mijn hoofd.
ook .iso bestanden...

Acties:
  • +3 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
heb reeds Duplicati ontdekt.
Draai nu versie 2 in docker container, deze kan encrypted met versie beheer back-upen naar Webdav van TransIP stack.

deze back-upt en zipt bestanden, kan bestandsgrote zelfs opgeven.
Ik denk dat duit de beste methode is voor het back-upen naar TransIP Stack dienst..

Ben benieuwd of het ook goed werkt, na testen..
Iemand ervaring met deze manier ???

Acties:
  • 0 Henk 'm!

  • keverjeroen
  • Registratie: Mei 2010
  • Laatst online: 04-09 14:43
keverjeroen schreef op dinsdag 19 december 2017 @ 19:44:
Kan je in Hyper backup een max bestandsgrootte aangeven? Dat kan ik nergens vinden..

Hier staat wel dat je rechtstreeks naar een webdav kan backuppen:
https://www.synology.com/...p/data_backup_destination

Na wat googelen lees ik wel problemen met backuppen naar de Transip websdav..
Om mezelf maar even te beantwoorden. Hyper backup naar Stack gaat helaas niet (zoek in dit topic maar eens op Stack). Je kan de hele wizzard doorlopen, tot de laatste stap, dan krijg je een melding over onvoldoende rechten.

Mn idee is nu:
1. Hyper backup van Synology -> externe USB disk
2. Cloud sync (1 kant op) van USB Disk naar Stack

Nadeel is de omweg waarmee de data op Stack komt, voordeel is dat er een extra backup-locatie tussen zit (USB-disk).

Mijn LEGO dingetjes: www.KeverBricks.nl (insta, bricklink etc)


Acties:
  • 0 Henk 'm!

  • Dedier
  • Registratie: Maart 2013
  • Laatst online: 11-09 13:30
FlorisVN schreef op woensdag 20 december 2017 @ 23:05:
heb reeds Duplicati ontdekt.
Draai nu versie 2 in docker container, deze kan encrypted met versie beheer back-upen naar Webdav van TransIP stack.

deze back-upt en zipt bestanden, kan bestandsgrote zelfs opgeven.
Ik denk dat duit de beste methode is voor het back-upen naar TransIP Stack dienst..

Ben benieuwd of het ook goed werkt, na testen..
Iemand ervaring met deze manier ???
Ik draai Duplicati al een tijd i.c.m Stack, ben er redelijk tevreden over. Zeker de encryption versie beheer vind ik een prettige samen met de Stack. Ook het terug plaatsen van bestanden is makkelijk en snel te doen. Al met al kan ik het wel aanbevelen.

Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
@ dedier,

ok top, fijn te horen !
ik ben nu nog 300GB aan het uploaden, ben benieuwd..

Gebruik jij ook duplicati 2 via docker, of een third-party package ?
Ik kreeg de package niet werkende, en heb het dus nu via docker draaien...

Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Docker is wat mij betreft sowieso the way to go tegenwoordig. Ik vraag me wel af welke onbelangrijke data jullie toevertrouwen aan Stack, ik zou zelf nooit de babyfotos van mijn dochter alleen op een gratis dienst willen hebben staan.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
Arfman schreef op zondag 24 december 2017 @ 10:29:
Docker is wat mij betreft sowieso the way to go tegenwoordig. Ik vraag me wel af welke onbelangrijke data jullie toevertrouwen aan Stack, ik zou zelf nooit de babyfotos van mijn dochter alleen op een gratis dienst willen hebben staan.
ok thx, zit ik toch goed !
Docker geeft me ook gevoel, dat DSM minder vervuild raakt..

Hoe dan ook, alles heb ik encrypted met dikke grote sleutel staan in Stack via Duplicati.
Dus het staat nu versleuteld met versie beheer in Stack, dit moet voldoende zijn lijkt me.. ?

Acties:
  • 0 Henk 'm!

  • Tralapo
  • Registratie: Januari 2008
  • Niet online
Arfman schreef op zondag 24 december 2017 @ 10:29:
Ik vraag me wel af welke onbelangrijke data jullie toevertrouwen aan Stack, ik zou zelf nooit de babyfotos van mijn dochter alleen op een gratis dienst willen hebben staan.
Alle data gaat uiteraard versleuteld richting Stack, via TransIP kunnen ze er niks mee.

Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Dat bedoelde ik eigenlijk niet :)

Stack is gratis. Morgen kan TransIP de stekker eruit trekken en dan heb je geen backup meer. Ik zou het zelf misschien alleen als 2e of 3e backup inzetten.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • Pimmeh
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:13
Arfman schreef op zondag 24 december 2017 @ 13:06:
Stack is gratis. Morgen kan TransIP de stekker eruit trekken en dan heb je geen backup meer. Ik zou het zelf misschien alleen als 2e of 3e backup inzetten.
Dat lijkt me heel sterk dat dat van dag op dag gebeurt. Dan kondigen ze het ruim van tevoren aan en heb je de tijd om een andere backup te zoeken.

Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
Klopt idd.

Stack is ook beter als 2de of 3de cloud backup locatie..
Echter heb ik zelf niks anders momenteel dan stack..
Ik doe het hier maar even mee..

Acties:
  • 0 Henk 'm!

  • D_Jeff
  • Registratie: April 2011
  • Laatst online: 22:10
Iemand ervaring met de N300 serie hdd's van Toshiba?

Lijkt mij een prima bang for bucks dingetje

Hold. Step. Move. There will always be a way to keep on moving


Acties:
  • +1 Henk 'm!

Verwijderd

Ik heb mijn Synology enerzijds via Cloud Sync naar Backblaze B2 ingesteld staan, anderzijds naar een USB HDD die ik om de week op de zaak opsla. Ben nu aan het spelen met Synology Cloud maar ik kom niet echt uit de hyper backup rotatie instellingen.

Ik heb het nu als volgt staan waarbij ik denk dat dit conform mijn wens is.

Zoals ik het nu begrijp:
- Gedurende 1 week worden alle versies ieder uur bewaard
- Gedurende 1 maand worden alle versies, ouder dan een week, iedere dag bewaard
- Gedurende 6 maanden worden alle versies, ouder dan 1 maand, iedere week bewaard
- Gedurende 2 jaar worden alle versies, ouder dan 6 maanden, 1 maand bewaard.

synology_hyperbackup


Wat betekend dit concreet?
- Er vanuit gaande dat de backup voltooid is; ik verwijder NU een bestand, hoe lang blijft deze dan nog op Synology Cloud hangen? Wanneer wordt deze dan verwijderd? En waarom?

- Als ik op 1 Januari een bestand aanmaak welke, laten we zeggen, ieder uur wijzigt om wat voor reden dan ook. Klopt het dan dat ik op 1 Juni, 22 weekversies heb, 21 dagversies heb, 168 uurversies heb?

Ik begrijp het namelijk niet helemaal en kan nergens echt een super duidelijke uitleg vinden.

Acties:
  • 0 Henk 'm!

  • backupdevice
  • Registratie: November 2000
  • Laatst online: 20:00

backupdevice

Boeh!

Vraag .

Ik heb nu de volgende hardware solutions en offsite cloud storage tot mijn beschikking.

Overkill of juist niet?

Onsite
  • DS214+, 2 schrijven, geen raid. 1 schrijf voor multimedia en backup locate, 1 schrijf voor foto's en data. Niet benaderbaar via Internet
  • DS209II+ , Raid via SHR, Niet benaderbaar via Internet
Offline
  • C2
  • Offline NAS bij familie (binnenkort)
Aanwezige Data
  • Foto's alle vakantie en kinderen. 150GB, groeit 2GB per maand
  • Prive data, zoals belasting, facturen, verzekerig etc 4GB
  • Werkdata , zoals contract, performance reviews en jaarlijkse Outlook backup voor het geval dat.3GB
  • Werkdata, zoals expenses . 2GB
  • KM registratie ivm lease auto en niet prive rijden. 1GB
  • Werkdata groeit 3 GB per jaar, vooral de expenses en KM registratie folders wijzigen elke dag
Alle bovenstaande data is belangrijk en zal ook altijd bechikbaar moeten blijven.

Strategie

Werkdata
  • Alle data die ik moet houden wordt via Cloud Station naar de 214+ gesynced. Deze data heeft een aparte folder met 1 account die ik speciaal voor de folder heb aangemaakt op schrijf 1 en alleen access heeft tot die folder
  • Elke nacht loopt er een hyperbackup actie waarbij de data van schrijf 1 naar de backupfolder op schrijf 2. Deze folder heeft zijn eigen account die alleen access heeft tot die folder
Prive data
  • Alle data staan in een share folder die alleen te benaderen is via een special account die alleen access heeft tot die folder.
  • Folder is alleen benaderbaar intern via FTP om data te uploaden
  • Elke nacht loopt er een hyperbackup actie waarbij de data van schrijf 1 naar de backupfolder op schrijf 2
Foto's
  • Alle data staan in een share folder die alleen te benaderen is via een special account die alleen access heeft tot die folder.
  • Folder is alleen benaderbaar intern en via mount of FTP om data te uploaden
  • Elke nacht loopt er een hyperbackup actie waarbij de data van schrijf 1 naar de backupfolder op schrijf 2
Backupfolder
De backupfolder heeft een aparte user die alleen access heeft tot die folder
Elke nacht loopt er een backup naar C2 van Synology
Elke nacht loopt er een backup naar de DS209II+

Op deze manier heb ik 3 copies van mijn data
  • DS214+
  • DS209II+
  • C2
Dit biedt mij mijns inziens de volgende bescherming;
  • Mocht er een crypo ding mijn data verneuken, dan heb ik versie beheer on en offsite
  • Mocht mijn dataschrijf of backupschrijf van de DS214+ kapot gaan heb ik altijd een kopie op een van de twee aanwezige schrijven staan
  • Mocht mijn DS214+ kapot gaan dan heb ik onsite de data beschikbaar op de DS209II+ en offsite
  • Mocht mijn huis afbranden dan heb ik altijd mijn data offsite beschikbaar
Eventueel zou ik de data die op de DS209II+ staat kunnen verplaatsen naar een externe DS die binnenkort bij familie beschikbaar komt. Ik wil dan de DS209II+ dan gebruiken voor zijn data.

Het idee is dan dat hij backup-ed naar mij en ik de dagelijke backup naar hem doe. Alleen de DS209II+ zou dan een portforward moeten hebben . Als het goed is zou een eventuele crypto besmetting vanuit de familie alleen maar invloed hebben op de data van de DS 209II+ ?

[ Voor 4% gewijzigd door backupdevice op 02-01-2018 14:55 ]

"This is it....This is it " | Gianpiero Lambiase | Lap 54 12-12-2021


Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

FrenzyFreak schreef op woensdag 20 december 2017 @ 12:52:
@Tortelli
Nee, dat was alleen een migratie limiet waarbij zij je backupset omzetten naar de eisen voor CrashPlan Pro. En mogelijk een manier van hun om van de grootverbruikers af te komen :X

Nadat je om bent naar CrashPlan Pro is alles weer unlimited.
Eea leek allemaal goed te werken, echter lijk ik nu tegen een probleem te lopen; https://support.code42.co...ue_to_too_many_open_files (backup wil niet meer starten). Image is up to date iig.

Dit probleem zou je eenvoudig op moeten kunnen lossen in de shell (duidelijke uitleg @ code42 website), alleen kom ik niet in de shell;
rpc error: code = 2 desc = oci runtime error: exec failed: container_linux.go:247: starting container process caused "exec: \"/bin/bash\": stat /bin/bash: no such file or directory"
Enig idee hoe dit op te lossen is? :D.

Acties:
  • 0 Henk 'm!

  • aex351
  • Registratie: Juni 2005
  • Laatst online: 02:23

aex351

I am the one

Momenteel doe ik een back-up naar Amazon Drive. Toch denk ik dat ik ga afstappen van de cloud, en overga naar het back-uppen naar een externe hdd. Op mijn NAS draait alles al raid-5. Doel van de back-up is/was mocht de NAS of een HDD kapot gaan, dat ik niet ineens mijn huidige gegevens verlies.

Alles incrementeel tot in de oneindigheid back-uppen in de cloud is/was een beetje overkill. Raid-5, ondanks niet beschouwd wordt als 'back-up', voldoet prima aan deze vereiste. Dan gecombineerd met een externe HDD, moet het helemaal goed zitten. En is volgens mij (althans kijkend naar de bestaande cloud oplossingen) sneller en toegankelijker.

< dit stukje webruimte is te huur >


Acties:
  • 0 Henk 'm!

  • kaasszje
  • Registratie: Augustus 2001
  • Laatst online: 10-09 17:40

kaasszje

Live to Dare, Dare to Live

aex351 schreef op zaterdag 6 januari 2018 @ 15:41:
Momenteel doe ik een back-up naar Amazon Drive. Toch denk ik dat ik ga afstappen van de cloud, en overga naar het back-uppen naar een externe hdd. Op mijn NAS draait alles al raid-5. Doel van de back-up is/was mocht de NAS of een HDD kapot gaan, dat ik niet ineens mijn huidige gegevens verlies.

Alles incrementeel tot in de oneindigheid back-uppen in de cloud is/was een beetje overkill. Raid-5, ondanks niet beschouwd wordt als 'back-up', voldoet prima aan deze vereiste. Dan gecombineerd met een externe HDD, moet het helemaal goed zitten. En is volgens mij (althans kijkend naar de bestaande cloud oplossingen) sneller en toegankelijker.
Nadeel van externe hdd is dat je deze of altijd er aan moet hangen.
Of dagelijks / wekelijks / maandelijks even aan je nas moet hangen.

Ik gebruik zelf een externe hdd voor maandelijkse backups.
En dagelijks backup ik naar de cloud.
Mocht dan data corrupt raken kan ik dit altijd nog terug halen.
En vergaat mijn hele nas, heb ik altijd mijn hdd zodat ik alles snel terug kan halen.

Ik ben verstopt zoek een ander :P


Acties:
  • 0 Henk 'm!

  • aex351
  • Registratie: Juni 2005
  • Laatst online: 02:23

aex351

I am the one

kaasszje schreef op zaterdag 6 januari 2018 @ 15:55:
[...]

Nadeel van externe hdd is dat je deze of altijd er aan moet hangen.
Of dagelijks / wekelijks / maandelijks even aan je nas moet hangen.

Ik gebruik zelf een externe hdd voor maandelijkse backups.
En dagelijks backup ik naar de cloud.
Mocht dan data corrupt raken kan ik dit altijd nog terug halen.
En vergaat mijn hele nas, heb ik altijd mijn hdd zodat ik alles snel terug kan halen.
Je kan ook permanent een externe HDD aan je netwerk hangen, wat ik dus ga doen. Ik heb niet zoveel zin om handmatig nog acties te moeten uitvoeren. Wat mij betreft staat de externe HDD naast de NAS. Dit is meer dan voldoende voor mijn doel. Volgens mij is dit ook het minst onderhoudsintensief en bovendien ook het goedkoopst.

Waarom 60 euro per jaar uitgeven aan een (relatief trage) cloud (lees internet opslag) oplossing met maar 1TB als je voor 70-100 euro een prima 2-4TB externe HDD kan hebben is mijn huidige redenatie.

< dit stukje webruimte is te huur >


Acties:
  • +3 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

Je kunt dit alleen geen backup noemen; bij bliksem inslag, brand, diefstal etc ben je alsnog alles kwijt. Kun je beter een 2e Synology (2e hands) kopen en die bij familie of vrienden neerzetten als offsite backup.

Acties:
  • +1 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 23:13
Verwijderd schreef op zondag 31 december 2017 @ 19:29:
Ik heb mijn Synology enerzijds via Cloud Sync naar Backblaze B2 ingesteld staan, anderzijds naar een USB HDD die ik om de week op de zaak opsla. Ben nu aan het spelen met Synology Cloud maar ik kom niet echt uit de hyper backup rotatie instellingen.

Ik heb het nu als volgt staan waarbij ik denk dat dit conform mijn wens is.

Zoals ik het nu begrijp:
- Gedurende 1 week worden alle versies ieder uur bewaard
- Gedurende 1 maand worden alle versies, ouder dan een week, iedere dag bewaard
- Gedurende 6 maanden worden alle versies, ouder dan 1 maand, iedere week bewaard
- Gedurende 2 jaar worden alle versies, ouder dan 6 maanden, 1 maand bewaard.

[afbeelding]


Wat betekend dit concreet?
- Er vanuit gaande dat de backup voltooid is; ik verwijder NU een bestand, hoe lang blijft deze dan nog op Synology Cloud hangen? Wanneer wordt deze dan verwijderd? En waarom?

- Als ik op 1 Januari een bestand aanmaak welke, laten we zeggen, ieder uur wijzigt om wat voor reden dan ook. Klopt het dan dat ik op 1 Juni, 22 weekversies heb, 21 dagversies heb, 168 uurversies heb?

Ik begrijp het namelijk niet helemaal en kan nergens echt een super duidelijke uitleg vinden.
Ik heb Smart Recycle ingeschakeld en volgens mij komt dit op het volgende neer:

datumuurdagweekmaandversies totaalWeggegooid
1-12400024niets
2-12410025uurversies van gisteren
3-12420026uurversies van gisteren
4-12430027uurversies van gisteren
5-12440028uurversies van gisteren
6-12450029uurversies van gisteren
7-12460030uurversies van gisteren
8-12461031uurversies van gisteren
9-12461031dagversies van vorige week
10-12461031dagversies van vorige week
11-12461031dagversies van vorige week
12-12461031dagversies van vorige week
13-12461031dagversies van vorige week
14-12461031dagversies van vorige week
15-12462032dagversies van vorige week
16-12462032dagversies van vorige week
17-12462032dagversies van vorige week
18-12462032dagversies van vorige week
19-12462032dagversies van vorige week
20-12462032dagversies van vorige week
21-12462032dagversies van vorige week
22-12463033dagversies van vorige week
23-12463033dagversies van vorige week
24-12463033dagversies van vorige week
25-12463033dagversies van vorige week
26-12463033dagversies van vorige week
27-12463033dagversies van vorige week
28-12463033dagversies van vorige week
29-12464034dagversies van vorige week
30-12464034dagversies van vorige week
31-12464034dagversies van vorige week
1-22464034dagversies van vorige week
2-22464034dagversies van vorige week
3-22464034dagversies van vorige week
4-22464034dagversies van vorige week
5-22464135dagversies van vorige week
6-22464135maandversie van vorige maand
7-22464135maandversie van vorige maand
8-22464135maandversie van vorige maand


Op "6 juli" heb je totaal 40 versies waaruit je kunt kiezen voor het geval je een restore wilt doen. Op 1 juni zijn dat er 38.

[ Voor 0% gewijzigd door FrankHe op 07-01-2018 10:40 . Reden: breedte table op 550 gezet ]


Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
Tortelli schreef op zaterdag 6 januari 2018 @ 15:24:
[...]


Eea leek allemaal goed te werken, echter lijk ik nu tegen een probleem te lopen; https://support.code42.co...ue_to_too_many_open_files (backup wil niet meer starten). Image is up to date iig.

Dit probleem zou je eenvoudig op moeten kunnen lossen in de shell (duidelijke uitleg @ code42 website), alleen kom ik niet in de shell;


[...]


Enig idee hoe dit op te lossen is? :D.
Die ben ik nog niet tegengekomen.

Ik ben wel tegen het inotify wachtes limiet aangelopen. Je zou denken dat je die dan in de container moet verhogen, maar nee. Die moest juist onder DSM verhoogd worden.

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

FrenzyFreak schreef op vrijdag 12 januari 2018 @ 09:14:
[...]

Die ben ik nog niet tegengekomen.

Ik ben wel tegen het inotify wachtes limiet aangelopen. Je zou denken dat je die dan in de container moet verhogen, maar nee. Die moest juist onder DSM verhoogd worden.
Zover was ik gisteravond ook; lijkt een watch limit probleem te zijn (hij werkt al bijna 2 weken niet meer). Alleen hoe verhoog ik deze in DSM?.
In Docker zelf kreeg ik dit niet voor elkaar, kreeg een read-only foutmelding toen ik watch limiet wou verhogen....

[ Voor 3% gewijzigd door Tortelli op 12-01-2018 09:53 ]


Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
Tortelli schreef op vrijdag 12 januari 2018 @ 09:29:
[...]


Zover was ik gisteravond ook; lijkt een watch limit probleem te zijn (hij werkt al bijna 2 weken niet meer). Alleen hoe verhoog ik deze in DSM?.
In Docker zelf kreeg ik dit niet voor elkaar, kreeg een read-only foutmelding toen ik watch limiet wou verhogen....
Oei, dat is al 2 weken te lang.
  1. Deze technische details doorlezen.
  2. Net als bij het opzetten van een Docker container in Putty even inloggen als root met "sudo -i".
  3. Dan het limiet aanpassen tot boven het aantal bestanden in CrashPlan, met een marge erbovenop voor de toekomst. Gezien wij genoeg RAM hebben, luistert het bij ons niet zo nauw. Ik zit op 4194304.
Als je het script voor tijdelijke verhoging gebruikt, moet je dit in een .sh bestand op de NAS zetten (gewoon tekstbestand met .sh extensie). Vervolgens plan je dit script in onder Control Panel > Tasks zodat de NAS dit uitvoert bij elke reboot.

Bij een permanente verandering moet je mogelijk alsnog de Task inplannen met een SH script, maar dan alleen om de waarde te printen met "sysctl -p". Doe je dit niet, heb je kans dat de waarde niet wordt doorgevoerd bij opstarten. |:(

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:56

Tortelli

mixing gas and haulin ass

@FrenzyFreak
Aanpassingen doorgevoerd, maar dat heeft niets geholpen iig. Enige error die ik zie is deze in de logfile (service.log.0);
ServiceConfig:: ServiceConfig version higher than it should be. uniqueId=8307603548********

Lijkt of een van de services niet juist geupdate is oid. Heb hem vorige week reinstalled met laatste versie (die ik ook al draaide...) 6.6.

Dat crashplan niet werkt is verder geen enorme ramp want het is mijn 2e offside backup (naast de Hyperbackup die ik naar mijn ouders draai).

Acties:
  • 0 Henk 'm!

  • hovemt
  • Registratie: Augustus 2012
  • Laatst online: 03-09 20:20
Ik ben op zoek gegaan naar een alternatief voor Amazon Cloud Drive als backup locatie voor Hyper Backup. Mijn oog viel op Backblaze B2, maar aangezien dat nog niet ondersteund wordt door Hyper Backup ben ik verder gaan kijken.

Ondertussen ben ik aan het testen met Wasabi (https://wasabi.com/), maar de upload snelheid valt mij tegen. Dit is waarschijnlijk voornamelijk omdat de servers in de VS staan, maar er zijn plannen voor een datacenter in Europa (Q2 of Q3 2018). De mogelijke addertjes onder het gras bij Wasabi zijn de minimale backup grootte, je betaalt in ieder geval voor 1TB (3.99/maand), en de minimale storage duur van 90 dagen.
Zijn er andere mensen die Wasabi gebruiken? Zo ja, wat zijn jullie ervaringen?

Verder heb ik nog een vergelijkingssite gevonden voor object storage (http://gaul.org/object-store-comparison/). De twee die qua storage per GB goedkoper zijn dan Wasabi zijn C14 (https://www.online.net/en/c14) en OVH Cloud Archive Storage (https://www.ovh.nl/public-cloud/storage/cloud-archive/). Deze twee lijken echter meer een Glacier achtige structuur te hebben. Zijn er mensen die dit gebruiken?

[ Voor 9% gewijzigd door hovemt op 19-01-2018 18:24 ]


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Ik gebruik nu blackblaze (B2) icm mijn Synology.
Om de 1 of andere reden blijft ie wel hangen op 1 file (voor weken al). Heeft hier iemand nog last van ?

Acties:
  • 0 Henk 'm!

  • kevertje1977
  • Registratie: Februari 2003
  • Laatst online: 09-09 16:26
Zijn er hier meer mensen die SYNOLOGY Cloudsync gebruiken icm onedrive ?
Ik krijg het niet voor elkaar.
Er ontstaat een onbekende fout bij de eerste aanmelding.
Ik word omgezet naar onedrive URL en dan vervolgens terug naar mijn synology. Dat duurt heel lang en vervolgens krijg ik een onbekende fout.

Acties:
  • 0 Henk 'm!

  • m2dekker
  • Registratie: Februari 2006
  • Laatst online: 11-09 15:08
kevertje1977 schreef op vrijdag 26 januari 2018 @ 17:37:
Zijn er hier meer mensen die SYNOLOGY Cloudsync gebruiken icm onedrive ?
Ik krijg het niet voor elkaar.
Er ontstaat een onbekende fout bij de eerste aanmelding.
Ik word omgezet naar onedrive URL en dan vervolgens terug naar mijn synology. Dat duurt heel lang en vervolgens krijg ik een onbekende fout.
Als je gewoon via een browser de website van onedrive benaderd gaat het wel goed?
Misschien dat er iets met je account aan de hand is, aangezien "een onbekende fout"
niet zo veel aanknopingspunten geeft...

Common sense is so rare, it should be classified as a super power.


Acties:
  • 0 Henk 'm!

  • kevertje1977
  • Registratie: Februari 2003
  • Laatst online: 09-09 16:26
Ik heb wel 2 factor aan staan (uiteraard) , wellicht dat de synology daar niet mee overweg kan maar aan de andere kant werd ik omgeleid naar login.live.com
als ik vervolgens daar mijn wachtwoord invoer dan geeft ie uiteindelijk :
Cloud Sync requires for following permission

Redirect your personal information back to http://192.168.178.100:5000, please make sure http://192.168.178.100:5000 is your DS domain.

Als ik dan AGREE doe zegt ie "Er wordt nu een verbinding gemaakt met uw openbare cloud."

Om na een lange periode te zeggen : "Er is een onbekende fout opgetreden. Probeer het later opnieuw."

Acties:
  • 0 Henk 'm!

  • m2dekker
  • Registratie: Februari 2006
  • Laatst online: 11-09 15:08
kevertje1977 schreef op vrijdag 26 januari 2018 @ 18:00:
Ik heb wel 2 factor aan staan (uiteraard) , wellicht dat de synology daar niet mee overweg kan maar aan de andere kant werd ik omgeleid naar login.live.com
als ik vervolgens daar mijn wachtwoord invoer dan geeft ie uiteindelijk :
Cloud Sync requires for following permission

Redirect your personal information back to http://192.168.178.100:5000, please make sure http://192.168.178.100:5000 is your DS domain.

Als ik dan AGREE doe zegt ie "Er wordt nu een verbinding gemaakt met uw openbare cloud."

Om na een lange periode te zeggen : "Er is een onbekende fout opgetreden. Probeer het later opnieuw."
Op basis van deze forumpost bij synology, zou je het volgende eens kunnen proberen.

Persoonlijk heb ik er geen ervaringen mee, maar er zit wel enige logica in...
Niet geschoten is altijd mis natuurlijk...

[ Voor 0% gewijzigd door m2dekker op 26-01-2018 18:05 . Reden: typo ]

Common sense is so rare, it should be classified as a super power.


Acties:
  • 0 Henk 'm!

  • kevertje1977
  • Registratie: Februari 2003
  • Laatst online: 09-09 16:26
Thanks, had het al gezien. Maar helaas wilde ie dat niet pakken. Ik ken dat fenomeen wel want gebruik een soort gelijk iets voor gmail smtp authentication vanuit een apparaat wat mail wil sturen.

Wellicht is het een storing... En moet ik even geduld hebben :-)

Acties:
  • +1 Henk 'm!

  • m2dekker
  • Registratie: Februari 2006
  • Laatst online: 11-09 15:08
kevertje1977 schreef op vrijdag 26 januari 2018 @ 18:07:
Thanks, had het al gezien. Maar helaas wilde ie dat niet pakken. Ik ken dat fenomeen wel want gebruik een soort gelijk iets voor gmail smtp authentication vanuit een apparaat wat mail wil sturen.

Wellicht is het een storing... En moet ik even geduld hebben :-)
hmmm.... uit nieuwsgierigheid heb ik op een tweede account 2FA aangezet en een nieuwe sync toegevoegd aan cloud sync, maar deze loopt gewoon door op het punt waar die bij jou stopt...
Sync loopt, ook na stoppen/starten van de service.

Ik kan op dit moment even niets meer bedenken om je verder te helpen, maar mocht je het gevonden hebben, post hier de oplossing dan nog even...

Common sense is so rare, it should be classified as a super power.


Acties:
  • 0 Henk 'm!

  • kevertje1977
  • Registratie: Februari 2003
  • Laatst online: 09-09 16:26
Ik denk dat ik het gevonden heb.

Ik had zoveel problemen met mijn Synology (door router swap, de fritz wilde blijkbaar per se de default 192.168.178.x gebruiken dus heb mijn netwerk om moeten zetten)

En nu kan de Synology blijkbaar niet naar buiten :-) Dus dat ga ik nog even fixen ;-)

admin@DS213:~$ traceroute www.google.nl
www.google.nl: Name or service not known
Cannot handle "host" cmdline arg `www.google.nl' on position 1 (argc 1)


deze stond nog op oud :

admin@DS213:/etc$ more resolv.conf
nameserver 192.168.201.1
nameserver fd00::cece:1eff:fef9:cff9


update : het werkt :-) bedankt !

[ Voor 15% gewijzigd door kevertje1977 op 26-01-2018 19:55 ]


Acties:
  • +5 Henk 'm!

  • Gbrandsma
  • Registratie: Augustus 2012
  • Laatst online: 23-08-2022
Ik heb hier (en andere fora) veel gezocht over Stack ICM Hyperbackup en waarom het niet werkt. Ik heb het zelf uiteindelijk voor elkaar gekregen door de backup taak eerst op een andere WebDAV server aan te maken en daarna aan te verplaatsen naar Stack.

Ik hoop dat anderen ook wat aan deze oplossing hebben. Bij mij draait het inmiddels prima.
https://gijs.io/2018/02/0...per-backup-transip-stack/

[ Voor 3% gewijzigd door Gbrandsma op 04-02-2018 12:01 ]


Acties:
  • +1 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Ben het nu aan het testen @Gbrandsma , so far so good! Eigenlijk een hele simpele oplossing maar je moet er maar op komen. Super bedankt! _O_

EDIT: backup loopt nu met zo'n ~5MB/sec.Ik ga hem erbij houden als secundaire backuptaak naast mijn betaalde Amazon backup.

[ Voor 30% gewijzigd door Arfman op 04-02-2018 16:25 ]

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 01:43
Staat hier ook lekker te stampen nu. Goed gevonden dat je eerst een ander WebDAV-target instelt, daarna aanpast naar STACK en vervolgens handmatig even de .hbk folder naar STACK kopieert (en daarbij de foutmeldingen negeert :P ). Bedankt voor het delen!
Zal nog wel een aantal uren (>23h) duren voordat ik alles erop heb staan, maar ik heb er wel vertrouwen in.

Ik lever de files wel client-side encrypted bij STACK af, je weet maar nooit immers ;)

Werkt de ingebouwde integrity check ook?

[ Voor 6% gewijzigd door ThinkPad op 05-02-2018 22:06 ]


Acties:
  • 0 Henk 'm!

  • caspertje19
  • Registratie: Juni 2011
  • Laatst online: 20:30
Ik heb al geruime tijd een lokale hyper backup lopen en deze map met hyper backup weer met cloudsync naar stack, dan accepteert stack het ook prima. Ook diverse restores gedaan en werkt ook prima.

Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Er valt me wel iets geks op nu de backup naar STACK klaar is.

De backup die ik naar Amazon wegschrijf neemt +/- 711GB in. Dit komt vrijwel overeen met de grootte van de folders op de NAS die ik backup.

De backup naar STACK neemt slechts 482GB in gebruik. Dit blijft hetzelfde na een Integrity Check en het draaien van een nieuwe backup. Bij de Source Size in de Backup Statistics in Hyper Backup staat echter wel de correcte hoeveelheid.

Iemand dit ook meegemaakt? Beide backupjobs hebben compressie aanstaan dus daar kan het ook niet aan liggen lijkt me.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • KhaZ
  • Registratie: November 2003
  • Laatst online: 11-09 09:33

KhaZ

Alfa Romeo

Heb je dubbele bestanden wellicht?

AMD 5800X3D | MSI B450 Tomahawk MAX | 16GB DDR4 Crucial 3.200Mhz CAS 16 | PNY GeForce RTX 2060 | Samsung 970 Evo Plus 500GB


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

KhaZ schreef op dinsdag 6 februari 2018 @ 12:04:
Heb je dubbele bestanden wellicht?
Je bedoelt dat STACK dat misschien detecteert? Het zou kunnen dat er dubbele instaan maar geen 250GB lijkt me.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • Denko
  • Registratie: Januari 2003
  • Laatst online: 10-09 12:06

Denko

|{ing Øf ßlitz

Arfman schreef op dinsdag 6 februari 2018 @ 12:44:
[...]

Je bedoelt dat STACK dat misschien detecteert? Het zou kunnen dat er dubbele instaan maar geen 250GB lijkt me.
Dedub en compressie doet soms wonderen

PSN & XBL: Denkoyugo


Acties:
  • +1 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Denko schreef op dinsdag 6 februari 2018 @ 14:17:
[...]

Dedub en compressie doet soms wonderen
Ik kan nergens vinden dat STACK dat gebruikt. Ik heb support een vraag gesteld hierover, als ik meer weet horen jullie het.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • Kavaa
  • Registratie: November 2009
  • Laatst online: 04-09 18:08
hovemt schreef op vrijdag 19 januari 2018 @ 18:17:
Ik ben op zoek gegaan naar een alternatief voor Amazon Cloud Drive als backup locatie voor Hyper Backup. Mijn oog viel op Backblaze B2, maar aangezien dat nog niet ondersteund wordt door Hyper Backup ben ik verder gaan kijken.

Ondertussen ben ik aan het testen met Wasabi (https://wasabi.com/), maar de upload snelheid valt mij tegen. Dit is waarschijnlijk voornamelijk omdat de servers in de VS staan, maar er zijn plannen voor een datacenter in Europa (Q2 of Q3 2018). De mogelijke addertjes onder het gras bij Wasabi zijn de minimale backup grootte, je betaalt in ieder geval voor 1TB (3.99/maand), en de minimale storage duur van 90 dagen.
Zijn er andere mensen die Wasabi gebruiken? Zo ja, wat zijn jullie ervaringen?

Verder heb ik nog een vergelijkingssite gevonden voor object storage (http://gaul.org/object-store-comparison/). De twee die qua storage per GB goedkoper zijn dan Wasabi zijn C14 (https://www.online.net/en/c14) en OVH Cloud Archive Storage (https://www.ovh.nl/public-cloud/storage/cloud-archive/). Deze twee lijken echter meer een Glacier achtige structuur te hebben. Zijn er mensen die dit gebruiken?
Kijk eens naar DaDup: www.dadup.eu
500GB voor 6 euro p/m (excl. BTW)
Je betaald helaas wel voor het download verkeer +100GB per maand.
Maar dan kom je normaal niet aan, en als je echt een restore moet doen dan mag het wel iets kosten.
Snelheid is zeer goed (zelf getest)

[ Voor 9% gewijzigd door Kavaa op 06-02-2018 22:42 ]

ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?


Acties:
  • 0 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 23:13
djkavaa schreef op dinsdag 6 februari 2018 @ 21:50:
[...]

Kijk eens naar DaDup: www.dadup.eu
500GB voor 6 euro p/m (excl. BTW)
Je betaald helaas wel voor het download verkeer +100GB per maand.
Maar dan kom je normaal niet aan, en als je echt een restore moet doen dan mag het wel iets kosten.
Snelheid is zeer goed (zelf getest)
Bij Synology C2 Plan I krijg je 1 TB voor 5,99 euro en geen extra kosten voor dataverkeer. Heb zelf C2 Plan II voor 69.99 euro per jaar aangeschaft en ben vooralsnog heel tevreden over de performance. Nog geen nadelen kunnen vinden. Ben benieuwd of anderen al wel tegen dingen zijn aangelopen bij C2.

Acties:
  • 0 Henk 'm!

  • Kavaa
  • Registratie: November 2009
  • Laatst online: 04-09 18:08
FrankHe schreef op woensdag 7 februari 2018 @ 08:53:
[...]


Bij Synology C2 Plan I krijg je 1 TB voor 5,99 euro en geen extra kosten voor dataverkeer. Heb zelf C2 Plan II voor 69.99 euro per jaar aangeschaft en ben vooralsnog heel tevreden over de performance. Nog geen nadelen kunnen vinden. Ben benieuwd of anderen al wel tegen dingen zijn aangelopen bij C2.
Klopt, maar Synology C2 staat niet in NL als dat belangrijk is voor je dan is DaDup zeker een optie.

Back-up/uploaden telt dus niet als dataverkeer.
Het is 1,2 cent per Gbyte.
Dus ja het kost ietsje meer, maar het staat wel 100% in NL

ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?


Acties:
  • 0 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 23:13
djkavaa schreef op woensdag 7 februari 2018 @ 10:02:
[...]

Klopt, maar Synology C2 staat niet in NL als dat belangrijk is voor je dan is DaDup zeker een optie.

Back-up/uploaden telt dus niet als dataverkeer.
Het is 1,2 cent per Gbyte.
Dus ja het kost ietsje meer, maar het staat wel 100% in NL
Dan voor de uitleg. Als opslag binnen de landsgrenzen inderdaad een issue is dan begrijp ik dat helemaal. Voor mij persoonlijk is Frankfurt am Main in Duitsland prima acceptabel.

Acties:
  • 0 Henk 'm!

  • hovemt
  • Registratie: Augustus 2012
  • Laatst online: 03-09 20:20
Ben uiteindelijk ook voor Synology C2 gegaan (Plan I). Data staat in ieder geval in Europa. Snelheid van de backup is ook prima.

Acties:
  • 0 Henk 'm!

  • pietje63
  • Registratie: Juli 2001
  • Laatst online: 23:37

pietje63

RTFM

Gbrandsma schreef op zondag 4 februari 2018 @ 11:49:
Ik heb hier (en andere fora) veel gezocht over Stack ICM Hyperbackup en waarom het niet werkt. Ik heb het zelf uiteindelijk voor elkaar gekregen door de backup taak eerst op een andere WebDAV server aan te maken en daarna aan te verplaatsen naar Stack.

Ik hoop dat anderen ook wat aan deze oplossing hebben. Bij mij draait het inmiddels prima.
https://gijs.io/2018/02/0...per-backup-transip-stack/
Mooi gevonden, werkt bij mij helaas niet
* bij stap 3 krijg ik een foutmelding voor de folders control en config; het blijkt ook dat niet alle bestanden gekopieerd zijn
* na stap 4 kan ik wel de backup verkennen, maar bij een nieuwe backup krijg ik een foutmelding
* opnieuw beginnen en de missende bestanden uit control en config kopieëren werkt niet

Meer mensen met dezelfde foutmelding bij stap 3? Hoe kopiëren jullie de bestanden (via Synology verkennen, andere optie?)

De grootste Nederlandstalige database met informatie over computers met zoekfunctie!!


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Arfman schreef op dinsdag 6 februari 2018 @ 15:31:
[...]

Ik kan nergens vinden dat STACK dat gebruikt. Ik heb support een vraag gesteld hierover, als ik meer weet horen jullie het.
Stack gebruikt geen compressie of deduplicatie volgens support (die hebben het nagevraagd bij de developers). De backup die ik op Stack heb staan is dus waardeloos, want mist 200GB.

Ik ga als ik tijd heb het hele proces herhalen. Ook dat zal ik weer terugkoppelen hier :)

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • Gbrandsma
  • Registratie: Augustus 2012
  • Laatst online: 23-08-2022
pietje63 schreef op woensdag 7 februari 2018 @ 12:27:
[...]

Mooi gevonden, werkt bij mij helaas niet
* bij stap 3 krijg ik een foutmelding voor de folders control en config; het blijkt ook dat niet alle bestanden gekopieerd zijn
* na stap 4 kan ik wel de backup verkennen, maar bij een nieuwe backup krijg ik een foutmelding
* opnieuw beginnen en de missende bestanden uit control en config kopieëren werkt niet

Meer mensen met dezelfde foutmelding bij stap 3? Hoe kopiëren jullie de bestanden (via Synology verkennen, andere optie?)
- De files op de tijdelijke WebDAV server download ik met filestation (Webbrowser) en krijg dan een zip.
- Deze extract ik op mijn laptop met Ubuntu
- Ik mount Stackop mijn laptop en sleep de `nas_1.hbk` folder naar Stack.
- Enkel het lege bestand faalt maar de rest gaat goed (21 van de 22 files )

Acties:
  • 0 Henk 'm!

  • pietje63
  • Registratie: Juli 2001
  • Laatst online: 23:37

pietje63

RTFM

Arfman schreef op woensdag 7 februari 2018 @ 13:38:
[...]

Stack gebruikt geen compressie of deduplicatie volgens support (die hebben het nagevraagd bij de developers). De backup die ik op Stack heb staan is dus waardeloos, want mist 200GB.

Ik ga als ik tijd heb het hele proces herhalen. Ook dat zal ik weer terugkoppelen hier :)
Hoe groot is de backup als je deze op de lokale webdav maakt? In Hyperbackup zit compressie en deduplicatie, dus daar zit de besparing wellicht in. Heb me hier eerder over verbaasd (zelfs ~15% besparing op mijn foto collectie, waarschijnlijk vooral dubbele foto's)

De grootste Nederlandstalige database met informatie over computers met zoekfunctie!!


Acties:
  • 0 Henk 'm!

  • pietje63
  • Registratie: Juli 2001
  • Laatst online: 23:37

pietje63

RTFM

Gbrandsma schreef op woensdag 7 februari 2018 @ 15:34:
[...]


- De files op de tijdelijke WebDAV server download ik met filestation (Webbrowser) en krijg dan een zip.
- Deze extract ik op mijn laptop met Ubuntu
- Ik mount Stackop mijn laptop en sleep de `nas_1.hbk` folder naar Stack.
- Enkel het lege bestand faalt maar de rest gaat goed (21 van de 22 files )
Het lijkt nu wel te werken!
Twee notes
* ik had per abuis op 'ja' geklikt bij het maken van een lokale backup
* sequence_id in config kopieert niet goed mee via DSM file station, handmatig toegevoegd

De grootste Nederlandstalige database met informatie over computers met zoekfunctie!!


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Zo, complete backuptaak opnieuw aangemaakt op de Synology en daarna gelinked aan mijn STACK account, dat ik helemaal leeg had gegooid. Kijken wat er nu gebeurt. Vorige keer had ik per ongeluk de STACK client geopend op mijn desktop die daardoor de NAS.hbk folder opnieuw ging synchroniseren terwijl de backup al liep :X, mogelijk dat daar iets is misgegaan.

sequence_id wil inderdaad niet mee maar die kon je volgens Gijs negeren. Anders kan ik dat nog proberen.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • pietje63
  • Registratie: Juli 2001
  • Laatst online: 23:37

pietje63

RTFM

Arfman schreef op woensdag 7 februari 2018 @ 20:33:
sequence_id wil inderdaad niet mee maar die kon je volgens Gijs negeren. Anders kan ik dat nog proberen.
in zijn handleiding zie ik alleen
Stack will not accept the file nas_1hbk/Pool/bucketID.counter.1 but you can skip it.
staan en zonder sequence_id werkte het bij mij niet

De grootste Nederlandstalige database met informatie over computers met zoekfunctie!!


Acties:
  • 0 Henk 'm!

  • Gbrandsma
  • Registratie: Augustus 2012
  • Laatst online: 23-08-2022
pietje63 schreef op donderdag 8 februari 2018 @ 11:17:
[...]

in zijn handleiding zie ik alleen

[...]
staan en zonder sequence_id werkte het bij mij niet
Even opgezocht. Het bestand waar jullie het over hebben is: /Control/@writer/sequence_id

Deze wordt bij mij keurig gekopieerd en kan ik na uploaden ook openen met een text editor. Er staat dan enkel het getal 1 in.

- Ik gebruik Hyperbackup 2.1.5-0627 (er is nu net versie 2.1.6-0681 beschikbaar)
- Dezelfde NAS functioneerd als tijdelijke WebDAV server.
- In filestation download ik de volledige map. (mijn webbrowser krijgt dus een zipje om te downloaden)
- Op mijn Ubuntu 17.10 machine extract ik de zip
- Ik kopieer de complete folder naar Stack gemount als WebDAV.
- Tijdens het kopieeren is komt alleen de error over bucketID.counter.1 naar voren.
- Na het kopieeren staat de sequence_id wel op Stack (er kwam bij mij geen error over dit bestand).

De letterlijke foutmelding over bucketID.counter.1:
"HTTP Error: Method Not Allowed"

Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 17:51

Arfman

Drome!

Helaas .. de backup op STACK mist nog steeds honderden GB's (482GB op STACK vs. 711GB op Amazon). Ik zal een keer een test restore doen op een externe 2TB HDD, kijken wat daar uit komt. Voorlopig beschouw ik STACK op Hyper Backup echter als niet productiewaardig/veilig.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • caspertje19
  • Registratie: Juni 2011
  • Laatst online: 20:30
Arfman schreef op vrijdag 9 februari 2018 @ 08:31:
Helaas .. de backup op STACK mist nog steeds honderden GB's (482GB op STACK vs. 711GB op Amazon). Ik zal een keer een test restore doen op een externe 2TB HDD, kijken wat daar uit komt. Voorlopig beschouw ik STACK op Hyper Backup echter als niet productiewaardig/veilig.
Heb je ook lokaal een hyper backup van alles ?
Pagina: 1 ... 14 ... 20 Laatste