Acties:
  • 0 Henk 'm!

  • giantgiantus
  • Registratie: Juni 2007
  • Laatst online: 10:15
Momenteel heb ik een Apple time capsule die ik gebruik als harddisk om mijn foto's op te slaan. Nu heb ik ook 1tb dropbox en 1tb onedrive waar ik mijn foto's graag naar toe zou willen uploaden. Met de Apple lukt me dat niet.

Na wat leeswerk begrijp ik dat dit met een synology wel makkelijk zou moeten kunnen. Ik vraag me af hoe dat precies in zijn werk gaat. Uploaden van foto's vanaf m'n Mac naar synology en die zet ze automatisch op dropbox?

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Na 3 dagen kan ik melden dat het backuppen naar Amazon Cloud Dive backup vanuit Hyper Backup onbetrouwbaar en niet werkbaar is. Ik heb 3 dagen geprobeerd een backup te maken. Hyperbackup begint vol goede moed, maar ergens in de nacht gaat er iets fout en crasht de backup, zodat je weer opnieuw kan beginnen. De logging geeft weinig informatie. Ik gebruik ook nog steeds mijn Azure backup en die draait vrolijk door. Het zit dus duidelijk in de combinatie Hyper Backup <> Amazon Cloud Drive. Ik zie ook dat de backup weggeschreven wordt in buckets ipv losse bestanden. Da's wel jammer, want nu kan je je bestanden niet inzien via de Amazon web site.
Ik stop nu met Amazon Drive en heb Synology laten weten dat het niet werkt. Ze moeten dit eerst maar oplossen dus.

[ Voor 4% gewijzigd door Microkid op 20-08-2016 13:22 ]

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • Rafael
  • Registratie: Mei 2007
  • Niet online
Microkid schreef op zaterdag 20 augustus 2016 @ 13:11:
Hyperbackup begint vol goede moed, maar ergens in de nacht gaat er iets fout en crasht de backup, zodat je weer opnieuw kan beginnen. De logging geeft weinig informatie.
Ik denk niet dat dit met 100% zekerheid te koppelen is aan Amazon Cloud Drive. Ik krijg exact hetzelfde met een backup naar Hubic via Hyper Backup. Ik zou dus eerder denken dat er een bug in Hyper Backup zit...?

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Rafael schreef op zaterdag 20 augustus 2016 @ 13:18:
[...]
Ik denk niet dat dit met 100% zekerheid te koppelen is aan Amazon Cloud Drive. Ik krijg exact hetzelfde met een backup naar Hubic via Hyper Backup. Ik zou dus eerder denken dat er een bug in Hyper Backup zit...?
Kan ook, maar het is in elk geval de combi Hyper Backup <> Amazon Drive. Want Hyper Backup <> Azure werkt gelukkig prima :)

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • DAzN
  • Registratie: April 2000
  • Niet online
Microkid schreef op zaterdag 20 augustus 2016 @ 13:11:
Na 3 dagen kan ik melden dat het backuppen naar Amazon Cloud Dive backup vanuit Hyper Backup onbetrouwbaar en niet werkbaar is.
Ik kan bevestigen dat ik dezelfde symptomen heb :'( Ik kijk het nog een paar dagen aan, maar tot zover is de oorspronkelijke vreugde omgeslagen in een teleurstelling.

Acties:
  • 0 Henk 'm!

  • upje
  • Registratie: April 2001
  • Laatst online: 11-09 20:38
Hier hetzelfde. Wel is het zo dat ik zo'n 600GB aan shared folders heb aangevinkt om te backuppen. Dat gaat zeker een paar dagen duren, en dat vindt Hyper Backup kennelijk niet leuk.

Ik heb nu eerst 1 shared folder aangevinkt en gebackupt. Daarna de volgende enzovoort. Dan duurt de backup maar een paar uurtjes, en dat gaat tot nu toe goed. Het lijkt er op dat deze workaround werkt.

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Ditto, hier ook problemen met HyperBackup en Amazon Cloud Drive. Had gehoopt dat dit goed zou werken, maar helaas. Vandaag heeft de initiele backup 13 uur gelopen voordat hij er mee kapte. Logs zeggen niet veel meer dan dat er een error was en dat helpt dus niet.

EDIT: door /var/messages gegraven en kom daar een serie 408 errors tegen op het moment dat de backup fails. Dit zou kunnen duiden op een probleem bij Amazon.

[ Voor 23% gewijzigd door afterburn op 21-08-2016 11:17 ]

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • FrenzyFreak
  • Registratie: April 2005
  • Laatst online: 23:54
afterburn schreef op zondag 21 augustus 2016 @ 11:04:
Ditto, hier ook problemen met HyperBackup en Amazon Cloud Drive. Had gehoopt dat dit goed zou werken, maar helaas. Vandaag heeft de initiele backup 13 uur gelopen voordat hij er mee kapte. Logs zeggen niet veel meer dan dat er een error was en dat helpt dus niet.

EDIT: door /var/messages gegraven en kom daar een serie 408 errors tegen op het moment dat de backup fails. Dit zou kunnen duiden op een probleem bij Amazon.
Amazon Cloud Drive is bij mij ook meerdere malen gefaald en ik heb dit ook aangekaart bij Synology. Zij gaven aan dat ze veel reconnects zagen in de logs, maar verder niets vreemds.

Rond 14.00 uur vandaag heb ik de backup voor de 4e keer gestart en tot nu toe heeft hij 21GB gedaan, waar hij eerst tot max 2GB kwam. Misschien heeft Amazon inderdaad iets veranderd? Probeer het in ieder geval nog eens! :)

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Ik kwam tot 80GB voordat hij crashte. 21GB hoeft dus nog niets te zeggen. En waarom zou Amazon iets aanpassen? Synology maakt gewoon gebruik van de API's die Amazon levert. Daar zou het fout kunnen gaan. Ik begreep dat de eerste versie van Hyperbackup voor Amazon Drive juist daarom afgekeurd was door Amazon omdat Synology e.e.a. niet goed op orde had. Mogelijk is het dus nog niet allemaal opgelost. Ik wacht rustig af totdat er een nieuwe beta is of de definitieve versie beschikbaar komt.

Ik zie in mijn log trouwens slechts een paar 408 errors, en veel 504 errors. Zal het nog eens proberen, kijken hoe het nu gaat.

Error 504 zou gerelateerd kunnen zijn aan grote bestanden (https://forums.developer....ploading-large-files.html). Dat kan wel kloppen, want ik heb een aantal AVI bestanden op mijn NAS staan van vakantiefilms van 14GB. Vreemd dat Azure daar totaal geen probleem mee heeft.

[ Voor 31% gewijzigd door Microkid op 21-08-2016 20:50 ]

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 08:40
Eerste keer startte die niet bij mij, tweede keer is ie tot 150Gb gekomen maar uiteindelijk toch gestopt.

En verder:
- datablock backup, er zou ook dedup inzitten. Nadeel inderdaad dat je zonder hyperbackup zelf niet in je bestanden kan, voordeel is wel dat er integriteitschecks in kunnen zitten (a la PAR2 via een index block per datablock).
- geen feedbak. 0. Geen idee wat ie doet, waar ie is, wat nu wel al gebackupped is en wat niet. Hij loopt en that's it.

Snelheid is wel oke en de belasting voor de syno ook. Beter dan Crashplan, maar die deed uiteindelijk wel gewoon alles backuppen..

Edit: grote bestanden zouden met backup blocks niet uit moeten maken, hij schrijft gewoon letterlijk blockniveau data weg en ziet zelf alleen maar bestanden van 50Mb. Dan zou de client daar op moeten crashen.

[ Voor 14% gewijzigd door NiGeLaToR op 21-08-2016 21:09 ]

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

NiGeLaToR schreef op zondag 21 augustus 2016 @ 21:08:
- geen feedback. 0. Geen idee wat ie doet, waar ie is, wat nu wel al gebackupped is en wat niet. Hij loopt en that's it.
Ja, dat is inderdaad erg vervelend. Als er nou een gedetailleerde log was zouden we nog wat kunnen ontdekken. Maar zonder log kom je niet ver....

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 08:40
Microkid schreef op zondag 21 augustus 2016 @ 21:15:
[...]

Ja, dat is inderdaad erg vervelend. Als er nou een gedetailleerde log was zouden we nog wat kunnen ontdekken. Maar zonder log kom je niet ver....
Nee, plus dat je nu dus ook niet weet of de voor jou belangrijke data wel is gebackupped. Je ziet aan de kant van Amazon alleen die blocks immers. Heb nog geen restore geprobeerd, maar de vraag is of dat werkt na zo'n crash en onvolledige full backup.

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 09:25

Arfman

Drome!

Ik hoor het al, ik ga wat geld opzij zetten voor een simpele Synology NAS die ik bij m'n (schoon)ouders dump t.z.t.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 08:40
Ja, zojuist issie er weer mee gestopt.. Feitelijk werkt amazon backup dus (nog) niet.

[ Voor 3% gewijzigd door NiGeLaToR op 22-08-2016 14:30 . Reden: Synology meldt dat er een update onderweg is. ]

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Hier ook, vannacht rond 6:18 uur weer gecrasht. Ik had als test nu alleen foto's gebackupt, zodat er geen grote bestanden tussen zouden zitten. Jammer. Hopen dat het snel opgelost wordt.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • Hari-Bo
  • Registratie: Juli 2003
  • Laatst online: 08:54
Arfman schreef op zondag 21 augustus 2016 @ 22:49:
Ik hoor het al, ik ga wat geld opzij zetten voor een simpele Synology NAS die ik bij m'n (schoon)ouders dump t.z.t.
Dat heb ik ook gedaan een 213J aangeschaft 2x1TB en deze maakt een VPN tunnel naar mijn omgeving als deze inschakelt, daarna wordt er een backup gemaakt en schakelt deze zich weer netjes uit. Deze setup is retestabiel en totaal geen omkijken meer naar.

Bos Stern Service Onafhankelijke Mercedes-Benz dienstverlening; diagnose, codering, retrofit, sleutelservice. ECU en tuning alle merken welkom. Projecten


Acties:
  • 0 Henk 'm!

  • kevinl
  • Registratie: Januari 2000
  • Laatst online: 04-09-2022

kevinl

Yellow van

Hari-Bo schreef op maandag 22 augustus 2016 @ 07:48:
[...]


Dat heb ik ook gedaan een 213J aangeschaft 2x1TB en deze maakt een VPN tunnel naar mijn omgeving als deze inschakelt, daarna wordt er een backup gemaakt en schakelt deze zich weer netjes uit. Deze setup is retestabiel en totaal geen omkijken meer naar.
Totdat er op een dag je beide Nassen encrypted zijn.

Bookreview: De eeuwige verkettering van Avesi


Acties:
  • 0 Henk 'm!

  • GeeMoney
  • Registratie: April 2002
  • Laatst online: 10:07
kevinl schreef op maandag 22 augustus 2016 @ 07:57:
[...]


Totdat er op een dag je beide Nassen encrypted zijn.
En je back-up bij Amazon 3 dagen onbeschikbaar is of helemaal weg is...
De oplossing, mits hij ook versioning gebruikt is op zich best aardig en al veel meer als het gros van de mensen heeft :) .
  • De back-up staat off-site. (tenzij zijn schoonouders zijn buren zijn :P )
  • Hij gebruikt een secure VPN-tunnel die alleen om bepaalde tijden maar beschikbaar is.
  • Als de Synology bij zijn schoonouders overdag ook echt niet gebruikt wordt is de kans op besmetting daar nihil .
  • Als hij zijn eigen Syno inschakeld en deze blijkt encrypted te zijn heeft hij de tijd tot zijn back-up gaat starten om te bedenken dat hij dat juist niet moet doen.
Enige vraag is of er versioning gebruikt wordt, dat zou de boel wel extra zekerheid geven. (op beide sites versioning is dan helemaal lekker)

Want hoe heb jij het geregeld eigenlijk? (eerlijk :P )

[ Voor 47% gewijzigd door GeeMoney op 22-08-2016 08:12 ]


Acties:
  • 0 Henk 'm!

  • Hari-Bo
  • Registratie: Juli 2003
  • Laatst online: 08:54
kevinl schreef op maandag 22 augustus 2016 @ 07:57:
[...]


Totdat er op een dag je beide Nassen encrypted zijn.
Dan heb ik altijd nog een USB schijf welke elke maand een cold copy heeft. En beide NASjes tegelijk encrypted lijkt me vrij onwaarschijnlijk, deze draaien verschillende versies 5.2 en 6.0 plus de backup NAS is niet 24x7 online. Beide NASsen hebben ook geen portforwarding naar de buitenwereld ik moet via VPN verbinding maken om toegang te krijgen tot de omgeving.

Bos Stern Service Onafhankelijke Mercedes-Benz dienstverlening; diagnose, codering, retrofit, sleutelservice. ECU en tuning alle merken welkom. Projecten


Acties:
  • 0 Henk 'm!

  • ndonkersloot
  • Registratie: September 2009
  • Laatst online: 09-09 00:56
Ik heb een externe HDD die aan de Synology hangt en tweemaal per week een back-up maakt. Ik heb mezelf geen rechten gegeven om te schrijven op deze HDD dus als een PC in mijn netwerk ransomeware krijgt die de NAS als share heeft blijft die back-up buiten schot.

Buiten deze schijf heb ik nog een externe HDD die bij familie ligt. Om de zoveel maanden maak ik hier handmatig een back-up op. Uiteraard is een NAS elders beter om naar te syncen, dan verlies je waarschijnlijk minder. Maar ik vind dit een goede budget oplossing.

Fujifilm X-T3 | XF16mm f/2.8 | XF35mm f/2.0 | Flickr: ndonkersloot


Acties:
  • 0 Henk 'm!

  • kevinl
  • Registratie: Januari 2000
  • Laatst online: 04-09-2022

kevinl

Yellow van

Tiwazz schreef op maandag 22 augustus 2016 @ 08:41:
Ik heb een externe HDD die aan de Synology hangt en tweemaal per week een back-up maakt. Ik heb mezelf geen rechten gegeven om te schrijven op deze HDD dus als een PC in mijn netwerk ransomeware krijgt die de NAS als share heeft blijft die back-up buiten schot.

Buiten deze schijf heb ik nog een externe HDD die bij familie ligt. Om de zoveel maanden maak ik hier handmatig een back-up op. Uiteraard is een NAS elders beter om naar te syncen, dan verlies je waarschijnlijk minder. Maar ik vind dit een goede budget oplossing.
Maak het wat uit of je schrijfrechten hebt? Dacht dat de hack van een exploit gebruik maakt.

Bookreview: De eeuwige verkettering van Avesi


Acties:
  • 0 Henk 'm!

  • Bastiaan
  • Registratie: November 2002
  • Laatst online: 00:00

Bastiaan

Bas·ti·aan (de, m)

Microkid schreef op zondag 21 augustus 2016 @ 20:34:
Error 504 zou gerelateerd kunnen zijn aan grote bestanden (https://forums.developer....ploading-large-files.html). Dat kan wel kloppen, want ik heb een aantal AVI bestanden op mijn NAS staan van vakantiefilms van 14GB. Vreemd dat Azure daar totaal geen probleem mee heeft.
Ik heb er ook een aantal grote files tussen zitten, maar zo ver ik heb kunnen terugzien wordt alles in blokken van 50MB gekapt (althans, met de encrypted config).

Wat me nu dan wat meer zorgen baart; het is er bij mij op zo'n 45GB 'al' mee opgehouden van de bijna 200 in totaal, maar zie ik dat ik op Amazon Drive er nog maar 2GB aan over heb gehouden. Inderdaad maar even aankijken hoe het gaat zolang de proefperiode loopt, maar dit zal zelfs bij een oplossing niet direct mijn primaire externe backuplocatie worden.

Acties:
  • 0 Henk 'm!

  • GeeMoney
  • Registratie: April 2002
  • Laatst online: 10:07
kevinl schreef op maandag 22 augustus 2016 @ 09:01:
[...]


Maak het wat uit of je schrijfrechten hebt? Dacht dat de hack van een exploit gebruik maakt.
Dat ligt eraan door welke ransomware je getroffen wordt.
Ransomware op je PC zal de share niet opeens read-write kunnen mounten als je account dat nu ook niet kan.
Ransomware die direct op je Syno speelt kan natuurlijk wel die externe HDD "bewerken" mits het admin account getroffen is of een account met voldoende rechten .

[ Voor 7% gewijzigd door GeeMoney op 22-08-2016 11:12 ]


Acties:
  • +1 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Inzake het crashen van Amazon Cloud Drive backup: ik ontving zojuist een mail van Synology dat het probleem bekend is en dat er een oplossing voor komt in de volgende release van Hyper Backup. Indien je haast hebt kan je ze remote toegang verlenen, dan doen ze een handmatige update. Ik wacht wel even :)
Dear Customer ,
Thank you for contacting Synology support.
According to the log, it seems a known issue and we will fix it in coming Hyper Backup version update.
Please wait for the update version.
If you insist to solve it, please provide remote access for us, we can help you replace the backup code in your NAS .

[ Voor 36% gewijzigd door Microkid op 22-08-2016 16:49 ]

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Ik heb dezelfde email gehad als antwoord op mijn support request. Denk dat ik ze maar toegang geef, dan kan ik iig nog feedback geven op een eventuele fix.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
Is er eigenlijk een hyper backup oplossing met versioning mogelijk maar dan met amazon aws? Waar je dus betaalt wat je gebruikt. Ik heb nl. geen honderden GB's te backuppen.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • ndonkersloot
  • Registratie: September 2009
  • Laatst online: 09-09 00:56
kevinl schreef op maandag 22 augustus 2016 @ 09:01:
[...]


Maak het wat uit of je schrijfrechten hebt? Dacht dat de hack van een exploit gebruik maakt.
Als je synology besmet raakt met ransomware die onder root opereert dan maakt het niet uit, als de NAS of mijn PC besmet raakt met ransomware onder mijn user account dan zal de back-up onaangetast blijven.

Omdat het risico bestaat dat ransomware onder root gaat draaien (of het huis afbrand, bliksem inslaat of diefstal) en de standaard back-up dus niet afdoende is kan ik de offsite back-up al dan niet met wat verlies gebruiken.

Fujifilm X-T3 | XF16mm f/2.8 | XF35mm f/2.0 | Flickr: ndonkersloot


Acties:
  • 0 Henk 'm!

  • lubbertkramer
  • Registratie: Augustus 2009
  • Laatst online: 11-09 22:05
Dear Customer,

Thank you for contacting Synology Support.

It is a known issue and we will fix it in the next Hyper Backup version update.

Please wait for the update version.

If you insist on solving it, we would appreciate if you could offer us your permission to get into your system via remote access. Then we could have a closer look at this problem for solving. Please help to provide us with the information below so we can access your system.
Hier soortgelijke mail gekregen naar aanleiding van het probleem HyperBackup -> Amazon Drive. Heb een mail teruggedaan dat als de update vandaag nog komt ze het niet handmatig hoeven te fixen maar als het langer duurt ik wel wil testen en ze gelijk tijdelijke key meegestuurd voor remote control. Ik ben benieuwd

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 11-09 22:56

Tortelli

mixing gas and haulin ass

Hari-Bo schreef op maandag 22 augustus 2016 @ 07:48:
[...]


Dat heb ik ook gedaan een 213J aangeschaft 2x1TB en deze maakt een VPN tunnel naar mijn omgeving als deze inschakelt, daarna wordt er een backup gemaakt en schakelt deze zich weer netjes uit. Deze setup is retestabiel en totaal geen omkijken meer naar.
Hoe laat je de 213j automatisch VPNen naar jou ?.

(ik gebruiik nu nog een portforward, maar VPN lijkt me een veiligere optie...)

Acties:
  • 0 Henk 'm!

  • Hans van Eijsden
  • Registratie: Augustus 2000
  • Laatst online: 02-09 23:32
Hi Customer,
Thank you for contacting Synology support.

After confirming by our developer, this is a known issue that our developers are working hard to address in a future release. Please kindly stay tuned for the update, and in the meantime, we apologize for any inconvenience caused.

Please let us know if we could do further assistance. If you have any great suggestions or feature requests, please kindly send them to our Product Management group at:
https://www.synology.com/form/inquiry/feedback
Zojuist heb ik deze mail van ze gekregen. Volgens mij hebben ze het anders behoorlijk druk met handmatig inloggen bij iedereen.. ;)

https://www.hansvaneijsden.com


Acties:
  • 0 Henk 'm!

  • lubbertkramer
  • Registratie: Augustus 2009
  • Laatst online: 11-09 22:05
Hello Lubbert,

Thanks for the update.

We had replaced the binary code and you can update the incoming version of Hyper Backup. Please help to run the backup to Amazon Cloud Drive again and check if there is any problem.
Inmiddels Hyper Backup opnieuw aangezet, back-up (geselecteerde shared folders)zal een ruwe 200GB bevatten, Hierna ga ik de applicaties back-up testen. Ik zal deze post tusendoor updaten.

07:35 Start Hyper Backup
09:39 Na processen van de data is hij nu bezig met de back-up - Progress 28.22GB 14% Voltooid met 5.4 MB/s upload volgens Synology
10:17 Back-up lijkt goed te verlopen, zie de bestanden ook verschijnen op Amazon Drive en bij voorgaande back-up pogingen zag ik dit niet - Progress 37.10GB 19% Voltooid 5.8MB/s upload volgens Synology
11:46 Progress 60.85GB 31% Voltooid 5.6MB/s upload volgens Synology
12:06 Progress 66.16GB 34% Voltooid 5,2MB/s upload volgens Synology en zie op Amazon Drive de bestanden (blocks) ook daadwerkelijk staan en van een lege Amazon Drive (trial account) nu op 68 GB
used volgens mijn Amazon pagina
13:51 Progress 94.43GB 49% Voltooid 5.6MB/s upload volgens Synology
15:44 Progress 124.91GB 65% Voltooid 5.5MB/s upload volgens Synology
19:22 Progress 180.23GB 96% Voltooid 4.9MB/s upload volgens Synology

[ Voor 76% gewijzigd door lubbertkramer op 24-08-2016 19:33 ]


Acties:
  • 0 Henk 'm!

  • Hari-Bo
  • Registratie: Juli 2003
  • Laatst online: 08:54
Tortelli schreef op dinsdag 23 augustus 2016 @ 11:59:
[...]


Hoe laat je de 213j automatisch VPNen naar jou ?.

(ik gebruiik nu nog een portforward, maar VPN lijkt me een veiligere optie...)
Binnen DSM ga je naar configuratiescherm - netwerk - netwerkinterface en kan je een VPN profiel toevoegen op de tunnel mee op te bouwen.

Bos Stern Service Onafhankelijke Mercedes-Benz dienstverlening; diagnose, codering, retrofit, sleutelservice. ECU en tuning alle merken welkom. Projecten


Acties:
  • 0 Henk 'm!

  • dicespark
  • Registratie: Augustus 2011
  • Niet online
@Hari-Bo en vul je dan op je remote-synology de gegevens van VPN station in welke draait op je thuis-Synology? *moeilijke zin*

Acties:
  • 0 Henk 'm!

  • Bastiaan
  • Registratie: November 2002
  • Laatst online: 00:00

Bastiaan

Bas·ti·aan (de, m)

Nu krijg ook ik feedback van Synology, maar ook weer een andere inhoud:
Please send us a copy of your kernel log, the instructions have been mentioned in below. The Kernel log is a technical log file which can give us more technical information about your system

[debug log after DSM5.0]
1. Log into the DiskStation Manager as admin account.
2. Go to Support Center > Support Services > Log Generation > Select System > Apply
3. Press Enter to save the debug.dat file to your local computer.
4. Please attach debug.dat file for us.
Uiteraard aangeleverd en afwachten maar.

Acties:
  • 0 Henk 'm!

  • albatross
  • Registratie: September 2006
  • Laatst online: 11-06 16:43
Wat voor Cloudplan zou er zijn voor 10T aan data? Meeste wat ik vind is net 100G of zo, of totaal onbetaalbaar voor die grootte.

i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW


Acties:
  • +1 Henk 'm!

  • lubbertkramer
  • Registratie: Augustus 2009
  • Laatst online: 11-09 22:05
albatross schreef op woensdag 24 augustus 2016 @ 11:55:
Wat voor Cloudplan zou er zijn voor 10T aan data? Meeste wat ik vind is net 100G of zo, of totaal onbetaalbaar voor die grootte.
Amazon Drive, onbeperkt of Stack van Transip (werkt alleen nog niet met hyperbackup)

Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 08:40
lubbertkramer schreef op woensdag 24 augustus 2016 @ 07:37:
[...]


Inmiddels Hyper Backup opnieuw aangezet, back-up (geselecteerde shared folders)zal een ruwe 200GB bevatten, Hierna ga ik de applicaties back-up testen. Ik zal deze post tusendoor updaten.

07:35 Start Hyper Backup
09:39 Na processen van de data is hij nu bezig met de back-up - Progress 28.22GB 14% Voltooid met 5.4 MB/s upload volgens Synology
10:17 Back-up lijkt goed te verlopen, zie de bestanden ook verschijnen op Amazon Drive en bij voorgaande back-up pogingen zag ik dit niet - Progress 37.10GB 19% Voltooid 5.8MB/s upload volgens Synology
11:46 Progress 60.85GB 31% Voltooid 5.6MB/s upload volgens Synology
Zie je nu echt files op Amazon, of nog steeds alleen de 50Mb blocks?

Hoopgevend in ieder geval.

Noobvraag: hoe geef je Synology support toegang om zo'n package bij me te installeren? :P

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


Acties:
  • 0 Henk 'm!

  • albatross
  • Registratie: September 2006
  • Laatst online: 11-06 16:43
lubbertkramer schreef op woensdag 24 augustus 2016 @ 11:56:
[...]


Amazon Drive, onbeperkt of Stack van Transip (werkt alleen nog niet met hyperbackup)
Bedankt! :) Ga er direkt naar kijken!

i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW


Acties:
  • 0 Henk 'm!

  • lubbertkramer
  • Registratie: Augustus 2009
  • Laatst online: 11-09 22:05
NiGeLaToR schreef op woensdag 24 augustus 2016 @ 11:59:
[...]


Zie je nu echt files op Amazon, of nog steeds alleen de 50Mb blocks?

Hoopgevend in ieder geval.

Noobvraag: hoe geef je Synology support toegang om zo'n package bij me te installeren? :P
Ik heb op dit moment 68 GB used volgens Amazon Drive en zie inderdaad de blocks (zie ze ook echt op de drive), wat logisch is vanwege dat ik het met een encryptie laat wegschrijven en geen sync/kopie van de data maar dat kan ik hierna testen eventueel.

Via de app "support center" en dan tweede tabje "support services" kun je remote access aanzetten en ze tijdelijk toegang geven met een key of een andere methode is de poorten open te zetten dat ze remote verbinding maken met de NAS.
albatross schreef op woensdag 24 augustus 2016 @ 11:59:
[...]


Bedankt! :) Ga er direkt naar kijken!
Hou met Amazon Drive nog wel even rekening dat de app officieel nog niet werkt, ze hebben bij mij nu handmatig de update alvast gedaan en ik test het nu en lijkt goed te gaan vooralsnog (zie posts hierboven erover) en ze geven aan dit in de update van HyperBackup te fixen.

[ Voor 21% gewijzigd door lubbertkramer op 24-08-2016 12:04 ]


Acties:
  • 0 Henk 'm!

  • Hari-Bo
  • Registratie: Juli 2003
  • Laatst online: 08:54
dicespark schreef op woensdag 24 augustus 2016 @ 09:35:
@Hari-Bo en vul je dan op je remote-synology de gegevens van VPN station in welke draait op je thuis-Synology? *moeilijke zin*
Ik voer inderdaad de VPN gegevens op de remote NAS in om verbinding te maken naar mijn router met een VPN server. Want de remote NAS schakelt maar een uur per dag in en moet zelf om deze rede de tunnel opbouwen.

[ Voor 12% gewijzigd door Hari-Bo op 24-08-2016 12:51 ]

Bos Stern Service Onafhankelijke Mercedes-Benz dienstverlening; diagnose, codering, retrofit, sleutelservice. ECU en tuning alle merken welkom. Projecten


Acties:
  • 0 Henk 'm!

  • DAzN
  • Registratie: April 2000
  • Niet online
lubbertkramer schreef op woensdag 24 augustus 2016 @ 12:03:
Hou met Amazon Drive nog wel even rekening dat de app officieel nog niet werkt, ze hebben bij mij nu handmatig de update alvast gedaan en ik test het nu en lijkt goed te gaan vooralsnog (zie posts hierboven erover) en ze geven aan dit in de update van HyperBackup te fixen.
Klinkt goed. Ik heb het met de huidige officiële versie opgegeven nadat de backup gisteren na 175/200 GB weer werd afgebroken.
Houd ons op de hoogte :)

Acties:
  • 0 Henk 'm!

  • Bastiaan
  • Registratie: November 2002
  • Laatst online: 00:00

Bastiaan

Bas·ti·aan (de, m)

Ze gaan bij mij ook manueel aan de gang naar aanleiding van de verzonden logs. Ben benieuwd!

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Die van mij is nog niet gefixed, aangezien ik een probleem heb met ssh (aanzetten van passwordauthentication yes heeft geen resultaat), maar ondertussen is een backup van 275G wel goed afgerond na 1 dag en 4 uur draaien.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • lubbertkramer
  • Registratie: Augustus 2009
  • Laatst online: 11-09 22:05
DAzN schreef op woensdag 24 augustus 2016 @ 13:59:
[...]


Klinkt goed. Ik heb het met de huidige officiële versie opgegeven nadat de backup gisteren na 175/200 GB weer werd afgebroken.
Houd ons op de hoogte :)
lubbertkramer schreef op woensdag 24 augustus 2016 @ 07:37:
[...]


Inmiddels Hyper Backup opnieuw aangezet, back-up (geselecteerde shared folders)zal een ruwe 200GB bevatten, Hierna ga ik de applicaties back-up testen. Ik zal deze post tusendoor updaten.

07:35 Start Hyper Backup
09:39 Na processen van de data is hij nu bezig met de back-up - Progress 28.22GB 14% Voltooid met 5.4 MB/s upload volgens Synology
10:17 Back-up lijkt goed te verlopen, zie de bestanden ook verschijnen op Amazon Drive en bij voorgaande back-up pogingen zag ik dit niet - Progress 37.10GB 19% Voltooid 5.8MB/s upload volgens Synology
11:46 Progress 60.85GB 31% Voltooid 5.6MB/s upload volgens Synology
12:06 Progress 66.16GB 34% Voltooid 5,2MB/s upload volgens Synology en zie op Amazon Drive de bestanden (blocks) ook daadwerkelijk staan en van een lege Amazon Drive (trial account) nu op 68 GB
used volgens mijn Amazon pagina
13:51 Progress 94.43GB 49% Voltooid 5.6MB/s upload volgens Synology
15:44 Progress 124.91GB 65% Voltooid 5.5MB/s upload volgens Synology
19:22 Progress 180.23GB 96% Voltooid 4.9MB/s upload volgens Synology
Gedeelde mappen in back-up naar Amazon Drive gelukt, kleiner geworden door compressie dan ik dacht. Snelheid bleef ook mooi stabiel tijdens de tussentijdse metingen. Zal nu testen om app's in back-up naar Amazon Drive te zetten en daarna een restore doen vanuit Amazon Drive.

Afbeeldingslocatie: https://tweakers.net/ext/f/7KkT58gzjUvyRHFeLOz3786i/full.png

[ Voor 9% gewijzigd door lubbertkramer op 24-08-2016 19:35 ]


  • wars
  • Registratie: Augustus 2006
  • Laatst online: 04-08 09:56
Weet er iemand of er ook een overzicht te zien is welke files er zijn toegevoegd/aangepast/verwijderd ?

Je ziet wel mooi het aantal files, maar lijkt me leuk om hier ook meer details van te zien

Afbeeldingslocatie: http://i68.tinypic.com/r251jl.png


beetje offtopic: ik heb ook al geprobeerd om AmazonDrive aan te maken, maar ik zie enkel de oude tarieven staan op de site, kom dan ook constant op .fr uit...

Acties:
  • 0 Henk 'm!

  • Bastiaan
  • Registratie: November 2002
  • Laatst online: 00:00

Bastiaan

Bas·ti·aan (de, m)

Bij mij heeft Synology het inmiddels ook manueel aangepast. En voor degenen welke graag op de update van Hyper Backup willen wachten:
We fixed this issue in your NAS. Please check the backup.

Btw, we will release Hyper backup package next week to fix this issue too.

[ Voor 3% gewijzigd door Bastiaan op 26-08-2016 08:12 ]


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Hier heeft Synology de boel ook aangepast. Backup loopt nu weer.
Btw, we will release Hyper backup package next Wednesday.
Da's dus nog vrij snel :)

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • +1 Henk 'm!

  • DAzN
  • Registratie: April 2000
  • Niet online
Mooi, ik wacht dan nog een paar dagen op de officiële update.

Acties:
  • 0 Henk 'm!

  • XooL
  • Registratie: September 2010
  • Laatst online: 06:43
Dit topic met interesse gevolgd, daar ik tegen exact dezelfde problemen aanliep met Hyper Backup en de Amazon Cloud. Ik zie eveneens uit naar de update a.s. woensdag! Bedankt voor jullie research!

Acties:
  • 0 Henk 'm!

  • dicespark
  • Registratie: Augustus 2011
  • Niet online
Nice, bedankt voor de updates. Ik ga dan toch even die 'tweede NAS-optie' parkeren en misschien Amazon Cloud eens proberen. Even jullie views na woensdag afwachten.
Is natuurlijk ook een financieel dingetje: nieuwe ds216+ii & harddisks vs. 60€ per jaar...

Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

dicespark schreef op zaterdag 27 augustus 2016 @ 12:47:
Nice, bedankt voor de updates. Ik ga dan toch even die 'tweede NAS-optie' parkeren en misschien Amazon Cloud eens proberen. Even jullie views na woensdag afwachten.
Is natuurlijk ook een financieel dingetje: nieuwe ds216+ii & harddisks vs. 60€ per jaar...
Waarom nieuw? Als ie alleen als backuptarget wordt gebruikt hoeft ie toch niet nieuw en bloedsnel te zijn?

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!

  • vanpeers
  • Registratie: Februari 2010
  • Laatst online: 11-09 21:49
albatross schreef op woensdag 24 augustus 2016 @ 11:55:
Wat voor Cloudplan zou er zijn voor 10T aan data? Meeste wat ik vind is net 100G of zo, of totaal onbetaalbaar voor die grootte.
Hubic heeft de beste prijs denk ik. €50/jaar voor 10TB.

.BE / Marstek Venus 5,12kWh / 8400Wp panelen / energie negatieve woning / ENG


Acties:
  • 0 Henk 'm!

  • dicespark
  • Registratie: Augustus 2011
  • Niet online
stuffer schreef op zaterdag 27 augustus 2016 @ 15:27:
[...]

Waarom nieuw? Als ie alleen als backuptarget wordt gebruikt hoeft ie toch niet nieuw en bloedsnel te zijn?
Nee idd. 't hele verhaal is dat ik m'n DS212J wil degraderen tot off-site backup en dan die nieuwe als main-NAS te gebruiken.

Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

dicespark schreef op zondag 28 augustus 2016 @ 15:10:
[...]


Nee idd. 't hele verhaal is dat ik m'n DS212J wil degraderen tot off-site backup en dan die nieuwe als main-NAS te gebruiken.
Aah logisch! Dan heb je nog wel een goede nas aan de andere kant staan als je voor die optie kiest.

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!

  • Xirt
  • Registratie: December 2003
  • Laatst online: 29-06 23:00
Ik zit zelf een beetje te sleutelen aan mijn backupopstelling en ik ben daarbij niet te spreken over Synology Cloud Backup om de bestanden van mijn computer te synchroniseren naar mijn NAS: het kopieren is erg traag (400Gb initieel duurt meer dan een dag) en gebruikt op mijn NAS vrijwel altijd alle CPU-resources (dat is een groter probleem). Nu heb ik tijdelijk DirSyncPro geinstalleerd om mijn computer om de backup te maken, maar dit betekent dat mijn backup-mount direct schrijfbaar is door de Windows gebruiker (e.g. geen apart account voor de applicatie om in te loggen op de NAS).Aangezien dit in het geval van cryptoware niet aan te raden is ben ik dus op zoek naar een andere manier om te synchroniseren.

De mooiste oplossing lijkt mij om de NAS toegang te geven tot de PC en op die manier de backup op te halen (dan zou cryptoware dus niet direct op de NAS kunnen schrijven). Een alternatief zou zijn dat ik een applicatie gebruik die specifiek voor het synchroniseren gebruikt wordt naast het account dat ik gebruik om via Windows toegang te krijgen tot mijn data (andere shares op de NAS). Echter, ik kan niet echt een goed alternatief vinden voor Synology Cloud Backup dat dit ook lijkt te doen. Heeft iemand een goed idee hiervoor? Bij voorbaat dank!

Acties:
  • +2 Henk 'm!

  • Hans van Eijsden
  • Registratie: Augustus 2000
  • Laatst online: 02-09 23:32
De Hyper Backup update is uit. Snelheid lijkt constanter en is hier nog niet afgebroken in de afgelopen 5 uur. 😃

https://www.hansvaneijsden.com


Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 08:40
TopTip! draait hier ook weer, na paar weken van mislukte jobs :P

Hij loopt nog steeds, maar pas 100Gb gedaan (9:43 volgend dag). Toen ie nog mislukte ging het veel sneller ;)
Maargoed, we hebben geduld! Eerder heb ik de > 200gb al geraakt voor die stopte. 1,5-2MB/s. In theorie moet met 20Mbit iets harder kunnen, maar ms is dit 't ook wel.

[ Voor 75% gewijzigd door NiGeLaToR op 31-08-2016 09:47 ]

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


Acties:
  • 0 Henk 'm!

  • DAzN
  • Registratie: April 2000
  • Niet online
Meteen installeren, ben benieuwd hoe het gaat.

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Zo, na 4 dagen en 11 uur backuppen is mijn backup naar Amazon Drive klaar. De handmatige patch van Synology heeft dus prima gewerkt, alles staat nu netjes op Amazon. Nu nog even wat restore restjes en dan neem ik afscheid van Azure backup.

[ Voor 3% gewijzigd door Microkid op 30-08-2016 20:55 ]

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
hoe kan je het beste Amazon drive aanschaffen zonder Creditcard??

Paypal werkt volgens mij niet bij Amazon, klopt dat ?

  • Zanydu
  • Registratie: Juli 2004
  • Laatst online: 01-08-2024
Voor de mensen die Amazon Cloud Drive gebruiken, hebben jullie al een testrestore uitgevoerd?

Ik heb een testbackup gemaakt van zo'n 50 GB, maar als ik deze wil restoren (kopieer naar nieuwe locatie) dan krijg ik na een tijdje de melding "Kopiëren/herstellen van het bestand/map ... is mislukt".

  • Bastiaan
  • Registratie: November 2002
  • Laatst online: 00:00

Bastiaan

Bas·ti·aan (de, m)

Niet een volledige map, maar wel een serie aan losse bestanden en mappen (een MB of 250 hebben we het over). Dat ging in ieder geval goed. Ik heb een volledige test-restore (160 GB) voor dit weekend pas op het programma staan omdat ik eerst zeker wilde hebben dat de backup een paar keer probleemloos loopt.

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 08:40
280Gb and counting :) nog altijd zo'n 1,9Mb/s

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


  • sweebee
  • Registratie: Oktober 2008
  • Laatst online: 11-09 15:29
Ik backup nu al een hele tijd van xpenology naar een andere xpenology. Maar nu vraag ik me af, checkt dsm of alle data goed blijft op de backup locatie? Dus of er geen bitrot oid is?

Acties:
  • 0 Henk 'm!

  • DAzN
  • Registratie: April 2000
  • Niet online
Zonder interventie van Synology heeft de update voor de Hyper Backup voor Amazon Drive ook voor mij geholpen. De backup van ca. 200GB is succesvol afgerond en de eerste geplande backup heeft ook plaatsgevonden. Een restore heb ik nog niet uitgevoerd.

Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
Vraag:
Waarom zou je Amazon Drive kiezen i.p.v. Amazon S3? Is dat puur de onbeperkte opslag en kostenaspect hiervan? Functioneel is het hetzelfde toch? Of mis ik nog iets anders?

👉🏻 Blog 👈🏻


Acties:
  • +1 Henk 'm!

  • Orion84
  • Registratie: April 2002
  • Laatst online: 10:36

Orion84

Admin General Chat / Wonen & Mobiliteit

Fotogenie(k)?

Topicstarter
Tussen alle discussie over backup methodes door, nu maar eens een recovery ervaring.

Vorige week kwam ik tot de vervelende ontdekking dat mijn NAS nauwelijks nog bereikbaar was via synology apps / webinterface. Uiteindelijk wel verbinding gekregen en het leek dat Disk 2 niet helemaal in orde was.

Ik had er op dat moment 2 2TB disken in zitten, beide als los basic volume.

Direct besloten om dit maar als een mooi moment te zien om te upgraden naar 2x 4TB (Disk 1 begon namelijk ook aardig vol te raken) en al doende maar te zien wat er nog van Disk 2 te maken was.

Dus Disk 2 verwijderd en een nieuwe 4TB disk geplaatst. En volgens dit stappenplan Disk 1 gecloned naar de nieuwe 4TB disk, om die vervolgens weer om te zetten naar een basic volume en daarmee de nieuwe Disk 1.
code:
1
2
3
4
5
6
7
Verwijder Disk 2, plaats de disk die als vervanger van Disk 1 moet gaan dienen.
Start NAS en maak van Volume 1 een RAID 1 volume over de oude en nieuwe disk.
NAS uit, de twee schijven van plek wisselen, NAS weer aan
NAS uit, oude disk er uit.
NAS aan en via SSH/telnet: mdadm --grow --raid-devices=1 --force /dev/md2
Nu is de nieuwe Disk 1 weer een basic volume
Via Storage manager kan je dan het volume oprekken naar de volledige capaciteit van de nieuwe disk


Ondertussen verschillende pogingen ondernomen om data van Disk 2 te halen (met behulp van USB->SATA behuizing). Clonen via Macrium Reflect ging absurd langzaam (<1MB/s), dus afgebroken. Mounten onder Ubuntu leek te werken, en data leek ook toegankelijk. Maar ook daar bleek het kopiëren van de data naar een andere USB disk tergend langzaam te gaan. Aangezien de disk netjes als USB Superspeed herkend werd, zou het daar niet aan moeten liggen en was er waarschijnlijk toch echt wat stuk aan de disk zelf.

Dat werd bevestigd toen ik wat van de moeizaam gekopieerde data probeerde te openen. Sommige bestanden werkten nog, maar verschillende bestanden waren corrupt. En in de systeemlogs van Ubuntu zag ik ook de nodige verontrustende meldingen langskomen over een bad sector count die maar op bleef lopen.

Ondertussen was de upgrade van Disk 1 klaar en zat de andere nieuwe 4TB disk geformateerd en wel op z'n plek als nieuwe Disk 2. Tijd voor data herstel uit backups.

Zo'n 75% van de ~1TB aan data had ik gelukkig nog in lokale backups staan (slordig, de laatste was van eind 2014). Dus dat was vlot hersteld. De rest zou dan uit Amazon Glacier moeten komen. Maar ja, dat zou dus wel eens een duur (of erg geduldig) grapje kunnen worden als je de verhalen zo links en rechts leest.

Uiteindelijk is dat heel erg meegevallen. Je kan (tegenwoordig?) in Amazon zelf een 'GB/h' retrieval limiet instellen, waarbij Amazon je ook laat zien wat daarbij de maximale maandelijkse kosten zijn. Na een beetje spelen met die instelling om een beeld te krijgen van de bijbehorende kosten, uiteindelijk een 10GB/h limiet ingesteld.

Die limiet werkt vervolgens een beetje apart. Amazon heeft gemiddeld 3-5 uur nodig om bij een retrieval job de data op te halen. Daarna kan je client het dan downloaden. Voor het bepalen of je job binnen de limiet valt, kijkt Amazon daarom naar (job size)/4uur. Met een 10GB/u limiet, kan je dus jobs van max. 40GB starten.
Nu heeft de Glacier client ook een instelling om de retrieval limiet in te stellen. Maar daarvan was me een beetje onduidelijk hoe dat in elkaar stak. Aangezien ik geen zin had in geweigerde jobs door Amazon (want kost weer zoveel uur extra om opnieuw te doen), heb ik zelf steeds (via de Explore omgeving van de Glacier package) een setje folders uitgekozen dat zo tegen de 40GB uit kwam en die dan gestart.

Tikkeltje bewerkelijk, maar als je het een beetje handig plant kan je zo wel 3 of 4 jobs per dag starten. En zodoende was ik afgelopen woensdag dan ook klaar met het herstellen van zo'n 250GB data uit Glacier. Mooi op tijd om te voorkomen dat ik ook nog voor september retrieval kosten zou moeten betalen. Die zijn namelijk niet afhankelijk van hoeveel je download, maar wat je piek was in die maand (dus in feite afhankelijk van de grootste gestarte job).

De rekening voor deze actie kwam uiteindelijk uit op $60.

The problem with common sense is that it's not all that common. | LinkedIn | Flickr


Acties:
  • +1 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 10:38

Microkid

Frontpage Admin / Moderator PW/VA

Smile

kraades schreef op zondag 04 september 2016 @ 09:14:
Vraag:
Waarom zou je Amazon Drive kiezen i.p.v. Amazon S3? Is dat puur de onbeperkte opslag en kostenaspect hiervan? Functioneel is het hetzelfde toch? Of mis ik nog iets anders?
Interessant leesstukje: http://www.cloudberrylab....crucial-backup-data-goes/

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
Bedankt! Dan hou ik het bij S3 en zet hyper backup versioning aan. Ik heb bij lange na geen 166 GB te backuppen (nu 20 GB voor $0,60 per maand) en ik gebruikte al lifecycle rules (hoewel ik dat met de versioning van hyper backup waarschijnlijk niet meer kan gebruiken).

Edit:
Ik lees hierboven een stukje over een restore ervaring.
Ik moest dus ook een backup terugzetten. Ik had nog geen versioning aanstaan in hyper backup (oeps, was nog net op tijd voor de week backup). Viel mij wel tegen dat ik alleen kon kiezen voor een full restore.
Uiteindelijk moest ik $1,50 betalen voor ongeveer 20 GB. Dit duurde ongeveer 30 minuten om te restoren.

[ Voor 26% gewijzigd door technorabilia op 04-09-2016 15:11 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
Ik maak ook een backup naar lokale USB disk.

Ik zie daar bij Task Settings de volgende optie:
Remove destination external device when backup task has successfully finished

Vrij duidelijk. Na de backup wordt de disk ge-unmount. Het idee van een niet gemounte disk vind ik weer wat veiliger. Echter, hoe krijg ik de disk weer gemount voor de volgende backup? Moet ik daar een script voor maken?

(m.a.w. is deze optie meer bedoeld voor usb disk rotatie waarbij je automatisch eject en daarna iemand een nieuwe usb disk plaatst - en dus automatisch mount).

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • GeeMoney
  • Registratie: April 2002
  • Laatst online: 10:07
kraades schreef op maandag 05 september 2016 @ 07:43:
Ik maak ook een backup naar lokale USB disk.

Ik zie daar bij Task Settings de volgende optie:
Remove destination external device when backup task has successfully finished

Vrij duidelijk. Na de backup wordt de disk ge-unmount. Het idee van een niet gemounte disk vind ik weer wat veiliger. Echter, hoe krijg ik de disk weer gemount voor de volgende backup? Moet ik daar een script voor maken?

(m.a.w. is deze optie meer bedoeld voor usb disk rotatie waarbij je automatisch eject en daarna iemand een nieuwe usb disk plaatst - en dus automatisch mount).
Je zal een rescan moeten doen van de USB controller.

Vergelijkbare Google Hits:
http://www.zedt.eu/tech/l...ing-usb-subsystem-centos/

Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Is er eigenlijk een manier om te achterhalen welke files als zijnde gewijzigd worden gedetecteerd en dus verstuurd gaan worden bij een incrementele backup ?

Bij mij was HyperBackup gisteren namelijk een paar GB aan data aan het oversturen, terwijl er volgens mij maar een kleine delta was tov de vorige incrementele backup...

Halverwege de backup viel de verbinding dan ook nog eens weg ... Bestaat de kans dat de backup op de andere synology in zo een geval corrupt wordt ?

Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
devastator83 schreef op maandag 05 september 2016 @ 14:50:
Is er eigenlijk een manier om te achterhalen welke files als zijnde gewijzigd worden gedetecteerd en dus verstuurd gaan worden bij een incrementele backup ?

Bij mij was HyperBackup gisteren namelijk een paar GB aan data aan het oversturen, terwijl er volgens mij maar een kleine delta was tov de vorige incrementele backup...

Halverwege de backup viel de verbinding dan ook nog eens weg ... Bestaat de kans dat de backup op de andere synology in zo een geval corrupt wordt ?
Ik raad je aan anders even via Hyperbackup een back-integriteit controle uit te voeren !

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Ik vind het een beetje een raar stukje.

This offer technically suits for backup purposes, since it provides storage for the variety of data types. But the yearly price is equal to storing 166 GB for $0,03 per GB of data in US East (Northern Virginia) region of Amazon S3. Will your backup result in such amount of data?

Ik zit nu al op meer dan 750GB, dus ja, makkelijk... En dan is S3 een stuk duurder.

In this article you’ve learned that Amazon Cloud Drive is a perfect place to store photos and synchronize data through different mobile devices. Also now you know that Amazon S3 is designed for backups and has the ability to configure data lifecycle and backup retention policies to pay less for capacity you do not use actively.

S3 is al duurder, en dat ga je niet goedkoper maken met Glacier. Het wordt hoogstens iets minder duurder. Daarnaast, waarom zou ik data lifecycle en backup retention policies nodig hebben op het niveau van S3/Galcier wanneer deze functionaliteit ook al in HyperBackup zit? Ik snap dat je dit wilt gebruiken om de kosten binnen de perken te houden binnen S3 en Glacier en dat het in dat geval handig is als Amazon automatisch jobs verplaatst of verwijderd binnen de verschillende diensten die je afneemt. Maar als je maar 1 dienst afneemt gebruik je het alleen om de totale hoeveelheid data opslag te beperken, en dat werkt ook prima vanuit je backup oplossing.

Dus al met al is Cloud Drive 1) goedkoper vanaf 166GB en 2) retentie en lifecyle is prima te beheren met HyperBackup zelf. Dus als je geen enterprise bent waarbij bepaalde beschikbaarheids garanties en SLA's van belang/noodzaak zijn, wat is dan uberhaupt de toegevoegde waarde van S3/Glacier tov Cloud Drive?

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • wars
  • Registratie: Augustus 2006
  • Laatst online: 04-08 09:56
devastator83 schreef op maandag 05 september 2016 @ 14:50:
Is er eigenlijk een manier om te achterhalen welke files als zijnde gewijzigd worden gedetecteerd en dus verstuurd gaan worden bij een incrementele backup ?

Bij mij was HyperBackup gisteren namelijk een paar GB aan data aan het oversturen, terwijl er volgens mij maar een kleine delta was tov de vorige incrementele backup...

Halverwege de backup viel de verbinding dan ook nog eens weg ... Bestaat de kans dat de backup op de andere synology in zo een geval corrupt wordt ?
dat zou ik ook wel willen weten.
zag ook net dat mijn backup plots 2x zo groot geworden is:
Afbeeldingslocatie: http://i64.tinypic.com/20tkrxh.png
Afbeeldingslocatie: http://i64.tinypic.com/b4g5l0.png

Acties:
  • +1 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Blij om te horen dat ik niet de enige ben met dit probleem.
Zelf denk ik dat ik ga afstappen van HyperBackup. Hij backupt nu namelijk ook de thumbnails (gemaakt door het Synology photo package) en RAW foto's naar mijn ouders, maar mijn backup snelheid is niet bepaald super ... Die files had ik dus liever ge-exclude gezien :-/

Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
afterburn schreef op dinsdag 06 september 2016 @ 10:20:
[...]

Ik vind het een beetje een raar stukje.

This offer technically suits for backup purposes, since it provides storage for the variety of data types. But the yearly price is equal to storing 166 GB for $0,03 per GB of data in US East (Northern Virginia) region of Amazon S3. Will your backup result in such amount of data?

Ik zit nu al op meer dan 750GB, dus ja, makkelijk... En dan is S3 een stuk duurder.

In this article you’ve learned that Amazon Cloud Drive is a perfect place to store photos and synchronize data through different mobile devices. Also now you know that Amazon S3 is designed for backups and has the ability to configure data lifecycle and backup retention policies to pay less for capacity you do not use actively.

S3 is al duurder, en dat ga je niet goedkoper maken met Glacier. Het wordt hoogstens iets minder duurder. Daarnaast, waarom zou ik data lifecycle en backup retention policies nodig hebben op het niveau van S3/Galcier wanneer deze functionaliteit ook al in HyperBackup zit? Ik snap dat je dit wilt gebruiken om de kosten binnen de perken te houden binnen S3 en Glacier en dat het in dat geval handig is als Amazon automatisch jobs verplaatst of verwijderd binnen de verschillende diensten die je afneemt. Maar als je maar 1 dienst afneemt gebruik je het alleen om de totale hoeveelheid data opslag te beperken, en dat werkt ook prima vanuit je backup oplossing.

Dus al met al is Cloud Drive 1) goedkoper vanaf 166GB en 2) retentie en lifecyle is prima te beheren met HyperBackup zelf. Dus als je geen enterprise bent waarbij bepaalde beschikbaarheids garanties en SLA's van belang/noodzaak zijn, wat is dan uberhaupt de toegevoegde waarde van S3/Glacier tov Cloud Drive?
Waarom is het een raar stukje? Niet iedereen gebruikt hyper backup. En de S3 rules zijn flexibeler dan hyper backup. En niet iedereen heeft 166 GB te backuppen. Dus dan is S3 goedkoper en qua hyper backup werkt het identiek.

👉🏻 Blog 👈🏻


  • Griffin
  • Registratie: Maart 2003
  • Laatst online: 10:42

Griffin

Is mythical

Ik heb al een tijdje een NAS draaien voor wat films/series en backups (voornamelijk fotos).
Meestal staan de fotos op de laptop en daarna zet ik ze op de NAS, en 1x in de zoveel tijd een backup naar externe schijf.

maw, niet echt safe.

Dus cloud backup.
Ik heb ongeveer 350GB aan fotos (jpg en raw files) (zijn echter alle fotos, moet nog even onderscheid maken of het allemaal echt nodig is).
Verder nog wat documenten etc maar dat zijn geen grote files.

Nu kom ik een hoop dingen tegen van Amazon Drive ($12 per jaar) tot Glacier ($2 per maand oid). Echter ik zie ook stack voorbij komen en dat is gratis... maar werkt nog niet helemaal met synology.

Nu weet ik dat ik de volledige potentie van my Synology NAS nog niet gebruik en heb geen idee hoe hypervault etc etc werkt.

Maar wat zijn goede punten waar ik naar moet kijken als ik vooral wil focussen op 1x alles overzetten en daarna incremental de changed / added files? Maar het moet wel soepel zonder teveel lastig configs werken.

Edit:
Ik heb ook ' https://www.backblaze.com/blog/synology-cloud-backup-guide/ ' backblaze gevonden welke redelijk competitive is in hun prijzen. Je moet alleen cloud sync gebruiken.
Echter van het weekend heb ik een test op gezet met bijv. een google drive om te kijken hoe alles werkt. Ik zie alleen dat het full copies zijn en niet incremental. Is dit uberhaupt mogelijk, want ik ben aan het zoeken op internet maar ik word er nog niet veel wijzer van (is nogal een big issue qua opslag)

[ Voor 19% gewijzigd door Griffin op 12-09-2016 14:09 ]


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 09:25

Arfman

Drome!

Heeft iemand eigenlijk een overzicht gemaakt van de door Hyper Backup ondersteunde diensten inclusief kostenvergelijking? Ik ben aan het Googlen geslagen en Amazon Drive lijkt een goede optie (60 dollar per jaar) maar ik vraag me af of ik misschien iets mis.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
Ik zit sterk te overwegen een Amazon Cloud abbonement aan te schaffen.

Maar zit eigelijk nog met de volgende zaken, waar ik niet echt een antwoord op kan vinden :
1. Wat is onbeperkt ? (hoeveel TB mag je opslaan ? Is er fair use policy ?
2. Hoe zit het met restoren van data, klopt het dat je hiervoor moet betalen, en een paar GB gratis mag restoren ?
3. Klopt het dat je bestanden groter dan 2GB+ kan/mag uploaden.. ?

Ik hoop dat iemand hier mij wat antwoorden kan geven, dank is groot !

Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
Dank voor je info !
Het ziet er naar uit dat ik toch echt geen Amazon Cloud ga kopen..

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 10:04
Griffin schreef op donderdag 08 september 2016 @ 15:12:
[...]
Maar wat zijn goede punten waar ik naar moet kijken als ik vooral wil focussen op 1x alles overzetten en daarna incremental de changed / added files? Maar het moet wel soepel zonder teveel lastig configs werken.
[...]
Je wilt versioning hebben, anders heb je alleen een kopie van een bestand. Stel dat jij een cryptolocker op je PC of op je NAS krijgt (niet ondenkbaar anno 2016), dan zal een package zoals 'Cloud Sync', of jouw handmatige kopieeractie, het verprutste bestand gewoon overzetten naar je backuplocatie en ben je het bestand dus voorgoed kwijt. Met versioning is dat niet het geval, dan haal je gewoon een versie van een aantal uren/dagen/weken geleden terug.

TransIP Stack is gratis, maar er is nog geen goede mogelijkheid om een Synology er naartoe te backuppen met versioning. De Hyper Backup-package werkt namelijk nog niet goed met TransIP Stack als WebDAV target. Cloud Sync werkt wel, maar dat is eigenlijk gewoon een 'domme' client die alleen 1:1 heen- en weer kan kopiëren.

Ik zou vooral veel lezen hier en kijken wat anderen doen en kijken of je aan de hand daarvan een keuze kunt maken. Voor nu zou je de backup naar je externe schijf kunnen omzetten in een Hyper Backup taak, zodat je versioning hebt. Dat is misschien wat 'eng' omdat je de bestanden op de externe schijf dan niet meer gewoon op een computer kan openen. Gelukkig heeft Synology er wel een tooltje voor om ook zonder Synology NAS die bestanden te kunnen openen: ThinkPadd in "Kan ik een gewone backup maken zonder buckets of zips?" Desnoods houd je je originele schema (1:1 kopie maken van de bestanden) ook nog in stand ernaast, mits je genoeg ruimte op je externe schijf hebt natuurlijk. Al zou een cryptolocker de USB-schijf ook kunnen versleutelen als deze is aangesloten, dus een externe locatie (waar een cryptolocker niet bij kan) is veiliger.

Zoals ik het nu heb, is een Hyper Backup taak (mét versioning) die de data lokaal opslaat. De data die daaruit komt (containerbestanden) pomp ik vervolgens via een 'domme' rsync-taak over naar de Synology die bij m'n ouders staat. Ik zou ook een Hyper Backup taak met versioning kunnen opzetten naar m'n ouders (sinds DSM6 kan dat), maar dat vond ik niet fijn werken, de Synology moet dan een hoop rekenwerk doen en met de latency van een internetverbinding ertussen ging dat gewoon erg traag. Het voordeel nu is dat de backuptaak vrij snel klaar is (het kopiëren gaat met meerdere tientallen MB/s omdat het op dezelfde schijf draait) en ik de initiële sync naar m'n ouders ook met een externe HDD kon doen. Daarna de rsync-taak voor de eerste keer gestart en dat was zo klaar, omdat hij alleen de incrementals hoefde te kopiëren.

Stel dat ik een recovery wil doen van een bestand, dan kan ik dat uit de Hyper Backup-taak terugzetten, wat ook weer vlot gaat omdat de data lokaal staat. Alleen in het ergste geval (huis afgebrand / Synology gestolen / HDD's kapot) dan zou ik de backup bij m'n ouders aan hoeven te spreken. Het nadeel van deze opzet is wel dat een bestand twee keer ruimte inneemt op m'n NAS (het origineel én de backup), maar dat neem ik voor lief, gezien de snelheidswinst. Het gaat maar om een 150-200GB, op 2TB opslagruimte vind ik dat te verwaarlozen.

[ Voor 42% gewijzigd door ThinkPad op 26-09-2016 10:00 ]


Acties:
  • 0 Henk 'm!

  • Griffin
  • Registratie: Maart 2003
  • Laatst online: 10:42

Griffin

Is mythical

Thnx voor de info.

Momenteel heb ik een setup staan bij BackBlaze met CloudSync. In eerste instantie wilde ik alles overzetten naar BackBlaze maar voor nu heb ik er 90GB staan (kost mij nu 1cent per dag). (in de toekomst gaat dit natuurlijk groeien dus als ik alle fotos wil hebben ga ik over een aantal jaar gewoon richting de 500GB).

Maar hoe zit dit nu met versioning? Word dan elke keer dat de backup runt (1x per dag oid) alles weer gestuurd, of word er wel gekeken welke files aangepast worden en alleen daarvan een run gedaan zodat alleen dat over de lijn gaat en alleen die file dus x aantal keer voorkomt?

Want als het altijd alles is dan groeien de versies toch best snel.

Het volgende wat 'gaat spelen' is hoeveel versies en hoe vaak de run doen. Zoals al gezegd gaat het om fotos, echter deze fotos bekijk ik niet elke dag, dus als er een cryptolocker langs komt en hier iets mee doet dan is de kans nog steeds erg groot dat als ik de file wil bekijken dit fout gaat en geen goede versie meer heb omdat ik maar 1 week versies bij hou.

Hoe hebben jullie dit geregeld?

Verder heb ik wel een externe schijf (redelijk oud maar toch 1TB) en hier staan ook backups op, echter mijn NAS staat niet altijd aan (in de nacht doe ik er toch niets mee) en ik voel er weinig voor om ook die externe schijf altijd aan te zetten, toch weer 'slijtage', of is dat te verwaarlozen?.

[ Voor 16% gewijzigd door Griffin op 26-09-2016 11:10 ]


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
Alleen de wijzigingen worden verwerkt.
Het aantal versies dat wordt bewaard kun je instellen. Dat kun je tot maanden etc. instellen maar net wat je wilt. Zie de documentatie van Hyper Backup.
Via een "backup browser" kun je de verschillende versies doorlopen en eventueel selectief bestanden terugzetten.
Ik heb dit onlangs getest en dit werkt best goed.
Je kunt dan nog onsite (bv. usb disk) en offsite backup (bv. amazon) configureren.

Edit:
V.w.b. slijtage.
Ik heb hier een extern disk eraan zitten. Die staat al 5-6 jaar "aan". Powermanagement zorgt er echter voor dat de disk in standby gaat als deze niet wordt gebruikt.

[ Voor 30% gewijzigd door technorabilia op 26-09-2016 11:15 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 10:04
Het is wel aan te raden om het aantal versies die Hyper Backup bijhoudt wat in te perken.

Standaard stelt hij 256 versies voor meen ik, ik heb hem op 31 staan. In de wizard zie je dan gelijk al tot hoe ver je terug kan. Meer versies neemt meer opslagruimte in natuurlijk, met 256 versies wordt het schijfgebruik wel erg gortig waarschijnlijk.

Acties:
  • 0 Henk 'm!

  • Griffin
  • Registratie: Maart 2003
  • Laatst online: 10:42

Griffin

Is mythical

Ok, duidelijk(er).

Ik denk dus de Ex-HDD gebruiken voor versioning backup met Hyper Backup.
En dan nog iets wat die Hyper Backup zipfiles backupt naar de Cloud of een andere DSM (misschien kan ik wat ruimte gebruiken bij een vriend oid).

@Thinkpad:
Jij meld dat je de zipcontainers op een andere DSM zet, maar hoe verwijder je die daar weer? (even er vanuit gaand dat die containers steeds andere namen krijgen)

[ Voor 26% gewijzigd door Griffin op 26-09-2016 11:40 ]


Acties:
  • 0 Henk 'm!

  • FlorisVN
  • Registratie: Januari 2010
  • Laatst online: 10-09 14:57
Wat ik eigelijk nog mis is om via DSM externe usb hardeschijven goed te kunnen monitoren, met bijv. Smart status etc.

Zijn hier trouwens mogelijkheden voor ?

Acties:
  • 0 Henk 'm!

  • Orion84
  • Registratie: April 2002
  • Laatst online: 10:36

Orion84

Admin General Chat / Wonen & Mobiliteit

Fotogenie(k)?

Topicstarter
Orion84 schreef op zondag 04 september 2016 @ 10:20:
Tussen alle discussie over backup methodes door, nu maar eens een recovery ervaring.
[...]
Een kleine update op dit verhaal:
Nadat de recovery uit Glacier compleet was, heb ik uiteraard mijn Glacier backup jobs weer aangezet en dat gaf nog een vervelende verrassing.

Glacier herkent alle files die ik handmatig uit een lokale backup hersteld had (gekopieerd vanaf een externe disk) om de een of andere reden als "veranderd", waardoor hij deze opnieuw ging uploaden naar Glacier.

Ik was even bang dat dit dus ook voor dubbele data storage in Glacier zou leiden, maar dat is gelukkig niet het geval. Ik heb nu een case lopen met Synology om dit te onderzoeken. Mocht daar nog wat interessants uitkomen dan laat ik dat hier weer weten.

Uiteindelijk is het niet heel problematisch, het kost alleen weer een ruime week full speed uploaden om alles naar Amazon te kopiëren (en een paar dollar cent voor die upload requests).

The problem with common sense is that it's not all that common. | LinkedIn | Flickr


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
Griffin schreef op maandag 26 september 2016 @ 11:23:
Ok, duidelijk(er).

Ik denk dus de Ex-HDD gebruiken voor versioning backup met Hyper Backup.
En dan nog iets wat die Hyper Backup zipfiles backupt naar de Cloud of een andere DSM (misschien kan ik wat ruimte gebruiken bij een vriend oid).
Je kunt ook een aparte taak maken naar de cloud en daar ook versioning aanzetten. M.a.w. de taak helemaal apart houden van de lokale backup.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 10:04
Griffin schreef op maandag 26 september 2016 @ 11:23:
Ok, duidelijk(er).

Ik denk dus de Ex-HDD gebruiken voor versioning backup met Hyper Backup.
En dan nog iets wat die Hyper Backup zipfiles backupt naar de Cloud of een andere DSM (misschien kan ik wat ruimte gebruiken bij een vriend oid).

@Thinkpad:
Jij meld dat je de zipcontainers op een andere DSM zet, maar hoe verwijder je die daar weer? (even er vanuit gaand dat die containers steeds andere namen krijgen)
Je zou de backup bestanden die uit die Hyper Backup taak komen ook nog naar Stack kunnen kopieren, aangezien dat toch niks kost is het nooit overbodig :)

Dat verwijderen wordt door die rsync-taak gedaan, die zorgt alleen maar dat locatie B (Synology ouders) altijd gelijk is aan locatie A (mijn Synology).

Acties:
  • 0 Henk 'm!

  • Griffin
  • Registratie: Maart 2003
  • Laatst online: 10:42

Griffin

Is mythical

ThinkPadd schreef op maandag 26 september 2016 @ 12:04:
[...]

Je zou de backup bestanden die uit die Hyper Backup taak komen ook nog naar Stack kunnen kopieren, aangezien dat toch niks kost is het nooit overbodig :)
Ik heb mijzelf aangemeld maar heb nog niets qua toegangmails gehad.
Dat verwijderen wordt door die rsync-taak gedaan, die zorgt alleen maar dat locatie B (Synology ouders) altijd gelijk is aan locatie A (mijn Synology).
Maw, je gooit altijd eerst alles op Locatie B weg en daarna locatie A erheen copieren?

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 10:04
Griffin schreef op maandag 26 september 2016 @ 12:07:
[...]
Maw, je gooit altijd eerst alles op Locatie B weg en daarna locatie A erheen copieren?
Ik heb geen idee, dat gebeurt automatisch. Rsync ziet dat er verschillen zijn (op 'B' mist nog iets of er staat iets wat op 'A' niet meer aanwezig is) en onderneemt actie. Hoe dat verder werkt weet ik niet, ik heb alleen ingesteld: "A moet naar B".

Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
ThinkPadd schreef op maandag 26 september 2016 @ 12:04:
[...]

Je zou de backup bestanden die uit die Hyper Backup taak komen ook nog naar Stack kunnen kopieren, aangezien dat toch niks kost is het nooit overbodig :)
Dat lukt ook? Aangezien Stack bepaalde bestanden niet ondersteund. Risico is dat je een set hebt die er goed uitziet op het eerste gezicht maar niet werkt in hyper backup. Vandaar zou ik alle taken apart houden om geen risico te nemen met de backup.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 10:04
Geen idee, nooit geprobeerd eigenlijk. Je zou het ook kunnen zippen en dan uploaden, maar ben het met je eens dat je dan een (te) complexe situatie krijgt en extra werk er van hebt.

[ Voor 7% gewijzigd door ThinkPad op 26-09-2016 12:48 ]


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 09:25

Arfman

Drome!

Ik zou Stack, door dat soort zaken, dan ook absoluut niet gebruiken als primaire backuplocatie.

Ik heb ondertussen een Amazon Drive proefabonnement (3 maanden) afgesloten. 60 dollar per jaar, daar ga ik niet moeilijk voor doen. Werkt meteen als je het als destination inzet in Hyper Backup en een paar bestandjes als test gerestored, gaat ook prima.

Misschien dat Stack over 3 maand wel betrouwbaar werkt als Hyper Backup destination, dan is 60 dollar natuurlijk snel verdiend. Voorlopig laat ik het echter zo.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • Isniedood
  • Registratie: November 2008
  • Laatst online: 09-09 16:37

Isniedood

nee, echt niet!

kraades schreef op maandag 26 september 2016 @ 12:31:
[...]


Dat lukt ook? Aangezien Stack bepaalde bestanden niet ondersteund. Risico is dat je een set hebt die er goed uitziet op het eerste gezicht maar niet werkt in hyper backup. Vandaar zou ik alle taken apart houden om geen risico te nemen met de backup.
Is dat enkel via hyper backup een probleem?

Mijn foto's met mijn lieve Pentax K200d


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
Stack ondersteunt een aantal files formats niet die Hyper Backup nodig heeft. Daar staat e.e.a. over gemeld eerder in dit topic. Zoek naar "sparse".

Daarom kun je Hyper Backup niet als webdav backup locatie in Hyper Backup toevoegen. Nou ja, dat kan wel maar het werkt niet.

Hierboven wordt iets anders bedoeld nl. het syncen van een Hyper Backup backup naar Stack. Mogelijk dat dit om dezelfde reden niet zal werken.

[ Voor 5% gewijzigd door technorabilia op 26-09-2016 14:55 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • H143
  • Registratie: Juli 2006
  • Laatst online: 11-09 21:14
Werkt hyper backup ook met dsm 5.2?

Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 07:42
alexswart schreef op maandag 26 september 2016 @ 15:07:
Werkt hyper backup ook met dsm 5.2?
Volgens mij niet. Hyper Backup is de volgende generatie (versioning, public cloud, ...) van Backup & Restore welke in DSM 5 werd gebruikt.

👉🏻 Blog 👈🏻

Pagina: 1 ... 8 ... 20 Laatste