Hallo Tweakers,
Hele mooie inleiding
Nu de hoeveelheid waardevolle data echt de pan uit begint te rijzen wil ik deze graag op een externe locatie back-uppen. Eerst dacht ik eraan om ergens anders een tweede NAS met schijven te plaatsen maar dat is erg duur en risicovol alsnog.
Op moment maak ik gebruik van Synology Cloud Sync en 5x 1TB OneDrive waar de directories over verdeeld zijn. En ja, wat zal ik ervan zeggen.? Het is niet een fancy manier. Daarom wil ik het goed aan gaan pakken.
Nu heb ik een account aangemaakt bij AWS en is mijn oog gevallen op AWS S3 Glacier Deep Archive waarbij je voor maar $0,00099/GB/maand a.k.a $0,99/TB/maand data kan archiveren. Met als enige kanttekening dat de data minimaal 180 dagen moet blijven staan en het offline halen van data kost je $0.02/GB a.k.a. $20/TB.
Probleem
Het probleem is, is dat je niet direct vanuit Synology DSM aan uploadtaak kan aanmaken naar Amazon Glacier Deep Archive om een of andere reden. (Waarschijnlijk omdat niemand dan meer Synology's eigen C2 zal gaan gebruiken.)
Nu heb ik het al geprobeerd om via het pakket Glacier data up te loaden, maar dat is geen succes omdat je de data niet van Glacier naar Glacier Deep Archive kan migreren voor zo ver ik weet.
Een ander idee was om de data te uploaden met Hyper Back-up, eerst naar de normale S3 te laten schrijven en met een lifecycle rule het na 24 automatisch over te laten zetten naar de class genaamd Glacier Deep Archive, helaas werkt dit niet.
Vraag
Kan ik mijn data direct (of desnoods via Glacier) naar AWS S3 Glacier Deep Archive uploaden om een externe back-up te hebben tegen een betaalbare prijs.
Hele mooie inleiding
Nu de hoeveelheid waardevolle data echt de pan uit begint te rijzen wil ik deze graag op een externe locatie back-uppen. Eerst dacht ik eraan om ergens anders een tweede NAS met schijven te plaatsen maar dat is erg duur en risicovol alsnog.
Op moment maak ik gebruik van Synology Cloud Sync en 5x 1TB OneDrive waar de directories over verdeeld zijn. En ja, wat zal ik ervan zeggen.? Het is niet een fancy manier. Daarom wil ik het goed aan gaan pakken.
Nu heb ik een account aangemaakt bij AWS en is mijn oog gevallen op AWS S3 Glacier Deep Archive waarbij je voor maar $0,00099/GB/maand a.k.a $0,99/TB/maand data kan archiveren. Met als enige kanttekening dat de data minimaal 180 dagen moet blijven staan en het offline halen van data kost je $0.02/GB a.k.a. $20/TB.
Probleem
Het probleem is, is dat je niet direct vanuit Synology DSM aan uploadtaak kan aanmaken naar Amazon Glacier Deep Archive om een of andere reden. (Waarschijnlijk omdat niemand dan meer Synology's eigen C2 zal gaan gebruiken.)
Nu heb ik het al geprobeerd om via het pakket Glacier data up te loaden, maar dat is geen succes omdat je de data niet van Glacier naar Glacier Deep Archive kan migreren voor zo ver ik weet.
Een ander idee was om de data te uploaden met Hyper Back-up, eerst naar de normale S3 te laten schrijven en met een lifecycle rule het na 24 automatisch over te laten zetten naar de class genaamd Glacier Deep Archive, helaas werkt dit niet.
Vraag
Kan ik mijn data direct (of desnoods via Glacier) naar AWS S3 Glacier Deep Archive uploaden om een externe back-up te hebben tegen een betaalbare prijs.