Zit met het volgende probleem,
Ik heb in mijn desktop pc enkele 2TB schijven met data (geen raid o.i.d).
Van deze hdd's maak ik regelmatig een backup door met syncback de volledige hdd te backuppen naar de kopie hdd.
Het probleem is dat ik de bestanden op de bron hdd nog wel eens wil organiseren, waarbij een foldernaam verandert of de bestanden verplaatst worden. De bestanden zelf veranderen eigenlijk amper.
Maar als er dus maar 1 letter wijzigt in een foldernaam waar bijv 20GB in zit gaat syncback de complete 20GB opnieuw backuppen naar de kopie hdd terwijl de bestanden al wel op de kopie hdd staan.
Hierdoor duurt het backuppen vaak onnodig lang + onnodige belasting van de hdd.
Nu is mijn vraag of iemand een backop oplossing weet die hier iets intelligenter mee omgaat, zou een block-level oplossing sneller werken? Die gewoon kijkt naar de inhoud per block en als deze gelijk is deze overslaat, omdat de bestanden niet wijzigen is dat misschien de betere optie?
Mij lijkt het ideaal als een programma bijvoorbeeld van bron en doel hdd alle filehashes berekend en als een hash op beide voorkomt wordt deze niet opnieuw gekopieerd, maar zoiets bestaat niet dat weet ik redelijk zeker. (tenzij ik een dc++ server + client ga opzetten
)
Ik heb in mijn desktop pc enkele 2TB schijven met data (geen raid o.i.d).
Van deze hdd's maak ik regelmatig een backup door met syncback de volledige hdd te backuppen naar de kopie hdd.
Het probleem is dat ik de bestanden op de bron hdd nog wel eens wil organiseren, waarbij een foldernaam verandert of de bestanden verplaatst worden. De bestanden zelf veranderen eigenlijk amper.
Maar als er dus maar 1 letter wijzigt in een foldernaam waar bijv 20GB in zit gaat syncback de complete 20GB opnieuw backuppen naar de kopie hdd terwijl de bestanden al wel op de kopie hdd staan.
Hierdoor duurt het backuppen vaak onnodig lang + onnodige belasting van de hdd.
Nu is mijn vraag of iemand een backop oplossing weet die hier iets intelligenter mee omgaat, zou een block-level oplossing sneller werken? Die gewoon kijkt naar de inhoud per block en als deze gelijk is deze overslaat, omdat de bestanden niet wijzigen is dat misschien de betere optie?
Mij lijkt het ideaal als een programma bijvoorbeeld van bron en doel hdd alle filehashes berekend en als een hash op beide voorkomt wordt deze niet opnieuw gekopieerd, maar zoiets bestaat niet dat weet ik redelijk zeker. (tenzij ik een dc++ server + client ga opzetten