[TAR] Bestanden groter dan x excluden

Pagina: 1
Acties:

  • Kaastosti
  • Registratie: Juni 2000
  • Laatst online: 12-02 07:34

Kaastosti

Vrolijkheid alom!

Topicstarter
Het lijkt zo simpel, maar ik kan er maar geen makkelijke oplossing voor vinden. Ik moet van een heleboel directories een backup maken. Daarvoor wilde ik gewoon tar gebruiken, aangezien dat altijd installed is en verder altijd netjes dienst heeft gedaan.

Nu hebben een aantal grapjassen er ook grotere bestanden tussen staan. Aangezien het om websites gaan, ga ik er van uit dat bestanden groter dan 1Mb niet crusiaal zijn voor de site. Dan gaan we er maar van uit dat het MP3's, cracks, programma's, filmpjes etc. zijn. Dan hebben ze mooi pech, want door dat soort gein wordt m'n backup enorm.

Kortom die wilde ik er graag uit laten. In de manual van tar vindt ik alleen de mogelijkheid om bestanden op naam te excluden... is er ook een switch / truukje om die backup te maken en tijdens het opbouwen van de archive bestanden groter dan 1Mb over te slaan?

Een vergissing is menselijk, maar om er echt een puinhoop van te maken heb je een computer nodig.


  • JeRa
  • Registratie: Juni 2003
  • Laatst online: 30-04-2025
Ik geloof dat je met 'find' kunt selecteren op bestandsgrootte, en de lijst van bestanden die je overhoudt daarna kunt doorgeven aan tar/gzip/bzip2 :) voor de specifieke handelingen: manpages.

  • Kaastosti
  • Registratie: Juni 2000
  • Laatst online: 12-02 07:34

Kaastosti

Vrolijkheid alom!

Topicstarter
Okee dus een omweg eigenlijk. Het kan niet direct binnen tar, maar een lijst genereren en daarna importeren in tar zou de oplossing moeten zijn.
* Kaastosti gaat het proberen

Een vergissing is menselijk, maar om er echt een puinhoop van te maken heb je een computer nodig.


  • Wilke
  • Registratie: December 2000
  • Laatst online: 10:39
Dat is niet direct een omweg maar gewoon hoe die dingen bedoeld zijn in UNIX. Elk tooltje doet waar het goed in is: tar in archiveren, find in het selecteren van bestanden gebaseerd op de meest waanzinnige criteria die je maar zou kunnen bedenken.

Dat is ook de reden dat tar zelf geen eens compressie ingebouwd heeft - daarom kun je ook zo makkelijk switchen als er een beter algorithme is (zie: gzip/bzip). Goed, tar heeft tegenwoordig dan wel weer flags er voor ingebouwd, wat eigenlijk dat idee een beetje doorbreekt (maar ok, gemak dient de mens etc.)

Overigens met betrekking tot het idee: snap ik helemaal, maar pas wel op dat foto's, PDF's met een paar plaatjes en dat soort dingen tegenwoordig ook al snel 1 MB zijn, en dat die dingen wellicht best cruciaal kunnen zijn voor sommige sites ;)

  • Kaastosti
  • Registratie: Juni 2000
  • Laatst online: 12-02 07:34

Kaastosti

Vrolijkheid alom!

Topicstarter
Daar heb je dan ook wel weer gelijk in.... het is wel een manier van denken die je door moet krijgen. Dat programma 'find' had ik dus ook nog nooit van gehoord (ja, linux beginner), maar zonder dat was dit ook nooit gelukt. Je moet dus wel je programma's kennen :)

Misschien dat het excluden van bestanden op grootte ook niet _de_ manier is.. maar ja, je kunt toch moeilijk films van 700Mb mee gaan backuppen, en controleren of iets belangrijk is voor een site gaat nu eenmaal niet automatisch. Het excluden van bestanden omdat ze 'te groot' zijn is niet perfect, maar op het moment werkt het best :)

Een vergissing is menselijk, maar om er echt een puinhoop van te maken heb je een computer nodig.