kopieren verschillende groottes files: waarom ene sneller?

Pagina: 1
Acties:

  • PrinsEdje80
  • Registratie: Oktober 2001
  • Laatst online: 01-01 15:26

PrinsEdje80

Holographic, not grated...

Topicstarter
Dit is puur nieuwsgierigheid: waarom duurt (ik werk onder linux op een 100 Mbit netwerk) het kopieren van een directory met duizenden kleine bestandjes van in totaal 700 MB) vele minuten (~10) en een directory met slechts tientallen grote bestanden van enkele MB's slechts een aantal (~2) minuten?

Used to be Down Under... Foto gallery


Verwijderd

Omdat het openen van de bestanden tijd kost en dus kortere read/write acties. Meer bestanden is dus langer kopieren.

[ Voor 17% gewijzigd door Verwijderd op 06-02-2003 16:39 ]


  • PrinsEdje80
  • Registratie: Oktober 2001
  • Laatst online: 01-01 15:26

PrinsEdje80

Holographic, not grated...

Topicstarter
Wat is de oorzaak dat een bestand openen veel meer tijd kost dan schrijven/lezen?

Used to be Down Under... Foto gallery


  • BalusC
  • Registratie: Oktober 2000
  • Niet online

BalusC

Carpe diem

(jarig!)
Het opzoeken van de locaties van de bestanden kost tijd en natuurlijk ook het schrijven van de nieuwe bestandsindex :)

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 16:42
Ik denk dat de overhead over het netwerk van het initieren van een kopieeraktie de bottleneck is. De drive is nml. waarschijnlijk wel snel genoeg om het aan te leveren, maar het opstarten van een kopieer-actie met het controleren van lees- en schrijfrechten, aanmaken van copybuffer, etc. etc, moet bij iedere file opnieuw gebeuren. Bij een 100MB file hoeft die hele machinerie maar 1x op te starten en daarna is het gaan met de banaan. Probeer onder linux eens een tar pipe zonder compressie via een netwerk te maken, kijken of dat sneller gaat :)