Al was het bestand dat je uiteindelijk wilt hebben 20TB, het blijven losse flarden. Usenet is gebouwd voor text berichten. Niet voor attachments. Met wat encoding trucs is het gebruik van attachments inmiddels heel populair geworden, maar de oplossing is zeker niet perfect.
Het gevolg is dat het bestand dat jij wilt dow
nloaden wordt opgesplitst in behoorlijk wat kleine stukjes. Die worden dan vervolgens stuk voor stuk op usenet geplaatst.
Dus, wat jij eige
nlijk doet is:
1. Vraag bericht met ID aaa001 op
2. Dow
nload bericht met ID aaa001
3. Vraag bericht met ID aaa002 op
4. Dow
nload bericht met ID aaa002
..........
101. Vraag bericht met ID aaa051 op
102. Dow
nload bericht met ID aaa051
Dit in tegenstelling tot een HTTP dow
nload:
1. GET /file.rar HTTP/1.1
2. Dow
nload de volledige 20GB aan een stuk door
3. klaar.
Het verschil is duidelijk mag ik hopen. Het dow
nloaden via het HTTP protocol zal (all things being equal) ten aller tijden sneller gaan dan via Usenet. Dat jij een groot verschil ziet tussen HTTP en Usenet kan, zoals al vaker is verteld, verklaard worden door een oude router. Maar kan ook zijn omdat je usenet server traag is in het fetchen van het bericht (slechte cache enz), kan zijn dat jouw client direct gaat uitpakken waardoor het dow
nloaden (wat ook op de HDD moet gebeuren natuurlijk) trager gaat, enz enz enz