Op een server heb ik de beschikking over een tekst bestand/feed welke allemaal urls bevat naar bestanden op een andere server. Nu moet ik de bestanden allemaal downloaden naar de server toe op dagelijkse basis en al bestaande bestanden moeten overgeslagen worden. Nu kan ik zoiets met php maken en dan via een cronjob. Echter weet ik dan niet of de max_execution_time overschreden wordt. Het gaat namelijk over zo'n 4000 a 5000 bestanden a 150mb per stuk. Daarnaast moet je dan in php met file_get_contents de bestanden in een string lezen, wat ook niet echt fijn is volgens mij, omdat hij dan eerst 150mb in een string zet en dan pas opslaat.
Ik ben dus eigenlijk op zoek naar iets wat dit kan vervangen. Daarnaast heb ik geen toegang tot de server waar de bestanden op staan, omdat deze van een partner is welke geen toegang gaat verlenen. Ik moet de bestanden echt over http:// downloaden. Weet iemand hier misschien een oplossing voor? Bijvoorbeeld een soort van shell script wat alles ook makkelijk aan kan.
Ik ben dus eigenlijk op zoek naar iets wat dit kan vervangen. Daarnaast heb ik geen toegang tot de server waar de bestanden op staan, omdat deze van een partner is welke geen toegang gaat verlenen. Ik moet de bestanden echt over http:// downloaden. Weet iemand hier misschien een oplossing voor? Bijvoorbeeld een soort van shell script wat alles ook makkelijk aan kan.