Hallo, ik moet op een aantal files van +- 10Gig een preprocessing stap uitvoeren. Het probleem is echter dat ik uiteraard deze files niet in 1 keer mijn geheugen kan laden, en 32 bits niet genoeg is voor de allocatie. Ik heb het opgelost door het in stukjes hakken van de binaire data.
Maar ik wil het graag in 1 stap kunnen doen. Ik kan echter geen goede documentatie vinden om files van deze omvang te lezen, te processen en weer weg te schrijven in c++. Maar ik ben er zeker van dat het bestaat
Iemand?
Maar ik wil het graag in 1 stap kunnen doen. Ik kan echter geen goede documentatie vinden om files van deze omvang te lezen, te processen en weer weg te schrijven in c++. Maar ik ben er zeker van dat het bestaat
Iemand?
[ Voor 5% gewijzigd door jaapstobbe op 02-01-2007 16:18 ]