Ik heb op mijn welserver bij de php een max ingesteld van 128M geheugen. echter ben ik nu bezig met het creeren van een xml export die een enorm xml file creeert. vervolgens moet deze gevalideerd worden tegen een DTD.
om dat te doen maak ik gebruik van DOMDocuments. het probleem daarbij is dat die domdocuments helemaal in het geheugen staat. de XML gaat nu naar verwachting ongeveer 500 tot 750MB worden dus het maximale geheugen iets uitbreiden is ook geen optie (de xml zal binnenkort ook nog veel groter worden dan dat)
nu is mijn vraag wat ik hier aan kan doen? we hebben opzich al overwogen om het op te splitsen in meerdere files, maar willen toch ook nog even proberen of er nog andere manieren zijn.
ook hebben we overwogen om het via een soort template systeem te doen en terwijl het nog samengesteld gaat wordt al te outputten in een file. maar om het te valideren zal hij toch weer ingeladen moeten worden. daarnaast ben ik ook niet zo'n fan van dat soort template constructies om xml te bakken.
om dat te doen maak ik gebruik van DOMDocuments. het probleem daarbij is dat die domdocuments helemaal in het geheugen staat. de XML gaat nu naar verwachting ongeveer 500 tot 750MB worden dus het maximale geheugen iets uitbreiden is ook geen optie (de xml zal binnenkort ook nog veel groter worden dan dat)
nu is mijn vraag wat ik hier aan kan doen? we hebben opzich al overwogen om het op te splitsen in meerdere files, maar willen toch ook nog even proberen of er nog andere manieren zijn.
ook hebben we overwogen om het via een soort template systeem te doen en terwijl het nog samengesteld gaat wordt al te outputten in een file. maar om het te valideren zal hij toch weer ingeladen moeten worden. daarnaast ben ik ook niet zo'n fan van dat soort template constructies om xml te bakken.