Hoi,
Momenteel heb ik een testversie van mijn site draaien en tests laten zien dat deze niet meer dan 10 requests per seconde kan afhandelen. Kun je er een php accelerator tegenaan gooien maar bij 15 houdt het dan op.
Hier komt squid in beeld. Dat werkt als een tierelier. Of het klopt of niet, daar ben ik nog niet helemaal uit, maar volgens apachebench kan de machine door caching opeens 600 hits per seconden verwerken.
Toch doe ik iets niet goed. Mijn site bestaat in feite uit 1 enkel bestand: index.php. Door middel van GET requests, zoals index.php?contentwaarde=3 wordt data ingeladen. Cachen van pagina's is daardoor lastig: squid ziet alleen index.php? als bestand en iedere pagina ziet er dus zo uit wat allemaal misses oplevert.
Vraag: hoe zorg ik er voor dat squid iedere pagina als uniek herkent? Kan ik squid de Get request laten herkennen met een handig trucje of moet ik met mod_rewrite aan de slag om van die "nette" urls te maken (zoals GOT heeft)?
Momenteel heb ik een testversie van mijn site draaien en tests laten zien dat deze niet meer dan 10 requests per seconde kan afhandelen. Kun je er een php accelerator tegenaan gooien maar bij 15 houdt het dan op.
Hier komt squid in beeld. Dat werkt als een tierelier. Of het klopt of niet, daar ben ik nog niet helemaal uit, maar volgens apachebench kan de machine door caching opeens 600 hits per seconden verwerken.
Toch doe ik iets niet goed. Mijn site bestaat in feite uit 1 enkel bestand: index.php. Door middel van GET requests, zoals index.php?contentwaarde=3 wordt data ingeladen. Cachen van pagina's is daardoor lastig: squid ziet alleen index.php? als bestand en iedere pagina ziet er dus zo uit wat allemaal misses oplevert.
Vraag: hoe zorg ik er voor dat squid iedere pagina als uniek herkent? Kan ik squid de Get request laten herkennen met een handig trucje of moet ik met mod_rewrite aan de slag om van die "nette" urls te maken (zoals GOT heeft)?