Ik beheer een webapplicatie die niet druk wordt gebruikt ( max. 1000 hits per uur). Omdat de performance nogal slecht is ben ik begonnen met het verzamelen van gegevens. Het blijkt echter dat onder bepaalde omstandigheden de gebruikers last hebben van het verzamelen van die gegevens. Ik heb daarom het verzamelen van die gegevens stop gezet. Ik wil daar wel weer mee verder gaan, omdat ik graag wil zien wat het effect is van toekomstige optimalisaties.
Het gaat om een PHP applicatie. Voor elk request leg ik een aantal gegevens vast:
- Datum/tijd
- Request ($_REQUEST geserialiseerd) (onnodig?)
- Queries (array met uitgevoerde queries, geserialiseerd) (onnodig?)
- aantal uitgevoerde queries
- run time van het request (dus de tijd die PHP nodig heeft om het request te verwerken)
- database tijd (optelsom van de tijd die elke query nodig heeft)
- maximale geheugenconsumptie
Deze gegevens worden weggeschreven naar een logtabel in de database. Maar echt handig blijkt dat niet te zijn. Dus nu ben ik op zoek naar andere methoden.
Ik vroeg mij af hoe anderen omgaan met dit soort informatie:
Het gaat om een PHP applicatie. Voor elk request leg ik een aantal gegevens vast:
- Datum/tijd
- Request ($_REQUEST geserialiseerd) (onnodig?)
- Queries (array met uitgevoerde queries, geserialiseerd) (onnodig?)
- aantal uitgevoerde queries
- run time van het request (dus de tijd die PHP nodig heeft om het request te verwerken)
- database tijd (optelsom van de tijd die elke query nodig heeft)
- maximale geheugenconsumptie
Deze gegevens worden weggeschreven naar een logtabel in de database. Maar echt handig blijkt dat niet te zijn. Dus nu ben ik op zoek naar andere methoden.
Ik vroeg mij af hoe anderen omgaan met dit soort informatie:
- Meet je überhaupt iets?
- Meet je elk request of een sample (bv 10% ofzo)
- Welke gegevens precies?
- Hoe leg je ze vast?