Bij het analyseren van een performance probleem in mijn applicatie heb ik tijden (in seconden) gelogd van diverse verwerkingen.
Een van de taken logt over 1000x werk: AVG=2.39 ; STDDEV=1.12
Met de kennis van normaal verdelingen (95% binnen 2 stand.afwijkingen) weet ik dus vanaf hoeveel seconden ik die 2.5% kan loggen die dus erg lang duurt. (2.29 + 2*1.12)
Een andere taak logt (over 1000x werk): AVG=0.27 ; STDDEV=0.47
Ai, de standaard afwijking is hier groter dan het gemiddelde. Hier spelen dus erg interessante dingen af.
Maar hoe bepaal ik nu vanaf welke tijd ik extra wil gaan loggen om te kijken waarom die taak zo lang bezig is? Ik wil immers ook weer niet te veel loggen...
Een van de taken logt over 1000x werk: AVG=2.39 ; STDDEV=1.12
Met de kennis van normaal verdelingen (95% binnen 2 stand.afwijkingen) weet ik dus vanaf hoeveel seconden ik die 2.5% kan loggen die dus erg lang duurt. (2.29 + 2*1.12)
Een andere taak logt (over 1000x werk): AVG=0.27 ; STDDEV=0.47
Ai, de standaard afwijking is hier groter dan het gemiddelde. Hier spelen dus erg interessante dingen af.
Maar hoe bepaal ik nu vanaf welke tijd ik extra wil gaan loggen om te kijken waarom die taak zo lang bezig is? Ik wil immers ook weer niet te veel loggen...
"Sir! The people! They can't help falling in love with you!" - Civ2 Luxury Advisor