Uitgaande van de samenvatting slaat dat hele onderzoek nergens op.
Uit de analyse bleek dat de opensourcebroncode gemiddeld 0,45 fouten per duizend regels bevatte, terwijl bij propriëtaire code 0,64 fouten per duizend regels werden aangetroffen. [..] beide categorieën [scoren] onder de 1.0, het gemiddelde aantal gemaakte fouten in software.
Hoe kan dat nu in godsnaam? Welke categoriën software zijn er nog meer behalve open source en propriëtair? Publiek domein? Het lijkt me sterk dat dat meer dan 5% van de software is en dan is het me een raadsel hoe die het gemiddelde van ~0.6 naar 1.0 kan optrekken.
Of hebben ze toevallig een bijzonder slechte steekproef genomen? In dat geval: wat zeggen die resultaten dan?
Linux 2.6, PHP 5.3 en PostgreSQL 9.1, met een respectievelijke foutdichtheid van 0,62, 0,2 en 0,21.
Van deze drie is de PHP code base (!!!) de beste, en heeft de Linux kernel drie keer zo veel fouten als de andere twee? Ik geloof er geen reet van. Die lui kunnen niet tellen.
Waarschijnlijk hebben ze gewoon hun statistische-analysis-tool over de hele codebase gerunt in plaats van echte fouten te identificeren (wat sowieso niet haalbaar is, want als het zo makkelijk was om fouten te vinden zouden de developers die allang gevonden en opgelost hebben, natuurlijk.
[
Voor 12% gewijzigd door
Soultaker op 24-02-2012 20:50
]