Geachte redactie,
Vandaag heb ik jullie OS X vs Windows 7 artikel gelezen. Hierin vielen mij een aantal dingen op waarvan ik denk dat ze voor verbetering vatbaar zijn. Alvorens ik mijn standpunten echter opsom en beargumenteer wil ik graag benadrukken dat dit stuk als constructieve kritiek is bedoeld.
Het benchmarken van veel Adobe-software en dat real-world benchmarks noemen.
Wanneer het woord real-world benchmarks gebruikt wordt dan beweert men als schrijver (naar mijn mening) dat men resultaten geeft van tests waarin situaties die bij de "gemiddelde gebruiker" vaak voorkomen getest worden.
Nu kan het zo zijn dat mijn definitie afwijkt van dat van u. Ik weet niet of mijn definitie de "officiële-definitie" van dat woord is (als die er al is). Indien u onder die term verstaat: "Tests die met software gedaan worden die niet specifiek voor dat doel geschreven is." Dan motiveer ik u om daar even bij stil te staan. Het compileren van een kernel bijvoorbeeld is iets wat zich uitstekend leent voor een synthetische test. Maar is het zo dat omdat er geen test-suite omheen gemaakt is dit plotseling geen synthetische test meer is? En zo ja, is dat dan geen redelijk betekenisloos onderscheid voor mij als lezer? Of dat een test-scenario op alle machines nu geautomatiseerd gebeurt is of niet, het blijven dezelfde tests voor mij.
Tests als "het exporteren vanuit lightroom" zou ik daarom geen real-world benchmarks willen noemen. Het is niet iets wat de gemiddelde gebruiker vaak doet en het is niet eens een programma wat de gemiddelde gebruiker vaak gebruikt.
En dan nog het feit dat u zoveel Adobe programma's gebruikt. Waarom? Vraag ik u. Wanneer u veel programma van een leverancier gebruikt is het niet onwaarschijnlijk dat deze programma's door dezelfde mensen geschreven zijn. Deze programma's zullen bovendien allemaal ongeveer aan dezelfde kwaliteitsstandaard moeten voldoen en daarom dus nog waarschijnlijker eenduidige resultaten leveren.
Bovendien moet u er rekening mee houden dat programma's zoals Photoshop niet uitwisselbare programma's zijn. Een bug in de in de code voor de ene versie hoeft niet perse in de code van andere versie te zitten. Mocht er in de software suite van Adobe een bug zitten die meerdere programma's binnen die suite aantast dan zou het merendeel van uw tests een vertekend beeld geven.
Is het daarom niet veel slimmer om een diverse set applicaties te pakken die mensen vaker gebruiken? En is het daarom niet slimmer om te kijken hoe snel bijvoorbeeld programma's openen of wat de reactie tijd van programma's zijn? Dat zouden veel reëlere real world benchmark resultaten opleveren in mijn optiek.
Het booten van de twee OS'en
Mijn eerste en kleinste kritiek punt: laat aub de handen zien. Het niet zien van het drukken op de startknop garandeert mij als kijker op geen enkele manier dat deze PC's even snel zijn begonnen. Ja ik weet dat u makkelijk genoeg met een beetje handig knip en plak werk het dan als nog zou kunnen vervalsen, mocht u dat willen. Maar het zien van de handen geeft als kijker een soort van "dit is echt gevoel".
Mijn tweede en grootste kritiekpunt is dat u niet visueel bewijst wanneer de het OS ook daadwerkelijk echt bruikbaar is voor de gebruiker. Het is makkelijk genoeg om een OS heel snel te laten opstarten, maar als de gebruiker dan alsnog 2 minuten moet wachten totdat zijn draadloos netwerk er is, of 2 minuten moet wachten omdat er nog system-services gestart moeten worden dan is het opgestarte OS vrij nutteloos en zou het niet als opgestart gerekend moeten worden. Voeg aub het opstarten en bezoeken van tweakers.net toe aan aan uw opstartprocedure. Het is dan gelijk helder welk besturingssysteem daadwerkelijk opgestart is en welke nog niet.
Ik hoop dat ik u zo waardevolle feedback gegeven heb. Zoals al gemeld, dit zijn mijn meningen en dingen die ik zou verbeteren. Als u denkt dat ik het mis heb dan respecteer ik dit uiteraard. Ik ben hier tenslotte niet de redacteur van een goed lopende tech-news-site.
Met vriendelijke groet,
Maurits Buijs
Vandaag heb ik jullie OS X vs Windows 7 artikel gelezen. Hierin vielen mij een aantal dingen op waarvan ik denk dat ze voor verbetering vatbaar zijn. Alvorens ik mijn standpunten echter opsom en beargumenteer wil ik graag benadrukken dat dit stuk als constructieve kritiek is bedoeld.
Het benchmarken van veel Adobe-software en dat real-world benchmarks noemen.
Wanneer het woord real-world benchmarks gebruikt wordt dan beweert men als schrijver (naar mijn mening) dat men resultaten geeft van tests waarin situaties die bij de "gemiddelde gebruiker" vaak voorkomen getest worden.
Nu kan het zo zijn dat mijn definitie afwijkt van dat van u. Ik weet niet of mijn definitie de "officiële-definitie" van dat woord is (als die er al is). Indien u onder die term verstaat: "Tests die met software gedaan worden die niet specifiek voor dat doel geschreven is." Dan motiveer ik u om daar even bij stil te staan. Het compileren van een kernel bijvoorbeeld is iets wat zich uitstekend leent voor een synthetische test. Maar is het zo dat omdat er geen test-suite omheen gemaakt is dit plotseling geen synthetische test meer is? En zo ja, is dat dan geen redelijk betekenisloos onderscheid voor mij als lezer? Of dat een test-scenario op alle machines nu geautomatiseerd gebeurt is of niet, het blijven dezelfde tests voor mij.
Tests als "het exporteren vanuit lightroom" zou ik daarom geen real-world benchmarks willen noemen. Het is niet iets wat de gemiddelde gebruiker vaak doet en het is niet eens een programma wat de gemiddelde gebruiker vaak gebruikt.
En dan nog het feit dat u zoveel Adobe programma's gebruikt. Waarom? Vraag ik u. Wanneer u veel programma van een leverancier gebruikt is het niet onwaarschijnlijk dat deze programma's door dezelfde mensen geschreven zijn. Deze programma's zullen bovendien allemaal ongeveer aan dezelfde kwaliteitsstandaard moeten voldoen en daarom dus nog waarschijnlijker eenduidige resultaten leveren.
Bovendien moet u er rekening mee houden dat programma's zoals Photoshop niet uitwisselbare programma's zijn. Een bug in de in de code voor de ene versie hoeft niet perse in de code van andere versie te zitten. Mocht er in de software suite van Adobe een bug zitten die meerdere programma's binnen die suite aantast dan zou het merendeel van uw tests een vertekend beeld geven.
Is het daarom niet veel slimmer om een diverse set applicaties te pakken die mensen vaker gebruiken? En is het daarom niet slimmer om te kijken hoe snel bijvoorbeeld programma's openen of wat de reactie tijd van programma's zijn? Dat zouden veel reëlere real world benchmark resultaten opleveren in mijn optiek.
Het booten van de twee OS'en
Mijn eerste en kleinste kritiek punt: laat aub de handen zien. Het niet zien van het drukken op de startknop garandeert mij als kijker op geen enkele manier dat deze PC's even snel zijn begonnen. Ja ik weet dat u makkelijk genoeg met een beetje handig knip en plak werk het dan als nog zou kunnen vervalsen, mocht u dat willen. Maar het zien van de handen geeft als kijker een soort van "dit is echt gevoel".
Mijn tweede en grootste kritiekpunt is dat u niet visueel bewijst wanneer de het OS ook daadwerkelijk echt bruikbaar is voor de gebruiker. Het is makkelijk genoeg om een OS heel snel te laten opstarten, maar als de gebruiker dan alsnog 2 minuten moet wachten totdat zijn draadloos netwerk er is, of 2 minuten moet wachten omdat er nog system-services gestart moeten worden dan is het opgestarte OS vrij nutteloos en zou het niet als opgestart gerekend moeten worden. Voeg aub het opstarten en bezoeken van tweakers.net toe aan aan uw opstartprocedure. Het is dan gelijk helder welk besturingssysteem daadwerkelijk opgestart is en welke nog niet.
Ik hoop dat ik u zo waardevolle feedback gegeven heb. Zoals al gemeld, dit zijn mijn meningen en dingen die ik zou verbeteren. Als u denkt dat ik het mis heb dan respecteer ik dit uiteraard. Ik ben hier tenslotte niet de redacteur van een goed lopende tech-news-site.
Met vriendelijke groet,
Maurits Buijs