@
vlaaing peerd
Ik moet bekennen dat ik het betreffende artikel niet echt uitvoerig gelezen heb.
Dat Tweakers de focus vooral op "blind testen" heeft gelegd, vind ik (als electro-akoestisch engineer) nog niet eens zo verkeerd.
Ik denk dat zoiets voor de gemiddelde lezer wat meer zegt dan enkel wat grafiekjes.
De ervaring is wel dat het vaak al mis gaat bij het meten zelf om vervolgens nog eens extra mis te gaan bij het interpreteren van de metingen.
Om een speaker goed in kaart te brengen, heb je echt heel wat metingen nodig.
Enkel de frequentie responsie op 1 as meten kun je helemaal niets mee.
Vervolgens al die vele metingen vertalen naar klank en kwaliteit, vraagt heel wat kennis en ervaring.
Iets wat de gemiddelde lezer en waarschijnlijk ook de redactie, te ver gaat.
Dat het dus objectiever zou zijn, zoals je in jouw post zegt, ben ik het dan ook echt mee oneens.
Dat gezegd hebbende, heb ik wel bezwaren over hoe er getest is.
Zelfs professionals weten na enkele minuten niet meer (precies) wat het vergelijkingsmateriaal was.
De vraag is dus wat je nu eigenlijk aan het testen bent?
Een manier om dat beter te doen is om een zogenaamde ABX test te doen.
Dus je hoort sample A, dan sample B vervolgens A of B at random.
Dat doe je dan bij voorkeur minimaal 5 keer.
Dan heb je met 15 speakers zeg maar HEEL VEEL mogelijkheden en heel veel testen te doen!
Dus het moet ook nog enigszins praktisch blijven.
Wat misschien een idee is, is om eerst een top 3 te maken via een wat simpele test methode, die vervolgens te ABX-testen met daarbij een van de slechts geteste speakers.
Dus je doet ABX testen met uiteindelijk 4 speakers. (top 3 + 1)
Puur persoonlijk zou ik het liefst WEL metingen erbij willen zien.
Uiteraard is dat ook erg veel werk, liefst minimaal op 4 assen meten, near-field, vervorming op verschillende geluidssterktes. En ja, als het even kan ook nog een Klippel meting.
Maar dat is ook meer om de ervaring en perceptie van mensen te kunnen cross-correleren met de metingen.
Het idee van de Tweakers redactie om het zo te doen vind ik dus nog niet eens zo slecht.
Sterker nog, als ik even de "consumenten-pet" op doe, vind ik dat nuttiger dan gaan pixel peepen wat bij meeste TV's gebeurt.
Die mogen ze van mij namelijk ook het liefst blind gaan testen.
Wel heb ik wat kanttekeningen hoe en vooral ook waar er getest is.
Het is namelijk een vrij onnatuurlijke luisterruimte, een doek ertussen kan een hoop kwaad doen, zo te zien is de hoek iedere keer verschillend.
Ik ben zelf technisch consultant van diverse audio producten voor verschillende bedrijven.
Sommige BT speaker worden specifiek ontwikkeld voor buiten gebruik, of een bepaalde muzieksoort (en nee dat is geen grap)
Dan heb je automatisch al andere prioriteiten.
Ook vind ik de conclusies verkeerd gepresenteerd.
Ik ben namelijk zeer benieuwd naar de spreiding van elk gemiddeld cijfer.
Hoe ver liggen dus de meningen uit elkaar?
Dat zegt vaak een hoop meer dan enkel het gemiddelde.
Al met al vind het het idee van blind testen met een testpanel helemaal niet verkeerd.
The proof of the pudding is in the eating, zullen we maar zeggen.
Grafieken en metingen moet je denk ik vooral ook zien als een tool, en niet als een middel.
Daarnaast vergeten veel mensen dat er meer is dan zuiver en enkel "geluidskwaliteit" in een goed product.
Ik ga daar nu niet heel veel dieper op in, maar dat heeft te maken met het psychische of psycho-akoestische concept. Even simpel gezegd, wanneer er een mismatch is tussen looks, beleving en verwachting vs geluidsprofiel (om het zo maar even te noemen), valt dat vaak niet goed bij mensen.
Een flinke rabbit hole en can of worms, uiterst interessante materie!