kasteleman schreef op maandag 29 februari 2016 @ 13:37:
Ik blijf ook mijn vraagtekens houden. Ze zouden eind vorig jaar uitleveren in december. Uiteindelijk begin jan de eerste geworden. Als je dan bekijkt hoeveel issues er worden gemeld, kan ik me niet de vraag onttrekken: wat was er aan software kant klaar geweest als de hardware eerder klaar was geweest voor uitlevering?
Ik denk dat je anders ontwikkelt als je nog geen directe feedback van klanten hebt, dan wanneer je dit wel hebt. In de eerste situatie kan je veel tijd stoppen in details, de app store, de API's, etc.
Wanneer je wel de feedback van klanten krijgt kom je veel meer problemen tegen door situaties die je niet kent. Je kan een product zelf niet zo goed testen als dat klanten dat doen

.
Over voice:
Voice control is een moeilijk probleem – misschien hebben ze dit onderschat. Het segmenteren van tekst en detecteren van intents is een
hard problem.
Als je dit met een vaste structuur wilt doen is het relatief makkelijk. Als je met vrij tekst (Siri/Google now/Amazon echo) dit wilt doen is het moeilijker.
Volgens mij is Homey zich op het eerste van deze twee problemen aan het richten. Dit betekent dat áls de trigger eenmaal werkt (= veel, veel, veel trainings data) het daarna goed werkt.
De Text-to-Speech API's van bijvoorbeeld Google zijn namelijk erg goed.
Het signaal dat Homey doorstuurt naar zo'n API kan een erg hoge kwaliteit hebben – helemaal als je hiervoor fixed function hardware gebruikt (e.g. techniek van
Audience).
En ook als je wat electrical engineers los laat op het signaal van meerdere microfoons, geef je al erg goede input aan zo'n API.
Hypothese: meerdere microfoons. Klopt dat?.