Requiem19 schreef op vrijdag 26 februari 2021 @ 10:28:
Machine learning is in mijn ervaring echt zwaar overschat.
Heb verschillende projecten gezien bij ons werk waarbij we dit probeerden te gebruiken, maar dat viel elke keer echt flink tegen.
Ik denk dat het risico voor TR is dat ze het nu gelijk te groot aanpakken. De kunst is juist om het simpel te houden imo.
Off-topic: Dat het vaak in praktijksituaties niet werkt, komt in mijn beleving omdat er verwacht wordt dat het een bijna out-of-the-box/slap-it-on "oplossing" is voor een probleem (dat niet eens goed gedefinieerd kan worden). En dat bedrijven het inzetten, omdat ze wat data hebben en denken dat ze anders de boot missen: "Dus laten we er maar iets mee gaan doen". Er worden dan inhouse software engineers of met geluk nog een junior data scientist ingezet om specialistische tools te gebruiken/maken die niet weten wat ze precies doen, dan komt er over het algemeen niet snel iets bruikbaars uit. Je hebt er veel kennis en kunde voor nodig om het goed in te zetten. Je kan er veel mee, als je weet wat je doet. Maar "There ain't no such thing as a free lunch".
Machine learning en overschatting in zijn algemeenheid, tja.. Een beetje hetzelfde als zeggen dat statistiek overschat is. In mijn ogen wordt machine learning vaker op een verkeerde manier gebruikt of uitgelegd, inderdaad als een holygrail. Het is een marketingterm geworden en iedereen wil op die bandwagon mee. Het is niet de oplossing voor alles (verre van), sommige dingen zijn beter regelgebasseerd op te lossen en met domeinkennis. Uiteindelijk is het gewoon een manier om iets op te lossen (en binnen machine learning heb je 1001 mogelijke oplossingsrichtingen, afhankelijk van hetgeen wat je op probeert te lossen).
===========
TR heeft een goede usecase om machine learning te gebruiken en hebben goed nagedacht wat ze allemaal
kunnen doen (of dat ook allemaal moet, en tegelijk moet, is een tweede vraag). Het is nu wat veel tegelijk, al die features moeten kloppen en iets toevoegen. Een "klein" ding wat genoemd werd in de podcast waar ik al waarde van zie is het correleren van heartrate met power (ehftp geloof ik dat ze het noemen bij TR?) verhaal, dat is ook machine learning en kan hartstikke goed werken, zie ook op intervals.icu. Super nuttig als je ook buiten traint en geen powermeter hebt en het goed werkt. Heeft niet perse te maken met het AT verhaal, maar een goed voorbeeld hoe machine learning (of "gewoon" statistiek) nuttig ingezet kan worden.
De hoeveelheid die nu in die podcast aangekondigd wordt is wel echt veel. Ik ben wel benieuwd hoe het precies uit gaat pakken, want ze willen de individu niet behandelen als een "average" (wat met de standaard traningsprogramma's gebeurt), maar met de methoden die ze aangeven, moet mijn data ergens gefit worden op een curve uit de beschikbare data (een beetje hetzelfde als spotify die nieuwe muziek aanraadt, omdat andere mensen in hun database een vergelijkbaar luisterpatroon hebben, maar een band luisteren die jij nog niet kent/luistert en voldoet aan bepaalde tags/genre's/categoriëen) en hoe passend gaat dat ook echt zijn?
Een kanttekening vind ik wel dat al jouw TR workoutdatageschiedenis gebruikt wordt om deze modellen te trainen en het "product" dus te maken. Je bent dus een soort van deel van het nieuwe product geworden (net als bij heel veel tegenwoordig, vooral "gratis" services), maar je hebt er ook nog eens voor betaald.
Desalniettemin zeer interessante ontwikkelingen en ben benieuwd naar de eerste ervaringen van de gebruikers hier die in de beta zitten!
Leuk is ook niet echt het doel van Trainerroad. Wel leuk is om in reallife je maatjes eraf te fietsen die alleen op Zwift zitten, terwijl jij een stuk sterker bent geworden door TR
Zwift heeft het erg goed gespeeld om zo een grote userbase aan zich te koppelen, die toch wel blijven hangen. Deze mensen maken het product "goed" en leuk. Lopen al deze mensen opeens weg naar RGT is het snel afgelopen. Maar zoiets gebeurt vrijwel nooit (Whatsapp vs Signal, etc).
Michaelg schreef op vrijdag 26 februari 2021 @ 12:21:
Alle ml features zijn dus al gevalideerd op de current data set. Ik heb geen ervaring als techneut zijnde. Maar als de algorithms het juiste kunnen voorstellen obv de huidige data. Dan is het toch een veilige aan name dat het ook voor toekomstige data gaat geleden?
Hun specifieke methoden en gebruikte data kunnen we natuurlijk niet bekijken (alleen wat ze zeggen in de podcast.. dat moeten we dan maar geloven), maar het kan nog steeds overfitting zijn op hun huidige dataset of andere problemen. Echter is het een redelijk veilige aanname, mits alles precies hetzelfde blijft.
Dat is straks natuurlijk niet precies het geval, als er nu opeens op een andere manier workouts voorgeschoteld worden en geselecteerd, meer data verzameld gaat worden en je (als het goed is) minder gefaalde workouts zal gaan zien.