Maar dat gebeurt dus. Supervised FSD rijdt al haast een half jaar op testtracks en dus op de openbare weg met gecertificeerde voertuigen. Verder goed om eens te kijken hoe Tesla 2 jaar geleden FSD heeft gedemonstreerd: zij maken dus zelf 3D simulaties obv wat de gehele fleet aan input heeft verzameld, zodat daarop modellen getraind kunnen worden.
Je kan perfect situaties rornd ongevallen registreren en die laten uit voeren door FSD computers om te kijken of die hetzelfde doen dan wel het ongeval kunnen vermijden.
Exact dit is wat er gebeurd. Desondanks is 99,99(9999?)% afvangen onvoldoende om er een unsupervised stempel op te plakken
Het gaat niet eens meer om de techniek hier (begrijp me goed, ik denk niet dat de techniek er al is, maar stel dat het wel goed genoeg gaat zijn): het gaat om perceptie en om reactie van de samenleving. Men moet ook "wennen" aan het systeem en aan het concept. Als er in het eerste jaar na release een gewonde valt, dan zal het concept 'self-driving' een deuk op lopen voor acceptatie in de gehele samenleving.
Puur om dat te voorkomen moet je deze "nutteloze tussenstap" er wel tussen doen.