Koukám, že řešíte autonomní auta víc než elektrická. To mě zajímá.
To by vás mohla zajímat perfektní prezentace, jak to řeší Tesla; vizte video v článku:
Tesla admits its approach to self-driving is harder but might be only way to scale - Electrek
https://electrek.co/2020/06/18/tesla-approach-self-driving-harder-only-way-to-scale/
VACA: ohledně nepredikovatelnosti AI/ML: kvůli regulovaným byznysům jako banking/health na to vznikla přímo oblast interpretability/debuggability (s výhradami i explainability).
Současný pohled (technologický, nikoliv právní, který rozebíráš ty) je, že ML se rozhoduje podle dat, které byly předloženy při učení. Proto je potřeba zajistit jejich reprezentativní rozložení a omezit biasy. Řeší to třeba H20.ai a částečně superwise.ai jak v tréninkové tak produkční fázi.
Například v banking/health každé rozhodnutí ML obsahuje reason code, proč se síť rozhodla, jak se rozhodla. Většinou se to překládá na to, jakou roli v rozhodnutí hrála vstupní data.
Zjednodušeně např. že zákazník nedostal půjčku, protože má nízký plat a credit score a ne protože je černoch.