В течение нескольких месяцев Национальная администрация безопасности дорожного движения (NHTSA) расследовала этот инцидент, используя свое управление по расследованию дефектов (ODI), чтобы установить характер аварии и выяснить какие роли в этой аварии сыграли и человек-водитель, и автопилот Tesla. Управление ODI огласило свои результаты и закрыло дело 19 января 2017 г. Анализ не выявил никаких дефектов в конструкции системы и показал, что она работала так, как и должна была по проекту. Реакция некоторых экспертов была шокирующей и тревожной — если система работала так, как задумано, означает ли это, что в ней был заложен вариант, позволяющий допустить гибель (т.е. физическое устранение) водителя автомобиля, врезавшись в препятствие? И если такая программа присутствовала, то может ли считаться использование автомобилей-беспилотников этически нормальным?
В своем отчете ODI объяснил, что причина, по которой с системы были сняты «обвинения», заключалась в том, что искусственный интеллект (ИИ) был разработан таким образом, что требовал постоянного и полного внимания человека в любое время. По мнению ODI, водитель мог вернуть себе управление автомобилем и избежать столкновения. Таким образом, беспилотник Tesla избежал «наказания», и трагический инцидент был объявлен виной водителя, поскольку человек сам не смог предотвратить столкновение.
Для поклонников не только Теслы, но и вообще идеи внедрения самоходной автомобильной техники, новость о снятии ответственности с робомобиля была очень приятной, к тому же даже сам автопроизводитель не был привлечен к ответственности за аварию. Благодаря этому, мир самоуправляемых автомобилей получил «пропуск-вездеход» по выходу из всех спорных и трагических ситуаций. Теперь можно продолжать испытания, зная, что до тех пор, пока система делает то, для чего она была разработана (пусть даже это может привести к аварии), она, тем не менее, не будет считаться виновной в таком инциденте (или, если на то пошло, очевидно, для любого инцидента вообще!).