Tesla уже больше года устанавливает и совершенствует систему автономного управления Full Self-Driving (FSD). В прошлом месяце компания хвасталась, что за это время не произошло ни одной аварии, но по мере того, как все больше владельцев получали доступ к FSD, тем выше становилась вероятность того, что когда-нибудь ДТП произойдет.
Об аварии сообщило Национальное управление безопасностью дорожного движения (NHTSA), которое уже проводит несколько расследований системы Autopilot, разработанной Tesla. Согласно опубликованным данным, транспортное средство, находившееся в режиме FSD, выполняло левый поворот, выехало не на ту полосу и столкнулось с машиной, двигавшейся по соседней полосе. Система выдала предупреждение на полпути, водитель попытался взять управление на себя, но FSD не позволила этого. В результате автомобиль серьезно поврежден со стороны водителя.
Решение компании Илона Маска начать тестирование программы FSD на общественных дорогах с необученными водителями уже подверглось серьезной критике и осуждению. С тех пор Tesla выкатила — и откатила — несколько обновлений ПО, призванных исправить найденные ошибки. Пользователи активно делятся видео с записью поведения автомобилей на автопилоте: в некоторых случаях машины ведут себя правильно в сложных ситуациях, в некоторых — путают полосы и допускают другие оплошности.
Несмотря на название, FSD — не полностью автономная система управления. Водители должны сохранять бдительность, не сводить глаз с дороги и не снимать рук с руля. По номенклатуре Общества автомобильных инженеров, это 2-й уровень автономности.
В сентябре в штате Техас группа полицейских подала в суд на компанию Илона Маска после того, как электромобиль Model X, находясь в режиме автопилота с пьяным водителем за рулем, сбил на трассе пятерых офицеров полиции. Истцы утверждают, что компания и Маск лично знают о конструктивных недостатках своих машин, в том числе программы автопилота, но ничего не делают для исправления ситуации.
Читайте самые интересные истории ЭлектроВестей в Telegram и Viber