
Появилось видео с автомобилем Tesla, предположительно использующим систему «Full Self-Driving», которая стала причиной столкновения восьми автомобилей в Сан-Франциско в ноябре.
Похоже, что это классический случай «фантомного торможения», но также и во время работы автопилота второго уровня водитель должен был отреагировать.
В ноябре авария на мосту через залив Сан-Франциско с участием восьми автомобилей попала в новости после того, как привела к нескольким незначительным травмам и блокировке движения более чем на час.
Но главным было то, что автомобиль, вызвавший аварию, как сообщалось, был «Tesla в режиме автопилота», или, по крайней мере, так заявил водитель полиции.
Как мы знаем, у Tesla нет «режима автопилота». У них есть система под названием «Full Self-Driving package», которая теперь включает Full Self-Driving Beta или FSD Beta.
FSD Beta позволяет автомобилям Tesla автономно двигаться к месту назначения, введенному в навигационную систему автомобиля, но водитель должен оставаться бдительным и готовым взять управление в любой момент.
Поскольку ответственность лежит на водителе, а не на системе Tesla, она по-прежнему считается системой помощи водителю второго уровня, несмотря на свое название.
После аварии водитель Tesla сообщил полиции, что автомобиль находился в «режиме полного автопилота», но, похоже, полиция поняла нюансы в отчете об аварии:
P-1 заявил, что V-1 находился в режиме Full self-driving на момент аварии, я не могу проверить, была ли активна система Full 24 Self-Driving Capability V-1 на момент аварии. На 24.11.2022 последняя версия Tesla Full Self 25 Driving Beta была 11 и классифицируется как SAE International Level 2. SAE International Level2 не классифицируется как автономный автомобиль. В соответствии с классификацией Level 2, человек на водительском сиденье должен 27 постоянно контролировать вспомогательные функции, включая рулевое управление, торможение или ускорение, по мере необходимости для поддержания 28 безопасности. Если программное обеспечение FullSelfDriving Capability вышло из строя, P-1 должен был вручную взять на себя управление 29 V-1, переопределив функцию FullSelfDriving Capability.
Теперь The Intercept получил видеозапись аварии, и на ней отчетливо видно, как автомобиль Tesla резко останавливается без видимой причины:
Это явление часто называют «фантомным торможением», и оно, как известно, относительно часто встречается в системах Tesla Autopilot и FSD Beta.
Еще в ноябре 2021 года Electrek опубликовал отчет под названием «У Tesla серьезная проблема с фантомным торможением в Autopilot». В нем отмечалось значительное увеличение числа владельцев Tesla, сообщающих об опасных случаях фантомного торможения в Autopilot.
Эта проблема не была новой для Autopilot Tesla, но наш отчет был сосредоточен на том, что водители Tesla замечали очевидное увеличение случаев на основе анекдотических свидетельств, но это также подкреплялось явным увеличением жалоб в NHTSA. Наш отчет разошелся по нескольким другим изданиям, но проблема не получила широкого распространения до тех пор, пока The Washington Post не опубликовала аналогичный отчет в феврале 2022 года. Через несколько месяцев NHTSA начала расследование по этому вопросу.
Лучший комментарий от tripper
Понравилось 38 людям
Но было ли это фантомным торможением? Фантомное торможение не включает поворотники и не меняет полосу движения.
Разве это не поведение Autopilot/FSD, когда водитель настолько невнимателен, что система отключается и пытается безопасно остановить автомобиль (что в данной ситуации явно небезопасно)?
Посмотреть все комментарии