
Keen Security Lab, группа исследователей безопасности, поддерживаемая инвестором Tesla Tencent, опубликовала новый отчет о системе Autopilot от Tesla и способах ее обмана.
Ранее мы сообщали о многочисленных попытках взлома автомобилей Tesla исследователями Keen Lab, получившими статус «белых шляп».
Им удалось взять под контроль автомобили Tesla в нескольких случаях, а их исследования привели к улучшению безопасности программного обеспечения Tesla.
Теперь они обратили свое внимание на систему Autopilot от Tesla в новом исследовательском документе, опубликованном сегодня.
Вместо прямого взлома программного обеспечения системы помощи водителю (ADAS), Keen Lab исследовала, как систему можно обмануть с помощью вводящих в заблуждение визуальных данных.
Сначала они просто попытались обмануть автоматические стеклоочистители, работающие на системе компьютерного зрения и камерах Autopilot, показывая изображения воды перед фронтальной камерой, что привело к активации системы:
Tesla не впечатлила демонстрация Keen Lab и прокомментировала:
«Это исследование было продемонстрировано путем отображения изображения на телевизоре, расположенном непосредственно перед лобовым стеклом автомобиля. Это не реальная ситуация, с которой сталкиваются водители, и это не проблема безопасности. Кроме того, как указано в нашем Руководстве пользователя, «Автоматический режим [для наших стеклоочистителей] в настоящее время находится в стадии БЕТА». Клиент также может выбрать использование ручного режима стеклоочистителей в любое время».
Затем команда перешла к более опасным действиям: использованию наклеек на дороге для нарушения работы системы распознавания полос движения:
«Автопилот Tesla распознает полосы движения и оказывает помощь в управлении, идентифицируя дорожную разметку. На основе исследования мы доказали, что, размещая на дороге наклейки, создающие помехи, система Autopilot будет считывать эту информацию и принимать ненормальное решение, что приведет к въезду автомобиля на встречную полосу».
Вот видео о том, как система Autopilot реагирует на эту уловку:
Tesla также дала ответ на этот тест, заявив, что водитель должен будет исправить ситуацию:
«В этой демонстрации исследователи изменили физическое окружение (например, наклеили ленту на дорогу или изменили линии полосы движения) вокруг автомобиля, чтобы заставить его вести себя по-разному при использовании Autopilot. Это не является реальной проблемой, учитывая, что водитель может легко отключить Autopilot в любое время, используя рулевое колесо или тормоза, и должен быть готов сделать это всегда».
Вот полный отчет Keen Security Lab по Autopilot:
[scribd id=404017043 key=key-nI9c3iDLrtnP1x8Nz5jI mode=scroll]