Хакеры показали, как можно обмануть автопилот Tesla

Keen Security Lab, группа исследователей безопасности, поддерживаемая инвестором Tesla Tencent, опубликовала новый отчет о системе Autopilot от Tesla и способах ее обмана.

Ранее мы сообщали о многочисленных попытках взлома автомобилей Tesla исследователями Keen Lab, получившими статус «белых шляп».

Им удалось взять под контроль автомобили Tesla в нескольких случаях, а их исследования привели к улучшению безопасности программного обеспечения Tesla.

Теперь они обратили свое внимание на систему Autopilot от Tesla в новом исследовательском документе, опубликованном сегодня.

Реклама — прокрутите дальше, чтобы увидеть больше контента

Вместо прямого взлома программного обеспечения системы помощи водителю (ADAS), Keen Lab исследовала, как систему можно обмануть с помощью вводящих в заблуждение визуальных данных.

Сначала они просто попытались обмануть автоматические стеклоочистители, работающие на системе компьютерного зрения и камерах Autopilot, показывая изображения воды перед фронтальной камерой, что привело к активации системы:

Tesla не впечатлила демонстрация Keen Lab и прокомментировала:

«Это исследование было продемонстрировано путем отображения изображения на телевизоре, расположенном непосредственно перед лобовым стеклом автомобиля. Это не реальная ситуация, с которой сталкиваются водители, и это не проблема безопасности. Кроме того, как указано в нашем Руководстве пользователя, «Автоматический режим [для наших стеклоочистителей] в настоящее время находится в стадии БЕТА». Клиент также может выбрать использование ручного режима стеклоочистителей в любое время».

Затем команда перешла к более опасным действиям: использованию наклеек на дороге для нарушения работы системы распознавания полос движения:

«Автопилот Tesla распознает полосы движения и оказывает помощь в управлении, идентифицируя дорожную разметку. На основе исследования мы доказали, что, размещая на дороге наклейки, создающие помехи, система Autopilot будет считывать эту информацию и принимать ненормальное решение, что приведет к въезду автомобиля на встречную полосу».

Вот видео о том, как система Autopilot реагирует на эту уловку:

Tesla также дала ответ на этот тест, заявив, что водитель должен будет исправить ситуацию:

«В этой демонстрации исследователи изменили физическое окружение (например, наклеили ленту на дорогу или изменили линии полосы движения) вокруг автомобиля, чтобы заставить его вести себя по-разному при использовании Autopilot. Это не является реальной проблемой, учитывая, что водитель может легко отключить Autopilot в любое время, используя рулевое колесо или тормоза, и должен быть готов сделать это всегда».

Вот полный отчет Keen Security Lab по Autopilot:

[scribd id=404017043 key=key-nI9c3iDLrtnP1x8Nz5jI mode=scroll]