Основатель Google Deep Learning назвал автопилот Tesla «безответственным»

Существует несколько различных подходов к разработке беспилотных автомобилей. Некоторые компании постепенно выпускают все более совершенные автономные и полуавтономные функции, ведущие к полностью автономной системе, как автопилот Tesla, а другие, как Google, намерены выпустить систему только тогда, когда технология будет готова для полностью (уровень 4) беспилотного автомобиля.

После нескольких недавних аварий за последние недели Tesla подверглась критике за свой подход к выпуску полуавтономных функций. Одна из самых серьезных критиков прозвучала от известного ученого Эндрю Ына, который назвал выпуск автопилота Tesla просто «безответственным».

В настоящее время Ын является главным научным сотрудником Baidu, работая над исследованиями в области глубокого обучения и масштабируемых подходов к большим данным и ИИ. Он работает в R&D центре Baidu в Кремниевой долине, где компания также разрабатывает собственную технологию беспилотных автомобилей.

Реклама – прокрутите вниз, чтобы увидеть больше контента

Он наиболее известен как соучредитель проекта Google Deep Learning и онлайн-стартапа Coursera. Он также является профессором кафедр компьютерных наук и электротехники Стэнфорда.

На прошлой неделе мы сообщили об аварии в Швейцарии, где владелец Tesla Model S врезался в фургон, используя активный круиз-контроль автомобиля, который является частью системы автопилота Tesla. К счастью, никто не пострадал в результате столкновения. Хотя очевидно, что автопилот не использовался в соответствии с рекомендациями Tesla в данной конкретной ситуации, не так ясно, почему система автоматического экстренного торможения не сработала.

Ын прокомментировал аварию в своем аккаунте в Twitter:

Под «ложным чувством безопасности» Ын подразумевает объяснение водителя, почему он не нажал на тормоз, хотя видел остановившееся впереди транспортное средство:

«Да, я мог бы среагировать быстрее, но когда машина 1000 раз корректно тормозит, ты доверяешь ей сделать это и в следующий раз. Моя вина…» – сказал водитель, публикуя короткое видео аварии.

Как мы обсуждали, когда впервые сообщили об аварии, Tesla заявляет, что водитель всегда должен следить за автомобилем во время использования автопилота и быть готовым в любой момент взять управление на себя. В руководстве пользователя автопроизводитель даже ссылается на ситуацию, очень похожую на ту, с которой столкнулся водитель в Швейцарии, и просит «подготовиться к немедленным корректирующим действиям».

Все еще трудно согласиться с утверждением Ына о создании «ложного чувства безопасности», когда Tesla просит водителей «подготовиться к немедленным корректирующим действиям» и даже рекомендует держать руки на руле – это не способствует созданию чувства безопасности. Не кажется справедливым, чтобы Ын просил не выпускать автопилот, который чрезвычайно полезен для десятков тысяч владельцев Tesla, только потому, что некоторые из них злоупотребляют системой.

Главное изображение: Представитель СМИ тестирует автомобиль Tesla Motors Inc. Model S с функцией автопилота в Пало-Альто, Калифорния, США, в среду, 14 октября 2015 года. Фотограф: David Paul Morris/Bloomberg via Getty Images