
Первая зарегистрированная смерть в аварии Tesla Model S при активированном автопилоте потрясла сообщество Tesla и производителей беспилотных автомобилей со вчерашнего дня. Трагический инцидент произошел 7 мая во Флориде, но мы узнали о нем только вчера, когда Tesla сообщила, что Национальное управление безопасности дорожного движения США (NHTSA) начало предварительную проверку системы автопилота Tesla.
Мы не претендуем на то, что знаем все об этой аварии, но, основываясь на информации, предоставленной дорожной полицией Флориды, Tesla и NHTSA, мы попытаемся изложить наше наилучшее понимание событий и возможное влияние расследования регулятора на автопилот.
7 мая в 15:40 по американскому времени в Уиллстоне, штат Флорида, 45-летний Джошуа Браун погиб, когда его Tesla Model S въехала под трейлер 18-колесного полуприцепа, и крыша его автомобиля была сорвана от удара.
Дорожная полиция Флориды описала события следующим образом:
Когда грузовик поворачивал налево на NE 140th Court перед автомобилем, крыша автомобиля врезалась в нижнюю часть трейлера, проезжая под ним. Автомобиль продолжал двигаться на восток по US 27A, пока не съехал с дороги по южному обочине и не врезался в забор. Автомобиль пробил два забора и врезался в столб электропередачи. Автомобиль вращался против часовой стрелки, скользя до финального положения примерно в 100 футах к югу от шоссе.
Вот наша визуализация произошедшего с высоты птичьего полета, основанная на информации, предоставленной полицией:
Tesla добавила свое понимание событий в посте в блоге:
«Нам известно, что автомобиль двигался по разделенному шоссе с включенным автопилотом, когда тягач совершил поворот перпендикулярно Model S. Ни автопилот, ни водитель не заметили белую сторону тягача на фоне ярко освещенного неба, поэтому торможение не было применено. Высокая посадка трейлера в сочетании с его положением поперек дороги и чрезвычайно редкими обстоятельствами столкновения привели к тому, что Model S проехала под трейлером, а нижняя часть трейлера врезалась в лобовое стекло Model S».
Тот факт, что система автопилота не распознала трейлер как препятствие, требующее экстренного торможения или рулевого управления, беспокоит многих. Передние датчики автопилота состоят из камеры, радара и нескольких ультразвуковых датчиков.
Вполне понятно, что камера не смогла распознать трейлер как препятствие, исходя из объяснения Tesla о «белом цвете трейлера на фоне ярко освещенного неба» и «высокой посадке», но менее понятно, почему передний радар его не обнаружил.
Генеральный директор Tesla Илон Маск дал объяснение:
Radar tunes out what looks like an overhead road sign to avoid false braking events
— Elon Musk (@elonmusk) June 30, 2016
Здесь мы понимаем, что высокая посадка трейлера сбила радар с толку, заставив его думать, что это дорожный знак над головой. Очевидно, это не идеально, и систему следует усовершенствовать, чтобы она имела более высокий порог обнаружения дорожных знаков над головой, но в конечном итоге причина, по которой автопилот не остановил Model S, на самом деле не является главным вопросом.
Предварительная проверка NHTSA системы автопилота Tesla направлена на определение того, работала ли система в соответствии с ожиданиями, но от автопилота не ожидается, что он будет избегать подобных аварий. Это полуавтономная система, призванная снизить нагрузку на водителя, но водитель по-прежнему несет ответственность, как и при обычном круиз-контроле:
Когда водители активируют автопилот, в окне подтверждения объясняется, среди прочего, что автопилот «является вспомогательной функцией, которая требует, чтобы вы держали руки на руле все время», и что «вы должны сохранять контроль и ответственность за свой автомобиль» во время его использования. Кроме того, каждый раз, когда активируется автопилот, автомобиль напоминает водителю: «Всегда держите руки на руле. Будьте готовы взять управление в любой момент».
Одно, что NHTSA может поставить в вину Tesla, — это если оно обнаружит, что Tesla и автопилот создали ложное чувство безопасности, которое привело к тому, что владельцы переоценили возможности системы.
Tesla критиковали в прошлом за это предполагаемое «ложное чувство безопасности». Основатель Google Deep Learning Эндрю Ын назвал автопилот Tesla «безответственным» после аварии в Швейцарии, где водитель Model S врезался в фургон, думая, что автопилот остановится.
Стало ли это потенциальное ложное чувство безопасности фактором в смертельной аварии? На данный момент неясно, и мы не будем спекулировать, но вот факты на данный момент. За месяц до аварии Джошуа Браун приписывал системе автопилота спасение в почти столкновении, заснятом на видео.
Водитель грузовика, участвовавшего в аварии, утверждает, что Браун смотрел фильм во время аварии, и полиция подтвердила, что портативный DVD-плеер был найден в машине, но не уточнила, использовался ли он во время аварии. Также стоит учитывать, что, хотя автопилот не активировал торможение, Браун также этого не сделал.
Независимо от того, был ли Браун отвлечен во время аварии или нет, что мы не узнаем, пока не станут известны все сведения, одно мы знаем наверняка: он очень хорошо осознавал пределы системы и опасность чрезмерного комфорта с ней. Он написал в комментарии на YouTube после публикации одного из своих видео:
«Большая опасность на данном этапе разработки — это то, что кто-то станет слишком самоуверенным. В этот момент вам действительно нужно быть внимательным. Это ранняя стадия разработки, и человек должен быть готов вмешаться, если [автопилот] не справится. В другом комментарии я говорил о слепых зонах текущего оборудования. Есть ситуации, с которыми он справляется плохо, и это нормально. Это не автономный автомобиль, и они получают ОГРОМНЫЕ объемы данных о том, как автомобиль управляет движением. Я рад помочь в его обучении. Мне ОЧЕНЬ интересно, какой будет версия 2 оборудования и что она [позволит].»
Похоже, Браун не согласился с Ын, призывавшим Tesla не выпускать автопилот из-за потенциального ложного чувства безопасности. Сложно решить, стоит ли запрещать десяткам тысяч владельцев Tesla использовать систему, которая одновременно полезна и может повысить безопасность при правильном использовании, только потому, что несколько человек могут злоупотреблять системой.
Как Tesla отметила в своем посте в блоге о трагической аварии, это «первая известная смертельная авария за чуть более чем 130 миллионов миль с активированным автопилотом» — по сравнению со смертельным случаем на каждые 94 миллиона миль в США и на каждые 60 миллионов миль во всем мире. Статистически автопилот по-прежнему безопаснее среднего автомобиля.
Расследование NHTSA все еще находится на стадии предварительной проверки, что является первым шагом перед полным расследованием, которое только после этого может привести к отзыву. Это также не обязательно означает, что будет проведено расследование.