
Национальное управление безопасности дорожного движения США (NHTSA) усилило свое расследование неспособности системы Tesla «Full Self-Driving» (FSD) справляться с условиями сниженной видимости, повысив статус расследования до инженерного анализа, охватывающего примерно 3 203 754 автомобиля — это шаг, который обычно предшествует отзыву.
Ведомство установило, что система обнаружения сбоев FSD не предупреждает водителей, когда камеры ослеплены обычными дорожными условиями, такими как солнечные блики и туман, и что Tesla может занижать количество связанных аварий.
Третье параллельное расследование FSD
Новый инженерный анализ (EA26002), начатый вчера, повышает статус предварительного исследования (PE24031), которое NHTSA начало в октябре 2024 года после выявления четырех аварий в условиях сниженной видимости, включая одну, в которой смертельно был сбит пешеход.
С тех пор объем расследования расширился до девяти инцидентов в общей сложности, с одним погибшим и одной травмированной. NHTSA теперь изучает еще шесть потенциально связанных инцидентов в дополнение к ним.
Таким образом, это третье параллельное федеральное расследование FSD. NHTSA уже ведет отдельное расследование (PE25012) по 58 инцидентам, связанным с нарушениями правил дорожного движения, такими как проезд на красный свет и выезд на встречную полосу, а также отдельное расследование практики отчетности Tesla об авариях.
Переход от предварительного исследования к инженерному анализу имеет большое значение. NHTSA обычно завершает инженерный анализ в течение 18 месяцев, и этот этап включает более глубокое техническое тестирование, дополнительные запросы информации и сравнение с другими производителями. Исторически сложилось так, что инженерный анализ является последним этапом расследования, прежде чем агентство либо закроет дело, либо потребует отзыва продукции.
Основная проблема: FSD не может определить, когда он «слеп»
Основной вывод ставит под сомнение подход Tesla к автономному вождению, основанный исключительно на камерах. Согласно NHTSA, система обнаружения сбоев FSD — программное обеспечение, предназначенное для распознавания того, когда камеры не видят должным образом, и предупреждения водителя — не работает в обычных дорожных условиях.
NHTSA заявляет, что в рассмотренных авариях система «не обнаруживала обычные дорожные условия, которые ухудшали видимость камер, и/или не выдавала предупреждений о снижении производительности камер до самого момента аварии».
Хуже того, автомобили либо теряли из виду, либо полностью пропускали другие машины прямо перед собой перед столкновением. Система фактически «ослепла» и не знала об этом — или сообщила водителю слишком поздно, чтобы что-либо предпринять.
Условия, связанные с инцидентами, не являются экзотическими крайними случаями. Речь идет о солнечном блике, тумане и пыли в воздухе — вещах, с которыми любой водитель сталкивается регулярно. Система Tesla полагается исключительно на камеры после того, как компания убрала радар в середине 2021 года вопреки советам своих собственных инженеров, которые предупреждали, что одни только камеры будут уязвимы к внешним помехам.
Tesla начала исправлять проблему только после сообщения о смертельной аварии
Одной из самых показательных деталей в документе NHTSA является хронология реакции Tesla. Смертельная авария с участием FSD и сниженной видимостью произошла 28 ноября 2023 года. Tesla представила необходимый отчет в рамках Общего распоряжения (SGO) по этой аварии 27 июня 2024 года — то есть с опозданием на семь месяцев.
На следующий день, 28 июня 2024 года, Tesla начала разработку обновления системы обнаружения сбоев. NHTSA отмечает, что оно до сих пор не знает, когда именно было развернуто это обновление и на каких автомобилях оно установлено.
Когда NHTSA обсуждало инциденты с Tesla на этапе предварительного исследования, собственный анализ Tesla признал, что обновленная система обнаружения сбоев, если бы она была установлена на тот момент, «могла бы повлиять» только на 3 из 9 выявленных аварий. Это означает, что даже Tesla признает, что ее исправление не помогло бы в большинстве случаев.
Обеспокоенность по поводу занижения отчетности
NHTSA также выявило вызывающий беспокойство пробел в данных. Tesla сообщила агентству, что внутренние «ограничения данных и маркировки» не позволили ей единообразно идентифицировать и анализировать аварии, произошедшие во время работы системы обнаружения сбоев.
NHTSA считает, что это ограничение «могло привести к занижению отчетности по рассматриваемым авариям за определенные периоды времени». Это перекликается с отдельным расследованием практики отчетности Tesla об авариях и продолжающейся борьбой за получение от Tesla данных о нарушениях ПДД, связанных с FSD, где компания получила несколько продлений сроков.
Картина остается последовательной: NHTSA постоянно обнаруживает, что Tesla либо не может, либо не хочет предоставлять четкие данные об авариях, связанных с FSD.
Мнение Electrek
Эскалация этого расследования представляет собой самую серьезную регуляторную угрозу для внедрения «Full Self-Driving» Tesla, которую мы видели, и она затрагивает суть проблемы, на которую мы обращаем внимание уже много лет: система, основанная исключительно на камерах, имеет неотъемлемую уязвимость к ухудшению видимости, а программное обеспечение Tesla адекватно ее не компенсирует.
Особую тревогу вызывает режим отказа, которому уделяется недостаточно внимания — запотевание камер внутри корпуса. На камерах Tesla может образовываться конденсат между линзой и внешней крышкой, особенно в холодную или влажную погоду, и система иногда не обнаруживает этого. Когда это происходит, FSD продолжает работать с нарушенным зрением, а водитель не знает об этом, если только не смотрит непосредственно на потоковое видео с камер. Это именно тот тип «деградированного состояния», который расследует NHTSA, и это аппаратная проблема проектирования, которую никакое обновление программного обеспечения не сможет полностью решить.
Общая картина для Tesla еще хуже. Теперь у нас три параллельных расследования NHTSA в отношении FSD, охватывающих сбои видимости, нарушения ПДД и пробелы в отчетности об авариях. Tesla одновременно борется за предоставление данных по одному из расследований, в то время как новое расследование набирает обороты. И все это происходит на фоне того, как Tesla продолжает расширять доступность FSD, а генеральный директор Илон Маск продолжает обещать, что «Full Self-Driving» без водителя не за горами.
Разрыв между заявлениями Tesla об автономном вождении и регуляторной реальностью никогда не был так велик. Инженерный анализ, охватывающий 3,2 миллиона автомобилей, с записью о смертельной аварии и доказательствами системных сбоев обнаружения видимости, — это именно тот тип расследования, который заканчивается отзывом. Tesla должна отнестись к этому серьезно — как и водители, полагающиеся на систему, которая не может определить, когда она «слепа».