Смертельная авария Tesla с Full-Self-Driving (Supervised) спровоцировала расследование NHTSA

Все автомобили Tesla с функцией Full Self-Driving (Supervised) в США теперь находятся под следствием NHTSA после смертельной аварии, которая поставила под сомнение способность системы справляться с условиями ограниченной видимости.

Автопроизводители обязаны сообщать, когда им становится известно об авариях с участием их передовых систем помощи водителю (ADAS), таких как Autopilot и FSD от Tesla. Эти отчеты называются Standing General Orders (SGO).

При проверке SGO Tesla, NHTSA обнаружило вызывающую обеспокоенность закономерность: отчеты, в том числе о смертельной аварии, были связаны с условиями ограниченной видимости.

NHTSA написало в своем отчете:

Реклама — прокрутите, чтобы увидеть больше контента

Отдел расследований дефектов (ODI) выявил четыре отчета в рамках Standing General Order (SGO), в которых автомобиль Tesla попал в аварию после въезда в зону с ограниченной видимостью дороги при активированных системах FSD-Beta или FSD-Supervised (совместно FSD). В этих авариях ограниченная видимость дороги была вызвана такими факторами, как солнечные блики, туман или пыль в воздухе. В одном из случаев автомобиль Tesla насмерть сбил пешехода. Еще одно столкновение в подобных условиях привело к травмам.

Это побудило Отдел расследований дефектов (ODI) агентства начать предварительное расследование системы FSD от Tesla, которое охватывает все автомобили Tesla, выпущенные с 2016 года.

Вот что пытается оценить расследование:

  • Способность инженерных систем управления FSD обнаруживать и адекватно реагировать на ограниченные
    условия видимости дороги;
  • Произошли ли какие-либо другие аналогичные аварии с FSD в условиях ограниченной видимости дороги
    и, если да, то каковы были способствующие обстоятельства этих аварий; и
  • Любые обновления или модификации системы FSD от Tesla, которые могут повлиять на производительность FSD в условиях ограниченной видимости дороги. В частности, этот обзор оценит сроки,
    цели и возможности любых таких обновлений, а также оценку Tesla их влияния на безопасность.

Предварительное расследование ODI — один из первых шагов к отзыву, но Tesla уже проходила через этот процесс несколько раз, и чаще всего автопроизводителю удавалось избежать значительных отзывов, которые не являются простыми обновлениями программного обеспечения по воздуху.

Мнение Electrek

Лучший комментарий от AlienEntity1


Понравилось 14 людям

Я вожу много разных автомобилей, все из которых оснащены той или иной формой ADAS, включая Tesla Autopilot. По моему опыту, радар — это очень полезная и эффективная «дальнобойная» технология, и он лучше, чем чисто визуальная система. Как и человеческие глаза, камеры тоже ограничены: в условиях плохой видимости (ночью, в дождь, с темным пешеходом, например) вам нужен радар или лидар. Маск отстает из-за этого, и Tesla FSD безнадежно испорчен, по крайней мере, HW3 и HW4.

Смотреть все комментарии

Проблема плохой видимости, конечно, не нова. Даже обычные солнечные блики иногда могут полностью вывести из строя FSD Tesla. Туман также является проблемой, с которой я сталкивался несколько раз, но чаще всего я получаю оповещение о плохой погоде от FSD, предупреждающее о снижении производительности.

Обычно в таких случаях я оцениваю погоду, и если, по мнению меня как водителя, с ней легко справиться, я даю FSD шанс, но если нет, то не рискую.

Но совершенно очевидно, что при текущем аппаратном обеспечении, как HW3, так и HW4, Tesla не готова к тому, чтобы FSD справлялся со многими погодными условиями, что делает автономию уровня 5 невозможной, несмотря на заявления Илона Маска об обратном.

Автономия уровня 4, которая учитывает определенные исключения дорожных условий, является пределом, хотя и в этом есть сомнения.