Новые damning footage показывают, как несколько автомобилей Tesla на автопилоте врезаются в полицию

Новый отчет раскрыл damning footage, показывающий, как несколько автомобилей Tesla на автопилоте врезаются в полицейские машины на шоссе.

Tesla находится под федеральным расследованием по поводу того, что ее автопилот, возможно, имеет проблемы с авариями с участием экстренных служб, стоящих на обочине дороги.

Национальное управление безопасности дорожного движения США (NHTSA) впервые начало расследование в отношении автопилота Tesla из-за его возможного участия в 11 авариях с участием экстренных служб и служб быстрого реагирования еще в 2021 году.

С тех пор расследование было расширено и теперь включает 16 аварий.

Реклама — прокрутите дальше, чтобы увидеть больше контента

Вскоре после объявления Tesla обновила руководство для владельцев, отметив, что автопилот теперь «обнаруживает и замедляется при свете экстренных служб ночью», но с тех пор произошли и другие подобные аварии.

Теперь расследование вновь привлекло внимание, поскольку Wall Street Journal получил и опубликовал некоторые видеозаписи из салона этих аварий.

Вот видео, которое они выпустили о новых кадрах. (Предупреждение: некоторые материалы являются графическими.)

Мнение Electrek

Прежде всего, давайте проясним. То, что показывает это видео, — это ошибки пользователя. Просто и ясно. Ради всего святого, в основном видео, которое они демонстрируют, они даже сказали, что водитель был в состоянии алкогольного опьянения. Мы также видим, что было более чем достаточно времени для реакции, если бы водитель был внимателен.

Лучший комментарий от PurpleHelmet


Понравилось 19 людям

Реальность, которая, вероятно, осознается большинством покупателей FSD, заключается в том, что в текущей конфигурации Уровень 5 просто невозможен. Как и Уровень 4 или Уровень 3. Пакет не справляется с простыми, но жизненно важными проблемами безопасности, несмотря на десятки итераций, которые лишь незначительно улучшили производительность. А Маск сказал, что унаследованные модели больше не получат никаких обновлений оборудования. Так что необходимое оборудование и вычислительная мощность отсутствуют у большинства из нас, и, несмотря на оплату более 15 000 долларов и риск жизнью и имуществом от имени Tesla, мы получаем, по сути, обман.

Мы не получаем необходимое оборудование. Мы не получаем компенсацию за нашу работу по тестированию. Нет, мы получаем «пошел ты».

Осмыслите это.

Посмотреть все комментарии

Если бы водители использовали автопилот по назначению, этих аварий не произошло бы. Так что трудно винить Tesla в чем-либо из этого.

Однако это все равно выглядит плохо для Tesla, потому что эти аварии произошли в то время, когда Илон Маск утверждал, что Tesla в любой момент достигнет полной самостоятельности вождения.

Я по-прежнему считаю, что пользователи пакетов Autopilot и Full Self-Driving должны использовать функции в соответствии с руководством пользователя, что означает постоянное внимание и готовность взять на себя управление, но в то же время не требуется большого воображения, чтобы понять, почему люди думают, что автопилот должен уметь обнаруживать эти автомобили.

Автопилот должен уметь обнаруживать и избегать этих аварий.