Еще одно смертельное ДТП с участием Tesla Autopilot выходит на суд, но на этот раз с новыми доказательствами

Еще одно смертельное ДТП с участием Tesla Autopilot выходит на суд, и хотя Tesla выигрывала все подобные дела в прошлом, на этот раз появились новые доказательства, которые могут помочь истцам.

За эти годы произошло несколько смертельных ДТП с участием систем помощи водителю Tesla (ADAS), более известных под фирменными названиями: Autopilot и Full Self-Driving (FSD) Package.

Временами семьи погибших подавали иски о неправомерной смерти, но Tesla всегда выигрывала.

Это потому, что практически во всех случаях Tesla удавалось доказать, что водитель не обращал внимания в момент аварии или незадолго до нее. При использовании Autopilot или FSD Beta Tesla сообщает водителям, что они должны внимательно следить за дорогой и быть готовыми взять управление в любой момент.

Реклама – прокрутите вниз, чтобы увидеть больше контента

Если водители этого не делают, они неправильно используют систему.

Однако некоторые утверждают, что Tesla должна нести большую ответственность за создание преувеличенного уровня уверенности в своих системах ADAS и за ограничение неправильного использования путем лучшего обеспечения внимания водителей.

Сейчас предстоит новое судебное разбирательство, и юристы семьи погибшего водителя Tesla обнаружили доказательства, которые, по их утверждению, свидетельствуют о том, что Tesla знала о легкости злоупотребления Autopilot.

Судебный процесс касается одного из самых широко освещаемых в прессе ДТП с участием Tesla Autopilot. Мы подробно освещали его, когда оно произошло, и в последующих материалах о нескольких расследованиях аварии.

ДТП с участием Tesla Autopilot

Авария произошла в марте 2018 года, и в ней погиб инженер Apple Уолтер Хуанг.

Хуанг ехал на своем Model X с включенным Autopilot, когда автомобиль въехал в ограждение развязки на шоссе, как будто это была полоса движения – распространенная проблема с Tesla Autopilot того времени. Примерно через 150 метров после въезда в ограждение автомобиль врезался в барьер.

Удар был довольно сильным, поскольку там не было амортизатора удара, так как он был разрушен предыдущей аварией. Водителя доставили в больницу, но он скончался от полученных травм.

NHTSA расследовала аварию и подтвердила, что во время ДТП автомобиль использовал Autopilot. Однако, согласно данным с телефона, причиной аварии назвали водителя, который играл в видеоигру на своем телефоне, и отсутствие амортизатора удара, что повлияло на тяжесть последствий аварии.

Судебный процесс

Семья подала иск против Tesla о неправомерной смерти, и им предстоит очень трудная борьба, поскольку кажется, что он пользовался телефоном за рулем, что является нарушением правил дорожного движения и противоречит рекомендациям Tesla по использованию Autopilot.

Тем не менее, юристы семьи извлекают уроки из предыдущих подобных судебных процессов и выбирают другой подход. Они не отрицают неправильного использования Autopilot Хуангом, но фокусируются на коммуникациях Tesla, которые, по их утверждению, привели к неправильному использованию Autopilot водителем.

Как мы сообщали ранее, в рамках процесса получения доказательств для судебного разбирательства юристы семьи сосредоточились на нескольких заявлениях Tesla, и особенно Илона Маска, относительно разработок Tesla Autopilot и Full Self-Driving, которые могли привести к излишней уверенности водителей в системах.

В своей защите Tesla дошла до того, что абсурдно утверждала, что некоторые комментарии Маска по этому поводу могли быть дипфейками, не уточняя, какие именно.

Судебное разбирательство теперь назначено на следующую неделю в суде Сан-Хосе, и по мере того, как суд определяет, какие доказательства можно представить присяжным, появляется все больше свидетельств.

Reuters сообщает об электронном письме, которое Джон Макнил, тогдашний президент Tesla, отправил генеральному директору Илону Маску и Стерлингу Андерсону, тогдашнему руководителю Autopilot в Tesla, в котором Макнил признался, что читал электронные письма во время использования Autopilot:

«Я настолько привык к Autopilot, что пропустил съезды, потому что был поглощен электронными письмами или звонками (знаю, знаю, не рекомендуется).

Юристы также утверждают, что Tesla никогда «не изучала, насколько быстро и эффективно водители могут взять управление, если Autopilot случайно направляет автомобиль к препятствию», согласно свидетельствам и экспертам Tesla.

Похоже, что судебный процесс будет вращаться вокруг того, что Tesla сообщила владельцам и что она предприняла внутри компании, чтобы обеспечить безопасное использование систем ее владельцами.

Но также будет уделено внимание тому факту, что после аварии Tesla предприняла дополнительные шаги для обеспечения внимания водителя, включая внедрение мониторинга водителя через салонную камеру, а совсем недавно был отзыв для усиления оповещений водителя о необходимости уделять больше внимания при использовании Autopilot и FSD Beta.

Тот факт, что Tesla недавно провела отзыв по этому вопросу, может сыграть большую роль в этом судебном процессе, чего не было в предыдущих делах, выигранных автопроизводителем.

Мнение Electrek

Когда речь идет о смерти, это всегда деликатный вопрос, и сообщество Tesla быстро возлагает всю вину на водителей.

Это особенно легко сделать, когда водитель пользовался телефоном в момент аварии, что незаконно, и, казалось бы, у него было более чем несколько секунд, чтобы отреагировать, когда Autopilot совершил ошибку и въехал в ограждение.

Тем не менее, я думаю, что разумно исследовать, по крайней мере, возможность того, что Tesla способствовала неправильному использованию своей собственной системы ADAS.

Лучший комментарий от Timthenchntr


Понравилось 24 людям

Похоже, это самое слабое дело из нескольких, о которых я читал. Водитель в этом случае был инженером-программистом из Калифорнии, человеком, который, предположительно, хорошо разбирался как в возможностях программного обеспечения, так и в культуре общения в Кремниевой долине. Водитель имел опыт работы с автомобилем и сообщал друзьям, семье и Tesla, что он не всегда надежен. В частности, он жаловался на ту самую развязку, где произошла катастрофическая авария.

Смертельные аварии – это ужасные вещи, но мне кажется, что это очень слабое дело.

Посмотреть все комментарии

Мы не можем отрицать, что неправильное использование было, а может быть, и остается довольно распространенным среди владельцев Tesla во время этой аварии. Мы даже сообщали о том, что бывшая жена Илона Маска, Талула Райли, в то время публиковала видео с неправильным использованием Autopilot в своем Instagram.

Теперь, с юридической точки зрения, я не знаю, насколько ценным является этот аргумент, но похоже, что некоторые эксперты считают, что есть основания.

Мэттью Уонсли, доцент юридического факультета Кардозо, согласен с тем, что Tesla была обязана предотвратить «предвидимое неправильное использование»:

«Если Tesla могла предвидеть, что кто-то будет злоупотреблять системой, Tesla была обязана разработать систему таким образом, чтобы предотвратить предвидимое злоупотребление».

В любом случае, я думаю, что не повредит обсудить этот вопрос, особенно если это поможет осветить тот факт, что водители Tesla должны постоянно быть внимательными при использовании систем ADAS Tesla.