Tesla скрывала данные, лгала и вводила в заблуждение полицию и истцов, чтобы избежать вины в аварии с автопилотом

Tesla была уличена в сокрытии данных, лжи по этому поводу и введении в заблуждение властей в деле о незаконном причинении смерти, которое она проиграла на этой неделе.

Автопроизводитель несомненно прикрывал автопилот.

На прошлой неделе присяжные признали Tesla частично ответственной за незаконное причинение смерти в результате аварии с участием автопилота. Я объяснил это дело и вердикт в этой статье и видео.

Но теперь у нас есть доступ к протоколам судебных заседаний, которые подтверждают, что Tesla чрезвычайно вводила в заблуждение, пытаясь возложить всю вину на водителя.

Реклама — прокрутите дальше для получения большего контента

Компания пошла на то, чтобы активно скрывать критически важные доказательства, объясняющие работу автопилота во время аварии.

Tesla скрыла данные снимка аварии, полученные ее собственным сервером через несколько минут после столкновения

Примерно через три минуты после аварии Model S загрузила «снимок столкновения» — видео, потоки CAN‑bus, данные EDR и т. д. — на серверы Tesla, «Материнский корабль», и получила подтверждение. Затем автомобиль удалил свою локальную копию, в результате чего только Tesla имела к ней доступ.

Последовала многолетняя борьба, чтобы заставить Tesla признать существование этого снимка столкновения и его релевантность делу.

Полиция неоднократно пыталась получить данные со снимка столкновения, но Tesla вела власти и истцов по долгому пути обмана и дезинформации, растянувшемуся на годы.

Вот, в хронологическом порядке, что произошло на основе всех доказательств из протокола судебного заседания:

1 | 25 апреля 2019 г. – Авария и мгновенная загрузка, которую Tesla сделала видом, будто никогда не происходила

Примерно через 3 минуты после аварии Model S упаковала видео с датчиков, CAN‑bus, EDR и другие потоки в один файл «snapshot_collision_airbag-deployment.tar» и отправила его на сервер Tesla, затем удалила локальную копию.

Теперь мы знаем это благодаря криминалистическим данным, извлеченным из бортового компьютера.

Истцы наняли Алана Мура, инженера-механика, специализирующегося на реконструкции аварий, чтобы криминалистически восстановить данные с электронного блока управления автопилотом (ECU).

На основе данных Мур смог подтвердить, что Tesla с самого начала имела этот «снимок столкновения», но «отвязала» его от автомобиля:

«Это говорит мне о том, что через несколько минут после этой аварии Tesla получила все эти данные… машина получила подтверждение… а затем сказала: «Хорошо, я закончил, я отвяжу его».

Истцы пытались получить эти данные, но Tesla заявила, что они не существуют.

Письменные ответы Tesla на запросы о раскрытии информации были показаны во время судебного процесса, чтобы доказать, что компания действовала так, как будто эти данные были недоступны.


2 | 23 мая 2019 г. – Адвокат Tesla составляет запрос следователя по делам об убийствах на получение доказательств

Капрал Рисо, следователь по делам об убийствах дорожной полиции Флориды (FHP), обратился к Tesla за помощью в получении телеметрических данных для реконструкции аварии.

Он связался с адвокатом Tesla Райаном Маккарти и спросил, нужно ли ему вызвать Tesla повесткой для получения данных об аварии.

Рисо сказал о Маккарти во время судебного заседания:

«Это не обязательно. «Напишите мне письмо, и я скажу вам, что написать в письме».»

В то время он не считал Tesla противником в этом деле и думал, что Маккарти поможет получить данные без формальной процедуры. Однако адвокат составил письмо таким образом, чтобы не отправлять полиции полные данные об аварии.

Рисо выполнил инструкции дословно. Он сказал во время судебного заседания:

«Я конкретно записал то, что адвокат Tesla сказал мне записать в письме».

Но Маккарти специально составил письмо так, чтобы исключить передачу снимка столкновения, который включает в себя пакет видео, данных EDR, CAN bus и автопилота.

Вместо этого Tesla предоставила полиции данные информационно-развлекательной системы с журналами вызовов, копию Руководства владельца, но не фактическую телеметрию аварии с электронного блока управления автопилотом.

Tesla ни разу не сообщила, что уже имела эти данные более месяца.


3 | Июнь 2019 г. – Инсценированное «сотрудничество», которое портит доказательства

Tesla стала еще более обманчивой, когда полиция попыталась получить данные непосредственно с компьютера автопилота.

19 июня 2019 года Рисо физически извлек MCU и электронный блок управления автопилотом из Tesla.

Опять же, следователь считал, что Tesla сотрудничает со следствием в то время, поэтому он спросил компанию, как извлечь данные из компьютера. Он сказал на судебном заседании:

Я связался с мистером Маккарти и спросил, как я могу получить эти данные с компьютерных компонентов. Он сказал, что организует мне встречу с техником в их сервисном центре, сервисном центре Tesla в Корал-Гейблс.

Tesla организовала встречу Рисо с Майклом Калафеллом, техником Tesla, в местном сервисном центре в Корал-Гейблс с электронным блоком управления автопилотом и MCU Model S, двумя основными бортовыми компьютерами.

Чтобы было ясно, Tesla уже имела все эти данные на своих серверах и могла просто отправить их Рисо, но вместо этого они заманили его в свой сервисный центр с вещественным доказательством в его распоряжении.

Последовало чистое кино.

Майкл Калафелл, который свидетельствовал, что никогда не получал задания извлекать данные из электронного блока управления автопилотом ранее, подключил оба компьютера к Model S в мастерской, чтобы получить к ним доступ, но затем заявил, что данные «повреждены» и к ним нельзя получить доступ.

Рисо сказал во время своего показания:

Я привез планшет центра [MCU] и плоскую серебристую коробку [ECU автопилота] с разноцветными разъемами в сервисный центр Tesla.

«Я все время наблюдал за мистером Калафеллом. Вещественное доказательство было в моей власти. Я не выпускал его из виду».

Однако ситуация стала намного более запутанной, поскольку Калафелл в своем заявлении под присягой утверждал, что на самом деле он не включал питание ECU, а только MCU, в тот день, 19 июня.

Лишь годы спустя, когда Алан Мур, криминалистический инженер, нанятый истцом, смог получить доступ к электронному блоку управления автопилотом, мы узнали, что Tesla несомненно включила питание компьютера 19 июня, и данные были доступны.


4 | 2019 – 2024 – Многократные отказы и затягивание раскрытия информации

В течение многих лет общения с полицией, истцами и судом в рамках расследования, а затем и процесса раскрытия информации по иску, Tesla никогда не упоминала, что у нее есть все данные, объясняющие, как автопилот видел аварию, которые все искали, и которые лежали на ее серверах годами.

Факты таковы:

  • Tesla получила данные на своих серверах через несколько минут после аварии
  • Когда полиция искала данные, Tesla перенаправляла их к другим данным
  • Когда полиция обратилась за помощью к Tesla в извлечении данных с компьютера, Tesla ложно заявила, что они «повреждены»
  • Tesla изобрела несуществующую функцию «автоматического удаления», чтобы попытаться объяснить, почему она изначально не могла найти данные на компьютере
  • Когда истцы запросили данные, Tesla заявила, что они не существуют
  • Tesla признала существование данных только после предъявления криминалистических доказательств того, что они были созданы и переданы на ее серверы.

5 | Конец 2024 г. – Суд предписывает получить посекторный образ NAND-flash памяти

К концу 2024 года суд разрешил истцам получить доступ к электронному блоку управления автопилотом стороннему эксперту, чтобы попытаться получить доступ к данным, которые Tesla назвала поврежденными.

Суд разрешил криминалистическим инженерам сделать посекторный образ NAND-flash памяти, который представляет собой полную, посекторную копию данных, хранящихся на чипе флэш-памяти NAND, включая все данные, метаданные и информацию кода коррекции ошибок (ECC).

Инженеры быстро обнаружили, что все данные на месте, несмотря на предыдущие заявления Tesla.

Мур, криминалистический инженер, нанятый истцами, сказал:

«Инженеры Tesla говорили, что это невозможно сделать… но это было сделано людьми вне Tesla».

Теперь у истцов был доступ ко всему.


6 | Февраль-март 2025 г. – Криминалистическая «сокровищница» раскрывает имя файла и контрольную сумму

Мур был поражен всеми данными, найденными при клонировании электронного блока управления автопилотом:

«Для такого инженера, как я, данные из этих компьютеров были настоящей сокровищницей того, как произошла эта авария».

Данные, предоставленные Tesla, было не так легко искать, видео были зернистыми, и в них отсутствовали важные оповещения и временные метки о работе автопилота и его решениях, приведших к аварии.

Помимо того, что все данные были гораздо полезнее, Мур обнаружил нераспределенное пространство и метаданные для файла «snapshot_collision_airbag-deployment.tar», включая его контрольную сумму SHA‑1 и точный путь на сервере.


7 | Май 2025 г. – Запросы журналов сервера поставили Tesla в тупик

Вооружившись вновь найденными метаданными, истцы смогли запросить журналы AWS Tesla.

Tesla все еще сопротивлялась, но, столкнувшись с слушанием о санкциях, Tesla наконец предоставила нетронутый TAR-файл, а также журналы доступа, показывающие, что он хранился с 18:16 по тихоокеанскому времени 25 апреля 2019 г. — та же трехминутная временная метка, на которую указал Мур.

Автопроизводителю пришлось признать, что все это время данные были у них.

Во время судебного заседания г-н Шрайбер, адвокат истцов, заявил, что Tesla использовала эти данные для собственного внутреннего анализа аварии:

У них был не только снимок — они использовали его в своем анализе. Он показывает, что автопилот был включен. Он показывает ускорение и скорость. Он показывает, что руки МакГи были на руле.

Тем не менее, они не предоставили доступ полиции или семье жертвы, которые пытались понять, что произошло с их дочерью.


8 | Июль 2025 г., Суд – Головоломка предстала перед присяжными

Наконец, вся эта ситуация была представлена присяжным в прошлом месяце и, безусловно, повлияла на их вердикт.

Присяжные столкнулись с явными доказательствами того, что Tesla пыталась скрыть данные об аварии, а затем им показали, что эти данные показали.

Извлеченные данные прояснили несколько моментов:

  • Автопилот был активен
  • Автоуправление управляло автомобилем
  • Не было обнаружено ручного торможения или уклонения от руля со стороны водителя
  • Не было записи об оповещении «Немедленно возьмите управление», несмотря на приближение к Т-образному перекрестку с неподвижным автомобилем на пути.
  • Мур обнаружил журналы, показывающие, что системы Tesla были способны выдавать такие предупреждения, но не сделали этого в данном случае.
  • Данные карт и изображений с ECU показали:
    • Данные карт с ECU автопилота включали флаг, что область была «зоной, ограниченной для автоуправления».
    • Несмотря на это, система позволила автопилоту оставаться включенным на полной скорости.

Мур прокомментировал последний пункт:

«У Tesla был флаг карты. Машина знала, что находится в ограниченной зоне, но автопилот не отключился и не выдал предупреждение».

Это было критически важно для дела, поскольку одним из аргументов было то, что Tesla опасно позволяла владельцам использовать автопилот на дорогах, для которых он не был предназначен, поскольку он был специально разработан для шоссе.

Национальный совет по безопасности на транспорте (NTSB) даже предупредил Tesla об этом, и автопроизводитель не ограничил систему географически:

NTSB написала Tesla в то время:

«Включите системные защитные механизмы, которые ограничивают использование автоматизированных систем управления транспортным средством теми условиями, для которых они были разработаны (домен эксплуатационных характеристик транспортного средства)».

Водитель нес ответственность за аварию, и он это признал. Он признал, что неправильно использовал автопилот и не следил за дорогой во время аварии.

Однако основной целью истцов в этом деле было возложить часть вины за аварию на Tesla за то, что она не предотвратила такое злоупотребление системой, несмотря на явный риск.

Логика заключается в том, что если бы Tesla внедрила геозонирование и лучший мониторинг водителя, водитель МакГи никогда не смог бы использовать автопилот в этом случае, что могло бы предотвратить попадание в ситуацию, приведшую к аварии.

Это помимо того, что автопилот не смог сделать то, что Tesla неоднократно утверждала, что он может: предотвращать такие аварии в первую очередь.

Мнение Electrek

Поклонникам Tesla сейчас нужно проявить немного эмпатии. То, как они обсуждают это дело, например, утверждая, что истцы просто ищут выплаты, поистине возмутительно.

Поставьте себя на место семьи. Если бы ваша дочь погибла в автомобильной аварии, вы бы хотели знать, что именно произошло, определить все способствующие факторы и попытаться их устранить, чтобы придать смысл этой трагической потере и предотвратить ее для кого-то другого.

Это совершенно нормальная человеческая реакция. А чтобы добиться этого в США, нужно пройти через суды.

Во-вторых, поклонникам Tesla нужно проявить немного смирения. Они ведут себя так, будто точно знают, о чем идет речь в этом деле, и полагают, что оно «просто будет отклонено при апелляции».

Правда в том, что если вы не прочитали все протоколы и не видели все доказательства, вы не знаете об этом больше, чем 12 присяжных, которые единогласно решили возложить 33% вины за аварию на Tesla.

И в этом суть проблемы. Они хотят возложить всю вину на водителя, а истцы пытались лишь возложить часть вины на Tesla, и присяжные согласились.

Две стороны не так уж далеки друг от друга. Обе стороны согласились, что большая часть вины лежит на водителе, и даже сам водитель, похоже, согласен с этим. Он признал, что отвлекся, и быстро урегулировал претензии с истцами.

Лучший комментарий от Damon Ekstrom


Понравилось 36 людям

Наличие доказательств того, что Tesla лгала о наличии доказательств, и при этом сознательно пыталась их скрыть, должно вызвать очень серьезное беспокойство у каждого, кто в настоящее время управляет Tesla.

Не заблуждайтесь, каждый должен использовать такие функции, как AP и FSD, надлежащим образом, но знание того, что Tesla сделает все возможное, чтобы уничтожить любые доказательства, которые могут найти ее виновной, вызывает большое беспокойство.

Посмотреть все комментарии

Это дело лишь ставило целью исследовать, как маркетинг и развертывание автопилота Tesla могли способствовать аварии, и после рассмотрения всех доказательств присяжные согласились, что это так.

Нет никаких сомнений в том, что водитель должен нести большую часть ответственности, и нет никаких сомнений в том, что он неправильно использовал автопилот.

Однако нет и никаких сомнений в том, что автопилот был активен, не предотвратил аварию, несмотря на заявления Tesla о его большей безопасности, чем у людей, и Tesla было рекомендовано использовать лучшее геозонирование и мониторинг водителя, чтобы предотвратить такое злоупотребление системой.

Я считаю, что 33% вины в данном случае — это более чем справедливо.