Сотрудник Tesla погиб в ужасной аварии, используя бета-версию Full Self-Driving, но он также был пьян

Ужасная смертельная авария с участием сотрудника Tesla, использовавшего бета-версию Full Self-Driving, была впервые подробно освещена, чтобы подчеркнуть ответственность в подобных инцидентах.

Авария

The Washington Post опубликовала новый отчет об аварии, произошедшей в 2022 году.

Ханс фон Охайн, рекрутер в Tesla, и его друг Эрик Росситер отправились за город Денвер, штат Колорадо, на Tesla Model 3 первого, чтобы поиграть в гольф.

Во время поездки туда Росситер говорит, что фон Охайн ехал на FSD beta, системе помощи водителю Tesla, которая берет на себя все управление автомобилем, но водитель должен держать руки на руле и быть готовым взять управление в любой момент.

Реклама — прокрутите дальше, чтобы увидеть больше контента

Росситер сказал, что FSD Beta несколько раз сворачивал с дороги во время поездки туда, и фон Охайну приходилось брать управление на себя.

Они сыграли 21 лунку и пили алкоголь в течение дня, прежде чем ехать обратно. Росситер сказал, что фон Охайн казался спокойным и «ни в коем случае не пьяным», когда садился в машину для обратной дороги.

The Washington Post описала аварию:

Через несколько часов, на обратном пути, Tesla Model 3 врезалась в дерево и взорвалась в огне, убив фон Охайна, сотрудника Tesla и преданного поклонника генерального директора Илона Маска. Росситер, выживший в аварии, сообщил службам экстренной помощи, что фон Охайн использовал «функцию автопилота в Tesla», которая «просто съехала прямо с дороги», согласно записи вызова 911, полученной The Washington Post. В недавнем интервью Росситер сказал, что считает, что фон Охайн использовал Full Self-Driving, что, если это правда сделало бы его смерть первой известной жертвой, связанной с самой передовой технологией помощи водителю Tesla.

Хотя Росситер, по его собственному признанию, не очень хорошо помнит, что произошло, он сказал, что помнит, как вышел из машины, увидел большое оранжевое свечение, а затем пытался вытащить своего друга из машины, который кричал внутри горящего автомобиля. Упавшее дерево блокировало дверь водителя.

Вскрытие фон Охайна показало, что он умер с уровнем алкоголя в крови 0,26 — более чем в три раза превышающим допустимый предел.

Полиция штата Колорадо пришла к выводу, что причиной аварии было в основном опьянение, но также провела расследование возможной роли Tesla Full Self-Driving Beta.

Ответственность

Вдова фон Охайна, Нора Басс, хочет, чтобы Tesla взяла на себя ответственность за смерть ее мужа:

«Независимо от того, насколько пьян был Ханс, Маск утверждал, что эта машина может ездить сама и, по сути, лучше человека. Нам продали ложное чувство безопасности».

Она не смогла найти адвоката, который взялся бы за дело, потому что он был пьян.

Сержант дорожной полиции штата Колорадо Роберт Мэдден, руководивший расследованием, обнаружил на месте аварии следы вращения колес, что означает, что двигатель продолжал подавать мощность на колеса во время удара.

Также не было обнаружено следов торможения.

Мэдден сказал:

«Учитывая динамику аварии и то, как автомобиль съехал с дороги без каких-либо признаков резкого маневра, это соответствует функции [помощи водителю]»

У нас нет доступа к логам. Полиция не смогла восстановить их после пожара, а Tesla, по сообщениям, заявила полиции, что не получила логи по воздуху. Поэтому она не смогла подтвердить, были ли активированы какие-либо функции помощи водителю во время аварии.

Мнение Electrek

Это ужасно. Я не могу представить, как пытаться вытащить своего кричащего друга из горящей машины. Мне жаль близких фон Охайна.

Исходя из имеющейся у нас информации, похоже, что фон Охайн был пьян и слишком самоуверен в FSD Beta. Система дала серьезный сбой, и он не смог вовремя взять управление, чтобы избежать смертельной аварии.

Оба виноваты. Фон Охайн, да упокоится он с миром, не имел оправдания садиться за руль в состоянии опьянения, и, похоже, FSD Beta от Tesla дала серьезный сбой.

Лучший комментарий от Effopec


Понравилось 16 людям

Судя по моему опыту, если машина просто съехала с дороги, я бы сказал, что, скорее всего, у него был включен TACC (адаптивный круиз-контроль), но он думал, что это FSD. Это может быть легкой ошибкой, и если вы ожидаете, что машина пройдет поворот, а она этого не делает, может быть уже слишком поздно исправиться. На мой взгляд, тот факт, что поворот руля выводит вас из режима автопилота, но сохраняет подачу мощности на колеса, может быть весьма опасным.

Посмотреть все комментарии

Но если копнуть немного глубже, это интересная ситуация.

Честно говоря, тот факт, что он был сотрудником Tesla, делает всю эту ситуацию намного сложнее. Это означает, что он должен был прекрасно знать, что нужно следить за FSD Beta и быть готовым взять управление в любой момент.

Теперь, возможно, из-за своего опьянения он решил, что будет хорошей идеей использовать FSD Beta на извилистых горных дорогах в состоянии опьянения, или, возможно, он рисковал с FSD Beta, даже когда не был пьян, на что указывает его жена, говоря о «ложном чувстве безопасности».

Это определенно то, что Tesla может улучшить: управление ожиданиями относительно FSD Beta, что нелегко сделать, когда вы буквально называете это «Full Self-Driving» (Полностью автономное вождение).