
Официальный аккаунт Tesla North America в X продвигал видеоинтервью с новым владельцем Cybertruck, который утверждает, что его офтальмолог рекомендовал ему купить Tesla с «Полным автопилотированием» из-за потери зрения.
Проблема в том, что сама Tesla классифицирует FSD как систему помощи водителю уровня 2, которая требует постоянного контроля со стороны водителя — и водитель несет ответственность за автомобиль в любое время. Эти два фактора фундаментально несовместимы.
Tesla продвигает видео
Tesla North America сделала репост видео от создателя контента, известного как Captain Eli, который сам себя описывает как «инвестора Tesla, поддерживающего Илона Маска». В данном ролике покупатель Cybertruck по имени Рики объясняет, что именно ухудшение зрения привело его к Tesla.
Рики говорит, что обратился к своему офтальмологу, чтобы обсудить возможность продолжать водить. По словам Рики, врач, который сам владеет двумя Tesla, посоветовал ему автомобиль с программным обеспечением «Полное автопилотирование» от Tesla. Затем офтальмолог организовал для Рики тест-драйв и даже встретился с ним в субботу, чтобы провести экскурсию по системе.
Во время тест-драйва Рики утверждает, что автомобиль «ехал сам» полтора часа по трем разным маршрутам, и он «ни разу не коснулся руля». Этот опыт убедил его в необходимости Cybertruck, который он купил специально ради программного обеспечения FSD.
«Итак, вы покупаете программное обеспечение, которое стоит вам определенную сумму денег — большие деньги — и оно идет вместе с автомобилем», — сказал Рики интервьюеру, когда его попросили подтвердить, что он купил автомобиль ради FSD.
Решение Tesla North America усилить этот конкретный отзыв — это то, что переводит ситуацию из разряда вызывающих беспокойство в безрассудные.
Почему это огромная проблема
На собственной странице поддержки Tesla для «Полного автопилотирования (под наблюдением)» четко указано, что система является системой частичной автоматизации SAE уровня 2. Эта классификация означает, что водитель должен оставаться полностью внимательным и вовлеченным в процесс вождения все время. Водитель несет ответственность за автомобиль, независимо от того, включена ли FSD или нет. Система «не делает автомобиль автономным», согласно собственной документации Tesla.
Это не двусмысленно. Уровень 2 означает, что водитель — это человек. Программное обеспечение — это помощник. Если человек не может безопасно управлять автомобилем, например, из-за потери зрения, то система уровня 2 не решает эту проблему. Она усугубляет ее, создавая иллюзию того, что автомобиль выполняет функции вождения, которые юридически и технически остаются ответственностью человека.
Мы подробно освещали то, как FSD вызывает опасную самоуспокоенность даже у опытных водителей. Раффи Крикорян, технический директор Mozilla и бывший глава отдела автономных автомобилей Uber, человек, который буквально создавал беспилотные автомобили и обучал водителей-испытателей, попал в аварию на своем Tesla Model X, используя FSD, потому что почти идеальная работа системы убаюкала его ложным чувством безопасности. Исследования показывают, что водителям требуется от 5 до 8 секунд, чтобы мысленно переключиться после того, как автоматизированная система передает управление обратно, но экстренные ситуации возникают быстрее, чем позволяет этот промежуток времени.
Если бывший руководитель отдела беспилотных автомобилей не может обеспечить надлежащее наблюдение, что произойдет, когда за рулем окажется человек с ухудшающимся зрением, полагаясь на FSD как на свои глаза?
Это происходит в то время, когда NHTSA усилила расследование в отношении FSD, охватив 3,2 миллиона автомобилей — шаг, который обычно предшествует отзыву. Агентство уже проводит отдельное расследование по более чем 80 нарушениям ПДД с участием FSD, и Tesla испытывает трудности даже с предоставлением запрошенных данных об авариях. Владелец Cybertruck уже подал иск, утверждая, что FSD стала причиной аварии. Собственный генеральный директор Tesla утверждал, что водители FSD могут писать SMS за рулем — при этом сохраняя классификацию FSD как уровня 2, чтобы избежать ответственности.
Шаблон ясен: Tesla продает FSD как нечто большее, чем просто помощь водителю, говорит клиентам, что они могут расслабиться, а затем ссылается на классификацию уровня 2 как на юридический щит, когда что-то идет не так.
Мнение Electrek
Готов поспорить на все, что этот твит Tesla North America когда-нибудь станет доказательством по делу о дорожно-транспортном происшествии с участием Tesla FSD. Адвокат истца поднимет его и скажет: «Собственный официальный аккаунт Tesla продвигал отзыв покупателя с нарушениями зрения, который приобрел автомобиль специально потому, что верил, что FSD сможет управлять им за него — и Tesla распространила это сообщение на миллионы».
Это достигает поистине опасного уровня. Рассмотрим цепочку событий, которую Tesla только что одобрила: офтальмолог якобы рекомендует Tesla FSD пациенту, теряющему зрение, этот пациент следует рекомендации, покупает Cybertruck специально ради программного обеспечения, с гордостью заявляет на камеру, что FSD ехал полтора часа, пока он ни разу не трогал руль, а официальный аккаунт Tesla продвигает это как позитивную клиентскую историю.
При этом собственная документация Tesla утверждает, что FSD — это система помощи водителю уровня 2, требующая полностью внимательного водителя, который «несет ответственность за автомобиль в любое время». При этом NHTSA проводит три параллельных расследования безопасности FSD. При этом мы документировали, как даже эксперты по автономному вождению становятся опасно самонадеянными за рулем Tesla с включенным FSD.
Если Tesla искренне верит, что FSD достаточно безопасен, чтобы на него мог полагаться человек с ухудшающимся зрением, то она должна классифицировать FSD как уровень 3 или выше и принять связанную с этим ответственность. Но Tesla этого не сделает, потому что уровень 2 позволяет ей получать маркетинговые преимущества, перекладывая при этом весь риск на водителя. Продвижение этого видео при сохранении такой юридической позиции — безумие.
Действительно, FSD теперь может проехать несколько часов, несколько сотен миль, даже несколько тысяч миль без критического вмешательства, но это далеко не то, что нужно для надежности автономности уровня 4. Что произойдет, когда критическое вмешательство потребуется через пару тысяч миль, а водитель не сможет взять управление на себя?
Опасным является то, что теперь ясно видно, как идея о том, что FSD — это больше, чем система помощи водителю, глубоко укоренилась в сообществе Tesla. Офтальмолог, возможно, знает о глазах и может быть владельцем Tesla, но это не означает, что он хорошо разбирается в возможностях FSD, а продвижение Tesla использования FSD для людей, теряющих зрение, этому не способствует.