Бывший глава отдела беспилотных автомобилей Uber разбил свою Tesla на автопилоте и выявил проблему контроля

Раффи Крикорян, технический директор Mozilla и бывший руководитель отдела беспилотных автомобилей Uber, разбил свой Tesla Model X, используя функцию «Full Self-Driving» (Полностью автономное вождение) на жилой улице. В машине находились его дети.

В новой статье, опубликованной в The Atlantic, Крикорян подробно описывает аварию и предлагает, возможно, наиболее информированный на сегодняшний день критический анализ фундаментальной проблемы подхода Tesla к «контролируемой» автономии — от человека, который буквально занимался разработкой систем автопилота всю свою профессиональную жизнь.

Авария

Крикорян описывает воскресную поездку, которую он совершал сотни раз — отвозил сына на встречу бойскаутов по жилым улицам района Залива. Его Tesla была в режиме FSD, и система управляла автомобилем без проблем, пока внезапно не перестала это делать.

Когда Model X входила в поворот, FSD, по словам Крикоряна, как будто потеряла ориентацию. Руль дернулся в непредсказуемом направлении, а машина начала замедляться без предупреждения. Он схватился за руль, но не успел среагировать. Автомобиль врезался в бетонную стену и был полностью уничтожен. Крикорян получил сотрясение мозга, боли в шее и головные боли в течение нескольких дней. Его дети не пострадали.

Что делает этот рассказ особенно поразительным, так это опыт Крикоряна. В Advanced Technologies Center компании Uber он руководил командой, создававшей беспилотные автомобили, и обучал водителей-операторов, когда и как вмешиваться при сбое системы автопилота. За два года его руководства пилотными программами Uber не было зафиксировано ни одного случая травм.

Несмотря на весь этот опыт, FSD все равно подвел его.

Он пишет, что начал использовать FSD на автомагистралях, где четкие разметки полос и предсказуемый трафик делали это разумным. Затем он попробовал его на местных дорогах, оно работало хорошо, и это вошло в привычку. До аварии его руки были на руле. Он делал то, что просит Tesla от водителей: следить, а не управлять. Но, как он сам выражается, система приучила его доверять ей.

После аварии его имя было в страховом отчете. Не Tesla. Именно так работают все аварии с FSD в рамках текущей правовой системы: система Tesla классифицируется как уровень 2, что означает, что водитель несет ответственность в любое время.

Крикорян также поднимает тревожный вопрос о практике сбора данных Tesla. Автомобиль постоянно записывает положение рук водителя, время реакции и отслеживание взгляда, а Tesla использует эти данные после аварий, чтобы переложить вину на водителей. Тем временем водители, запрашивающие свои собственные данные, сообщают, что получили лишь фрагменты. В знаковом деле во Флориде о неправомерной смерти, которое привело к присуждению 243 миллионов долларов, истцам пришлось нанимать хакера, чтобы извлечь критически важные данные с чипа бортового компьютера разбившегося автомобиля, поскольку Tesla утверждала, что данные не могут быть найдены.

Проблема контроля

Самая ценная часть эссе Крикоряна — его анализ того, почему «контролируемый» автопилот принципиально неисправен, тема, которую мы подробно освещали на Electrek.

Его основной аргумент: Tesla просит людей контролировать систему, которая специально разработана так, чтобы контроль казался бессмысленным. Как он выражается, ненадежная машина держит вас в напряжении, а совершенная машина не нуждается в надзоре, но та, что работает *почти* идеально, создает ловушку, в которой водители доверяют ей ровно настолько, чтобы перестать обращать внимание.

Исследования подтверждают это. Психологи называют это «снижением бдительности»: наблюдение за почти совершенной системой утомительно, скука ведет к блужданию мыслей, и водителям требуется 5-8 секунд, чтобы мысленно вернуться к управлению после того, как автоматизированная система передает контроль обратно. Но чрезвычайные ситуации развиваются быстрее, чем это.

Крикорян ссылается на исследование Института страхования дорожной безопасности, которое показывает, что всего через один месяц использования адаптивного круиз-контроля водители стали более чем в шесть раз чаще смотреть в свои телефоны. Собственный веб-сайт Tesla предупреждает пользователей FSD не терять бдительности, но плавная работа системы активно способствует этой потере бдительности.

Он приводит два известных случая аварий, чтобы проиллюстрировать невыполнимую математику. В аварии 2018 года в Маунтин-Вью, в результате которой погиб инженер Apple Уолтер Хуанг, у водителя было шесть секунд до того, как его Tesla въехала в бетонный барьер. Он ни разу не коснулся руля. В аварии Uber в Темпе, Аризона, в 2018 году, датчики обнаружили пешехода за 5,6 секунды до столкновения, но водитель-оператор отвлекся менее чем за секунду до него.

В случае с Крикоряном он принял меры, но его попросили переключиться из состояния пассажира в состояние пилота за доли секунды, преодолев месяцы тренировки. Журналы показывают, что он повернул руль. Они не показывают невыполнимую математику этого перехода.

Схема, которую описывает Крикорян, должна показаться знакомой любому, кто следил за спорами вокруг FSD от Tesla: приучить водителя полагаться на систему, снизить его бдительность месяцами плавной работы, а затем сослаться на условия обслуживания и обвинить его, когда что-то идет не так. Когда FSD работает, Tesla получает заслуги. Когда нет — винят водителя.

Крикорян также противопоставляет подход Tesla примечательному примеру ответственности со стороны конкурента. В июле 2025 года BYD объявила, что оплатит ущерб, вызванный авариями с участием ее системы автоматической парковки — без необходимости подавать заявление в страховую компанию и без влияния на запись водителя. Это ограниченный пример, но он демонстрирует, что совместная ответственность между автопроизводителем и водителем — это выбор, а не невозможность.

Мнение Electrek

Мы говорим это годами: FSD от Tesla становится опаснее по мере улучшения. Чем плавнее он работает, тем больше он убаюкивает водителей ложным чувством безопасности — и тем труднее вернуться к внимательности, когда система неизбежно совершает ошибку.

Что делает рассказ Крикоряна таким убедительным, так это то, что он не случайный критик Tesla. Он создавал беспилотные автомобили в Uber. Он обучал водителей-операторов протоколам вмешательства. Он интеллектуально понимал риск, и все равно попал под влияние снижения бдительности. Если кто-то с таким уровнем экспертизы мог попасться, то у обычного владельца Tesla нет никаких шансов.

Маркировка «контролируемый» — это юридический щит, а не решение для безопасности. Tesla знает, что люди не могут надежно контролировать систему, которая работает в 99% случаев — исследования ясны, и Крикорян излагает это предельно четко. Тем не менее, компания продолжает продавать «Full Self-Driving», ссылаясь на мелкий шрифт, когда что-то идет не так.

Поскольку NHTSA в настоящее время расследует более 80 инцидентов с FSD, охватывающих 2,88 миллиона автомобилей, и растет поток судебных исков после вердикта в размере 243 миллионов долларов во Флориде, давление на Tesla с целью действительно разделить ответственность за сбои ее системы нарастает. BYD показала, что это возможно. Вопрос в том, выберет ли Tesla когда-нибудь ответственность вместо перекладывания вины.