
Вирусное видео с видеорегистратора показывает, как Tesla Cybertruck врезается в бетонное ограждение эстакады на шоссе в Хьюстоне, предположительно используя функцию «Полностью автономное вождение» (Full Self-Driving). Илон Маск отреагировал, заявив, что журналы Tesla показывают, что водитель отключил систему за 4 секунды до столкновения.
Поклонники Tesla восприняли это как еще один пример того, как СМИ распространяют FUD (страх, неопределенность, сомнение) о компании. Но просмотр самого видео рассказывает более детальную — и более тревожную — историю о реальной проблеме с FSD.
Авария
Инцидент произошел 18 августа 2025 года на эстакаде 69 Eastex Freeway в Хьюстоне. Джастин Сен-Амур управляла своим Cybertruck с включенной функцией «Полностью автономное вождение», когда автомобиль приближался к разветвлению эстакады в форме буквы Y. Дорога требовала от автомобиля следовать правому повороту.
Вместо этого, как видно на записи видеорегистратора, опубликованной юридической фирмой истца Hilliard Law и показанной Fox News, Cybertruck несется прямо на предполагаемой скорости шоссе, прорываясь через конусы, разделяющие полосы, и врезается в бетонное ограждение на краю эстакады. Части автомобиля отлетели при ударе.
У Сен-Амур в салоне находился ее 1-летний ребенок. Ребенок не пострадал, но сама Сен-Амур получила два грыжи межпозвоночных дисков в пояснице, один в шее, растяжение связок запястья, а также онемение и слабость в правой руке. Она подает иск против Tesla на сумму более 1 миллиона долларов, в котором содержится 16 обвинений в халатности, а также необычное заявление о том, что Tesla проявила халатность, оставив Илона Маска на посту генерального директора.
Ответ Маска и защита «4 секунд»
После того как видео стало вирусным, Маск написал в X: «Журналы показывают, что водитель отключил автопилот за четыре секунды до аварии». Пропагандисты Tesla подхватили это, представляя инцидент как доказательство того, что СМИ несправедливо обвиняют FSD в авариях, которые происходят при ручном управлении.
Но такое толкование полностью упускает суть.
Адвокат Сен-Амур, Боб Хиллиард, признал, что его клиент отключил систему перед столкновением. Причина, по которой она его отключила, — критическая деталь: система уже выходила из строя. Как выразился Хиллиард, она попыталась взять управление на себя, но было слишком поздно, чтобы скорректировать траекторию движения автомобиля.
Внимательно посмотрите видео. Cybertruck приближается к повороту эстакады на полной скорости шоссе без признаков замедления или поворота. Похоже, система полностью пропустила поворот. К тому времени, когда водитель понял, что FSD не справится с поворотом на такой скорости, и схватился за руль, автомобиль уже двигался по прямой траектории к ограждению. Четырех секунд недостаточно, чтобы скорректировать движение многотонного грузовика, движущегося на скорости шоссе к бетонной стене, в зависимости от уровня вашего мастерства вождения.
Настоящая проблема: самоуверенность и ловушка надзора
Этот инцидент — хрестоматийный пример того, что мы документируем в Electrek годами: фундаментальный недостаток в подходе Tesla к «контролируемой» автономии.
Буквально вчера мы сообщали о том, как бывший руководитель отдела автопилотирования Uber Раффи Крикорян попал в аварию на своем Tesla с FSD и написал разгромное эссе в The Atlantic о проблеме «снижения бдительности». Исследования однозначны: водителям требуется от 5 до 8 секунд, чтобы мысленно вернуться в режим контроля после сбоя автоматической системы. Чрезвычайные ситуации развиваются быстрее.
«Полностью автономное вождение» Tesla работает достаточно хорошо в большинстве случаев, что водители ему доверяют. Это доверие и есть проблема. Когда система внезапно выходит из строя, как это произошло при приближении к этому повороту эстакады, водитель оказывается в наихудшей возможной ситуации: не полностью сосредоточен, вынужден анализировать происходящее, принимать решение и выполнять коррекцию в автомобиле, который уже движется к катастрофе.
Тот факт, что водитель отключил FSD за 4 секунды до аварии, не доказывает, что система невиновна. Это доказывает прямо противоположное: водитель понял, что FSD выходит из строя, и отчаянно пытался исправить ситуацию, но система уже поставила ее в безвыходное положение.
Это та же схема, которую мы задокументировали в ноябре, когда писали о проблеме Tesla «FSD Шрёдингера»: когда FSD работает, Tesla берет на себя заслуги. Когда происходит авария, обвиняют водителя.
Нарастающая закономерность
Это далеко не единичный случай. В начале этого месяца вирусное видео показало, как FSD заставляет Tesla проехать через шлагбаумы железнодорожного переезда перед приближающимся поездом. Постоянное расследование NHTSA в отношении FSD задокументировало 80 нарушений ПДД, включая 14 аварий и 23 травмы. А Tesla только что пришлось выплатить судебное решение на сумму 243 миллиона долларов за аварию с автопилотом — сумма, которая указывает на то, к чему склоняются суды в подобных делах.
Тем временем полностью автономные автомобили Waymo работают без какого-либо надзора со стороны водителя в нескольких городах, демонстрируя отличные показатели безопасности. Это эталон. А не система, которая работает в 99% случаев, а в 1% оставляют человека разбираться с тем, что может его убить.
Мнение Electrek
Фанаты Tesla, использующие «отключение за 4 секунды» как уловку, упускают из виду главное. Да, технически водитель управлял автомобилем в момент столкновения. Но она управляла им, потому что FSD уже выходил из строя, двигаясь слишком быстро перед этим резким поворотом — он двигался прямо к бетонной стене на скорости шоссе без признаков коррекции.
Каждый, кто часто пользовался FSD или Autopilot и представляет это 4-секундное отключение как «уловку», неискренен, и это касается и Илона Маска.
У меня десятки тысяч миль пробега на FSD, и я сталкивался с тем, что система слишком быстро входила в поворот как минимум полдюжины раз.
Мы говорили это раньше и будем говорить снова: проблема с FSD не в том, что происходит, когда водитель внимателен, а система работает. Проблема в том, что происходит, когда система дает вам все основания ей доверять, а затем внезапно перестает работать. Водитель должен распознать сбой, оценить ситуацию, принять решение о коррекции и физически выполнить ее, и все это за меньшее время, чем нужно системе, чтобы создать опасность.
Маск и пропагандисты Tesla могут сколько угодно ссылаться на журналы. Видео показывает, что действительно имеет значение: FSD приближается к стандартному повороту на шоссе на полной скорости без каких-либо признаков того, что он собирается его пройти. Это и есть сбой. Все, что произошло потом, включая паническое отключение, является следствием этого сбоя.
Утверждение, что это было «ручное вождение, а не FSD», технически верно для последних 4 секунд и глубоко нечестно относительно всей последовательности событий. Это именно та игра с ответственностью, которую суды все чаще отклоняют, как ясно показывает приговор на 243 миллиона долларов. Tesla создала систему, продавала ее как «Полностью автономное вождение» и получает прибыль от неопределенности. В какой-то момент ей придется нести ответственность за последствия.