Собственные данные Tesla о Robotaxi подтверждают, что аварийность в 3 раза выше, чем у людей, даже с монитором

Начинающая программа Tesla по выпуску роботакси стартовала с трудом. Новые данные NHTSA о дорожно-транспортных происшествиях в сочетании с новым раскрытием информации Tesla о пробеге роботакси показывают, что автономные автомобили Tesla попадают в аварии гораздо чаще, чем автомобили под управлением человека, и это при наличии в каждом автомобиле оператора безопасности.

Данные

Согласно отчетам о дорожно-транспортных происшествиях NHTSA в рамках Постоянного общего распоряжения, Tesla сообщила о 9 авариях с участием своего парка роботакси в Остине, штат Техас, в период с июля по ноябрь 2025 года:

  • Ноябрь 2025 г.: Столкновение при правом повороте
  • Октябрь 2025 г.: Инцидент при скорости 18 миль в час
  • Сентябрь 2025 г.: Столкновение с животным на скорости 27 миль в час
  • Сентябрь 2025 г.: Столкновение с велосипедистом
  • Сентябрь 2025 г.: Столкновение сзади при движении задним ходом (6 миль в час)
  • Сентябрь 2025 г.: Столкновение с неподвижным объектом на парковке
  • Июль 2025 г.: Столкновение с внедорожником в зоне строительных работ
  • Июль 2025 г.: Столкновение с неподвижным объектом, повлекшее за собой легкие травмы (8 миль в час)
  • Июль 2025 г.: Столкновение с внедорожником при правом повороте

Согласно диаграмме в отчете Tesla о квартальных доходах за 4 квартал 2025 года, показывающей совокупный пробег роботакси, по состоянию на ноябрь 2025 года парк проехал примерно 500 000 миль. Это означает примерно одну аварию на каждые 55 000 миль.

Для сравнения, водители-люди в Соединенных Штатах в среднем попадают в дорожно-транспортные происшествия, о которых сообщается в полицию, примерно один раз на каждые 500 000 миль, согласно данным NHTSA.

Это означает, что роботакси Tesla попадают в аварии с частотой, в 9 раз превышающей среднюю частоту у водителей-людей.

Однако эта цифра не включает инциденты, о которых не сообщалось в полицию. Если добавить их, или, вернее, оценку их количества, то у людей аварии случаются примерно раз в 200 000 миль, что все равно намного лучше, чем у роботакси Tesla в Остине.

Проблема с оператором безопасности

Вот что делает эти данные особенно удручающими: в каждом роботакси Tesla, чьи мили пробега были указаны, находился оператор безопасности, который мог вмешаться в любой момент.

Это не полностью автономные транспортные средства, работающие без поддержки. В машине сидит человек, чья единственная задача — предотвращать аварии. И тем не менее, частота аварий Tesla все равно почти на порядок хуже, чем у обычных водителей, работающих самостоятельно.

Waymo, для сравнения, управляет полностью беспилотным парком, без оператора безопасности, без человеческой поддержки, и сообщает о значительно лучших показателях безопасности. Waymo преодолела более 25 миллионов автономных миль и поддерживает частоту аварий значительно ниже средних показателей для людей.

Пробел в прозрачности

Пожалуй, более тревожным, чем частота аварий, является полное отсутствие прозрачности со стороны Tesla относительно того, что произошло.

Каждое описание аварии роботакси Tesla в базе данных NHTSA отредактировано одной и той же фразой: «[РЕДАКТИРОВАНО, МОЖЕТ СОДЕРЖАТЬ КОНФИДЕНЦИАЛЬНУЮ КОММЕРЧЕСКУЮ ИНФОРМАЦИЮ]».

Мы знаем, что роботакси Tesla сбил велосипедиста. Мы не знаем, что произошло.
Мы знаем, что одно из них причинило легкие травмы. Мы не знаем, что произошло.
Мы знаем, что одно из них сбило животное на скорости 27 миль в час. Мы не знаем, что произошло.

Между тем, Waymo, Zoox и другие операторы AV предоставляют полные описания каждого инцидента. Вот типичный отчет Waymo из того же набора данных:

«AV Waymo двигался на север по N. 16th Street в левой полосе, когда он замедлился, чтобы уступить дорогу пешеходу, который начал переходить проезжую часть. Пока пешеход продолжал переходить, а Waymo AV оставался на месте, легковой автомобиль, приближающийся сзади, столкнулся с задней частью неподвижного Waymo AV.»

Это ответственность. Это прозрачность. Tesla не предоставляет ничего из этого.

Очевидно, что Tesla не несет ответственности за некоторые из этих аварий, но сам факт того, что мы этого не знаем, полностью связан с собственной секретностью Tesla.

Отличным примером является инцидент, произошедший на прошлой неделе в Санта-Монике, Калифорния, где Waymo сбил ребенка в школьной зоне. Звучит ужасно, не правда ли? Потенциально инцидент, который мог бы положить конец компании, но Waymo опубликовал все детали, которые подтвердили, что ребенок выбежал на дорогу, скрытый за внедорожником. Автомобиль Waymo немедленно обнаружил ребенка, и хотя у него не было времени предотвратить столкновение, он смог применить тормоза и снизить скорость с 17 миль в час до менее 6 миль в час до контакта.

В результате ребенок был в порядке. Waymo даже утверждает, что его модели показывают, что водитель-человек, вероятно, отреагировал бы медленнее и сбил бы ребенка в два раза быстрее.

Мнение Electrek

Здесь есть как хорошее, так и плохое. С одной аварией в октябре и одной в ноябре, похоже, наблюдаются улучшения.

Но общие данные отрезвляют.

Авария каждые 55 000 миль, при наличии оператора безопасности в автомобиле, — это не готовность к роботакси. Это даже близко не так. А полное отсутствие прозрачности относительно причин этих аварий делает невозможным уверенность в том, что Tesla извлекает из них уроки.

Waymo управляет полностью беспилотными автомобилями в нескольких городах и публикует подробную информацию о каждом инциденте. Tesla управляет контролируемыми автомобилями в одной геозоне и редактирует все.

Если Tesla хочет, чтобы к ней относились серьезно как к оператору роботакси, ей необходимо сделать две вещи: значительно улучшить свои показатели безопасности и начать честно рассказывать о том, что происходит на дорогах Остина.

Прямо сейчас она не справляется ни с тем, ни с другим.