
Новый отчет, основанный на интервью с бывшими тест-драйверами, входившими во внутреннюю команду Tesla по тестированию автопилота, раскрывает опасные крайности, на которые готова пойти Tesla для тестирования своих технологий автономного вождения.
Хотя можно утверждать, что клиенты Tesla сами являются тест-драйверами автопилота, поскольку автопроизводитель внедряет свою систему, называемую «автопилотом под наблюдением» (FSD), компания также имеет собственный штат внутренних тестировщиков.
Ранее мы сообщали о том, что Tesla нанимает водителей по всей стране для тестирования своих последних обновлений программного обеспечения «FSD».
Теперь Business Insider опубликовал новый отчет после интервью с девятью такими тест-драйверами, которые работают над конкретным проектом под названием «Rodeo». Они описывают проект:
Тест-драйверы рассказали, что они иногда сталкивались с опасными сценариями, особенно те водители из команды «критического вмешательства» проекта Rodeo, которые, по их словам, обучены ждать как можно дольше, прежде чем взять управление автомобилем на себя. Инженеры Tesla говорят, что для этого есть причина: чем дольше автомобиль продолжает ехать самостоятельно, тем больше данных они получают. Эксперты в области технологий и безопасности автопилота говорят, что такой подход может ускорить разработку программного обеспечения, но рискует безопасностью тест-драйверов и людей на дорогах общего пользования.
Один из бывших тест-драйверов описал это как «ковбой на быке, и ты просто пытаешься удержаться как можно дольше» — отсюда и название программы.
Помимо того, что иногда они используют версию Tesla FSD, которая не выпущена для клиентов, тест-драйверы в целом используют FSD так же, как и большинство клиентов, при этом основное отличие заключается в том, что они чаще пытаются довести его до предела.
Business Insider более подробно объясняет «команду критического вмешательства» в рамках проекта Rodeo:
Тест-драйверы критического вмешательства, являющиеся одними из самых опытных участников проекта Rodeo, позволяют системе продолжать движение, даже когда она совершает ошибку. Они обучены проводить «вмешательства» — принимать ручное управление автомобилем — только для предотвращения аварии, говорят трое водителей критического вмешательства и пятеро других водителей, знакомых с миссией команды. Водители команды и внутренние документы свидетельствуют о том, что автомобили проезжали на красный свет, выезжали на другие полосы движения или не соблюдали установленные скоростные ограничения при включенном FSD. Водители заявили, что позволяли FSD оставаться у руля во время этих инцидентов, поскольку руководители поощряли их стараться не вмешиваться.
Это поведение, которое FSD известен своим проявлением в клиентских автомобилях, но водители обычно вмешиваются, прежде чем ситуация зайдет слишком далеко.
Цель этой команды — зайти слишком далеко.
Один из тест-драйверов сказал:
«Ты практически весь восьмичасовой рабочий день на адреналине. Есть ощущение, что ты на грани чего-то очень плохого».
Другой тест-драйвер описал, как Tesla FSD чуть не сбила велосипедиста:
«Я отчетливо помню, как этот парень спрыгнул с велосипеда. Он был в ужасе. Машина рванулась на него, и все, что я мог сделать, это резко нажать на тормоз».
По сообщениям, команда была довольна этим инцидентом. «Он сказал мне: «Это было идеально». Именно этого они от меня и хотели», — сказал водитель.
Вы можете прочитать полный отчет Business Insider с множеством других примеров опасных действий команды с ничего не подозревающими членами общественности, включая пешеходов и велосипедистов.
Как это соотносится с другими компаниями, разрабатывающими технологии автономного вождения?
Лидер рынка Waymo, как сообщается, имеет команду, занимающуюся работой, аналогичной «критической команде вмешательства» Tesla Rodeo, но разница в том, что они проводят тестирование в закрытых помещениях с манекенами.
Мнение Electrek
Это, похоже, симптом подхода Tesla, основанного на принципах стартапа «двигайся быстро, ломай вещи», но я не думаю, что это уместно.
Справедливости ради, ни один из девяти тест-драйверов, опрошенных BI, не сообщил об аварии, но все они описали очень опасные ситуации, в которые были вовлечены посторонние без их ведома.
Я считаю, что это плохая идея и этически неправильно. Илон Маск утверждает, что Tesla ставит «безопасность на первое место», но примеры из этого отчета звучат совсем не безопасно.
Лучший комментарий от Yerch McYerchikins
Понравилось 9 людям
Я недостаточно знаю, как это работает, чтобы иметь свое мнение, но статья поднимает вопрос, на который, я надеюсь, ответят те, кто обладает большими знаниями: как это должно «обучить» автомобиль ездить? Насколько я понимаю, машинное обучение происходит во время вмешательств, например, остановка автомобиля, когда он собирается проехать на красный свет, создает новую ситуацию, в которой он начинает распознавать вариации красных сигналов. Разве разрешение автомобилю проезжать на красный свет не подтвердит для системы, что он правильно преодолел перекресток? Мне хотелось бы понять, чего именно ожидают от тест-драйверов, работающих таким образом.
Посмотреть все комментарии