Редкий взгляд на то, что видит и интерпретирует автопилот Tesla

Ранее мы сообщали о том, что видит автопилот Tesla с помощью набора из 8 камер, расположенных вокруг автомобиля, но мы редко вдаваясь в то, как автопилот понимает и интерпретирует то, что видит, через свою систему компьютерного зрения.

Сегодня ситуация меняется, поскольку несколько хакеров смогли наложить данные автопилота поверх снимков того, что видит система.

Как и в предыдущих наших обзорах того, что видит автопилот, это заслуга нашего любимого хакера Tesla «verygreen», который смог перехватить данные, собираемые Tesla с его собственного автомобиля.

С помощью нескольких других хакеров Tesla им удалось наложить данные на снимки того, что видит автомобиль, что привело к интересной визуализации того, что автопилот понимает, глядя через свои датчики.

Реклама — прокрутите вниз для получения дополнительного контента

Это не полный обзор того, что видит автопилот. Например, он не включает отслеживание полос движения.

Но он показывает, как система отслеживает объекты в поле зрения, причем способом, который мы никогда раньше не видели.

verygreen прислал нам несколько фотографий и видео вместе с интересным объяснением того, что им удалось сделать.

Вот что он сам говорит:

Не было бы здорово, если бы Tesla публиковала видео о том, как их автомобили видят вещи, подобно тому, как это делает Google? Ну, они этого не делают, поэтому задача остается за хакерами, которые пытаются разобраться.

Несмотря на то, что мой «единорог» с взломанной платой автопилота давно утерян, у меня осталось много снимков тех дней. Уверен, вы видели эти фотографии. Но мало кто знает, что вместе с этими снимками были включены и радарные данные. Теперь пользователь TMC DamianXVI (тот же парень, который написал интерполятор цветов для изначально черно-белых изображений) придумал способ наложения радарных данных на снимки.

Выглядит это так:

Теперь немного о значении кругов: цвет круга обозначает тип объекта:

  • зеленый – движущийся
  • желтый – остановленный
  • оранжевый – неподвижный
  • красный – неизвестно.

Размер круга обозначает расстояние до объекта; чем больше круг, тем ближе объект (так что мы не пытаемся очертить объект или приблизительно определить его размер – радар не может этого знать).

Толстый круг означает, что у объекта есть метка, и поэтому он, вероятно, отслеживается автопилотом. Появление и исчезновение связано с изменением вероятности существования.

Иногда круг находится в пустом пространстве – это, вероятно, связано с тем, что радар испытывает трудности с определением высоты объекта; попробуйте посмотреть выше или ниже, чтобы найти соответствующий объект. Также иногда радар вообще не может определить высоту (в этом случае используется значение -5). В этом случае круг рисуется на высоте 0.

Имейте в виду, что радар сообщает координаты в 3D, и нам нужно спроецировать их на 2D-изображение. Как и следовало ожидать, иногда при таких преобразованиях возникают ошибки.

Вот видео с наложенными радарными данными:

А теперь о новых захватывающих разработках. Хотя «единорога» больше нет, я наткнулся на запас видео- и фотоснимков, которые вы раньше не видели.

Вот видео, снятое где-то в октябре 2017 года, с наложенными радарными данными из этого запаса:

Но это еще не все, этот запас также включает довольно недавние снимки из марта 2018 года, когда Tesla, по-видимому, отлаживала реализацию слияния радара и видео для восприятия глубины.

Каждая из этих фотографий (сделанных прошивкой 2018.10.4) сопровождалась подробным списком объектов, которые видит и отслеживает автопилот. Он сообщает такие вещи, как размеры, относительную скорость, уверенность в существовании объекта, вероятность того, что объект будет препятствием, и так далее.

Последний снимок интересен тем, что автопилот явно распознает и отслеживает стоящий грузовик, даже присвоив ему 25% рейтинг препятствия (хотя работнику, к сожалению, нет). Это должно положить конец теории о том, что остановленные транспортные средства не видны (теперь автопилот может их видеть и игнорировать – но это совсем другая тема).

Еще одно интересное наблюдение, которое можно заметить на второй и третьей фотографиях – они отображают одну и ту же сцену, снятую с помощью узкоугольной и основной камер. Интересно то, что, по-видимому, только основная (более широкоугольная) камера используется для обнаружения встречного движения.

Эти ограничивающие рамки также подтверждают многие теории о выходных данных нейронных сетей зрения, которые пользователь TMC jimmy_d представил в сообщении на форуме здесь.

Конечно, это не отражает полное внутреннее состояние автопилота, мы не видим обнаруженные/отслеживаемые полосы движения или информацию, полученную из карт, но это дает нам еще один взгляд за кулисы.