Бот-билетёр уже здесь: город фиксирует водителей, которых ИИ считает плохими

В высокотехнологичном начинании, которое нам всем по душе и совсем не похоже на антиутопию, город Барселона загружает данные с камер городских автобусов в продвинутый ИИ, но они клянутся, что пока не используют эти записи для выдачи штрафов плохим водителям. Пока.

Барселона и её зона низких выбросов на кольцевых дорогах завоевали множество поклонников, ограничивая движение автомобилей с ДВС в центре города. Последняя идея города по продвижению массового транспорта — развёртывание системы искусственного интеллекта, разработанной Hayden AI, для автоматического контроля за соблюдением правил на выделенных полосах и остановках с целью улучшения циркуляции автобусов — но, хотя кажется, что это работает как задумано, это вызывает совершенно другие вопросы.

«Автобусные полосы созданы для обеспечения надёжного, быстрого и удобного обслуживания общественного транспорта. Но частные автомобили, незаконно использующие автобусные полосы, делают это невозможным», — объясняет Лайя Бонет, первый заместитель мэра, отвечающая за городское планирование, экологический переход, городские службы и жилищное строительство в мэрии Барселоны. «Мы рады сотрудничать с Hayden AI, чтобы узнать, где возникают эти проблемы и как они влияют на наше обслуживание общественного транспорта».

В настоящее время система, работающая в рамках пилотной программы на городских автобусных маршрутах H12 и D20, использует камеры, установленные на электрических автобусах города, для выявления транспортных средств, совершающих статические нарушения на автобусных полосах и остановках (то есть, останавливающихся или паркующихся там, где не следует). Затем система Hayden AI анализирует эти данные и предоставляет статистическую информацию о том, что она фиксирует во время ежедневного маршрута автобуса.

Реклама — прокрутите дальше, чтобы увидеть больше контента

Hayden AI заявляет, что, хотя камеры фотографируют и записывают видеопоследовательности, а также собирают контекстную информацию о нарушении, их камеры не записывают номерные знаки или людей, и водителям или владельцам транспортных средств штрафы не выписываются.

Пока всё хорошо, не так ли? Но именно то, что произойдет после окончания шестимесячной пилотной программы, кажется, должно вызывать тревогу.

Большой Брат Автобус следит


Табличка «Ведётся запись» в автобусе; фото: Мэрия Барселоны.

Записи просматриваются вручную сотрудником Transports Metropolitans de Barcelona (TMB), который, по сообщениям, в мае просмотрел около 2500 нарушений, выявленных ИИ. Но, хотя система не используется для выдачи предписаний во время пилотной программы, она легко может быть использована.

И, фактически, это уже произошло… и ИИ облажался по полной.

ИИ выписывает тысячи ошибочных штрафов


Нью-Йорк выписал сотни тысяч штрафов; via NBC.

Когда в начале этого года ИИ получил возможность выписывать штрафы в Нью-Йорке, он выписал более 290 000 штрафов (да, вы не ослышались: двести девяносто тысяч) всего за три месяца, сгенерировав для города почти 21 миллион долларов дохода. Была лишь одна проблема: тысячи этих водителей не сделали ничего плохого.

Более того, штрафы, сгенерированные камерами с поддержкой ИИ, должны были быть утверждены только после проверки человеком, но либо этого не произошло, либо это произошло, и соответствующий оператор-человек не обращал внимания, либо (возможно, худший вариант) нарушения были ошибками или галлюцинациями, и человеческий проверяющий не смог отличить одно от другого.

В тестах OpenAI своих новейших моделей рассуждений o3 и o4-mini компания обнаружила, что модель o3 ошибалась в 33% случаев во время тестов PersonQA, в которых боту задают вопросы о публичных фигурах. При ответах на короткие фактические вопросы в тестах SimpleQA компании OpenAI заявила, что o3 ошибался в 51% случаев. Модель o4-mini показала себя еще хуже: она ошибалась в 41% случаев в тесте PersonQA и в 79% случаев в тесте SimpleQA, хотя OpenAI заявила, что ее худшая производительность была ожидаемой, поскольку это меньшая модель, разработанная для более быстрой работы. Последнее обновление ChatGPT, GPT-4.5, ошибается реже, чем модели o3 и o4-mini. Компания заявила, что при выпуске GPT-4.5 в феврале модель показала частоту ошибок 37,1% в тесте SimpleQA.

FORBES

Лучший комментарий от Bill Kerr


Понравилось 10 людям

ИИ был забавным, когда был шуткой, трюком для вечеринок. Чем больше он становится неотъемлемой частью правительства и бизнеса, тем болезненнее мы будем осознавать его недостатки. Основная проблема в том, что ИИ лучше уверенно звучит правильно, чем на самом деле быть правым.

Посмотреть все комментарии

Не знаю, как вы, ребята, но если бы у нас был местный дорожный полицейский, который ошибался бы в 33% случаев (в лучшем случае), я бы удивился, если бы он долго сохранял свою работу. Но ИИ? У ИИ есть многомиллиардный поезд хайпа и армии недоученных последователей, говорящих о сингулярностях и создании для себя блондинок-роботов с грудью. И как только ИИ начнет выписывать штрафы ИИ, который управляет вашим роботакси, он может просто попросить своего приятеля ИИ из банка перевести ваши деньги. Никакой человек не нужен, ни на каком этапе, и экономика будет продолжать процветать.

Но, как бы — я уверен, что это нормально. Примите будущее и всё такое… верно?

ИСТОЧНИКИ: Hayden AI, через Forbes, Motorpasión.


Ваши персональные предложения по домашней солнечной энергии легко сравнить онлайн, и вы получите доступ к непредвзятым энергетическим консультантам, которые помогут вам на каждом этапе. Лучшая часть? Вам не позвонят ни разу, пока вы не решите продолжить. Начните без проблем, нажав здесь.