Транспорт
Применение искусственного интеллекта (ИИ) на транспорте охватывает множество направлений [1,2,3], способствуя повышению эффективности, безопасности и удобства. К таким направлениям относятся:
Автономное управление движением
Оптимизация транспортных потоков
Предиктивное техническое обслуживание
Поддержка принятия решений
Транспортная безопасность
Персонализация пассажирских сервисов
Учитывая критическое влияние сбоев в транспортной системе на устойчивость всего народно-хозяйственного комплекса, ключевыми требованиями к системам ИИ на транспорте являются доверие, безопасность и надежность.
В разрабатываемых и уже принятых стандартах, служащих руководством для применения технологий ИИ на транспорте, отмечается, что разработка и внедрение систем ИИ должны соответствовать «всем необходимым нормам безопасности и нормативным требованиям, чтобы свести к минимуму риск аварий и защитить жизнь людей, окружающую среду и экономические интересы» [1].
Основные источники рисков и способы их минимизации
Анализ проведем в соответствии с жизненным циклом систем ИИ.
Первый этап заключается в сборе и подготовке данных для обучения моделей ИИ. Основными данными на транспорте являются данные о движении транспортных средств (ТС), включая данные, получаемые в режиме реального времени, данные о грузах и грузоперевозках, данные об окружающей среде, данные об инфраструктуре.
Конфиденциальность, безопасность и качество данных имеют решающее значение для построения надежных систем ИИ, поэтому в регулирующих документах цепочкам поставок данных уделяется особое внимание [4, 5, 6]. Всесторонняя проверка данных является необходимой процедурой, которая должна проводиться с привлечением отраслевых экспертов [1], а в некоторых случаях и экспертов по ИИ.
Далее следует этап создания и обучение модели ИИ. Их необходимо выполнять в защищенных программных средах и с использованием доверенного программного обеспечения. Как и для других критических отраслей, модели ИИ, разрабатываемые для транспорта, должны быть гарантированно свободны от каких-либо незадекларированных или вредоносных функций – например, тех, которые могут привести к краже данных телеметрии или изменению поведения модели по триггерам во входных данных. Тщательный анализ внутренней логики модели и ее компонентов позволяет минимизировать риск использования моделей с вредоносной нагрузкой.
К системам ИИ для управления ТС предъявляются дополнительные требования, включая тестирование на цифровых двойниках и испытательных полигонах, прозрачность работы и интерпретируемость результата вывода (решения) для оператора ТС (водителя), а также бесшовную передачу контроля оператору ТС и ряд других. Более подробно этот класс систем рассмотрен в разделе, посвященном высокоавтоматизированному автомобильному транспорту.

К сожалению, качественные обучающие данные и точная, функционально верифицированная модель ИИ еще не гарантируют в полной мере безопасность системы ИИ. Дело в том, что на стадии эксплуатации система ИИ может быть атакована злоумышленником через входные данные. Например, данные тех или иных измерительных систем могут быть умышленно модифицированы так, чтобы вывод модели ИИ не соответствовал истинным измерениям. Для ТС, использующих данные объективного контроля, такие атаки представляют особую опасность, учитывая тот факт, что вносимые вредоносные изменения могут быть крайне малы, а их влияние на систему ИИ весьма существенным. Алгоритмы атак на входные данные достаточно разнообразны и их реализуемость была много раз продемонстрирована на практике. Одним из эффективных средств борьбы с этим видом атак является так называемое состязательное обучение модели ИИ [7, 8].
Отдельно стоит отметить и потенциальные уязвимости оборудования для вывода моделей ИИ, но в применении к транспорту это тема сложнообозрима по причине огромного разнообразия используемых аппаратных решений. Краткое описание успешных атак на оборудование ИИ приведен в соответствующем разделе сайта.
Мы рассмотрели процесс создания системы ИИ и сопутствующие риски в основном ориентируясь на области автопилотирования, грузоперевозок, мониторинга технологических процессов на транспорте. За скобками осталась такая важная область, как пассажироперевозки, в которой ИИ может использоваться в том числе и для взаимодействия непосредственно с человеком. В этой сфере актуальны риски, связанные с некорректной работой генеративного ИИ, в первую очередь - больших языковых моделей (LLM) в персональных ИИ-помощниках.
Риски, связанные с некорректной работой генеративного ИИ
Отметим лишь некоторые из возможных рисков:
- ошибки в планировании поездок (маршрутах, видах транспорта, времени отправления и длительности);
- обман и манипулирование (предложение заведомо более дорогих услуг под видом оптимальных, фальсификация данных о расписаниях транспорта и доступных маршрутах);
- дискриминация (игнорирование запросов от определенных групп пассажиров или выдачи в запросах определенных локаций);
- утечка данных пользователей.
Сбои в работе ИИ могут возникать по разным причинам. Иногда это результат злонамеренных действий – атак отравлением обучающих данных или подачей на вход системы ИИ состязательных примеров, в том числе специально адаптированных для LLM (джейлбрейки, инъекции промпта). Но нередко проблема кроется в самом ИИ и связана с особенностями алгоритмов. В частности, недостоверная информация может генерироваться ИИ не только в результате атаки. Она может быть следствием так называемого эффекта «галлюцинаций» модели, когда ИИ «неумышленно», но убедительно выдает недостоверные сведения. Вопросы, связанные с применением генеративного ИИ, находятся в фокусе внимания регуляторов всех ведущих технологических стран.
В заключение отметим, что применение ИИ на транспорте имеет огромный потенциал, но требует тщательного управления рисками и многоуровневой защиты, начиная от датчиков и алгоритмов и заканчивая человеческим фактором, правовыми и регуляторными мерами. Только такая многоуровневая система мер позволит реализовать потенциал ИИ без ущерба для безопасности.
Список источников
Развернуть список источников
- 1. ПНСТ 866-2023 «Системы искусственного интеллекта на водном транспорте. Варианты использования».
- 2. ПНСТ 884-2023 «Искусственный интеллект на железнодорожном транспорте. Варианты использования».
- 3. ГОСТ Р 70980-2023 «Системы искусственного интеллекта на автомобильном транспорте. Системы управления интеллектуальной транспортной инфраструктурой. Общие требования».
- 4. ГОСТ Р 70889- 2023 «Информационные технологии. Искусственный интеллект. Структура жизненного цикла данных».
- 5. ПНСТ 847-2023 «Искусственный интеллект. Большие данные. Функциональные требования в отношении происхождения данных».
- 6. ПНСТ 848-2023 «Искусственный интеллект. Большие данные. Обзор и требования по обеспечению сохранности данных».
- 7. Ian J Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and Harnessing Adversarial Examples. In ICLR, 2015
- 8. Aleksander Madry, Aleksandar Makelov, Ludwig Schmidt, Dimitris Tsipras, and Adrian Vladu. Towards Deep Learning Models Resistant to Adversarial Attacks. In ICLR. OpenReview.net, 2018