19 февраля 2025 г.
5 мин чтения

Производство

Внедрение технологий ИИ в производственные отрасли — это еще один шаг к повышению эффективности, снижению издержек и устойчивому будущему. ИИ стремительно трансформирует существующие производственные процессы, делая их более безопасными, экономичными, быстрыми, точными и гибкими.

Перечислим лишь несколько ключевых направлений применения ИИ в производстве:

Автоматизация рутинных задач

Автоматизация процессов, протекающих в опасных средах

Прогнозирование неисправностей оборудования (предиктивная диагностика)

Выявление дефектов продукции на этапе производства

Оптимизация логистики, управление цепочками поставок

Контроль качества продукции на стадии производства

Моделирование и цифровые двойники

Оптимизация потребления ресурсов (электроэнергии, воды и т. д.)

Иконка информации

ИИ позволяет предприятиям повышать производительность труда и снижать издержки.

Однако, помимо очевидных преимуществ, внедрение ИИ в производственные процессы привносит и дополнительные риски, требующие особого внимания к вопросам кибербезопасности и надежности систем ИИ [1, 2].

Основные источники рисков для систем ИИ в производстве

  • Традиционные кибератаки, направленные на взлом систем ИИ с целью саботажа производства или кражи данных.
  • Уязвимости в моделях и алгоритмах ИИ. Например, в результате вредоносных манипуляций с входными данными (состязательные атаки [4, 5, 6]) модель прогнозирования деградации оборудования может выдавать неверные прогнозы (Рис. 1), что приведет к избыточным затратам на обслуживание или к аварии.

    Рис. 1 - Пример состязательной атаки на систему прогнозирования деградации турбовентиляторного авиационного двигателя (датасет NASA C-MAPSS-2 Turbofan Engine Degradation Simulation Data Set-2, https://paperswithcode.com/dataset/nasa-c-mapss-2): а) чистые (зеленый график) и атакованные (красный график) входные данные на примере двух показателей (признаков) – положение рычага двигателя и температура на входе двигателя; б) предсказание оставшегося числа вылетов до проведения технического обслуживания двигателя на чистых (зеленый график) и атакованных (красный график) данных, истинное значение – белый график.

  • Смещенность в обучающих данных, которая может возникать как преднамеренно, в результате атаки на систему ИИ, так и непреднамеренно, из-за недостаточного понимания разработчиками системы ИИ возможных источников смещения. Проблеме борьбы со смещенностью данных в системах ИИ посвящен отдельный стандарт [3].
  • Дрейф данных, т.е. постепенное изменение статистического распределения входных данных по сравнению с распределением данных в обучающем наборе, или поступление «примеров вне распределения», т.е. данных, сильно отличающихся от тех, на которых была обучена модель.
  • Угрозы физической безопасности персонала и сохранности оборудования. Например, робот-погрузчик не заметил человека в рабочей зоне и нанес ему травму или ремонтный робот повредил оборудование в процессе технического обслуживания. В эту категорию также можно отнести риски возникновения противоречий между решениями человека и ИИ. Так, из соображений «оптимизации», ИИ может заблокировать аварийное отключение оборудования.
Иконка информации

Важно обратить внимание на еще один риск, специфичный для промышленного применения ИИ в ряде областей. Это отложенный эффект от ошибок ИИ. Например, если ИИ управляет настройкой некоторого технологического процесса (скажем, формированием состава сплава или какого-то химического раствора), допуская при этом небольшие погрешности, то последствия могут проявиться уже в конечной продукции через месяцы или даже годы.

Исходя из перечисленных рисков, безопасность ИИ в производстве выходит за рамки традиционной защиты ИТ-систем. Оно требует комплексного подхода, включающего как традиционные меры кибербезопасности, так и меры противодействия угрозам, специфичным для ИИ. Необходимо контролировать безопасность цепочек поставки данных для ИИ [7], обеспечивать устойчивость алгоритмов к вредоносным воздействиям, а также проводить постоянный мониторинг работы моделей на предмет возникновения аномальных результатов. Только так можно гарантировать, что ИИ будет не просто мощным, но и безопасным инструментом автоматизации производственных процессов.

Список источников

Развернуть список источников