Авиаудар по школе для девочек в Иране во время атаки США и Израиля мог случиться в результате неправильной интерпретации данных, полученных военными в результате разведки по рекламным данным. Некорректную наводку мог дать искусственный интеллект (ИИ), который применяется Минобороны США для обработки разведданных. Об этом «Газете.Ru» рассказал эксперт по информационной безопасности (ИБ) и председатель совета по противодействию технологическим правонарушениям Координационного совета негосударственной сферы безопасности РФ (КС НСБ) Игорь Бедеров.
«Американские военные используют ИИ и достаточно давно. Это уже не теория, а практика. Речь идет не о роботах-терминаторах, а о системах поддержки принятия решений», — отметил он.
По словам эксперта, подобные платформы анализируют спутниковые снимки, перехваты переговоров и данные беспилотников, ранжируют цели и ускоряют процесс принятия решений.
Бедеров считает, что чисто визуально современные нейросети вряд ли могли перепутать школу с фабрикой, как ранее писало издание The Washington Post. Однако риск возникает при использовании так называемой разведки на основе рекламных данных (технологии ADINT), которая позволяет идентифицировать пользователя смартфона, а также следить за его перемещением используя легальную информацию, собираемую мобильными приложениями и онлайн-сервисам. По словам Бедерова, в мире существует больше 10 компаний, которые специализируются на ADINT, и большая их часть сотрудничает со спецслужбами западных стран.
«Представьте, что ADINT-специалисты зафиксировали телефон цели, террориста. Но этот телефон – у иранского ребенка, который просто пользуется Facebook (владелец компания Meta признана в России экстремистской и запрещена) или Instagram (владелец компания Meta признана в России экстремистской и запрещена). SIM-карта зарегистрирована не на него, а на отца или дядю, что не редкость. ADINT показывает только смартфон цели, но то, что в данный момент им пользуется ребенок, нет. При этом в другие дни смартфон действительно бывает в зоне объектов, которые интересуют военных. Алгоритм видит связь («телефон бывает в опасном районе»), предполагает террориста и дает рекомендацию бить по цели. При этом в момент удара цель – в школе», – сказал он.
По словам Бедерова, решение о каждом ударе принимает человек, а не ИИ. Он допустил, что предоставленные искусственным интеллектом данные были некачественно проанализированы ответственными людьми, из-за чего и пострадала школа.
«Когда идет масштабная операция и нужно нанести 900 ударов за 12 часов, как это было в начале конфликта , человеческий контроль становится формальностью. Офицер просто физически не может перепроверить каждую цель. Он доверяет системе. Возникает когнитивный сдвиг: раз ИИ дал рекомендацию – значит, так надо», – сказал эксперт.
В The Washington Post со ссылкой на источники сообщили, что школа могла быть ошибочно идентифицирована как промышленный или военный объект из-за просчета разведки либо сбоя алгоритмов ИИ. По данным The New York Times, удар был нанесен американской ракетой Tomahawk 28 февраля – в первый день операции США и Израиля против Ирана. В результате атаки погибли 168 школьниц и 14 сотрудников образовательного учреждения.
Ранее иранские хакеры провели мощную атаку на производителя медицинского оборудования Stryker в США.