Американское агентство передовых оборонных исследовательских проектов DARPA — структурное подразделение минобороны США, отвечающее за разработку новейших технологий для борьбы с потенциальным врагом на суше, в воде, под водой, в воздухе, космосе. И в интернете.
В 2015 году агентство организовало конкурс, целью которого стал поиск оптимальных методов борьбы с необычной напастью,
Боты — специальные программы, имитирующие действия человека в сетевых играх, чатах, форумах, социальных сетях. И их число в сравнении с общим числом пользователей социальной сети довольно велико.
По данным самой компании Twitter, в 2014 году около 8% зарегистрированных пользователей были ботами, а это около 23 млн активных юзеров.
Большинство этих ботов обычно безобидны — многие просто заточены на то, чтобы переопубликовывать твиты других пользователей. Другие причиняют явный вред: распространяют всевозможный спам, становясь инструментом мошенников и мимикрируя под твит-аккаунты уважаемых источников, например @CNN.
Однако куда больший вред в глобальном плане, по мнению специалистов DARPA, причиняют «боты влияния» (Influence bots), которые могут воздействовать на общественное мнение как в рамках отдельных дискуссий, так и в масштабах государств. В том числе при обсуждении актуальных политических тем и для вербовки террористов.
Подобные боты участвуют в вербовке молодых членов ИГ (запрещенная в России террористическая группировка), а дезинформация в социальных сетях сопровождала процесс присоединения Крыма к России и конфликт в Донбассе, уверены эксперты. Многие аналитики считают, что именно активность различных ботов сыграла не последнюю роль в исходе выборов в Индии в 2014 году.
В связи с этим актуальной становится чисто прикладная задача — создать алгоритм, позволяющий точно вычислять влиятельные боты, которые выдают себя за живых людей и активно насаждают свои политические взгляды. Именно с этой целью в 2015 году DARPA провело четырехнедельные соревнования Twitter Bot Detection Challenge, чтобы протестировать различные методы выявления ботов в социальных сетях. В конкурсе участвовали шесть команд: Университет Южной Калифорнии, Университет Индианы, Технологический институт Джорджии, Sentimetrix, IBM и Boston Fusion.
Организаторы предоставили участникам конкурса реальное твиттер-обсуждение проблем вакцинации, действительно происходившее в 2014 году.
Тогда в эту дискуссию намеренно добавляли твиты искусственно созданных персонажей, чтобы узнать, как роботы способны влиять на ход дискуссии.
Победителем стала команда аналитической компании Sentimetrix, специализирующейся на социальных сетях,
которая угадала всех ботов за 12 дней до окончания конкурса, сделав всего одну ошибку.
Команда из Университета Южной Калифорнии, занявшая второе место, набрала 45 баллов, определив всех ботов за шесть дней до дедлайна и не допустив ни одной ошибки. Исследование ученых из Мэриленда и других университетов, которые под эгидой DARPA провели этот конкурс, опубликовано в архиве электронных препринтов (предпубликаций).
Алгоритм, использованный победителями, был отработан в ходе индийской предвыборной кампании 2014 года, в которой «участвовало» множество интернет-ботов. Он основан на выявлении необычной грамматики в постах, сходства постов с языком известных чат-ботов типа Eliza и необычными особенностями печатания — например,
когда юзер долго печатает ответы без перерывов, что не похоже на живого человека.
Кроме того, анализ выявлял временные особенности активности ботов, а также юзеров, которые могли менять свои убеждения, временно превращаясь из сторонников вакцинации в противников.
Программисты считают, что таким образом боты втираются в доверие оппонентов, а затем приводят опровергающие аргументы.
Все три победителя пришли к выводу, что один лишь автоматический алгоритм не гарантирует успеха в поиске ботов из-за отсутствия тренировки на реальных твитах. Поэтому к успеху приводили полуавтоматические алгоритмы, в работу которых вмешивались люди.
Результаты конкурса и представленные методы борьбы с ботами дали возможность понять, в каком направлении будет двигаться наука борьбы с ними в будущем. «По мере усложнения влияния ботов необходимо значительно усилить инструментарий аналитиков для их распознавания», — считают устроители конкурса.
Однако с другой стороны, публикация подобных исследований может иметь обратный эффект: поскольку борьба создателей ботов и охотников за ними постоянно усложняется,
«ботоводы» вынуждены разрабатывать более изощренные стратегии, признают эксперты.
«И хотя описанные методы разработаны для полностью автономных ботов, мы считаем, что они могут пригодиться для выявления и срежиссированных кем-то операций. Среди них попытки ИГ вербовать террористов и использование Россией социальных сетей в контексте продолжающегося конфликта на Украине (о подобных троллях в 2015 году писали российские и зарубежные СМИ)», — заключают авторы статьи.