Слушать новости
Слушать новости

«Алгоритмы могут менять не только настроение, но мнение людей, в том числе в ходе выборов»

Чем грозит поляризация мнений и какова роль Facebook в столкновении пользователей

Прослушать новость
Остановить прослушивание
На прошлой неделе Facebook выпустил отчет о самом популярном контенте второго квартала 2021 года. В топе – благодаря алгоритмам — оказалась запись, призывающая отказаться от прививки от COVID-19, что вызвало возмущение многих пользователей и СМИ. Тут же стало известно, что такой же отчет должен был выйти и по итогам первого квартала года, однако руководство компании решило не публиковать его, чтобы избежать возможной критики. Эксперты, опрошенные «Газетой.Ru», констатировали, что алгоритмы соцсетей могут не только промоутировать скандальные посты сомнительных личностей, но и менять политическую позицию целых пластов общества, в том числе в ходе выборных кампаний.

Администрация Facebook объяснила подготовку отчета желанием повысить «прозрачность» своей работы, но эксперты считают документ «бесполезным» и обвиняют онлайн-платформу в распространении деструктивного контента. Не меньшую обеспокоенность вызывает и само неконтролируемое использование рекомендательных алгоритмов, с помощью которых IT-гигант «таргетирует» этот контент на пользователей.

Используя массив информации о пользовательском поведении, рекомендательные системы могут целенаправленно вызывать заинтересованность человека.

По мнению аналитиков, воздействие алгоритмов на пользователей недостаточно изучено, а отсутствие информации о том, кто и как управляет ими, только усиливает напряженность. Исследователи ведущих стран мира уверены, что благодаря использованию рекомендательных сервисов цифровые платформы обладают огромной властью над миллиардами людей по всему миру. Так, системы ограничивают инфополе пользователя, погружая его в «информационный пузырь», максимально схожий с его убеждениями.

Суть алгоритма Facebook состоит в том, что он контролирует формирование новостной ленты так, чтобы она наиболее точно подходила под запросы пользователей. Вместо того, чтобы отображать контент в хронологическом порядке, новостная лента и реклама публикуются на основе того, что Facebook считает актуальным для.

Подобная концепция, разумеется, приводит к поляризации общественного мнения, сокращению информированности общества и повышению риска социальных конфликтов.

«Топливом» для работы алгоритмов являются личные данные пользователей, которые агрегируют онлайн-платформы. В международной практике одним из самых заметных примеров использования персональных данных для манипуляции общественным мнением остается кейс британской компании Cambridge Analytica, которую обвиняли в использовании личных данных 50 млн пользователей Facebook для того, чтобы повлиять на исход президентских выборов в США в 2016 году. Алгоритмы комбинировали полученную информацию с данными из других источников (например, списком избирателей) и выстраивали детальный профиль избирателей, которым затем направлялась таргетированной рекламе. Кроме того, специалисты Cambridge Analytica предположительно оказали влияние на итоги голосования по выходу Великобритании из Европейского союза.

Также Facebook неоднократно сталкивалась с недовольством отдельных пользователей непрозрачной работой алгоритмов. К примеру, гражданка США обвинила компанию в том, что из-за рекомендательных сервисов ее соцсети она не узнала о смерти своего друга, и о том, что он нуждался в помощи. По словам американки, IT-гигант намеренно скрывал от неё неприятные посты.

Не секрет, что все современные соцсети построены на рекомендательных сервисах, которые используют персональные данные пользователей, чтобы «угождать» им, констатировал замгендиректора Института развития интернета по правовым вопросам Борис Единин.

«Задача проста – предлагать такой контент, который заставит человека оставаться у экрана как можно дольше. И влияние алгоритмов только усиливается. Появляются новые площадки, информации становится все больше, а борьба за внимание пользователей – серьезнее. Чем больше исследователи изучают воздействие рекомендательных сервисов, тем сильнее убеждаются в их способности управлять нашим мозгом. Алгоритмы соцсетей могут менять не только наше настроение, но и наше мнение, в том числе, в ходе выборных кампаний», — отмечает эксперт.

Facebook ежедневно пользуются порядка 2 млрд человек, напоминает Единин. «Почти все они позволяют алгоритму показывать новости в том порядке, который выберет площадка. А она предпочитает выводить в топ тот контент, который вызывает больше всего разногласий. Владелец IT-гиганта Марк Цукерберг даже не скрывает этого. В 2018 году The Wall Street Journal опубликовал внутреннее исследование корпорации, указывающее на то, что «алгоритмы Facebook используют тягу человеческого мозга к спорам. В результате такой приоритизации вы часто в ленте видите посты, под которыми ведется активная дискуссия, но упускаете менее значимые, с точки зрения платформы, сообщения от своих друзей», — отметил замгендиректора ИРИ.

Цифровая среда сегодня нуждается в гигиене, убежден член Общественной палаты России, первый замдиректора Института стратегических исследований и прогнозов РУДН Никита Данюк.

«На мой взгляд, когда социальные сети бездействуют или очень плохо работают относительно выявления противоправной информации, это сразу дает пищу для размышлений – не является ли это политизированным моментом, элементом практики двойных стандартов?» — задается он вопросом.

Объем распространения фейков и противоправного контента в целом с каждым годом увеличивается, констатировал Данюк. «При этом онлайн-платформы в реальности не справляются самостоятельно с модерацией, выявлением и удалением. И их собственные алгоритмы, «разгоняющие» деструктивные посты только мешают им в этом, — уверен эксперт. — Государству необходимо объединить усилия с онлайн-платформами и договориться о совместной работе».

Поделиться:
Новости и материалы
Все новости
Найдена ошибка?
Закрыть