«Правильные» новости от Facebook

Facebook обвиняют в предвзятости при выдаче новостей

Анастасия Евтушенко
Ellica/Shutterstock
Бывшие сотрудники Facebook обвиняют социальную сеть в предвзятости. Они утверждают, что политические тренды внутри соцсети выбираются вручную, причем не в пользу людей с консервативными политическими взглядами. Как Facebook научился показывать только «правильные» новости — в материале «Газеты.Ru».

По рассказам нескольких так называемых новостных кураторов, в новостные тренды зачастую «внедряют» новости, которые не пользуются особой популярностью, а также события самого Facebook вне зависимости от того, «в тренде» они или нет.

Так, ряд источников привел конкретные примеры: в тренды ни при каких условиях не попадают статьи о мероприятиях, связанных, к примеру, с Миттом Ромни или Рэндом Полом.

Таким образом, внутри соцсети может существовать вполне традиционный новостной отдел со своей редакционной политикой, учитывающей интересы корпорации.

«Это тотальное смещение тем. Мы составляли тренды субъективно в зависимости от того, кто куратор и в какое время суток. При этом каждый раз, когда возникал новостной повод с консервативным источником, мы старались найти эту же историю с более нейтральным подходом», — рассказал еще один бывший куратор, считающий, что у соцсети существует предвзятое отношение к источникам новостей правого толка.

Но дело может касаться не только трендов, коих в русскоязычном сегменте Facebook просто нет. Один из экс-кураторов, также пожелавший остаться анонимным в разговоре с порталом Gizmodo, поделился еще одним откровением.

Если «важная» статья непопулярна, несмотря на верхние позиции в трендах, она в любом случае попадает в новостные ленты пользователей.

Используя, как выражаются сами бывшие кураторы, «инструмент для инъекции», специальные люди намеренно показывают конкретные материалы в ленту тысячей читателей, что в некоторых случаях приводит к всплеску популярности «правильных» тем.

«Была установка продвигать те истории, которые появлялись на первых страницах десяти ключевых изданий, таких как CNN, The New York Times и «Би-би-си», — рассказал один из информаторов.

Срочные новости, в свою очередь, также могут «подталкиваться» кураторами только из-за того, чтобы подогреть интерес к острым темам. Так, по словам источников, произошло с двумя новостными поводами: исчезновение самолета компании Malaysia Airlines и атака на редакцию Charlie Hebdo в Париже.

«Нам попадало за то, что что-то разлеталось по всему Twitter, но не в Facebook», — добавил один из кураторов.

Как рассказывает один из источников, еще одна функция тайного отдела соцсети заключается в том, чтобы «впрыскивать» серьезные новости, чтобы создавать ощущение того, что пользователи Facebook не сторонятся важных тем. В частности, источники приводят в пример ситуацию в Сирии и шум вокруг движения активистов #BlackLivesMatter. Примечательно, что активисты начали свою деятельность именно с сообщества Facebook и многие СМИ обращали внимание именно на мощный охват аудитории в соцсети.

Позднее после выхода материала на сайте Gizmodo вице-президент по поисковым алгоритмам в Facebook Том Стоки выступил с опровержением, подчеркнув, что в администрации соцсети очень серьезно относятся к сообщениям о предвзятости.

Стоки рассказал, что ряд тем действительно проверяется группой людей, но эта процедура касается только тех инфоповодов, которые уже попали в тренды. По словам вице-президента, действия подобных рецензентов фиксируются и проверяются, а серьезный просчет ведет к немедленному увольнению.

«Наши методы являются нейтральными и эффективными, насколько это возможно», — добавил Стоки.

Главный аналитик Российской ассоциации электронных коммуникаций Карен Казарян в разговоре с «Газетой.Ru» отметил, что публикация Gizmodo «отдает обычной конспирологией, очень любимой американскими консерваторами».

«Я думаю, что Facebook использует множество различных сигналов, в том числе от самих пользователей, и эффект filter bubble очень даже возможен — то есть такая ситуация, когда пользователь действительно не будет видеть публикации от стороны с другой точкой зрения, — потому что так сработали алгоритмы», — добавил Казарян.

Понятие filter bubble, или «пузырь фильтров», было разработано интернет-активистом Илаем Парайзером и основывается на том, что алгоритмы (такие как у Google и Facebook) учитывают прошлую активность пользователя и выдают информацию на основе его предпочтений, что в свою очередь ведет к обеднению новостной ленты. Другими словами, чем ближе новостная лента соцсети к предпочтениям читателя, тем меньше противоположных точек зрения он встретит.

Парайзер обвинял Facebook и Google в том, что персонализированные алгоритмы приносят потенциальный вред личности, поскольку преграждают путь к новым знаниям, идеям и важной информации, не всегда сочетающейся с личными предпочтениями.

В одноименной книге Парайзер также говорит о том, что «эффект информационного пузыря» мешает формированию гражданского мнения и со временем делает людей уязвимыми к «пропаганде и манипуляциям».