Блюз «18+»: YouTube навязывает контент сомнительного содержания

Более 70% видео, рекомендуемых YouTube, не соответствуют внутренним нормам видеохостинга

Google
Американские исследователи обнаружили, что рекомендательные алгоритмы YouTube предлагают пользователям видеоролики, которые нарушают собственные правила онлайн-площадки.

Так, нежелательный контент, подобранный искусственным интеллектом, составил 71% от общего количества просмотренных участниками эксперимента видео, сообщает The Wall Street Journal.

В рамках исследования волонтеры установили на свои браузеры специальное расширение, с помощью которого сообщали о противоправном контенте.

Также дополнение отслеживало, было ли видео предложено алгоритмами или найдено пользователем самостоятельно.

За 10 месяцев эксперимента, закончившегося в мае 2021 года, 37 тысяч добровольцев из 91 страны отметили более 3 тысяч роликов, содержащих фейки о политических процессах и пандемии COVID-19, ненавистнические высказывания или материалы сексуального характера.

Модераторы YouTube заблокировали лишь 200 из них, хотя и эти видео на момент удаления успели набрать уже 160 млн просмотров.

Представитель видеохостинга заявил, что онлайн-платформа снизила выдачу противоправного контента рекомендательными алгоритмами менее чем до 1%.

Он отметил, что за последний год было внесено 30 изменений, направленных на решение этой проблемы.

«Врождённое противоречие»

Отдел по кибербезопасности компании также сообщил, что ее автоматизированная система теперь обнаруживает 94% видео, нарушающих внутренние правила, и удаляет большинство из них до того, как они наберут 10 просмотров.

Эксперты считают, что результаты исследования демонстрируют «врожденное противоречие» между алгоритмами YouTube, одни из которых рекомендуют нежелательные видео, а другие пытаются их удалить.

При этом сама площадка отказывается раскрывать информацию о том, как работает ее рекомендательные сервисы.

Видеосервис уже много лет борется с проблемой распространения запрещенных материалов, в том числе и среди детей.

Так, в прошлом году модераторам пришлось массово блокировать каналы, посвященные теориям заговора.

Однако YouTube, также как Facebook и Twitter, не справляется с потоком деструктивного контента.

Из-за этого цифровые площадки по всему миру сталкиваются с ужесточением государственного регулирования, требующего от них более ответственного подхода к самоконтролю.

Российские эксперты также указывают на проблему непрозрачной работы рекомендательных алгоритмов крупных онлайн-платформ.

Госдума РФ планирует рассмотреть возможность предоставить пользователям право отключать рекомендательный алгоритм, формирующий ленту.

Как сообщил в своем Telegram-канале член Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин, сейчас рекомендательные алгоритмы можно отключить только в отечественной «ВКонтакте».

«В Facebook формально такая настройка есть, но она не работает по-настоящему.

У других просто без вариантов: ешь, что дает алгоритм. Особенно это заметно на фоне происходящих изменений в Instagram, который официально объявил на днях, что «в вашей ленте теперь будут появляться посты от других пользователей, на которых вы не подписаны.

Мы, в России, за право выбора.

Поэтому у рекомендательных алгоритмов должен быть выключатель, доступный каждому», – подчеркнул он.