Размер шрифта
Новости Спорт
Выйти
Война США и Израиля против Ирана
Технологии

В соцсети Facebook тестируют программу для предотвращения конфликтов в комментариях

Искусственный интеллект начнет помечать оскорбительные комментарии, размещаемые в сообществах в социальной сети Facebook (владелец компания Meta признана в России экстремистской и запрещена). Предполагается, что благодаря программе получится упростить работу администраторов групп, сообщает CNN.

В результате пользователи, отвечающие за модерацию страниц, будут получать уведомления о возможном конфликте среди подписчиков.

Записи с неприемлемой лексикой в группах получат плашки «moderation alert» («оповещение модератора»).

С новым способом маркировки и оповещения станет возможным своевременно принимать необходимые действия для локализации конфликта в сети. Однако новые ограничения нельзя будет применить к таким темам, как вакцинация, политика, а также культурные различия.

Программный инструмент, как считают в Facebook, пригодится 70 миллионам пользователей, управляющим страницами.

После того, как администратор узнает о конфликте, он сможет замедлить дискуссию.

Ранее суд оштрафовал Facebook еще на 17 млн рублей.

 
«Схема Долиной 2.0» и другие ловушки для покупателей жилья в 2026 году
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!