Газета.Ru в Telegram

Контент от ИИ: в чем польза и опасность

В ОП РФ заявили о необходимости проверять создаваемый ИИ контент

В сети все чаще появляются новости, сгенерированные искусственным интеллектом. Роботы придумывают истории, пишут тексты по заданным параметрам и составляют пересказы. Некоторые программы даже рисуют репродукции и создают музыку. Скорость развития технологий поражает, вместе с тем и возникает вопрос — насколько точны алгоритмы и что будет, если контент-мейкеров заменит ИИ?

Способности искусственного интеллекта в некоторых сферах уже превосходят человеческие. Алгоритмы быстрее решают задачу и дают более точный ответ, если речь идет об обработке данных. Они помогают автоматизировать важные процессы в ретейле, промышленности, банкинге и прочих отраслях. В повседневной жизни мы взаимодействуем с ИИ через голосовых помощников, Face ID, переводчиков. Создание блогов и сайтов не исключение. Многие используют нейросети, чтобы выстроить контент-стратегию. Цифровые инструменты помогают анализировать данные, проводить SEO-исследования, определять тенденции и даже обсуждать темы контента. Чат-бот может написать за вас статью или придумать несколько вариантов заголовков всего за несколько минут. Некоторые анализируют целевую аудиторию, что помогает персонализировать контент. Помимо прочего, существуют сервисы на базе ИИ, которые генерируют картинки и видео, реставрируют старые снимки и редактируют новые. Их часто применяют в маркетинге.

В прошлом году решения на базе искусственного интеллекта в сегменте business-to-customer использовались на 55-60% чаще, чем в предыдущем. Самыми популярными оказались чат-боты и голосовые ассистенты, а также рекомендательные системы и программы для синтеза голоса и картинок.

В этом году в России ожидается бурный рост ИИ. Причина этому — поддержка государства, огромный потенциал в бизнесе, а также растущая производительность вычислительных систем. Крупные отечественные игроки все чаще уделяют внимание возможностям нейросетей. Представители ИТ-сектора уверены, что главный потенциал ИИ может раскрыться благодаря мобильным приложениям. По оценке экспертов, к 2026 году до 90% интернет-контента будет создавать искусственный интеллект.

Однако, к сожалению, недобросовестные дельцы не всегда используют нейросети по назначению. Как известно, любой инструмент становится оружием не в тех руках. Порой люди намеренно превращают нейросети в ретрансляторы своих идей. Это, в частности, касается технологии дипфейков. Благодаря искусственному интеллекту создают порочащие и фейковые ролики. Для мошеннических целей могут быть использованы не только синтезируемые голоса, но и полноценные цифровые копии людей. Более совершенные дипфейки поставят нас перед новой этической проблемой. Вместе с этим, проблемы возникают и с текстами, которые создает ИИ. Не все они являются достоверными, требуют фактчекинга и порой содержат смысловые ошибки. Если опубликовать такую статью без вычитки, то есть риск стать распространителем дезинформации.

«Пик распространения фейков всегда приходится на экстремальные события. Сегодня мы находимся в условиях информационного противостояния, когда недружественные страны пытаются дестабилизировать ситуацию внутри нашей страны. Для этого используют разные инструменты, в том числе — порочащие и ложные публикации. Именно здесь на помощь приходит ИИ, который может генерировать неограниченное число фейков. Задача злоумышленника состоит только в том, чтобы задать нужные параметры.

Крайне важно проверять шокирующие новости и видео-контент. Российское законодательство было усовершенствовано для противодействия распространению недостоверной информации. Сегодня ресурсы, нарушающие закон, должны помнить об установленной ответственности. Если материал был создан на основе технологий ИИ, то это не освобождает распространителей от ответственности», — говорит первый заместитель председателя Комиссии Общественной палаты РФ по развитию информационного общества, СМИ и массовых коммуникаций Александр Малькевич.

Использование ИИ для создания контента приводит к переменам не только в цифровой среде, но и в обществе. Уже наблюдаются когнитивные деформации: мы можем воспринимать робота как реального собеседника, ведем с ним диалоги, слепо доверяем его высказываниям. Становится все сложнее отличить правдивый факт от фейка, что создает вокруг нас информационный пузырь. Именно поэтому важно не забывать об этической стороне, которую пока что не в силе постичь машина.

«Развитие искусственного интеллекта уже не остановить. Передовые технологии все чаще внедряют в наш обиход, они автоматизируют многие процессы и тем самым облегчают нам жизнь. Однако на пути к прогрессу всегда есть множество преград, в данном случае — это риски для безопасности. Чем больше способностей появляется у ИИ, тем больше возникает этических тонкостей. Текст, сгенерированный нейросетями, может быть составлен некорректно, с фактическими ошибками. Опасения вызывают и дипфейки, которые стали излюбленным инструментом мошенников. Всего один видеоролик может ввести в заблуждение, а порой и шокировать миллионы пользователей. Создатели подобных видео могут идти на провокации и разжигание политических конфликтов.

Особенно это характерно для иностранных чат-ботов, которые берут информацию из иностранных источников, например из Google. Очевидно, что касаемо тонких политических материй у американского поисковика своя позиция, которая зачастую отражает только точку зрения коллективного Запада.

Необходимо разумно подходить к использованию ИИ при создании контента, проверять выдаваемую информацию. Пока что машины не могут полностью заменить креаторов, и ускорять этот процесс не стоит. Сейчас важно сохранить баланс между технологическим прогрессом и гарантированной кибербезопасностью», — отмечает член Общественной палаты РФ, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП) РУДН Никита Данюк.

Что думаешь?
Загрузка