Газета.Ru в Telegram
Новые комментарии +

Дипфейки: безобидное развлечение или серьезный риск для информационной безопасности

Молодёжный цифровой омбудсмен высказался о феномене дипфейков

Молодёжный цифровой омбудсмен Дмитрий Гуляев – о возникновении и сущности дипфейков, юридических аспектах, связанных с их созданием и распространением, и деятельности команды МЦО по данному направлению.

В 2022 году цели команды Молодежного цифрового омбудсмена не изменились: мы последовательно выступаем за защиту прав молодых людей в цифровой среде, поддержку ИТ-инициатив и ИТ-проектов, повышение уровня правовой и цифровой грамотности молодежи. В сегодняшней колонке мы поговорим о дипфейках – феномене, распространение которого может затронуть не только межгосударственные отношения, но и жизнь, права и доброе имя обычных пользователей.

Что же такое «дипфейк»

Многие из нас сталкивались в социальных сетях с фрагментами популярных кинокартин, где в развлекательных целях изменены лица главных героев: например, с эпизодом из фильма «Терминатор 2», где вместо Арнольда Шварценеггера появляется Сильвестр Сталлоне.  И в целом весьма забавно, когда герои «Властелина Колец» или «Шрека» обретают ваше лицо и мимику или разговаривают вашим голосом. Всё это не что иное, как дипфейки.

Deepfake – это реалистичная подмена фото-, аудио- и видеоматериалов, созданная посредством нейросетей.

Дипфейки – явление, которое нельзя оценивать как однозначно «плохое» или «хорошее»: вопрос в том, как человек будет его использовать. В современном мире компьютерные алгоритмы способны «оживить» фотографию, заменить голос человека или его лицо на видеофрагменте. Технология была разработана студентом Стэнфордского университета Яном Гудфеллоу в 2014 году. Три года спустя пользователь Reddit с ником deepfake с ее помощью заменил лица актрис, снимавшихся в сценах эротического содержания, лицами знаменитостей, и опубликовал получившиеся видео на платформе. Это стало первым шагом к формированию негативных коннотаций вокруг термина «дипфейк».

Затем технология упростилась и стала доступна пользователю любого компьютерного устройства. Например, дипфейки можно создать без всяких специальных знаний с помощью приложений FaceApp, Zao, Reface на смартфоне с платформами iOS и Android.

Популярность дипфейк-приложений продолжает набирать обороты. В 2020 году в сети «прогремело» видео, в котором Илон Маск исполнил песню «Трава у дома» вместо солиста группы «Земляне». Подобные творческие эксперименты в настоящее время уже не удивляют пользователей социальных сетей. Однако любые, даже самые безобидные на первый взгляд вещи могут быть использованы как в позитивном, так и негативном ключе.

Чем могут быть полезны дипфейки

Замену лиц или голоса актеров в сценах популярных фильмов и сериалов молодёжь воспринимает в первую очередь как шутку.

Действительно, большинству из нас кажется, что это не несёт в себе никакой доли негатива, а иногда даже используется во благо!

Например, с ее помощью можно «оживить» легендарных актёров, художников, учёных.

Музей Сальвадора Дали во Флориде уже «оживил» художника, который стал экспонатом в собственном музее. В настоящее время также предлагается использовать подобный алгоритм в астрофизике, чтобы избавляться от шумов и помех при съемке космических объектов и получать качественные изображения.

Применение данной технологии позволяет с помощью наложения нескольких фрагментов изображений на одно создать качественный снимок космического объекта в детальных подробностях.

Чем опасны дипфейки в современных реалиях

Об основных угрозах и рисках распространения дипфейков можно догадаться, отталкиваясь от приведенной в начале колонки истории их появления. Замена лиц и голосов в видео- и аудиозаписях может быть направлена на манипулирование общественным мнением и сознанием, унижение чести и достоинства людей (в первую очередь тех, чьи лица были использованы при монтаже).

Подростки могут задействовать этот инструмент для кибербуллинга, и тогда «шуточный» ролик, в котором униженный герой приобретает ваше лицо или произносит неприятные речи вашим голосом, уже будет не забавой, а издевательством.

Дипфейки могут использоваться и в преступных целях – например, в мошеннических.

Представьте: ваш близкий друг получает видео- или аудиосообщение, где якобы вы просите одолжить тысячу рублей. Говоря юридическим языком, лицо или голос мошенника заменяются вашими для получения денежных средств посредством умышленного введения в заблуждение (обмана). Подобный инцидент произошёл в марте 2019 года в Великобритании: с помощью программного обеспечения на основе искусственного интеллекта мошенники сымитировали голос исполнительного директора британской энергетической компании и дали сотруднику этого предприятия поручение о переводе 220 тыс. евро. Работник, узнав голос своего начальника, перечислил деньги преступникам. Их так и не поймали.

В настоящее время злоумышленники могут использовать дипфейки как средство манипулирования общественным мнением и сознанием, кибертравли и совершения мошенничества.

Что говорит право об использовании дипфейков

В настоящее время изображение человека, как и текст, музыка, картинки, в Российской Федерации охраняются законом. Согласно ст. 152.1 Гражданского кодекса РФ, использование изображения гражданина допускается только с его согласия. В дипфейках используются изображения людей, а, значит, необходимо их согласие. В противном случае гражданин, изображение которого было незаконно использовано, имеет право требовать удаления изображения в интернете, пресечения или запрета его дальнейшего распространения. Если изображение гражданина при использовании его в дипфейках носит явный оскорбительный характер, то гражданин имеет право подать в суд иск о защите чести и достоинства, а также потребовать компенсацию морального вреда.

При этом отдельная ответственность за использование дипфейков в российском законодательстве не установлена (нет специальной статьи), то есть сама по себе технология является правомерной. Однако с ее помощью злоумышленники могут реализовывать незаконную деятельность, за которую предусмотрена административная или уголовная ответственность.

Законодательству затруднительно учесть все тонкости жизненных реалий и развития современных технологий. В связи с этим ряд социальных сетей попытались самостоятельно урегулировать вопросы распространения дипфейков на своих платформах. В частности, TikTok в пользовательском соглашении прописал правило, согласно которому запрещается любой манипулятивный контент, который вводит пользователей в заблуждение, искажая правду о событиях, и влечет причинение вреда.

Политика TikTok не столько запрещает использование конкретной технологии, основанной на искусственном интеллекте, сколько предупреждает использование «обманывающих видео», направленных, например, на очернение политических оппонентов или иное унижение чести и достоинства человека или даже целой группы лиц.

Огромная проблема для социальных сетей в настоящее время – отсутствие программного обеспечения, способного эффективно обнаруживать дипфейки.

В 2019 году Facebook совместно с Microsoft и другими партнерами запустили для решения этой проблемы конкурс «The Deepfake Detection Challenge». Успех имела белорусская модель разработчика Селима Сефербекова: её точность в тестовых испытаниях составила 65,18%. Третье место заняла модель российской компании NTechLab. Разработки, направленные на достижение более эффективных результатов в данной области, всё ещё продолжаются.

Что планирует делать команда МЦО для минимизации рисков негативного использования дипфейков

Команда Молодежного цифрового омбудсмена осознает важность проблемы дипфейков в цифровом пространстве. Совсем скоро мы начнем экспертную работу по составлению материалов о выявлении и противодействии фейкингу и манипулированию сознанием с помощью масс-медиа дипфейков.

На основе экспертных материалов, разработанных Московским государственным юридическим университетом имени О.Е. Кутафина (МГЮА), команда МЦО уже проводит интерактивные мастер-классы для студентов и школьников «Угрозы информационно-мировоззренческой безопасности молодых людей в цифровом пространстве: какие они, как их распознать и как от них защититься?» Во время мастер-классов спикер отдельно обращает внимание аудитории на проблему фейков и дипфейков.

Вопросы медиабезопасности и медиаграмотности широко освещаются в наших социальных сетях: мы публикуем статьи и посты, посвященные фейкингу и способам вербального воздействия на сознание человека.

Команда МЦО открыта к партнерству и в настоящий момент определяет наиболее интересные для молодежной аудитории перспективы сотрудничества в этой области. В новом году мы планируем начать взаимодействие с организациями, которые занимаются проблемами фейкинга и дипфейков. Следите за новостями.
 
Автор — молодежный цифровой омбудсмен.

Новости и материалы
В Пентагоне признали провал поставленного США на Украину оружия
Маркировку о вреде для природы предлагают наносить на пластиковую посуду
Советники Трампа обсуждают санкции против стран, уходящих от доллара
Белоруссия будет помогать союзникам военной силой
Большинство россиян на отдыхе доверяют только своей аптечке
Ракетную опасность отменили в Белгороде и Белгородском районе
В МИД прокомментировали заявления Польши насчет размещения ядерного оружия США
Ученые нашли огромную концентрацию кокаина в водах крупнейшего порта Латинской Америки
В финском городе дважды за неделю сорвали украинский флаг у здания мэрии
В Белгороде и Белгородском районе объявлена ракетная опасность
Россиянам рассказали о погоде на Первомай
Отряды «Хезболлы» нанесли удар по поселениям на севере Израиля
Стало известно, чем будут закупаться россияне на майских праздниках
Еще одна страна заявила о заинтересованности в сотрудничестве с БРИКС
В Германии заявили об угрозе взрывов, которые якобы может устроить Россия
В Москве временно ограничат движение на ряде улиц
Ученые выяснили пользу для мозга от популярной пищевой добавки для спортсменов
В Госдепе рассказали о проработке вариантов использования замороженных активов РФ
Все новости