Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Дипфейки: безобидное развлечение или серьезный риск для информационной безопасности

Молодёжный цифровой омбудсмен высказался о феномене дипфейков

Молодёжный цифровой омбудсмен Дмитрий Гуляев – о возникновении и сущности дипфейков, юридических аспектах, связанных с их созданием и распространением, и деятельности команды МЦО по данному направлению.

В 2022 году цели команды Молодежного цифрового омбудсмена не изменились: мы последовательно выступаем за защиту прав молодых людей в цифровой среде, поддержку ИТ-инициатив и ИТ-проектов, повышение уровня правовой и цифровой грамотности молодежи. В сегодняшней колонке мы поговорим о дипфейках – феномене, распространение которого может затронуть не только межгосударственные отношения, но и жизнь, права и доброе имя обычных пользователей.

Что же такое «дипфейк»

Многие из нас сталкивались в социальных сетях с фрагментами популярных кинокартин, где в развлекательных целях изменены лица главных героев: например, с эпизодом из фильма «Терминатор 2», где вместо Арнольда Шварценеггера появляется Сильвестр Сталлоне.  И в целом весьма забавно, когда герои «Властелина Колец» или «Шрека» обретают ваше лицо и мимику или разговаривают вашим голосом. Всё это не что иное, как дипфейки.

Deepfake – это реалистичная подмена фото-, аудио- и видеоматериалов, созданная посредством нейросетей.

Дипфейки – явление, которое нельзя оценивать как однозначно «плохое» или «хорошее»: вопрос в том, как человек будет его использовать. В современном мире компьютерные алгоритмы способны «оживить» фотографию, заменить голос человека или его лицо на видеофрагменте. Технология была разработана студентом Стэнфордского университета Яном Гудфеллоу в 2014 году. Три года спустя пользователь Reddit с ником deepfake с ее помощью заменил лица актрис, снимавшихся в сценах эротического содержания, лицами знаменитостей, и опубликовал получившиеся видео на платформе. Это стало первым шагом к формированию негативных коннотаций вокруг термина «дипфейк».

Затем технология упростилась и стала доступна пользователю любого компьютерного устройства. Например, дипфейки можно создать без всяких специальных знаний с помощью приложений FaceApp, Zao, Reface на смартфоне с платформами iOS и Android.

Популярность дипфейк-приложений продолжает набирать обороты. В 2020 году в сети «прогремело» видео, в котором Илон Маск исполнил песню «Трава у дома» вместо солиста группы «Земляне». Подобные творческие эксперименты в настоящее время уже не удивляют пользователей социальных сетей. Однако любые, даже самые безобидные на первый взгляд вещи могут быть использованы как в позитивном, так и негативном ключе.

Чем могут быть полезны дипфейки

Замену лиц или голоса актеров в сценах популярных фильмов и сериалов молодёжь воспринимает в первую очередь как шутку.

Действительно, большинству из нас кажется, что это не несёт в себе никакой доли негатива, а иногда даже используется во благо!

Например, с ее помощью можно «оживить» легендарных актёров, художников, учёных.

Музей Сальвадора Дали во Флориде уже «оживил» художника, который стал экспонатом в собственном музее. В настоящее время также предлагается использовать подобный алгоритм в астрофизике, чтобы избавляться от шумов и помех при съемке космических объектов и получать качественные изображения.

Применение данной технологии позволяет с помощью наложения нескольких фрагментов изображений на одно создать качественный снимок космического объекта в детальных подробностях.

Чем опасны дипфейки в современных реалиях

Об основных угрозах и рисках распространения дипфейков можно догадаться, отталкиваясь от приведенной в начале колонки истории их появления. Замена лиц и голосов в видео- и аудиозаписях может быть направлена на манипулирование общественным мнением и сознанием, унижение чести и достоинства людей (в первую очередь тех, чьи лица были использованы при монтаже).

Подростки могут задействовать этот инструмент для кибербуллинга, и тогда «шуточный» ролик, в котором униженный герой приобретает ваше лицо или произносит неприятные речи вашим голосом, уже будет не забавой, а издевательством.

Дипфейки могут использоваться и в преступных целях – например, в мошеннических.

Представьте: ваш близкий друг получает видео- или аудиосообщение, где якобы вы просите одолжить тысячу рублей. Говоря юридическим языком, лицо или голос мошенника заменяются вашими для получения денежных средств посредством умышленного введения в заблуждение (обмана). Подобный инцидент произошёл в марте 2019 года в Великобритании: с помощью программного обеспечения на основе искусственного интеллекта мошенники сымитировали голос исполнительного директора британской энергетической компании и дали сотруднику этого предприятия поручение о переводе 220 тыс. евро. Работник, узнав голос своего начальника, перечислил деньги преступникам. Их так и не поймали.

В настоящее время злоумышленники могут использовать дипфейки как средство манипулирования общественным мнением и сознанием, кибертравли и совершения мошенничества.

Что говорит право об использовании дипфейков

В настоящее время изображение человека, как и текст, музыка, картинки, в Российской Федерации охраняются законом. Согласно ст. 152.1 Гражданского кодекса РФ, использование изображения гражданина допускается только с его согласия. В дипфейках используются изображения людей, а, значит, необходимо их согласие. В противном случае гражданин, изображение которого было незаконно использовано, имеет право требовать удаления изображения в интернете, пресечения или запрета его дальнейшего распространения. Если изображение гражданина при использовании его в дипфейках носит явный оскорбительный характер, то гражданин имеет право подать в суд иск о защите чести и достоинства, а также потребовать компенсацию морального вреда.

При этом отдельная ответственность за использование дипфейков в российском законодательстве не установлена (нет специальной статьи), то есть сама по себе технология является правомерной. Однако с ее помощью злоумышленники могут реализовывать незаконную деятельность, за которую предусмотрена административная или уголовная ответственность.

Законодательству затруднительно учесть все тонкости жизненных реалий и развития современных технологий. В связи с этим ряд социальных сетей попытались самостоятельно урегулировать вопросы распространения дипфейков на своих платформах. В частности, TikTok в пользовательском соглашении прописал правило, согласно которому запрещается любой манипулятивный контент, который вводит пользователей в заблуждение, искажая правду о событиях, и влечет причинение вреда.

Политика TikTok не столько запрещает использование конкретной технологии, основанной на искусственном интеллекте, сколько предупреждает использование «обманывающих видео», направленных, например, на очернение политических оппонентов или иное унижение чести и достоинства человека или даже целой группы лиц.

Огромная проблема для социальных сетей в настоящее время – отсутствие программного обеспечения, способного эффективно обнаруживать дипфейки.

В 2019 году Facebook совместно с Microsoft и другими партнерами запустили для решения этой проблемы конкурс «The Deepfake Detection Challenge». Успех имела белорусская модель разработчика Селима Сефербекова: её точность в тестовых испытаниях составила 65,18%. Третье место заняла модель российской компании NTechLab. Разработки, направленные на достижение более эффективных результатов в данной области, всё ещё продолжаются.

Что планирует делать команда МЦО для минимизации рисков негативного использования дипфейков

Команда Молодежного цифрового омбудсмена осознает важность проблемы дипфейков в цифровом пространстве. Совсем скоро мы начнем экспертную работу по составлению материалов о выявлении и противодействии фейкингу и манипулированию сознанием с помощью масс-медиа дипфейков.

На основе экспертных материалов, разработанных Московским государственным юридическим университетом имени О.Е. Кутафина (МГЮА), команда МЦО уже проводит интерактивные мастер-классы для студентов и школьников «Угрозы информационно-мировоззренческой безопасности молодых людей в цифровом пространстве: какие они, как их распознать и как от них защититься?» Во время мастер-классов спикер отдельно обращает внимание аудитории на проблему фейков и дипфейков.

Вопросы медиабезопасности и медиаграмотности широко освещаются в наших социальных сетях: мы публикуем статьи и посты, посвященные фейкингу и способам вербального воздействия на сознание человека.

Команда МЦО открыта к партнерству и в настоящий момент определяет наиболее интересные для молодежной аудитории перспективы сотрудничества в этой области. В новом году мы планируем начать взаимодействие с организациями, которые занимаются проблемами фейкинга и дипфейков. Следите за новостями.
 
Автор — молодежный цифровой омбудсмен.

Новости и материалы
В двух областях Украины прогремели взрывы
Онколог назвал «главного врага рака»
Синоптик рассказал о погоде в Москве на предстоящей неделе
Опасность атаки БПЛА объявлена в третьем за ночь регионе России
Иранскую студентку, раздевшуюся в знак протеста, отправили на принудительное лечение
Президент Германии вышел из себя из-за критики его позиции по России
В этом году больше россиян отправятся зимовать в теплые страны
Протестующие после трагедии в Нови-Саде заблокировали мост через Дунай
В Тульской области объявлена опасность атаки БПЛА
В Брянской области сбили восемь украинских беспилотников
В Британии указали на ухудшение отношений Лондона и Киева
ВВС Израиля атаковали военные склады и заводы в Сирии
Пепел вулкана Шивелуч может помешает полетам авиации над Камчаткой
Психолог предупредила о тревожных признаках родительского выгорания
СМИ сообщили о серии взрывов в Одессе после массированной атаки БПЛА
В России упразднили комитет по подготовке к Олимпийским играм
На Украине гражданским разрешили использовать найденное и задекларированное оружие
Жители Бейрута сообщили о взрыве на фоне удара Израиля по складу «Хезболлы»
Все новости