В 2022 году цели команды Молодежного цифрового омбудсмена не изменились: мы последовательно выступаем за защиту прав молодых людей в цифровой среде, поддержку ИТ-инициатив и ИТ-проектов, повышение уровня правовой и цифровой грамотности молодежи. В сегодняшней колонке мы поговорим о дипфейках – феномене, распространение которого может затронуть не только межгосударственные отношения, но и жизнь, права и доброе имя обычных пользователей.
Что же такое «дипфейк»
Многие из нас сталкивались в социальных сетях с фрагментами популярных кинокартин, где в развлекательных целях изменены лица главных героев: например, с эпизодом из фильма «Терминатор 2», где вместо Арнольда Шварценеггера появляется Сильвестр Сталлоне. И в целом весьма забавно, когда герои «Властелина Колец» или «Шрека» обретают ваше лицо и мимику или разговаривают вашим голосом. Всё это не что иное, как дипфейки.
Deepfake – это реалистичная подмена фото-, аудио- и видеоматериалов, созданная посредством нейросетей.
Дипфейки – явление, которое нельзя оценивать как однозначно «плохое» или «хорошее»: вопрос в том, как человек будет его использовать. В современном мире компьютерные алгоритмы способны «оживить» фотографию, заменить голос человека или его лицо на видеофрагменте. Технология была разработана студентом Стэнфордского университета Яном Гудфеллоу в 2014 году. Три года спустя пользователь Reddit с ником deepfake с ее помощью заменил лица актрис, снимавшихся в сценах эротического содержания, лицами знаменитостей, и опубликовал получившиеся видео на платформе. Это стало первым шагом к формированию негативных коннотаций вокруг термина «дипфейк».
Затем технология упростилась и стала доступна пользователю любого компьютерного устройства. Например, дипфейки можно создать без всяких специальных знаний с помощью приложений FaceApp, Zao, Reface на смартфоне с платформами iOS и Android.
Популярность дипфейк-приложений продолжает набирать обороты. В 2020 году в сети «прогремело» видео, в котором Илон Маск исполнил песню «Трава у дома» вместо солиста группы «Земляне». Подобные творческие эксперименты в настоящее время уже не удивляют пользователей социальных сетей. Однако любые, даже самые безобидные на первый взгляд вещи могут быть использованы как в позитивном, так и негативном ключе.
Чем могут быть полезны дипфейки
Замену лиц или голоса актеров в сценах популярных фильмов и сериалов молодёжь воспринимает в первую очередь как шутку.
Действительно, большинству из нас кажется, что это не несёт в себе никакой доли негатива, а иногда даже используется во благо!
Например, с ее помощью можно «оживить» легендарных актёров, художников, учёных.
Музей Сальвадора Дали во Флориде уже «оживил» художника, который стал экспонатом в собственном музее. В настоящее время также предлагается использовать подобный алгоритм в астрофизике, чтобы избавляться от шумов и помех при съемке космических объектов и получать качественные изображения.
Применение данной технологии позволяет с помощью наложения нескольких фрагментов изображений на одно создать качественный снимок космического объекта в детальных подробностях.
Чем опасны дипфейки в современных реалиях
Об основных угрозах и рисках распространения дипфейков можно догадаться, отталкиваясь от приведенной в начале колонки истории их появления. Замена лиц и голосов в видео- и аудиозаписях может быть направлена на манипулирование общественным мнением и сознанием, унижение чести и достоинства людей (в первую очередь тех, чьи лица были использованы при монтаже).
Подростки могут задействовать этот инструмент для кибербуллинга, и тогда «шуточный» ролик, в котором униженный герой приобретает ваше лицо или произносит неприятные речи вашим голосом, уже будет не забавой, а издевательством.
Дипфейки могут использоваться и в преступных целях – например, в мошеннических.
Представьте: ваш близкий друг получает видео- или аудиосообщение, где якобы вы просите одолжить тысячу рублей. Говоря юридическим языком, лицо или голос мошенника заменяются вашими для получения денежных средств посредством умышленного введения в заблуждение (обмана). Подобный инцидент произошёл в марте 2019 года в Великобритании: с помощью программного обеспечения на основе искусственного интеллекта мошенники сымитировали голос исполнительного директора британской энергетической компании и дали сотруднику этого предприятия поручение о переводе 220 тыс. евро. Работник, узнав голос своего начальника, перечислил деньги преступникам. Их так и не поймали.
В настоящее время злоумышленники могут использовать дипфейки как средство манипулирования общественным мнением и сознанием, кибертравли и совершения мошенничества.
Что говорит право об использовании дипфейков
В настоящее время изображение человека, как и текст, музыка, картинки, в Российской Федерации охраняются законом. Согласно ст. 152.1 Гражданского кодекса РФ, использование изображения гражданина допускается только с его согласия. В дипфейках используются изображения людей, а, значит, необходимо их согласие. В противном случае гражданин, изображение которого было незаконно использовано, имеет право требовать удаления изображения в интернете, пресечения или запрета его дальнейшего распространения. Если изображение гражданина при использовании его в дипфейках носит явный оскорбительный характер, то гражданин имеет право подать в суд иск о защите чести и достоинства, а также потребовать компенсацию морального вреда.
При этом отдельная ответственность за использование дипфейков в российском законодательстве не установлена (нет специальной статьи), то есть сама по себе технология является правомерной. Однако с ее помощью злоумышленники могут реализовывать незаконную деятельность, за которую предусмотрена административная или уголовная ответственность.
Законодательству затруднительно учесть все тонкости жизненных реалий и развития современных технологий. В связи с этим ряд социальных сетей попытались самостоятельно урегулировать вопросы распространения дипфейков на своих платформах. В частности, TikTok в пользовательском соглашении прописал правило, согласно которому запрещается любой манипулятивный контент, который вводит пользователей в заблуждение, искажая правду о событиях, и влечет причинение вреда.
Политика TikTok не столько запрещает использование конкретной технологии, основанной на искусственном интеллекте, сколько предупреждает использование «обманывающих видео», направленных, например, на очернение политических оппонентов или иное унижение чести и достоинства человека или даже целой группы лиц.
Огромная проблема для социальных сетей в настоящее время – отсутствие программного обеспечения, способного эффективно обнаруживать дипфейки.
В 2019 году Facebook совместно с Microsoft и другими партнерами запустили для решения этой проблемы конкурс «The Deepfake Detection Challenge». Успех имела белорусская модель разработчика Селима Сефербекова: её точность в тестовых испытаниях составила 65,18%. Третье место заняла модель российской компании NTechLab. Разработки, направленные на достижение более эффективных результатов в данной области, всё ещё продолжаются.
Что планирует делать команда МЦО для минимизации рисков негативного использования дипфейков
Команда Молодежного цифрового омбудсмена осознает важность проблемы дипфейков в цифровом пространстве. Совсем скоро мы начнем экспертную работу по составлению материалов о выявлении и противодействии фейкингу и манипулированию сознанием с помощью масс-медиа дипфейков.
На основе экспертных материалов, разработанных Московским государственным юридическим университетом имени О.Е. Кутафина (МГЮА), команда МЦО уже проводит интерактивные мастер-классы для студентов и школьников «Угрозы информационно-мировоззренческой безопасности молодых людей в цифровом пространстве: какие они, как их распознать и как от них защититься?» Во время мастер-классов спикер отдельно обращает внимание аудитории на проблему фейков и дипфейков.
Вопросы медиабезопасности и медиаграмотности широко освещаются в наших социальных сетях: мы публикуем статьи и посты, посвященные фейкингу и способам вербального воздействия на сознание человека.
Команда МЦО открыта к партнерству и в настоящий момент определяет наиболее интересные для молодежной аудитории перспективы сотрудничества в этой области. В новом году мы планируем начать взаимодействие с организациями, которые занимаются проблемами фейкинга и дипфейков. Следите за новостями.
Автор — молодежный цифровой омбудсмен.