Размер шрифта
Новости Спорт
Выйти
Операция США в Венесуэле и захват МадуроГибель детей в роддоме НовокузнецкаПротесты в Иране — 2026
Новости. Общество

Россиянам рассказали, как защититься от дипфейков со своим изображением

Киберэксперт Шутов: чтобы защититься от дипфейков, нужно соблюдать правила

Мошенники в последнее время активно используют дипфейки для выманивания средств – поддельные видеоролики и аудиозаписи с изображением и голосом человека. Чтобы не стать жертвой такого обмана, нужно стараться не публиковать свои данные на открытых ресурсах, а также очень критично оценивать всю поступающую информацию, рассказал RT преподаватель кафедры КБ-1 «Защита информации» РТУ МИРЭА Василий Шутов.

Используя разные современные программы, злоумышленники с помощью искусственного интеллекта генерируют контент с образом и голосом человека, после чего рассылают от его лица сообщения. В них человек якобы просит о финансовой помощи, причем близкие редко могут отличить подделку от реального сообщения.

«Многие люди становятся жертвами обмана и переводят крупные суммы мошенникам», — констатировал специалист, добавив, что риск снижается, если в открытом доступе нет личных данных.

Также Шутов призвал критично оценивать поступающую информацию, отмечать любые искажения, несоответствия и лишние пиксели. В том числе нужно внимательно следить за частотой моргания, совпадением голоса и открывающегося рта, обращать внимание на окружающие человека предметы и тени. Насторожиться следует, если у человека на видео тусклые глаза и зубы, кожа неестественного цвета, а детали и контуры прорисованы плохо.

Важно не переходить по присылаемым (даже от знакомых) ссылкам, проверять информацию, добавил киберэксперт. Он также порекомендовал защитить данные от вредоносных программ-шифровальщиков с помощью резервных копий, сложных дополнительных паролей – важно, чтобы они были уникальные для каждого отдельного ресурса.

Напомним, этой осенью в Госдуму планируют внести законопроект о дипфейках, над которым работают «лучшие юридические умы». Также МВД России разрабатывает поправки в Уголовный кодекс РФ, которыми предлагается признать использование искусственного интеллекта при совершении преступлений отягчающим обстоятельством.

Ранее россиянам объяснили, как отличить дипфейк от настоящего видео.

{
    "_essence": "video",
    "media_position": "bottom",
    "uid": "_id_video_media_23889283_rnd_3",
    "video_id": "record::36fc1f39-8e3a-41e9-b42c-34ec0559e9b6"
}

 
Ваш ИИ-помощник может работать на мошенников. Как защититься от кибератак нового поколения