На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +

«Ищите артефакты»: россиянам раскрыли способ отличить дипфейк на фото и видео

ИБ-эксперт Мясоедов: дипфейк на фото и видео можно выявить с помощью звука и ПО

Мошенники все активнее применяют в своих целях технологии искусственного интеллекта, включая дипфейки – создание копий других людей в соцсетях, мессенджерах. Однако выявить подделку можно даже невооруженным взглядом – главное знать, на что следует обратить внимание, рассказал 360.ru эксперт по кибербезопасности Павел Мясоедов.

В IT-сфере используется термин «артефакт», который в данном случае означает надрыв, искажение или еще какую-то похожую проблему с контентом, сообщил специалист. К графическим изображениям, объектам, звукам это тоже относится.

«Простым языком: если вы смотрите какое-то видео с дипфейком, пока, к счастью, программное обеспечение не дошло до того уровня, чтобы делать абсолютно натуральную картинку, поэтому возникают какие-то прерывания, надломы голоса, — пояснил эксперт. — Более того, дипфейки, связанные с голосом, обычно компилируются из имеющихся в ПО звуковых дорожек. Потому голос прерывистый».

Что касается картинки, то если речь идет о видео, чаще всего можно заметить странные «подергивания», артефакты могут наблюдаться в контуре изображения – они, например, могут быть странно замылены, что часто делают для придания картинке натуральности. Однако такое замыливание должно сразу насторожить, отметил Мясоедов. Он также порекомендовал обращать внимание на фон и на то, насколько объект на нем натурально двигается, есть ли тени. Если видно, что что-то нарушается, не выглядит натуральным – это и есть артефакты, по которым определяют дипфейк, пояснил он.

Если на глаз распознать подделку слишком сложно, то можно использовать специальное ПО, которое будет показывать контраст между пикселями, слишком резкий переход между ними – на основе этих данных программа сообщает, что изображение создано искусственно. Однако обычно ПО применяют для анализа большого числа дипфейков, а в случае с разовыми ситуациями сделать это можно и на глаз, заключил эксперт.

Специалисты по ИИ недавно пришли к выводу, что каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства». Причем в 2025 году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались, из-за чего современные дипфейки становятся все сложнее распознать.

Ранее в полиции рассказали, как распознать дипфейки.

Что думаешь?
Загрузка
 
Невероятно заразен. Откуда берется «зимний кишечный грипп» и как его лечить