На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Эксперты предупредили о росте дипфейк-атак к концу 2025 года

«Известия»: каждый второй россиянин столкнется с дипфейк-атакой к концу года

Каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. Об этом пишут «Известия» со ссылкой на специалистов по искусственному интеллекту.

Дипфейками называют фотографии или видеозаписи, на которых голос или внешность человека «подделаны» с помощью нейросети. По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства».

Специалисты обратили внимание на то, что в 2025 году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались. В связи с этим современные дипфейки становятся все сложнее распознать.

В конце апреля МВД России сообщило, что признаками дипфейка являются неестественная интонация речи, редкое моргание и несоответствие движений губ речи. Если заметен «роботизированный» тон речи, рекомендуется проверить собеседника другим способом, чтобы убедиться в его подлинности.

До этого исполнительный директор MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков может вырасти до десятков миллионов в течение ближайших трех лет из-за доступности технологии. По его словам, за это время любой сможет клонировать голос или накладывать чужое лицо на фото и видео.

Ранее стало известно, что цифровые двойники людей научились подделывать сердцебиение.

Что думаешь?
Загрузка