Каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. Об этом пишут «Известия» со ссылкой на специалистов по искусственному интеллекту.
Дипфейками называют фотографии или видеозаписи, на которых голос или внешность человека «подделаны» с помощью нейросети. По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства».
Специалисты обратили внимание на то, что в 2025 году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались. В связи с этим современные дипфейки становятся все сложнее распознать.
В конце апреля МВД России сообщило, что признаками дипфейка являются неестественная интонация речи, редкое моргание и несоответствие движений губ речи. Если заметен «роботизированный» тон речи, рекомендуется проверить собеседника другим способом, чтобы убедиться в его подлинности.
До этого исполнительный директор MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков может вырасти до десятков миллионов в течение ближайших трех лет из-за доступности технологии. По его словам, за это время любой сможет клонировать голос или накладывать чужое лицо на фото и видео.
Ранее стало известно, что цифровые двойники людей научились подделывать сердцебиение.