За январь-июнь 2024 года в России на треть выросло число случаев обмана россиян с помощью Deepfake-видео и голосовых сообщений Deepfake — методика синтеза изображения или голоса, основанная на искусственном интеллекте . Об этом «Газете.Ru» сказал управляющий RTM Group Евгений Царев. Он предрек дальнейший рост количества таких инцидентов.
«Впереди нас ждут еще большие «рекорды», скорее всего после 2025 года. Дело в том, что сегодня любой школьник может сделать аудио и видео фейк. Одновременно с этим современные люди наиболее доверчивы именно к таким сообщениям (с голосом их друга или руководителя — ну как им можно не поверить!). И если в случае получения текстовых сообщений критическое мышление еще работает, то с аудио или видео у большинства оно отключается», — пояснил киберэксперт.
По его наблюдениям, у человека в момент получения аудио или видео-сообщения включается обратный механизм, когда он начинает находить объяснения даже для очевидных ляпов. По словам Царева, если голос в аудио не очень похож на голос близкого человека, получатель может придумывать объяснения этому, например, «сломался микрофон» или «шум рядом» или «простыл мой друг, наверное».
По оценке эксперта, в России объем мошенничества в деньгах увеличивается на 20% ежегодно. По данным ЦБ, в 2023 году банки предотвратили около 35 млн попыток мошенников похитить деньги клиентов, а только в январе — июне 2024 года зафиксировано и предотвращено уже 30,2 млн попыток хищения средств на сумму 4,3 трлн рублей.
Подробнее — в материале «Газеты.Ru».