Размер шрифта
Новости Спорт
Выйти
Операция США в Венесуэле и захват МадуроГибель детей в роддоме НовокузнецкаПротесты в Иране — 2026
Новости технологий

Мошенники с помощью ИИ могут притворяться детьми россиян и выманивать деньги

РИА Новости: мошенники подделывают голоса детей и выманивают у родителей деньги

Телефонные аферисты начали использовать технологии искусственного интеллекта (ИИ) для имитации голосов детей с целью вымогательства денег у их родителей. Об этом сообщает РИА Новости.

Схема обмана заключается в следующем: злоумышленники с помощью нейросетей генерируют убедительную копию голоса ребенка. Затем, используя этот синтезированный голос, они связываются с родителями.

В одном из зафиксированных случаев мошенникам удалось создать поддельную голосовую запись, с помощью которой они позвонили родителям.

«В частности, мошенники смогли подделать голос ребенка, позвонить его родителям и под предлогом сбора денег на подарок другу на день рождения попросили перевести несколько тысяч рублей», – пишет РИА Новости.

Эксперты уже неоднократно предупреждали россиян о растущей угрозе использования технологий глубокого обучения (deepfake) в мошеннических схемах, направленных на эмоциональное давление на граждан.

Ранее выяснилось, что более трети россиян мечтают о работе в сфере ИИ.

{
    "_essence": "video",
    "media_position": "bottom",
    "uid": "_id_video_media_26953664_rnd_6",
    "video_id": "record::9a6854f0-7315-4055-b817-587b0b44e961"
}

 
7 мифов о витаминах, в которые до сих пор верят даже взрослые