Размер шрифта
Новости Спорт
Выйти
Операция США в Венесуэле и захват МадуроГибель детей в роддоме НовокузнецкаПротесты в Иране — 2026
Новости технологий

Россиянам рассказали, какие данные опасно передавать ИИ

Специалист Вехов: фотографии и голос опасно передавать ИИ

Искусственному интеллекту не стоит присылать свои фотографии, портфолио, записи, голос, потому что эти данные могут использовать мошенники. Об этом в интервью радио Sputnik рассказал эксперт в области информационной безопасности, профессор кафедры «Безопасность в цифровом мире» МГТУ им. Баумана Виталий Вехов.

По его словам, нейросети способны смоделировать аудио и видео обращения для мошеннических действий. Он предупредил, что аферисты уже пользуются возможностями ИИ в даркнете.

«У нас же есть разные уровни искусственного интеллекта, и в даркнете до сих пор на, как мы их называем, вражеских сайтах, продаются и сдаются в аренду системы искусственного интеллекта, заточенные под совершение конкретных видов преступлений, связанных с наркотиками, торговлей органами, людьми, оружием, в том числе для совершения мошеннических действий», — заключил Вехов.

Доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин до этого рассказал «Газете.Ru», что ChatGPT сохраняет данные диалогов и присваивает каждому сеансу уникальный идентификатор, что позволяет разработчикам совершенствовать алгоритмы и исправлять ошибки. Но всегда существует риск, что информация может быть использована третьими лицами — от мошенников до спецслужб.

Ранее были названы две основные схемы доступа мошенников к личным данным россиян.

{
    "_essence": "video",
    "media_position": "bottom",
    "uid": "_id_video_media_26749964_rnd_4",
    "video_id": "record::9a6854f0-7315-4055-b817-587b0b44e961"
}

 
Закладывайте до полугода: кому будет сложно найти работу в 2026 году