Стало известно, как нейросети помогают мошенникам обманывать россиян

Специалист Курочкин: мошенники могут создать фейковые видео с помощью нейросети

Depositphotos

Мошенники могут сгенерировать голос родственников при помощи искусственного интеллекта для обмана людей. Об этом Pravda.Ru рассказал эксперт по кибербезопасности Алексей Курочкин.

Кроме того, нейросети позволяют создавать фейковые видео и видеозвонки для подтверждения своих слов.

«То есть сначала звонят и голосом говорят: «Помоги деньгами, я в полиции», после этого происходит видеозвонок тех же мошенников с поддельного номера, злоумышленник говорит: «Полицейские дали мне позвонить», и на фоне полиции вроде бы ее внук или сын разговаривает и то же самое говорит», — рассказал эксперт.

По словам Курочкина, пожилые люди часто верят этому и переводят злоумышленникам деньги.

Накануне «Газете.Ru» сообщили, что исследователи Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН) совместно с исследователями РАНХиГС обучили нейросеть находить соответствия между способностью человека противостоять кибермошенникам и его аватаркой в социальных сетях. Пока нейросеть распознает немного признаков на фотографии пользователя: положение головы, глаз, выражение лица и некоторые другие. Однако в будущем ученые хотят добавить больше признаков.

Ранее сообщалось, что российский кинооператор отдал мошенникам, обещавшим доход на криптобирже, 6 млн рублей.