Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Россиянам рассказали о правилах кибербезопасности при использовании чат-ботов

ИТ-специалист Бушуев рассказал, как не потерять личные данные при общении с чат-ботом

Чат-боты вроде ChatGPT не знакомы с понятием «персональные данные» и не умеют их обрабатывать, поэтому во избежание утечек общаться с ними нужно так, как будто вы говорите с малознакомым человеком. Об этом «Газете.Ru» рассказал программист-разработчик и сооснователь IT-компании i2crm Захар Бушуев.

«Бот сохраняет в памяти все, что попадает к нему. При этом существует вероятность утечки информации. Она может произойти, если бот решит использовать чужие данные в диалогах с другими пользователями», – объяснил эксперт.

Для предотвращения подобных инцидентов Бушуев порекомендовал соблюдать несколько правил цифровой гигиены. Например, нужно осознавать значимость данных и ни в коем случае не сообщать боту пароли от приложений, коды банковских карт, адреса, а также персонифицированные данные вроде фамилии друзей и родственников.

«Это может казаться неважным на первый взгляд, но часто через дополнительную информацию (условно, девичью фамилию супруги), можно узнать другие данные и воспользоваться ими», – сказал эксперт.

Генеративных ботов вроде ChatGPT иногда используют для составления юридических документов. В этом случае, по словам Бушуева, нельзя передавать адреса, денежные суммы, названия компаний и лиц, участвующих в споре. Лучше, по его словам, использовать вымышленные идентификаторы.

В случаях, когда боты используются как рабочий инструмент в корпоративной среде, эксперт рекомендовал создать регламент и закрепить в нем понятия персональных данных, коммерческой тайны и в целом той информации, которую нельзя передавать приложению.

Ранее «Газета.Ru» писала о том, что общение сотрудников Samsung с ChatGPT привело к утечке некоторых секретных данных компании.

Загрузка