Названы риски использования ИИ при найме

Битрикс24»: использование ИИ при найме может привести к штрафам и потере репутации
Anggalih Prasetya/Shutterstock/FOTODOM

ИИ-ассистенты при найме персонала работают с массивами персональных и поведенческих данных сотрудников и соискателей, поэтому цена ошибки критична, сказал «Газете.Ru» руководитель отдела персональных данных «Битрикс24» Алексей Масланов. По его словам, использование ИИ в HR может обернуться штрафами и репутационными потерями.

Эксперт отметил, что в России тема напрямую связана с требованиями ФЗ-152 «О персональных данных» и нормами трудового законодательства о защите данных работников. Ключевой вопрос для работодателя — не только можно ли обрабатывать данные, но и насколько прозрачен алгоритм, влияющий на права человека, сказал Масланов. Если решение об отказе в приеме на работу или повышении опирается на выводы модели, компания должна уметь объяснить логику такого кадрового решения, а не ссылаться на формулу «так посчитал алгоритм», предупредил эксперт.

По его словам, в HR-ИИ обычно попадают персональные сведения (ФИО, контакты, дата рождения, гражданство, образование, опыт работы), поведенческие метрики (продуктивность, активность в корпоративных системах, KPI, участие в проектах), психометрические результаты тестов и оценка soft-skills, а также видео- и аудиоданные — записи интервью, расшифровки, голосовые ответы. Эксперт напомнил, что статья 86 ТК РФ запрещает основывать решения, затрагивающие интересы работника, исключительно на данных, полученных в результате автоматизированной обработки: ИИ может сравнивать, подсвечивать и предлагать, но итоговое решение должно оставаться за человеком, особенно если у него есть последствия для сотрудника.

«Отдельный блок рисков связан с безопасностью. Самая частая угроза при интеграции с внешними сервисами или облачными решениями — утечки персональных данных и использование информации для дообучения моделей без информированного согласия, отметил эксперт. Это грозит штрафами, репутационными потерями и падением доверия со стороны кандидатов. Кроме того, есть риск алгоритмической дискриминации, когда модель воспроизводит предвзятости исторических данных», — отметил Масланов.

Так, если раньше компания реже нанимала женщин на технические роли или людей старше 45 лет, алгоритм может «научиться» занижать оценку таких профилей, предупредил эксперт, добавив, что это конфликтует с запретом дискриминации при приеме на работу (ст. 3 ТК РФ) и сужает воронку талантов.

Чтобы снизить риски, Масланов рекомендовал сохранять участие человека в принятии решений, регулярно аудировать модели и исключать из обучения чувствительные признаки.

Ранее россиянам рассказали, в каких сферах ИИ-технологии полезны.