Использование искусственного интеллекта (ИИ) в работе может приводить к ошибкам и серьезным проблемам для людей и бизнеса. Алгоритмы не всегда понимают смысл информации и могут принимать неверные решения, сказала «Газете.Ru» главный юрист компании «Моя удаленка» Валерия Минакова.
«Например, ИИ может неправильно читать текст. Он иногда путается в словах «не» и «нет». Из-за этого система может решить, что у человека есть болезнь, хотя в документе написано, что ее нет. Если врач без проверки поверит ИИ, это может навредить пациенту. Ошибки случаются и в сервисах для клиентов. Так, издание The Guardian писало о случае с чат-ботом авиакомпании Air Canada. Бот дал пассажиру неверный совет о возврате билета. После перелета оказалось, что совет был неправильным. Мужчина обратился в суд, и компанию обязали выплатить компенсацию — 812 канадских долларов», — отметила Минакова.
По ее словам, ИИ также может блокировать аккаунты или отказывать в услугах без понятного объяснения: летом 2025 года пользователи Instagram (владелец компания Meta признана в России экстремистской и запрещена) жаловались на блокировки, хотя не нарушали правила. Люди считали, что это произошло из-за автоматических проверок с помощью ИИ, добавила Минакова.
По ее мнению, из-за таких ситуаций возникает главный вопрос: кто отвечает за ошибки алгоритмов, если они влияют на доход, работу или репутацию человека.
Минакова подчеркнула, что многие страны уже меняют подход к регулированию ИИ — они требуют, чтобы решения алгоритмов можно было объяснить, а человек имел право вмешаться. Например, в Евросоюзе принят AI Act, который обязывает компании делать ИИ понятным и управляемым, особенно в медицине, финансах и госуслугах.
«В России также движутся в сторону контроля ИИ. Закон о платформенной занятости требует, чтобы автоматические решения можно было проверять и оспаривать. Это особенно важно для самозанятых и фрилансеров, чей доход зависит от цифровых платформ. ИИ не должен работать полностью сам по себе. Новая норма — человек контролирует алгоритм, а компании заранее прописывают ответственность за ошибки, утечки данных и несправедливые решения», — заключила Минакова.
Она заключила, что ИИ — это не «умная кнопка», а система, которая может ошибаться, поэтому за ней всегда должен стоять человек.
Ранее Собянин назвал Москву безусловным лидером по развитию ИИ.