Размер шрифта
Новости Спорт
Выйти
Операция США в Венесуэле и захват МадуроПереговоры о мире на Украине

Названы риски использования ИИ на работе

Юрист Минакова: ИИ в работе может приводить к ошибкам и серьезным проблемам для людей

Использование искусственного интеллекта (ИИ) в работе может приводить к ошибкам и серьезным проблемам для людей и бизнеса. Алгоритмы не всегда понимают смысл информации и могут принимать неверные решения, сказала «Газете.Ru» главный юрист компании «Моя удаленка» Валерия Минакова.

«Например, ИИ может неправильно читать текст. Он иногда путается в словах «не» и «нет». Из-за этого система может решить, что у человека есть болезнь, хотя в документе написано, что ее нет. Если врач без проверки поверит ИИ, это может навредить пациенту. Ошибки случаются и в сервисах для клиентов. Так, издание The Guardian писало о случае с чат-ботом авиакомпании Air Canada. Бот дал пассажиру неверный совет о возврате билета. После перелета оказалось, что совет был неправильным. Мужчина обратился в суд, и компанию обязали выплатить компенсацию — 812 канадских долларов», — отметила Минакова.

По ее словам, ИИ также может блокировать аккаунты или отказывать в услугах без понятного объяснения: летом 2025 года пользователи Instagram (владелец компания Meta признана в России экстремистской и запрещена) жаловались на блокировки, хотя не нарушали правила. Люди считали, что это произошло из-за автоматических проверок с помощью ИИ, добавила Минакова.

По ее мнению, из-за таких ситуаций возникает главный вопрос: кто отвечает за ошибки алгоритмов, если они влияют на доход, работу или репутацию человека.
Минакова подчеркнула, что многие страны уже меняют подход к регулированию ИИ — они требуют, чтобы решения алгоритмов можно было объяснить, а человек имел право вмешаться. Например, в Евросоюзе принят AI Act, который обязывает компании делать ИИ понятным и управляемым, особенно в медицине, финансах и госуслугах.

«В России также движутся в сторону контроля ИИ. Закон о платформенной занятости требует, чтобы автоматические решения можно было проверять и оспаривать. Это особенно важно для самозанятых и фрилансеров, чей доход зависит от цифровых платформ. ИИ не должен работать полностью сам по себе. Новая норма — человек контролирует алгоритм, а компании заранее прописывают ответственность за ошибки, утечки данных и несправедливые решения», — заключила Минакова.

Она заключила, что ИИ — это не «умная кнопка», а система, которая может ошибаться, поэтому за ней всегда должен стоять человек.

Ранее Собянин назвал Москву безусловным лидером по развитию ИИ.

{
    "_essence": "video",
    "media_position": "bottom",
    "uid": "_id_video_media_27530341_rnd_4",
    "video_id": "record::18a022c8-ad26-4178-885c-c14afdc2ee6c"
}

 
При простуде часто советуют полоскать горло. Как правильно это делать и какие средства точно не помогут