Размер шрифта
Новости Спорт
Выйти
Война США и Израиля против ИранаВизит Трампа в КитайВспышка хантавируса
Мнения

Эпоха алгоритмов: кто управляет судьбой человека

Какой может быть цена ошибки из-за неверного решения алгоритма

Сегодня искусственный интеллект превосходит способности человека во многих сферах. Его алгоритмы способны самостоятельно принимать важные решения, имеющие юридические последствия для граждан и тем самым влиять на их судьбу. Например, одному и тому же клиенту банка алгоритм может отказать в выдачи кредита, в то время как специалист банка может его одобрить. Кроме того, алгоритмы используются в наиболее чувствительных сферах жизни человека - помогают врачам ставить диагнозы, выписывать штрафы на основе фото-видеофиксации, выносить судебные решения, а также увольнять сотрудников с работы.

Представляете, какая может быть цена ошибки из-за неверного решения алгоритма?
 
Так, в США использование автоматизированного программного обеспечения для фильтрации резюме негативно отразилось на процессе найма, поскольку оно привело к потере миллионов подходящих на должности кандидатов (данные отчета Гарвардской школы бизнеса).
 
В 2019 году в штате Аризона беспилотный автомобиль Uber впервые сбил насмерть человека, который, переходил дорогу вне пешеходного перехода. А в прошлом году военный квадрокоптер Kargu-2, находясь в автономном режиме работы, убил человека во время вооруженного конфликта в Ливии. Это был первый зафиксированный прецедент в истории, когда дрон без приказа человека совершил убийство.
 
Хотя уже сегодня искусственный интеллект способен брать на себя «творческие» функции, но он всё еще очень уязвим и несовершенен, а последствия его ошибок, неверно принятых решений - очень высоки. Если мы заранее не объяснили ИИ, что человек может переходить дорогу в неположенном месте, то скорей всего повторится история с Uber. Кроме того, применение искусственного интеллекта в высокочувствительных сферах жизни, например, в медицине возможно только в случае высокой достоверности данных, вносимых врачами в истории болезни. Однако требования и механизмы обеспечения достоверности первичных данных российским законодательством сегодня не предусмотрены.
 
Безусловно возможна и дискриминация со стороны «машины», примеры выше показывают это.

Сейчас предсказать решение, которые предложит алгоритм очень сложно, особенно если набор факторов и переменных очень большой. Если ранее решение компетентного органа принималось человеком, то при использовании алгоритма, создается двоякая ситуация – с одной стороны, исключается субъективный фактор, но с другой - ошибка системы, неправильная трактовка документов может сделать человека в некоторых случаях бессильным изменить ситуацию. К тому же, ИИ в дискуссии с учеными Оксфордского университета сам предупреждал, что он никогда не будет этичным. «Этот инструмент, как и любой другой, используется как во благо, так и во вред», - говорила машина.
 
Выявление дискриминационных начал в системах алгоритмического принятия решений (АПР) очень затруднено из-за отсутствия правовых норм, регламентирующих возможность получения доступа независимых экспертов к алгоритмам и наборам данных, используемых для принятия решений, а также наличия правовых барьеров, связанных с законодательством о защите интеллектуальной собственности разработчиков таких систем. В свою очередь, обжалование решений искусственного интеллекта также имеет ряд сложностей для человека, в частности:
 
- непрозрачность самого алгоритма принятия решений (принцип «черного ящика»), следовательно, сложно проанализировать причины принятия системой такого решения;
- отсутствие удобных для человека и оперативных механизмов обжалования такого решения с достаточным количеством компетентных сотрудников оператора системы.
 
Еще один риск, о котором всегда нужно помнить при работе с алгоритмами ИИ, - возможность манипуляций.

Все системы алгоритмического принятия решений (АПР) строятся на огромном массиве данных. Доступ к этим данным могут иметь разработчики и другие сотрудники. А это значит, что они могут настраивать системы определенным образом.
 
Сегодня кризис только ускорил внедрение технологий искусственного интеллекта, и этот импульс сохранится в дальнейшем, показывают опросы PwC: большинство компаний (52%) стали быстрее внедрять ИИ из-за пандемии, 86% респондентов утверждают, что ИИ становится «основной технологией» в их компании. А по прогнозам Deloitte, совокупный объем рынка таких решений в 2022 году достигнет $250 млн, а к 2025 году — $500 млн.
 
Регулирующие органы разных стран беспокоит то, как применение искусственного интеллекта может отразиться на борьбе за социокультурное разнообразие, равные возможности, борьбе против предвзятости и дискриминации и защиту частной жизни. Поэтому в преддверии нового года в Европейском союзе, Китае, США и ряде других государств уже активно прорабатывается ряд предложений о более системном регулировании применения этой технологии. Кроме того, на днях глава ООН призвал принять меры против «роботов-убийц».
 
Россия - не исключение. Наша страна, как и другие государства, также идет по пути регулирования ИИ.

Так, в конце октября этого года рядом крупных компаний был разработан и подписан Кодекс этики в сфере искусственного интеллекта, который дает возможность снять часть рисков, связанных с использованием этой технологии.
 
На мой взгляд, регулирование в РФ использования АПР целесообразно начать с государственных информационных систем, поскольку в них принимаются наиболее чувствительные решения для человека. Тем самым одно из ключевых предложений – превратить госорганы в «цифровую песочницу», в рамках которой они тестируют на себе те меры, которые впоследствии можно будет распространить на частный сектор. В рамках экспериментального правового режима важно сформировать лучшую практику использования искусственного интеллекта, которая не будет ограничивать права граждан, а максимально будет способствовать их реализации.
 
Для этого необходимо обеспечить прозрачность российских систем АПР, их объяснимость и аудируемость, а также соблюдение требований к качеству входящих данных.

Например, по примеру Канады можно включить механизмы независимой экспертной оценки на этапе закупки и внедрении таких систем (как вариант, на уровень руководства министерства или аналогичного по уровню ведомства).
Российские граждане должны понимать, почему ИИ принял то или иное решение, а также иметь право оспорить решение машины, поэтому необходимо создать эффективные механизмы обжалования. Кроме того, следует предусмотреть механизмы, направленные на минимизацию стимулов по автоматическому «штампованию» вынесенных алгоритмами решений, а также обеспечить оперативную и качественную обратную связь по результатам рассмотрения жалоб.
 
Ключевым фактором дальнейшего развития технологии в РФ является повышение общественного доверия алгоритмам, поэтому также важно разработать положения, регулирующие порядок устранения и исправления ошибок, вызванных «машинными» решениями. Организовать отправку уведомлений на сайте госоргана или организации о применении системы АПР, заложенных в нее принципах и наборах использованных данных; провести предварительную оценку алгоритмического воздействия системы на предмет справедливости, отсутствия дискриминации, точности и релевантности обучающих данных и др.
 
Стоит отметить, что в нашей стране для формирования адекватного правового регулирования систем АПР создана вся необходимая правовая база: есть Национальная стратегия развития ИИ до 2030 года, а также утверждена Концепция регулирования в сфере ИИ и робототехники до 2024 года.
 

Кроме того, Президент до 1 марта 2022 года поручил Правительству РФ совместно с Государственной Думой ускорить подготовку проектов федеральных законов о внесении в законодательство РФ изменений, в соответствии с которыми органам государственной власти будет разрешено предоставлять организациям, разрабатывающим технологические решения с применением искусственного интеллекта, и научным организациям доступ к наборам обезличенных данных при условии обеспечения безопасности и конфиденциальности персональных данных, в том числе обезличенных.
 
Таким образом, на мой взгляд, комплекс этих мер позволит «защитить» российских граждан от искусственного интеллекта, повысить уровень доверия к этой технологии, а главное - ускорить ее развитие в стране.

Автор — председатель комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России.

 
Как принудительно вернуть деньги на карту за неудачную покупку
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!