Газета.Ru в Telegram
Новые комментарии +

Будущее ИИ: каковы будут главные приоритеты и вектор развития

Эксперт Орехович высказалась о том, по какому пути пойдет мировое регулирование ИИ

Значение искусственного интеллекта в современном мире сложно переоценить: умные дома, беспилотный транспорт, системы принятия врачебных, юридических и иных решений – это те сферы применения ИИ, которые сейчас «на слуху» практически у каждого человека. Очевидно, такое использование нацелено то, чтобы сделать жизнь людей более комфортной, на избавление человека от рутинных обязанностей, минимизацию ошибок ввиду усталости и человеческого фактора благодаря использованию алгоритмов обработки и аналитики.

В то же время, в экспертном сообществе все чаще поднимается вопрос: а насколько безопасно использование так называемого искусственного интеллекта, основанного на машинном обучении, способного заниматься, например, предиктивной аналитикой, делать выводы и предлагать решения по заданным параметрам. Так, например, большое количество технических экспертов по ИИ считают, что продвинутые системы несут реальные риски для безопасности человечества. И тут речь не просто про «восстание машин». А про доказанные факты отклонения деятельности сложных систем ИИ от целей, заданных человеком (ну, то есть, по сути – про восстание машин).

Проблема начинает осознаваться как очевидная в ряде юрисдикций, что выражается в принятии и разработке законопроектов, регламентирующих и ограничивающих применение искусственного интеллекта в определенных отраслях.

Стоит отметить, что на наднациональном уровне работа по урегулированию направлений развития ИИ ведется уже довольно продолжительное время. Так, еще в 2019 году приняты рекомендации Совета ОЭСР по искусственному интеллекту, которые прежде всего связаны с четким назначением работы систем ИИ во благо для человечества, исходя при этом из постулатов безопасности и надежности, недискриминации, соблюдения прав человека, открытости и прозрачности с тем, чтобы люди могли предъявить претензии к итоговому результату их работы.

Есть также и рекомендации ЮНЕСКО по этике искусственного интеллекта 2021 года, которые в целом исходят из того же понимания предназначения и использования ИИ.

Пожалуй, наиболее четкие положения относительно регулирования искусственного интеллекта содержатся в актах Евросоюза, который пошел по наиболее революционному пути в попытке установить определенные ограничения в этом направлении — в прошлом году в ЕС были опубликованы два документа, направленных на регулирование ИИ:
1) Проект регламента ЕС об искусственном интеллекте;
2) Скоординированный план по искусственному интеллекту на 2021 год.
 
И если второй документ играет довольно декларативную роль, обозначая основные приоритеты Евросоюза в области ИИ, например: достижение ЕС лидирующих позиций в области ИИ; привлечение инвестиций (к 2030 году 20 млрд евро в год); разработка образовательных программ; обучение работе с искусственным интеллектом на школьном уровне и др., то проект регламента по сути является попыткой законодательно урегулировать вопросы, связанные с: а) запретом определенных видов систем ИИ; б) созданием и выходом на рынок систем ИИ с высоким уровнем риска.

Так, в 5 статье регламента определяются те системы, создание которых запрещается в принципе, а именно:
— влияющие на человеческое подсознание с целью искажения его поведения и причинения вреда;
— способные искажать поведение и причинять вред наиболее беззащитным лицам (детям, людям с отставанием в развитии и т.д.);
— способные оценивать социальное поведение людей на основе их личностных характеристик;
— осуществляющие дистанционную биометрическую идентификацию в режиме «реального времени» в публичных местах для целей обеспечения правопорядка. (исключение — поиск пропавших людей и т.д.).

Интересно, что запрещают идентификационные системы (видеонаблюдение с биометрией) даже для органов правопорядка.

Чтобы их использовать нужно получить специальное разрешение, а перед этим доказать, что по-другому решить проблему нельзя. Примеры исключений: поиск пропавших людей, преследование преступника личность которого уже установлена и получены санкции на его поимку. Противодействие терроризму, опять же, но не огульное, а вполне конкретное с подтверждениями.

К высокорисковым системам ИИ проект регламента относит те системы, которые перечислены в приложении, например, системы, предназначенные для оценки учащихся в учебных заведениях или для оценки кредитоспособности физических лиц.

К ним планируется предъявлять особые требования, включая оценку соответствия, качества данных, создание систем управления рисками, и обеспечения прозрачности принятия решений. При этом все подобные системы должны быть зарегистрированы в базе данных ЕС, промаркированы, а в случае изменения механизмов работы системы ИИ – регулятор должен быть проинформирован. За нарушение указанных норм предусмотрены внушительные штрафы: до 20 млн евро за несоответствие требованиям и до 30 – за создание запрещенных систем.

Сегодня Совет Европы также пытается выработать свои подходы к регулированию искусственного интеллекта. К настоящему моменту создан комитет по ИИ, было проведено соответствующее исследование, которое пока не дало окончательного представления о том, каким может быть регулирование: пойдет ли оно так же по пути запрета каких-то определенных систем и ограничения – других. Или же оставит вопрос разработки систем исключительно на усмотрение разработчиков и пользователей. Возможно, документ Совета Европы, запланированный к принятию к 2023 году сможет дать ответ на этот вопрос.

По какому пути регулирования развития ИИ идет Россия

В нашей стране принята Концепция развития регулирования ИИ и робототехники РФ до 2024 года, где определяются национальные интересы в этой сфере. При этом провозглашается, что к запретам нужно относиться весьма осторожно, вместе с тем использование систем искусственного интеллекта не должно приводить к нарушению прав граждан.

В 2021 году в России был принят Кодекс этики в сфере искусственного интеллекта, который также не содержит никаких запретов или даже ограничений на создание систем ИИ.

При этом предусматривается, что все пользователи систем ИИ имеют право получать достоверную информацию о системах, вреде и пользе их применения. Кроме того, установлено, что, когда деятельность акторов (участников отношений в сфере ИИ) ИИ может привести к морально неприемлемым для человека и общества последствиям, актором должны быть приняты меры, чтобы предотвратить или ограничить наступление таких последствий.

При этом, установлено, что акторы сами должны удостовериться, что применяемые ими алгоритмы и наборы данных, методы обработки используемых для машинного обучения данных, при помощи которых осуществляется группирование и/или классификация данных, не влекут их умышленную дискриминацию.
Таким образом, представляется возможным предположить, что Россия к настоящему моменту не стремится в своем регулировании идти по пути ограничений сфер применения ИИ, в том числе осознавая риски такого использования в определенных областях, по сути перекладывая решение данного вопроса на актора.

При этом представляется целесообразным в будущем, при регулировании ИИ на законодательном уровне, все же продумать вопрос о системах, несущих в себе высокую степень риска нарушения прав и свобод человека, и рассмотреть возможность введения особенностей регулирования и мер контроля при применении таких систем.

Кроме того, очевидно, что в обозримом будущем актуализируется вопрос правового статуса произведений, созданных с применением систем ИИ, который тоже должен будет найти отражение в законодательстве. И в данном случае превалирующий на настоящий момент времени в экспертном сообществе подход о целесообразности применения при определении такого правового статуса норм, регулирующих смежные права, представляется наиболее логичным.
 
Автор — член Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, директор по правовым инициативам Фонда развития интернет-инициатив (ФРИИ)

Новости и материалы
Льготные условия по семейной ипотеке скоро могут измениться
Минфин предоставил льготную ипотеку для участников СВО и лиц в ряде регионов РФ
Канье Уэст впервые рассказал о нападении на Бьянку Цензори
«Думал, будет деревня и колхоз»: Глушаков высказался об Армении
Россиянку ограничили в свободе за наезд на 14-летнего подростка, катавшегося на самокате
Киркоров рассказал, какой неприятный случай из жизни никогда не забудет
Россиянам рассказали, откуда в бензобаке появляется вода
Путин заявил, что все организаторы теракта в «Крокусе» будут наказаны
Россиян предупредили о трех главных проблемах со зрением у офисных работников
Трампа назвали «оппортунистом» в вопросе поддержки Украины
Петросян столкнулся с мошенниками: «Грабят пожилых»
Россиянам рассказали, чем опасны виртуальные карты маркетплейсов
Пленный рассказал о нехватке молодых солдат ВСУ на передовой
В «Рейнджерс» рассказали о действиях против Овечкина
В Германии попросили Сунака надавить на Шольца ради поставок Taurus Киеву
Путин назвал одну из самых серьезных угроз в XXI веке
Киркоров о новой сиделке отца: «Добрая, внимательная и заботливая»
Женщина проехалась по Красноярску с привязанной к автомобилю собакой
Все новости