Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Будущее ИИ: каковы будут главные приоритеты и вектор развития

Эксперт Орехович высказалась о том, по какому пути пойдет мировое регулирование ИИ

Значение искусственного интеллекта в современном мире сложно переоценить: умные дома, беспилотный транспорт, системы принятия врачебных, юридических и иных решений – это те сферы применения ИИ, которые сейчас «на слуху» практически у каждого человека. Очевидно, такое использование нацелено то, чтобы сделать жизнь людей более комфортной, на избавление человека от рутинных обязанностей, минимизацию ошибок ввиду усталости и человеческого фактора благодаря использованию алгоритмов обработки и аналитики.

В то же время, в экспертном сообществе все чаще поднимается вопрос: а насколько безопасно использование так называемого искусственного интеллекта, основанного на машинном обучении, способного заниматься, например, предиктивной аналитикой, делать выводы и предлагать решения по заданным параметрам. Так, например, большое количество технических экспертов по ИИ считают, что продвинутые системы несут реальные риски для безопасности человечества. И тут речь не просто про «восстание машин». А про доказанные факты отклонения деятельности сложных систем ИИ от целей, заданных человеком (ну, то есть, по сути – про восстание машин).

Проблема начинает осознаваться как очевидная в ряде юрисдикций, что выражается в принятии и разработке законопроектов, регламентирующих и ограничивающих применение искусственного интеллекта в определенных отраслях.

Стоит отметить, что на наднациональном уровне работа по урегулированию направлений развития ИИ ведется уже довольно продолжительное время. Так, еще в 2019 году приняты рекомендации Совета ОЭСР по искусственному интеллекту, которые прежде всего связаны с четким назначением работы систем ИИ во благо для человечества, исходя при этом из постулатов безопасности и надежности, недискриминации, соблюдения прав человека, открытости и прозрачности с тем, чтобы люди могли предъявить претензии к итоговому результату их работы.

Есть также и рекомендации ЮНЕСКО по этике искусственного интеллекта 2021 года, которые в целом исходят из того же понимания предназначения и использования ИИ.

Пожалуй, наиболее четкие положения относительно регулирования искусственного интеллекта содержатся в актах Евросоюза, который пошел по наиболее революционному пути в попытке установить определенные ограничения в этом направлении — в прошлом году в ЕС были опубликованы два документа, направленных на регулирование ИИ:
1) Проект регламента ЕС об искусственном интеллекте;
2) Скоординированный план по искусственному интеллекту на 2021 год.
 
И если второй документ играет довольно декларативную роль, обозначая основные приоритеты Евросоюза в области ИИ, например: достижение ЕС лидирующих позиций в области ИИ; привлечение инвестиций (к 2030 году 20 млрд евро в год); разработка образовательных программ; обучение работе с искусственным интеллектом на школьном уровне и др., то проект регламента по сути является попыткой законодательно урегулировать вопросы, связанные с: а) запретом определенных видов систем ИИ; б) созданием и выходом на рынок систем ИИ с высоким уровнем риска.

Так, в 5 статье регламента определяются те системы, создание которых запрещается в принципе, а именно:
— влияющие на человеческое подсознание с целью искажения его поведения и причинения вреда;
— способные искажать поведение и причинять вред наиболее беззащитным лицам (детям, людям с отставанием в развитии и т.д.);
— способные оценивать социальное поведение людей на основе их личностных характеристик;
— осуществляющие дистанционную биометрическую идентификацию в режиме «реального времени» в публичных местах для целей обеспечения правопорядка. (исключение — поиск пропавших людей и т.д.).

Интересно, что запрещают идентификационные системы (видеонаблюдение с биометрией) даже для органов правопорядка.

Чтобы их использовать нужно получить специальное разрешение, а перед этим доказать, что по-другому решить проблему нельзя. Примеры исключений: поиск пропавших людей, преследование преступника личность которого уже установлена и получены санкции на его поимку. Противодействие терроризму, опять же, но не огульное, а вполне конкретное с подтверждениями.

К высокорисковым системам ИИ проект регламента относит те системы, которые перечислены в приложении, например, системы, предназначенные для оценки учащихся в учебных заведениях или для оценки кредитоспособности физических лиц.

К ним планируется предъявлять особые требования, включая оценку соответствия, качества данных, создание систем управления рисками, и обеспечения прозрачности принятия решений. При этом все подобные системы должны быть зарегистрированы в базе данных ЕС, промаркированы, а в случае изменения механизмов работы системы ИИ – регулятор должен быть проинформирован. За нарушение указанных норм предусмотрены внушительные штрафы: до 20 млн евро за несоответствие требованиям и до 30 – за создание запрещенных систем.

Сегодня Совет Европы также пытается выработать свои подходы к регулированию искусственного интеллекта. К настоящему моменту создан комитет по ИИ, было проведено соответствующее исследование, которое пока не дало окончательного представления о том, каким может быть регулирование: пойдет ли оно так же по пути запрета каких-то определенных систем и ограничения – других. Или же оставит вопрос разработки систем исключительно на усмотрение разработчиков и пользователей. Возможно, документ Совета Европы, запланированный к принятию к 2023 году сможет дать ответ на этот вопрос.

По какому пути регулирования развития ИИ идет Россия

В нашей стране принята Концепция развития регулирования ИИ и робототехники РФ до 2024 года, где определяются национальные интересы в этой сфере. При этом провозглашается, что к запретам нужно относиться весьма осторожно, вместе с тем использование систем искусственного интеллекта не должно приводить к нарушению прав граждан.

В 2021 году в России был принят Кодекс этики в сфере искусственного интеллекта, который также не содержит никаких запретов или даже ограничений на создание систем ИИ.

При этом предусматривается, что все пользователи систем ИИ имеют право получать достоверную информацию о системах, вреде и пользе их применения. Кроме того, установлено, что, когда деятельность акторов (участников отношений в сфере ИИ) ИИ может привести к морально неприемлемым для человека и общества последствиям, актором должны быть приняты меры, чтобы предотвратить или ограничить наступление таких последствий.

При этом, установлено, что акторы сами должны удостовериться, что применяемые ими алгоритмы и наборы данных, методы обработки используемых для машинного обучения данных, при помощи которых осуществляется группирование и/или классификация данных, не влекут их умышленную дискриминацию.
Таким образом, представляется возможным предположить, что Россия к настоящему моменту не стремится в своем регулировании идти по пути ограничений сфер применения ИИ, в том числе осознавая риски такого использования в определенных областях, по сути перекладывая решение данного вопроса на актора.

При этом представляется целесообразным в будущем, при регулировании ИИ на законодательном уровне, все же продумать вопрос о системах, несущих в себе высокую степень риска нарушения прав и свобод человека, и рассмотреть возможность введения особенностей регулирования и мер контроля при применении таких систем.

Кроме того, очевидно, что в обозримом будущем актуализируется вопрос правового статуса произведений, созданных с применением систем ИИ, который тоже должен будет найти отражение в законодательстве. И в данном случае превалирующий на настоящий момент времени в экспертном сообществе подход о целесообразности применения при определении такого правового статуса норм, регулирующих смежные права, представляется наиболее логичным.
 
Автор — член Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, директор по правовым инициативам Фонда развития интернет-инициатив (ФРИИ)

Новости и материалы
Любительница вейпа чудом выжила и перенесла кому, задохнувшись слизью из легких
По делу о стрельбе у офиса Wildberries арестовали бойца ММА
Женщину обвинили в нападении после того, как она обрызгала соседа из водяного пистолета
Россияне продолжили отказываться от кредиток
Пленный боец ВСУ рассказал, как спас свою жизнь, сдавшись в плен
Марина Федункив объяснила, почему вышла замуж только в 50 лет
Местные власти рассказали, сколько россиян остались в занятых ВСУ районах
Лера Кудрявцева призналась, что ее 37-летний муж ноет из-за старения
Израильская армия ударила по Бейруту
Еще один участник перестрелки у офиса Wildberries арестован на 15 суток
ЕК рассчитывает на погашение кредита Украине через 40 лет
Российские войска за неделю уничтожили четыре истребителя ВСУ
Гол нападающего «Спартака» Николсона «Крыльям» назвали заслуженным
Анна Седокова о желании развестись: «Уже зрело где-то полтора-два года»
Западный журналист обвинил фон дер Ляйен в прикрывании убийств на Украине
Названа средняя цена нового автомобиля в России
Четверо российских срочников более месяца провели в окружении ВСУ
Шахматиста Карлсена призвали вернуть заработанные в России призовые деньги
Все новости