На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +

Эксперт объяснил, насколько реальны угрозы захвата власти ИИ

Эксперт Крушинский: неконтролируемый ИИ может действовать вне рамок

Угроза захвата власти искусственным интеллектом (ИИ) активно обсуждается среди ученых, философов и экспертов. Голливуд часто пугает зрителей апокалиптическими картинами восстания машин, но важно отделить вымысел от реальности. О текущей ситуации, прогнозах специалистов и способах предотвращения возможных проблем «Газете.Ru» рассказал директор департамента голосовых цифровых технологий компании BSS Александр Крушинский.

По его словам, современный ИИ, в основном узкоспециализированный, выполняет задачи без сознания, например, консультирует через чат-боты и помогает с типовыми запросами в банковской сфере. Существует два типа ИИ: «слабый» (Narrow AI), который решает конкретные задачи, и «сильный» (AGI), гипотетический интеллект, который еще не создан. В вопросе его безопасности научное сообщество разделено на пессимистов (Илон Маск), считающих AGI экзистенциальной угрозой, и оптимистов, таких как Эндрю Ын и Янн ЛеКун, полагающих, что ИИ останется просто инструментом, и его опасности преувеличены.

«Сегодня опасности могут возникнуть при некорректной формулировке целей, как было в случае с торговой системой, спровоцировавшей «Флэш-крэш» на бирже в 2010 году. Использование ИИ в критической инфраструктуре может стать угрозой при сбоях или хакерских атаках, а в военных целях ИИ повышает риски конфликтов. Алгоритмы ИИ в соцсетях влияют на политику и общественное мнение, способствуя поляризации и дезинформации, что может привести к цифровой диктатуре и социальной дестабилизации. Однако технически ИИ можно контролировать», — отметил Крушинский.

Искусственный интеллект — это мощный инструмент, способный трансформировать общество, и основной вопрос заключается в гарантии контроля над ним.

«Неконтролируемый» ИИ может действовать вне рамок. Причинами этого являются сложность систем, некорректно сформулированные цели и технологическая гонка, которая способна игнорировать этические проверки. Для предотвращения неконтролируемости необходимы принципы прозрачности и безопасности, а также технические и регуляторные меры, включая ограничения на возможности ИИ и проверки безопасности алгоритмов. Основной угрозой остается не восстание машин, а вопросы контроля за их использованием в будущем», — объяснил эксперт.

В краткосрочной перспективе (10–20 лет) ожидается развитие «слабого» ИИ (Narrow AI) как инструмента в руках людей. Основные риски включают автоматизацию, которая может привести к массовой безработице (по данным McKinsey, до 30% рабочих задач к 2030 году), манипуляцию сознанием через deepfakes и персонализированную пропаганду, а также использование автономного оружия. Более 30 стран обсуждают запрет таких систем, однако юридические рамки отстают от технологий.

«Создание AGI изменит баланс сил. Ученые разделились на два лагеря: пессимисты, например Ник Бостром, считают AGI экзистенциальной угрозой, если его цели не совпадают с человеческими. Оптимисты, такие как Янн ЛеКун и Родни Брукс, полагают, что AGI вряд ли появится в этом веке и что его можно будет контролировать.
Исследования 2022 года показали, что 48% из 738 опрошенных ученых считали вероятность катастрофического исхода от ИИ выше 10%, но лишь 5% видели в этом главную угрозу. Проект «AI Alignment» направлен на выравнивание целей ИИ с человеческими ценностями», — сказал эксперт.

Однако даже без AGI ИИ уже влияет на власть через цифровые диктатуры, такие как китайская система социального рейтинга и распознавания лиц, где ИИ становится инструментом авторитарных режимов. Корпорации, например Google и Meta (признана в России экстремистской и запрещена), используют ИИ для управления вниманием пользователей, влияя на их выбор, в то время как в Эстонии 99% госуслуг оказываются через ИИ-системы, и сбой может парализовать страну. А ситуация в 2023 году, когда ChatGPT временно запретили в Италии из-за проблем с приватностью данных, иллюстрирует конфликт между технологиями и регуляторами.

«Для предотвращения рисков следует внедрять жесткое регулирование, подобное EU AI Act, которое запрещает использование ИИ в социальном скоринге и массовой слежке. Необходимы технологии безопасности, такие как «красные кнопки», тестовые среды и алгоритмическая прозрачность. Кроме того, международное сотрудничество, например через проекты GPAI, поможет выработать этические стандарты», — уверен специалист.

Он отметил, что важно понимать, что реальные угрозы возникают из-за человеческих ошибок и жадности, а не из-за захвата власти ИИ. Проблемы могут быть цифровыми (кибератаки) или экономическими. Профилактика требует глобального сотрудничества, регулирования и инвестиций в безопасность ИИ.

Ранее выяснилось, что россияне все чаще используют нейросети для устройства на работу.

Что думаешь?
Загрузка
 
Как войти на «Госуслуги», чтобы не пришлось скачивать Max