Размер шрифта
Новости Спорт
Выйти
США и Израиль атаковали ИранБлокировка TelegramПереговоры о мире на Украине
Общество

Эксперт объяснил, насколько реальны угрозы захвата власти ИИ

Эксперт Крушинский: неконтролируемый ИИ может действовать вне рамок

Угроза захвата власти искусственным интеллектом (ИИ) активно обсуждается среди ученых, философов и экспертов. Голливуд часто пугает зрителей апокалиптическими картинами восстания машин, но важно отделить вымысел от реальности. О текущей ситуации, прогнозах специалистов и способах предотвращения возможных проблем «Газете.Ru» рассказал директор департамента голосовых цифровых технологий компании BSS Александр Крушинский.

По его словам, современный ИИ, в основном узкоспециализированный, выполняет задачи без сознания, например, консультирует через чат-боты и помогает с типовыми запросами в банковской сфере. Существует два типа ИИ: «слабый» (Narrow AI), который решает конкретные задачи, и «сильный» (AGI), гипотетический интеллект, который еще не создан. В вопросе его безопасности научное сообщество разделено на пессимистов (Илон Маск), считающих AGI экзистенциальной угрозой, и оптимистов, таких как Эндрю Ын и Янн ЛеКун, полагающих, что ИИ останется просто инструментом, и его опасности преувеличены.

«Сегодня опасности могут возникнуть при некорректной формулировке целей, как было в случае с торговой системой, спровоцировавшей «Флэш-крэш» на бирже в 2010 году. Использование ИИ в критической инфраструктуре может стать угрозой при сбоях или хакерских атаках, а в военных целях ИИ повышает риски конфликтов. Алгоритмы ИИ в соцсетях влияют на политику и общественное мнение, способствуя поляризации и дезинформации, что может привести к цифровой диктатуре и социальной дестабилизации. Однако технически ИИ можно контролировать», — отметил Крушинский.

Искусственный интеллект — это мощный инструмент, способный трансформировать общество, и основной вопрос заключается в гарантии контроля над ним.

«Неконтролируемый» ИИ может действовать вне рамок. Причинами этого являются сложность систем, некорректно сформулированные цели и технологическая гонка, которая способна игнорировать этические проверки. Для предотвращения неконтролируемости необходимы принципы прозрачности и безопасности, а также технические и регуляторные меры, включая ограничения на возможности ИИ и проверки безопасности алгоритмов. Основной угрозой остается не восстание машин, а вопросы контроля за их использованием в будущем», — объяснил эксперт.

В краткосрочной перспективе (10–20 лет) ожидается развитие «слабого» ИИ (Narrow AI) как инструмента в руках людей. Основные риски включают автоматизацию, которая может привести к массовой безработице (по данным McKinsey, до 30% рабочих задач к 2030 году), манипуляцию сознанием через deepfakes и персонализированную пропаганду, а также использование автономного оружия. Более 30 стран обсуждают запрет таких систем, однако юридические рамки отстают от технологий.

«Создание AGI изменит баланс сил. Ученые разделились на два лагеря: пессимисты, например Ник Бостром, считают AGI экзистенциальной угрозой, если его цели не совпадают с человеческими. Оптимисты, такие как Янн ЛеКун и Родни Брукс, полагают, что AGI вряд ли появится в этом веке и что его можно будет контролировать.
Исследования 2022 года показали, что 48% из 738 опрошенных ученых считали вероятность катастрофического исхода от ИИ выше 10%, но лишь 5% видели в этом главную угрозу. Проект «AI Alignment» направлен на выравнивание целей ИИ с человеческими ценностями», — сказал эксперт.

Однако даже без AGI ИИ уже влияет на власть через цифровые диктатуры, такие как китайская система социального рейтинга и распознавания лиц, где ИИ становится инструментом авторитарных режимов. Корпорации, например Google и Meta (признана в России экстремистской и запрещена), используют ИИ для управления вниманием пользователей, влияя на их выбор, в то время как в Эстонии 99% госуслуг оказываются через ИИ-системы, и сбой может парализовать страну. А ситуация в 2023 году, когда ChatGPT временно запретили в Италии из-за проблем с приватностью данных, иллюстрирует конфликт между технологиями и регуляторами.

«Для предотвращения рисков следует внедрять жесткое регулирование, подобное EU AI Act, которое запрещает использование ИИ в социальном скоринге и массовой слежке. Необходимы технологии безопасности, такие как «красные кнопки», тестовые среды и алгоритмическая прозрачность. Кроме того, международное сотрудничество, например через проекты GPAI, поможет выработать этические стандарты», — уверен специалист.

Он отметил, что важно понимать, что реальные угрозы возникают из-за человеческих ошибок и жадности, а не из-за захвата власти ИИ. Проблемы могут быть цифровыми (кибератаки) или экономическими. Профилактика требует глобального сотрудничества, регулирования и инвестиций в безопасность ИИ.

Ранее выяснилось, что россияне все чаще используют нейросети для устройства на работу.

 
Где отдохнуть, пока на Ближнем Востоке война
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!