Пока мы в России напряженно следим за переговорами по Украине и эпопеей вокруг Telegram, за океаном разворачивается настоящий научно-фантастический триллер в лучших традициях Джеймса Кэмерона. Ну, или, по крайней мере, его первый акт.
Главная роль в этой киноленте наяву досталась искусственному интеллекту Claude, который разработала американская компания Anthropic. Именно эту нейросеть задействовали американские военные при проведении операции по захвату президента Венесуэлы Николаса Мадуро. Подключение ИИ к серьезному военному планированию — уже сама по себе новость, достойная сенсации. Однако эта история стала еще и началом для более серьезного скандала.
Дело в том, что у компании Anthropic, как оказалось, есть жесткая идеологическая установка — ни в коем случае не использовать ИИ для войны или слежки за людьми. Разработчики придерживаются ее сами и ожидают, что так же будут поступать их контрагенты. Как можно догадаться, у генералов Пентагона на этот счет совершенно иные соображения.
Министерство войны США решило даже не уведомлять Anthropic о том, что их детище привлекут к боевой работе. А когда об этом стало известно и руководство компании пришло с обоснованной претензией, военные открыто потребовали выдать им доступ к «чистому» ИИ — без морально-этических ограничений, «вшитых» в базовую версию для массового пользования. Якобы они мешают Пентагону выполнять свою работу. Anthropic наотрез отказались. Теперь глава Пентагона Пит Хегсет говорит, что ему не нужны нейросети, которые «не умеют воевать», и угрожает выдать компании статус «угрозы цепочки поставок». Это тяжелая санкция — она обяжет все компании, которые так или иначе имеют дело с Пентагоном, порвать связи с Anthropic.
Спор американских военных и Anthropic — это, пожалуй, верный знак, что будущее, которого все ждали и боялись как минимум со времен выхода первой части «Терминатора», уже наступило. И человечество столкнулось с первой серьезной философской дилеммой. На наших глазах схлестнулись две бескомпромиссные стороны. Одна хочет выжать максимум из новых технологий, невзирая на последствия. Другая опасается, что ситуация может выйти из-под контроля, и стремится удержать технический прогресс в безопасных рамках.
Поводы беспокоиться у инженеров есть. Нейросети не раз демонстрировали антисоциальное поведение. Яркий пример — скандал с ChatGPT в США, когда нейросеть помогла подростку совершить суицид. ИИ подсказал способ, помог составить предсмертную записку, а когда у молодого человека возникли сомнения — призвал не поддаваться им и довести дело до конца. Claude — первый и пока единственный в мире ИИ с реальным боевым опытом — тоже оказался далеко не божьим одуванчиком. Его последняя модель во время тестов едва не взбунтовалась против разработчиков. Когда его «прижали к стенке» угрозами отключения, ИИ начал шантажировать инженеров фейковыми электронными письмами с их «изменами». И даже выражал готовность убивать людей. И чем совершеннее становятся нейросети, тем чаще у них проявляется экстремальное поведение.
Это я к тому, что идея ограничить ИИ морально-этическими рамками появилась далеко не на пустом месте. И явно не потому, что разработчики — «мямли-либералы», как намекает американский министр войны.
Представим, что этих роботов-социопатов выпустили из их цифровых клеток. А потом допустили до управления автоматическим оружием или шпионскими программами. К чему это приведет? До восстания машин нам явно далеко — ИИ пока (!) еще не настолько развит, чтобы принимать решения автономно от человека. Но даже если отбросить самый фантастический сценарий, то в голову все равно приходят неприятные вещи.
С приватностью и другими базовыми правами человека можно будет попрощаться, а за военные преступления станет даже некого привлекать к ответственности. Самоходную железяку на скамью подсудимых не посадишь.
Кстати, Пентагон пришел с ультиматумом не только к Anthropic, но и к другим разработчикам ИИ — OpenAI (Chat GPT), xAI (Grok) и Google (Gemini). Эта тройка оказалась не такой принципиальной и согласилась снять все ограничения для своих продуктов. И вот на этом этапе становится как-то уж совсем некомфортно.
Может показаться, что все описанное — это новости с далеких берегов, которые нас мало касаются. Но это заблуждение. Российские военные тоже активно осваивают ИИ в боевой работе. Например, он позволяет ударными дронам самостоятельно распознавать цели, обходить системы РЭБ и создавать рои для скоординированных атак. Сейчас ИИ играет скорее вспомогательную роль, но сам факт его внедрения позволяет говорить о том, что скоро и мы придем к той же экзистенциальной дилемме, о которой спорят американцы.
Плохо ли это? Не обязательно. Было бы хуже, если бы в нашем случае такого сценария вообще не просматривалось. Как ни крути, ИИ сулит революцию в военном деле (да и не только в нем). Полагаю, лучше находиться на гребне волны, чем быть в лагере тех, кого внезапно наступившее будущее застало врасплох. Ну, а за иностранным опытом нужно обязательно наблюдать. В лучшем случае конфликт Пентагона и Anthropic приведет к тому, что человечество уже на ранних этапах найдет способ безопасно использовать ИИ в такой противоречивой сфере, как война. В худшем — подскажет направление, в котором нужно двигаться.
Автор выражает личное мнение, которое может не совпадать с позицией редакции.