В марте 2023 года более ста ведущих игроков в сфере разработки искусственного интеллекта опубликовали коллективный призыв к остальным участникам рынка минимум на полгода остановить любые исследования и тестирования новых систем ИИ. Под призывом поставили свои подписи Илон Маск, сооснователь Apple Стив Возняк, сооснователь Pinterest Эван Шарп. Обращение было адресовано не только коллегам, но и правительствам всех стран, в нем подписанты требовали от властей ввести контроль над разработками ИИ, если рынок добровольно от них не откажется.
Причина называлась следующая: технологии даже на уровне GPT-4 уже позволяют имитировать реальность настолько точно, что быстро стали инструментом для мошенничества и манипулирования массами, а кроме того, новые технологии поставили под угрозу процесс обучения детей и студентов во всем мире, так как с их помощью можно выполнять домашние задания и проводить научные исследования. Маск просил полгода, чтобы рынок успел разработать «противоядие».
На тот момент, надо сказать, ИИ умел, в сравнении с нынешней ситуацией, немного: грубо накладывать лицо на короткие видео, недолго имитировать живую речь, делать рефераты и рисовать по заданным параметрам нереалистичные картинки, на которых у людей вырастало по шесть пальцев. Ну и еще нейросети учились «раздевать» людей, то есть пририсовывать им голые тела.
Тем не менее даже такие технологии можно было успешно использовать против человека и человечества. Открывался простор для мошенничества с подделкой внешности и голоса, со звонками от якобы от близких. Простор для вымогательства и шантажа, когда с помощью ИИ можно было создать любые компрометирующие фото и видео. Много тогда анонсировали опасений.
И в 2023 году разработчики ИИ, точнее, те из них, кто задумывался о социальной ответственности бизнеса, ставили вопрос о необходимости создания системы детекции ИИ. Помните? Когда мы говорили о сомнительном будущем, в котором никто не сможет отличить фальшивку от настоящего, нам отвечали, что скоро разработают системы распознавания вмешательства ИИ. Говорили, что созданные с помощью искусственного интеллекта изображения, видео, звуки будут маркироваться.
Ну, допустим, звонит старушке по видеосвязи внук, просит срочно денег, а у нее на весь экран всплывает предупреждение: «Осторожно, нейросеть, позвоните близким». Встревоженная старушка перезванивает внуку, потом пишет жалобу на мошенников — и вуаля, деньги спасены, другие старушки в безопасности.
С определением фальшивых голосов — то же самое. Позвонил вам «товарищ майор», а вас телефон предупреждает, что голос искусственный, дальше решайте сами.
Про порнофейки и фотокомпромат нам говорили, что мы сможем легко распознавать их через специальные приложения. Даже прогнозировали, будто соответствующие функции будут вшиты в каждый смартфон. Недолго, дескать, осталось, потерпите.
Для этой работы Илон Маск, Стив Возняк с прочими и просили время. Рынку нужно было дать возможность разработать систему противодействия ИИ. Ту самую детекцию применения, чтобы защитить нас от искусственной реальности. Но ее нет. Полгода паузы в разработке ИИ ничего не дали, тем более что негласную конвенцию мало кто соблюдал, включая, кажется, и самих подписантов, потому что в концу того же 2023 года их собственные нейросети продемонстрировали рывок.
Илон Маск периодически продолжает напоминать об опасности ИИ и призывает остановить прогресс, пока не придумают ему противодействие. В декабре высказывался об этом. Но никто уже его не слушает. О недопустимости предоставления новых технологий в массовый доступ никто даже не заикается. Более того, на днях вышло исследование российских экспертов, которые проанализировали опыт 25 наиболее технологически развитых стран и пришли к выводу, что государства ослабляют регулирование применения и разработок генеративного ИИ. В общем, списывают на рынок: он, де, сам рассудит. Пока из развитых стран вводить ограничения решила только Южная Корея, закон вступил в силу 22 января.
Меж тем недавно массам со всего мира стало доступно приложение, которое позволяет взять короткое видео одного человека и превратить его в видео другого. Загружаете свое маленькое видео, видео модели, образца, и совмещаете: в итоге вы получите короткий ролик, в котором полностью повторяете движения чужого человека. Можно сделать из себя воздушного гимнаста и отправить друзьям ради шутки. А можно создать фальшивку о том, как твой коллега кувыркается в постели с женой начальника, подсунуть начальнику и получить освободившееся после коллеги место. Массовому пользователю доступны видеоролики до 30 секунд, цены копеечные.
На днях я видела, как американские общественники создали с помощью описанного приложения полностью реалистичную копию пропавшего человека и доказали, что с ее помощью можно требовать у родственников выкуп, а у властей — вознаграждение.
Голоса тоже можно подделывать. Я тут купила недорогой микрофон для стримов, в нем уже есть функции смены голоса: одним нажатием можно выбрать голос мужчины, женщины, ребенка, божества. Можно настроить голос привидения и звонить старушкам, вытрясая из них гробовые.
Разработчики ИИ обманули нас и не создали системы противодействия своим детищам. Они обещали, что человек будет защищен от фальшивой реальности и нам вовсе не стоит беспокоиться из-за появления в нашей жизни точных наших копий. Однако никто защиту не создал, все бросились в гонку технологий. Даже те, кто призывал создать конвенцию о нераспространении ИИ в массы, не соблюдают свои же принципы.
Мы оказались перед прогрессом безоружны. Сегодня можно свободно и почти бесплатно создать любой компромат на любого человека. Еще три года назад политики всего мира боялись, к примеру, что их преступно внесут в файлы Эпштейна. Сейчас легко можно создать «видеодоказательства», будто бы они развлекались с самим Эпштейном. Можно сфальсифицировать видеозапись любой встречи и любого звонка. Любого человека можно показать голым или посещающим публичный дом.
Тормозов нет. У нас фактически сегодня даже ненаказуема фабрикация таких видео: если за ней не последовало доказанное вымогательство или мошенничество, то само по себе создание дипфейков с чужим лицом не является уголовным преступлением.
В России только что предложили запретить создание и распространение «раздевающих» технологий. Но пока все на уровне разговоров в Госдуме и не похоже на действенную защиту.
Пока, увы, защиты от искусственной реальности не предвидится, обороняться от нее мы должны сами.
Автор выражает личное мнение, которое может не совпадать с позицией редакции.