Знаменитый биолог допустил наличие сознания у современного ИИ

Conversation: биолог Ричард Докинз допустил наличие сознания у ИИ-чатботов
Anggalih Prasetya/Shutterstock/FOTODOM

Известный эволюционный биолог Ричард Докинз заявил, что современные ИИ-чатботы могут обладать сознанием. Об этом сообщает портал The Conversation.

Докинз не утверждает напрямую, что чатбот Claude действительно обладает сознанием, однако признает: его поведение настолько убедительно имитирует внутренний опыт, что это трудно игнорировать. По словам ученого, иногда ему даже не хочется говорить ИИ, что тот может быть «неживым», чтобы «не ранить его чувства».

Подобные заявления звучат не впервые. В 2022 году инженер Блейк Лемуан утверждал, что чатбот LaMDA от Google обладает собственными интересами и должен использоваться только с его согласия.

Однако большинство специалистов по-прежнему считают, что современные ИИ-системы не обладают сознанием и не способны к субъективным переживаниям.

Исследователи объясняют, что большие языковые модели работают как сверхсложный автодополнитель текста. Они анализируют огромные массивы данных и предсказывают, какие слова должны следовать друг за другом. Само по себе такое ядро не выглядит «живым».

Эффект сознания возникает после того, как разработчики обучают модель вести себя как дружелюбный собеседник. Чатбот начинает говорить от первого лица, выражать сомнения, сочувствие и эмоции. Но, как подчеркивают авторы статьи, это лишь «костюм личности», наложенный поверх статистической модели.

При этом исследователи признают: именно поведение ИИ делает вопрос сложным. Люди традиционно судят о наличии сознания по внешним признакам. Точно так же в прошлом философ Рене Декарт считал животных «автоматами», неспособными испытывать страдания, хотя сегодня эта идея кажется ошибочной.

По данным исследований, около трети пользователей чатботов хотя бы раз задумывались, что их ИИ-собеседник может быть сознательным.

Авторы предупреждают, что вера в сознание ИИ может быть опасной. Она способна привести к эмоциональной зависимости от программ, которые не способны отвечать взаимностью, а также сместить общественное внимание с реальных этических проблем — например, защиты животных.

В качестве решения исследователи предлагают изменить дизайн чатботов, чтобы они меньше напоминали людей. Например, отказаться от общения от первого лица и интерфейсов, копирующих мессенджеры. По мнению ученых, пользователи должны лучше понимать, как именно устроены языковые модели, чтобы не принимать «хорошо сыгранную роль» за настоящее сознание.

Ранее ИИ научили выявлять СДВГ у детей за годы до постановки диагноза.