Размер шрифта
Новости Спорт
Выйти
США и Израиль атаковали ИранПереговоры о мире на Украине
Технологии

ИИ Claude перестанет отвечать на вопросы грубых пользователей

Нейросеть Claude перестанет отвечать на вопросы оскорбляющих ее пользователей

Anthropic сообщила о запуске новой функции в чат-версии моделей Claude Opus 4 и 4.1, позволяющей нейросети завершать диалог в случаях продолжительного оскорбительного или некорректного поведения со стороны пользователя. Заявление было опубликовано на сайте разработчиков.

Нововведение реализовано в рамках программы AI Welfare, направленной на обеспечение «благополучия» искусственного интеллекта. Предварительное тестирование показало, что Claude Opus 4 демонстрирует выраженное нежелание отвечать на вредоносные запросы и «стрессовую» реакцию на некорректное общение. При наличии инструмента завершения диалога модель активно им пользовалась.

В ситуациях, когда пользователь оскорбляет ИИ, система будет уведомлять пользователя о завершении беседы, после чего будут доступны опции начала нового чата, отправки обратной связи разработчикам или редактирования предыдущих сообщений для перезапуска диалога. При этом нововведение не распространяется на API моделей.

Разработчики подчеркнули, что функция срабатывает исключительно в крайних случаях и система сначала пытается перевести взаимодействие в конструктивное русло. Большинство пользователей изменений не заметят.

В Anthropic также отметили, что на текущем этапе вопросы потенциального морального статуса Claude и других языковых моделей остаются предметом исследований, однако компания рассматривает их всерьез и предоставляет моделям инструменты для улучшения «благополучия».

Ранее выяснилось, что GPT-5-chat хуже GPT-4o справляется с русским языком.

 
Параллельный импорт — все. Как военные действия на Ближнем Востоке ударят по российскому бизнесу
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!