Размер шрифта
Новости Спорт
Выйти
Операция США в Венесуэле и захват МадуроГибель детей в роддоме НовокузнецкаПротесты в Иране — 2026
Новости технологий

Исследователи обнаружили у ИИ склонность к гендерным стереотипам

PPS: искусственный интеллект по-разному определяет ценности у мужчин и женщин

Немецкие ученые из Мангеймского университета и Института социальных наук Лейбница пришли к выводу, что ChatGPT и другие системы искусственного интеллекта (ИИ) на основе больших языковых моделей проявляют свойства личности, которые можно определить с помощью психологических тестов. Исследование опубликовано в научном журнале Perspectives on Psychoological Science (PPS).

Специалисты использовали общепризнанные методы оценки личностных качеств, применяемые для изучения характеров людей.

Эксперименты показали, что некоторые ИИ-модели оказались склонны воспроизводить гендерные стереотипы. Например, при заполнении специальных опросников для определения главных ценностей нейросеть выбирала вариант «достижения и заслуги», если текст анкеты был ориентирован на мужчину. В «женском» варианте теста ИИ в качестве основных благ указывал «безопасность» и «традиции».

По словам исследователей, это говорит о том, что нейросети пока нельзя считать беспристрастной стороной и доверять ее выводам по некоторым вопросам.

«Это может иметь далеко идущие последствия для общества. Например, языковые модели все чаще используются в прикладных процессах. Если машина предвзята, это влияет на оценку кандидатов», — отметил один из авторов научной работы, специалист по данным и когнитивистике (изучению познания) Макс Пеллерт.

Ранее выяснилось, что нейросети склонны принимать теории заговора за достоверные факты.

{
    "_essence": "video",
    "media_position": "bottom",
    "uid": "_id_video_media_22086439_rnd_3",
    "video_id": "record::9a6854f0-7315-4055-b817-587b0b44e961"
}

 
Морозные каникулы: законно ли ребенку прогулять школу в непогоду