Роботы против расизма: как модные дома учатся терпимости

Модные бренды учат алгоритмы быть расово нейтральными

Прослушать новость
Остановить прослушивание
Модные бренды столкнулись с новым вызовом: на этот раз опасность исходит от умных алгоритмов и сервисов дополненной реальности, которые неожиданно оказались расистами. Теперь модным домам приходится отдуваться за предрассудки машин и переучивать их с учетом новой нормы. Как сделать роботов, а заодно и их разработчиков более толерантными, разбиралась «Газета.Ru».

Еще в 2018 году футуролог и ученый Каринна Ноббс разработала для косметического бренда приложение дополненной реальности, которое позволяло прикинуть оттенок конкретного средства к тону кожи. Тогда вдруг оказалось, что технология реагирует только на лица белокожих и азиатов. Темнокожих, как и пожилых, это приложение игнорировало. Бренд вышел из щекотливого положения, обучив свой алгоритм распознавать больше типов кожи, что позволило ему также лучше калибровать декоративную косметику в зависимости от цвета кожи. Этот опыт продемонстрировал субъективность и несовершенство искусственного интеллекта и разработок с его участием.

Программы неизбежно несут в себе предрассудки своих создателей. Это связано с тем, что в базе данных, на которых учатся роботы, элементарно представлено больше светлокожих.

В индустрии моды и красоты эти предрассудки приводят к тому, что поисковики показывают преимущественно белокожих моделей либо принимают ноги темнокожих за одетые в джинсы или колготки. Бренды рискуют потерять большой сегмент аудитории темнокожих, которые не соответствуют стандартам, заложенным в алгоритмах, а также распространять расистские стереотипы о красоте.

«Бренды попали под огонь критики из-за использования программ, которые могут быть склонны к дискриминации и показаться кому-то обидными, — рассказал изданию Vogue Business Ашвини Асокан, СЕО автоматизированной платформы онлайн-ритейла Vue.ai. — Вот почему для искусственного интеллекта не годятся типовые решения, а требуется персонализация. ИИ должен быть адаптирован к вашему бизнесу, вашей аудитории и поставленным целям».

Компаниям, которые пытаются решить эту проблему разнообразия и инклюзивности, приходится учить свои алгоритмы толерантности и распознаванию разных типов кожи. Если бренд при обучении ИИ использует ограниченную базу данных, где темнокожие модели не представлены либо представлены не достаточно, ИИ будет принимать решения, которые могут показаться субъективными и расистскими.

То же касается и размеров и параметров модели: если ИИ будут тренировать на высоких и худых, то полных клиентов низкого роста он просто не будет идентифицировать как человека и не сможет подобрать для них одежду.

Эта предвзятость очевидна даже при поиске по фотографиям в Google: если вбить в него слово «платье», он выдаст преимущественно фото худых белокожих моделей, даже если бренд представлен одеждой разных размеров. «Если спросить Google, как выглядит рядовой покупатель, то человек старше 25 лет, размера плюс или темнокожий просто не попадет под заданные характеристики, — утверждает Яэль Визель, сооснователь Zeekit, стартапа в области технологий компьютерного зрения, который позволяет одевать виртуально моделей разных размеров и национальностей. — Когда машина сканирует каталог, система изначально необъективна, так как бренды некорректно загружают свои данные. Это наша ответственность как разработчиков и глав компаний сделать наши алгоритмы объективными. Если они не такие, значит, и мы не соответствуем требованиям толерантности и инклюзивности».

Стартап Визель предлагает брендам расширенную галерею моделей разных цветов кожи и параметров, так что компании могут настраивать разные категории для широкого спектра клиентов.

С субъективностью поисковиков бороться сложнее: они подкрепляют стереотипы за счет частотности конкретных запросов. Чтобы избежать этого, брендам стоит изначально не полагаться только на искусственный интеллект, а привлекать к просмотру и отбору контента живых модераторов, которые помогли бы настроить механизмы более справедливо. Иначе они могут неверно истолковать гендер модели либо показывать на запрос по слову «любовь» только гетеросексуальные пары, которые превалируют в количестве изображений. «Компании могут стать источником преобразований, если начнут привлекать живых людей к контролю за роботами, повышая уровень разнообразия среди представленных изображений в каталоге, с которым они работают», — поясняет Джилл Блэкмор Эванс, менеджер фотобанка Pexels.

Брендам стоит следить и за персонализацией маркетинга, которая зачастую ориентируется только на представителей доминирующих групп, что подтверждает существующие стереотипы и мешает диверсификации.

В расчет необходимо брать и культурный бэкграунд аудитории, в зависимости от которого нужно корректировать предложение и язык коммуникации.

В то же время дискриминация порой проявляется в навязанной выборке вещей, которую показывают людям разных национальностей или поколений: бренды ориентируются на их социально-демографические характеристики, которые могут не вполне отражать реальный запрос. Такие параметры, как регион проживания и язык, влияют на систему скидок, которая распределяется неравномерно.

Вместо этого специалисты в области данных советуют брендам налаживать таргетинг и персонализацию в зависимости от индивидуальных предпочтений и поведения конкретного клиента, а не общих характеристик. «Надо смотреть на то, как пользователь ведет себя на вашем сайте, на какие позиции чаще кликает, что смотрит — это гораздо эффективнее, чем судить человека по его расе или месту проживания, — считает Джессика Грэйвс, основательница Sefleuria, сервиса, который помогает модным брендам настраивать алгоритмы. — Маркетинг, основанный на демографических показателях, должен вовсе исчезнуть из практики».

Однако проблема лежит глубже: расизм алгоритмов исходит из соответствующих убеждений глав компаний и сотрудников. Если не искоренять расистские взгляды внутри компаний, алгоритмы не станут терпимее, отмечают эксперты. «Команда зачастую разрабатывает дизайн для таких же людей, как они, что отражается на выборе моделей и инфлюэнсеров, а надо изначально ориентироваться на разнородную аудиторию и маркетинг выстраивать в соответствии с такой установкой, — уверена Зена Ханна, основатель и СЕО Zena Digital Group, которая консультировала Versace, Creed и Farfetch. — Многие люди даже не осознают, что они склонны к предубеждениям не только в своих мыслях, но и в том, какой контент они транслируют и выбирают. Именно поэтому разработанные ими алгоритмы не включают ту часть аудитории, о которой разработчики забыли во время создания продукта».

Возможно, именно программа инклюзии и разнообразия в модной индустрии, призванная привлечь к работе в модных компаниях темнокожих людей, которую сейчас запустил Совет американских дизайнеров, поможет преодолеть сложившуюся ситуацию и сделает индустрию моды более гибкой по отношению к покупателям.