На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +

Конфликт рас: беспилотные машины не видят темнокожих

Исследование: беспилотные машины не распознают темнокожих пешеходов

Критики технологии беспилотных автомобилей могут добавить в свою копилку доводов еще один. Согласно недавнему исследованию, самоуправляемые машины плохо распознают пешеходов с темным тоном кожи, что создает для представителей некоторых рас дополнительную опасность на дорогах.

Расистский алгоритм

Технология беспилотных автомобилей, которые в будущем могут полностью вытеснить обычные машины с водителем, вызывает у скептиков большое количество вопросов — насколько безопасно их использование, как они будут справляться с моральным выбором в критической ситуации и как повлияют на дорожную ситуацию. Теперь в этом списке появился еще один повод для беспокойства — беспилотники потенциально опасны для людей с темным цветом кожи.

Как сообщается в исследовании Технологического института Джорджии, темнокожие пешеходы имеют больше шансов быть сбитыми самоуправляемым автомобилем. Дело в том, что многочисленные датчики, установленные в таком транспорте, лучше распознают людей со светлым тоном кожи.

Авторы исследования задались вопросом, насколько хорошо система распознавания препятствий в беспилотниках справляется с разными демографическими слоями общества. Они взяли большую базу данных с фотографиями пешеходов и разделили их на разные группы по тону кожи согласно шкале Фитцпатрика.

Оказалось, что датчики хуже реагируют на людей с тоном кожи от 4 (средиземноморского) фототипа до 6 (афроамериканского). При этом погрешность составляет не менее 5%. На нее не влияют даже внешние факторы, включая смену дня и ночи.

Один из авторов исследования Джейми Моргенштерн посоветовал обратить повышенное внимание на беспилотники, использующие системы распознавания, указанные в работе.

Известно, что алгоритмы и компьютерные системы могут перенимать предрассудки и предвзятость у своих создателей, в том числе и расистские наклонности.

Самый резонансный случай на эту тему случился в 2015 году, когда система распознавания изображений от Google определила фотографии темнокожих людей как снимки горилл.

Кроме того, ученые выяснили, что система распознавания лиц IBM и Microsoft чаще ошибается при определении гендера по фотографии, если на ней изображен человек с более темным тоном кожи.

Так как алгоритмы «учатся» на примерах, которые загружаются людьми, у них могут возникнуть трудности в работе, если эти примеры не отличались большим разнообразием. Авторы работы о «расистских» беспилотниках предполагают, что алгоритмы распознавания препятствий могли оттачивать свой функционал именно на белокожих пешеходах, так как разработчики не предоставили им достаточно примеров с людьми иных рас.

На текущий момент эта проблема сохраняется как в начинающих стартапах, так и в крупных корпорациях, занимающихся искусственным интеллектом и нейросетями. Для ее решения в будущем потребуются специальные тесты, которые будут распознавать алгоритмическое смещение и своевременно его исправлять. Кроме того, в команде разработчиков должны быть представлены представители различных социальных групп, которые различаются по гендеру, расе и национальности — такие меры помогут снизить предвзятость ИИ, считают в исследователи.

Первая смерть

В марте 2018 года произошел несчастный случай со смертельным исходом при участии беспилотного автомобиля Uber. Машина, в которой находился оператор, сбила женщину, переходящую дорогу со своим велосипедом в темное время суток. Известно, что оператор по имени Рафаэла Васкес в тот момент отвлеклась от дороги, так как смотрела видео на своем смартфоне.

Когда Васкес наконец заметила пешехода, то было уже поздно — автомобиль сбил женщину насмерть.

После этого случая компания Uber Technologies временно прервала тестирование беспилотных автомобилей. Стало известно, что причиной аварии мог быть сбой в работе программного обеспечения. Как сообщалось, автомобиль «увидел» женщину, однако посчитал, что останавливаться из-за этого «препятствия» не стоит.

Согласно заявлению прокуратуры округа Явапай, в котором произошла авария, Uber Technologies не понесет уголовной ответственности за случившееся. Прокурор Шейла Полк заключила, что видеозапись ДТП не полностью отражает момент столкновения. В связи с этим дело вернули в полицию города Темпе, где произошла трагедия, для поиска новых доказательств.

При этом судьба Рафаэлы Васкес пока остается невыясненной — вероятно, отвечать за ДТП придется ей. Ранее следствие пришло к выводу, что случившееся можно было предотвратить.

Новости и материалы
Данные россиян в даркнете подорожали
СМИ сообщили о расколе в администрации Трампа из-за Ирана
Город в Мордовии подвергся атаке украинских дронов
Трамп рассказал, чем его удивил Зеленский
Врач назвала позу, которая чаще всего вызывает сонный паралич
Дмитриев указал на заблуждение Зеленского относительно Трампа
В двух регионах России разрешили майнить криптовалюту
Суд оставил в силе штраф Центробанку за хранение оружия
В Москву возвращаются ночные заморозки
Адвокат объяснила, как через суд обязать соседа не курить на балконе
В Москве 15 марта ожидается облачная погода
На Кубе во время протестов пострадало здание Компартии
Аэропорты Волгограда и Пензы ввели временные ограничения
В сенате США заявили о потере контроля над операцией в Иране
В Белом доме заявили, что США потопили более 65 иранских кораблей
Израиль столкнулся с нехваткой запасов ракет-перехватчиков
Россиян предупредили о скрытых услугах, которые часто навязывают провайдеры
В Волгораде беспилотник попал в многоквартирный дом
Все новости