Люди с более тёмной кожей больше подвержены риску попасть под колёса беспилотного автомобиля.
В новом отчёте показано, что системы, разработанные для распознавания пешеходов, имеют проблемы с распознаванием людей с тёмными оттенками кожи. Уже существуют свидетельства того, что некоторые программы для распознавания лиц затрудняются обрабатывать тёмные оттенки кожи. Результаты исследования беспилотных автомобилей показывают, что это чревато смертельными случаями.
Исследователи из Технологического института Джорджии (Georgia Institute of Technology) изучили в рамках своей работы восемь моделей искусственного интеллекта, используемых в современных системах обнаружения объектов. Данные системы позволяют автономным транспортным средствам распознавать дорожные знаки, пешеходов и другие объекты при движении по дороге.
Они протестировали эти системы, используя две различные категории на основе шкалы Фитцпатрика. Это шкала, используемая для классификации цвета кожи человека. Люди с более тёмным цветом кожи находятся в группе повышенного риска.
В целом, точность системы снизилась на 5 %, когда ей была предложена группа изображений пешеходов с более тёмной кожей. Согласно опубликованной статье, модели показали «равномерно худшие характеристики» при столкновении с пешеходами с тремя самыми тёмными оттенками шкалы.
Такие результаты получились после того, как результат был скорректирован с учётом того, был ли снимок сделан в дневное или ночное время суток. Таким образом, в докладе утверждается, что для людей с тёмной кожей беспилотные автомобили представляют большую опасность, чем для людей со светлой.
Доклад, к счастью, даёт краткое описание того, как это можно исправить. Всё зависит от увеличения количества снимков темнокожих пешеходов в наборах данных, используемых для обучения систем.
Инженеры, ответственные за разработку этих систем, должны уделять больше внимания обучению систем с более высокой точностью для этой группы.
Авторы доклада, который, как они надеются, предоставляет достаточно убедительных оснований для решения этой важной проблемы до того, как система распознавания будет внедрена по всему миру.
К сожалению, это не первый доклад о потенциально смертоносном расизме в системах на базе искусственного интеллекта. В мае прошлого года издание ProPublica сообщало, что программное обеспечение, используемое для оказания помощи судьям в определении риска, который представляет собой преступник при повторном совершении преступления, было предвзятым в отношении чернокожих людей.
Эта система используется судьями при вынесении уголовных приговоров, она даёт оценку в зависимости от того, может ли данное лицо совершить повторное правонарушение. Высокий балл говорит о том, что вероятность совершения преступления повторно высока, низкий — что это маловероятно.
Журналисты, проводившие расследования, оценили степень риска, присвоенную более чем 7000 человек в округе Бровард во Флориде в 2013 и 2014 годах, а затем посмотрели, были ли эти же люди обвинены в новых преступлениях в течение следующих двух лет.
Этот алгоритм оказался ненадёжным, только 20 % людей, которым было предсказано повторное совершение преступления, совершили его. Также, он оказался расово предвзятым.
Чернокожие обвиняемые с большей вероятностью назывались в качестве будущих преступников, их ошибочное называние было в два раза чаще, чем белых. В то время как белые чаще, чем чернокожие, были ошибочно промаркированы как лица с низкой степенью риска.
Сообщество разработчиков искусственных интеллектов должно объединиться и занять общественную позицию против такого рода предубеждений.