Искусственный интеллект справляется со многими задачами лучше людей. Алгоритмы помогают нам распознавать болезни сердца, рисовать картинки, искать пропавших детей и тайные захоронения, общаться с врачами — и это не предел возможностей. Но вот беда: услужливые машины дискриминируют людей, видимо, нахватавшись дурных привычек от своих создателей. Технологические компании Youth Laboratories и Insilico Medicine решили положить конец этому безобразию. Во-первых, они учат ИИ бороться с человеческими предубеждениями, а во-вторых, пытаются избавить от предвзятости сами алгоритмы. Недавно проект представил первые результаты: исследование социокультурного разнообразия в руководстве ведущих мировых компаний с помощью нейронных сетей. Препринт опубликован в репозитории arXiv.org.
В 2014 году учёные разработали алгоритм, который предсказывает, кто из преступников может снова нарушить закон и какова вероятность рецидива. Позже исследования показали, что алгоритм преувеличивал опасность афроамериканцев: он вдвое чаще ошибочно помечал их как «серьёзную угрозу», в то время как белых в два раза чаще неверно относил в категорию «низкого риска». Другой пример — разработки Youth Laboratories и Insilico Medicine. Первая компания выпустила приложение RYNKL, которое анализирует морщинки на лице и оценивает эффективность лечебной и декоративной косметики. Создатели RYNKL вскоре обнаружили, что с тёмной кожей приложение работает плохо, потому что в обучающем наборе было мало фотографий чернокожих людей. Insilico Medicine представила сервис, оценивающий возраст по показателям крови. Увы, для пожилых людей он неэффективен: в базе данных недостаточно результатов анализов здоровых людей старше 60.
«Ранее ряд работ сообщали о выраженной дискриминации по расовому и половому признакам в системах искусственного интеллекта, — комментирует Роман Ямпольский (Roman Yampolskiy), один из авторов исследования. — Выдвигались предположения о том, что зарегистрированные искажения не были внесены намеренно, а явились артефактом созданных человеком наборов данных, которые уже содержали такие искажения. В этой работе мы продемонстрировали ИИ, созданный для распознавания человеческих предубеждений. Мы надеемся, что вскоре сам ИИ сможет смягчить проблему использования загрязнённых наборов данных для машинного обучения».
В ходе первого пилотного проекта представители Youth Laboratories и Insilico Medicine в сотрудничестве с учёными из России, США, Великобритании, Дании и Швейцарии создали алгоритм, который анализировал руководящий состав известных компаний по признакам расы и пола. Специалисты отобрали 484 корпорации из списка Forbes Global 2000, и нашли фотографии руководителей высшего звена — всего больше 7200 изображений. Затем они научили алгоритмы автоматически распознавать возраст, расу и пол топ-менеджеров и сравнили эти результаты с гендерным и расовым соотношением в стране, где расположена компания. Таким образом, они пытались определить, насколько ситуация в корпорации отражает демографическую обстановку в государстве.
Результаты показали, что женщины составляют только 21,2% руководителей. И почти во всех компаниях, за исключением шведской H&M, доля членов правления женского пола оказалась ниже, чем процент трудоспособных женщин в стране. В 23 корпорациях среди управляющих не было ни одной женщины — большинство этих фирм расположены в Азии. Почти 80% всех топ-менеджеров были белыми, 3,6% — чернокожими и 16,7% — азиатами. Больше всего темнокожих руководителей обнаружилось в ЮАР, где 80% населения — чернокожие. Однако даже в двух южноафриканских компаниях максимальная доля чернокожих составила всего 35 и 53%.
Ситуация во многих американских компаниях отражала демографическую обстановку в стране — процент темнокожих членов правления составлял минимум 13%. Однако в 30 корпорациях чернокожих топ-менеджеров не было вовсе. Средний возраст руководителей во всех 38 странах — 52 года. «Эта работа подтверждает, что мы живём в мире, полном предубеждений, — комментирует специалист по этике данных доктор Сандра Уочтер (Sandra Wachter), которая не принимала участия в исследовании. Руководитель группы Diversity AI при Youth Laboratories, Константин Чеканов (Konstantin Chekanov) считает, что системы ИИ «могут помочь распознать предвзятость людей в различных организациях, сообществах и даже в правительстве». «В будущем искусственный интеллект можно будет применять для обнаружения и предотвращения дискриминации, притеснения и другого неправомерного поведения», — говорит он.
Алгоритмы Youth Laboratories и Insilico Medicine пока несовершенны, и компании приглашают всех желающих принять участие в проекте. Данные, использованные в ходе нового исследования, доступны на сайте Diversity AI.