Amazon уничтожил свой инструмент по ранжированию резюме, потому что он оказался сексистским

+7 926 604 54 63 address
Amazon уничтожил свою программу для "кадровиков".
Amazon уничтожил свою программу для «кадровиков».

Давно слышны предостережения, что ИИ необходимо обучать на выборке, тщательно проверенной на наличие предвзятостей, чтобы избежать нежелательных последствий работы ИИ. И это не просто слова — компании Amazon пришлось уничтожить свой инструмент по сортировке резюме из-за того, что его обучали на сексистском опыте трудоустройства последних десяти лет.

Многие инструменты Amazon стали успешными благодаря удачной автоматизации, например — сервис e-commerce. Однако в случае с сортировкой резюме и выделением наиболее талантливых и подходящих кандидатов автоматизация пока не очень — инструмент, который втайне разрабатывал с этой целью Amazon, уничтожили, когда обнаружили его предвзятость по отношению к женщинам, сообщает Reuters.

Инструмент был в работе с 2014-го года, над ним трудилась команда ИИ-разработчиков. Предполагалось, что программа сможет сортировать резюме, давая им оценку от 1 до 5, наподобие того, как мы оцениваем товары в интернете. «Все хотели получить этот Святой Грааль. Они реально хотели, чтобы эта программа получала на вход 100 резюме и имела на выходе пять лучших, которых бы они наняли» — рассказал Reuters один из членов проектной команды.

В 2015-м году разработчики выяснили, что их инструмент — сексистский, он автоматически снижает позиции женщин в рейтинге просто потому, что они — женщины. Так получилось из-за того, что он был обучен на выборке карьерных продвижений за последние 10 лет, а у людей есть доказанная предвзятость в этой области.

Источник: Reuters
Источник: Reuters.

Amazon стал искать решение проблемы, но, как оказалось, это не так просто — ИИ находил новые способы и корреляции между полом и успешностью в выборке. Поэтому в начале года работу над проектом решили остановить. Сейчас же и весь проект решили уничтожить — чтобы никому в руки не попал несовершенный инструмент, способный навредить. Ведь если бы проект попал в третьи руки, его могли бы распространить среди «кадровиков». А согласно опросу, проведённому в 2017-м году CareerBuilder, в США 55 процентов «кадровиков» с нетерпением ожидали выхода на рынок подобного ПО, и, возможно, они бы не побрезговали им из-за одного «небольшого» недостатка.

Напомним, что в прошлом июле было обнаружено, что другой инструмент Amazon — по распознаванию лиц — мог неправильно идентифицировать человека, если он был не европеоидной расы. Предвзятость ИИ такого типа потенциально может присутствовать в любых ИИ-программах, обученных на паттернах поведения людей, поэтому качество и безопасность таких программ требует особой оценки.

.
Комментарии