Google принял решение не продлять контракт с Минобороны США по проекту Maven

Директор облачной платформы Google Cloud Дайан Грин.

В апреле сотрудники Google огласили своё недовольство контрактом компании с Минобороны США по поводу проекта Maven (не путать с Apache Maven — фреймворком для автоматизации сборки проектов на основе описания их структуры), в рамках которого искусственный интеллект используется для определения военных целей на видеозаписях с дронов. После долгого молчания Google обнародовал решение удовлетворить требования сотрудников и не продлять контракт по проекту.

История с протестами относительно проекта Maven разгорелась ещё в апреле, но Сундар Пичаи (Sundararajan Pichai), исполнительный директор Google, хранил молчание до недавнего времени. На прошлой неделе директор платформы облачных вычислений Google Cloud Дайан Грин (Diane Greene) заявила, что сотрудничество с Минобороны будет прекращено после окончания сроков текущего контракта в 2019 году.

Решение не продлевать контракт было встречено публикой по-разному. В частности, слышны голоса недовольных таким шагом — они апеллируют к тому, что в стенах Минобороны США был изобретён интернет, и что военная деятельность — это в том числе и безопасность граждан. Не исключено, что Министерство обороны объявит тендер на сотрудничество по проекту Maven и за него будут соревноваться другие крупные IT-корпорации, такие как Amazon или Microsoft. Другие недовольные — это некоторые из авторов петиции и открытого письма, которые заявляют, что до конца контракта осталось много времени и идти наперекор моральным нормам придётся ещё целый год — это нехорошо и надо требовать остановки контракта прямо сейчас.

Проект Maven — это попытка использовать ИИ для облегчения работы военных аналитиков, а также для большей точности определения военных целей. Нейронные сети могут идентифицировать подозрительную деятельность на видеозаписях с дронов, которые летают над потенциально неспокойными зонами, и эту деятельность в случае надобности прекращать. Сообщество исследователей и разработчиков ИИ не без оснований предположило, что, если делегировать программе принятие решений о жизни и смерти, это не закончится ничем хорошим. В случае программной ошибки могут быть атакованы люди, никак не причастные к военным действиям.

В апреле было написано открытое письмо, которое подписали более 3000 работников Google, порядка десятка работников уволились в знак протеста. Вслед за Google, об этических нормах стали говорить и в Microsoft — исполнительный директор Сатья Наделла (Satya Nadella) призвал сотрудников быть бдительными, когда они работают с ИИ, ведь от их решений зависит то, каким будет наше общее будущее.

Александра «Renoire» Алексеева :