В среду прошёл форум, посвящённый этическим аспектам ИИ — AI Now 2018 Symposium

+7 926 604 54 63 address
 «ИИ сейчас 2018» — симпозиум о социальных аспектах искусственного интеллекта.
«ИИ сейчас 2018» — симпозиум о социальных аспектах искусственного интеллекта.

Симпозиум собирает вместе учёных из разных сфер, антропологов, социологов, политологов и юристов, чья деятельность так или иначе связана с искусственным интеллектом. Поднимаются такие вопросы, как этика и безопасность ИИ.

В мире за год произошло многое — Google перестал сотрудничать с Минобороны США по Project Maven, Microsoft объявила о сотрудничестве с Иммиграционной и таможенной полицией США, IBM начала работу с нью-йоркской полицией по системе определения этничности, Amazon закрыл свой инструмент ранжирования резюме, и т. д.

Всё это говорит нам о том, что технологии ИИ вызывают много тревоги. Мы решили рассказать вам про несколько докладов, прозвучавших на симпозиуме.

Кейт Крофорд (Kate Crawford) и Мередит Уиттакер (Meredith Whittaker), организаторы, рассказывают:

Многие вещи заставляют нас задуматься, можно ли доверять ИИ. В этом году публика активно вела дискуссию об этом. Многое изменилось за три года, с тех пор, как мы начали организовывать симпозиум. Три года назад мы не говорили про предвзятость ИИ. Сейчас же разговор про предвзятость — это общее место для всех исследователей ИИ.

К предвзятости есть два подхода: первый — это разрабатывать специальное ПО (bias-busting toolkits), которое бы проверяло наши программы на предвзятость. Но можем ли мы поручить машине такую ответственность? Другой подход — это разрабатывать корпоративные этические кодексы — но что такое этика? Это очень размытое понятие, которое можно трактовать как угодно. Здесь много вопросов, например, кто дал право выбирать членов совета по этике компании тем, кто их выбирает? Да и программисты, как показывает практика, склонны эти кодексы игнорировать.

Невозможно пофиксить социальные проблемы с помощью таких технических решений, мы не хотим, чтобы был ИИ, который фиксит ИИ, который фиксит ИИ. Здесь главное решение — это обеспечить как можно больше публичного контроля над новыми технологиями.

Вопрос, на который предстоит ответить — как создать надёжные формы отчётности? Для этого мы выделили несколько уровней влияния ИИ, за которыми надо следить:

  1. Материальная реальность. ИИ — это не только нематериальная программа, но и множество материальных вещей, которые нужны для его функционирования.
  2. Труд. Автоматизация — это на самом деле «псевдоматизация» (fauxtomation), и в то время как мы автоматизируем одни вещи, нам требуется большое количество человеческого труда, чтобы размечать данные, которые мы потом «скармливаем» сетке. Но труд людей с Mechanica lTurk остаётся невидимым.
  3. Юрисдикция. Сложные программы часто принимают важные решения, которые влияют на людей. И потом иногда людям с программами приходится судиться. Но пока не существует достаточно развитой юрисдикции относительно того, как это можно сделать, и если оспаривать решение перед судом, то кто будет противоположной стороной.
  4. Неравенства. Из-за предвзятостей в разработке ИИ, мы можем увидеть увеличение неравенства и несправедливости. Так, допустим, если вас «отслеживатель» лиц случайно перепутал с преступником, вам придётся пройти в участок. А вероятность повышается, если ваш цвет кожи — не белый, так как мы «зашиваем» наши предвзятости в компьютер.
Хронология важных для ИИ-сообщества событий.
Хронология важных для ИИ-сообщества событий (кликните, чтобы увеличить).

Николь Озер (Nicole Ozer, ACLU of California), Тимнит Гебру (Timnit Gebru, Google AI) и Шеррилин Айфилл (Sherrilyn Ifill, NAACP Legal Defence Fund) рассказывают про технологию отслеживания лиц:

Технологию отслеживания лиц можно использовать, чтобы втайне следить за перемещением людей, в том числе оппозиционеров, которые засветились на протестах. Например, такая технология была предоставлена Amazon нью-йоркской полиции. Кроме этого, системы распознавания лиц не безупречны. Мы скормили системе, которая используется в Нью-Йорке, фотографии членов конгресса, и она сказала, что 28 из них — преступники. Кроме этого, такие системы умеют также давать оценку вашим лицам и могут распознавать эмоции. А теперь представим, что система ошиблась. Например, вы входите в банк, а вас распознают как преступника, окружают и отводят в участок. Мы так наивно доверяем технологиям, как будто они существуют в своём автономном мире, а мы, общество, в котором полно неравенства, угнетения и несправедливости, — в своём.

Кто вообще думает, что наибольшая проблема законодательной практики — что полиции нужна техника отслеживания лиц? У полиции полно несовершенств, она далека от идеала. Почему мы думаем, что им нужна технология отслеживания лиц, когда много других проблем? В Нью-Йорке есть база данных уличных банд, где, кстати, 99% чёрные и американцы испанского происхождения. И я никак не узнаю, включили ли меня в этот список или нет, и если меня исключат — никогда не узнаю, что исключили. А теперь представьте, что эта база дополнена технологией отслеживания лиц!

Гарантирование безопасности работы ИИ — это как ремни безопасности в машинах. Ещё 30 лет назад мы возмущались, мол, какой нонсенс, это же так неудобно. А сейчас никто не может себе представить, что поедет непристёгнутым. Так, я надеюсь, будет и с ИИ. По мере того, как технология совершенствуется, мы должны уделять этому вопросу всё больше и больше внимания.

Update.

Отчёт о конференции можно посмотреть тут: https://ainowinstitute.org/AI_Now_2018_Report.pdf.

.
Комментарии