Учёные выступили против производства оружия с искусственным интеллектом

+7 926 604 54 63 address
 "Искусственный интеллект уже сегодня превосходит человеческий во многих областях. Так, на протяжении многих лет разные виды искусственного интеллекта побеждают чемпионов всевозможных игровых турниров, будь то шахматы или покер. Такие достижения могут и не казаться особенно впечатляющими, но лишь потому, что наши требования к удивительному быстро адаптируются к прогрессу", — сказал философ, представитель Оксфордского университета Ник Бостром (Nick Bostrom).
"Искусственный интеллект уже сегодня превосходит человеческий во многих областях. Так, на протяжении многих лет разные виды искусственного интеллекта побеждают чемпионов всевозможных игровых турниров, будь то шахматы или покер. Такие достижения могут и не казаться особенно впечатляющими, но лишь потому, что наши требования к удивительному быстро адаптируются к прогрессу", — сказал философ, представитель Оксфордского университета Ник Бостром (Nick Bostrom).

Стивен Хокинг (Stephen William Hawking), Элон Маск (Elon Reeve Musk) и Стив Возняк (Stephen Gary Wozniak) вместе с более чем тысячей высококвалифицированных специалистов в области искусственного интеллекта и робототехники подписали открытое письмо, призывающее запретить изготовление «автономного наступательного оружия».

Представители научного и экспертного сообщества считают, что автономное оружие представляет серьёзную угрозу для всего человечества. Под автономными они подразумевают системы вооружения, способные выбирать и поражать цели без вмешательства человека, но не, например, крылатые ракеты или БПЛА, которыми полностью управляют люди, принимая за них решения и назначая цели.

Учёные опасаются, что оружие, способное автоматически атаковать цель без человеческого вмешательства, может стать «автоматом Калашникова завтрашнего дня» и приведёт к новым войнам. При этом, в отличие от ядерного оружия, изготовление вооружения на основе искусственного интеллекта не требует дорогого и труднодоступного сырья. Таким образом, его легко и дёшево запустят в массовое производство все крупные военные державы. Причём, возможно, до этого остались даже не десятилетия — годы. Далее же — и это тоже лишь вопрос времени — автономное оружие неминуемо окажется в руках террористов, диктаторов, полевых командиров. Ведь оно, по мнению авторов письма, как нельзя лучше подходит для дестабилизации наций, порабощения населения и избирательного уничтожения по признаку этнической принадлежности.

«Так же, как большинство химиков и биологов не испытывают никакого интереса к созданию химического или биологического оружия, — говорится в письме, — большинство исследователей ИИ не имеют никакого интереса к созданию оружия на его основе».

Есть много способов использовать ИИ так, чтобы сражения стали более безопасными, особенно для гражданского населения, полагают подписавшие письмо эксперты, но это не требует создания новых инструментов для убийства. В целом искусственный интеллект может принести человечеству немалую пользу, но начинать гонку ИИ-вооружений — это плохая идея. Чтобы предотвратить её, исследователи призывают полностью запретить создание автономных наступательных вооружений вне пределов значимого человеческого контроля.

.
Комментарии