Искусственный интеллект безжалостно обыгрывает в го всех подряд

Знаменитый матч «AlphaGo — Ли Седоль».
Знаменитый матч «AlphaGo — Ли Седоль».

В 2015 искусственный интеллект впервые выиграл у человека в го. В следующем году — закрепил результат. Теперь программа развлекается тем, что обыгрывает людей одного за другим — ИИ выиграл уже 60 раз, в том числе у сильнейших профессионалов.

29 декабря (по другой версии — 30 декабря) на го-сервере Tygem зарегистрировался новый игрок под никнеймом Magister. Он играл с лучшими игроками и одержал тридцать побед подряд. Затем Magister перешёл на сервер FoxGo, сменил имя на Master и выиграл ещё тридцать раз. Матч закончился ничьей только однажды, когда у китайского профессионального игрока Чэнь Яое (Chen Yaoye) возникли проблемы с подключением к сети. Загадочный Master обыгрывал лучших из лучших — по информации Американской ассоциации го, он четыре раза одержал победу над корейским чемпионом Паком Чжоном Хваном (кор. 박정환) и дважды — над китайцем Кэ Цзе (кит. трад. 柯洁). Одному из сильнейших игроков, Гу Ли (кит. трад. 古力), тоже не удалось одолеть неизвестного, и после поражения он пообещал награду в размере 100 000 юаней (14 400 долларов или около 860 000 рублей) тому, кто сможет это сделать.

Тот самый судьбоносный твит.
Тот самый судьбоносный твит.

Master играл по десять матчей в день с очень небольшими перерывами или вовсе без них, а потому некоторые заподозрили, что имеют дело с искусственным интеллектом. 4 января один из основателей британской компании DeepMind Technologies Limited (с 2014 года принадлежит Google) Демис Хассабис (Demis Hassabis) рассказал в Твиттере, что за Magister и Master играла обновлённая версия программы AlphaGo. Он заявил, что с нетерпением ждёт официальных турниров 2017 года. Однако пока неясно, будет ли ИИ настолько же успешен в полноценных чемпионатах: правила этих игр несколько отличаются от того, что можно видеть на форумах. В частности, в интернете игрокам дают меньше времени на размышление — и конечно, в таких условиях компьютер получает преимущество. Благодаря тому, что DeepMind позволил программе играть в сети, игроки получили возможность изучить приёмы AlphaGo. «Лично я думаю, что то, что люди могут смотреть все эти игры и учиться — это фантастика. Здесь много действительно новых и удивительных ходов», — говорит британский игрок в го Нилл Кардин (Niall Cardin).

Работа над программой AlphaGo началась в 2014 году. В октябре 2015 искусственный интеллект выиграл у трёхкратного чемпиона Европы Фань Хуэя (кит. упр. 樊麾), причём человеку поражение пошло на пользу: Хуэй заявил, что стал видеть новые элементы игры, а его мировой рейтинг поднялся на 300 позиций. В марте следующего года ИИ играл с одним из сильнейших игроков в го Ли Седолем, занимающим второе место по числу международных титулов. Седоль сдался в четырёх из пяти игр, AlphaGo проиграла лишь один раз. После победы в матче Корейская ассоциация игроков в го присвоила AlphaGo наивысший ранг — «почётный 9 дан».

Матч AlphaGo — Ли Седоль часто сравнивают с другим знаковым событием — шахматным матчем между программой Deep Blue и Гарри Каспаровым. Но Deep Blue выиграла, перебирая миллионы ходов в секунду, а с го такой номер не проходит — слишком много вариантов нужно было бы просчитать. В каждой позиции го больше разрешённых ходов, а партия длится дольше и поэтому до недавнего времени го считалась игрой, в которой человек сохраняет несомненное преимущество. Создатели AlphaGo при разработке использовали метод Монте-Карло для поиска в дереве и две нейронные сети. Сначала они натренировали программу на 30 миллионах ходов из партий лучших игроков, а затем заставили её сыграть тысячи игр против самой себя. О том, что получилось в результате можно прочесть в сотне новостных заметок — о победе искусственного интеллекта не написал только мёртвый. К счастью, игра в го — не единственная сфера применения продвинутого ИИ. Демис Хассабис рассказал, что DeepMind заключил соглашение с Национальной службой здравоохранения Великобритании и работает над созданием инструментов, упрощающих работу врача.


Матч между AlphaGo и Паком Чжон Хваном
Го — логическая настольная игра, возникшая в Древнем Китае, по разным оценкам, от 2 до 5 тысяч лет назад. До XIX века культивировалась исключительно в Восточной Азии, в XX веке распространилась по всему миру. По общему числу игроков — одна из самых распространённых настольных игр в мире. В Китае, на исторической родине, она носит название «вэйци» или «и», в Японии — «и-го», в Корее — «падук».

В го играют на прямоугольном поле, расчерченном вертикальными и горизонтальными линиями. Также для игры необходимы камни — специальные фишки двух контрастных цветов, чаще всего — чёрные и белые. Играют два игрока, один из которых получает чёрные камни, другой — белые. Цель игры — отгородить на игровой доске камнями своего цвета большую территорию, чем противник.