Искусственный интеллект Google играет в Starcraft II лучше 99,8% игроков-людей

в 13:59, , рубрики: AlphaStar, DeepMind, Google, StarCraft II, Алгоритмы, Игры и игровые приставки, искусственный интеллект, логические игры, машинное обучение

Искусственный интеллект Google играет в Starcraft II лучше 99,8% игроков-людей - 1

Искусственный интеллект AlphaStar, который разработала команда Google DeepMind, вошёл в «Элитную лигу» игроков StarCraft II — то есть попал в список 200 лучших игроков мира. Об этом сообщает научное издание Nature.

AlphaStar способен играть за три расы, представленные в Starcraft II: зергов, протоссов и терранов. Как утверждает Nature, AlphaStar не имел никакого особенного преимущества перед обычными игроками, его соперники не знали, что играют против машины. Попадание AlphaStar в «Элитную лигу» означает, что ИИ играет лучше, чем 99,8% игроков-людей.

«Меня очень впечатлил стиль игры AlphaStar. Она очень умело оценивает свою стратегическую позицию и точно знает, когда должна вступить в сражение с соперником, а когда стоит отступить. При этом я не чувствовал, что играл со сверхчеловеком, которого в принципе нельзя превзойти. Мне казалось, что мне противостоит реальный человек», — прокомментировал игру ИИ Дарио Вюнш, один из известных игроков в Starcraft II.

Система AlphaStar добилась успеха в Starcraft II ещё в январе текущего года. Она с большим перевесом победила одного из лучших в мире игроков в Starcraft II, поляка Грегоржа Коминча. Однако игра первой версии бота, как отметили в комментарии Nature создатели AlphaStar была неестественно хорошей: машина могла выполнять намного больше действий, чем профессиональные игроки-люди, так как ей не нужно было двигать двигать мышкой и нажимать на кнопки. Также ИИ мог видеть большую часть карты, чем люди.

Впоследствии разработчики ограничили возможности ИИ, чтобы её игра с людьми была более «честной». Кроме того, сотрудники Google и DeepMind поменяли систему обучения AlphaStar. Они заставили ИИ играть не с собой, а с разными версиями самого себя, благодаря чему ИИ смог разработать более сложные стратегии.

На сегодня ИИ Google вышел на гроссмейстерский уровень в Starcraft II. Как считает британский программист Дэвид Сильвер, один из создателей AlphaStar, это означает, что ИИ уже в состоянии решать сложные задачи и в других, более серьёзных сферах.

«История прогресса в развитии ИИ напрямую связана с играми. После того как нейросети победили человека в шахматы, го и покер, Starcraft стал следующей большой научной задачей. Мы решили ее, используя универсальные методы обучения ИИ, которые можно применить и для решения других сложных проблем», — заявил Сильвер.

ИИ AlphaStar был разработан на базе двух нейронных сетей. Одна нейросеть оценивает позицию игрока на карте, доске или поле, а вторая использует результаты этой оценки, чтобы сделать ход.

ИИ Google DeepMind уже добился успеха в шахматах, го и покере. В мае 2017 года ИИ AlphaGo, специально созданный для игры в го, провёл матч с чемпионом мира по го Ли Седолем. AlphaGo выиграл со счетом 4:1. Позже успеха в го добился и ИИ AlphaZero, после чего разработчики оптимизировали AlphaZero для компьютерных игр.

Первым опытом ИИ в компьютерных играх стал популярный шутер Quake III Arena. Вероятность победы команд под управлением ИИ достигала 74%. У людей-игроков — всего 52%. В апреле текущего года ИИ Open AI Five победил одну из сильнейших команд мира OG в игре Dota 2. В этом случае машина также обучалась самостоятельно, играя сама с собой. ИИ потребовалось 45 тысяч часов, чтобы «вникнуть» в Dota 2.

Google и DeepMind — не единственные компании, которые выводят искусственный интеллект в мир игр. Например, специалисты Университета Карнеги-Меллона в сотрудничестве с Facebook в июле 2019 создали ИИ-систему для игры в покер. Система носит название Pluribus. Машина способна добиться успеха в игре с пятью соперниками.

Автор: AnnieBronson

Источник


* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js