- PVSM.RU - https://www.pvsm.ru -
Редактор PySC2 показывает интерпретацию игрового поля для человека (слева), а также цветные версии слоёв признаков справа. Например, в верхнем ряду показаны признаки высоты поверхности, «тумана войны», слизи, местоположения камеры и ресурсов игрока, видео [1]
Тестирование агентов искусственного интеллекта в компьютерных играх — важная часть обучения ИИ. Компания DeepMind уделяет большое внимание этому аспекту обучения, используя как специально созданные окружения вроде DeepMind Lab [2], так и известные игры вроде Atari [3] и го (система AlphaGo [4]). Особенно важно тестировать агентов в таких играх, которые не были специально созданы для машинного обучения, а наоборот — они были созданы для игр людей, и люди хорошо в них играют. Вот здесь обучение ИИ наиболее ценно.
Исходя из этих предпосылок, компания DeepMind совместно с Blizzard Entertainment выпустила [5] набор инструментов SC2LE, чтобы стимулировать исследования в области ИИ на платформе StarCraft II.
StarCraft и StarCraft II входят в число самых популярных игр всех времён, турниры по ним проходят более 20 лет. Оригинальная версия StarCraft также используется для машинного обучения и исследований ИИ, а разработчики показывают свои творения на ежегодном соревновании ботов AIIDE [6]. Отчасти успех игры связан с хорошей сбалансированностью и многоуровневым геймплеем, что одновременно делает её идеальным вариантом для исследований ИИ.
Так, основная задача игрока — победить соперника, но одновременно нужно выполнить массу подзадач: добывать ресурсы, строить здания. У игры есть и другие качества, привлекательные для разработки ИИ: например, постоянный большой пул опытных игроков в онлайне, на которых можно оттачивать своё мастерство.
Набор инструментов SC2LE включает в себя следующее:
StarCraft II будет непростой игрой для обучения ИИ. Достаточно сказать, что для игрока доступно более 300 базовых действий. Сравните это с играми Atari, где количество действий не превышает десяти (типа «вверх», «вниз», «влево», «вправо»). К тому же, действия в StarCraft имеют иерархическую структуру, могут быть изменены или дополнены, а многие из них требуют указания точки на экране. Простая математика показывает, что даже на фрагменте 84×84 пикселей существует около 100 миллионов возможных действий!
«StarCraft интересен по многим причинам, — говорит [11] Ориол Виньялс (Oriol Vinyals), ведущий исследователь DeepMind по проекту StarCraft II и сам эксперт-игрок в StarCraft II (мощных ботов для игры он написал ещё в студенческие годы). — Память является критически важным фактором. То, что вы видите в данный момент, отличается от того, что вы видели раньше, и нечто специфическое, что происходило минуту назад, может заставить вас изменить своё поведение в данный момент».
Редактор PySC2 [9] предоставляет простой в использовании интерфейс для подключения агентов к игре. Как показано на самом первом скриншоте, игру разложили на «слои признаков», которые изолированы друг от друга. Это такие признаки как типы юнитов, видимость на карте, высота поверхности и т.д.
Анимация внизу показывает некоторые из мини-игр, предназначенных для обучения агентов конкретным [12] действиям [13] в игре, таким как передвижение камеры, сбор минералов или выбор юнитов. Разработчики из DeepMind надеются, что сообщество подбросят идеи для новых мини-игр.
Первые результаты показывают, что агенты ИИ неплохо справляются с мини-играми, но во всей игре целиком даже самые лучшие агенты вроде A3C [14] не могут выиграть у встроенного ИИ даже на самом простом уровне. Возможно, сбор большего количества игровых сессий и дополнительное обучение агентов поможет исправить ситуацию. Одновременно обучение на такой большой базе (500 тыс. игровых сессий) откроет принципиально новые возможности для исследования, такие как долговременная память ИИ и предсказания последовательностей событий.
Разработчики из Blizzard говорят, что они сами заинтересованы в открытии игрового движка для внешних агентов ИИ. Во-первых, это может сделать игру более интересной для нынешних игроков. Во-вторых, это важно для изучения самого игрового процесса и разработки будущих игр.
Автор: alizar
Источник [15]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/ii/262045
Ссылки в тексте:
[1] видео: https://www.youtube.com/watch?v=-fKUyT14G-8
[2] DeepMind Lab: https://deepmind.com/research/publications/deepmind-lab
[3] Atari: https://github.com/mgbellemare/Arcade-Learning-Environment
[4] AlphaGo: https://deepmind.com/research/alphago/
[5] выпустила: https://deepmind.com/blog/deepmind-and-blizzard-open-starcraft-ii-ai-research-environment/
[6] AIIDE: http://www.cs.mun.ca/~dchurchill/starcraftaicomp/
[7] Machine Learning API: https://github.com/Blizzard/s2client-proto
[8] Набор данных для обучения с анонимизированными записями игр: https://github.com/Blizzard/s2client-proto#replay-packs
[9] PySC2: https://github.com/deepmind/pysc2
[10] научная статья: https://deepmind.com/documents/110/sc2le.pdf
[11] говорит: https://www.technologyreview.com/s/608576/what-ai-needs-to-learn-to-master-alien-warfare/
[12] конкретным: https://arxiv.org/abs/1703.10069
[13] действиям: https://arxiv.org/abs/1609.02993
[14] A3C: https://arxiv.org/abs/1602.01783
[15] Источник: https://geektimes.ru/post/291941/
Нажмите здесь для печати.