Как научить искусственный интеллект здравому смыслу

в 12:00, , рубрики: breakout, глубинное обучение, здравый смысл, игры, искусственный интеллект, машинное обучение, нейросети

Как научить искусственный интеллект здравому смыслу - 1

Пять лет назад программисты из DeepMind, лондонской компании, специализирующейся на ИИ, радостно наблюдали за тем, как ИИ самостоятельно учился играть в классическую аркадную игру. Они использовали модную технологию глубинного обучения (ГО) для, казалось, странной задачи: овладения игрой в Breakout, сделанной в компании Atari, в которой нужно отбивать шарик от кирпичной стены, чтобы кирпичики исчезали.

ГО – это самообучение для машин; вы скармливаете ИИ огромные количества данных, и он постепенно начинает самостоятельно распознавать закономерности. В данном случае данными было происходящее на экране – крупные пиксели представляли кирпичи, шарик и ракетку. В ИИ DeepMind, нейросеть, состоящую из расположенных слоями алгоритмов, не было заложено никаких знаний по поводу правил игры Breakout, его принципов работы, целей и методов игры. Программисты просто позволили нейросети изучать результаты каждого действия, каждого отскока шарика. К чему это приведёт?

Оказалось, что к впечатляющим навыкам. В первые несколько попыток ИИ беспорядочно болтался. Сыграв несколько сотен раз, он начал точно отбивать шарик. К 600-й игре нейросеть додумалась до экспертных ходов, применяемых людьми, играющими в Breakout, когда игрок пробивает брешь в кирпичах и отправляет шарик самостоятельно скакать сверху стены.

«Это стало для нас большим сюрпризом, — сказал тогда Демис Хасабис, директор DeepMind. – Стратегия вытекала из самой системы». ИИ продемонстрировал способности к необычно тонкому человекоподобному мышлению, к пониманию внутренних концепций, лежащих в основе игры. Поскольку нейросети примерно копируют структуру человеческого мозга, по теории, они в некотором смысле должны копировать и наш стиль размышлений. Этот момент, казалось, стал подтверждением теории.

Затем в прошлом году специалисты по информатике из компании Vicarious в Сан-Франциско, занимающейся изучением ИИ, предложили интересный способ проверить ИИ в реальных условиях. Они взяли такой ИИ, который использовали в DeepMind, и натренировали его игре в Breakout. Он справлялся прекрасно. А потом они начали немного подправлять планировку игры. То поднимут ракетку, то добавят непробиваемую область в центре поля.

Игрок-человек смог бы быстро адаптироваться к этим изменениям; но нейросеть не смогла. Сверхумный вроде бы ИИ мог играть только в Breakout того рода, которому он учился в течение сотен попыток. Он не переваривал ничего нового.

«Люди умеют не просто распознавать закономерности, — говорит мне Дилип Джордж, специалист по информатике, один из основателей Vicarious. – Мы ещё создаём модели увиденного. И модели эти каузальные – мы связываем причину и следствие». Люди занимаются рассуждениями, делают логические выводы, касающиеся окружающего мира; у нас есть база знаний, относящихся к здравому смыслу, помогающая нам разбираться в новых ситуациях. Когда мы видим Breakout, немного отличающийся от того, в который мы только что играли, мы понимаем, что у него, скорее всего, будут похожие правила и цели. Нейросеть же ничего не поняла по поводу Breakout. Она способна только следовать закономерностям. Когда закономерность поменялась, она стала беспомощной.

ГО – король ИИ. За шесть лет, за которые оно ворвалось в мейнстрим, оно стало главным способом обучения машин восприятию и ощущению окружающего их мира. Она стоит за распознаванием речи от Alexa, за робомобилями от Waymo, за мгновенными переводами от Google. Uber в некотором смысле представляет собой гигантскую задачу по оптимизации, и использует машинное обучение (МО), чтобы предсказать, где пассажирам понадобятся машины. Baidu, китайский техногигант, располагает 2000 программистами, работающими над нейросетями. Годами казалось, что ГО будет только улучшаться, и неумолимо породит машину с гибким и быстрым интеллектом под стать человеку.

Однако некоторые еретики утверждают, что ГО упирается в стену. Они говорят, что оно само по себе никогда не сможет породить обобщённый искусственный интеллект (ОИИ), поскольку истинно человеческий разум – это не только распознавание закономерностей. Нам пора начинать работать над тем, как наделить ИИ повседневным здравым смыслом, человеческим умом. Если у нас этого не получится, предупреждают они, мы так и будем натыкаться головой на ограничения ГО, как системы распознавания образов, которые легко обмануть, изменив часть ввода, в результате чего модель ГО примет черепаху за пистолет. Но если мы сумеем сделать это, говорят они, мы станем свидетелями взрывного роста более безопасных и полезных устройств – медицинских роботов, передвигающихся в захламлённом доме, систем распознавания подделок, не страдающие ложными срабатываниями, медицинских прорывов, сделанных машинами, изучающими причины и следствия болезней.

Но как в машине выглядит истинное рассуждение? И если ГО не сможет привести нас к этому, что сможет?

Как научить искусственный интеллект здравому смыслу - 2

Гари Маркус – задумчивый 48-летний профессор психологии и нейрологии Нью-Йоркского университета в очках с двойными линзами, и, наверное, самый известный отступник ортодоксального глубинного обучения.

Впервые Маркус заинтересовался ИИ в 1980-х и 90-х, когда нейросети находились в экспериментальной фазе, и с тех пор его аргументы не поменялись. «Не то, чтобы я опоздал на вечеринку, и хочу тут всё опошлить», — сказал мне Маркус, когда мы встретились в его квартире близ Нью-Йоркского университета (мы с ним также и друзья). «Как только произошёл взрыв ГО, я сказал: Ребята, это неправильное направление!»

Тогда стратегия ГО не отличалась от нынешней. Допустим, вам нужно, чтобы машина научилась распознавать ромашки. Сначала нужно закодировать алгоритмические «нейроны», объединив их в слои наподобие бутерброда (при использовании нескольких слоёв бутер становится толще, или «глубже» – отсюда «глубинное» обучение). Первому слою вы показываете изображение ромашки, и его нейроны активируются или не активируются, в зависимости от того, напоминает ли это изображение примеры ромашек, видимые им ранее. Сигнал затем переходит в следующий слой, где процесс повторяется. В итоге слои просеивают данные, вынося вердикт.

Сначала нейросеть занимается слепым угадыванием; она начинает жизнь с чистого листа. Суть в том, чтобы организовать полезную обратную связь. Каждый раз, когда ИИ не угадывает ромашку, в наборе нейронов ослабляются связи, приведшие к неверному ответу. Если угадывает, связи усиливаются. По прошествии достаточного количества времени и ромашек, нейросеть становится более точной. Она учится выхватывать определённые закономерности ромашек, позволяющие ей каждый раз определять ромашку (а не подсолнухи или астры). С годами этак ключевая идея – начинать с наивной сети и тренировать её повторениями – была улучшена и казалась полезной практически во всех применениях.

Но Маркуса это не убедило. С его точки зрения, чистый лист был проблемой: предполагается, что люди развивают интеллект, лишь наблюдая за окружающим миром, а значит, машины тоже на это способны. Но Маркус считает, что люди работают не так. Он идёт по интеллектуальному пути, проложенному Ноамом Хомским, утверждающим, что люди рождаются с предрасположенностью к обучению и с программой по изучению языков и интерпретации физического мира.

При все их якобы похожести на мозг, отмечает он, нейросети, судя по всему, не работают так, как мозг человека. К примеру, им надо слишком много данных. В большинстве случаев каждая сеть требует тысяч или миллионов примеров для обучения. Что хуже, каждый раз, когда вам нужно заставить сеть распознать новый предмет, вам нужно начинать с нуля. Нейросеть, натренированная распознавать канареек, совершенно не пригодится в распознавании песен птиц или человеческой речи.

«Нам не нужны огромные объёмы данных для обучения», — говорит Маркус. Его детям не нужно увидеть миллион машин перед тем, как они смогут распознать машину. Что ещё лучше, они умеют обобщать: впервые увидев трактор, они понимают, что он похож на машину. Они также умеют предполагать от обратного. Google Translate может выдать французский эквивалент английского предложения «стакан сдвинули, и он упал со стола». Но он не понимает значения слов, и не сможет сказать вам, что случится, если стакан не двигать. Люди, как отмечает Маркус, схватывают не только закономерности грамматики, но и стоящую за словами логику. Можно дать ребёнку выдуманный глагол «плякать», и он скорее всего догадается, что в прошедшем времени он будет «плякал». Но он не видел такого слова ранее. Его ему не «тренировали». Он просто интуитивно прочувствовал логику работы языка и может применять её к новой ситуации.

«Системы ГО не знают, как интегрировать абстрактное знание», — говорит Маркус, основавший компанию, создавшую ИИ, способный обучаться на меньшем количестве данных (и продал её компании Uber в 2016 году).

В этом году Маркус опубликовал препринт работы на arXiv, где утверждает, что без новых подходов ГО, возможно, никогда не преодолеет своих текущих ограничений. Ему необходим прорыв – встроенные или дополняющие правила, помогающие ИИ вести рассуждения об окружающем мире.

Автор: SLY_G

Источник


* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js