Искусственный интеллект, великий и ужасный. Часть вторая

в 8:54, , рубрики: азимов, Алгоритмы, искусственный интеллект, мозг, Программирование, самообучение, сознание, тест тьюринга, Эмоции

Как и предыдущая, эта заметка представляет собой обзор статей и комментариев к ним здесь, на Хабре, сгруппированный по нескольким темам.

Законы робототехники Азимова

Пожалуй, самая смешная, но, как ни странно, до сих пор широко обсуждаемая тема. Собственно, говорить тут просто не о чем: разве кому-то не ясно, что если ИИ хоть немного станет вылезать из пелёнок (и даже раньше — уже сейчас!), на него тут же наложат лапу военные и всякая там «госбезопасность»? И они будут учить ИИ именно эффективно убивать, не заморачиваясь всякой ерундой на тему «псевдоэтики». Разве не ясно, что эти «законы» в принципе не работают и работать не могут, о чём прекрасно знал и сам Азимов? Разве не ясно, что главная угроза со стороны ИИ как раз связана с контролем со стороны человека? И что, мы так и будем верить в сказки, вопрошая: «Дадим ли мы военным роботам лицензию на убийство»? А разве нас кто-то спрашивает? Или: «Крупнейшие ИТ-компании не дадут ИИ вырваться из-под контроля человека». А разве их кто-то спрашивает? Или: «Известные во всём мире разработчики ИИ договорились не создавать умное оружие». Тупое будут создавать? Или: «Эксперт ООН призвал мировое сообщество притормозить создание боевых роботов с искусственным интеллектом». А разве крупные страны, способные создать таких роботов, хоть раз считались с мнением ООН? Так что давайте прекратим обсуждать очевидные глупости — это даже не детский сад, это младшая ясельная группа.

Тест Тьюринга


Почему-то эта глупость считается критерием ИИ. И даже не просто ИИ, а сильного ИИ! При этом никого не волнует, что личность из 19-го века тест Тьюринга в нашем времени не пройдет. Так же как и китаец при индийских оценщиках. Вообще для наперёд заданного состава судейской коллегии тест Тьюринга не пройдет большинство населения нашей планеты. Тест исходит из предположения, что интеллект присущ только человеку — даже животным отказывают в интеллекте! — он проверяет вовсе не наличие интеллекта, а похожесть тестируемого на представителей вида Homo sapiens в глазах «экзаменаторов» того же вида. Тем более, что в почти столь же дурацком «тесте IQ» компьютеры уже обошли людей.

Беглый анализ разговоров во время теста говорит, что для того, чтобы за компьютером признали наличие интеллекта, он должен не только врать и прикидываться идиотом — неплохо также в меру сквернословить и делать грамматические ошибки. И тогда его шансы стать «интеллектуалом» резко возрастут. И ещё момент: никто ведь не спорит, что конкретные интеллекты у разных людей отличаются? Есть гении, есть идиоты и есть остальные нормальные и не очень люди. Так интеллект — это количественная характеристика или качественная? И что, если ИИ всё-таки пройдёт тест Тьюринга, он будет обладать интеллектом? Да ничего подобного! Это означает лишь то, что у животных вида Homo sapiens с непомерно завышенным ЧСВ, избранных в судьи, нет этого интеллекта ни на грош! И если в какой-то момент средний интеллектуальный уровень человечества упадёт достаточно низко — примерно до уровня орангутанга (судя по всему, до этого остались уже годы, а не десятилетия), то чуть ли не все такие машины станут обладать искусственным интеллектом.

Штат Калифорния запретил чат-ботам притворяться людьми: одна из самых сложных проблем искусственного интеллекта решена элегантно и просто. Объясняется запрет тем, что когда обман вскрывается, всегда следует очень негативная реакция клиента. И наоборот: если чат-бот сразу предупреждает, кто он (точнее, ЧТО он), человек всё равно очень легко одушевляет его и приписывает ему человеческие свойства. Давно известно: настоящий программист с компьютером даже не на «ты», а на «ты, сволочь»!

Ну и замечательный коммент в одной из веток: «Тест Тьюринга — бессмысленен. Он проверяет не способность думать, а способность прикидываться человеком. Это равносильно предложить человеку вести себя как собака — так, чтобы обмануть других собак, а если не получиться, то считать человека глупее собаки». Подписываюсь!

ИИ — это просто

Очень много обсуждений типа «Делаем Искусственный Интеллект» или «Всё, что вам нужно знать об ИИ за несколько минут» или «Прошло уже (!) около четырёх месяцев с тех пор, как я серьёзно (!) увлёкся проблемой Искусственного Интеллекта». Комментировать здесь тоже нечего — остаётся только вздохнуть: какое только дерьмо ни называют сейчас ИИ!

ИИ — это сложно

Прямо противоположная тенденция — считать разработку ИИ невероятно сложным делом или вообще принципиально невозможным. То фон Неймановская архитектура не подходит — квантовые компьютеры им подавай, то «как мы уже знаем (!), компьютер априори не способен создать что-либо отличительно новое, или, другими словами, не способен заниматься творческой деятельностью», то «не может существовать алгоритма ИР, так как алгоритм создаётся для решения конкретной задачи и рамки его применения ограничены этой задачей». В крайнем случае, это потребует немеряного количества бабла — разумеется, для себя, любимых: «Придуманная нами система потребует несколько миллиардов долларов на разработку и постройку, и для придания ей компактности в неё войдут несколько передовых инноваций». Здесь я остановлюсь только на одной «теории», которая меня весьма позабавила: «Существует ряд задач (класс NP), которые алгоритмически решать просто нецелесообразно. И даже: Именно ПРИБЛИЖЁННОСТЬ и не описывается алгоритмически. Есть способы ПРИБЛИЖЁННОГО решения коммивояжёра. Но это НЕ алгоритмическое решение задачи».

Собственно, ответ был дан там же: «Человек не умеет точно решать даже разрешимые NP-полные проблемы, а от ИИ хочет решения алгоритмически неразрешимых». У меня есть программа для решения задачи коммивояжёра, есть даже давняя публикация на эту тему («Software for solving of TSP»), и я утверждаю, что не только «NP-задачи алгоритмически решать целесообразно», но и что приближённость ПРЕКРАСНО описывается алгоритмически. Не знаю, как у кого, а МОИ способы ПРИБЛИЖЁННОГО решения коммивояжёра вполне себе алгоритмические.

Что же такое ИИ?

А никто не знает! И версий всё меньше и меньше. Трудно придумать нечто такое, чтобы ОНО у нас было, а больше ни у кого не было: игры отпали, тест Тьюринга смешон, тест IQ провален… Что осталось?

Обучение: ИИ должен быть самообучаем. Реализовав самообучение, остальному он должен будет научиться сам. Заложенный в систему алгоритм остается неизменным, а самообучение происходит за счёт постоянного усложнения обрабатываемой информации, за счёт постоянного перехода с низкого уровня абстрагирования на более высокий.
Чушь собачья! Алгоритмов должно быть МНОГО! Их и есть МНОГО, а потому воспринимать разум как ОДИН алгоритм, тем более, неизменный, значит оглуплять задачу до уровня полной невозможности создания хоть какого-то ИИ. Как известно, никто из детей маугли почему-то так ничему и не «самообучился». И даже Ломоносов отправился из Холмогор в Москву отнюдь не самообучаться, а именно искать учителей. Что же говорить о нас, которых чуть ли не пинками загоняют в школы? Сначала сами кто-нибудь самообучитесь, а потом уже требуйте этого от ИИ!

Постановка задач: алгоритмы умеют решать задачи, а полноценный интеллект сам сможет ставить себе цели и искать наиболее эффективные пути их достижения.
Лет 20 назад я подкалывал сторонников этого тезиса так: «Умение ставить задачи есть задача, которую надо решать». К тому же, любой идиот «с одной извилиной, да и та след от фуражки» за пять минут столько задач понаставит — разгребать упаришься!

Составление алгоритмов: способность находить алгоритм решения задачи, способ решения которой тебе не известен. И даже: умение решать произвольные задачи, сформулированные на естественном языке, условия которых плохо формализованы, а исходные данные не собраны в готовый набор.
Ну и как? Люди-то могут этим похвастаться? Много нашли «решений задач, способ решения которых не известен»? Я вот считаю себя именно алгоритмистом, и утверждаю, что найти алгоритм — плёвое дело, не требующее ни капли интеллекта! Ничуть не сложнее, чем поставить задачу! А вот найти ХОРОШИЙ алгоритм или ПРАВИЛЬНО поставить задачу намного сложнее. Но и это не самое сложное. А вот вдолбить остальным, что алгоритм ДЕЙСТВИТЕЛЬНО хороший — это уже и вовсе почти неразрешимая задача! Если кто не верит — посмотрите в соседнюю ветку, где я как раз и предложил алгоритм решения задачи, способы решения которой не просто известны, а исчисляются десятками!

Чувство юмора: Здесь встречаются разные обсуждения на тему «Microsoft разработала ИИ с чувством юмора» или "сможет ли компьютер понимать сарказм?". Но, поскольку никто не знает не только что такое «интеллект», но и что такое «чувство юмора», все эти рассуждения есть фактически всё та же болтовня ни о чём.

Эмоции: алгоритм ничего чувствовать не может. ИИ не имеет ни страданий, ни мыслей. Только жонглирование битами в памяти.
Перевернём: Человек ничего чувствовать не может, не имеет ни страданий, ни мыслей. Только жонглирование импульсами между нейронами. Эмоции достаточно легко программируются, а наличие эмоций принципиально невозможно отличить от их имитации. Это всё следствие той самой ошибки, когда информацию считают материальной, например: «Информация материальна по определению и по сути. Информация — это передача энергии между частицами. Информация и энергия, по факту, эквивалентные понятия». Не хочу даже комментировать подобные глупости, только спрошу: «У животных эмоции есть? А интеллект? Ах, нет? Тогда почему вообще докопались до эмоций? Обрезаем их бритвой Оккама!

Сознание: очевидный факт для его обладателя (я знаю, что у меня есть сознание), и совершенно недоказуемый для всех остальных (окружающие меня люди не увидят разницу между мной, и сложной системой, в точности имитирующей мои реакции на внешние сигналы)».
Здесь точно та же ситуация: формальных признаков сознания обществу неизвестно. Так что говорить здесь тоже, собственно, не о чем.

Мозг

Мы почти ничего не знаем о ЕИ, но уже строи ИИ, так посмотрим немного на «естественную нейронную сеть». Для начала отбросим тезис, что «мозг человека аналоговый». Лично я считаю, что мир вообще дискретен и все эти глупости про «аналоговый мозг» есть именно глупости. Аналоговый сигнал мы вообще не можем даже измерить! Ведь его нужно сравнить с какой-то эталонной шкалой, а любая шакала дискретна по определению. Так что любую информацию мы вообще можем получить ТОЛЬКО в цифре!

Второе важное свойство мозга — умение забывать: отслужившие данные стираются, чтобы уступить место новым. Лично я не верю в то, что «с помощью гипноза из памяти гору всего забытого вытягивают», потому как нет никакой гарантии, что эти воспоминания действительно соответствуют тому, как всё было на самом деле. Я также не верю в сказки про «петафлопсы» мозга (зрение даёт 10^6 бит/сек, осязание — 10^5 бит/сек, слух — 10^4 бит/сек), что было блестяще опровергнуто здесь же, на Хабре: «Объём поступающей информации сильно преувеличен. Представим среднестатистического человека, читающего среднестатистическую книжку в 300 страниц. Читающего без перерыва на еду, туалет, сон и секс. Допустим, что на это уйдут сутки. Получаем 24*60*60*10^6 бит = 864000^6 бит входящей информации. В тоже самое время, в текстовом цифровом формате без потери качества этот объем вряд ли превысит 1 мегабайт». Подписываюсь!

И ещё одна хорошая фраза: «Первый ИИ, который можно будет назвать интеллектом будет не тот, кто решит этическую задачу, а тот, который откажется её решать, потому что у него сегодня настроения нет или провода чешутся».

Осталось неохваченными ещё три большие темы, которые относят к ИИ: нейронные сети, вариации на тему Скайнета и мои любимые базы данных. Но это уже материал для следующей заметки.

Автор: rybvv

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js