Почему искусственный интеллект не должен быть человекоподобным?

в 8:59, , рубрики: Google, искусственный интеллект, нейронные сети

Искусственный интеллект многогранная и сложная задача? Отнюдь нет. В чем же тогда загвоздка? Почему мы сидим и обсуждаем, а в мире до сих пор даже гиганты IT индустрии не сдвинулись с мертвой точки? Уже было сказано много слов по этому поводу, отстаивались эмоции, нейронные сети. Я же попробую пойти чуть дальше и разобрать, в чем же принципиальные ошибки многих кто изучает это направление. Собственно я это уже сделал в рамках своей стажировки по ИИ в одной компании, осталось только поделиться с общественностью.

1. Что мы хотим от ИИ?

Давайте для начала разберемся, что же такое ИИ и что мы от него ожидаем. Искусственный Интеллект это некая программная или аппаратная конструкция обладающая тем что мы называем разумом. Первое заблуждение: в оригинале Intelligence – «умение рассуждать разумно», несет иную смысловую нагрузку, в отличие от русского слова «интеллект». Обезьяны тоже по своему разумны, дельфины тоже. Но воссоздав обезьяну программно, ИИ мы не получим.

Соответственно опустимся от абстрактных рассуждений о разнице между разумом и интеллектом и попытаемся дать четкие определения, чем должен являться ИИ.

Я в свое время составил список того что я хочу увидеть в первую очередь в разумной машине, всего насчитывается 9 пунктов.

• Система восприятия
• Система обработки и анализа информации
• Система хранения полученных данных, воспроизведение информации
• Система поиска требуемой информации
• Система обучения и самообучения
• Система семантического анализа, выделения смысла
• Система построения логических цепочек высказываний
• Система, выполняющая конкретные действия, по сути выполняющая прямые команды
• Система вывода информации, на языке понятном конечному пользователю

Кстати вот и второе заблуждение: ИИ никогда не будет думать как человек, он может имитировать человека, но он никогда им не станет, даже обладая сверх-разумом.

К сожалению многие, наверное, столкнулись с известными теориями Тюринга. Он разработал теорию и выдвинул предположение что для того чтоб определить может ли машина мыслить, ей нужно пройти тест. В оригинале это звучало так: «Человек взаимодействует с компьютером и человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Основная критика в сторону теории Тюринга впервые была выдвинута в 1980 году, и представляла собой мысленный эксперимент под названием «Китайская комната». Описание данного эксперимента довольно длинное, поэтому приводить его здесь не буду. Скажу лишь что Джон Сёрл выдвинувший данное опровержение опирался на четыре основных предпосылки:

Мозг порождает разум
• Синтаксиса недостаточно для существования семантики
• Компьютерная программа полностью определяется своей синтаксической структурой
• Человеческий разум оперирует смысловым содержанием (семантикой)

Эти предпосылки дают нам право утверждать, что на сегодняшний день все попытки смоделировать искусственный интеллект опирающиеся на теорию Тюринга, были тщетны. Ведь все до единого существующие чат-боты, даже те которые приблизились к заветной цифре и в ближайшем будущем смогут пройти тест Тюринга не являются искусственным интеллектом ни в коей мере. Какой отсюда вывод? Тест Тюринга проверяет лишь способность компьютерной программы походить на человека, а не наличие разумного поведения и как следствие интеллекта. Кстати чтоб не быть голословным приведу пример парочки чат-ботов получивших премию Лёбнера и показав впечатляющие результаты на тестировании. Данные системы работают и по сей день, вы можете пообщаться с ними и оценить в онлайне:

1. Elbot (www.elbot.com)
2. Jabberwacky (www.jabberwacky.com)

2. Деструктивность эмоций

Эмоции деструктивны, да в них есть плюсы, они толкают человека на поступки, они дают мотивацию. Но так же они и угнетают, подвергают наш разум изменениям, от которых потом очень трудно избавится. Зависимые люди, будь то наркотики, алкоголь, азартные игры, да что угодно. Эмоции делают человека уязвимым. Вы доверитесь машине с железной логикой или машине, которая, увидев Хабуб (выглядит впечатляюще, погуглите), в панике развернется и даст газу? Как декорации эмоции могут быть присуще машине, начнем хотя бы с того как людям весело наблюдать за котом который увидев себя первый раз в зеркале начинает то заигрывать с отражением, то убегать, то еще вытворять что то смешное. А теперь представьте своего директора, который ведет себя так же. Ну не абсурд ли? Именно то, что называют интеллигентностью — по большей степени является умением контролировать свои эмоции. Но это все субъективные домыслы, перейдем к реалиям.

Одна из наиболее распространенных теорий в психоанализе призванная раскрыть суть эмоций сравнивает все эмоциональные состояния с неким подобием животных инстинктов, которые оказывают колоссальное влияние на человека, на протяжении всей его жизни. Данный вопрос настолько глубок, что затрагивает даже некоторые области биохимии, ведь организм человек стремящегося испытать, к примеру, радость, вырабатывает определенные ферменты, которые будут либо способствовать его стремлению, либо вызывать негативное состояние, так например злость и раздраженность вызывают чувство усталости и наоборот.

Понятное дело, что моделируя аналогичные процессы нам совершенно не важна часть, отвечающая за выделение ферментов, наш ИИ — абстракция в чистом виде. Вот собственно на основе всего вышесказанного можно уже говорить о третьем заблуждении: эмоции это движущие рычаги человека, ИИ это не человек. Все что он может делать — это имитировать человеческое поведения. Рычаги влияния у него иные, а значит, эмоции в том виде, в котором они есть у человека, ему попросту не нужны.

Конечно, желание есть (заряжаться в случае реального физического тела), или страх перед не изведанным обусловливают «правильное», ожидаемое поведение. Но возвращаясь к вышесказанному — это поведение НЕ эмоционально, хотя многие, внешне, могут его принять именно за эмоции, потому что так делает человек.

3. Почему именно нейронные сети

Нейронная сеть != интеллект? Или все-таки равно? Четвертое заблуждение: Человек это гибрид, он может то — что делают отдельные нейронные сети. Он может это делать сразу. Смешивать звуки и запахи, образы и цифры, ощущения и эмоциональные состояния в шипучий коктейль полезной информации. Так ли много в мире гибридных нейронных сетей которые могут сразу распознавать изображения кошек и сложных математических формул? А если кошка на фоне формул? А если формулы на фоне кошек?

А что собственно представляет собой гибридная сеть? Те, кто работал с нейронными сетями, представляют, какие невероятные сложности возникают при моделировании многослойных нейронных сетей. А теперь представьте себе те же нейроны только в трехмерном пространстве, они взаимодействуют не на плоскости, они взаимодействуют во все стороны. При этом еще и перемещаются. Вы встречали нейронные сети, которые строятся, динамически перемещаясь и перебрасывая нейроны из одной области в другую? А у человека все еще сложнее. Те же ферменты могут по-разному влиять как на мозг, так и на отдельные участки в частности. Несомненно, нейронная сеть это то, чем мы думаем, обрабатываем и анализируем информацию. Но пока еще мы не познали и десятую часть всего того что действительно может нейронная сеть, или называйте ее иначе, в любом случае таких аналогов в мире еще нет.

4. Кто будет работать долго и нахаляву?

Основная проблема — отнюдь не деньги… это время. Вы готовы отдать 10 лет своей жизни чтоб проверить одну единственную теорию? Вы смиритесь с тем, если окажется что вы работали над пустяком? К сожалению энтузиастов, которые готовы с огнем в глазах работать только за еду и за идею — крайне мало. По этой же причине многие компании гиганты интересуются, но особо денег не выделяют. Будь вы директором, вы готовы отдать все и сдать позиции на рынке и заниматься далекими миражами в то время когда ваши соперники вас опережают? Все великие открытия совершались либо задротами-одиночками, либо просто энтузиастами, которые могут десятилетиями вынашивать идею чтоб потом в один прекрасный день вскричать — Эврика! Реалии сегодняшнего мира таковы что исследовательской деятельностью вызывающей недоверие занимаются на профессиональном уровне крайне редко, и зачастую либо только ради выгоды, либо из за какой то стремной и никому не понятной цели(гугл молодец но его цель тотального контроля всех сервисов для объединения в одну платформу — уж очень похоже на сюжет мувика «будущее началось», погуглите он минут 15 идет).

5. Где же проблеск в конце туннеля?

Неужели все так печально? Отнюдь нет и Watson тому пример, разработки идут, энтузиасты есть. Задач очень много, и с каждым годом недоверие из 90-х к «думающим машинам» сменяется проблеском надежды. Генные инженеры все ближе к расшифровке генов, которые дадут нам хоть какую-то доказательную базу. Гугл разрабатывает семантическую сеть для поиска информации. Ватсон разбирает и анализирует речь с последующим выводом обратно в речевой форме. Гугл почти совершил прорыв в распознавании речи. Очень надеюсь, что придёт время, когда несколько подходов начнут объединять в гибридные сети. А пока гигантские корпорации живут в своем макро мире, я уже почти год экспериментирую с смешанным типом сети для хранения информации и выделения смысла в речи(усредненный подход между семантической сетью и нейронным принципом хранения и передачи информации). Чего и вам советую. Успехов в экспериментах.

P.S. Это была всего лишь маленькая часть моего доклада по этой теме, есть еще, с табличками, набросками. Возможно, в скором времени появятся даже скромные аналоги программки, которая читает и пересказывает текст. Я хоть пока еще, как говорится, юн и молод, достаточно уперт в своих начинаниях, тем более что тема такая интересная. Кому будет интересно увидеть продолжение — пишите.

Автор: Undiabler

Источник

Поделиться новостью

* - обязательные к заполнению поля