- PVSM.RU - https://www.pvsm.ru -

Три интересных мысленных эксперимента

Пост о человеческом бессмертии [1] напомнил мне о студенчестве, когда я делал доклад о философских и моральных аспектах разработки ИИ. Сам доклад очень большой и полностью приводить его здесь нет смысла. Ниже описаны три воображаемых эксперимента, которые, надеюсь, послужат поводом для раздумий.

Эксперимент «мозг в колбе»

Допустим, что при желании мозг [2] человека можно отделить от тела сразу после рождения и поместить в колбу, искусно спроектированную для этой цели. В этой колбе мозг [2] получает питание и опору, а она позволяет ему расти и развиваться. Наряду с тем в мозг [2] подаются электронные сигналы от компьютера, моделирующего полностью вымышленный мир, а моторные сигналы от мозга [2] перехватываются и используются для модификации этой имитации должным образом. В таком случае мозг [2] может иметь психическое состояние DyingFor{Me, Hamburger) (страстное желание получить гамбургер), даже несмотря на то, что у него нет тела, которое испытывало бы чувство голода, а также вкусовых рецепторов, чтобы ощутить вкус, к тому же в реальном для мозга [2] (но фактически имитируемом) мире могло бы просто не оказаться гамбургера. Было бы это психическое состояние таким же, какое испытывает мозг [2] в живом теле?
Один из способов разрешения этой дилеммы состоит в использовании гипотезы о том, что содержимое психических состояний можно интерпретировать с двух разных точек зрения. В подходе на основе широкого анализа содержимого психические состояния интерпретируются с точки зрения всезнающего внешнего наблюдателя, имеющего доступ к информации обо всей ситуации, который способен замечать любые различия в мире. Поэтому при широком анализе содержимого чувства мозга [2], живущего в колбе, можно отличить от чувств «обычного» человека. А при узком анализе содержимого учитывается только внутренняя субъективная точка зрения, и при таком подходе чувства, испытываемые тем и другим мозгом [2], остаются одинаковыми.
Уверенность в том, что гамбургер — желанная пища, имеет определенный характер связи с конкретным объектом, поскольку обязательно должен быть кто-то, обладающий уверенностью в таком свойстве гамбургера. Переходя к рассуждениям такого рода, мы вступаем в область познания качества, или собственного опыта (в англоязычной литературе для обозначения этого понятия применяется термин «qualia», происходящий от латинского слова, которое переводится примерно как «именно такие»). Предположим, что в результате какого-то нарушения в нервных путях сетчатки и мозга [2] неким лицом X воспринимается как красный тот цвет, который лицо Y воспринимает как зеленый, и наоборот. В таком случае, увидев один и тот же сигнал светофора, оба они действуют одинаково, но воспринимаемый ими опыт должен быть в определенной степени разным. Оба эти лица могут согласиться, что полученные ими данные восприятия говорят о том, что «свет на светофоре — красный», но сами эти восприятия остаются разными. Поэтому неясно, свидетельствует ли это о том, что они имеют одинаковые или разные психические состояния.
Теперь перейдем еще к одному мысленному эксперименту, который относится к вопросу о том, могут ли иметь психические состояния физические объекты, отличные от нейронов человека.

Эксперимент с протезом мозга

Мысленный эксперимент с протезом мозга [2] был предложен в середине 1970-х Кларком Глаймором и описан в трудах Джона Сирла, но его чаще всего связывают с работой Ханса Моравека. Этот эксперимент заключается в следующем: предположим, что нейрофизиология достигла огромного уровня развития, на котором существует идеальное понимание взаимодействия входных и выходных сигналов и связей между всеми нейронами в мозгу [2] человека. Предположим также, что существует возможность создавать микроскопические электронные устройства, имитирующие поведение нейрона, которые можно незаметно для человека подключать к его нервной ткани. Наконец, предположим, что некая чудесная хирургическая техника позволяет заменять отдельные нейроны соответствующими электронными устройствами, не нарушая работу мозга [2] в целом. Эксперимент состоит в постепенной замене всех нейронов в голове человека электронными устройствами, а затем в обратном выполнении этого процесса для возврата испытуемого субъекта в его нормальное биологическое состояние.
Нас интересует как внешнее поведение, так и внутренний опыт этого субъекта вовремя операции и после нее. Согласно определению этого эксперимента, внешнее поведение субъекта должно оставаться неизменным по сравнению с тем, которое наблюдалось бы в том случае, если бы эта операция не выполнялась. Итак, несмотря на то, что в присутствии или отсутствии сознания не так уж легко убедиться, будучи сторонним наблюдателем, сам субъект эксперимента должен по крайней мере иметь способность зарегистрировать любые изменения в своем восприятии собственного сознания. Очевидно, что возникает прямой конфликт интуитивных представлений о том, что может произойти. Моравек, будучи специалистом в области робототехники и приверженцем взглядов функционалистов, убежден в том, что сознание субъекта, подвергающего эксперименту, останется незатронутым, а Сирл, философ и натуралист-биолог, столь же твердо убежден, что сознание у субъекта эксперимента постепенно исчезнет, о чем свидетельствует приведенная ниже цитата из его работы.
Вы обнаружите, к своему полному изумлению, что действительно теряете контроль над своим внешним поведением. Например, вы заметите, что при проверке врачами вашего зрения вам, допустим, скажут: «Мы держим перед вами объект красного цвета; пожалуйста, сообщите нам, что вы видите». Вы захотите крикнуть: «Я ничего не вижу. Я полностью ослеп», но услышите, как ваш голос говорит, полностью не подчиняясь вашему контролю: «Я вижу перед собой объект красного цвета...» Ваше сознание постепенно сужается и исчезает, тогда как внешне наблюдаемое поведение остается неизменным.
Но существует возможность вести этот спор, опираясь не только на интуицию. Во-первых, следует отметить, что внешнее поведение будет оставаться одинаковым в процессе того, как субъект постепенно теряет сознание, только в том случае, если воля субъекта исчезает мгновенно и полностью; в противном случае сужение сознания должно было бы отразиться на внешнем поведении; это означает, что испытуемый должен был бы закричать: «Помогите, я теряю сознание!» или нечто в этом роде. Такая гипотеза мгновенного исчезновения воли в результате постепенной замены одного за другим отдельных нейронов кажется маловероятной.
Во-вторых, рассмотрим, что произойдет, если мы будем задавать субъекту вопросы, касающиеся того, как он сам ощущает наличие у него сознания в тот период, когда у него не останется ни одного настоящего нейрона. Согласно условиям эксперимента, мы должны получать примерно такие ответы: «Я чувствую себя прекрасно. Я должен также отметить, что немного удивлен, поскольку верил в истинность доводов Сирла». Еще один вариант состоит в том, что мы могли бы уколоть субъекта заостренной палочкой и услышать ответ: «Ой, больно». Теперь, если вернуться к обычной жизни, то скептик может возразить, что подобные выходные данные могут быть получены и от программ искусственного интеллекта как простые результаты принятых соглашений. Действительно, совсем не сложно предусмотреть, например, такое правило: «Если на датчике номер 12 появится сигнал с высокой интенсивностью, то выдать выходные данные «Ой, больно»», но весь смысл рассматриваемого эксперимента состоит в том, что мы продублировали функциональные свойства обычного человеческого мозга [2], поэтому предполагается, что электронный мозг [2] не содержит таких структур, в которых реализованы подобные соглашения. Это означает, что нужно как-то объяснить, чем обусловлены проявления сознания, вырабатываемые электронным мозгом [2], которые основаны лишь на функциональных свойствах нейронов. И это объяснение должно также распространяться на настоящий мозг [2], который имеет такие же функциональные свойства. На наш взгляд, можно сделать только два приведенных ниже возможных вывода.
1. Причинные механизмы формирования сознания, которые вырабатывают выходные данные такого рода в обычном мозгу [2], все еще продолжают действовать в электронной версии мозга [2], поэтому последняя также обладает сознанием.
2. Осознаваемые психические события в обычном мозгу [2] не имеют причинной связи с поведением, а поскольку они отсутствуют также в электронном мозгу [2], последний не обладает сознанием.
Хотя нельзя исключить вторую возможность, при данном подходе сознание сводится к тому, что философы называют эпифеноменальной (выраженной в качестве побочного явления) ролью — как будто что-то происходит, но не отбрасывает тени, которая должна была бы появиться в наблюдаемом мире. Кроме того, если сознание действительно эпифеноменально, то в мозгу [2] должен находиться второй, бессознательный механизм, с помощью которого и формируется восклицание «Ой, больно», когда человека колют заостренной палочкой.
В-третьих, рассмотрим ситуацию, возникшую после того, как операция проделана в обратном направлении и субъект снова имеет обычный мозг [2]. И в этом случае внешнее поведение субъекта должно быть, по определению, таким же, как если бы операция вовсе не проводилась. В частности, мы были бы вправе задать субъекту такие вопросы: «Что вы чувствовали во время операции? Помните, как вас укололи заостренной палочкой?» Субъект должен точно помнить фактический характер своего осознанного опыта, включая качественную сторону этого опыта, несмотря на тот факт, что, согласно Сирлу, такого опыта не должно быть.
Сирл мог бы возразить, что мы не определили эксперимент должным образом. Если бы настоящие нейроны, скажем, прекращали действовать в том промежутке времени, когда они были извлечены, а затем снова помещены в мозг [2], то, безусловно, они не могли бы «запомнить» опыт, полученный в это время. Чтобы учесть это обстоятельство, необходимо обеспечить обновление состояния нейронов в соответствии с изменением внутреннего состояния искусственных нейронов, которыми они заменялись. Если бы в таком случае предполагалось наличие «нефункциональных» аспектов реальных нейронов, которые привели бы к поведению, функционально отличному от того, которое наблюдалось, пока искусственные нейроны были бы еще на месте, то налицо было бы простое приведение к абсурду, поскольку означало бы, что искусственные нейроны функционально не эквивалентны настоящим нейронам.
Патрисия Чарчленд указала, что приведенные выше доводы, основанные на теории функционализма и применяемые на уровне нейронов, могут также использоваться на уровне любой более крупной функциональной единицы — группы нейронов, раздела мозга [2], доли, полушария или целого мозга [2]. Это означает, что, согласившись с доводом, что эксперимент с протезом мозга [2] демонстрирует наличие сознания у мозга [2], в котором нейроны заменены электронными компонентами, мы должны также согласиться, что сознание сохраняется, если весь мозг [2] заменяется схемой, в которой входные данные отображаются на выходные с помощью огромной поисковой таблицы. Такое представление неприемлемо для многих людей (включая самого Тьюринга), интуиция которых подсказывает, что поисковые таблицы вряд ли могут иметь сознание или, по меньшей мере, что сознательный опыт, сформированный во время поиска в таблице, не сопоставим с опытом, сформированным в процессе работы системы, которая может быть описана (даже в примитивном, вычислительном смысле) как манипулирование с убеждениями, результатами самоанализа, целями и тому подобными явлениями, которые формируются мозгом [2]. Эти замечания свидетельствуют о том, что эксперимент с протезом мозга [2] может быть эффективным средством, подкрепляющим нашу интуицию, только если в нем не предусматривается замена сразу всего мозга [2], но это и не означает, что в данном эксперименте может лишь рассматриваться замена одних атомов другими, как хочет нас заставить считать Сирл.

Китайская комната

Последний мысленный эксперимент, который будет описан в данной статье, повидимому, является самым известным из всех. Идея этого эксперимента принадлежит Джону Сирлу, описавшему гипотетическую систему, в отношении которой любому наблюдателю ясно, что она работает под управлением какой-то программы и успешно проходит тест Тьюринга, но также ясно (согласно Сирлу), что эта система не понимает смысла каких-либо из ее входных или выходных данных.
На основании этого Сирл делает вывод, что работа системы под управлением приемлемой программы (т.е. программы, вырабатывающей правильные выходные данные) не является достаточным условием для обладания разумом.
Система состоит из человека, который понимает только английский язык, снабжен книгой с правилами, написанной на английском языке, а в его распоряжении находятся разные стопки бумаг, причем некоторые из них пусты, а другие заполнены описаниями, не поддающимися расшифровке. (Таким образом, человек играет роль процессора компьютера, книга правил представляет собой программу, а стопки бумаг соответствуют запоминающему устройству.) Система находится в комнате с небольшим отверстием, выходящим наружу. Через отверстие появляются полоски бумаги с символами, не поддающимися расшифровке. Человек находит совпадающие с ними символы в книге правил и следует обнаруженным в ней инструкциям.
Инструкции могут предусматривать задания по написанию символов на новых полосках бумаги, поиску символов в стопках, переупорядочению стопок и т.д. В конечном итоге инструкции диктуют необходимость написания одного или нескольких символов на листе бумаги, который снова передается во внешний мир.
До сих пор все шло нормально. Но из внешнего мира мы видим систему, которая принимает входные данные в форме предложений на китайском языке и формирует ответы на китайском, которые внешне кажутся «интеллектуальными», как и беседа, мысленно представленная Тьюрингом. После этого Сирл проводит следующие рассуждения: человек, сидящий в комнате, не понимает китайского (это дано). Книга правил и стопки бумаги, будучи просто листами бумаги, не понимают китайского. Поэтому речь не может идти о каком-либо понимании китайского языка, поэтому, согласно Сирлу, эксплуатация даже подходящей программы необязательно приводит к развитию понимания.
Как и Тьюринг, Сирл рассмотрел и попытался опровергнуть целый ряд ответов на его доводы. Некоторые комментаторы, включая Джона Маккарти и Роберта Виленского, выдвинули предложения, которые Сирл назвал системными ответами. Их возражение состоит в том, что человека, сидящего в комнате, безусловно, можно спросить, понимает ли он китайский язык, но это аналогично тому, как если бы процессор компьютера спросили, может ли он извлекать кубические корни. В обоих случаях ответ является отрицательным и в обоих случаях, согласно системному ответу, вся система обладает способностью, которая была предметом вопроса. Безусловно, если задать системе с китайской комнатой вопрос на китайском языке, знает ли она китайский, ответ будет утвердительным (и сформулированным на живом китайском языке). Согласно корректному соглашению Тьюринга, этого должно быть достаточно. Ответ Сирла — это возврат к той идее, что понимание не заключено в мозгу [2] человека, сидящего в китайской комнате, и не может быть заключено в стопках бумаги, поэтому не может быть никакого понимания. Далее Сирл указывает, что можно представить себе ситуацию, когда человек запоминает книгу правил и содержимое всех стопок бумаги, поэтому больше нет ни одного объекта, которому можно было бы приписать понимание, кроме самого человека; но и после этого, если ему будет задан вопрос (на английском языке), понимает ли он китайский, ответ будет отрицательным.
Теперь перейдем к реальному анализу этой проблемы. Переход от эксперимента с использованием стопок бумаги к эксперименту с запоминанием — это просто попытка сбить читателя с толку, поскольку обе формы представляют собой варианты физического воплощения работающей программы. Фактические утверждения, выдвинутые Сирлом, опираются на четыре приведенных ниже аксиомы.
1. Компьютерные программы представляют собой формальные, синтаксические сущности.
2. Разум имеет мыслительное содержание, или семантику.
3. Синтаксиса как такового не достаточно для семантики.
4. Мозг [2] порождает разум.
На основании первых трех аксиом Сирл делает вывод, что программы не могут служить достаточным условием для появления разума. Иными словами, агент, в котором функционирует какая-то программа, может оказаться разумным, но он не обязательно становится разумным лишь в силу того, что в нем работает программа.
На основании четвертой аксиомы Сирл делает вывод: «Любая другая система, способная порождать разум, должна обладать причинной мощью (по меньшей мере), эквивалентной той, какой обладает мозг». На основании этого он делает вывод, что любой искусственный мозг [2] должен воплощать в себе такую же причинную мощь, как и мозг [2], а не только работать под управлением конкретной программы, и что мозг [2] человека не вырабатывает мыслительные феномены исключительно благодаря тому, что в нем функционирует какая-то программа.
Вывод о том, что применения программ недостаточно для создания разума, действительно следует из этих аксиом, если допускается их вольная интерпретация. Но само обоснование вывода проведено неудовлетворительно — все, что смог доказать Сирл, состоит в том, что если явно отвергнуты принципы функционализма (как было сделано в его третьей аксиоме), то заключение, согласно которому объекты, отличные от мозга [2], порождают разум, становится необязательным. Это предположение вполне обосновано, поэтому вся дискуссия сводится к тому, может ли быть принята третья аксиома. Согласно Сирлу, весь смысл эксперимента с китайской комнатой состоит в предоставлении интуитивного обоснования для третьей аксиомы. Но реакция других исследователей показывает, что такие интуитивные представления близки по духу только тем, кто уже был склонен соглашаться с идеей, что программы, взятые в чистом виде, не способны вырабатывать истинное понимание.
Еще раз отметим, что цель эксперимента с китайской комнатой состоит в опровержении понятия сильного искусственного интеллекта — утверждения, что эксплуатация программы подходящего типа обязательно приводит к появлению разума.
Этот мысленный эксперимент проводится путем демонстрации внешне интеллектуальной системы, в которой функционирует программа подходящего типа, но в отношении этой системы, согласно Сирлу, можно явно показать, что она не обладает разумом. Для этого Сирл прибегает к интуиции, а не к доказательству; он как будто говорит нам: «достаточно взглянуть на эту комнату; разве в ней может быть разум?»
Но точно такой же довод можно привести и применительно к мозгу [2] — достаточно взглянуть на этот конгломерат клеток (или атомов), работающих вслепую в соответствии с законами биохимии (или физики); разве в нем может быть разум? Почему в куске мозга [2] может быть разум, а в куске печени — нет?
Более того, Сирл, соглашаясь с тем, что материалы, отличные от нейронов, могут в принципе быть носителем разума, ослабляет свои доводы еще больше, по двум причинам: во-первых, нам приходится руководствоваться только интуицией Сирла (или своей собственной), чтобы доказать, что в китайской комнате отсутствует разум, и, во-вторых, даже если мы решим, что в этой комнате нет разума, такой вывод не позволит нам узнать что-либо о том, не будет ли программа, работающая в какой-то другой физической среде (включая компьютер), иметь разум.
Сирл допускает логическую возможность того, что мозг [2] действительно реализует программу искусственного интеллекта традиционного типа, но та же программа, работающая в машине неподходящего типа, не создает разум. Сирл отрицает то, будто он верит, что «машины не могут иметь разума», скорее он утверждает, что некоторые машины имеют разум, например люди — это биологические машины, обладающие разумом. Но он также оставляет нас в неведении относительно того, какого же типа машины подходят или не подходят под определение понятия разумных машин.

Автор: Hellenko

Источник [3]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/ii/36337

Ссылки в тексте:

[1] о человеческом бессмертии: http://habrahabr.ru/post/182908/

[2] мозг: http://www.braintools.ru

[3] Источник: http://habrahabr.ru/post/183034/