- PVSM.RU - https://www.pvsm.ru -

Угроза «восстания машин» будет изучена

Угроза «восстания машин» будет изучена

Одной из самых обсуждаемых новостей в англоязычном Интернете стало интервью профессора философии Хью Прайса, сопровождавшее сообщение о скором запуске Центра по изучению глобальных рисков при Кембриджском университете (CSER), а тема «восстания машин» стала превалирующей при упоминаниях CSER.

Даже на новостных сайтах с весьма консервативной публикой, вроде BBCnews, число комментариев под соответствующей новостью [1] доходит до нескольких сотен.

Напомню суть: Центр по изучению глобальных рисков (Centre for the Study of Existential Risk — CSER) собирается исследовать глобальные риски, которые потенциально таят в себе биотехнологии, нанотехнологии, ядерные исследования, антропогенное изменение климата и разработки в области искусственного интеллекта. Основатели Центра — профессор философии Хью Прайс [2] и профессор астрофизики Мартин Риз [3] из Кембриджского университета, а также один из создателей Skype Яан Таллинн [4], имеет ученую степень в области теоретической физики в университете города Тарту.

Прогресс человечества сегодня характеризуется не столько эволюционными процессами, сколько техническим развитием. Это позволяет людям жить дольше, выполнять задачи быстрее и устраивать разрушения более-менее по собственному желанию.

Однако возрастающая сложность вычислительных процессов в итоге приведет к созданию единого искусственного интеллекта (ИИ), уверены Прайс и Таллин. А критический момент наступит тогда, когда этот «всеобщий разум» сможет самостоятельно создавать компьютерные программы и разработает технологию для воссоздания себе подобных.

«Возьмите, к примеру, горилл», — предлагает профессор Прайс. — «Причина, по которой они исчезают, заключается вовсе не в том, что люди занимаются их активным уничтожением, но в том, что мы управляем окружающей средой такими методами, которые подходят нам, но губительны для их существования».

Аналогия более чем прозрачна. «В определенный момент, в этом столетии или следующем, мы должны оказаться лицом к лицу с одним из величайших поворотов в истории человечества – возможно, даже, истории космоса – когда интеллект выйдет за рамки биологии», — обещает профессор Прайс. «Природа не предвидела нас, и мы, в свою очередь, не должны воспринимать ИИ как нечто само собой разумеющееся».

Специалисты, связанные с робототехникой и высокими технологиями, в большинстве своем довольно скептично восприняли заявления профессора. Программные сбои и ошибки в алгоритмах – нечто понятное, прогнозируемое и условно осязаемое – человеческому разуму воспринять гораздо легче, чем абстрактные угрозы пока не существующего факта.

Тем не менее, проблемы, связанные с ИИ, волнуют не только кембриджскую профессуру. С 2001 года в США существует некоммерческая организация, известная как SIAI [5] — Институт сингулярности. В сферу её интересов входит изучение потенциальных опасностей, связанных с «интеллектуальным взрывом» и возникновением «недружественного» ИИ. Один из сооснователей Института Элиезер Шломо Юдковски [6] широко известен исследованиями вопросов технологической сингулярности [7] (момент, после которого технологический прогресс окажется недоступным пониманию человека).

В своей работе «Искусственный интеллект как позитивный и негативный фактор глобального риска» (на русском языке доступна здесь [8]) Юдковски пишет: «Один из путей к глобальной катастрофе – когда кто-то нажимает кнопку, имея ошибочное представление о том, что эта кнопка делает – когда ИИ возникнет посредством подобного сращения работающих алгоритмов, с исследователем, не имеющим глубокого понимания, как вся система работает… Незнание того, как сделать дружественный ИИ, не смертельно само по себе, в том случае, если вы знаете, что вы не знаете. Именно ошибочная вера в то, что ИИ будет дружественным, означает очевидный путь к глобальной катастрофе».

И немного фантастической реальности – в августе этого года издание Business Insider сообщило о создании «киберплоти» биоинженерами Гарвардского университета. Результаты исследования были опубликованы [9] в Nature Materials.

Конструкция представляет собой сложную структуру из нанопроводов и транзисторов, на которую наращены человеческие ткани. «Киберплоть» может отслеживать и передавать данные вроде сердцебиения человеческого тела. «Это позволяет фактически размыть границы между электронными, неорганическими системами и органическими, биологическими», — подчеркнул руководитель исследовательского коллектива Чарльз Либер.

Дополнительно: статья Таллина и Прайса «ИИ – можем ли мы удержать его в коробке? [10]».

Автор: inturist

Источник [11]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/budushhee-zdes/21860

Ссылки в тексте:

[1] новостью: http://www.bbc.co.uk/news/technology-20501091

[2] Хью Прайс: http://prce.hu/w/

[3] Мартин Риз: http://www.ast.cam.ac.uk/~mjr/

[4] Яан Таллинн: http://www.asi.ee/team/jaan-tallinn

[5] SIAI: http://ru.wikipedia.org/wiki/Singularity_Institute_for_Artificial_Intelligence

[6] Элиезер Шломо Юдковски: http://ru.wikipedia.org/wiki/%D0%AE%D0%B4%D0%BA%D0%BE%D0%B2%D1%81%D0%BA%D0%B8,_%D0%95%D0%BB%D0%B8%D0%B5%D0%B7%D0%B5%D1%80

[7] технологической сингулярности: http://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D1%81%D0%B8%D0%BD%D0%B3%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D0%BE%D1%81%D1%82%D1%8C

[8] здесь: http://ru.scribd.com/doc/13574249/Е-Юдковски-Искусственный-интеллект-как-позитивный-и-негативный-фактор-глобального-риска

[9] опубликованы: http://www.nature.com/nmat/journal/vaop/ncurrent/full/nmat3404.html

[10] ИИ – можем ли мы удержать его в коробке?: http://theconversation.edu.au/artificial-intelligence-can-we-keep-it-in-the-box-8541

[11] Источник: http://habrahabr.ru/post/161397/