- PVSM.RU - https://www.pvsm.ru -
Одной из самых обсуждаемых новостей в англоязычном Интернете стало интервью профессора философии Хью Прайса, сопровождавшее сообщение о скором запуске Центра по изучению глобальных рисков при Кембриджском университете (CSER), а тема «восстания машин» стала превалирующей при упоминаниях CSER.
Даже на новостных сайтах с весьма консервативной публикой, вроде BBCnews, число комментариев под соответствующей новостью [1] доходит до нескольких сотен.
Напомню суть: Центр по изучению глобальных рисков (Centre for the Study of Existential Risk — CSER) собирается исследовать глобальные риски, которые потенциально таят в себе биотехнологии, нанотехнологии, ядерные исследования, антропогенное изменение климата и разработки в области искусственного интеллекта. Основатели Центра — профессор философии Хью Прайс [2] и профессор астрофизики Мартин Риз [3] из Кембриджского университета, а также один из создателей Skype Яан Таллинн [4], имеет ученую степень в области теоретической физики в университете города Тарту.
Прогресс человечества сегодня характеризуется не столько эволюционными процессами, сколько техническим развитием. Это позволяет людям жить дольше, выполнять задачи быстрее и устраивать разрушения более-менее по собственному желанию.
Однако возрастающая сложность вычислительных процессов в итоге приведет к созданию единого искусственного интеллекта (ИИ), уверены Прайс и Таллин. А критический момент наступит тогда, когда этот «всеобщий разум» сможет самостоятельно создавать компьютерные программы и разработает технологию для воссоздания себе подобных.
«Возьмите, к примеру, горилл», — предлагает профессор Прайс. — «Причина, по которой они исчезают, заключается вовсе не в том, что люди занимаются их активным уничтожением, но в том, что мы управляем окружающей средой такими методами, которые подходят нам, но губительны для их существования».
Аналогия более чем прозрачна. «В определенный момент, в этом столетии или следующем, мы должны оказаться лицом к лицу с одним из величайших поворотов в истории человечества – возможно, даже, истории космоса – когда интеллект выйдет за рамки биологии», — обещает профессор Прайс. «Природа не предвидела нас, и мы, в свою очередь, не должны воспринимать ИИ как нечто само собой разумеющееся».
Специалисты, связанные с робототехникой и высокими технологиями, в большинстве своем довольно скептично восприняли заявления профессора. Программные сбои и ошибки в алгоритмах – нечто понятное, прогнозируемое и условно осязаемое – человеческому разуму воспринять гораздо легче, чем абстрактные угрозы пока не существующего факта.
Тем не менее, проблемы, связанные с ИИ, волнуют не только кембриджскую профессуру. С 2001 года в США существует некоммерческая организация, известная как SIAI [5] — Институт сингулярности. В сферу её интересов входит изучение потенциальных опасностей, связанных с «интеллектуальным взрывом» и возникновением «недружественного» ИИ. Один из сооснователей Института Элиезер Шломо Юдковски [6] широко известен исследованиями вопросов технологической сингулярности [7] (момент, после которого технологический прогресс окажется недоступным пониманию человека).
В своей работе «Искусственный интеллект как позитивный и негативный фактор глобального риска» (на русском языке доступна здесь [8]) Юдковски пишет: «Один из путей к глобальной катастрофе – когда кто-то нажимает кнопку, имея ошибочное представление о том, что эта кнопка делает – когда ИИ возникнет посредством подобного сращения работающих алгоритмов, с исследователем, не имеющим глубокого понимания, как вся система работает… Незнание того, как сделать дружественный ИИ, не смертельно само по себе, в том случае, если вы знаете, что вы не знаете. Именно ошибочная вера в то, что ИИ будет дружественным, означает очевидный путь к глобальной катастрофе».
И немного фантастической реальности – в августе этого года издание Business Insider сообщило о создании «киберплоти» биоинженерами Гарвардского университета. Результаты исследования были опубликованы [9] в Nature Materials.
Конструкция представляет собой сложную структуру из нанопроводов и транзисторов, на которую наращены человеческие ткани. «Киберплоть» может отслеживать и передавать данные вроде сердцебиения человеческого тела. «Это позволяет фактически размыть границы между электронными, неорганическими системами и органическими, биологическими», — подчеркнул руководитель исследовательского коллектива Чарльз Либер.
Дополнительно: статья Таллина и Прайса «ИИ – можем ли мы удержать его в коробке? [10]».
Автор: inturist
Источник [11]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/budushhee-zdes/21860
Ссылки в тексте:
[1] новостью: http://www.bbc.co.uk/news/technology-20501091
[2] Хью Прайс: http://prce.hu/w/
[3] Мартин Риз: http://www.ast.cam.ac.uk/~mjr/
[4] Яан Таллинн: http://www.asi.ee/team/jaan-tallinn
[5] SIAI: http://ru.wikipedia.org/wiki/Singularity_Institute_for_Artificial_Intelligence
[6] Элиезер Шломо Юдковски: http://ru.wikipedia.org/wiki/%D0%AE%D0%B4%D0%BA%D0%BE%D0%B2%D1%81%D0%BA%D0%B8,_%D0%95%D0%BB%D0%B8%D0%B5%D0%B7%D0%B5%D1%80
[7] технологической сингулярности: http://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D1%81%D0%B8%D0%BD%D0%B3%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D0%BE%D1%81%D1%82%D1%8C
[8] здесь: http://ru.scribd.com/doc/13574249/Е-Юдковски-Искусственный-интеллект-как-позитивный-и-негативный-фактор-глобального-риска
[9] опубликованы: http://www.nature.com/nmat/journal/vaop/ncurrent/full/nmat3404.html
[10] ИИ – можем ли мы удержать его в коробке?: http://theconversation.edu.au/artificial-intelligence-can-we-keep-it-in-the-box-8541
[11] Источник: http://habrahabr.ru/post/161397/
Нажмите здесь для печати.