- PVSM.RU - https://www.pvsm.ru -

DeepMind набирает специалистов для защиты от сильного ИИ

DeepMind набирает специалистов для защиты от сильного ИИ - 1

Лондонская научно-исследовательская компания DeepMind (собственность Google) специализируется на передовых разработках Искусственного интеллекта, который в перспективе может развиться в форму сильного [1] Искусственного интеллекта. Согласно теории, сильный ИИ, возможно, будет способен мыслить и осознавать себя, сопереживать (чувствовать). При этом он будет обладать следующими свойствами.

  • Принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности.
  • Представление знаний, включая общее представление о реальности.
  • Планирование.
  • Обучение.
  • Общение на естественном языке.
  • Объединение этих способностей для достижения общих целей.

Очевидно, что программа с такой функциональностью может действовать непредсказуемо для разработчиков. Собственно, она специально будет запрограммирована на автономную работу. Поэтому очень важно заранее предусмотреть необходимые меры безопасности.

Из различных источников, в том числе из профилей в социальной сети профессионалов LinkedIn стало известно, что компания DeepMind приступила к набору сотрудников [2] для отдела безопасности ИИ. Это подразделение должно уменьшить вероятность, что сильный ИИ сможет развиться в форму, опасную для человечества и/или для самого себя.

DeepMind — одна из многих компаний в мире, которые работают над созданием самообучаемых нейросетей в форме слабого Искусственного интеллекта. Пока что эти программы ограничены узкоспециализированными задачами: они играют в сложные настольные игры (го) и помогают снизить расходы Google на эклектричество. Но амбиции английских учёных на этом не останавливаются. В перспективе они стремятся разработать универсальную систему ИИ. Как сказано на сайте, компания хочет «решить задачу интеллекта» (solve intelligence), чтобы «сделать мир лучшим местом». Это вполне согласуется базовым принципом корпорации Google — "Don't be evil".

DeepMind набирает специалистов для защиты от сильного ИИ - 2Чтобы снизить шансы развития опасной формы сильного ИИ, компания создала отдел безопасности AI Safety Group (дата формирования отдела и численность персонала не известны). Среди новых сотрудников — Виктория Краковна [3] (Viktoriya Krakovna), Ян Лейке [4] (Jan Leike), Педро Ортега [5] (Pedro Ortega). Например, Виктория Краковна (на фото) принята на должность научного сотрудника, у неё кандидатская степень (PhD) Гарвардского университета по статистике. Призёр международных школьных [6] и континентальных студенческих [7] олимпиад по математике канадско-украинского происхождения была стажёром-разработчиком в Google в 2013 и 2015 годах, а позже выступила сооснователем Future of Life Institute [8] в Бостоне — одной из ведущих научно-исследовательских организаций в мире, которая занимается вопросами безопасности искусственного разума.

Ян Лейке тоже изучает безопасность ИИ. Он числится научным сотрудником института Future of Humanity Institute [12], а летом этого года удостоился награды [13] за лучшую студенческую работу на конференции «Неопределённость в Искусственном интеллекте». Работа посвящена применению метода Томпсона [14] в самообучении нейронных сетей с подкреплением (текст научной работы [15]).

Педро Ортега — кандидат наук (PhD) в области машинного обучения Кембриджского университета.

О потенциальной опасности сверхразумного Искусственного интеллекта предупреждали многие учёные. Например, британский физик и математик Стивен Хокинг сказал [16], что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества, если мы не научимся избегать рисков.

Стивен Хокинг с соавторами статьи [17] предупреждает об опасности, если машины с нечеловеческим интеллектом самосовершенствоваться и ничто не сможет остановить данный процесс. Это, в свою очередь, запустит процесс так называемой технологической сингулярности.

Такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.

Вероятно, компания DeepMind прислушалась к словам профессора — и предпринимает необходимые меры безопасности. Хокинг с соавторами статьи упоминали, что вопросам защиты от сильного ИИ посвящено мало серьёзных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. На самом деле этим вопросам следует уделять гораздо больше внимания.

О потенциальной опасности ИИ предупреждал также Илон Маск. Год назад он с единомышленниками объявил [18] об основании некоммерческой организации OpenAI, которая рассматривает открытые исследования Сильного ИИ как способ хеджирования рисков человечества против единого централизованного искусственного интеллекта.

В официальном объявлении об основании организации сказано: «В связи с непредсказуемой историей ИИ, сложно предугадать, когда может появиться ИИ человеческого уровня. Когда это произойдёт, важно будет иметь в распоряжении человечества ведущий исследовательский институт, который способен поставить приоритетом выигрыш для всех над своими собственными интересами».

Сейчас разработки в области сильного ИИ ведут научно-исследовательские организации и крупные коммерческие корпорации, такие как Google, Facebook и Microsoft.

Автор: alizar

Источник [19]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/bezopasnost/214089

Ссылки в тексте:

[1] сильного: https://ru.wikipedia.org/wiki/Сильный_и_слабый_искусственные_интеллекты

[2] приступила к набору сотрудников: http://www.businessinsider.com/deepmind-has-hired-a-group-of-ai-safety-experts-2016-11

[3] Виктория Краковна: https://www.linkedin.com/in/vkrakovna

[4] Ян Лейке: https://jan.leike.name/

[5] Педро Ортега: http://www.adaptiveagents.org/bio

[6] международных школьных: https://www.imo-official.org/year_individual_r.aspx?year=2006

[7] континентальных студенческих: http://www.maa.org/programs/maa-awards/putnam-competition-individual-and-team-winners

[8] Future of Life Institute: http://futureoflife.org/

[9] @janleike: https://twitter.com/janleike

[10] @AdaptiveAgents: https://twitter.com/AdaptiveAgents

[11] November 22, 2016: https://twitter.com/vkrakovna/status/801195208331427840

[12] Future of Humanity Institute: https://www.fhi.ox.ac.uk/

[13] удостоился награды: https://www.fhi.ox.ac.uk/new-paper-thompson-sampling-is-asymptotically-optimal-in-general-environments/

[14] метода Томпсона: https://en.wikipedia.org/wiki/Thompson_sampling

[15] текст научной работы: http://auai.org/uai2016/proceedings/papers/20.pdf

[16] сказал: https://geektimes.ru/post/221933/

[17] статьи: http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-9313474.html

[18] объявил: https://geektimes.ru/post/267480/

[19] Источник: https://geektimes.ru/post/283062/