Как предохранить ИИ от антисоциального поведения

в 18:09, , рубрики: ИИ, искусственный интеллект, робототехника, терминатор, метки: ,

Как предохранить ИИ от антисоциального поведения

Современная экономика и военно-промышленный комплекс стимулируют активную разработку автономных систем с зачатками искусственного интеллекта. Проблема в том, что для наибольшей эффективности таких систем требуется их максимальная автономность.

Стив Омохундро (Steve Omohundro) из компании Self-Aware Systems считает, что такие системы по умолчанию будут стремиться вести себя антисоциально и враждебно к людям, если они спроектированы без достаточной осторожности. По мнению автора, разработчики программ ИИ мотивированы делать эффективные рациональные системы, а такие системы против воли их создателей проявят способности к самозащите, захвату ресурсов, реплицированию и эффективности.

Статья Омохундро опубликована в журнале «Экспериментальные и теоретические разработки в области искусственного интеллекта» (Journal of Experimental & Theoretical Artificial Intelligence).

Автор приводит несколько выдержек из программ перспективного развития (преимущественно, США), в которых разработка автономных роботизированных систем установлена одним из приоритетов.

Омохундро предлагает вариант использования формальных процедур для создания гарантированно безопасных систем с ограниченной автономностью. Он также описывает способы, как можно останавливать действие систем, представляющих опасность для людей. Что касается последнего, прежде всего, нужно предотвращать разработку таких систем. Во-вторых, требуется определять развёртывание таких систем на ранней стадии.

Автор: alizar

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js