- PVSM.RU - https://www.pvsm.ru -

Smart-контракты для роботов и искусственного интеллекта

pic by **Cheylin**

Во всем мире постоянно публикуются десятки статей о необходимости создания законодательства для роботов и искусственного интеллекта (ИИ). По мнению одного из ведущих юридических мыслителей в новой области прав, профессора Ono Academic College(Израиль) Gabriel Hallevy: «Сегодня мы находимся в вакууме — правовом вакууме. Мы не знаем, как относиться к этим существам [1]». А совсем недавно сам Билл Гейтс заявил [2], что раз роботы начинают занимать рабочие места людей, то они должны платить налоги.

Согласно исследованию Райана Кейло [3], в американском праве робот трактуется как запрограммированная машина, выполняющая волю человека. Следовательно, во всех случаях именно создатели несут ответственность за действия робота. Такой подход не вызывает споров, пока автономные робототехнические системы не получили широкого распространения. Но что если речь идет, например, о заводе Тесла [4], на котором работают 160 роботов всех сортов? За любое ЧП ответственность можно повесить на программиста-разработчика, компанию-поставщика, главного по цеху и так далее.

На всех континентах кипят споры, как выходить из положения. Если абстрагироваться от экстремистских призывов распространить на роботов нынешнее административное и уголовное право и наказывать их вплоть до демонтажа, остается несколько подходов. Одни предлагают провинившихся роботов забирать у хозяев и передавать для выполнения общественно-полезных работ. Другие, более осторожные, видят выход в обязательной регистрации роботов, с их последующим страхованием для компенсации ущерба.

При всем разнообразии подходов к праву для роботов и ИИ, нерешенным остается вопрос: кто конкретно будет нести ответственность в случае нанесения роботом или ИИ ущерба физическим лицам и корпорациям. Есть три нерешенных проблемы, затрудняющих практическую разработку законодательства для роботов в аспекте определения ответственности: 

Проблема первая. Робототехнические комплексы, управляемые ИИ и способные к обучению, — очень сложные автономные устройства. В их создании и эксплуатации участвует большое число людей и компаний. Среди юристов эта проблема известна как проблема длинной цепочки. Как правило, у каждого робота и ИИ аппаратную и программную часть производят разные корпорации. Более того, в сложных системах изготовителями железа и софта также являются не одна, а несколько компаний и одиночных разработчиков. Не надо забывать о провайдерах, которые обеспечивают телекоммуникацию. Часто сложные робототехнические комплексы завязаны на Интернет вещей [5]. Однако и это не все. Существуют еще организации, которые закупают и используют этих роботов. Так длина цепочки доходит до 12-15 лиц.

Проблема вторая. Реальная жизнь отличается от игр (подобных не только шахматам и шашкам, но и, например, покеру) недетерминированным характером. В жизни огромную роль играет контекст и характеристики ситуации. В зависимости от ситуации по-разному решается вопрос об ответственности, виновности и т.п. В праве для людей данный контекст учитывается через институт присяжных. Именно присяжные выносят вердикт, примеряя законы и прецеденты к контексту конкретной ситуации. 

Проблема третья. На практике, как сегодня, так и в ближайшей перспективе, сложные робототехнические комплексы лишь в малом числе случаев будут полностью автономными. Отчасти это связано с позицией государственных институтов и общественным мнением. Поэтому значительное число создателей и эксплуатантов робототехнических комплексов, управляемых ИИ, делают ставку на гибридный интеллект – совместную работу человека и машины. Соответственно, протокол человеко-машинного взаимодействия необходимо вписать в законодательство для роботов. Как показывает практика, именно человек во многих системах является наиболее уязвимым звеном. 

Кроме того, у этой проблемы есть еще одна сторона. Основные опасения, связанные с применением автономных робототехнических систем, относятся к нанесению ими преднамеренного или непреднамеренного вреда живым существам. В случае преднамеренного причинения ущерба ситуация ясна: надо искать киберпреступников. В случае непроизвольного вреда – ситуация не столь однозначна. Опираясь на историю взаимодействия человека с техникой, можно с уверенностью сказать, что в большинстве будущих неприятностей с роботами будут виноваты люди, нарушающие технику безопасности и различного рода правила.

При всей ожесточенности дискуссий относительно прецедентов для формирования административного и, возможно, уголовного права для роботов и ИИ, ключевой теме определения ответственности не уделяется должного внимания. Можно долго рассуждать о необходимости наказания за преступление, но, до тех пор, пока не будет четкого и принятого обществом, корпорациями и государствами способа определения ответственности за преступления и наказуемых действий, дискуссии будут носить теоретический характер. 

При разработке предложений по созданию законодательства для роботов и ИИ, мейнстримом является стремление использовать для роботов юридические решения и нормы, действующие для людей. Обратная ситуация сложилась в теме «умных контрактов [6]». Здесь гибкое контекстное право людей пытаются заменить алгоритмическими процедурами. Но у жестких алгоритмов мало шансов заменить гибкое и контекстное законодательство, используемое физическими лицами и компаниями. 

В жизни, также как в арифметике, из двух минусов можно получить плюс. Smart-контракты на основе блокчейна — идеальный инструмент решения проблем установления и распределения ответственности в рамках права для роботов и ИИ. Являясь по сути криптографически защищенной распределенной базой данных, блокчейн подходит как основа законодательства для роботов и ИИ. 

Автономные автоматизированные комплексы, управляемые ИИ, несмотря на свою сложность и многофункциональность, остаются алгоритмическими устройствами. Взаимодействие между различными программными и аппаратными блоками сложной конструкции наилучшим образом фиксируются и исполняются через блокчейн.

При таком подходе smart-контракты выступают юридическим модулем в любом сложном робототехническом комплексе, в том числе управляемым ИИ, определяя сферу и предел ответственности всех причастных к созданию и эксплуатации данного комплекса. 

Smart-контракты для роботов могут одновременно выполнять как минимум три функции:

  • Во-первых, они позволяют для каждого изделия создать своего рода распределенный черный ящик. Черный ящик не в кибернетическом смысле, а в значении черного ящика, используемого в самолетах. В случае, если что-то пошло не так, можно четко определить, основываясь на показаниях сенсоров, датчиков, а также исполнения программы, какой конкретно компонент виновен в сбое и кто или что несет за него ответственность. В таких ситуациях smart-контракт представляет необходимые сведения для следователей, страховых компаний и судов. 

  • Во-вторых, smart-контракт может выступать в качестве встроенной системы безопасности для автоматизированного автономного устройства. Нарушение некоторых условий может прервать выполнение транзакций и всю работу устройства. 

    В отличие от функций черного ящика, функцию безопасности на практике реализовать несколько сложнее. Для того, чтобы встроить этот контур в работающие smart-контракты, необходимо синхронизировать скорость осуществления транзакции с программной командой, передаваемой от одного компонента автономного комплекса на другой. Когда это удастся сделать, производители смогут предоставлять потребителям гораздо более безопасных роботов.

  • В-третьих, использование smart-контрактов может гипотетически повысить сознательность людей, при работе с роботами. Понимание того факта, что каждое действие будет навсегда занесено в блокчейн, может заставить нерадивого сотрудника сто раз подумать, перед тем как нарушать технику безопасности.

Любые правила – это жестко прописанные алгоритмы. Они предполагают выполнение строго определенных действий в строго установленных ситуациях. Поэтому блокчейн как нельзя лучше подходит для заключения умных контрактов между производителями сложных автономных систем с одной стороны, и с их пользователями – с другой. Работая с автономными системами люди должны не просто получать не существовавшие ранее возможности, но и нести прописанную на алгоритмическом языке ответственность за собственные действия. В случае инцидентов, наличие smart-контракта вместе с показаниями датчиков и сенсоров позволят установить, кто конкретно – автоматизированная система или человек – виноват в случившемся.

Дело за малым. Оставить людям человеческое, а машинам – машинное, и заняться переводом стандартов, технических правил, правил техники безопасности и т.д. на язык smart-контрактов для роботов и людей, взаимодействующих с ними.

Автор: kugusha

Источник [7]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/roboty/246564

Ссылки в тексте:

[1] Сегодня мы находимся в вакууме — правовом вакууме. Мы не знаем, как относиться к этим существам: https://medium.com/@brainbarbudapest/robots-kill-and-theyre-just-getting-started-gabriel-hallevy-7489830a1960#.xbuvbmxp4

[2] заявил: https://geektimes.ru/post/286014/

[3] исследованию Райана Кейло: http://www.datascienceassn.org/sites/default/files/Robots%20in%20American%20Law.pdf

[4] заводе Тесла: https://geektimes.ru/post/186956/

[5] Интернет вещей: https://ru.wikipedia.org/wiki/Интернет_вещей

[6] умных контрактов: https://ru.wikipedia.org/wiki/Умный_контракт

[7] Источник: https://geektimes.ru/post/286356/