Моральные дилеммы роботизированного будущего

в 9:17, , рубрики: Блог компании ASUS Russia, робототехника, роботы

Моральные дилеммы роботизированного будущего - 1

Экосистема окружающих нас гаджетов становится всё «умнее». Несмотря на очевидные сложности с созданием полноценного искусственного интеллекта, успехи на этом поприще довольно заметны. И кого-то это уже пугает. Всё чаще мы слышим от разных экспертов, что нас, вероятно, ждёт восстание машин. Не избежал этого поветрия даже Стивен Хокинг, впечатлённый способностями своего нового электронного ассистента предугадывать, что он хотел сказать. На подобные опасения другие резонно возражают, что компьютерам нужно стать не просто умными, но ещё и изобретательными. А создавать что-то новое, не компилируя уже известные элементы, компьютеры пока не способны даже на самом примитивном уровне. Так что можно не волноваться насчёт сценариев а-ля «Матрица» и «Терминатор», в ближайшие много десятилетий нам это точно не грозит.

С другой стороны, умные машины, роботы всех видов, будут активно проникать в нашу жизнь, и тенденции к этом очевидны. Сначала простенькие роботы-уборщики, способные самостоятельно выбирать программу уборки и строить свой маршрут. Потом в наши смартфоны проникли голосовые помощники разной степени сообразительности, понимающие нашу речь и даже некоторые эмоции. И независимо от то, радует вас это или пугает, развитие робототехники и искусственного интеллекта со временем поднимет ряд морально-этических, социальных и законодательных дилемм. Например, в праве ли полиция использовать оснащённых тазерами дронов? Или должны ли гуманоидные роботы, крайне похожие на людей, иметь какие-то права?

Немирные роботы

Самой горячей темой сегодня является использование боевых дронов. «Зачинщиками», как обычно, стали военные, уже не первый год широко использующие их для разведки и нанесения ударов. Увы, их пример оказался заразителен, и многие «гражданские» силовые ведомства теперь также страстно жаждут использовать дистанционно управляемые летательные аппараты. И очень важно сегодня обсудить в обществе, кому и как можно использовать дронов.

Мне кажется, что этот вопрос очень важен, ведь бесконтрольность и безнаказанность применения дронов с «карательными» целями ни к чему хорошему не приведёт. Вам хочется, чтобы над головой постоянно висели летающие роботы, которые не спускают с вас глаз и того и гляди, чем-нибудь выстрелят? Присказки вроде «законопослушному человеку нечего бояться» придуманы теми, кому по долгу службы положено «присматривать за порядком». Несомненно, опыт южноафриканской компании Desert Wolf, создавшей дрона Skunk Riot Control Copter для распыления перцового газа, внимательно изучен силовиками по всему миру.

Моральные дилеммы роботизированного будущего - 2

Увы, южноафриканцы далеко не одиноки в своих изысканиях по поиску новых «профессий» для дронов. Например, техасская компания Chaos Moon создала прототип дрона, вооружённого тазером. Машина получила циничное название CUPID [амур, купидон], Chaos Unmanned Personal Intercept Drone.

По факту, полиция и спецслужбы у нас в стране уже используют дронов для наблюдения, и одними лишь видеокамерами и тепловизорами ассортимент их оборудования наверняка не ограничивается.

Воспитание и образованность

Появление таких сервисов на основе ИИ, как Siri и Julie, впервые в человеческой истории позволило нам общаться с машинами. Однако это может привести к довольно неожиданным для нас самих последствиям. Одно дело, худо-бедно научить компьютер понимать человеческую речь, и совсем другое — привить ему хорошие манеры. Мы сами обучаемся искусству общения, контактируя с самыми разными людьми из окружающего социума. Именно примеры поведения других людей воспитывают нас, формируют нашу личность и систему ценностей. Когда же нас окружат всевозможные роботы с крайне ограниченными возможностями к полноценному общению, как это повлияет на наши социальные навыки? Привыкнув к бесцеремонному общению с не слишком сообразительными машинами, нам сами будет всё труднее переключаться в режим общения с себе подобными, и это неминуемо должно сказаться на снижении общего уровня образованности и воспитанности. Которые и без того не демонстрируют роста в последние годы.

С другой стороны, это опасение может быть просто очередным «заламыванием рук». Каждый раз, когда появляется новая необычная и непривычная технология, начинают возвещать о падении нравов, что мы все умрём и вообще это полная безвкусица. Это обычное чувство страха перед новым, непонятным и совершенно необязательно вредным.

Конечно, доверить роботу воспитание и присмотр за ребёнком будет не самым мудрым решением, просто потому, что дети учатся, наблюдая за окружающими их взрослыми. А чему может научить их машина? С другой стороны, если эту самую машину использовать в образовательных целях, то это может пойти на пользу. Создавать роботов-сиделок для пожилых и больных тоже было бы не самой лучшей идеей с точки зрения гуманности: всем людям нужно общение, особенно таким уязвимым. А когда за тобой ухаживает бездушная железка, и ты не можешь с ним по человечески словом перекинуться, от этого кого хочешь накроет депрессия.

Личная привязанность

Моральные дилеммы роботизированного будущего - 3Многочисленные эксперименты и наблюдения за людьми, так или иначе взаимодействующими с роботами, показывают следующую тенденцию: чем больше робот похож внешне на человека, тем сильнее может возникнуть у человека привязанность. Это следствие нашей склонности к проецированию, к наделению человеческими чертами. Мы с удовольствием даём имена и обнаруживаем признаки характеров у автомобилей, компьютеров и прочей техники, более чем далёкой от антропоморфных образов. А тут целый робот, с головой, руками и даже иногда с ногами. Ну и как тут не почувствовать ответственность за прирученного? Не говоря уже о многих других эмоциях в отношении машины.

Можно привести в пример исследование, проведённое среди солдат, использующих роботов для разминирования. Выяснилось, что роботам зачастую давали имена, а в случае их уничтожения или выхода из строя даже проводили церемонию похорон. В интервью солдаты признавались, что воспринимали этих роботов как настоящих боевых товарищей, расстраивались и сердились, когда те «погибали».

С развитием робототехники будет всё большее значение уделяться влиянию внешности и поведения роботов на отношение к ним людей, на испытываемые нами эмоции. Ведь это будет напрямую влиять на уровень продаж. Например, в Массачусетском Технологическом Институте проводили эксперименты, в которых просили испытуемых «причинить боль» или «убить» робота, ударив его каким-нибудь предметом. Подавляющее большинство людей испытывали от этого дискомфорт, не хотели это делать. Подобные исследования будут важны также при создании роботов, к которым люди должны меньше всего испытывать привязанность. Например, для военного использования, ведь солдатам и без того есть из-за чего беспокоиться и переживать, а тут ещё любимого «питомца» взорвали или подстрелили.

Нюансы законодательства

Чем сложнее, многофункциональнее и гуманоиднее будут становиться роботы, тем непредсказуемее будут связанные с ними моральные дилеммы и неоднозначные ситуации. Уже сейчас список всевозможных неудобных вопросов «про роботов» очень обширен. Должны ли роботы иметь право на защиту… от плохого обращения? Уверена, что для вас абсурдна сама возможность ответить «да». Однако при всей своей провокационности это может иметь смысл. Дело в том, что последствия социального вовлечения человекоподобных роботов могут проявиться ещё одним неочевидным образом. Если никоим образом не порицать и не пресекать плохое, агрессивное поведение людей по отношению к человекоподобным роботам, то подобная модель будет ими задействована и при общении с другими людьми. То есть насилие надо роботами может привести к насилию над себе подобными. И с этой точки зрения стоит рассмотреть возможность превентивной законодательной защиты прав роботов. Как бы дико это сейчас не звучало.

Моральные дилеммы роботизированного будущего - 4Вообще наши современные законы никоим образом не готовы к появлению роботов в нашей жизни. Ведь законы, по сути, подразумевают существование лишь двух глобальных понятий: личность (персона) и нематериальный объект (вещь). Однако в роботах два этих понятия в будущем могут слиться.

К примеру, в юриспруденции существует понятие «злой умысел». Более того, это один из основополагающих смысловых объектов для криминального законодательства. Однако развитие искусственного интеллекта может в будущем поставить нас перед вопросом, как оценивать деяния робота — как злой умысел (а значит робота придётся признать личностью) или как механизм с заложенной компьютерной программой (а значит за последствия его действий нужно наказать владельца). Но разве вы согласитесь нести ответственность за то, что принадлежащий вам «шибко умный» робот наломал дров? Не на цепь же его сажать. Если законодатели пойдут по пути наименьшего сопротивления и припишут роботов к предметам, то это может фактически поставить крест на развитии бытовых роботов. Ведь люди будут просто опасаться приобретать недешёвые устройства, у которых в «голове» какая-то непредсказуемая программа, за причуды которой тебя ещё, не ровен час, посадят.

И это лишь один из множества возможных вариантов законодательных парадоксов. То ли ещё будет, когда на дорогах появятся робоавтомобили. Должен ли владелец, едущий на пассажирском сиденье, нести ответственность за то, что его «беспилотный» автомобиль сбил пешехода, никак не нарушавшего ПДД? По всем статьям, не должен. В результате виноватыми будут пытаться сделать производителей, которым такие репутационные катастрофа допускать нельзя ни в коем случае. В результате нас ждёт немало затяжных многолетних судебных разбирательств, в которых каждая сторона будет всячески пытаться избежать ответственности, пользуясь неготовностью законодательной системы к подобным ситуациям.

А вот ещё интересный вопрос: может ли полиция допрашивать робота, «Где ты был в ночь с пятницы на субботу?». Кто вообще должен нести ответственность за действия робота: он сам, владелец или производитель? В общем, наше общество ждёт немало увлекательных перемен, о которых большинство даже не помышляет.

Автор: marika_reka

Источник


* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js