Можно ли ввести этику в алгоритм робомобилей?

в 11:42, , рубрики: а судьи кто, будущее здесь, искусственный интеллект, робомобили, робототехника, транспорт будущего, этика

За убийство, совершённое робомобилем, судить будут программу (и программистов)

image2034-й год. Пьяный человек бредёт ночью по тротуару, спотыкается и падает прямо перед робомобилем, который ударяет его и убивает на месте. Если бы за рулём автомобиля был человек, смерть признали бы несчастным случаем, поскольку вина лежала бы на пешеходе, и ни один водитель не сумел бы увернуться от него. Но стандарты для «среднего водителя» (в зарубежном законодательстве присутствует термин "reasonable person"), исчезли в 2020-х годах, когда распространение робомобилей снизило количество ДТП на 90%. Теперь приходится говорить уже о «среднем роботе».

Семья жертвы судится с производителем робомобилей, заявляя, что хотя у машины и не было времени затормозить, она могла бы объехать пешехода, пересечь двойную сплошную и столкнуться со встречным робомобилем. Реконструкция происшествия на основании датчиков робомобиля это подтверждает. Адвокат истца, допрашивая ведущего разработчика ПО автомобиля, спрашивает: «Почему же машина не отвернула?»

Сегодня суд не спрашивает водителей, почему они что-то сделали или не сделали. Вопрос спорный, поскольку человек ошибается – водитель может запаниковать, не додуматься, среагировать на инстинктах. Но когда робот ведёт машину, вопрос «почему?» вполне допустим. Этические стандарты людей, не очень удачно прописанные в законах, делают множество разных предположений, до которых инженеры просто не дошли. Самое важное из них – человек может понять, когда нужно отступить от буквы закона, чтобы сохранить его дух. Теперь инженерам необходимо научить машины и других роботов принимать разумные решения.

Компьютеризация процесса управления началась ещё в 1970-х, когда появились антиблокировочные системы торможения. Теперь каждый год появляются такие разработки, как автоматическое подруливание, автоматическое ускорение и экстренное торможение. Тестирование полностью автоматических машин, хотя и с участием человека-водителя, разрешено уже кое-где в Британии, Голландии, Германии и Японии. В США это разрешено законом в четырёх штатах и в округе Колумбия, и по крайней мере не запрещено в остальных. Google, Nissan и Ford утверждают, что робомобили появятся уже через 5-10 лет.

Автоматические средства передвижения собирают информацию об окружающей среде с датчиков – видеокамер, ультразвуковых дальномеров, радаров, лидаров. В Калифорнии робомобили обязаны предоставлять в департамент транспорта все данные с датчиков за 30 секунд до любого столкновения, которых уже накопилось достаточно – включая столкновение по вине машины Google. Инженеры получают возможность восстановить события в районе столкновения довольно точно, используя записи того, что могла зафиксировать машина, рассматриваемые ею альтернативы, и логику поведения. Компьютер можно будет заставить повторить свои рассуждения – так, как это можно попросить сделать человека, игравшего в игру или симулятор вождения.

Регуляторы и стороны в судебных процессах смогут поддерживать сверхчеловеческие стандарты безопасности у робомобилей, и тщательно исследовать столкновения, которые всё равно будут происходить – пусть и редко. Производители и программисты будут защищать действия своей продукции так, как это сегодняшним водителям и не снилось.

Вождение – это всегда риск, и решения по поводу распределения его между водителями, пешеходами, велосипедистами и имуществом, содержат этическую составляющую. Как для инженеров, так и для всех людей важно, чтобы система принятия решений машины взвешивала этические последствия своих действий.

image
image
Столкновение Google Car с автобусом

Обычная реакция на двусмысленные с моральной точки зрения ситуации – следовать закону с минимизацией ущерба. Стратегия привлекательная – она не только позволяет разработчику легко отстоять действия авто («Мы ведь полностью следовали закону»), но и передаёт ответственность в определении этичности законодателям. К сожалению, оно также возлагает на закон слишком большую ношу.

К примеру, в большинстве штатов закон полагается на здравый смысл водителей, и мало что говорит о поведении перед столкновением. В описанном примере машина, точно следуя букве закона, не пересекает двойную сплошную, рискуя наехать на пьянчужку – хотя с другой стороны дороги находится лишь пустой робомобиль. Закон редко делает исключения в таких конкретных экстренных случаях, как упавший на проезжую часть человек – а если делает, как это принято, например, в штате Виргиния, текст закона подразумевает, что пересечение двойной сплошной законно до тех пор, пока автомобиль не попадает в аварию («если таковое движение можно произвести безопасно»). В этом случае решать придётся разработчикам – в каких случаях пересекать двойную сплошную будет безопасно.

Робомобиль редко будет на 100% уверен в том, что дорога пустая и пересекать двойную сплошную можно без опаски. Он будет оценивать уровень увереннности в 98%, или 99,99%. Инженерам надо будет заранее решить, какой уровень уверенности будут достаточным для пересечения двойной сплошной, и как может варьироваться допустимое значение в зависимости от того, чего пытается избежать на дороге робомобиль – пластиковый это пакет или упавший пешеход.

Уже сейчас робомобили принимают решения о возможности нарушения закона. Google призналась, что его машинам разрешено превышать скорость, чтобы оставаться в потоке – там, где замедление скорости опасно. Большинство людей предпочло бы превысить скорость в различных ситуациях, например при попытке спешно добраться до госпиталя. Крис Гердес [Chris Gerdes] и Сара Торнтон [Sarah Thornton] из Стэнфордского университета против жёсткого включения законов в алгоритмы принятия решений, поскольку водители, судя по всему, считают законы достаточно гибкими для того, чтобы оценивать стоимость их нарушения по сравнению с потенциальным выигрышем в скорости. Никому не хочется ползти за велосипедистом несколько километров из-за того, что ваша машина отказывается хоть немного заехать за двойную сплошную.

И даже оставаясь в рамках закона, робомобиль может принимать множество мелких решений, чувствительных с точки зрения безопасности. Обычно полосы на шоссе почти в два раза шире типичной машины, и водители могут использовать эту ширину для объезда мусора, или отдаления от неровно едущих автомобилей.

В патенте 2014 года Google развивает эту мысль и описывает, как робомобиль может размещаться на полосе для уменьшения рисков. Компания приводит пример робомобиля на трёхполосной дороге с грузовиком справа и небольшой машинкой слева. Для оптимизации безопасности робомобилю следовало бы сдвинуться чуток влево, поближе в маленькой машинке.

Выглядит здраво, и обычно все так и делают – сознательно или бессознательно. Но появляются этические вопросы. Сдвинувшись в сторону мелкой машинки, робомобиль уменьшил риск, но неравномерно распределил его. Должна ли мелкая машинка брать на себя больший риск только потому, что она мелкая? Если бы это был вопрос пристрастий конкретного водителя, он бы ничего не значил. Но если такое перераспределение формализовать и распространить на все робомобили, последствия будут более серьёзными.

В каждом примере робомобиль принимает во внимание несколько ценностей – ценность объекта, который он может ударить, и ценность его пассажира. Люди принимают решения инстинктивно, а робомобиль будет делать это на основании тщательно продуманной стратегии управления рисками, которая определяет риск как размер ущерба от нежелательного события, умноженный на его вероятность.

В 2014-м Google также запатентовал и приложение для управления рисками. В патенте описана машина, которая может решить перестроиться, чтобы лучше видеть светофор. Или машина может решить остаться в полосе, чтобы избежать риска столкновения – например, из-за показаний с неисправного датчика – но ценой этого будет плохая видимость светофора. Результату любого из решений присваивается вероятность, а также положительная или отрицательная стоимость (преимущество или потеря). Каждая стоимость умножается на вероятность, и полученные значения можно суммировать. Если преимущества превосходят потери достаточно сильно, машина выполнит манёвр.

Проблема в том, что риск столкновения очень мал – средний водитель в США попадает в ДТП раз в 257 000 километров, или раз в 12 лет (в России – раз в 1,6 года. Возможно, такая разница получается оттого, что в США люди гораздо чаще ездят по шоссе – прим.перев.). Поэтому, даже начав получать огромный поток данных от робомобилей, когда они выйдут на улицы, мы сможем получить оценки вероятностей разных событий очень нескоро.

Оценивать стоимость ущерба ещё сложнее. Повреждения имущества оценить легко – у страховщиков в этом деле большой опыт – но увечья и смерти, это дело другое. История присвоения жизни человека какой-либо стоимости насчитывает много лет, и обычно её выражают в количестве денег, которые можно было бы потратить для предотвращения среднестатистической жертвы. Улучшение безопасности, имеющее шанс в 1% на спасение жизней 100 людей, представляет собой одну среднестатистическую жертву. Департамент транспорта рекомендует трату $9,1 миллиона для предотвращения жертвы. Число получено из маркетинговых данных, включая надбавки, которые люди требуют за опасную работу и суммы, которые люди готовы тратить на оборудование для обеспечения безопасности – например, дымовые сигнализации. Взвесить нужно не только безопасность, но и потерю мобильности, или время, потраченное на дорогу, которое Департамент оценивает в $26,44 в час.

На словах всё выглядит красиво. Но оценка риска в потерянных жизнях и потраченном на дорогу времени не включает в себя разные моральные оценки того, как мы подвергаем людей риску. К примеру, робомобиль, оценивая жизни всех людей одинаково, должен был бы дать на дороге больше места мотоциклисту без шлема, чем мотоциклисту в полной экипировке, поскольку первый выживет с меньшей вероятностью. Но это нечестно – можно ли наказывать за заботу о своей безопасности?

Ещё одно отличие этики роботов и людей – этика первых может быть искажена программистами, даже из лучших побуждений. Представим, что алгоритм подрегулировал размер буферной зоны для пешеходов в различных районах на основе анализа размера компенсаций по искам, поданных пешеходами, попавшими в аварии. С одной стороны, это разумно, эффективно и сделано из лучших побуждений. С другой стороны, меньшие размеры неустоек могут зависеть от среднего дохода людей в конкретном районе. Тогда алгоритм будет наказывать бедных, задавая им меньшую буферную зону, тем самым немного увеличивая их риск быть сбитыми.

Есть искушение отмахнуться от таких вопросов, как от чисто академических, но обойти их нельзя, потому что программы воспринимают всё буквально. Оценивать последствия действий придётся до того, как их надо будет совершать – на этапе разработки, а не на этапе создания патчей для ПО.

Частично из-за этого исследователи используют гипотетические ситуации, в которых машина должна выбирать между двух зол. Одна из известнейших задач такого типа – проблема вагонетки.

Тяжёлая неуправляемая вагонетка несётся по рельсам. На пути её следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?

Пожертвуете ли вы одной жизнью ради нескольких? Если нет, из-за вашего бездействия всё равно погибнут люди, поэтом как вы сможете разобраться с этим противоречием?

По темам таких экспериментов написаны книги, и они позволяют вам протестировать простые и прямые системы, обрабатывающие вопросы этики, и найти области, где было бы неплохо углубиться в некоторые нюансы. Допустим, мы запрограммировали робомобиль на избегание пешеходов любой ценой. Если в двухполосном тоннеле внезапно появится пешеход, а машина не сможет вовремя затормозить, ей придётся сворачивать с полосы, даже если она окажется на пути автобуса с пассажирами. Вероятность такого события не так важна, как проблема, которую она обнажает в логике робомобиля – что абсолютное превосходство ценности пешехода над всеми остальными людьми, использующими проезжую часть, может быть очень опасным.

Этика в робомобилестроении – задача решаемая. Мы знаем это потому, что в других областях уже нашли возможность обрабатывать примерно такие же риски и преимущества безопасно и разумно. Органы доноров распространяются среди больных на основании метрики, высчитываемой из потенциальных лет жизни и качества их проживания. От военного призыва освобождают людей таких нужных профессий, как фермер и учитель.

Задачи робомобилей сложнее. Им надо решать быстро, на основе неполной информации, в ситуациях, которые программисты могли не предусмотреть, используя этику, которую приходится встраивать в алгоритм слишком буквально. К счастью, люди не ждут от них сверхчеловеческой мудрости – лишь рациональное оправдание действий машины, которая оценивает и вопросы этики. Решение не должно быть идеальным – но продуманным и таким, которое можно было бы защитить.

Автор: SLY_G

Источник

Поделиться новостью

* - обязательные к заполнению поля