Снятся ли выключателям вопросы морали (и электроовцы)?

в 11:49, , рубрики: AI, ml, азимов, Блог компании Voximplant, будущее здесь, законы роботехники, ИИ, искусственный интеллект, Киберпанк, машинное обучение, робопсихология

Снятся ли выключателям вопросы морали (и электроовцы)? - 1

Прямо сейчас в компьютерных сетях происходит революция: устройства все лучше оценивают происходящее вокруг себя, при этом анализируя данные локально, то есть «здесь и сейчас». Благодаря этому устройства могут предложить людям все бОльшую функциональность, не обращаясь к облаку. Но смогут ли в итоге выключатели освещения озаботится вопросами морали?



Инновации обусловлены необходимостью делать вычисления быстро. Ожидается, что вычисления будут надежными, безопасными и экологичными. Мы – люди – хотим, чтобы вычисления были все более эффективными и относительно недорогими (в противовес вычислениям, которые полагаются на более дорогую «облачную» инфраструктуру).

Сейчас формируется модель «лучшего из двух миров», благодаря чему ИИ и вывод данных становятся ближе к местам, где они используются. Однако облако все еще нужно, если речь идет про сам процесс машинного обучения и различные операционные функции.

Преимущества этой модели станут более очевидными в 2020 году (статья от 8 января 2020 – прим. переводчика). Благодаря «умным» инновациям появятся такие вещи как стиральные и сушильные машины, распознающие простые голосовые команды; роботы-пылесосы, которые научатся избегать опасных препятствий; замки и выключатели, работающие как умные помощники по дому. Из-за наших требований к вычислениям распознавание лиц/голоса/жестов станет еще более распространено; появятся охранные системы, способные отличить разбитое окно от разбитого фужера и автомобили, которые еще эффективнее реагируют на ситуацию на дороге. Но что иронично – после этого наши требования возрастут еще больше.

Развитие вычислительной техники предполагает минимум три вопроса вопроса к тому, как мы относимся к искусственному интеллекту и что он может думать/чувствовать по отношению к нам.

Первый вопрос

Может ли осознающий себя ИИ быть как собака, но не как человек? Множество споров вокруг ИИ ведется вокруг перехода с алгоритмической основы принятия решений и возможностью быть самостоятельным к возможности задавать и отвечать на вопросы, основанные на ощущении… Себя.

Эта концепция бесконечно далека от сегодняшнего подхода к глубокому обучению, когда вычислительному устройству не дается возможность понять, как оно создано. Теория мышления, подразумевающая, что разум внутри машины может анализировать и оправдывать свои действия, может оказаться более надежной, равно как и более эффективной.

Должен ли ИИ быть спроектирован с оглядкой на человека?

Передовой взгляд на ИИ рассматривает различные типы не только интеллекта, но и осознанности.

  • например, почему умный ИИ-ассистент не может обладать характеристиками собаки или эмпатичного дельфина?
  • будет ли достаточно этих характеристик, чтобы удовлетворять потребности пользователей?
  • не будут ли такие характеристики ближе к реализации ИИ, которую диктуют некоторые модели сознания?
  • может ли ИИ вести себя как друг или сосед?

Хотя, вероятно, робот вроде Санни из фильма «Я, робот» – это экстремальная версия такого подхода, что в плане мышления, что с точки зрения физического воплощения.

Второй вопрос

Могут ли устройства изобрести свой собственный язык и затем придумать свое воплощение ИИ и сознания?

Существуют примеры, когда роботы – а именно чатботы – создавали свой способ коммуникации:

  • в 2017 году Facebook заставил чатботов общаться с друг с другом, в ответ они изобрели свой язык, непонятный для людей (компания прекратила эксперимент);
  • в том же году Google объявил, что их экспериментальный ИИ использовал сервис Translate, чтобы переносить концепции из/в некий язык, который он же и изобрел (компания решила не останавливать этот процесс);
  • Open AI заставила чатботов изобрести свой язык, используя обучение с подкреплением (представьте собаку, которой вы даете печенье всякий раз, как она делает нужное вам действие). В итоге появился лингва франка, который помог компании вести бизнес быстрее и эффективнее, чам раньше.

Вычисления, выполняемые ботами, сильно продвинулись вперед наряду с их «совместным опытом» – что очень похоже на развитие человеческих языков.

Клод Шеннон, которого можно считать крестным отцом полупроводника Роберта Нойса, в своей Теории Информации утверждал, что информация это механизм снижения неопределенности (в отличие от качественного инструмента передачи данных самого по себе).

Что если новейшие обработчики данных способы изобрести язык (языки?), который не только даст им новую функциональность, но еще и сэмулирует некую форму коллективного разума? Сможем ли мы понять такой язык? И не будет ли нам все равно?

Третий вопрос

Заботят ли выключателей вопросы морали?

Мы можем прошить гаджет, чтобы он мог выполнять определенные функции и на их основе создавать что-либо из упомянутого выше. Но в конечном счете, умные устройства могут оказаться предрасположенными к каким-то строго определенным действиям, как и люди.

Например, представьте термостат, который замеряет температуру и выполняет действия, основываясь на этих данных. А теперь представьте человека, чьи действия идут вразрез со встроенными функциями или общей картиной машинного обучения, опирающегося на экологическую безопасность.

Возразит ли термостат в ответ либо вовсе отвергнет вводимые человеком данные? Возможно ли реализовать на уровне кремния некий рудиментарный ИИ, чтобы умные устройства были физически неспособны нарушать некоторые правила?

Мне вспоминаются азимовские три закона робототехники; идея низкоуровневой защиты может быть гораздо важнее безопасности и надежности – это именно то, что нужно для умных устройств, которым мы хотим дать больше ответственности и самостоятельности.

Нам предстоит применить не только свои компетенции в области вычислений, но и знания в психологии и социальных науках. Так как наши машины предполагают большую автономию в действиях, нам и им предстоит столкнуться с проблемами, которых никто не ожидал. Для примера:

  • какие условия заставят машины «тупить» либо заставят вести себя так, как будто бы они «заболели» (как если бы мы описывали человека)?
  • как ИИ будет защищен от проблем, косвенных и целенаправленных (хаков)?
  • будут ли новые режимы контроля/надзора, необходимые для машин, которые «плохо себя ведут» или нарушают закон?

Одним словом, размышлять над вопросами, которые принесет ИИ-революция, будет крайне любопытно.

Автор: nvpushkarskiy2

Источник


* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js