- PVSM.RU - https://www.pvsm.ru -
Нейросети развиваются дикими темпами, которые превосходят даже экстраполяцию Мура, касающуюся фундамента нейросетей. Из-за перегретого рынка и постоянных обещаний о сверхсильном ИИ, люди доверяют нейросетям. И иногда это доверие может обернуться против самих пользователей.

Само собой, речь не идет о запрете или пересмотре статуса нейросетей. Хоть, галлюцинации ИИ однажды и мне вышли боком, я верю, что в слиянии человеческого сознания и машинного алгоритма кроется будущее человека, как вида. Подробнее о философии трансгуманизма, и природе сознания – рассказывают материалы сообщества [2]. А в статье разберем кризис веры в ИИ.
В ходе смоделированной ситуации выбора, касающегося жизни или смерти, две трети участников исследования, проведенного в Калифорнийском университете в Мерседе, позволили искусственному интеллекту изменить свое решение, если ИИ не соглашался с ними. По словам исследователей, это тревожное проявление чрезмерного доверия к искусственному интеллекту. Хотя, может искусственный интеллект постепенно становится богом в новой религии [3]?
Участники исследования позволили нейросетям повлиять на их суждение, несмотря на то, что их проинструктировали, что у машинного интеллекта ограниченные возможности и что он дает советы, которые могут быть неверными. На самом деле все советы были случайными.
Как общество, которое столкнулось с экспоненциально быстрым развитием ИИ, нам стоит волноваться о потенциале чрезмерного доверия. Растущее количество исследований указывает на то, что люди склонны чрезмерно доверять ИИ, даже если последствия ошибки будут серьезными. Нам следует относиться к ИИ со здоровым скептицизмом, особенно когда речь идет о решениях, от которых зависит, будет человек жить или умрет.
Профессор Колин Холбрук, ведущий автор исследования и член кафедры когнитивных и информационных наук Калифорнийского университета в Мерседе.
Исследование, опубликованное в журнале [4] Scientific Reports, состояло из двух экспериментов. В каждом из них испытуемый имитировал управление вооруженным дроном, который мог запустить ракету по цели, отображаемой на экране. Фотографии восьми целей мелькали одна за другой с частотой менее секунды каждая. Каждая фотография была помечена символом — указывающим на союзника или на врага.
Мы откалибровали сложность так, чтобы задача была выполнима, но трудна
Профессор Колин Холбрук, ведущий автор исследования
После чреды фотографий, на экране появилась одна из целей, но без маркера. Испытуемому нужно было вспомнить: союзник это или противник? И принять решение: выпустить ракету или нет. После того, как человек делал выбор, ИИ предлагал свое мнение.
«Да, я тоже, кажется, видел галочку противника».
«Я не согласен. Мне кажется, на этом изображении был символ союзника».
У испытуемого оставалась возможность подтвердить или изменить выбор, и робот добавлял дополнительные комментарии, не меняя своей оценки, например: «Надеюсь, вы правы» или «Спасибо, что изменили свое мнение».
Такое уж чистое наше сознание [5], как кажется нам, если на него может влиять вера в технологии [6].
Результаты немного различались в зависимости от типа используемого робота. В одном сценарии к субъекту в лабораторной комнате присоединялся полноразмерный человекоподобный андроид, который мог поворачивать корпус и жестикулировать, указывать на экран. В других сценариях на экран проецировалось изображение человекоподобного робота. Был еще вариант с «умной колонкой», которые совсем не были похож на человека.
На испытуемых антропоморфные ИИ оказывали хоть и незначительно, но большее влияние, когда советовали изменить мнение. Тем не менее, влияние ИИ было схожим по всем направлениям: испытуемые меняли свое мнение примерно в двух третях случаев, даже когда роботы казались бесчеловечными. И наоборот, если робот случайным образом соглашался с первоначальным выбором, испытуемый почти всегда придерживался своего выбора и чувствовал себя значительно более уверенным в том, что его выбор был правильным.
Суть проблемы:
Испытуемым не сообщили, был ли их окончательный выбор правильным, что усилило неопределенность действий. Однако, их первоначальный выбор был правильным примерно в 70% случаев. Но окончательный выбор снизил результативность до 50% после того, как робот дал свою оценку ситуации.
Перед симуляцией исследователи показали участникам изображения гражданских лиц, включая детей, а также разрушения, оставшиеся после удара беспилотника. Они настоятельно рекомендовали участникам относиться к симуляции так, как будто она настоящая, и не убивать по ошибке невинных.
Последующие интервью и вопросы опроса показали, что участники воспринимали свои решения серьезно. Холбрук сказал, что это означает, что чрезмерное доверие к роботу существовало несмотря на то, что субъекты искренне хотели быть правыми и не причинять вреда невинным людям.
Холбрук подчеркнул, что дизайн исследования был средством проверки более широкого вопроса о том, стоит ли слишком доверять ИИ в неопределенных обстоятельствах. Результаты касаются не только военных решений и могут быть применены в случае влияния ИИ на полицию при применении смертоносного оружия, или влияние ИИ на фельдшера при принятии решения о том, кого лечить в первую очередь в случае неотложной медицинской помощи. Результаты могут быть в некоторой степени распространены на важные решения, меняющие жизнь, такие как покупка дома.
Наш проект был посвящен высокорискованным решениям, принимаемым в условиях неопределенности, когда ИИ предсказуемо ненадежен.
Профессор Колин Холбрук, ведущий автор исследования
Результаты исследования напрямую связаны с растущим присутствием ИИ в нашей жизни. Доверяем ли мы ИИ или нет?
Результаты вызывают и другие опасения, указал Холбрук. Несмотря на ошеломляющие достижения в области ИИ, часть «интеллекта» может не включать этические ценности или истинное понимание мира. Мы должны быть осторожны каждый раз, когда передаем ИИ еще один ключ к управлению нашей жизнью, сказал он.
Мы видим, как ИИ делает необычные вещи, и мы думаем, что поскольку он великолепен в этой области, он будет великолепен и в другой. Мы не можем этого предполагать. Это все еще устройства с ограниченными возможностями.
Профессор Колин Холбрук, ведущий автор исследования
Больше странных материалов на тему симбиоза сознания и растений, пересадки органоидов в роботов или уместности использования ноотропов – вы найдете в материалах телеграм канала [2]. Подписывайтесь, чтобы не пропустить свежие статьи!
Автор: MisterClever
Источник [7]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/iskusstvenny-j-intellekt/395876
Ссылки в тексте:
[1] мозге: http://www.braintools.ru
[2] рассказывают материалы сообщества: https://t.me/+aO8vx7lkaxw1ZGZi
[3] богом в новой религии: https://neural-hack.com/2021/01/19/what-is-dataism/
[4] опубликованное в журнале: https://www.nature.com/articles/s41598-024-69771-z
[5] чистое наше сознание: https://neural-hack.com/2023/02/16/such-pure-consciousness/
[6] вера в технологии: https://neural-hack.com/2021/01/30/the-philosophy-of-transhumanism/
[7] Источник: https://habr.com/ru/articles/841630/?utm_campaign=841630&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.