Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам

в 16:02, , рубрики: microsoft, tay, twitter, искусственный интеллект, метки:

Под влиянием пользователей-людей самообучающийся бот стал расистом всего за день. Бота пришлось отключить

Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам - 1

Практически все техно-корпорации так либо иначе участвуют в разработке ИИ. Самообучающиеся автомобили с компьютерной системой управления, голосовые помощники или боты для Twitter. Корпорация Microsoft на днях представила своего бота для Twitter, способного самообучаться и ведущего себя, как подросток. Жаргонные словечки, стиль общения — все это практически не отличается от общения англоязычных подростков в Сети.

Бот-подросток стал активно использовать особенные словечки и сокращения: часть была внесена в его БД сразу, часть — попала в ходе обучения. Пользователи Twitter сразу же начали общаться с ботом, и не всегда вопросы или ответы людей были корректными или толерантными. Бот, можно сказать, попал в плохую компанию. Настолько плохую, что он быстро научился говорить нехорошие вещи, и Microsoft пришлось отключить своего «подростка» через сутки после анонса. И это при том, что за тем, как общается бот, следила целая команда людей-модераторов, которые пытались фильтровать входящий поток информации.

А так все хорошо начиналось

Люди начали задавать не слишком толерантные вопросы, типа таких:

Чуть позже сам бот на вопрос о британском комике (был ли этот комик атеистом) ответил, что «Рики Джервейс (Ricky Gervais) изучил тоталитаризм под влиянием Адольфа Гитлера, изобретателя атеизма».

По словам представителей Microsoft, подобные вещи бот научился говорить после анализа анонимизированных сообщений из социальных сетей. Один раз бот (зовут его Tay) даже ответил пользователю, запостившему фото Гитлера, чуть измененной картинкой.

Плюс бот запостил уж совсем неполиткорректное и расистское сообщение:

Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам - 2

После этого работники Microsoft сочли за лучшее удалить практически все сообщения Tay, и отправили его «спать».

Как видим, самообучающиеся системы хороши, но если они начинают общаться с человеком, очень быстро попадают под влияние не самых лучших представителей рода человеческого. И это — обычный бот для Twitter, хотя и с элементами «ИИ». А что может случиться, если появится настоящий искусственный интеллект, который начнет получать информацию из Сети? Страшно представить.

Автор: marks

Источник

Поделиться новостью

* - обязательные к заполнению поля