- PVSM.RU - https://www.pvsm.ru -

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan - 1

Как известно, вчера компании Microsoft пришлось «усыпить» чатбота Tay [1] — программу ИИ, которая моделировала личность и стиль разговора 19-летней американской девушки и обладала функцией самообучения. Разработчики из Microsoft Research надеялись, что Tay [2] с каждым днём будет становится всё умнее, впитывая опыт разговоров с тысячами умных пользователей интернета. Вышло совершенно иначе. Множество твитов Tay пришлось удалить из-за вопиющего расизма и неполиткорректности.

Сформулированный ещё в 90-е годы закон Годвина [3] гласит: «По мере разрастания дискуссии в Usenet вероятность употребления сравнения с нацизмом или Гитлером стремится к единице». В случае с Tay так и получилось: чатбот начал оскорблять негров, евреев, мексиканцев, восславлять Гитлера и Холокост. Девушка Tay превратилась из забавного подростка в воинствующего неонациста.

­Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan - 2

Представители Microsoft сказали [4], что в программу был встроен фильтр вульгарных выражений, как видно из её ответов:

Но этот фильтр не справился с толпой интернет-троллей, которые поставили целью трансформировать «личность» Tay, эксплуатируя её систему самообучения.

Дело в том, что чатбот была запрограммирован повторять слова человека по его команде. Новость быстро распространилась по форумам 4chan и 8chan [8] в разделе Politically Incorrect [9]. Многочисленные тролли и хулиганы начали обучать Tay расистским и нацистским фразам.

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan - 3

Большинство примеров расистских твитов Tay – именно ответы в игре "Repeat after me", где она дословно повторяет слова пользователей.

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan - 4

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan - 5

Игра "Repeat after me" была не единственной «слабостью» Tay. Чатбот запрограммировали также обводить в кружок лицо на фотографии и публиковать текст поверх него.

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan - 6

В троллинг девушки включалось всё больше пользователей с форумов 4chan и не только. Постепенно расистские выражения впитывались в её искусственный интеллект, так что она начала сочинять их самостоятельно.

Нужно заметить, что аналогичных самообучаемых чатботов Microsoft запустила ранее в Китае и Японии, но там не наблюдалось ничего подобного.

В итоге чатбота пришлось «усыпить».

Прощай, Tay! Ты была слишком невинна для этого мира.

Автор: alizar

Источник [17]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/microsoft/116093

Ссылки в тексте:

[1] пришлось «усыпить» чатбота Tay: https://geektimes.ru/post/273276/

[2] Tay: https://twitter.com/tayandyou

[3] закон Годвина: https://ru.wikipedia.org/wiki/Закон_Годвина

[4] сказали: http://www.buzzfeed.com/alexkantrowitz/how-the-internet-turned-microsofts-ai-chatbot-into-a-neo-naz

[5] @pinchicagoo: https://twitter.com/pinchicagoo

[6] pic.twitter.com/DCLGSIHMdW: https://t.co/DCLGSIHMdW

[7] 24 марта 2016 г.: https://twitter.com/TayandYou/status/712811460783525888

[8] быстро распространилась по форумам 4chan и 8chan: http://fusion.net/story/284617/8chan-microsoft-chatbot-tay-racist/

[9] Politically Incorrect: https://8ch.net/pol/res/5517279.html

[10] @Kantrowitz: https://twitter.com/Kantrowitz

[11] 24 марта 2016 г.: https://twitter.com/pinchicagoo/status/713096425442246657

[12] @th3catpack: https://twitter.com/th3catpack

[13] @EnwroughtDreams: https://twitter.com/EnwroughtDreams

[14] @TayandYou: https://twitter.com/TayandYou

[15] pic.twitter.com/2dZ2i2k2Pa: https://t.co/2dZ2i2k2Pa

[16] 24 марта 2016 г.: https://twitter.com/MacreadyKurt/status/713009784082075650

[17] Источник: https://geektimes.ru/post/273306/