- PVSM.RU - https://www.pvsm.ru -
Захожу я сегодня на Хабр, и, под чашку чая, пролистываю статью «GPT-3 от OpenAI может стать величайшей вещью со времён Bitcoin [1]».
Если не читали – почитайте. Конец вызывает прямо-таки сильные эмоции. У меня они усугубились тем, что я относительно профессионально занимаюсь ИИ, генерацией текстов и проблемой смыслов – так что я небезосновательно считал, что легко распознаю текст, сгенерированный машиной…
Да-да, я купился. Текст статьи «GPT-3 от OpenAI может стать величайшей вещью со времён Bitcoin» был (возможно) создан ИИ, но я этого не увидел, при том, что я, в общем-то занимаюсь этим профессионально и знаю основные приемы, используемые в машинной генерации текста.
После того, как у меня спал первый лёгкий шок, я хотел бы поделиться рядом соображений.
Пожалуй, первой реакцией на текст было отрицание, нежелание принимать, что этот текст сделан машиной. Мой начал в бешеном темпе подыскивать подходящее под это аргументы. Вообще говоря, я их сам считаю довольно слабыми, но всё равно хочу их привести:
Тем не менее, я также готов признать, что эти аргументы довольно слабые, и машина действительно сейчас может создавать относительно длинные новостные тексты, похожие на человеческие.
Я отставил чашку с чаем в сторону и подумал: «Что это означает? Какой урок я могу вынести для себя из этой истории? Могу ли теперь я дать хоть какие-то рекомендации относительно умения отличать хорошие тексты от плохих или бессмысленных?»
Вернувшись к эмоциям, которые у меня возникли в процессе чтения, я вспомнил, что фрагментом статьи, после которого я начал «верить» в происходящее было описание эксперимента на форуме bitcointalk. Начало статьи меня не задело – оно посвящено фактам о создании GPT-3, и я уже привык, что такого рода факты ничего не говорят ни об авторе, ни о его понимании предмета, поскольку могут быть заимствованы откуда угодно.
Но описание эксперимента было интересно. Собственно, оно и создало «содержание» статьи – правила постинга, реакция других людей с форума…
… и в результате мы понимаем, что никакого эксперимента не было.
Это навело меня на интересные мысли. Когда-то давно я писал о моделировании экономических циклов на основе роста доверия [4]. Суть заключается в том, что рост идёт только пока исполняются обязательства сторон – или, проще говоря, если я вам говорю «я вам отгружу этот товар через неделю по цене X», вы доверитесь мне, и я действительно это сделаю. Всё базируется исключительно на доверии – если вы не доверяете мне, или я вас обману, мы, конечно, можем попробовать решить дело через суд, но это будет сопровождаться АДСКИМИ издержками. Представьте, что было бы, если бы каждая покупка йогурта в магазине сопровождалась серьезной возможностью судебного разбирательства…
И здесь мы приходим к, на мой взгляд, серьезной проблеме современного мира. В каком-то смысле у нас почти не осталось институтов репутации применительно к словам и текстам, а значит, мы не очень знаем, кому вообще можно доверять.
Представьте, что вам звонит представитель сотового оператора. Или банка. С новым, уникальным, выгодным для вас предложением. Вы поверите, что оно для вас выгодно?
СМИ могут случайно поставить «не ту» фотографию. Могут однобоко рассмотреть ситуацию. Вывесить на главной странице провокационную статью с маленькой надписью внизу «Это авторская колонка. Мнение автора может не совпадать с мнением редакции». Могут сослаться на неизвестного профессора Всемирного института г. Кукуево со словами «Ученые узнали…» И им ничего за это не будет. В самом крайнем случае они посокрушаются о недостаточной проверке фактов, и, может, выложат в каком-нибудь углу, в котором вы его никогда не найдете, опровержение спустя пару месяцев.
Не спасает даже наличие «компетентных» людей. Пожалуй, мне лучше всего вспоминается история компании Theranos (на Хабре [5]), обещавшую практически медицинскую революцию и собравшую внушительный совет директоров (в совет директоров компании вошли такие известные личности, как экс-госсекретари США Генри Киссинджер и Джордж Шульц). Всем казалось, что такие люди не могут ошибаться – но на самом деле они тоже опирались на словесные заверения, в то время как технология, по факту, не работала. Не думайте, что вы можете доверять чему-то, даже если туда вложили 700 миллионов долларов.
К сожалению, смысл в том, что сейчас мы уже не можем доверять чьему-то мнению. Репутация стоит очень мало и с удовольствием меняется на деньги. По сути, единственным неплохим пространством доверия остаются наши семья и близкие – и к счастью, идеи сетевого маркетинга (Орифлейм и пр.), эксплуатирующие личное доверие, более-менее исчезли из нашей жизни.
Но возвратимся к статье… Я для себя сделал два вывода:
Я собираю свою коллекцию сгенерированных текстов и их генераторов. Но мне не очень интересно обсуждать, как сгенерированные тексты и фейки повлияют на социум – хотя эта тема, возможно, хорошо оплачиваема. Для меня каждый пример сгенерированного текста – вопросы: «какую часть человеческого
GPT-3 и современные нейронные сети, поскольку тренируются на текстах, а не на входящих в эти тексты смыслах, являются далекими потомками порождения текстов за счет N-грамм или сетей Маркова, которые, предположительно используются в Яндекс.Рефератах [6]. Если посмотреть на исходные принципы и примеры сгенерированных текстов, можно вчвести несколько важных правил:
Кроме того, отдельно бы хотелось сказать про диалог с ИИ. В частности, любой преподаватель знает, что по предоставленному студентом реферату ничего сказать о его знаниях нельзя. А вот если пообщаться с ним минут 5-10, то легко понять, «шарит» он, или нет.
В моей статье про чат-ботов [7] я упоминаю, что основной проблемой для ИИ сейчас является учет контекста диалога и понимание собеседника. Несложно себе представить ИИ, который неплохо реагирует на конкретную фразу – но он похож на человека, услышавшего обо всем понемногу, но не понимающего сути. Среди студентов тоже такие бывают – реагирующие на ключевые фразы. Если не затрагивать сложные темы, не оценивать личные знания и понимание, может сложиться ощущение, что собеседник является интеллектуалом и знает, о чём говорит, хотя на самом деле он лишь повторяет услышанные где-то истины.
Человек, очевидно, определяется не тем, что он говорит. Человек определяется тем, что он может действовать, опираясь на свои убеждения. Он может проанализировать свой опыт или же воспринять опыт другого человека.
Он НЕ занимается исключительно разговорами, не неся никакой ответственности за свои слова.
Автор: Январев Владислав
Источник [8]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/budushhee-zdes/355216
Ссылки в тексте:
[1] GPT-3 от OpenAI может стать величайшей вещью со времён Bitcoin: https://habr.com/ru/company/itsumma/blog/511690/
[2] мозг: http://www.braintools.ru
[3] экспериментировал несколько раз с GPT-2: https://habr.com/ru/post/440564/#comment_19766122
[4] моделировании экономических циклов на основе роста доверия: http://janvarev.ru/ObAvtore/Publikacii/Modelirovaniekrizisovdoverija
[5] на Хабре: https://habr.com/ru/post/372323/
[6] Яндекс.Рефератах: https://yandex.ru/referats/
[7] моей статье про чат-ботов: http://janvarev.ru/ObAvtore/Filosofija/ProII3
[8] Источник: https://habr.com/ru/post/511764/?utm_source=habrahabr&utm_medium=rss&utm_campaign=511764
Нажмите здесь для печати.