- PVSM.RU - https://www.pvsm.ru -

В интервью [2] изданию Dallas Innovates 52-летний Кармак рассказал о новом проекте — системе сильного ИИ (AGI), над которым он работает самостоятельно, без участия больших корпораций, как отшельник в своём особняке в Далласе.
Сильный ИИ общего назначения не будет уступать среднему человеку в понимании происходящего и решении проблем. По оценке Кармака [3], с вероятностью 60% такая система (альфа-версия) будет создана до 2030 года, с вероятностью 95% — до 2050 года. Это самая важная и интересная задача, которая сейчас стоит перед человечеством.
Ещё будучи техническим директором Oculus VR (в составе Meta*) Джон Кармак назвал ИИ одним из самых важных направлений в технологическом развитии. Практически никто не сомневается, что системы AGI появятся в ближайшее время. Вопрос в том, кто первый добьётся прорыва: сейчас в этой области работают и компьютерные корпорации, и лучшие учёные из академических кругов.
В августе 2022 года Кармак основал AGI-стартап Keen Technologies, который привлёк $20 млн [4] внешнего финансирования. Хотя Джон мог сам себе выписать чек на эту сумму, по его словам, привлечение внешних инвесторов поможет ему работать более дисциплинированно. Деньги нужны для приглашения нескольких талантливых инженеров (уже сделано) и сооружения небольшого локального вычислительного кластера, хотя, по словам Джона, большие вычисления выгоднее загружать в облако, но и без локальных серверов тоже трудно обсчитывать все текущие модели.
Среди прочего Джон Кармак поведал, как он погрузился в эту новую область. Нужно было с чего-то начать. Что делать, когда ваши представления о предметной области отрывочные и неупорядоченные?
«Я попросил список литературы у Ильи Суцкевера, ведущего научного сотрудника OpenAI. Он дал примерно 40 научных работ и сказал: „Если ты действительно усвоишь эти статьи, то будешь знать 90% всего, что сегодня актуально“. Я прочёл их — и знания в голове начали упорядочиваться».
Наверняка некоторым читателям захотелось сделать то же самое… К сожалению, письмо от Суцкевера к Кармаку не пережило политику двухлетнего автоудаления всех писем в компании Meta*, поэтому оригинал утерян.
Пользователи HN в комментариях [5] и отдельных тредах [6] составили предположительный перечень этих фундаментальных научных работ. Его можно рекомендовать всякому, кто хочет начать обучение или работу в области ИИ, чтобы максимально быстро разобраться в теме. Если сконцентрировать свои интеллектуальные ресурсы, то при наличии фундаментального образования можно усвоить материал из научных работ всего за несколько месяцев или даже недель. В любом случае, это гораздо быстрее, чем несколько лет обучения по специальности «Искусственный интеллект».
Итак, список.
Глубокое обучение:

VGGNet
Обработка естественного языка:

GPT-1 (Generative Pre-trained Transformer 1)
Обучение с подкреплением:
Эксперты предлагают добавить в этот список WaveNet [36] (генеративная модель для звука), Seq2Seq [37], несколько статей по оптимизаторам (например, Adam [38]), диффузионным моделям и некоторым последним вариантам архитектуры Transformer.
В принципе получился очень лаконичный, качественный и вполне исчерпывающий список научных работ для хорошего погружения в тему. Как говорил Илья Суцкевер, вы получите представление о 90% того, что нужно знать (хотя оставшиеся 10% могут быть сложнее, чем первые 90%).
Все научные работы доступны бесплатно на arXiv или через Sci-hub [39]. Некоторые специалисты рекомендуют погружаться в новую научную область с самых ранних статей в хронологическом порядке. Эти работы легче всего воспринимаются и знакомят с базовыми концепциями. А затем уже по пути исторического развития научной дисциплины — всё новое и новое. За один-два месяца можно усвоить десятилетие развития ИИ, например, 2006–2015 гг., и пойти дальше, вплоть до 2023 г. А затем подумать о том, что ещё никто в мире не реализовал. Наверное, такой алгоритм действий у Кармака.
Более полный список источников по ИИ см. здесь [40]. Там перечислены посты в блогах, видеолекции, ценные подкасты, даже несколько фильмов и научно-популярных книг, которые не только разъясняют теоретические исследования, но и разжигают интерес к ним. Например, мало кто смотрел документальный фильм AlphaGo [41] (2017) про историю компании Deep Mind (сейчас в составе Google) и её создателя — вундеркинда Демиса Хассабиса, который купил первый компьютер в 8 лет на призовые от выигранного шахматного турнира. Затем посвятил жизнь разработке компьютерных программ, которые обыграют человека в любую игру (смысл в том, что жизнь — это тоже игра [42], только с открытым миром, сложными правилами, множеством встроенных мини-игр типа романтических отношений, квестов и пасхалок).

Почти все современные системы работают на модели Transformer (см. вышеупомянутую научную статью Attention is all you need [14]). В принципе, этого достаточно для практической разработки. Для общего развития желательно также ознакомиться с архитектурой RNN/LSTM, хотя трансформеры по факту могут быть эффективнее во всех практических задачах. Также для фундаментальной подготовки рекомендуют изучить разные MANN [43] (дополненные памятью нейросети, Memory-Augmented Neural Network), в том числе Neural Turing Machine и последующие.
Хорошо бы разобрать отличие архитектур и посмотреть на оригинальные статьи с описанием каждой из них: простые языковые модели (GPT) и оригинальный Transformer упомянуты выше. Но есть ещё CTC, гибридные HMM-NN и преобразователи (RNN-T). Относительно недавно появились диффузионные модели [44].
Для знакомства с последними исследованиями см. топ-100 [45] самых цитируемых работ в ИИ за 2022 год. Там же есть список топ-5 за 2020, 2021 и 2022 годы, чтобы получить общее впечатление о том, какие открытия имеют наибольшее значение. Четыре главные темы последних лет: новые модели трансформеров, система для предсказания фолдинга белков AlphaFold [46] (предсказание свойств новых химических структур, в том числе новых лекарств или принципиально новых токсинов [47]), языковые модели, а также метод CLIP [48] (обучение парами текст+картинка).
Остаётся только предполагать, какое направление выберет Кармак. Мы называем это разными словами — нейроны, трансформеры, обратное распространение ошибки… Но всё это математика. А сейчас такое время, что тут можно совершить настоящую революцию за счёт на первый взгляд небольшой оптимизации.
Самые известные современные системы ИИ — GPT-3, Imagen, AlphaFold — состоят всего из нескольких тысяч строк кода основной логики, говорит Кармак, так что написание революционной программы вполне под силу одному человеку.

Жизнь поменяется незаметно, быстро и органично, как с появлением смартфонов. Через несколько лет никто и не вспомнит, как мы жили без сильного ИИ, словно он всегда был с нами. Это будет банальная и скучная история, которая напоминает энциклопедическую статью о MMAcevedo [51], наиболее раннем исполняемом образе человеческого
Такое видение сильно отличается от апокалиптических сценариев [53] адептов сингулярности Элиезера Юдковского и Ника Бострома. Первый разработал для человечества стратегию «смерти с достоинством», а второй предлагает людям отказаться от «полуанархического технологического развития» с передачей власти Мировому правительству.
*Meta признана в России экстремистской организацией и запрещена.
Автор: Анатолий Ализар
Источник [59]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/news/383401
Ссылки в тексте:
[1] статья: https://habr.com/ru/company/ruvds/blog/701556/
[2] интервью: https://dallasinnovates.com/exclusive-qa-john-carmacks-different-path-to-artificial-general-intelligence/
[3] оценке Кармака: https://dallasinnovates.com/carmacks-quest-artificial-general-intelligence/
[4] привлёк $20 млн: https://dallasinnovates.com/legendary-dallas-innovator-john-carmack-raises-20m-for-artificial-general-intelligence-startup-keen-technologies/
[5] комментариях: https://news.ycombinator.com/item?id=34638223
[6] отдельных тредах: https://twitter.com/vrungta/status/1623343807227105280
[7] ImageNet Classification with Deep Convolutional Neural Networks: https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
[8] Generative Adversarial Networks: https://arxiv.org/abs/1406.2661
[9] Very Deep Convolutional Networks for Large-Scale Image Recognition: https://arxiv.org/abs/1409.1556
[10] Deep Residual Learning for Image Recognition: https://arxiv.org/abs/1512.03385
[11] Going Deeper with Convolutions: https://arxiv.org/abs/1409.4842
[12] Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks: https://arxiv.org/abs/1511.06434
[13] Dynamic Routing Between Capsules: https://arxiv.org/abs/1710.09829
[14] Attention is all you need: https://arxiv.org/abs/1706.03762
[15] больших языковых моделей: https://en.wikipedia.org/wiki/Wikipedia:Large_language_models
[16] ChatGPT: https://chat.openai.com/
[17] неожиданно даже для своих создателей: https://www.technologyreview.com/2023/03/03/1069311/inside-story-oral-history-how-chatgpt-built-openai/
[18] Efficient Estimation of Word Representations in Vector Space: https://arxiv.org/abs/1301.3781
[19] GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding: https://arxiv.org/abs/1804.07461
[20] ELMo: https://arxiv.org/abs/1802.05365
[21] Improving Language Understanding by Generative Pre-Training: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
[22] BERT: https://arxiv.org/abs/1810.04805
[23] RoBERTa: A Robustly Optimized BERT Pretraining Approach: https://arxiv.org/abs/1907.11692
[24] Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context: https://arxiv.org/abs/1901.02860
[25] XLNet: Generalized Autoregressive Pretraining for Language Understanding: https://arxiv.org/abs/1906.08237
[26] GPT-2: https://github.com/openai/gpt-2
[27] T5: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer: https://arxiv.org/abs/1910.10683
[28] GPT-3: https://github.com/openai/gpt-3
[29] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale: https://arxiv.org/abs/2010.11929
[30] Language Models are Few-Shot Learners: https://arxiv.org/abs/2005.14165
[31] Q-Learning: http://dx.doi.org/10.1007/BF00992698
[32] SARSA: https://www.scirp.org/(S(351jmbntvnsjt1aadkposzje))/reference/referencespapers.aspx?referenceid=1887514
[33] DQN: https://arxiv.org/abs/1312.5602
[34] A3C: https://arxiv.org/abs/1602.01783
[35] PPO: https://arxiv.org/abs/1707.06347
[36] WaveNet: https://www.deepmind.com/blog/wavenet-a-generative-model-for-raw-audio
[37] Seq2Seq: https://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf
[38] Adam: https://arxiv.org/abs/1412.6980
[39] Sci-hub: https://sci-hub.se/
[40] здесь: https://docs.google.com/document/d/1bEQM1W-1fzSVWNbS4ne5PopB2b7j8zD4Jc3nm4rbK-U/edit
[41] AlphaGo: https://www.imdb.com/title/tt6700846/
[42] жизнь — это тоже игра: https://oliveremberton.com/2014/life-is-a-game-this-is-your-strategy-guide/
[43] MANN: https://arxiv.org/abs/2301.04589
[44] диффузионные модели: https://en.wikipedia.org/wiki/Diffusion_model
[45] топ-100: https://www.zeta-alpha.com/post/must-read-the-100-most-cited-ai-papers-in-2022
[46] AlphaFold: https://www.deepmind.com/research/highlighted-research/alphafold
[47] принципиально новых токсинов: https://habr.com/ru/company/ruvds/blog/684164/
[48] CLIP: https://openai.com/research/clip
[49] AlphaFold Protein Structure Database: massively expanding the structural coverage of protein-sequence space with high-accuracy models: https://academic.oup.com/nar/article/50/D1/D439/6430488
[50] хостинге: https://www.reg.ru/?rlink=reflink-717
[51] энциклопедическую статью о MMAcevedo: https://qntm.org/mmacevedo_ru
[52] мозга: http://www.braintools.ru
[53] апокалиптических сценариев: https://t.me/lab66/1158
[54] Джастин Танни: https://habr.com/ru/company/ruvds/blog/682150/
[55] Джей Фриман (saurik): https://habr.com/ru/company/ruvds/blog/688716/
[56] Михал Залевски: https://habr.com/ru/company/ruvds/blog/695386/
[57] Марк Руссинович: https://habr.com/ru/company/ruvds/blog/710268/
[58] Юрки Алакуйяла: https://habr.com/ru/company/ruvds/blog/713648/
[59] Источник: https://habr.com/ru/post/721150/?utm_source=habrahabr&utm_medium=rss&utm_campaign=721150
Нажмите здесь для печати.