- PVSM.RU - https://www.pvsm.ru -
NeurIPS (Neural Information Processing Systems [1]) – самая большая конференция в мире по машинному обучению и искусственному интеллекту и главное событие в мире deep learning.
Будем ли мы, DS-инженеры, в новом десятилетии осваивать еще и биологию, лингвистику, психологию? Расскажем в нашем обзоре.

В этом году конференция собрала более 13500 человек из 80 стран в Ванкувере (Канада). Сбербанк не первый год представляет Россию на конференции — команда DS рассказала о внедрении ML в банковские процессы, о ML-соревновании и о возможностях платформы Sberbank DS. Какими же были основные тренды 2019 года в ML-коммьюнити? Рассказывают участники конференции: Андрей Черток [2] и Татьяна Шаврина [3].
В этом году на NeurIPS было принято более 1400 статей — алгоритмы, новые модели и новые применения к новым данным. Ссылка на все материалы [4]
1. Интерпретируемость моделей и новая методология ML
Заглавная тема конференции — интерпретация и доказательства, почему мы получаем те или иные результаты. Можно долго рассуждать о философской важности интерпретации “черного ящика”, но больше было реальных методик и технических наработок в этой сфере.
Методология воспроизводимости моделей и извлечения знаний из них — новый инструментарий науки. Модели могут служить инструментом получения нового знания и его проверки, и воспроизводимым должен быть каждый этап препроцессинга, обучения и применения модели.
Существенная доля публикаций посвящена не построению моделей и инструментов, а проблемам обеспечения безопасности, прозрачности и проверяемости результатов. В частности, появился отдельный стрим об атаках на модель (adversarial attacks), причем рассматриваются варианты как атаки на обучение, так и атаки на применение.
Статьи:

ExBert.net показывает интерпретацию моделей для задач обработки текста
2. Мультидисциплинарность
Чтобы обеспечить надежную проверку и разработать механизмы проверки и пополнения знаний, нужны специалисты смежных областей, одновременно обладающие компетенциями в ML и в предметной области (медицине, лингвистике, нейробиологии, образовании и т.д.). Особо стоит отметить более значимое присутствие работ и выступлений по нейронаукам и когнитивным наукам – происходит сближение специалистов и заимствование идей.
Помимо этого сближения, намечается мультидисциплинарность в совместной обработке информации из различных источников: текст и фото, текст и игры, графовые бд + текст и фото.
Статьи:

Две модели — стратег и исполнитель — на основе RL и NLP играют в онлайн-стратегию
3. Reasoning
Усиление искусственного интеллекта – движение в сторону самообучающихся систем, “осознанных”, рассуждающих и аргументирующих (reasoning). В частности, развивается causal inference и commonsense reasoning. Часть докладов посвящена мета-обучению (о том, как учиться учиться) и соединению DL-технологий с логикой 1 и 2 порядка — термин Artificial General Intelligence (AGI) становится обычным термином в выступлениях спикеров.
Статьи:
4.Reinforcement Learning
Большая часть работ продолжает развивать традиционные направления RL — DOTA2, Starcraft, соединение архитектур с компьютерным зрением, NLP, графовыми БД.
Отдельный день конференции был посвящен RL-воркшопу, на котором была представлена архитектура Optimistic Actor Critic Model, превосходящая все предыдущие, в частности Soft Actor Critic.
Статьи:

Игроки в StarCraft сражаются с моделью Alphastar (DeepMind)
5. GAN
Генеративные сети все еще в фокусе внимания: много работ используют vanilla GANы для математических доказательств, а также применяют их в новых, необычных вариантах (графовые генеративные модели, работа с рядами, применение к причинно-следственным связям в данных и т.д.).
Статьи:
Поскольку работ было принято более 1400 [4] ниже мы расскажем о самых важных выступлениях.
Ссылка [28]
Слайды и видео [29]
Доклад посвящен общей методологии машинного обучения и перспективам, меняющим индустрию прямо сейчас – перед каким распутьем мы стоим? Как работает и эволюция, и почему мы так мало используем то, что уже хорошо знаем о развитии естественных систем?
Индустриальное развитие ML во многом совпадает с вехами развития компании Google, из года в год публикующей свои исследования на NeurIPS:
Сегодня целая индустрия занимается вопросами безопасности данных, объединения и воспроизведения результатов обучения на локальных устройствах.
Federated learning [31]– направление ML, в котором отдельные модели учатся независимо друг от друга, а затем объединяются в единую модель (без централизации исходных данных), с поправками на редкие события, аномалии, персонализацию и т.д. Все устройства с Android по сути – единый вычислительный суперкомпьютер для Google.
Генеративные модели на основании federated learning – будущее перспективное направление по мнению Google, которое находится “в ранних стадиях экспоненциального роста”. GANы, по мнению лектора, способны научиться воспроизводить массовое поведение популяций живых организмов, алгоритмы
На примере двух простых архитектур GAN показывается, что в них поиск пути оптимизации блуждает по кругу, а значит, как таковая оптимизация не происходит. При этом эти модели очень успешно моделируют эксперименты, которые биологи ставят над популяциями бактерий, заставляя их учиться новым стратегиям поведения в поисках пищи. Можно сделать вывод о том, что жизнь работает иначе, чем функция оптимизации.

Блуждающая оптимизация GAN
Все то, что мы делаем в рамках машинного обучения сейчас – это узкие и крайне формализованные задачи, в то время как эти формализмы плохо обобщаются и не соответствуют нашему предметному знанию в таких областях, как нейрофизиология и биология.
Что действительно стоит позаимствовать из области нейрофизиологии в ближайшей перспективе – это новые архитектуры нейронов и немного пересмотреть механизмы обратного распространения ошибки.
Сам человеческий
Обучение индивидуального
Что мы можем перенять в алгоритмы ML уже сейчас:
С этой точки зрения практика SOTA решений — пагубная и должна быть пересмотрена в угоду развитию общих задач (benchmarks).
Видео и слайды [32]
Доклад посвящен проблеме интерпретации моделей машинного обучения и методологии их непосредственной проверки и верификации. Любая обученная ML-модель может быть воспринята как источник знаний, которые из нее необходимо извлечь.
Во многих областях, особенно в медицине, применение модели невозможно без извлечения этих скрытых знаний и интерпретации результатов модели – иначе мы не будем уверены, что результаты будут стабильны, неслучайны, надежны, не убьют пациента. Целое направление методологии работы развивается внутри парадигмы deep learning и выходит за ее пределы – veridical data science. Что это такое?
Мы хотим достичь такого качества научных публикаций и воспроизводимости моделей, чтобы они были:
Эти три принципа образуют основу новой методологии. Как можно проверять модели ML на соответствие этим критериям? Самый простой способ – строить сразу интерпретируемые модели (регрессии, деревья решений). Однако, мы хотим получить и непосредственные плюсы deep learning.
Несколько существующих способов работать с проблемой:

Adversarial attack на свинью [33]
Ошибки моделирования дорого стоят всем: яркий пример — работа Рейнхарта и Рогова "Growth in a time of debt [34]" повлияла на экономическую политику многих европейских стран и вынудила их вести политику экономии, но внимательная перепроверка данных и их обработки годы спустя показала противоположный результат!
У любой ML-технологии есть свой жизненный цикл от внедрения до внедрения. Задача новой методологии – сделать проверку на трех основных принципах на каждом этапе жизни модели.
Итоги:
Лекция, посвященная моделированию поведения человека, его технологическим основам и перспективам применений.
Моделирование поведения человека можно разделить на:
Каждое из этих типов поддается моделированию при помощи ML, но с абсолютно разной входной информацией и признаками. У каждого типа также имеются свои этические проблемы, которые проходит каждый проект:
Индивидуальное поведение
В большей степени касается темы Computer Vision – распознавание эмоций человека, его реакций. Возможно только в контексте, во времени либо с относительной шкалой его собственной вариативности эмоций. На слайде – распознавание эмоций Моны Лизы при помощи контекста из эмоционального спектра средиземноморских женщин. Результат: улыбка радости, но с презрением и отвращением. Причина скорее всего в техническом способе определения “нейтральной” эмоции.
Поведение небольшой группы лиц
Пока хуже всего моделируется из-за недостаточности информации. В качестве примера показывались работы 2018 – 2019 гг. на десятках людей X десятках роликов (ср. датасеты изображений 100к++). Для наилучшего моделирования в рамках этой задачи необходима мультимодальная информация, желательно с датчиков на теле-альтиметр, термометр, запись с микрофона и т.д.
Массовое поведение
Самое развитое направление, так как заказчиком выступают ООН и многие государства. Камеры наружного наблюдения, данные телефонных вышек – биллинг, смс, звонки, данные о перемещении между границами государств – все это дает очень надежное представление о перемещении потоков людей, о социальных нестабильностях. Потенциальные применения технологии: оптимизация спасательных операций, оказание помощи и своевременная эвакуация населения при ЧС. Используемые модели в основном пока плохо интерпретируются – это различные LSTM и сверточные сети. Была краткая ремарка, что ООН лоббирует новый закон, который обяжет европейский бизнес делиться обезличенными данными, необходимыми для любых исследований.
Слайды [36]
В лекции Иошуа Бенжио deep learning встречается с нейронаукой на уровне целеполагания.
Бенджио выделяет два основных типа задач по методологии нобелевского лауреата Дэниэла Канемана (книга «Думай медленно, решай быстро [37]» )
тип 1 — Система 1, неосознанные действия, которые мы делаем «на автомате» (древний
тип 2 — Система 2, осознанные действия (кора головного
ИИ пока что достигает достаточных высот лишь в задачах первого типа — тогда как наша задача привести его ко второму, научив выполнять мультидисциплинарные операции и оперировать логикой, высокоуровневыми когнитивными навыками.
Для достижения этой цели предлагается:
Вместо заключения оставляем запись invited talk: Бенжио — один из многих ученых, которые пытаются расширить область ML за пределы проблем оптимизации, SOTA и новых архитектур.
Открытым остается вопрос, насколько соединение проблем сознания, влияния языка на
Спасибо!
Автор: Rybolos
Источник [38]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/iskusstvenny-j-intellekt/344392
Ссылки в тексте:
[1] Neural Information Processing Systems: https://neurips.cc
[2] Андрей Черток: https://habr.com/ru/users/achertok/
[3] Татьяна Шаврина: https://habr.com/ru/users/Rybolos/
[4] Ссылка на все материалы: https://papers.nips.cc/book/advances-in-neural-information-processing-systems-32-2019
[5] Veridical Data Science: https://arxiv.org/pdf/1901.08152.pdf
[6] This Looks Like That: Deep Learning for Interpretable Image Recognition: https://papers.nips.cc/paper/9095-this-looks-like-that-deep-learning-for-interpretable-image-recognition
[7] A Benchmark for Interpretability Methods in Deep Neural Networks: https://papers.nips.cc/paper/9167-a-benchmark-for-interpretability-methods-in-deep-neural-networks
[8] Towards Interpretable Reinforcement Learning Using Attention Augmented Agents: https://papers.nips.cc/paper/9400-towards-interpretable-reinforcement-learning-using-attention-augmented-agents
[9] A Debiased MDI Feature Importance Measure for Random Forests: https://papers.nips.cc/paper/9017-a-debiased-mdi-feature-importance-measure-for-random-forests
[10] Knowledge Extraction with No Observable Data: https://papers.nips.cc/paper/8538-knowledge-extraction-with-no-observable-data
[11] A Step Toward Quantifying Independently Reproducible Machine Learning Research: https://papers.nips.cc/paper/8787-a-step-toward-quantifying-independently-reproducible-machine-learning-research
[12] Interpreting and improving natural-language processing (in machines) with natural language-processing (in the brain): https://papers.nips.cc/paper/9633-interpreting-and-improving-natural-language-processing-in-machines-with-natural-language-processing-in-the-brain.pdf
[13] Learning by Abstraction: The Neural State Machine: https://papers.nips.cc/paper/8825-learning-by-abstraction-the-neural-state-machine.pdf
[14] Hierarchical Decision Making by Generating and Following Natural Language Instructions: https://arxiv.org/abs/1906.00744
[15] Heterogeneous Graph Learning for Visual Commonsense Reasoning: https://papers.nips.cc/paper/8544-heterogeneous-graph-learning-for-visual-commonsense-reasoning
[16] Bridging Machine Learning and Logical Reasoning by Abductive Learning : https://papers.nips.cc/paper/8548-bridging-machine-learning-and-logical-reasoning-by-abductive-learning
[17] Implicitly learning to reason in first-order logic: https://papers.nips.cc/paper/8599-implicitly-learning-to-reason-in-first-order-logic
[18] PHYRE: A New Benchmark for Physical Reasoning: https://papers.nips.cc/paper/8752-phyre-a-new-benchmark-for-physical-reasoning
[19] Quantum Embedding of Knowledge for Reasoning: https://papers.nips.cc/paper/8797-quantum-embedding-of-knowledge-for-reasoning
[20] Better Exploration with Optimistic Actor Critic: https://papers.nips.cc/paper/8455-better-exploration-with-optimistic-actor-critic
[21] ChainerRL: A Deep Reinforcement Learning Library: https://drive.google.com/file/d/1C-uJ4CjjzPuKG3APQRAI1-1AKnUFNv9y/view?usp=drivesdk
[22] Dream to Control: Learning Behaviors by Latent Imagination: https://arxiv.org/pdf/1912.01603.pdf
[23] Материалы воркшопа: https://sites.google.com/view/deep-rl-workshop-neurips-2019/home
[24] Mining GOLD Samples for Conditional GANs: https://papers.nips.cc/paper/8848-mining-gold-samples-for-conditional-gans
[25] Progressive Augmentation of GANs: https://papers.nips.cc/paper/8855-progressive-augmentation-of-gans
[26] Modeling Tabular data using Conditional GAN: https://papers.nips.cc/paper/8953-modeling-tabular-data-using-conditional-gan
[27] papers.nips.cc/paper/9377-a-domain-agnostic-measure-for-monitoring-and-evaluating-gans: https://papers.nips.cc/paper/9377-a-domain-agnostic-measure-for-monitoring-and-evaluating-gans
[28] Ссылка: https://neurips.cc/Conferences/2019/Schedule?showEvent=15487
[29] Слайды и видео : https://slideslive.com/38921748/social-intelligence
[30] мозг: http://www.braintools.ru
[31] Federated learning : https://ai.googleblog.com/2017/04/federated-learning-collaborative.html
[32] Видео и слайды: https://slideslive.com/38921720/veridical-data-science
[33] на свинью : https://neurips.cc/Conferences/2019/Schedule?showEvent=14481
[34] Growth in a time of debt: https://en.wikipedia.org/wiki/Growth_in_a_Time_of_Debt
[35] github.com/ChrisCummins/paper-end2end-dl: https://github.com/ChrisCummins/paper-end2end-dl/
[36] Слайды: https://drive.google.com/file/d/1zbe_N8TmAEvPiKXmn6yZlRkFehsAUS8Z/view
[37] Думай медленно, решай быстро: https://ru.wikipedia.org/wiki/%D0%94%D1%83%D0%BC%D0%B0%D0%B9_%D0%BC%D0%B5%D0%B4%D0%BB%D0%B5%D0%BD%D0%BD%D0%BE%E2%80%A6_%D1%80%D0%B5%D1%88%D0%B0%D0%B9_%D0%B1%D1%8B%D1%81%D1%82%D1%80%D0%BE
[38] Источник: https://habr.com/ru/post/485384/?utm_campaign=485384&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.