Как прошел 2019 год в области математики и Computer Science

в 9:53, , рубрики: big data, computer science, Блог компании OTUS. Онлайн-образование, математика

Перевод статьи подготовлен специально для студентов базового и продвинутого курсов «Математика для Data Science».

Как прошел 2019 год в области математики и Computer Science - 1


Математики и информатики за прошедший год добились больших успехов в теории чисел, теории графов, машинном обучении и квантовых вычислениях, даже пересмотрели наши фундаментальные понятия математики и нейронных сетей.

Для математиков и специалистов по computer science 2019 год был годом повторений и пристального изучения. Одни пересматривали основополагающие принципы, в том время как другие находили поразительно простые доказательства, новые методы решения проблем или постигали неожиданные решения давних задач. Некоторые из этих достижений уже нашли широкое применение в физике и других научных дисциплинах. Другие же существуют исключительно в качестве теории (или просто для развлечения), и с практической точки зрения на сегодняшний день не несут никакой пользы.

Quanta же решила осветить попытку длиной в десятилетие избавить математику от жесткого знака равенства и заменить его на более гибкую концепцию «эквивалентности». Также мы рассказывали о новых идеях в общей теории нейронных сетей, которые могли бы подарить специалистам по computer science желанную теоретическую основу в вопросах успешной работы алгоритмов глубокого обучения.

Между тем, обычные объекты математики, такие как матрицы и сети, раскрывали неожиданные новые идеи в коротких элегантных доказательствах, а десятилетние проблемы теории чисел наконец получили решения. Математики узнали больше о том, как регулярность и порядок возникают в хаотических системах, случайных числах и других, казалось бы, беспорядочных областях. Так или иначе машинное обучение становилось все мощнее, меняло подходы и сферы научных исследований, в то время как квантовые компьютеры, вероятно, достигли критической точки.

Заложение фундамента понимания

Что, если знак равенства – основа всей математики – был всего лишь ошибкой? Все большее число математиков, возглавляемых отчасти Якобом Лурье из Института Перспективных Исследований, хотят переписать науку, заменив «равенство» более свободным языком «эквивалентности». «Сегодня основы математики строятся на наборах объектов, называемых множествами, но десять лет назад несколько математиков начали работать с более универсальными группами, называемыми категориями, которые передают больше информации, чем наборы и отражают больше возможных отношений, чем «равенство». С 2006 года Лурье опубликовал более тысячи страниц математической теории о том, как перевести современную математику на язык теории категорий.

Не так давно другие математики начали устанавливать основополагающие принципы области, в которой нет преобладающей догмы, которую можно отбросить: области машинного обучения. Технология, лежащая в основе современных наиболее успешных алгоритмов машинного обучения, становится все более необходимой в науке и обществе, однако по-настоящему мало кто понимает, как она работает. В январе мы писали о предпринимаемых попытках по созданию теории нейронных сетей, которая объясняет влияние структуры на способности сети.

Новый взгляд на старые проблемы

Просто потому, что путь кажется знакомым, нельзя сказать, что в нем не осталось никаких секретов. Математики, физики и инженеры веками работали с математическими терминами, такими как «собственные значения» и «собственные вектора», используя их для матриц, отражающих преобразования объектов разными способами. В августе трое физиков и один математик вывели новую простую формулу, которая по-новому связывает два этих набора величин, она значительно упростила работу физиков в изучении нейтрино и дала начало новым математическим открытиям. После публикации своего исследования ученые узнали, что эта связь была обнаружена давно, но все время игнорировалась.

Рутинные будни computer science в один прекрасный день озарились открытием одного математика, внезапно решившего одну из самых больших открытых проблем в этой области, доказав гипотезу «чувствительности» (https://www.quantamagazine.org/mathematician-solves-computer-science-conjecture-in-two-pages-20190725/), которая описывает, насколько вероятно, что вы сможете повлиять на выходные данные микросхемы изменив данные на одном входе. Доказательство оказалось обезоруживающе простым и достаточно компактным, чтобы быть обобщенным в одном твите. В то же время в мире теории графов другая спартанская статья (на этот раз весом всего в три страницы) опровергла гипотезу десятилетней давности о том, каким образом лучше выбирать цвета для узлов сети, гипотезу, которая влияет на карты, расположение сидений и судоку.

Сигнал в шуме

Математика часто предполагает нахождение какого-то порядка внутри беспорядка, извлечение скрытых закономерностей из кажущейся случайности. В мае одна команда использовала так называемые магические функции, чтобы показать, что наилучшие способы расположения точек в восьмимерном и 24-мерном пространствах также универсально оптимальны, то есть они решают бесконечное количество задач, выходящих за рамки плотной упаковки равных сфер. До сих пор неясно, почему магические функции настолько универсальны. «В математике есть некоторые задачи, которые решаются с помощью настойчивости и грубой силы», — сказал математик Генри Кон. «Кроме того, бывают такие моменты, когда кажется будто математика хочет, чтобы что-то случилось.»

Другие ученые же находили закономерности в непредсказуемом. Сара Палузе доказала, что числовые последовательности, называемые «полиномиальными прогрессиями», неизбежны в достаточно больших наборах чисел, даже если числа в них выбраны случайным образом. Еще математики доказали, что при определенных условиях закономерности возникают в дважды случайном процессе анализа форм случайным образом в случае, если сами формы также случайны. Далее, укрепляя связь между хаосом и порядком, в марте Тим Остин доказал, что все математические описания изменений, в конечном счете представляют собой смесь упорядоченных и случайных систем – и даже упорядоченные нуждаются в элементе случайности. Наконец, в реальном мире физики работают над пониманием того, когда и как хаотические системы, начиная от мерцающих светлячков заканчивая стреляющими нейронами, могут синхронизироваться и двигаться как единое целое.

Игра с числами

В начальной школе мы все учились умножать старым добрым способом, но в марте 2019 года два математика описали более быстрый метод умножения. Вместо того, чтобы умножать каждую цифру первого числа на каждую цифру второго, что достаточно бесполезно при больших числах, вычислитель может комбинировать ряд методов, который включает в себя сложение, умножение и перестановку цифр, чтобы в итоге получить результат за гораздо меньшее количество шагов. На самом деле это самый эффективный способ умножения чисел на сегодняшний день.

Другие интересные открытия в мире чисел в этом году рассказывают о том, как выразить число 33 в виде суммы трех кубов, доказав тем самым давнюю гипотезу о том, каким способом можно аппроксимировать иррациональные числа, например число Пи, и углубить связи между суммами и произведениями набора чисел.

Растущие проблемы машинного обучения

Ученые все чаще обращаются к машинам за помощью не только в получении данных, но и в их осмыслении. В марте мы говорили о том, что машинное обучение меняет темпы роста науки. Процесс, называемый генеративным моделированием, например, может быть «третьим способом» формулирования и проверки гипотез после традиционных методов наблюдения и моделирования, хотя многие все еще рассматривают его просто как упрощенный метод обработки информации. В любом случае, как писал Дэн Фальк, машинное обучение «меняет вкус научного открытия и, безусловно, упрощает путь к нему.»

Если говорить о том, в чем за прошедший год помогло нам машинное обучение, стоит отметить нахождение исследователями алгоритмов, которые потенциально могут предсказать землетрясения на северо-западе Тихого океана, а многопрофильная команда тем временем разбиралась, как работает зрение, создавая математическую модель, основанную на анатомии мозга. Но до этого еще далеко: команда из Германии объявила, что машины часто не могут распознать изображения, потому что фокусируются на текстурах, а не на формах, а нейронная сеть по прозвищу BERT научилась побеждать людей в тестах на понимание прочитанного, только для того, чтобы исследователи задались вопросом, действительно ли машина что-то понимает или просто лучше справляется с тестированием.

Следующие шаги в развитии квантовых компьютеров

После долгих лет неведения в прошлом году исследователи, наконец, достигли важного этапа понимания в вопросе квантовых вычислений – хотя, как и во всем квантовом, это понимание пронизано неопределенностью. Обычные классические компьютеры построены на двоичной системе счисления и оперируют битами, тогда как квантовые компьютеры оперируют кубитами, которые используют квантовые правила для увеличения вычислительной мощности. В 2012 году Джон Прескилл ввел термин «квантовое превосходство», чтобы описать ту точку, в которой квантовый компьютер превосходит классический. Сообщения о более быстрых квантовых системах заставили многих инсайдеров подозревать, что мы могли достигнуть этой точки в 2019 году, и в октябре Google объявила, что этот момент наконец наступил. Однако IBM, как конкурент Google в этом вопросе, не согласилась с этим утверждением, заявив, что оно вызывает «много скептицизма». Тем не менее очевидный прогресс в создании жизнеспособных квантовых компьютеров на протяжении многих лет также побудил исследователей, таких как Стефани Венер, начать строить квантовый интернет следующего поколения.

На этом перевод статьи подошел к концу. А мы приглашаем вас на дни открытых дверей по базовому и продвинутому курсам «Математика для Data Science», для более подробного знакомства с программой курсов.

Автор: MaxRokatansky

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js