Список ресурсов по машинному обучению. Часть 1

в 6:57, , рубрики: Блог компании Университет ИТМО, машинное обучение

Список ресурсов по машинному обучению. Часть 1 - 1

Ранее мы говорили о разработке системы квантовой связи и о том, как из простых студентов готовят продвинутых программистов. Сегодня мы решилие еще раз (1, 2) взглянуть в сторону темы машинного обучения и привести адаптированную (источник) подборку полезных материалов, обсуждавшихся на Stack Overflow и Stack Exchange.

Генетические алгоритмы

  • SO: генетические алгоритмы и искусственные нейронные сети;
  • SO: генетические алгоритмы и генетическое программирование;

Классификация

  • SO: когда выбирать классификатор;

Линейная регрессия

  • SE: что такое одинаковая дисперсия ошибок модели линейной регрессии;
  • SE: в чем разница между линейной регрессией y на x и линейной регрессией x на y;
  • SE: интерпретация plot.lm() в R;
  • SE: интерпретация графика квантиль-квантиль;
  • SE: интерпретация графиков Residuals vs Fitted;
  • SE: как обрабатывать аномальные значения;

Логистическая регрессия

  • SE: получение предсказанных значений Y;
  • SE: остатки в логистической регрессии;
  • SE: различия между логистической регрессией и пробит-регрессией;
  • SE: псевдо R-квадрат и логистическая регрессия;
  • SE: как вычислить псевдо R-квадрат;

Проверка модели с помощью повторной выборки

  • SE: разделение набора данных в R;
  • SE: оценка c расщеплением выборки в R;
  • SE: обучение с полным набором данных после перекрестной проверки;
  • SE: самый лучший метод перекрестной проверки;
  • SE: оценка дисперсии при перекрестной проверке по k-блокам;
  • SE: может ли перекрестная проверка заменить контрольную выборку;
  • SE: выбор количества блоков при перекрестной проверке по k-блокам;
  • SE: перекрестная проверка для композиционного обучения;
  • SE: как перекрестная проверка решает проблему переобучения;
  • SE: почему работает бутстрэп;
  • SE: статистический бутстрэп для выбора и оценки модели;
  • SE: использование перекрестной проверки и бустрэпа для оценки ошибки предсказания;
  • SE: что использовать для оценки эффективности классификации – перекрестную проверку или бутстрэп;
  • SO: перекрестная проверка по k-блокам в R;

Глубокое обучение

  • SO: в чем разница между тренировочными, проверочными и тестовыми наборами данных;
  • SO: руководство по созданию нейронных сетей;
  • SO: FAQ по нейронным сетям;

Нейронные сети прямого распространения

  • SO: роль смещений в нейронных сетях;
  • SO: выбираем количество скрытых слоев и узлов;
  • SO: выбираем количество скрытых слоев и узлов;
  • SO: выбираем количество скрытых слоев и узлов;
  • SO: простая реализация нейронной сети;

Обработка естественного языка

  • SE: alpha и beta в ЛРД;
  • SO: кластеризация строк;
  • SO: кластеризация текста с использованием расстояния Левенштейна;

Метод опорных векторов

  • SE: самые популярные вопросы о методе опорных векторов;
  • SE: что такое метод опорных векторов;
  • SE: принципы метода опорных векторов;
  • SE: сравнение метода опорных векторов и деревьев классификации;
  • SE: метод опорных векторов и логистическая регрессия;
  • SE: сравнение метода опорных векторов и логистической регрессии;
  • SE: когда использовать метод опорных векторов, а когда логистическую регрессию;
  • SE: в чем разница между методом опорных векторов и логистической регрессией;
  • SE: оценка важности переменных в методе опорных векторов;
  • SE: зачем нужно шкалирование по Платту;
  • SO: в каком случае метод опорных векторов оказывается лучше нейронных сетей;
  • SO: сравнение метода опорных векторов и нейронных сетей;

Деревья решений

  • SE: слабая сторона деревьев решений;
  • SE: как алгоритмы обучения на основе деревьев решений обрабатывают недостающие значения;
  • SE: деревья решений практически всегда являются бинарными, так ли это;
  • SE: что такое отклонение;
  • SO: сравнение алгоритмов реализации деревьев решений по сложности или производительности;
  • SO: «обрезка» ветвей деревьев в R;
  • SO: как извлечь структуру дерева из функции ctree;
  • SO: какова энтропия и объем получаемой информации при построении деревьев решений;

Случайный лес

  • SE: оценка важности переменных в случайных лесах;
  • SE: сравнение значения R-квадрат двух моделей случайного леса;
  • SE: почему случайный лес не обрабатывает отсутствующие значения в предсказателях;
  • SE: извлекаем данные из алгоритма случайного леса;
  • SE: вопросы по реализации случайного леса на R;
  • SO: реализация случайного леса на R;
  • SO: вопросы по реализации случайного леса на R;

Алгоритмы бустинга деревьев

  • SE: глубина дерева;
  • SE: параметр n.minobsinnode в R;

Композиционное обучение

  • SE: композиционные модели с caret;
  • SE: бэггинг, бустинг, стэкинг;
  • SE: материалы по реализации методов композиционного обучения;

Размерность Вапника — Червоненкиса

  • SE: методы композиционного обучения повышают размерность Вапника – Червоненкиса;

Автор: Университет ИТМО

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js