- PVSM.RU - https://www.pvsm.ru -

Список ресурсов по машинному обучению. Часть 1

Список ресурсов по машинному обучению. Часть 1 - 1 [1]

Ранее мы говорили о разработке [2] системы квантовой связи и о том, как из простых студентов готовят [3] продвинутых программистов. Сегодня мы решилие еще раз (1 [4], 2 [5]) взглянуть в сторону темы машинного обучения и привести адаптированную (источник [6]) подборку полезных материалов, обсуждавшихся на Stack Overflow и Stack Exchange.

Генетические алгоритмы

  • SO: [7] генетические алгоритмы и искусственные нейронные сети;
  • SO: [8] генетические алгоритмы и генетическое программирование;

Классификация

  • SO: [9] когда выбирать классификатор;

Линейная регрессия

  • SE: [10] что такое одинаковая дисперсия ошибок модели линейной регрессии;
  • SE: [11] в чем разница между линейной регрессией y на x и линейной регрессией x на y;
  • SE: [12] интерпретация plot.lm() в R;
  • SE: [13] интерпретация графика квантиль-квантиль;
  • SE: [14] интерпретация графиков Residuals vs Fitted;
  • SE: [15] как обрабатывать аномальные значения;

Логистическая регрессия

  • SE: [16] получение предсказанных значений Y;
  • SE: [17] остатки в логистической регрессии;
  • SE: [18] различия между логистической регрессией и пробит-регрессией;
  • SE: [19] псевдо R-квадрат и логистическая регрессия;
  • SE: [20] как вычислить псевдо R-квадрат;

Проверка модели с помощью повторной выборки

  • SE: [21] разделение набора данных в R;
  • SE: [22] оценка c расщеплением выборки в R;
  • SE: [23] обучение с полным набором данных после перекрестной проверки;
  • SE: [24] самый лучший метод перекрестной проверки;
  • SE: [25] оценка дисперсии при перекрестной проверке по k-блокам;
  • SE: [26] может ли перекрестная проверка заменить контрольную выборку;
  • SE: [27] выбор количества блоков при перекрестной проверке по k-блокам;
  • SE: [28] перекрестная проверка для композиционного обучения;
  • SE: [29] как перекрестная проверка решает проблему переобучения;
  • SE: [30] почему работает бутстрэп;
  • SE: [31] статистический бутстрэп для выбора и оценки модели;
  • SE: [32] использование перекрестной проверки и бустрэпа для оценки ошибки предсказания;
  • SE: [33] что использовать для оценки эффективности классификации – перекрестную проверку или бутстрэп;
  • SO: [34] перекрестная проверка по k-блокам в R;

Глубокое обучение

  • SO: [35] в чем разница между тренировочными, проверочными и тестовыми наборами данных;
  • SO: [36] руководство по созданию нейронных сетей;
  • SO: [37] FAQ по нейронным сетям;

Нейронные сети прямого распространения

  • SO: [38] роль смещений в нейронных сетях;
  • SO: [39] выбираем количество скрытых слоев и узлов;
  • SO: [40] выбираем количество скрытых слоев и узлов;
  • SO: [41] выбираем количество скрытых слоев и узлов;
  • SO: [42] простая реализация нейронной сети;

Обработка естественного языка

  • SE: [43] alpha и beta в ЛРД;
  • SO: [44] кластеризация строк;
  • SO: [45] кластеризация текста с использованием расстояния Левенштейна;

Метод опорных векторов

  • SE: [46] самые популярные вопросы о методе опорных векторов;
  • SE: [47] что такое метод опорных векторов;
  • SE: [48] принципы метода опорных векторов;
  • SE: [49] сравнение метода опорных векторов и деревьев классификации;
  • SE: [50] метод опорных векторов и логистическая регрессия;
  • SE: [51] сравнение метода опорных векторов и логистической регрессии;
  • SE: [52] когда использовать метод опорных векторов, а когда логистическую регрессию;
  • SE: [53] в чем разница между методом опорных векторов и логистической регрессией;
  • SE: [54] оценка важности переменных в методе опорных векторов;
  • SE: [55] зачем нужно шкалирование по Платту;
  • SO: [56] в каком случае метод опорных векторов оказывается лучше нейронных сетей;
  • SO: [57] сравнение метода опорных векторов и нейронных сетей;

Деревья решений

  • SE: [58] слабая сторона деревьев решений;
  • SE: [59] как алгоритмы обучения на основе деревьев решений обрабатывают недостающие значения;
  • SE: [60] деревья решений практически всегда являются бинарными, так ли это;
  • SE: [61] что такое отклонение;
  • SO: [62] сравнение алгоритмов реализации деревьев решений по сложности или производительности;
  • SO: [63] «обрезка» ветвей деревьев в R;
  • SO: [64] как извлечь структуру дерева из функции ctree;
  • SO: [65] какова энтропия и объем получаемой информации при построении деревьев решений;

Случайный лес

  • SE: [66] оценка важности переменных в случайных лесах;
  • SE: [67] сравнение значения R-квадрат двух моделей случайного леса;
  • SE: [68] почему случайный лес не обрабатывает отсутствующие значения в предсказателях;
  • SE: [69] извлекаем данные из алгоритма случайного леса;
  • SE: [70] вопросы по реализации случайного леса на R;
  • SO: [71] реализация случайного леса на R;
  • SO: [72] вопросы по реализации случайного леса на R;

Алгоритмы бустинга деревьев

  • SE: [73] глубина дерева;
  • SE: [74] параметр n.minobsinnode в R;

Композиционное обучение

  • SE: [75] композиционные модели с caret;
  • SE: [76] бэггинг, бустинг, стэкинг;
  • SE: [77] материалы по реализации методов композиционного обучения;

Размерность Вапника — Червоненкиса

  • SE: [78] методы композиционного обучения повышают размерность Вапника – Червоненкиса;

Автор: Университет ИТМО

Источник [79]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/mashinnoe-obuchenie/112732

Ссылки в тексте:

[1] Image: http://habrahabr.ru/company/spbifmo/blog/277511/

[2] разработке: https://habrahabr.ru/company/spbifmo/blog/269127/

[3] готовят: https://habrahabr.ru/company/spbifmo/blog/275071/

[4] 1: https://habrahabr.ru/company/spbifmo/blog/271027/

[5] 2: https://habrahabr.ru/company/spbifmo/blog/276479/

[6] источник: https://github.com/ujjwalkarn/Machine-Learning-Tutorials

[7] SO:: http://stackoverflow.com/questions/1402370/when-to-use-genetic-algorithms-vs-when-to-use-neural-networks

[8] SO:: http://stackoverflow.com/questions/3819977/what-are-the-differences-between-genetic-algorithms-and-genetic-programming

[9] SO:: http://stackoverflow.com/questions/2595176/when-to-choose-which-machine-learning-classifier

[10] SE:: http://stats.stackexchange.com/questions/52089/what-does-having-constant-variance-in-a-linear-regression-model-mean/52107?stw=2#52107

[11] SE:: http://stats.stackexchange.com/questions/22718/what-is-the-difference-between-linear-regression-on-y-with-x-and-x-with-y?lq=1

[12] SE:: http://stats.stackexchange.com/questions/58141/interpreting-plot-lm

[13] SE:: http://stats.stackexchange.com/questions/101274/how-to-interpret-a-qq-plot?lq=1

[14] SE:: http://stats.stackexchange.com/questions/76226/interpreting-the-residuals-vs-fitted-values-plot-for-verifying-the-assumptions

[15] SE:: http://stats.stackexchange.com/questions/175/how-should-outliers-be-dealt-with-in-linear-regression-analysis

[16] SE:: http://stats.stackexchange.com/questions/25389/obtaining-predicted-values-y-1-or-0-from-a-logistic-regression-model-fit

[17] SE:: http://stats.stackexchange.com/questions/1432/what-do-the-residuals-in-a-logistic-regression-mean

[18] SE:: http://stats.stackexchange.com/questions/20523/difference-between-logit-and-probit-models#30909

[19] SE:: http://stats.stackexchange.com/questions/3559/which-pseudo-r2-measure-is-the-one-to-report-for-logistic-regression-cox-s

[20] SE:: http://stats.stackexchange.com/questions/8511/how-to-calculate-pseudo-r2-from-rs-logistic-regression

[21] SE:: http://stackoverflow.com/questions/13536537/partitioning-data-set-in-r-based-on-multiple-classes-of-observations

[22] SE:: http://stackoverflow.com/questions/22972854/how-to-implement-a-hold-out-validation-in-r

[23] SE:: http://stats.stackexchange.com/questions/11602/training-with-the-full-dataset-after-cross-validation

[24] SE:: http://stats.stackexchange.com/questions/103459/how-do-i-know-which-method-of-cross-validation-is-best

[25] SE:: http://stats.stackexchange.com/questions/31190/variance-estimates-in-k-fold-cross-validation

[26] SE:: http://stats.stackexchange.com/questions/18856/is-cross-validation-a-proper-substitute-for-validation-set

[27] SE:: http://stats.stackexchange.com/questions/27730/choice-of-k-in-k-fold-cross-validation

[28] SE:: http://stats.stackexchange.com/questions/102631/k-fold-cross-validation-of-ensemble-learning

[29] SE:: http://stats.stackexchange.com/questions/9053/how-does-cross-validation-overcome-the-overfitting-problem

[30] SE:: http://stats.stackexchange.com/questions/26088/explaining-to-laypeople-why-bootstrapping-works

[31] SE:: http://stats.stackexchange.com/questions/14516/understanding-bootstrapping-for-validation-and-model-selection?rq=1

[32] SE:: http://stats.stackexchange.com/questions/18348/differences-between-cross-validation-and-bootstrapping-to-estimate-the-predictio

[33] SE:: http://stats.stackexchange.com/questions/71184/cross-validation-or-bootstrapping-to-evaluate-classification-performance

[34] SO:: http://stackoverflow.com/questions/22909197/creating-folds-for-k-fold-cv-in-r-using-caret

[35] SO:: http://stackoverflow.com/questions/2976452/whats-is-the-difference-between-train-validation-and-test-set-in-neural-networ

[36] SO:: http://stackoverflow.com/questions/478947/what-are-some-good-resources-for-learning-about-artificial-neural-networks

[37] SO:: http://stackoverflow.com/questions/tagged/neural-network?sort=votes&pageSize=50

[38] SO:: http://stackoverflow.com/questions/2480650/role-of-bias-in-neural-networks

[39] SO:: http://stackoverflow.com/questions/3345079/estimating-the-number-of-neurons-and-number-of-layers-of-an-artificial-neural-ne

[40] SO:: http://stackoverflow.com/questions/10565868/multi-layer-perceptron-mlp-architecture-criteria-for-choosing-number-of-hidde?lq=1

[41] SO:: http://stackoverflow.com/questions/9436209/how-to-choose-number-of-hidden-layers-and-nodes-in-neural-network/2

[42] SO:: http://stackoverflow.com/questions/15395835/simple-multi-layer-neural-network-implementation

[43] SE:: http://datascience.stackexchange.com/questions/199/what-does-the-alpha-and-beta-hyperparameters-contribute-to-in-latent-dirichlet-a

[44] SO:: http://stackoverflow.com/questions/8196371/how-clustering-works-especially-string-clustering

[45] SO:: http://stackoverflow.com/questions/21511801/text-clustering-with-levenshtein-distances

[46] SE:: http://stats.stackexchange.com/questions/tagged/svm

[47] SE:: http://stats.stackexchange.com/questions/3947/help-me-understand-support-vector-machines

[48] SE:: http://stats.stackexchange.com/questions/23391/how-does-a-support-vector-machine-svm-work

[49] SE:: http://stats.stackexchange.com/questions/57438/why-is-svm-not-so-good-as-decision-tree-on-the-same-data

[50] SE:: http://stats.stackexchange.com/questions/43996/kernel-logistic-regression-vs-svm

[51] SE:: http://stats.stackexchange.com/questions/58684/regularized-logistic-regression-and-support-vector-machine

[52] SE:: http://stats.stackexchange.com/questions/95340/svm-v-s-logistic-regression

[53] SE:: https://www.quora.com/Support-Vector-Machines/What-is-the-difference-between-Linear-SVMs-and-Logistic-Regression

[54] SE:: http://stats.stackexchange.com/questions/2179/variable-importance-from-svm

[55] SE:: http://stats.stackexchange.com/questions/5196/why-use-platts-scaling

[56] SO:: http://stackoverflow.com/questions/6699222/support-vector-machines-better-than-artificial-neural-networks-in-which-learn?rq=1

[57] SO:: http://stackoverflow.com/questions/11632516/what-are-advantages-of-artificial-neural-networks-over-support-vector-machines

[58] SE:: http://stats.stackexchange.com/questions/1292/what-is-the-weak-side-of-decision-trees

[59] SE:: http://stats.stackexchange.com/questions/96025/how-do-decision-tree-learning-algorithms-deal-with-missing-values-under-the-hoo

[60] SE:: http://stats.stackexchange.com/questions/12187/are-decision-trees-almost-always-binary-trees

[61] SE:: http://stats.stackexchange.com/questions/6581/what-is-deviance-specifically-in-cart-rpart

[62] SO:: https://stackoverflow.com/questions/9979461/different-decision-tree-algorithms-with-comparison-of-complexity-or-performance

[63] SO:: http://stackoverflow.com/questions/15318409/how-to-prune-a-tree-in-r

[64] SO:: http://stackoverflow.com/questions/8675664/how-to-extract-tree-structure-from-ctree-function

[65] SO:: http://stackoverflow.com/questions/1859554/what-is-entropy-and-information-gain

[66] SE:: http://stats.stackexchange.com/questions/12605/measures-of-variable-importance-in-random-forests

[67] SE:: http://stats.stackexchange.com/questions/13869/compare-r-squared-from-two-different-random-forest-models

[68] SE:: http://stats.stackexchange.com/questions/98953/why-doesnt-random-forest-handle-missing-values-in-predictors

[69] SE:: http://stats.stackexchange.com/questions/21152/obtaining-knowledge-from-a-random-forest

[70] SE:: http://stats.stackexchange.com/questions/81609/whether-preprocessing-is-needed-before-prediction-using-finalmodel-of-randomfore

[71] SO:: http://stackoverflow.com/questions/8370455/how-to-build-random-forests-in-r-with-missing-na-values

[72] SO:: http://stackoverflow.com/questions/20537186/getting-predictions-after-rfimpute

[73] SE:: http://stats.stackexchange.com/questions/16501/what-does-interaction-depth-mean-in-gbm

[74] SE:: http://stats.stackexchange.com/questions/30645/role-of-n-minobsinnode-parameter-of-gbm-in-r

[75] SE:: http://stats.stackexchange.com/questions/27361/stacking-ensembling-models-with-caret

[76] SE:: http://stats.stackexchange.com/questions/18891/bagging-boosting-and-stacking-in-machine-learning

[77] SE:: http://stats.stackexchange.com/questions/32703/resources-for-learning-how-to-implement-ensemble-methods

[78] SE:: http://stats.stackexchange.com/questions/78076/do-ensemble-techniques-increase-vc-dimension

[79] Источник: https://habrahabr.ru/post/277511/