«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни»

в 7:46, , рубрики: f-критерий, f-распределение, f-тест, t-критерий, t-распределение, t-тест, z-критерий Фишера, z-распределение, z-тест, Алгоритмы, Анализ и проектирование систем, бета распределение, биноминальное распределение, гамма распределение, геометрическое рапределение, гипергеометрическое распределение, двойное показательное, двойное экспоненциальное, Занимательные задачки, критерий Пирсона, критерий согласия, критерий хи квадрат, математика, моделирование, нормальное распределение, отрицательное биноминальное, плотность вероятности, показательное распределение, профит фактор, распределение Бернулли, распределение Вейбулла, распределение Гаусса, распределение Коши, распределение Лапласса, распределение Паскаля, распределение Пирсона, распределение пуассона, распределение Стьюдента, распределение Фишера, распределение хи квадрат, распределение Эрланга, случайная величина, статистика, статистический тест, статитический анализ, теория вероятностей, тест Стьюдента, тест Фишера, экспоненциальное распределение

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 1 Статистика приходит к нам на помощь при решении многих задач, например: когда нет возможности построить детерминированную модель, когда слишком много факторов или когда нам необходимо оценить правдоподобие построенной модели с учётом имеющихся данных. Отношение к статистике неоднозначное. Есть мнение, что существует три вида лжи: ложь, наглая ложь и статистика. С другой стороны, многие «пользователи» статистики слишком ей верят, не понимая до конца, как она работает: применяя, например, тест Стьюдента к любым данным без проверки их нормальности. Такая небрежность способна порождать серьёзные ошибки и превращать «поклонников» теста Стьюдента в ненавистников статистики. Попробуем поставить токи над i и разобраться, какие модели случайных величин должны использоваться для описания тех или иных явлений и какая между ними существует генетическая связь.

В первую очередь, данный материал будет интересен студентам, изучающим теорию вероятностей и статистику, хотя и «зрелые» специалисты смогут его использовать в качестве справочника. В одной из следующих работ я покажу пример использования статистики для построения теста оценки значимости показателей биржевых торговых стратегий.

В работе будут рассмотрены дискретные распределения:

  1. Бернулли;
  2. биноминальное;
  3. геометрическое;
  4. Паскаля (отрицательное биноминальное);
  5. гипергеометрическое;
  6. Пуассона,

а также непрерывные распределения:

  1. Гаусса (нормальное);
  2. хи-квадрат;
  3. Стьюдента;
  4. Фишера;
  5. Коши;
  6. экспоненциальное (показательное) и Лапласа (двойное экспоненциальное, двойное показательное);
  7. Вейбулла;
  8. гамма;
  9. бета.

В конце статьи будет задан вопрос для размышлений. Свои размышления по этому поводу я изложу в следующей статье.

Некоторые из приведённых непрерывных распределений являются частными случаями распределения Пирсона.

Дискретные распределения

Дискретные распределения используются для описания событий с недифференцируемыми характеристиками, определёнными в изолированных точках. Проще говоря, для событий, исход которых может быть отнесён к некоторой дискретной категории: успех или неудача, целое число (например, игра в рулетку, в кости), орёл или решка и т.д.

Описывается дискретное распределение вероятностью наступления каждого из возможных исходов события. Как и для любого распределения ( в том числе непрерывного) для дискретных событий определены понятия матожидания и дисперсии. Однако, следует понимать, что матожидание для дискретного случайного события — величина в общем случае нереализуемая как исход одиночного случайного события, а скорее как величина, к которой будет стремиться среднее арифметическое исходов событий при увеличении их количества.

В моделировании дискретных случайных событий важную роль играет комбинаторика, так как вероятность исхода события можно определить как отношение количества комбинаций, дающих требуемый исход к общему количеству комбинаций. Например: в корзине лежат 3 белых мяча и 7 чёрных. Когда мы выбираем из корзины 1 мяч, мы можем сделать это 10-ю разными способами (общее количество комбинаций), но только 3 варианта, при которых будет выбран белый мяч (3 комбинации, дающие требуемый исход). Таким образом, вероятность выбрать белый мяч: 3/10 (распределение Бернулли).

Следует также отличать выборки с возвращением и без возвращения. Например, для описания вероятности выбора двух белых мячей важно определить, будет ли первый мяч возвращён в корзину. Если нет, то мы имеем дело с выборкой без возвращения (гипергеометрическое распределение) и вероятность будет такова: (3/10) х (2/9) — вероятность выбрать белый мяч из начальной выборки умноженная на вероятность снова выбрать белый мяч из оставшихся в корзине. Если же первый мяч возвращается в корзину, то это выборка с возвращением (Биноминальное распределение). В этом случае вероятность выбора двух белых мячей составит (3/10) х (3/10).

наверх

Распределение Бернулли

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 2

(взято отсюда)

Если несколько формализовать пример с корзиной следующим образом: пусть исход события может принимать одно из двух значений 0 или 1 с вероятностями q и p соответственно, тогда распределение вероятности получения каждого из предложенных исходов будет называться распределение Бернулли:

Bin_{p,q}left(xright)=begin{cases}q,x=0\ p, x=1end{cases}

По сложившейся традиции, исход со значением 1 называется «успех», а исход со значением 0 — «неудача». Очевидно, что получение исхода «успех или неудача» наступает с вероятностью p+q=1.

Матожидание и дисперсия распределения Бернулли:

E{Bin_{p,q}}=p    left(1.1.2right)

D{Bin_{p,q}}=pq=pleft(1-pright)    left(1.1.3right)

наверх

Биноминальное распределение

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 6

(взято отсюда)

Количество k успехов в n испытаниях, исход которых распределен по Бернулли с вероятностью успеха p (пример с возвращением мячей в корзину), описывается биноминальным распределением:

B_{n,p}(k)=C^n_kp^kq^{n-k}  (1.2.1)

где C^n_k={n!over{k!(n-k)!}} — число сочетаний из n по k.

По другому можно сказать, что биноминальное распределение описывает сумму из n независимых случайных величин, умеющих распределение Бернулли с вероятностью успеха n.
Матожидание и дисперсия:

E{B_{n,p}}=np  (1.2.2)

D{B_{n,p}}=npq  (1.2.3)

Биноминальное распределение справедливо только для выборки с возвращением, то есть, когда вероятность успеха остаётся постоянной для всей серии испытаний.

Если величины X и Y имеют биноминальные распределения с параметрами «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 11 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 12 соответственно, то их сумма также будет распределена биноминально с параметрами «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 13.

наверх

Геометрическое распределение

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 14

(взято отсюда)

Представим ситуацию, что мы вытягиваем мячи из корзины и возвращаем обратно до тех пор, пока не будет вытянут белый шар. Количество таких операций описывается геометрическим распределением. Иными словами: геометрическое распределение описывает количество испытаний n до первого успеха при вероятности наступления успеха в каждом испытании p. Если n подразумевается номер испытания, в котором наступил успех, то геометрическое распределение будет описываться следующей формулой:

Geom_p(n)=q^{n-1}p   (1.3.1)

Матожидание и дисперсия геометрического распределения:

E{Geom_p}={1over{p}}   (1.3.2)

D{Geom_p}={qover{p^2}}   (1.3.3)

Геометрическое распределение генетически связано с экспоненциальным распределением, которое описывает непрерывную случайную величину: время до наступления события, при постоянной интенсивности событий. Геометрическое распределение также является частным случаем отрицательного биноминального распределения.

наверх

Распределение Паскаля (отрицательное биноминальное рспределение)

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 18

(взято отсюда)

Распределение Паскаля является обобщением геометрического распределения: описывает распределение количества неудач k в независимых испытаниях, исход которых распределен по Бернулли с вероятностью успеха p до наступления r успехов в сумме. При r=1, мы получим геометрическое распределение для величины k+1.

NB_{r,p}(k)=C^{k+r-1}_kp^rq^k  (1.4.1)

где С — число сочетаний.

Матожидание и дисперсия отрицательного биноминального распределения:

E{NB_{r,p}}={rqover{p}}   (1.4.2)

D{NB_{r,p}}={rqover{p^2}}   (1.4.3)

Сумма независимых случайных величин, распределённых по Паскалю, также распределена по Паскалю: пусть X имеет распределение «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 22, а Y — «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 23. Пусть также X и Y независимы, тогда их сумма будет иметь распределение «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 24

наверх

Гипергеометрическое распределение

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 25

(взято отсюда)

До сих пор мы рассматривали примеры выборок с возвращением, то есть, вероятность исхода не менялась от испытания к испытанию.

Теперь рассмотрим ситуацию без возвращения и опишем вероятность количества успешных выборок из совокупности с заранее известным количеством успехов и и неудач (заранее известное количество белых и чёрных мячей в корзине, козырных карт в колоде, бракованных деталей в партии и т.д.).

Пусть общая совокупность содержит N объектов, из них D помечены как «1», а N-D как «0». Будем считать выбор объекта с меткой «1», как успех, а с меткой «0» как неудачу. Проведём n испытаний, причём выбранные объектв больше не будут участвовать в дальнейших испытаниях. Вероятность наступления k успехов будет подчиняться гипергеометрическому распределению:

HG_{N,D,n}(k)={C^D_kC^{N-D}_{n-k}over{C^N_n}}  (1.5.1)

где С — число сочетаний.

Матожидание и дисперсия:

E{HG_{N,D,n}}={nDover{N}}  (1.5.2)

D{HG_{N,D,n}}=n{Dover{N}}{N-Dover{N}}{N-nover{N-1}}  (1.5.3)

наверх

Распределение Пуассона

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 29

(взято отсюда)

Распределение Пуассона значительно отличается от рассмотренных выше распределений своей «предметной» областью: теперь рассматривается не вероятность наступления того или иного исхода испытания, а интенсивность событий, то есть среднее количество событий в единицу времени.

Распределение Пуассона описывает вероятность наступления k независимых событий за время t при средней интенсивности событий «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 30:

P_{lambda,t}(k)={left(lambda tright)^kover{k!}}e^{lambda t}   (1.6.1)

Матожидание и дисперсия распределения Пуассона:

E{P_{lambda,t}}=lambda t   (1.6.2)

D{P_{lambda,t}}=lambda t   (1.6.3)

Дисперсия и матожидание распределения Пуассона тождественно равны.

Распределение Пуассона в сочетании с экспоненциальным распределением, описывающим интервалы времени между наступлениями независимых событий, составляют математическую основу теории надёжности.

наверх

Непрерывные распределения

Непрерывные распределения, в отличие от дискретных, описываются функциями плотности (распределения) вероятности f(x), определёнными, в общем случае, на некоторых интервалах.

Если известна плотность вероятности для величины х: f(x) и определено преобразование y=g(x), то плотность вероятности для y может быть получена автоматически:

f_y(y)=fleft(g^{-1}(y)right)left|{dg^{-1}over{dy}}(y)right|   (2.0.1)

при условии дифференцируемости g(x).

Плотность вероятности h(z) суммы случайных величин x и y (z=x+y) с распределениями f(x) и g(y) описывается свёрткой f и g:

h(z)=int f(t)g(z-t)dt=(f*g)(z)   (2.0.2)

Если распределение суммы случайных величин принадлежит к тому же распределению, что и слагаемые, такое распределение называется бесконечно делимым. Примеры бесконечно делимых распределений: нормальное, хи-квадрат, гамма, распределение Коши.

Плотность вероятности h(z) произведения случайных величин x и y (z=xy) с распределениями f(x) и g(y) может быть вычислена следующим образом:

h(z)=int f(t)g(z/t)dt   (2.0.3)

Некоторые из приведённых ниже распределений являются частными случаями распределения Пирсона, которое, в свою очередь, является решением уравнения:

{dfover{dx}}(x)={a_0+a_1xover{b_0+2b_1x+b_2x^2}}f(x)   (2.0.4)

где «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 38 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 39 — параметры распределения. Известны 12 типов распределения Пирсона, в зависимости от значений параметров.

Распределения, которые будут рассмотрены в этом разделе, имеют тесные взаимосвязи друг с другом. Эти связи выражаются в том, что некоторые распределения являются частными случаями других распределений, либо описывают преобразования случайных величин, имеющих другие распределения.

На приведённой ниже схеме отражены взаимосвязи между некоторыми из непрерывных распределений, которые будут рассмотрены в настоящей работе. На схеме сплошными стрелками показано преобразование случайных величин (начало стрелки указывает на изначальное распределение, конец стрелки — на результирующее), а пунктирными — отношение обобщения (начало стрелки указывает на распределение, являющееся частным случаем того, на которое указывает конец стрелки). Для частных случаев распределения Пирсона над пунктирными стрелками указан соответствующий тип распределения Пирсона.

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 40

Предложенный ниже обзор распределений охватывает многие случаи, которые встречаются в анализе данных и моделировании процессов, хотя, конечно, и не содержит абсолютно все известные науке распределения.

наверх

Нормальное распределение (распределение Гаусса)

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 41

(взято отсюда)

Плотность вероятности нормального распределения «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 42 с параметрами «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 43 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 44 описывается функцией Гаусса:

f(x)={1over{sigma sqrt{2 pi}}}e^{(x-mu)^2over{2sigma^2}}   (2.1.1)

Если «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 46 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 47, то такое распределение называется стандартным.

Матожидание и дисперсия нормального распределения:

E{N_{mu,sigma}}=mu   (2.1.2)

D{N_{mu,sigma}}=sigma^2   (2.1.3)

Область определения нормального распределения — множество дествительных чисел.

Нормальное распределение является распределение Пирсона типа VI.

Сумма квадратов независимых нормальных величин имеет распределение хи-квадрат, а отношение независимых Гауссовых величин распределено по Коши.

Нормальное распределение является бесконечно делимым: сумма нормально распределенных величин x и y с параметрами «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 50 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 51 соответственно также имеет нормальное распределение с параметрами «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 52, где «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 53 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 54.

Нормальное распределение хорошо моделирует величины, описывающие природные явления, шумы термодинамической природы и погрешности измерений.

Кроме того, согласно центральной предельной теореме, сумма большого количества независимых слагаемых одного порядка сходится к нормальному распределению, независимо от распределений слагаемых. Благодаря этому свойству, нормальное распределение популярно в статистическом анализе, многие статистические тесты рассчитаны на нормально распределенные данные.

На бесконечной делимости нормального распределении основан z-тест. Этот тест используется для проверки равенства матожидания выборки нормально распределённых величин некоторому значению. Значение дисперсии должно быть известно. Если значение дисперсии неизвестно и рассчитывается на основании анализируемой выборки, то применяется t-тест, основанный на распределении Стьюдента.

Пусть у нас имеется выборка объёмом n независимых нормально распределенных величин «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 55 из генеральной совокупности со стандартным отклонением «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 56 выдвинем гипотезу, что «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 57. Тогда величина z={bar{X}-muover{sigma sqrt{n}}} будет иметь стандартное нормальное распределение. Сравнивая полученное значение z с квантилями стандартного распределения можно принимать или отклонять гипотезу с требуемым уровнем значимости.

Благодаря широкой распространённости распределения Гаусса, многие, не очень хорошо знающие статистику исследователи забывают проверять данные на нормальность, либо оценивают график плотности распределения «на глазок», слепо полагая, что имеют дело с Гауссовыми данными. Соответственно, смело применяя тесты, предназначенные для нормального распределения и получая совершенно некорректные результаты. Наверное, отсюда и пошла молва про статистику как самый страшный вид лжи.

Рассмотрим пример: нам надо измерить сопротивления набора резистров некоторого номинала. Сопротивление имеет физическую природу, логично предположить, что распределение отклонений сопротивления от номинала будет нормальным. Меряем, получаем колоколообразную функцию плотности вероятности для измеренных значений с модой в окрестности номинала резистров. Это нормальное распределение? Если да, то будем искать бракованные резистры используя тест Стьюдента, либо z-тест, если нам заранее известна дисперсия распределения. Думаю, что многие именно так и поступят.

Но давайте внимательнее посмотрим на технологию измерения сопротивления: сопротивление определяется как отношение приложенного напряжения к протекающему току. Ток и напряжение мы измеряли приборами, которые, в свою очередь, имеют нормально распределенные погрешности. То есть, измеренные значения тока и напряжения — это нормально распределенные случайные величины с матожиданиями, соответствующими истинным значениям измеряемых величин. А это значит, что полученные значения сопротивления распределены по Коши, а не по Гауссу.

Распределение Коши лишь напоминает внешне нормальное распределение, но имеет более тяжёлые хвосты. А значит предложенные тесты неуместны. Надо строить тест на основании распределения Коши или вычислить квадрат сопротивления, который в данном случае будет иметь распределение Фишера с параметрами (1, 1).

к схеме
наверх

Распределение хи-квадрат

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 59

(взято отсюда)

Распределение «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 60 описывает сумму n квадратов случайных величин «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 61, каждая из которых распределена по стандартному нормальному закону «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 62:

chi^2_n(x)={{left(1over 2 right)}^{kover 2}over{Gammaleft({kover{2}}right)}}x^{{kover 2}-1}e^{-{xover 2}}   (2.2.1)

где n — число степеней свободы, x=sumlimits_{i=1}^n {X^2_i}.

Матожидание и дисперсия распределения «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 65:

E{chi^2_n}=n   (2.2.2)

D{chi^2_n}=2n   (2.2.3)

Область определения — множество неотрицательных натуральных чисел. «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 68 является бесконечно делимым распределением. Если x и y — распределены по «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 69 и имеют «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 70 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 71 степеней свободы соответственно, то их сумма также будет распределена по «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 72 и иметь «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 73 степеней свободы.

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 74 является частным случаем гамма-распределения (а следовательно, распределением Пирсона типа III) и обобщением экспоненциального распределения. Отношение величин, распределенных по «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 75 распределено по Фишеру.

На распределении «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 76 основан критерий согласия Пирсона. с помощью этого критерия можно проверять достоверность принадлежности выборки случайной величины некоторому теоретическому распределению.

Предположим, что у нас имеется выборка некоторой случайной величины «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 77. На основании этой выборки рассчитаем вероятности «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 78 попадания значений X в n интервалов (k=1:n). Пусть также есть предположение об аналитическом выражении распределения, в соответствие с которым, вероятности попадания в выбранные интервалы должны составлять «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 79. Тогда величины «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 80 будут распределены по нормальному закону.

Приведем «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 81 к стандартному нормальному распределению: «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 82,
где m={1over n}sum limits_{i=1}^n {D_i} и S=sqrt {{1over {n-1}}sum limits_{i=1}^n {D_i^2}}.

Полученные величины «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 85 имеют нормальное распределение с параметрами (0, 1), а следовательно, сумма их квадратов распределена по «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 86 с n-1 степенью свободы. Снижение степени свободы связано с дополнительным ограничением на сумму вероятностей попадания значений в интервалы: она должна быть равна 1.

Сравнивая значение «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 87 с квантилями распределения «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 88 можно принять или отклонить гипотезу о теоретическом распределении данных с требуемым уровнем значимости.

к схеме
наверх

Распределение Стьюдента (t-распределение)

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 89

(взято отсюда)

Распределение Стьюдента используется для проведения t-теста: теста на равенство матожидания выборки стандартно нормально распределённых случайных величин некоторому значению, либо равенства матожиданий двух нормальных выборок с одинаковой дисперсией (равенство дисперсий необходимо проверять f-тестом). Распределение Стьюдента описывает отношение нормально распределённой случайной величины к величине, распределённой по хи-квадрат.

T-тест является аналогом z-теста для случая, когда дисперсия или стандартное отклонение выборки неизвестно и должно быть оценено на основании самой выборки.

Рассмотрим пример проверки равенства матожидания нормальной выборки некоторому значению: пусть нам дана выборка «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 90 нормальных величин объёмом n из некоторой генеральной совокупности, выдвинем и проверим гипотезу о том, что матожидание этой совокупности равно m.

Рассчитаем величину «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 91. Эта величина будет иметь распределение хи-квадрат. Тогда величина «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 92 будет иметь распределение Стьюдента «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 93 c n-1 степенью свободы, где:

T_{n}(x)={Gamma left({n+1 over 2}right) over {sqrt{n pi}Gamma left({n over 2}right)left(1+{x^2 over n}right)^{n+1 over 2}}}   (2.3.1)

где Г(x) — гамма-функция Эйлера.

Полученное значение можно сравнивать с квантилями распределения Стьюдента и принимать либо отклонять гипотезу о равенстве маотожидания значению m с требуемым уровнем значимости.

Матожидание и дисперсия распределения Стьюдента:

E{T_{n}}=0   (2.3.2)

D{T_{n}}={n over {n-2}}   (2.3.3)

при n>2.

к схеме
наверх

Распределение Фишера

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 97

(взято отсюда)

Пусть X и Y независимые случайные величины, имеющие распределение хи-квадрат со степенями свободы «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 98 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 99 соответственно. Тогда величина «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 100 будет иметь распределение Фишера со степенями свободы «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 101, а величина «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 102 — распределение Фишера со степенями свободы «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 103.
Распределение Фишера определено для действительных неотрицательных аргументов и имеет плотность вероятности:

F_{n_1,n_2}(x)={sqrt{ (n_1x)^{n_1}n_2^{n_2}over {(n_1x+n_2)^{n_1+n_2}}} over {xBleft({n_1 over 2},{n_2 over 2} right)}}   (2.4.1)

Матожидание и дисперсия распределения Фишера:

E{F_{n_1,n_2}}={n_2 over {n_2-2}}   (2.4.2)

D{F_{n_1,n_2}}={2n_2^2(n_1+n_2-2) over {n_1(n_2-2)^2(n_2-4)}}   (2.4.3)

Матожидание определено для «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 107, а диспересия — для «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 108.

На распределении Фишера основан ряд статистических тестов, таких как оценка значимости параметров регрессии, тест на гетероскедастичность и тест на равенство дисперсий нормальных выборок (f-тест, следует отличать от точного теста Фишера).

F-тест: пусть имеются две независимые выборки «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 109 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 110 нормально распределенных данных объёмами «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 111 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 112 соответственно. Выдвинем гипотезу о равенстве дисперсий выборок и проверим её статистически.

Рассчитаем величину «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 113. Она будет иметь распределение Фишера со степенями свободы «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 114.

Сравнивая значение F с квантилями соответствующего распределения Фишера, мы можем принять или отклонить гипотезу о равенстве дисперсий выборок с требуемым уровнем значимости.

к схеме
наверх

Распределение Коши

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 115

(взято отсюда)
Распределение Коши описывает отношение двух нормально распределенных случайных величин. В отличие от других распределений, для распределения Коши не определены матожидание и дисперсия. Для описания распределения используются коэффициенты сдвига «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 116 и масштаба «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 117.

C_{x_0,gamma}(x)={1over{pi gamma left(1+left({x-x_0over {gamma}} right)^2 right)}}   (2.5.1)

Распределение Коши является бесконечно делимым: сумма независимых случайных величин, распределённых по Коши, также распределена по Коши.

к схеме
наверх

Экспоненциальное (показательное) распределение и распределение Лапласа (двойное экспоненциальное, двойное показательное)

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 119

(взято отсюда)

Экспоненциальное распределение описывает интервалы времени между независимыми событиями, происходящими со средней интенсивностью «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 120. Количество наступлений такого события за некоторый отрезок времени описывается дискретным распределением Пуассона. Экспоненциальное распределение вместе с распределением Пуассона составляют математическую основу теории надёжности.

Кроме теории надёжности, экспоненциальное распределение применяется в описании социальных явлений, в экономике, в теории массового обслуживания, в транспортной логистике — везде, где необходимо моделировать поток событий.

Экспоненциальное распределение является частным случаем распределения хи-квадрат (для n=2), а следовательно, и гамма-распределения. Так-как экспоненциально распределённая величина является величиной хи-квадрат с 2-мя степенями свободы, то она может быть интерпретирована как сумма квадратов двух независимых нормально распределенных величин.

Кроме того, экспоненциальное распределение является честным случаем распределения Вейбулла.

Дискретный вариант экспоненциального распределения — это геометрическое распределение.

Плотность вероятности экспоненциально распределения:

E_lambda(x)=lambda e^{-lambda x}   (2.6.1)

определена для неотрицательных действительных значений х.

Матожидание и дисперсия экспоненциального распределения:

E{E_lambda}={1 over lambda}    (2.6.2)

E{E_lambda}={1 over lambda^2}    (2.6.3)

Если функцию плотности вероятностей экспоненциального распределения отразить зеркально в область отрицательных значений, то есть, заменить х на |x|, то получится распределение Лапласа, также называемое двойным экспоненциальным или двойным показательным.

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 124

(взято отсюда)

Для большего обобщения, вводится параметр сдвига, смещающий центр «соединения» левой и правой частей распределения вдоль оси абсцисс. В отличие от экспоненциального, распределение Лапласа, определено на всей действительной числовой оси.

L_{alpha,beta}(x)={alpha over 2}e^{-alpha left|x-betaright|}    (2.6.4)

где «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 126 — параметр масштаба, а «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 127 — параметр сдвига.

Матожидание и дисперсия:

E{L_{alpha, beta}}=beta   (2.6.5)

D{L_{alpha, beta}}={2 over {alpha^2}}   (2.6.6)

Благодаря более тяжёлым хвостам, чем у нормального распределения, распределение Лапласа используется для моделирования некоторых видов погрешностей измерения в энергетике, а также находит применение в физике, экономике, финансовой статистике, телекоммуникации и т.д.

к схеме
наверх

Распределение Вейбулла

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 130

(взято отсюда)

Распределение Вейбулла описывается функцией плотности вероятности следующего вида:

W_{k, lambda}(x)={k over {lambda}}left({x over {lambda}}right)^{k-1}e^{-left({x over {lambda}}right)^k}   (2.7.1)

где «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 132 («Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 133 > 0)- интенсивность событий (аналогично параметру экспоненциального распределения), а k — показатель нестационарности (k > 0). При k = 1, распределение Вейбулла вырождается в экспоненциальное распределение, а в остальных случаях описывает поток независимых событий с нестационарной интенсивностью. При k > 1 моделируется поток событий с растущей со временем интенсивностью, а при k < 1 — со снижающейся. Область определения функции распределения плотности вероятностей: неотрицательные действительные числа.

Таким образом, распределение Вейбулла — обобщение экспоненциального распределения на случай нестационарной интенсивности событий. Используется в теории надёжности, моделировании процессов в технике, в прогнозировании погоды, в описании процесса измельчения и т.д.

Матожидание и дисперсия распределения Вейбулла:

E{W_{k, lambda}}=lambda Gammaleft(1 + {1 over k} right)   (2.7.2)

D{W_{k, lambda}}=lambda^2 left(Gammaleft(1 + {2 over k} right ) - Gammaleft(1 + {1 over k} right )^2right)   (2.7.3)

где «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 136 — гамма-функция Эйлера.

к схеме
наверх

Гамма-распределение (распределение Эрланга)

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 137

(взято отсюда)

Гамма-распределение является обобщением рапсределения хи-квадрат и, соответственно, экспоненциального распределения. Суммы квадратов нормально распределённых величин, а также суммы величин распределённых по хи-квадрат и по экспоненциальному распределению будут иметь гамма-распределение.

Гамма-распределение является распределением Пирсона III рода. Область определения гамма-распределения — натуральные неотрицательные числа.

Гамма-распределение определяется двумя неотрицательными параметрами k — число степеней свободы (при целом значении степеней свободы, гамма-распределение называется распределением Эрланга) и коэффициент масштаба «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 138.

Гамма-распределение является бесконечно делимым: если величины X и Y имеют распределения «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 139 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 140 соответсвенно, то величина X+Y будет иметь распределение «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 141

G_{k,theta}(x)=x^{k-1}{e^{-{x over theta}}over Gamma(k) theta^k}   (2.8.1)

где Г(x) — гамма-функция Эйлера.

Матожидание и дисперсия:

E{G_{k,theta}}=ktheta   (2.8.2)

D{G_{k,theta}}=ktheta^2   (2.8.3)

Гамма распределение широко применяется для моделирования сложных потоков событий, сумм временных интервалов между событиями, в экономике, теории массового обслуживания, в логистике, описывает продолжительность жизни в медицине. Является своеобразным аналогом дискретного отрицательного биноминального распределения.

к схеме
наверх

Бета-распределение

«Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 145

(взято отсюда)

Бета-распределение описывает долю суммы двух слагаемых, приходящуюся на каждое из них, если слагаемые являются случайными величинами, имеющими гамма-распределение. То есть, если величины «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 146 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 147 имеют гамма-распределение, величины «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 148 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 149 будут иметь бета-распределение.

Очевидно, что область определения бета-распределения [0, 1]. Бета-распределение является распределение Пирсона I типа.

B_{alpha,beta}={x^{alpha -1}(1-x)^{beta - 1}over{B(alpha, beta)}}   (2.9.1)

где параметры «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 151 и «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 152 — положительные натуральные числа, «Правда, чистая правда и статистика» или «15 распределений вероятности на все случаи жизни» - 153 — бета-функция Эйлера.

Матожидание и дисперсия:

E{B_{alpha, beta}}={alpha over{alpha+beta}}   (2.9.2)

D{B_{alpha, beta}}={alpha beta over{(alpha+beta)^2(alpha+beta+1)}}   (2.9.3)

к схеме
наверх

Вместо заключения

Мы рассмотрели 15 распределений вероятности, которые, на мой взгляд, охватывают большинство наиболее популярных приложений статистики.

Напоследок, небольшое домашнее задание: для оценки надёжности биржевых торговых систем используется такой показатель как профит-фактор. Профит-фактор рассчитывается как отношение суммарного дохода к суммарному убытку. Очевидно, что для системы, приносящей доход, профит-фактор больше единицы, и чем его значение выше, тем система надёжнее.

Вопрос: какое распределение имеет значение профит-фактора?

Свои размышления по этому поводу я изложу в следующей статье.

Автор: JamaGava

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js