Как найти сигму случайной величины

Нормальным называют распределение вероятностей непрерывной случайной величины

, плотность которого имеет вид:

где

 –
математическое ожидание,

 –
среднее квадратическое отклонение

.

Вероятность того, что

 примет
значение, принадлежащее интервалу

:

где  

 – функция Лапласа:

Вероятность того, что абсолютная
величина отклонения меньше положительного числа

:

В частности, при

 справедливо
равенство:

Асимметрия, эксцесс,
мода и медиана нормального распределения соответственно равны:

,  где

Правило трех сигм

Преобразуем формулу:

Положив

. В итоге получим

если

, и, следовательно,

, то

то есть вероятность того, что
отклонение по абсолютной величине будет меньше утроенного среднего квадратического отклонение, равна 0,9973.

Другими словами, вероятность того,
что абсолютная величина отклонения превысит утроенное среднее квадратическое отклонение, очень мала, а именно равна
0,0027. Это означает, что лишь в 0,27% случаев так может произойти. Такие
события исходя из принципа невозможности маловероятных
событий можно считать практически невозможными. В этом и состоит
сущность правила трех сигм: если случайная величина распределена нормально, то
абсолютная величина ее отклонения от математического ожидания не превосходит
утроенного среднего квадратического отклонения.

На практике правило трех сигм
применяют так: если распределение изучаемой случайной величины неизвестно, но
условие, указанное в приведенном правиле, выполняется, то есть основание
предполагать, что изучаемая величина распределена нормально; в противном случае
она не распределена нормально.

Смежные темы решебника:

  • Таблица значений функции Лапласа
  • Непрерывная случайная величина
  • Показательный закон распределения случайной величины
  • Равномерный закон распределения случайной величины

Пример 2

Ошибка
высотометра распределена нормально с математическим ожиданием 20 мм и средним
квадратичным отклонением 10 мм.

а) Найти
вероятность того, что отклонение ошибки от среднего ее значения не превзойдет 5
мм по абсолютной величине.

б) Какова
вероятность, что из 4 измерений два попадут в указанный интервал, а 2 – не
превысят 15 мм?

в)
Сформулируйте правило трех сигм для данной случайной величины и изобразите
схематично функции плотности вероятностей и распределения.

Решение

На сайте можно заказать решение контрольной или самостоятельной работы, домашнего задания, отдельных задач. Для этого вам нужно только связаться со мной:

ВКонтакте
WhatsApp
Telegram

Мгновенная связь в любое время и на любом этапе заказа. Общение без посредников. Удобная и быстрая оплата переводом на карту СберБанка. Опыт работы более 25 лет.

Подробное решение в электронном виде (docx, pdf) получите точно в срок или раньше.

а) Вероятность того, что случайная величина, распределенная по
нормальному закону, отклонится от среднего не более чем на величину

:

В нашем
случае получаем:

б) Найдем
вероятность того, что отклонение ошибки от среднего значения не превзойдет 15
мм:

Пусть событие

 – ошибки 2
измерений не превзойдут 5 мм и ошибки 2 измерений не превзойдут 0,8664 мм

 – ошибка не
превзошла 5 мм;

 – ошибка не
превзошла 15 мм

в)
Для заданной нормальной величины получаем следующее правило трех сигм:

Ошибка высотометра будет лежать в интервале:

Функция плотности вероятностей:

График плотности распределения нормально распределенной случайной величины

Функция распределения:

График функции
распределения нормально распределенной случайной величины

Задача 1

Среднее
количество осадков за июнь 19 см. Среднеквадратическое отклонение количества
осадков 5 см. Предполагая, что количество осадков нормально-распределенная
случайная величина найти вероятность того, что будет не менее 13 см осадков.
Какой уровень превзойдет количество осадков с вероятностью 0,95?


Задача 2

Найти
закон распределения среднего арифметического девяти измерений нормальной
случайной величины с параметрами m=1.0 σ=3.0. Чему равна вероятность того, что
модуль разности между средним арифметическим и математическим ожиданием
превысит 0,5?

Указание:
воспользоваться таблицами нормального распределения (функции Лапласа).


Задача 3

Отклонение
напряжения в сети переменного тока описывается нормальным законом
распределения. Дисперсия составляет 20 В. Какова вероятность при изменении
выйти за пределы требуемых 10% (22 В).

На сайте можно заказать решение контрольной или самостоятельной работы, домашнего задания, отдельных задач. Для этого вам нужно только связаться со мной:

ВКонтакте
WhatsApp
Telegram

Мгновенная связь в любое время и на любом этапе заказа. Общение без посредников. Удобная и быстрая оплата переводом на карту СберБанка. Опыт работы более 25 лет.

Подробное решение в электронном виде (docx, pdf) получите точно в срок или раньше.


Задача 4

Автомат
штампует детали. Контролируется длина детали Х, которая распределена нормально
с математическим ожиданием (проектная длинна), равная 50 мм. Фактическая длина
изготовленных деталей не менее 32 и не более 68 мм. Найти вероятность того, что
длина наудачу взятой детали: а) больше 55 мм; б) меньше 40 мм.


Задача 5

Случайная
величина X распределена нормально с математическим ожиданием a=10и средним
квадратическим отклонением  σ=5. Найти
интервал, симметричный относительно математического ожидания, в котором с
вероятностью 0,9973 попадает величина Х в результате испытания.


Задача 6

Заданы
математическое ожидание ax=19 и среднее квадратическое отклонение σ=4
нормально распределенной случайной величины X. Найти: 1) вероятность
того, что X примет значение, принадлежащее интервалу (α=15;
β=19); 2) вероятность того, что абсолютная величина отклонения значения
величины от математического ожидания окажется меньше δ=18.


Задача 7

Диаметр
выпускаемой детали – случайная величина, распределенная по нормальному закону с
математическим ожиданием и дисперсией, равными соответственно 10 см и 0,16 см2.
Найти вероятность того, что две взятые наудачу детали имеют отклонение от
математического ожидания по абсолютной величине не более 0,16 см.


Задача 8

Ошибка
прогноза температуры воздуха есть случайная величина с m=0,σ=2℃. Найти вероятность
того, что в течение недели ошибка прогноза трижды превысит по абсолютной
величине 4℃.


Задача 9

Непрерывная
случайная величина X распределена по нормальному 
закону: X∈N(a,σ).

а) Написать
плотность распределения вероятностей и функцию распределения.

б) Найти
вероятность того, что в результате испытания случайная величина примет значение
из интервала (α,β).

в) Определить
приближенно минимальное и максимальное значения случайной величины X.

г) Найти
интервал, симметричный относительно математического ожидания a, в котором с
вероятностью 0,98 будут заключены значения X.

a=5; σ=1.3; 
α=4; β=6


Задача 10

Производится измерение вала без
систематических ошибок. Случайные ошибки измерения X
подчинены нормальному закону с σx=10.  Найти вероятность того, что измерение будет
произведено с ошибкой, превышающей по абсолютной величине 15 мм.


Задача 11

Высота
стебля озимой пшеницы – случайная величина, распределенная по нормальному закону
с параметрами a = 75 см, σ = 1 см. Найти вероятность того, что высота стебля:
а) окажется от 72 до 80 см; б) отклонится от среднего не более чем на 0,5 см.


Задача 12

Деталь,
изготовленная автоматом, считается годной, если отклонение контролируемого
размера от номинала не превышает 10 мм. Точность изготовления деталей
характеризуется средним квадратическим отклонением, при данной технологии
равным 5 мм.

а)
Считая, что отклонение размера детали от номинала есть нормально распределенная
случайная величина, найти долю годных деталей, изготовляемых автоматом.

б) Какой
должна быть точность изготовления, чтобы процент годных деталей повысился до
98?

в)
Написать выражение для функции плотности вероятности и распределения случайной
величины.


Задача 13

Диаметр
детали, изготовленной цехом, является случайной величиной, распределенной по
нормальному закону. Дисперсия ее равна 0,0001 см, а математическое ожидание –
2,5 см. Найдите границы, симметричные относительно математического ожидания, в
которых с вероятностью 0,9973 заключен диаметр наудачу взятой детали. Какова
вероятность того, что в серии из 1000 испытаний размер диаметра двух деталей
выйдет за найденные границы?

На сайте можно заказать решение контрольной или самостоятельной работы, домашнего задания, отдельных задач. Для этого вам нужно только связаться со мной:

ВКонтакте
WhatsApp
Telegram

Мгновенная связь в любое время и на любом этапе заказа. Общение без посредников. Удобная и быстрая оплата переводом на карту СберБанка. Опыт работы более 25 лет.

Подробное решение в электронном виде (docx, pdf) получите точно в срок или раньше.


Задача 14

Предприятие
производит детали, размер которых распределен по нормальному закону с
математическим ожиданием 20 см и стандартным отклонением 2 см. Деталь будет
забракована, если ее размер отклонится от среднего (математического ожидания)
более, чем на 2 стандартных отклонения. Наугад выбрали две детали. Какова вероятность
того, что хотя бы одна из них будет забракована?


Задача 15

Диаметры
деталей распределены по нормальному закону. Среднее значение диаметра равно d=14 мм
, среднее квадратическое
отклонение σ=2 мм
. Найти вероятность того,
что диаметр наудачу взятой детали будет больше α=15 мм и не меньше β=19 мм; вероятность того, что диаметр детали
отклонится от стандартной длины не более, чем на Δ=1,5 мм.


Задача 16

В
электропечи установлена термопара, показывающая температуру с некоторой
ошибкой, распределенной по нормальному закону с нулевым математическим
ожиданием и средним квадратическим отклонением σ=10℃. В момент когда термопара
покажет температуру не ниже 600℃, печь автоматически отключается. Найти
вероятность того, что печь отключается при температуре не превышающей 540℃ (то
есть ошибка будет не меньше 30℃).


Задача 17

Длина
детали представляет собой нормальную случайную величину с математическим
ожиданием 40 мм и среднеквадратическим отклонением 3 мм. Найти:

а)
Вероятность того, что длина взятой наугад детали будет больше 34 мм и меньше 43
мм;

б)
Вероятность того, что длина взятой наугад детали отклонится от ее
математического ожидания не более, чем на 1,5 мм.


Задача 18

Случайное
отклонение размера детали от номинала распределены нормально. Математическое
ожидание размера детали равно 200 мм, среднее квадратическое отклонение равно
0,25 мм, стандартами считаются детали, размер которых заключен между 199,5 мм и
200,5 мм. Из-за нарушения технологии точность изготовления деталей уменьшилась
и характеризуется средним квадратическим отклонением 0,4 мм. На сколько
повысился процент бракованных деталей?


Задача 19

Случайная
величина X~N(1,22). Найти P{2

На сайте можно заказать решение контрольной или самостоятельной работы, домашнего задания, отдельных задач. Для этого вам нужно только связаться со мной:

ВКонтакте
WhatsApp
Telegram

Мгновенная связь в любое время и на любом этапе заказа. Общение без посредников. Удобная и быстрая оплата переводом на карту СберБанка. Опыт работы более 25 лет.

Подробное решение в электронном виде (docx, pdf) получите точно в срок или раньше.


Задача 20

Заряд пороха для охотничьего ружья
должен составлять 2,3 г. Заряд отвешивается на весах, имеющих ошибку
взвешивания, распределенную по нормальному закону со средним квадратическим
отклонением, равным 0,2 г. Определить вероятность повреждения ружья, если максимально
допустимый вес заряда составляет 2,8 г.


Задача 21

Заряд
охотничьего пороха отвешивается на весах, имеющих среднеквадратическую ошибку
взвешивания 150 мг. Номинальный вес порохового заряда 2,3 г. Определить
вероятность повреждения ружья, если максимально допустимый вес порохового
заряда 2,5 г.


Задача 21

Найти
вероятность попадания снарядов в интервал (α1=10.7; α2=11.2).
Если случайная величина X распределена по
нормальному закону с параметрами m=11; 
σ=0.2.


Задача 22

Плотность
вероятности распределения случайной величины имеет вид

Найти
вероятность того, что из 3 независимых случайных величин, распределенных по
данному закону, 3 окажутся на интервале (-∞;5).


Задача 23

Непрерывная
случайная величина имеет нормальное распределение. Её математическое ожидание
равно 12, среднее квадратичное отклонение равно 2. Найти вероятность того, что
в результате испытания случайная величина примет значение в интервале (8,14)


Задача 24

Вероятность
попадания нормально распределенной случайной величины с математическим
ожиданием m=4 в интервал (3;5) равна 0,6. Найти дисперсию данной случайной
величины.


Задача 25

В
нормально распределенной совокупности 17% значений случайной величины X
 меньше 13% и 47% значений случайной величины X
больше 19%. Найти параметры этой совокупности.


Задача 26

Студенты
мужского пола образовательного учреждения были обследованы на предмет
физических характеристик и обнаружили, что средний рост составляет 182 см, со
стандартным отклонением 6 см. Предполагая нормальное распределение для роста,
найдите вероятность того, что конкретный студент-мужчина имеет рост более 185
см.

Нормальное распределение
Плотность нормального распределения
Зеленая линия соответствует стандартному нормальному распределениюПлотность вероятности
Функция распределения нормального распределения
Цвета на этом графике соответствуют графику наверхуФункция распределения
Обозначение {displaystyle Nleft(mu ,sigma ^{2}right)}
Параметры μ — коэффициент сдвига (вещественный)
σ > 0 — коэффициент масштаба (вещественный, строго положительный)
Носитель {displaystyle xin left(-infty ;+infty right)}
Плотность вероятности {displaystyle {frac {1}{sigma {sqrt {2pi }}}};exp left(-{frac {left(x-mu right)^{2}}{2sigma ^{2}}}right)}
Функция распределения {frac {1}{2}}left[1+operatorname {erf} left({frac {x-mu }{sqrt {2sigma ^{2}}}}right)right]
Математическое ожидание mu
Медиана mu
Мода mu
Дисперсия sigma ^{2}
Коэффициент асимметрии {displaystyle 0}
Коэффициент эксцесса {displaystyle 0}
Дифференциальная энтропия {displaystyle ln left(sigma {sqrt {2,pi ,e}}right)}
Производящая функция моментов M_{X}left(tright)=exp left(mu ,t+{frac {sigma ^{2}t^{2}}{2}}right)
Характеристическая функция phi _{X}left(tright)=exp left(mu ,i,t-{frac {sigma ^{2}t^{2}}{2}}right)

Норма́льное распределе́ние[1][2], также называемое распределением Гаусса или Гаусса — Лапласа[3], или колоколообразная кривая — непрерывное распределение вероятностей с пиком в центре и симметричными боковыми сторонами, которое в одномерном случае задаётся функцией плотности вероятности, совпадающей с функцией Гаусса:

{displaystyle f(x)={frac {1}{sigma {sqrt {2pi }}}}e^{-{frac {1}{2}}left({frac {x-mu }{sigma }}right)^{2}}},
где параметр mu  — математическое ожидание (среднее значение), медиана и мода распределения, а параметр sigma  — среднеквадратическое отклонение, sigma ^{2} — дисперсия распределения.

Таким образом, одномерное нормальное распределение является двухпараметрическим семейством распределений, которое принадлежит экспоненциальному классу распределений[4]. Многомерный случай описан в статье «Многомерное нормальное распределение».

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием mu =0 и стандартным отклонением {displaystyle sigma =1.}

Общие сведения[править | править код]

Если величина является суммой многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то центрированное и нормированное распределение такой величины при достаточно большом числе слагаемых стремится к нормальному распределению.

Это следует из центральной предельной теоремы теории вероятностей. В окружающем нас мире часто встречаются величины, значение которых определяется совокупностью многих независимых факторов. Этот факт, а также то, что распределение считалось типичным, обычным, привели к тому, что в конце XIX века стал использоваться термин «нормальное распределение». Нормальное распределение играет заметную роль во многих областях науки, например в математической статистике и статистической физике.

Случайная величина, имеющая нормальное распределение, называется нормальной, или гауссовской, случайной величиной.

Определения[править | править код]

Стандартное нормальное распределение[править | править код]

Наиболее простой случай нормального распределения — стандартное нормальное распределение — частный случай, когда mu =0 и {displaystyle sigma =1.} Его плотность вероятности равна:

{displaystyle varphi (x)={frac {1}{sqrt {2pi }}}e^{-{frac {1}{2}}x^{2}}.}

Множитель {displaystyle {frac {1}{sqrt {2pi }}}} в выражении обеспечивает условие нормировки интеграла {displaystyle int limits _{-infty }^{+infty }varphi (x),dx=1}[5]. Поскольку множитель {displaystyle {frac {1}{2}}} в экспоненте обеспечивает дисперсию равную единице, то и стандартное отклонение равно 1. Функция симметрична в точке x=0, её значение в ней максимально и равно {displaystyle {frac {1}{sqrt {2pi }}}.} Точки перегиба функции: {displaystyle x=+1} и {displaystyle x=-1.}

Гаусс называл стандартным нормальным распределение с {displaystyle sigma ^{2}=1/2,} то есть:

{displaystyle varphi (x)={frac {e^{-x^{2}}}{sqrt {pi }}}.}

Нормальное распределение с параметрами μ, σ[править | править код]

Каждое нормальное распределение — это вариант стандартного нормального распределения, область значений которого растягивается множителем sigma (стандартное отклонение) и переносится на mu (математическое ожидание):

{displaystyle f(xmid mu ,sigma ^{2})={frac {1}{sigma }}varphi left({frac {x-mu }{sigma }}right).}

{displaystyle mu ,sigma } являются параметрами нормального распределения. Плотность вероятности должна нормироваться {displaystyle {frac {1}{sigma }},} так что интеграл равен 1.

Если Z — стандартная нормальная случайная величина, то величина {displaystyle X=sigma Z+mu } будет иметь нормальное распределение с математическим ожиданием mu и стандартным отклонением sigma. Наоборот, если X — нормальная величина с параметрами mu и {displaystyle sigma ^{2},} то {displaystyle Z={frac {X-mu }{sigma }}} будет иметь стандартное нормальное распределение.

Если в экспоненте плотности вероятности раскрыть скобки и учитывать, что {displaystyle 1=ln e}, то:

{displaystyle f(x)={frac {1}{sigma {sqrt {2pi }}}}e^{-{frac {1}{2}}left({frac {x-mu }{sigma }}right)^{2}}=e^{-{frac {1}{2}}left(2ln sigma +ln 2pi +left({frac {x-mu }{sigma }}right)^{2}right)}=e^{-{frac {1}{2}}left({frac {x^{2}}{sigma ^{2}}}-2{frac {mu x}{sigma ^{2}}}+2ln sigma +ln 2pi +{frac {mu ^{2}}{sigma ^{2}}}right)}.}

Таким образом, плотность вероятности каждого нормального распределения представляет собой экспоненту квадратичной функции:

{displaystyle f(x)=e^{ax^{2}+bx+c},}
где {displaystyle a=-{frac {1}{2sigma ^{2}}}, b={frac {mu }{sigma ^{2}}}, c=-left(ln sigma +{frac {1}{2}}ln 2pi +{frac {1}{2}}{frac {mu ^{2}}{sigma ^{2}}}right).}

Отсюда можно выразить среднее значение как {displaystyle mu =-{frac {b}{2a}},} а дисперсию как {displaystyle sigma ^{2}=-{frac {1}{2a}}.} Для стандартного нормального распределения {displaystyle a=-1/2,} b=0 и {displaystyle c=-{frac {1}{2}}ln 2pi .}

Обозначение[править | править код]

Плотность вероятности стандартного нормального распределения (с нулевым средним и единичной дисперсией) часто обозначается греческой буквой phi (фи)[6]. Также достаточно часто используется альтернативная формы греческой буквы фи varphi .

Нормальное распределение часто обозначается {displaystyle N(mu ,sigma ^{2}),} или {displaystyle {mathcal {N}}(mu ,sigma ^{2})}[7]. Если случайная величина X распределена по нормальному закону со средним mu и вариацией {displaystyle sigma ^{2},} то пишут:

{displaystyle Xsim {mathcal {N}}(mu ,sigma ^{2}).}

Функция распределения[править | править код]


Функция распределения стандартного нормального распределения (нормальное интегральное распределение) обычно обозначается заглавной греческой буквой Phi (фи) и представляет собой интеграл:

{displaystyle Phi (x)={frac {1}{sqrt {2pi }}}int limits _{-infty }^{x}e^{-x^{2}/2},dx.}

С ней связана функция ошибок (интеграл вероятности) {displaystyle operatorname {erf} (x),} дающий вероятность того, что нормальная случайная величина со средним 0 и вариацией 1/2 попадёт в отрезок {displaystyle [-x,x]}:

{displaystyle operatorname {erf} (x)={frac {2}{sqrt {pi }}}int limits _{0}^{x}e^{-x^{2}},dx.}

Эти интегралы не выражаются в элементарных функциях и называются специальными функциями. Многие их численные приближения известны. См. ниже.

Функции связаны, в частности, соотношением:

{displaystyle Phi (x)={frac {1}{2}}left[1+operatorname {erf} left({frac {x}{sqrt {2}}}right)right]}.

Нормальное распределение с плотностью f, средним mu и отклонением sigma имеет следующую функцию распределения:

{displaystyle F(x)=Phi left({frac {x-mu }{sigma }}right)={frac {1}{2}}left[1+operatorname {erf} left({frac {x-mu }{sigma {sqrt {2}}}}right)right].}

Можно использовать функцию {displaystyle Q(x)=1-Phi (x)} — она даст вероятность того, что значение стандартной нормальной случайной величины X превысит x:

{displaystyle P(X>x)}.

График стандартной нормальной функции распределения Phi имеет 2-кратную вращательную симметрию относительно точки (0;1/2), то есть {displaystyle Phi (-x)=1-Phi (x).} Её неопределенный интеграл равен:

{displaystyle int Phi (x),dx=xPhi (x)+varphi (x)+C.}

Функция распределения стандартной нормальной случайной величины может быть разложена с помощью метода интегрирования по частям в ряд:

{displaystyle Phi (x)={frac {1}{2}}+{frac {1}{sqrt {2pi }}}cdot e^{-x^{2}/2}left[x+{frac {x^{3}}{3}}+{frac {x^{5}}{3cdot 5}}+cdots +{frac {x^{2n+1}}{(2n+1)!!}}+cdots right],}

где знак {displaystyle !!} означает двойной факториал.

Асимптотическое разложение функции распределения для больших x может быть также произведено интегрированием по частям.

Стандартное отклонение[править | править код]

Правило 68-95-99,7.
Для нормального распределения количество значений, отличающихся от среднего на число, меньшее чем одно стандартное отклонение, составляют 68,27 % выборок. В то же время количество значений, отличающиеся от среднего на два стандартных отклонения, составляют 95,45 %, а на три стандартных отклонения — 99,73 %.

Около 68 % значений из нормального распределения находятся на расстоянии не более одного стандартного отклонения σ от среднего; около 95 % значений лежат расстоянии не более двух стандартных отклонений; и 99,7 % не более трёх. Этот факт является частным случаем правила 3 сигм для нормальной выборки.

Более точно, вероятность получить нормальное число в интервале между {displaystyle mu -nsigma } и {displaystyle mu +nsigma } равна:

{displaystyle F(mu +nsigma )-F(mu -nsigma )=}

{displaystyle Phi (n)-Phi (-n)=operatorname {erf} left({frac {n}{sqrt {2}}}right).}

С точностью до 12 значащих цифр значения для {displaystyle n=1,2,ldots ,6} приведены в таблице[8]:

n {displaystyle p=F(mu +nsigma )-F(mu -nsigma )} 1-p {displaystyle {frac {1}{1-p}}} OEIS
1 0,682689492137 0,317310507863

3,15148718753

A178647
2 0,954499736104 0,045500263896

21,9778945080

A110894
3 0,997300203937 0,002699796063

370,398347345

A270712
4 0,999936657516 0,000063342484

15787.1927673

5 0,999999426697 0,000000573303

1744277,89362

6 0,999999998027 0,000000001973

506797345,897

Свойства[править | править код]

Моменты[править | править код]

Моментами и абсолютными моментами случайной величины X называются математические ожидания случайных величин {displaystyle X^{p}} и {displaystyle left|Xright|^{p},} соответственно. Если математическое ожидание случайной величины {displaystyle mu =0,} то эти параметры называются центральными моментами. В большинстве случаев представляют интерес моменты для целых p.

Если X имеет нормальное распределение, то для неё существуют (конечные) моменты при всех p с действительной частью больше −1. Для неотрицательных целых p центральные моменты таковы:

{displaystyle mathbb {E} left[X^{p}right]={begin{cases}0&p=2n+1,\sigma ^{p},left(p-1right)!!&p=2n.end{cases}}}

Здесь n — натуральное число, а запись {displaystyle (p-1)!!} означает двойной факториал числа {displaystyle p-1,} то есть (поскольку p-1 в данном случае нечётно) произведение всех нечётных чисел от 1 до {displaystyle p-1.}

Центральные абсолютные моменты для неотрицательных целых p таковы:

{displaystyle mathbb {E} left[left|Xright|^{p}right]=sigma ^{p},left(p-1right)!!cdot left.{begin{cases}{sqrt {frac {2}{pi }}}&p=2n+1,\1&p=2n.end{cases}}right}=sigma ^{p}cdot {frac {2^{frac {p}{2}}Gamma left({frac {p+1}{2}}right)}{sqrt {pi }}}.}

Последняя формула справедлива также для произвольных {displaystyle p>-1}.

Преобразование Фурье и характеристическая функция[править | править код]

Преобразование Фурье нормальной плотности вероятности f с математическим ожиданием mu стандартным отклонением sigma равно[9]:

{displaystyle {hat {f}}(t)=int limits _{-infty }^{infty }f(x)e^{-itx},dx=e^{imu t-{frac {1}{2}}sigma ^{2}t^{2}},}
где i есть мнимая единица.

Если математическое ожидание {displaystyle mu =0,} то первый множитель равен 1, и преобразование Фурье, с точностью до константы есть нормальная плотность вероятности на частотных интервалах, с математическим ожиданием равным 0 и стандартным отклонением {displaystyle 1/sigma .} В частности, стандартное нормальное распределение varphi есть собственная функция от преобразования Фурье.

В теории вероятности, преобразование Фурье плотности распределения действительной случайной величины X близко связано с характеристической функцией {displaystyle varphi _{X}(t)} этой величины, которая определена как математическое ожидание от {displaystyle e^{itX}} и является функцией вещественной переменной t (частотный параметр преобразования Фурье). Определение может быть распространено и на комплексную переменную t[10]. Соотношение записывается так:

{displaystyle varphi _{X}(t)={hat {f}}(-t).}

Бесконечная делимость[править | править код]

Нормальное распределение является бесконечно делимым.

Если случайные величины X_{1} и X_{2} независимы и имеют нормальное распределение с математическими ожиданиями mu _{1} и mu _{2} и дисперсиями sigma _{1}^{2} и sigma _{2}^{2} соответственно, то X_{1}+X_{2} также имеет нормальное распределение с математическим ожиданием mu _{1}+mu _{2} и дисперсией sigma _{1}^{2}+sigma _{2}^{2}.

Отсюда вытекает, что нормальная случайная величина представима как сумма произвольного числа независимых нормальных случайных величин.

Максимальная энтропия[править | править код]

Нормальное распределение имеет максимальную дифференциальную энтропию среди всех непрерывных распределений, дисперсия которых не превышает заданную величину[11][12].

Правило трёх сигм для гауссовской случайной величины[править | править код]

График плотности вероятности нормального распределения и процент попадания случайной величины на отрезки, равные среднеквадратическому отклонению.

Правило трёх сигм ({displaystyle 3sigma }) — практически все значения нормально распределённой случайной величины лежат в интервале:

{displaystyle left(mu -3sigma ;mu +3sigma right),}
где {displaystyle mu =mathbb {E} xi } — математическое ожидание и параметр нормальной случайной величины.

Более точно — приблизительно с вероятностью 0,9973 значение нормально распределённой случайной величины лежит в указанном интервале.

Моделирование нормальных псевдослучайных величин[править | править код]

При компьютерном моделировании, особенно при применении метода Монте-Карло, желательно использовать величины, распределенные по нормальному закону. Многие алгоритмы дают стандартные нормальные величины, так как нормальную величину {displaystyle Xsim N(mu ,sigma ^{2})} можно получить как:

{displaystyle X=mu +sigma Z,}
где Z — стандартная нормальная величина.

Алгоритмы также используют различные преобразования равномерных величин.
Простейшие приближённые методы моделирования основываются на центральной предельной теореме. Если сложить достаточно большое количество независимых одинаково распределённых величин с конечной дисперсией, то сумма будет иметь распределение, близкое к нормальному. Например, если сложить 100 независимых стандартно равномерно распределённых случайных величин, то распределение суммы будет приближённо нормальным.

Для программного генерирования нормально распределённых псевдослучайных величин предпочтительнее использовать преобразование Бокса — Мюллера. Оно позволяет генерировать одну нормально распределённую величину на базе одной равномерно распределённой.

Также существует алгоритм Зиккурат, который работает даже быстрее преобразования Бокса — Мюллера. Тем не менее, сложнее в реализации, но его применение оправдано в случаях, когда требуется генерирование очень большого числа неравномерно распределённых случайных чисел.

Нормальное распределение в природе и приложениях[править | править код]

Нормальное распределение часто встречается в природе. Например, следующие случайные величины хорошо моделируются нормальным распределением:

  • отклонение при стрельбе;
  • погрешности измерений (однако погрешности некоторых измерительных приборов имеют иное распределение);
  • некоторые характеристики живых организмов в популяции.

Такое широкое распространение этого распределения связано с тем, что оно является бесконечно делимым непрерывным распределением с конечной дисперсией. Поэтому к нему в пределе приближаются некоторые другие, например биномиальное и пуассоновское. Этим распределением моделируются многие недетерминированные физические процессы[13].

Многомерное нормальное распределение используется при исследовании многомерных случайных величин (случайных векторов). Одним из многочисленных примеров таких приложений является исследование параметров личности человека в психологии и психиатрии.

Связь с другими распределениями[править | править код]

{displaystyle t={frac {{overline {X}}-mu }{S/{sqrt {n}}}}={frac {{frac {1}{n}}(X_{1}+cdots +X_{n})-mu }{sqrt {{frac {1}{n(n-1)}}left[(X_{1}-{overline {X}})^{2}+cdots +(X_{n}-{overline {X}})^{2}right]}}}sim t_{n-1}.}
{displaystyle F={frac {left(X_{1}^{2}+X_{2}^{2}+cdots +X_{n}^{2}right)/n}{left(Y_{1}^{2}+Y_{2}^{2}+cdots +Y_{m}^{2}right)/m}}sim F_{n,m}.}
  • Отношение квадратов двух стандартных нормальных случайных величин имеет распределение Фишера со степенями свободы {displaystyle left(1,1right).}

История[править | править код]

Впервые нормальное распределение как предел биномиального распределения при {displaystyle p={tfrac {1}{2}}} появилось в 1738 году во втором издании работы Муавра «Доктрина случайностей»[en][18]. Это было первое доказательство частного случая центральной предельной теоремы. В 1809 году Гаусс в сочинении «Теория движения небесных тел» ввёл это распределение как возникающее в результате многократных измерений движения небесных тел. Однако Гаусс вывел формулу для действительных случайных величин из принципа достижения максимума совместной плотности всех измерений в точке с координатами, равными среднему всех измерений. Этот принцип впоследствии подвергался критике. В 1812 году Лаплас в теореме Муавра — Лапласа обобщил результат Муавра для произвольного биномиального распределения, то есть для сумм одинаково распределённых независимых бинарных величин[3].

См. также[править | править код]

  • Аддитивный белый гауссовский шум
  • Логнормальное распределение
  • Равномерное распределение
  • Центральная предельная теорема
  • Двумерное нормальное распределение
  • Многомерное нормальное распределение
  • Распределение хи-квадрат
  • Статистический критерий
  • Частотное распределение

Примечания[править | править код]

  1. Вентцель Е. С. Теория вероятностей. — 10-е изд., стереотипное.. — М.: Academia, 2005. — 576 с. — ISBN 5-7695-2311-5.
  2. Ширяев А. Н. Вероятность. — М.: Наука, 1980.
  3. 1 2 Математический энциклопедический словарь. — М.: Советская энциклопедия, 1988. — С. 139—140.
  4. Wasserman L. All of Statistics. — New York, NY: Springer, 2004. — С. 142. — 433 с. — ISBN 978-1-4419-2322-6.
  5. Доказательство см. Гауссов интеграл
  6. Halperin, Hartley & Hoel, 1965, item 7.
  7. McPherson (1990)
  8. Wolfram|Alpha: Computational Knowledge Engine. Wolframalpha.com. Дата обращения: 3 марта 2017.
  9. Bryc (1995, p. 23)
  10. Bryc (1995, p. 24)
  11. Cover, Thomas M.; Thomas, Joy A. Elements of Information Theory. — John Wiley and Sons, 2006. — С. 254.
  12. Park, Sung Y.; Bera, Anil K. Maximum Entropy Autoregressive Conditional Heteroskedasticity Model (англ.) // Journal of Econometrics  (англ.) (рус. : journal. — Elsevier, 2009. — P. 219—230. Архивировано 7 марта 2016 года.
  13. Талеб Н. Н. Чёрный лебедь. Под знаком непредсказуемости = The Black Swan: The Impact of the Highly Improbable. — КоЛибри, 2012. — 525 с. — ISBN 978-5-389-00573-0.
  14. Королюк, 1985, с. 135.
  15. Галкин В. М., Ерофеева Л. Н., Лещева С. В. Оценки параметра распределения Коши // Труды Нижегородского государственного технического университета им. Р. Е. Алексеева. — 2014. — № 2(104). — С. 314—319. — УДК 513.015.2(G).
  16. Lukacs, Eugene. A Characterization of the Normal Distribution (англ.) // The Annals of Mathematical Statistics  (англ.) (рус. : journal. — 1942. — Vol. 13, no. 1. — P. 91—3. — ISSN 0003-4851. — doi:10.1214/aoms/1177731647. — JSTOR 2236166.
  17. Lehmann, E. L.ruen. Testing Statistical Hypotheses. — 2nd. — Springer  (англ.) (рус., 1997. — С. 199. — ISBN 978-0-387-94919-2.
  18. The doctrine of chances; or, a method of calculating the probability of events in play, L., 1718, 1738, 1756; L., 1967 (репродуцир. изд.); Miscellanea analytica de scriebus et quadraturis, L., 1730.

Литература[править | править код]

  • Королюк В. С., Портенко Н. И., Скороход А. В., Турбин А. Ф. Справочник по теории вероятностей и математической статистике. — М.: Наука, 1985. — 640 с.
  • Halperin, Max; Hartley, Herman O.; Hoel, Paul G. Recommended Standards for Statistical Symbols and Notation. COPSS Committee on Symbols and Notation (англ.) // The American Statistician  (англ.) (рус. : journal. — 1965. — Vol. 19, no. 3. — P. 12—14. — doi:10.2307/2681417. — JSTOR 2681417.
  • McPherson, Glen. Statistics in Scientific Investigation: Its Basis, Application and Interpretation (англ.). — Springer-Verlag, 1990. — ISBN 978-0-387-97137-7.
  • Bryc, Wlodzimierz. The Normal Distribution: Characterizations with Applications (англ.). — Springer-Verlag, 1995. — ISBN 978-0-387-97990-8.

Ссылки[править | править код]

  • Таблица значений функции стандартного нормального распределения
  • Онлайн расчёт вероятности нормального распределения

Правило трех сигм

Содержание:

  • В чем заключается правило трех сигм (3-sigma rule) в статистике
  • Нормальное распределение случайной величины
  • Примеры решения задач

В чем заключается правило трех сигм (3-sigma rule) в статистике

Определение

Математическое ожидание — это среднее значение случайной величины. Обозначается как (mu).

Определение

Стандартное или среднеквадратичное отклонение — это наиболее частый показатель рассеивания значений величины относительно математического ожидания. Обозначается символом (sigma), который произносится как «сигма».

Определение

Правило трех сигм заключается в том, что при нормальном распределении практически все значения величины с вероятностью 0,9973 лежат не далее трех сигм в любую сторону от математического ожидания, то есть находятся в диапазоне (left[mu-3sigma;;mu+3sigmaright]).

Осторожно! Если преподаватель обнаружит плагиат в работе, не избежать крупных проблем (вплоть до отчисления). Если нет возможности написать самому, закажите тут.

Приблизительно 99,7% всех значений лежат в пределе трех сигм от математического ожидания, около 95% — в пределах двух сигм, а примерно 68% значений лежат в пределах всего одной сигмы.

Те значения, которые выходят за рамки 3 сигм, принято считать грубыми ошибками. Большое количество таких ошибок может свидетельствовать о том, что распределение на самом деле не является нормальным. В этом заключается практическая польза правила 3 сигм.

График

 

Нормальное распределение случайной величины

Определение

Нормальное распределение (распределение Гаусса) — это такое распределение вероятностей, функция плотности которого совпадает с функцией Гаусса.

(fleft(xright)=frac1{sigmasqrt{2pi}}expleft(-frac{left(x-muright)^2}{2sigma^2}right))

где (mu) — значение математического ожидания, (sigma) – величина среднеквадратического отклонения, (sigma^2) — дисперсия распределения.

Определение

Функция плотности — это функция, которая характеризует сравнительную вероятность реализации определенных значений случайной переменной или переменных.

Иными словами, функция плотности показывает, с какой вероятностью случайное значение будет равно заданному. Чем «выше» значение по оси ординат, тем больше вероятность, что случайное значение будет равно данному по оси абсцисс. Таким образом, на графике нормального распределения наиболее вероятно то значение, которое совпадает с точкой максимума. А те значения, которые находятся в «основании» графика, то есть находятся низко по оси Y, менее вероятны.

Нормальное распределение величины центрировано и нормировано.

График нормального распределения

 

График нормального распределения тесно связан с центральной предельной теоремой (ЦПТ). Согласно ЦПТ, сумма достаточно большого количества слабо зависимых случайных величин имеет распределение, близкое к нормальному.

Пример

Нормальное распределение не является абстрактным понятием. Ему соответствуют некоторые характеристики живых организмов в популяции, отклонение от мишени при стрельбе, измерения и их погрешности. Во всех этих случаях наиболее распространена группа близких значений, но есть отклонения как в большую, так и в меньшую сторону.

Примеры решения задач

Рассмотрим несколько простых задач на применение правила 3 сигм.

Задача 1

Имеется выборка жителей богатого дома. Средняя зарплата жильцов составляет 150 000 рублей, среднеквадратичное отклонение равно 20 000 рублей. Определите, жители с какой зарплатой вряд ли могут жить в этом доме: А) 205 000 рублей; Б) 95 000; В) 230 000; Г) 87 000.

Решение

Чтобы решить данную задачу, необходимо определить, каковы верхние и нижние границы возможных зарплат в доме. Для этого воспользуемся правилом 3 сигм.

(s_{нижн.}=mu-3sigma=150;000-3cdot20;000=150;000-60;000=90;000)

(s_{верх.}=mu+3sigma=150;000+3cdot20;000=150;000+60;000=210;000)

Значения А, Б входят в диапазон (left[90;000;;210;000right]). Значения В, Г не входят в него и, следовательно, являются искомыми грубыми ошибками.

Ответ: В, Г.

Задача 2

Завод выпускает партии по 100 цилиндрических деталей. Диаметр каждой детали — случайная величина, распределенная по нормальному закону. Математическое ожидание равно 65 мм, а среднее отклонение составляет 0,9 мм. Для упаковки партии используют коробки шириной 6600 мм. Детали кладут в один ряд. Если детали не поместятся в одну коробку, придется брать еще одну. Найдите вероятность, что понадобится только одна коробка.

Решение

Т. к. диаметр каждой детали распределен нормально, то и их общий диаметр также будет распределен нормально.

Чтобы все детали поместились в одну коробку, необходимо, чтобы отклонение диаметра всех деталей отклонялось от ожидаемого не более чем на 100 мм. Это следует из того, что математическое ожидание общего диаметра всех деталей равно (65cdot100=6500). А ширина коробки составляет 6600 мм.

Для расчета воспользуемся формулами дисперсии и правилом 3 сигм, чтобы вычислить вероятность, что понадобится только одна коробка.

(Pleft|X-M(X)right|<100;Rightarrow2Phileft[frac{100}{100sigma}right]=2Phileft[1,111right]=2cdot0,3665=0,733)

Ответ: 0,733

Нормально разбираемся в Нормальном распределении

Уровень сложности
Средний

Время на прочтение
6 мин

Количество просмотров 11K

Всем привет. Это пост про интуитивное понимание Нормального распределения.

Обычный курс теории вероятностей проходит следующим образом. Сначала вам даются понятные и относительно простые концепции. Все легко объясняется “на пальцах”: подбрасывание монеток, красные и белые шары в урнах, кролики в клетках и так далее.

Но в следующей теме вас бросают в яму к этому монстру:

begin{aligned} f(x) = frac{1}{sigma sqrt{2pi}} exp left( -frac{(x-mu)^2}{2sigma^2} right) end{aligned}

Внезапно больше нет ни монет, ни урн, ни шаров. Вам только говорят запомнить эту функцию плотности вероятности Нормального распределения, что это очень важно и что график похож на колокол. В остальном вы предоставлены сами себе.

Старый-добрый колокол Гауссианы

Старый-добрый колокол Гауссианы

Но что это такое? Почему там экспонента? Почему минус? Зачем делить на 2 сигма-квадрат? Откуда взялось число Пи? Куда делись монеты, шары, урны и кролики? Почему мы от интуитивных объяснений перешли к тупому запоминанию?

Каждая формула несет некоторую идею. В этом посте мы будем препарировать нормальное распределение, пока не поймем, что оно в себе несет. В конце мы выведем функцию плотности вероятности, чтобы понять, откуда она берется.

Я покажу, что, несмотря на пугающий вид, Нормальное распределение это не конь в вакууме. Это все еще про броски монеток, урны и другие вещи из реального мира.

Самореклама

Эта статья является переводом моей статьи из Substack Understanding the Normal Distribution for Real. Переходите туда если вам удобнее читать на английском или хочется получать такой контент по почте.

Так же у меня есть телеграм канал @boris_again


Препарируем монстра

Начнем изнутри. Разберемся в идеях, стоящих за этим куском:

y = -frac{(x-mu)^2}{2 sigma^2}

Режем монстра на части.

y = (x - mu)^2

Где muэто среднее, один из параметров распределения.

Посмотрим на график функции y = (x - mu)^2 при mu = 0:

Мы видим параболу. Она похожа на форму колокола, но перевернутую. Также заметьте, что ось y произвольна, а не находится в диапазоне [0, 1], так что это пока не распределение.

Обратите внимание, что чем дальше x от среднего значения, тем больше значение функции. Во-вторых, квадрат позволяет нам одинаково относиться к отрицательным и положительным значениям. Он делает форму колокола симметричной.

Идея: mu определяет местоположение вершины колокола, и распределение становится симметричным.

y = -(x-mu)^2

Наконец-то, форма колокола! Но значения y отрицательны. Естественно у нас не может быть отрицательных вероятностей.

Что будет если менять mu?

Меняем среднее

Меняем среднее

Вывод: Изменение muперемещает пик колокола в другое место.

Добавим следующий кусок, деление на сигма квадрат:

y = -frac{(x-mu)^2}{2 sigma^2}

Здесь сигма —  это второй параметр распределения: стандартное отклонение. Квадрат сигмы —  это дисперсия. Что это дает нашему распределению?

Попробуем поменять ее:

Меняем сигму

Меняем сигму

Идея: знаменатель с сигмой задает скорость изменения значения функции по мере удаления от среднего. Меньшие сигмы создают более узкие колоколообразные формы.

Мы можем рассматривать сигму как меру неопределенности. Малые сигмы указывают на то, что среднее значение более вероятно. Большие сигмы распределяют вероятность по более широкому диапазону.

Сигма возводится в квадрат, чтобы показать: неопределенность возрастает квадратично (быстро), а не линейно (медленно). Другими словами, небольшая вариация данных сильно меняет колоколообразную кривую.


Отлично, у нас есть колоколообразная кривая. Но она не похожа на распределение вероятностей. Чтобы это было распределение, выходы должны находиться в пределах [0, 1] и в сумме равняться 1. Вот здесь и появляется экспонента.

Давайте построим на график e(x) около нуля:

e(x)

e(x)

Обратите внимание: экспонента отображает любой отрицательный вход в значение между 0 и 1. В нашем случае аргумент e(x) всегда отрицательный.

y = exp{(-frac{(x-mu)^2}{2 sigma^2})}

Отлично! Теперь все значения находятся между [0, 1], и у нас получилась нужная нам колоколообразная кривая. Мы закончили.


На самом деле нет. Это прекрасная колоколообразная кривая, но в сумме значения не равны 1. Один только пик почти равен 1.

Как сделать так, чтобы сумма была равна 1? Нормализовать!

Как бы вы нормализовали такую последовательность чисел, как: [0, 1, 2, 3, 4]? Легко: разделить на сумму.

В нашем случае функция — это не просто последовательность чисел. Она непрерывна. Тем не менее, идея та же. Чтобы получить сумму давайте проинтегрируем:

begin{aligned} y = int expleft(-frac{(x-mu)^2}{2sigma^2}right)dx = sqrt{2pi}sigma end{aligned}

Теперь, когда у нас есть сумма, давайте разделим функцию на нее:

y = frac{1}{sqrt{2 pi}sigma} exp{(-frac{(x-mu)^2}{2 sigma^2})}

Наконец, мы собрали все части, чтобы получить нормальное распределение.

Если вм нужны подробности вычисления интеграла, то я рекомендую это видео:


Связь с Биномиальным распределением

Нормальное распределение тесно связано с биномиальным. Давайте отвлечемся и рассмотрим биномиальное распределение поближе. Это поможет нам получить полное представление о нормальном распределении.

Представьте, что у вас есть Substack рассылка, и вы собираетесь запустить рекламную кампанию, нацеленную на 100 человек. Вы знаете свою конверсию в подписку: 10%. Какова вероятность того, что подпишутся ровно 5 человек?

Давайте представим каждого пользователя в виде броска монеты. Он либо регистрируются с вероятностью p=0.1, либо нет. Это может быть описано распределением Bernoulli(n, p), которое имеет следующую функцию массы вероятности:

P(X=k) = begin{cases} p & text{if } k=1 \ 1-p & text{if } k=0 \ end{cases}

Идея: это бросок монеты, есть два возможных исхода, и с вероятностью p выпадает орел.

Это распределение позволяет отвечать на вопросы типа “Какова вероятность выпадения орла для этой монеты?” или, более практично, “Какова вероятность того, что пользователь подпишется?”.

Мы можем сложить несколько случайных величин Бернулли и получить Биномиальное распределение Binom(k, p). Оно говорит нам о вероятности получения k успехов из n независимых испытаний Бернулли с вероятностью p.

Биномиальное распределение объединяет все независимые испытания, чтобы ответить на новые вопросы: “Какова вероятность выпадения 3 орлов из 3 бросков?” или “Сколько пользователей мы можем ожидать при регистрации?”

Вот PMF Биномиального распределения:

begin{aligned} f(k, n) = {nchoose k} p^k (1-p)^{n-k} end{aligned}

Где {nchoose k} = frac{n!}{k!(n-k)!} это Биномиальный коэффициент.

Биномиальный коэффициент используется для того, чтобы учесть множество способов регистрации k человек. Например, при наличии четырех посетителей существует шесть способов зарегистрироваться двум из них.

Давайте подставим наши значения, чтобы найти вероятность того, что зарегистрируются ровно пять человек: n = 100, k = 5, p = 0,1.

begin{aligned} f(k, n) = {100choose 5} 0.1^5 (1-0.1)^{100-5} = 0.03387  end{aligned}

Ожидаемое количество подписчиков среди 5 пользователей равно просто n умноженное на p, то есть 3.387. Мы также можем получить вероятность регистрации хотя бы 5 подписчиков, просуммировав по  k geq 5, и получим 0.94242.

Теперь давайте посмотрим, что происходит по мере роста числа испытаний.

Обратите внимание: с ростом n результирующая PMF приближается к знакомой колоколообразной форме Нормального распределения.

Оказывается, что Нормальное распределение является предельным случаем биномиального распределения. Биномиальное распределение отвечает на вопрос: “Насколько вероятно получить k орлов из n бросков монеты?” Нормальное распределение имеет ту же идею, но дает приблизительный результат.

Нас интересует это приближение, потому что вычисление коэффициентов биномиального распределения для больших значений требует огромных вычислительных затрат. Факториалы в формуле являются самой большой проблемой. Например, для n=100, k=5 биномиальный коэффициент равен 75287520. Это очень дорогое вычисление, особенно если вам нужно суммировать по многим  k.

Вместо вычисления биномиальной PMF мы можем аппроксимировать его вычислением PDF нормального распределения. Это гораздо быстрее: нужно только подставить несколько чисел в формулу. Этот подход часто используется в опросах.

Основная идея нормального распределения: число успехов в большом количестве независимых испытаний типа “да или нет” распределено симметрично вокруг среднего значения, а форма распределения описывается функцией Гаусса.

Надеюсь, теперь PMF нормального распределения больше не является просто страшной формулой в вакууме. Она по-прежнему связана с подбрасыванием монет и реальной жизнью, как и Биномиальное распределение


Выводим Нормальное распределение

Почему именно такая функция позволяет нам аппроксимировать Биномиальное распределение? Чтобы ответить на этот вопрос, нам нужно будет вывести PMF нормального распределения. Есть несколько способов сделать это, но мы будем использовать наши знания о том, что нормальное распределение является предельным случаем биномиального распределения. Я опишу только основные шаги, так как детали вывода довольно длинные, но вы можете найти полный вывод в этой статье.

Нормальное распределение является предельным случаем Биномиального, если p не очень мало, и выполняется условие:

np to infty  text{as}  n to infty

Если это не так, мы получаем распределение Пуассона, что тоже круто, но выходит за рамки этого поста.

Помните биномиальный PMF? Предположим, у нас есть последовательность испытаний Бернулли, каждое с вероятностью успеха p, и мы повторяем этот эксперимент n раз. Пусть X — количество успехов в n испытаниях. Тогда X имеет биномиальное распределение с параметрами n,p. Функция массы вероятности X определяется как:

begin{equation} P(X=k) = binom{n}{k}p^k(1-p)^{n-k} end{equation}

Самая тяжелая часть — факториал. Давайте воспользуемся приближением Cтирлинга, чтобы вычислить факториалы быстрее:

begin{equation} n! approx n^n e^{-n} sqrt{2pi n}= sqrt{2pi n}(frac{n}{e})^n end{equation}

Подставив это в Биномиальный коэффициент мы получаем:

begin{align} frac{n!}{k!(n-k)!} approx frac{sqrt{2pi n}(frac{n}{e})^n}{sqrt{2pi k}(frac{k}{e})^k sqrt{2pi (n-k)}(frac{n-k}{e})^{n-k}}   end{align}

Это может выглядеть пугающе, но на самом деле это просто замена и некоторая перестановка терминов.

Подставляя это приближение в PMF Биномиального распределения, мы получаем:

begin{align} P(X=k) = binom{n}{k}p^k(1-p)^{n-k} approx frac{1}{sqrt{2pi n p (1-p)}} cdot expleft(-frac{(k-np)^2}{2np(1-p)}right) end{align}

Это функция плотности вероятности нормального распределения при mu = np, и квадратом sigma^2 = np(1-p) :

begin{equation} f(x) = frac{1}{sqrt{2pisigma^2}}expleft(-frac{(x-mu)^2}{2sigma^2}right) end{equation}

Вывод: гауссиана появляется, когда мы заменяем вычисления факториалов в биномиальном приближении.


Завершение

Мы разобрали нормальное распределение на его компоненты, исследовали связь между биномиальным и нормальным распределением и, наконец, получили нормальную PDF. Надеюсь, теперь для вас это не столько таинственный монстр, сколько прекрасный способ описания явлений реального мира.

Код для графиков вы можете найти в этом коллабе.

Спасибо за внимание! Если вам нравится такой контент, то подписывайтесь на мой телеграм канал @boris_again и substack.

  1. Нормальное распределение.

График
дифференциальной функции нормального
распределения называют нормальной
кривой (кривой Гаусса).

а
– соответствует мат. ожиданию

σ
– среднее квадратическое отклонение

Исследуем
функцию методами дифференциального
исчисления.

  1. D=R
    – функция определена на всей оси х.

  2. нормальная
    кривая расположена над осью х.

  3. – ось
    х служит горизонтальной асимптотой
    графика.


  4. .
    y’=0
    при x=a,
    y’>0
    при x<a,
    y’<0
    при x>a.
    При x=a
    функция имеет максимум, равный

    .

  5. Разность
    х-а содержится в аналитическом выражении
    функции в квадрате, то есть график
    функции симметричен относительно
    прямой х=а.


  6. .
    При х=а+σ и х=а-σ

    ,
    а при переходе через эти точки она
    меняет знак.

Точки
перегиба:

.

Нормальная
кривая сдвигается вправо, если параметр
а
возрастает и влево, если а
убывает. Чем больше σ,
тем кривая более сжимается к оси х, и
наоборот.

Вероятность
попадания в заданный интервал нормальной
случайной величины.

Свойства
Функции Лапласа:

Вероятность
попадания случайной величины,
распределённой по нормальному закону:

  1. Правило «трёх сигма».

Преобразуем
формулу

положив


.
В итоге получим:

Если
t=3
и, следовательно,

,
то

То
есть вероятность того, что абсолютная
величина отклонения превысит утроенное
среднее квадратической отклонение,
очень мала. Такое событие можно считать
невозможным.

Правило
трёх сигм
:
Если случайная величина распределена
нормально, то абсолютная величина её
отклонения от математического ожидания
не превосходит утроенного среднего
квадратического отклонения.

  1. Равномерное распределение.

Распределение
вероятностей называют равномерным,
если на интервале, которому принадлежат
все возможные значения случайной
величины, дифференциальная функция
имеет постоянное значение.

Найдём
дифференциальную функцию равномерного
распределения, считая, что все возможные
значения случайной величины заключены
в интервале (a,
b),
на котором дифференциальная функция
сохраняет постоянное значение

.

при

Найдём
значение С.

  1. Закон Пуассона.

Рассмотрим
дискретную случайную величину Х, которая
может принимать только целые, не
отрицательные значения. Говорят, что
случайная величина Х распределена по
закону Пуассона, если вероятность того,
что она примет определенное значение
m,
выражается формулой:

Где
а
– некоторая положительная величина,
называемая параметром Пуассона.

Ряд
распределения случайной величины X,
распределённой по закону Пуассона,
имеет вид:

Хm

0

1

2

m

Pm

Убедимся,
что сумма всех вероятностей

равна 1.

По
определению математического ожидания:

Для
определения дисперсии найдём второй
начальный момент Х:

Находим
дисперсию:

Равенство
мат. ожидания и дисперсии применяется
на практике для решения вопроса,
правдоподобия гипотезы о том, что
случайная величина Х распределена по
закону Пуассона.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Добавить комментарий