Как найти дисперсию по характеристической функции

Под
моментом случайной величины подразумевается
произведение значения этой величины
на вероятность ее обнаружения.

Математическое
ожидание — понятие среднего значения
случайной величины в теории вероятностей.
Обозначается

или иногда

(в русской литературе). В статистике
часто используют обозначение
.

Рассмотрим
случайную величину с числовыми
значениями. Часто оказывается полезным
связать с этой функцией число – ее
«среднее значение» или, как говорят,
«среднюю величину», «показатель
центральной тенденции». По ряду причин,
некоторые из которых будут ясны из
дальнейшего, в качестве «среднего
значения» обычно используют математическое
ожидание.

Определение.
Математическим
ожиданием случайной величины Х называется
число

(Формула
для дискретных значений)

(Формула
для непрерывных значений)

т.е.
математическое ожидание случайной
величины – это взвешенная сумма значений
случайной величины с весами, равными
вероятностям соответствующих элементарных
событий.

[
Пример.
Вычислим математическое ожидание числа,
выпавшего на верхней грани игрального
кубика. Непосредственно из определения
МО следует, что

]

Дисперсия
случайной величины

— мера разброса данной случайной
величины, т. е. её отклонения от
математического ожидания. Обозначается


в русской литературе и

в зарубежной. В статистике часто
употребляется обозначение

или
.
Квадратный корень из дисперсии

называется среднеквадратичным
отклонением, стандартным отклонением
или стандартным разбросом.

Пусть


— случайная величина, определённая на
некотором вероятностном пространстве.
Тогда

где символ

обозначает математическое ожидание.

Свойства

  • В
    силу линейности математического
    ожидания справедлива формула:

  • Дисперсия
    любой случайной величины неотрицательна:

  • Если
    дисперсия случайной величины конечна,
    то конечно и её математическое ожидание;

  • Если
    случайная величина равна константе,
    то её дисперсия равна нулю:

    Верно и обратное: если
    ,
    то

  • ,

если


независимы;

[Пример

Пусть
случайная величина

имеет стандартное непрерывное равномерное
распределение на

т. е. её плотность вероятности задана
равенством

Тогда

и

Тогда

]

Sources:Мат.
ожидание 1
,
Мат.
ожидание 2
,
Дисперсия

Дополнение:
Момент
случайной величины

3. Характеристическая функция случайных величин.

Характеристическая
функция случайной величины

— один из способов задания распределения.
Характеристические функции могут быть
удобнее в тех случаях, когда, например,
плотность или функция распределения
имеют очень сложный вид. Также
характеристические функции являются
удобным инструментом для изучения
вопросов слабой сходимости (сходимости
по распределению).

Пусть
есть случайная величина

с распределением
.
Тогда характеристическая функция
задаётся формулой:

.

Пользуясь
формулами для вычисления математического
ожидания, определение характеристической
функции можно переписать в виде:

,

то
есть характеристическая функция — это
преобразование Фурье распределения
случайной величины.

(Ф1).
Характеристическая функция всегда
существует:

Полезно
вспомнить, что даже

(Мат. ожидание) существует не всегда.

[
Доказательство.
Воспользуемся свойством

(Дисперсия не может быть отрицательной),
равносильным неравенству
:

(Ф2).
По характеристической функции однозначно
восстанавливается распределение
(функция распределения, плотность или
таблица распределения). Другими словами,
если две случайные величины имеют
одинаковые характеристические функции,
то и распределения этих величин совпадают.
]

Формулы,
с помощью которых по характеристической
функции восстанавливается распределение,
в анализе называют формулами “обратного
преобразования Фурье”. Например, если
модуль характеристической функции
интегрируем на всей прямой, то у случайной
величины есть плотность распределения
и она находится по формуле

Ни
одна из формул обратного преобразования
Фурье нам не понадобится.

(Ф3).
Характеристическая функция случайной
величины

связана с характеристической функцией
случайной величины

равенством

[
Пример.

Пусть


имеет распределение Бернулли.

Случайная
величина

имеет распределение Бернулли, если она
принимает всего два значения:

и

с вероятностями

и

соответственно. Таким образом:

,

.

Тогда:

.
]

Sources:
Хар.
функции 1
,
Хар.
функции 2

Дополение:
Хар.функции
через привычные обозначения матожидания

Соседние файлы в предмете Государственный экзамен

  • #
  • #

Характеристическая функция случайной величины

Для случайной величины $xi$ характеристическая функция (ХФ) определяется следующим образом:

$$
phi_{xi}(t)=M[e^{i txi}].
$$

Для дискретной случайной величины с законом вида $(x_k,p_k)$ характеристическая функция выражается как

$$phi_{xi}(t)=M[e^{i txi}]=sum_k e^{i t x_k}cdot p_k.$$

Для непрерывной случайной величины с плотностью распределения $f(x)$:

$$phi_{xi}(t)=M[e^{i txi}]=int_{-infty}^{infty} e^{itx}cdot f(x),dx.$$

Характеристическая функция — это преобразование Фурье распределения случайной
величины.

По известной характеристической функции можно вычислять моменты случайной величины по формуле:

$$M[xi^n] = frac{1}{i^n} cdotfrac{d^n}{dx^n} phi_{xi}(t)|_{t=0}. $$

Характеристическая функция однозначно определяет распределение случайной величины. ХФ суммы независимых случайных величин равна произведению их характеристических функций (это свойство используется для доказательства композиционной устойчивости, например в примере 3 для нормального распределения). ХФ существует всегда, непрерывна, ограничена ($|phi_{xi}(t)| le 1$), в нуле равна единице.

В этом разделе вы найдете примеры нахождения характеристической функции и моментов для разных законов распределения.

Понравилось? Добавьте в закладки

Примеры решений: характеристическая функция

Задача 1. По заданному закону или плотности распределения случайной величины $xi$ найти характеристическую функцию $phi(t)$.
Закон Пуассона: $$P(xi=k)=a^k/k!cdot e^{-a}, k=1,2,… a=0.38$$

Задача 2. По заданному закону распределения найти характеристическую функцию $phi(t)$, кумулянтную функцию $gamma(t)$ и первые четыре семиинварианта этого распределения.
Биномиальный закон (Бернулли)

$$P(xi=k)=C_n^k p^k (1-p)^{n-k}, 0 lt p lt 1, k=0,1,2,…,n.$$

Задача 3. С помощью характеристических функций, доказать, что сумма независимых нормально распределенных случайных величин имеет нормальное распределение. Указать параметры этого распределения.

Задача 4. Найти характеристическую функцию дискретной случайной величины Х, подчиняющейся закон распределения Паскаля $P(X=m)=a^m/(1+a)^{m+1} (agt 0)$. По ней найти $M[X]$ и $D[X]$.

Задача 5. Найти характеристическую функцию непрерывной случайной величины, имеющей плотность распределения $p_{xi}(x)=e^{-|x|}/2.$

Мы отлично умеем решать задачи по теории вероятностей

Основные законы распределения непрерывных случайных величин

Определение характеристической функции и её использование в теории вероятностей. Нормальный закон распределения и его значение в теории вероятностей. Логарифмически нормальный закон. Гамма-распределение. Экспоненциальный закон и его использование в теории надёжности, теории очередей. Равномерный закон. Распределения хи-квадрат, Вейбула, Стьюдента, Фишера.

Характеристическая функция

Во многих задачах полезной характеристикой случайной величины является её характеристическая функция. Характеристической функцией случайной величины X называется математическое ожидание комплексной случайной величины e^{isX}, рассматриваемое как функции параметра s (здесь и далее в этой части i– мнимая единица). Таким образом, характеристическая функция непрерывной случайной величины X задаётся формулой

g(s)=intlimits_{-infty}^{+infty}e^{isx}f(x),dx, где f(x)– плотность вероятности.

Отметим следующие свойства характеристической функции:

1) при любом действительном значении s характеристическая функция по модулю не превосходит единицы, то есть

|g(s)|leqslant1,~sinmathbb{R},;

2) характеристическая функция равна единицы при s=0, то есть g(0)=1.

Плотность вероятности случайной величины X можно выразить через её характеристическую функцию:

f(x)=frac{1}{2pi}intlimits_{-infty}^{+infty}e^{isx}g(s),ds.

Таким образом, характеристическая функция случайной величины является её полной вероятностной характеристикой. Зная характеристическую функцию случайной величины, можно найти её плотность вероятности, а следовательно, и функцию распределения, то есть полностью определить закон распределения случайной величины. Через характеристическую функцию можно выразить также числовые характеристики случайной величины, в частности её математическое ожидание и дисперсию:

M(X)=-ig'(0);quad D[X]=g'(0)-g''(0).


Нормальный закон распределения (закон Гаусса)

Плотность вероятности нормально распределённой случайной величины X выражается формулой

f(x)=frac{1}{sigmasqrt{2pi}}exp!left(-frac{(x-a)^2}{2sigma^2}right).

(8.1)

Кривая распределения изображена на рис. 16. Она симметрична относительно точки x=a (точка максимума). При уменьшении sigma ордината точки максимума неограниченно возрастает, при этом кривая пропорционально сплющивается вдоль оси абсцисс, так что площадь под её графиком остаётся равной единицы (рис. 17).

Кривые распределения нормального закона (закон Гаусса)

Нормальный закон распределения широко применяется в задачах практики. Объяснить причины этого впервые удалось Ляпунову. Он показал, что если случайная величина может рассматриваться как сумма большого числа малых слагаемых, то при достаточно общих условиях закон распределения этой случайной величины близок к нормальному независимо от того, каковы законы распределения отдельных слагаемых. А так как практически случайные величины в большинстве случаев бывают результатом действия множества причин, то нормальный закон оказывается наиболее распространённым законом распределения (подробнее об этом [url]см. часть 9[/url]). Укажем числовые характеристики нормально распределённой случайной величины (математическое ожидание и дисперсия):

M(X)=a;qquad D[X]=sigma^2.

Таким образом, параметры a и sigma в выражении (8.1) нормального закона распределения представляют собой математическое ожидание и среднее квадратическое отклонение случайной величины. Принимая это во внимание, формулу (8.1) можно представить следующим образом:

f(x)=frac{1}{sqrt{2pi{D[X]}}}exp!left(-frac{(x-M(X))^2}{2D[X]}right).

Эта формула показывает, что нормальный закон распределения полностью определяется математическим ожидание и дисперсией случайной величины. Таким образом, математическое ожидание и дисперсия полностью характеризуют нормально распределённую случайную величину. Разумеется, что в общем случае, когда характер закона распределения неизвестен, знание математического ожидания и дисперсии недостаточно для определения этого закона распределения.

Характеристическая функция нормального распределения случайной величины задаётся формулой

g(s)=exp!left(ias-frac{1}{2}sigma^2s^2right).


Пример 1. Найти вероятность того, что нормально распределённая случайная величина X удовлетворяет неравенству alpha<X<beta.

Решение. Используя свойство 3 плотности вероятности (см. раздел 4, часть 4), получаем

{P{alpha<X<beta}=intlimits_{alpha}^{beta}f(x),dx=frac{1}{sigmasqrt{2pi}}intlimits_{alpha}^{beta}exp!left(-frac{(x-a)^2}{2sigma^2}right)!dx.}

Положим frac{x-a}{sigma}=t, тогда

{P{alpha<X<beta}=frac{1}{sigmasqrt{2pi}}intlimits_{tfrac{beta-a}{sigma}}^{tfrac{alpha-a}{sigma}}sigmaexp!left(-frac{t^2}{2}right)!dt=Phi!left(frac{beta-a}{sigma}right)-Phi!left(frac{alpha-a}{sigma}right).}

где Phi(x) — функция Лапласа.

График плотности вероятности стандартизированной нормальной величины

Выполним некоторые числовые расчёты. Если положить alpha=a-3sigma;~beta=a+3sigma в условии примера 1, то

{P{a-3sigma <X<a+3sigma}=2Phi(3)=0,!9973.}

Последний результат означает, что с вероятностью, близкой к единице (0,9973), случайная величина, подчиняющаяся нормальному закону распределения, не выходит за пределы интервала (a-3sigma;a+3sigma). Это утверждение называют правилом трёх сигм.

Наконец, если a=0,~sigma=1, то случайная величина, распределённая по нормальному закону с такими параметрами, называется стандартизированной нормальной величиной. На рис. 18 изображён график плотности вероятности этой величины

f(x)=frac{1}{sqrt{2pi}}exp!left(-frac{x^2}{2}right).

Примеры с использованием нормального закона распределения приведены также в части 9.


Логарифмически нормальное распределение

Говорят, что случайная величина Y имеет логарифмически нормальное распределение (сокращённо логнормальное распределение), если её логарифм ln{Y}=X распределён нормально, то есть если Y=e^X, где величина X имеет нормальное распределение с параметрами a,sigma.

Плотность логнормального распределения задаётся формулой

f(y)=frac{1}{ysigmasqrt{2pi}}exp!left(-frac{(ln{y}-a)^2}{2sigma^2}right),~~~y>0.

Математическое ожидание и дисперсию логнормального распределения определяют по формулам

M(Y)=exp!left(a+frac{sigma^2}{2}right); quad D[Y]=e^{2(2sigma^2+a)^2-a^2}-e^{2a+sigma^2}.

Кривая этого распределения изображена на рис. 19.

График кривой логнормального распределения

Логарифмически нормальное распределение встречается в ряде технических задач. Оно даёт распределение размеров частиц при дроблении, содержаний элементов в минералах в извержённых горных пародах, численности рыб в море и т.д. Встречается такое распределение во всех задачах, где логарифм рассматриваемой величины можно представить в виде суммы большого количества независимых равномерно малых величин:

ln{Y}=X=X_1+X_2+cdots+X_n=sumlimits_{k=1}^{n}X_k, то есть Y=prodlimits_{k=1}^{n}e^{X_k}, где e^{X_k} независимы.


Гамма-распределение

Говорят, что случайная величина X имеет гамма-распределение с параметрами a>0 и b>0, если её плотность распределения вероятностей имеет вид

f(x)=begin{cases}0,&xleqslant0;\dfrac{b^a}{Gamma(a)}x^{a-1}e^{-bx},&x>0.end{cases} где Gamma(a)=intlimits_{0}^{infty}t^{a-1}e^{-t},dt — гамма-функция Эйлера.

На рис. 20 показаны кривые распределения вероятностей при значениях параметра a>1 и a<1 (при a=1 получаем экспоненциальное распределение).

График кривых гамма-распределения вероятностей

Математическое ожидание и дисперсия, подчинённые гамма-распределению, задаются формулами

M(X)=frac{a}{b};qquad D[X]=frac{a}{b^2}.

Отметим, что при a>1 гамма-распределение имеет моду

M_o=frac{a-1}{b}

(графически это означает, что кривая распределения имеет точку максимума x=M_o, рис. 20).


Экспоненциальный закон распределения

Экспоненциальным распределением называется частный случай гамма-распределения с параметрами a=1;~b=lambda>0, то есть то есть плотность вероятности в этом случае

f(x)=begin{cases}0,&xleqslant0;\lambda{e^{-lambda{x}}},&x>0.end{cases}

Используя свойства два плотности распределения ([url]см.[/url]), можно найти функцию распределения F(x) экспоненциального закона:

F(x)=begin{cases}0,&x<0;\1-e^{-lambda{x}},&xgeqslant0.end{cases}

Основные характеристики (математическое ожидание и дисперсия) случайной величины X, распределённой по экспоненциальному, имеют вид

M(X)=frac{1}{lambda};~~~~~D[X]=frac{1}{lambda^2}.

Характеристическая функция экспоненциального распределения задаётся формулой

g(s)=frac{lambda}{lambda-is}.

Кривая экспоненциального распределения вероятностей показана на рис. 21,а, а график функции распределения F(x) — на рис. 21,б.

Графики плотности и функции экспоненциального распределения

Статистический смысл параметра lambda состоит в следующем: lambda есть среднее число событий на единицу времени, то есть 1slashlambda есть средний промежуток времени между двумя последовательными событиями.

Экспоненциальное (показательное) распределение часто встречается в теории массового обслуживания (например, X — время ожидания при техническом обслуживании или X — продолжительность телефонных разговоров, ежедневно регистрируемых на телефонной станции) и теории надёжности (например, X — срок службы радиоэлектронной аппаратуры).


Пример 2. Случайная величина X — время работы радиолампы — имеет показательное распределение. Определить вероятность того, что время работы лампы будет не меньше 600 ч, если среднее время работы радиолампы 400 ч.

Решение. По условию задачи математическое ожидание случайной величины X равно 400 ч, следовательно, lambda=1slash 400. Искомая вероятность есть

{P{Xgeqslant600}=1-P{X<600}=1-F(600)=1-Bigl(1-expfrac{-600}{400}Bigl)=e^{-1.5}approx0,!2231.}


Распределение Вейбула

Случайная величина X подчиняется закону распределения Вейбула с параметрами ninmathbb{N},~ainmathbb{R},~b>0, если её плотность распределения вероятностей записывается в виде

График плотности распределения Вейбула

f(x)=begin{cases}0,&xleqslant{a};\dfrac{n}{b}!left(dfrac{x-a}{b}right)^{n-1}exp!left[-!left(dfrac{x-a}{b}right)^nright],&x>a.end{cases}

Математическое ожидание и мода случайной величины, распределённые по закону Вейбула, имеют следующий вид:

M(X)=a+bGamma!left(1+frac{1}{n}right)!;qquad M_0=a+sqrt[LARGE{LARGE{n}}]{frac{n-1}{n}}.

Кривая распределения Вейбула изображена на рис. 22.

Распределение Вейбула в ряде случаев характеризует срок службы радиоэлектронной аппаратуры и, кроме того, применяется для аппроксимации различных несимметричных распределений в математической статистике.


Равномерный закон распределения

Случайная величина X называется распределённой равномерно на отрезке [a;b], если её плотность распределения вероятностей постоянна на данном отрезке:

f(x)=begin{cases}0,&xnotin[a;b],\dfrac{1}{b-a},&xin[a;b].end{cases}

Все возможные значения равномерно распределённой случайной величины лежат в пределах некоторого интервала; кроме того. в пределах этого интервала все значения случайной величины одинаково вероятны (обладаю одной и той же плотностью вероятности). Равномерно распределение реализуется в экспериментах, где наудачу ставиться точка на отрезке [a;b] (X — абсцисса поставленной точки). Равномерно распределённая случайная величина встречается также в измерительной практике при округлении отчётов измерительных приборов до целых делений шкал. Ошибка при округлении отчёте до ближайшего целого деления является случайной величиной X, которая может принимать с постоянной плотностью вероятности любое значение между двумя соседними целыми делениями.

Математическое ожидание и дисперсия равномерно распределённой случайной величины

M(X)=frac{a+b}{2};qquad D[X]=frac{(b-a)^2}{12}.

Характеристическая функция равномерного распределения задаётся формулой

g(s)=frac{1}{is(b-a)}(e^{isb}-e^{isa}).

График плотности равномерного распределения изображён на рис. 23.

Графическая иллюстрация вероятности попадания случайной величины в заданную область


Пример 3. Найти вероятность попадания случайной величины, имеющей равномерное распределение на отрезке [a;b], на участок (alpha;beta), представляющий собой часть отрезка [a;b].

Решение. Используя свойство 3 плотности вероятности, получаем

P{alpha<X<beta}=intlimits_{a}^{b}frac{dx}{b-a}=frac{beta-alpha}{b-a}.

Графически вероятность P{alpha<X<beta} представляется в виде площади заштрихованного прямоугольника на рис. 24.


Распределение хи-квадрат chi^2

Частный случай гамма-распределения с параметрами a=frac{n}{2},~ninmathbb{N} и b=frac{1}{2} называется распределением хи-квадрат с n степенями свободы (пишут chi^2(n)). Если случайная величина X подчиняется закону chi^2(n), то её плотность распределения вероятностей есть

f(x)=begin{cases}0,&xleqslant0;\dfrac{1}{2^{n/2}Gamma!left(frac{n}{2}right)}x^{n/2-1}e^{-x/2},&x>0.end{cases}

Основные характеристики распределение хи квадрат (математическое ожидание и дисперсия):

M(X)=n;qquad D[X]=2n.

Кривые распределения (для различных значений n) изображены на рис. 25.

График плотности распределения хи-квадрат

Случайная величина X=chi^2(n), подчиняющаяся хи-квадрат распределению, равна сумме квадратов n независимых случайных величин U_j,~jinmathbb{N}, каждая из которых имеет стандартизированное нормальное распределение, то есть

chi^2(n)=U_1^2+U_2^2+cdots+U_n^2.

Пусть chi^2(n_1) и chi^2(n_2) — независимые случайные величины, имеющие хи-квадрат распределение со степенью свободы соответственно n_1 и n_2. Сумма этих случайных величин имеет также хи-квадрат распределение с n_1+n_2 степенями свободы:

chi^2(n_1)+chi^2(n_2)=chi^2(n_1+n_2).

Заметим, что распределение chi^2(n) при больших значениях n~(n>30) с достаточной для практических расчётов точностью аппроксимируется нормальным распределением с математическим ожиданием n и дисперсией 2n. Поэтому при больших значениях n вероятности рассчитываются по нормальному закону.

Распределение chi^2(n) играет большую роль в математической статистике. Подробнее об этом [url]см. часть 11[/url].


Распределение Стьюдента

Распределение хи-квадрат Случайная величина T(n) есть отношение двух независимых случайных величин U и sqrt{frac{chi^2(n)}{n}}, то есть

T(n)=Ucdot!left(frac{chi^2(n)}{n}right)^{-1/2}.

Распределение случайной величины T(n) называется распределением Стьюдента с n степенями свободы. Его плотность задаётся формулой

f(x)=frac{Gamma!left(frac{n+1}{2}right)}{sqrt{pi{n}},Gamma!left(frac{n}{2}right)}!left(1+frac{x^2}{n}right)^{-tfrac{n+1}{2}}.

Математическое ожидание и дисперсия случайной величины, подчинённой распределению Стьюдента X=T(n), есть

M(X)=0;qquad D[X]=frac{n}{n-2}.

Кривые распределения Стьюдента (для различных значений n) изображены на рис. 26.

График плотности распределения Стьюдента

Как и в случае и хи-квадрат распределением, при увеличении n распределение Стьюдента стремиться к нормальному, более того, стандартизованному нормальному (то есть с нулевым математическим ожиданием и единичной дисперсией). Распределение Стьюдента, как хи-квадрат распределение, широко применяется в задачах математической обработки измерений.


Распределение Фишера

Пусть случайная величина F(n_1;n_2) равна отношению двух независимых случайных величин frac{chi^2(n_1)}{n_1} и frac{chi^2(n_2)}{n_2}, то есть

F(n_1;n_2)=frac{chi^2(n_1)/n_1}{chi^2(n_2)/n_2}.

Распределение случайной величины F(n_1;n_2) называется распределением Фишера с n_1 и n_2 степенями свободы. Оно имеет следующую плотность вероятности

f(x)=begin{cases}0,&xleqslant0;\dfrac{Gamma!left(frac{n_1+n_2}{2}right)}{Gamma!left(frac{n_1}{2}right)!Gamma!left(frac{n_2}{2}right)}!left(dfrac{n_1}{n_2}right)^{frac{n_1}{2}}!dfrac{x^{frac{n_1}{2}-1}}{left(1+frac{n_1}{n_2}xright)^{frac{n_1+n_2}{2}}},&x>0.end{cases}

Математическое ожидание случайной величины, подчинённой распределению Фишера, X=F(n_1;n_2) определяется по формуле

M(X)=frac{n_2}{n_2-2},~~n_2>2.

Графики плотностей вероятностей распределения Фишера (для различных значений n_1,n_2) изображены на рис. 27.

Между случайными величинами, имеющими нормальное распределение: хи-квадрат, Стьюдента и Фишера, имеют место соотношения

T^2(n)=F(1;n),quad F(n;infty)=frac{chi^2(n)}{n},quad chi^2(1)=U^2.

Математический форум (помощь с решением задач, обсуждение вопросов по математике).

Кнопка "Поделиться"

Если заметили ошибку, опечатку или есть предложения, напишите в комментариях.

Макеты страниц

Будем обозначать распределения на через . Функцией распределения называется функция

Условия, которым должна удовлетворять функция следующие:

Обратно, любая функция удовлетворяющая этим условиям, является функцией распределения, причем соответствующее распределение вероятностей задается формулой

Если случайная величина, то функция распределения распределения случайной величины задается формулой

Функцию называют функцией распределения

Как было сказано выше, между распределениями и функциями распределения имеется взаимно однозначное соответствие; поэтому распределение можно задавать функцией распределения. Будем в дальнейшем обозначать функции распределения, соответствующие через Сходимость последовательности распределений определяется следующим образом:

для всех точек непрерывности Это условие эквивалентно следующему: для всюду плотной последовательности точек

Его можно также заменить условием

для любой ограниченной непрерывной функции

Если

то из последовательности распределений можно выбрать подпоследовательность, сходящуюся к некоторому распределению.

Преобразование Фурье распределения

называют характеристической функцией распределения Если распределение действительной случайной величины то имеем

Функцию называют также характеристической функцией случайной величины Ясно, что обладает следующими свойствами:

(II) равномерно непрерывна при

(III) положительная определенность: для любых комплексных чисел и любых действительных чисел

Обратно, любая функция непрерывная при положительно определенная и такая, что является характеристической функцией некоторого распределения Это утверждение называется теоремой Бохнера.

Будем в дальнейшем характеристические функции распределений обозначать Свойства, характеризующие соответствие между выписанные ниже, получены в основном Леви.

(III) пусть сходится к некоторой функции для каждого значения (причем не предполагается, что является характеристической функцией некоторого распределения). Тогда, если сходимость равномерна в некоторой

Таблица 4.1

Так как то на основании (4.17)

Таким же образом

Заметим, кроме того, что поэтому, согласно соотношению (II) на стр. 20 (внизу),

В этом смысле можно считать -распределение вырожденным нормальным распределением. По тем же причинам можно рассматривать -распределение как вырожденное распределение Коши.

Сказанное выше без существенных изменений переносится на -мерные распределения. Функция распределения в этом случае определяется формулой

Со сходимостью распределений все обстоит точно так же. Характеристическая функция определяется формулой

и ее свойства такие же, как в одномерном случае. Среднее значение и дисперсия становятся соответственно вектором среднего значения и матрицей ковариаций. Их компоненты задаются формулами

Если Ф – распределение случайного вектора то соответствующие задаются формулами

Найдя для примеров -мерных распределений, рассмотренных в § 2, мы получим следующую таблицу:

Отсюда легко видеть, что являются соответственно средним значением и матрицей ковариаций этого распределения.

1

Оглавление

  • ПРЕДИСЛОВИЕ АВТОРА К РУССКОМУ ИЗДАНИЮ
  • Глава 1. ОСНОВНЫЕ ПОНЯТИЯ
  • § 1. Теория меры как основа теории вероятностей.
  • § 2. Распределения вероятностей
  • § 3. Теория меры как основа теории вероятностей.
  • § 4. Функция распределения, характеристическая функция, среднее значение, дисперсия
  • § 5. Вероятностные процессы
  • Глава 2. ПРОЦЕССЫ С НЕЗАВИСИМЫМИ ПРИРАЩЕНИЯМИ
  • § 7. Примеры процессов с независимыми приращениями
  • § 8. Неравенства для сумм независимых случайных величин
  • § 9. Закон нуля или единицы
  • § 10. Сходимость последовательностей с независимыми приращениями
  • § 11. Степень рассеивания
  • § 12. Простейшие свойства процессов с независимыми приращениями
  • § 13. Сепарабельность вероятностного процесса
  • § 14. Сепарабельный пуассоновский процесс
  • § 15. Сепарабельный винеровский процесс
  • § 16. Стохастически непрерывные процессы с независимыми приращениями и безгранично делимые распределения
  • § 17. Строение стохастически непрерывных сепарабельных процессов с независимыми приращениями
  • § 18. Каноническая форма безгранично делимых распределений
  • § 19. Различные способы построения пуассоновского процесса
  • § 20. Сложный пуассоновский процесс
  • § 21. Устойчивые распределения и устойчивые процессы
  • Глава 3. СТАЦИОНАРНЫЕ ПРОЦЕССЫ
  • § 22. Определение стационарного процесса
  • § 23. Предварительные сведения, необходимые для изучения стационарных процессов
  • § 24. Спектральное разложение стационарных в слабом смысле процессов
  • § 25. Спектральное разложение выборочной функции стационарного в слабом смысле процесса
  • § 26. Эргодическая теорема для стационарных в сильном смысле процессов
  • § 27. Комплексные гауссовские системы
  • § 28. Гауссовские стационарные процессы
  • § 29. Винеровский интеграл, кратный винеровский интеграл
  • § 30. Эргодические свойства гауссовских стационарных процессов
  • § 31. Обобщения стационарных процессов

Добавить комментарий