Как найти математическое ожидание дискретной случайной величины

Как найти математическое ожидание?

Математическое ожидание случайной величины $X$ (обозначается $M(X)$ или реже $E(X)$) характеризует среднее значение случайной величины (дискретной или непрерывной). Мат. ожидание – это первый начальный момент заданной СВ.

Математическое ожидание относят к так называемым характеристикам положения распределения (к которым также принадлежат мода и медиана). Эта характеристика описывает некое усредненное положение случайной величины на числовой оси. Скажем, если матожидание случайной величины – срока службы лампы, равно 100 часов, то считается, что значения срока службы сосредоточены (с обеих сторон) от этого значения (с тем или иным разбросом, о котором уже говорит дисперсия).

Нужна помощь? Решаем теорию вероятностей на отлично

Полезная страница? Сохрани или расскажи друзьям

Формула среднего случайной величины

Математическое ожидание дискретной случайной величины Х вычисляется как сумма произведений значений $x_i$ , которые принимает СВ Х, на соответствующие вероятности $p_i$:
$$
M(X)=sum_{i=1}^{n}{x_i cdot p_i}.
$$
Для непрерывной случайной величины (заданной плотностью вероятностей $f(x)$), формула вычисления математического ожидания Х выглядит следующим образом:
$$
M(X)=int_{-infty}^{+infty} f(x) cdot x dx.
$$

Пример нахождения математического ожидания

Рассмотрим простые примеры, показывающие как найти M(X) по формулам, введеным выше.

Пример 1. Вычислить математическое ожидание дискретной случайной величины Х, заданной рядом:
$$
x_i quad -1 quad 2 quad 5 quad 10 quad 20 \
p_i quad 0.1 quad 0.2 quad 0.3 quad 0.3 quad 0.1
$$

Используем формулу для м.о. дискретной случайной величины:
$$
M(X)=sum_{i=1}^{n}{x_i cdot p_i}.
$$
Получаем:
$$
M(X)=sum_{i=1}^{n}{x_i cdot p_i} =-1cdot 0.1 + 2 cdot 0.2 +5cdot 0.3 +10cdot 0.3+20cdot 0.1=6.8.
$$
Вот в этом примере 2 описано также нахождение дисперсии Х.

Пример 2. Найти математическое ожидание для величины Х, распределенной непрерывно с плотностью $f(x)=12(x^2-x^3)$ при $x in(0,1)$ и $f(x)=0$ в остальных точках.

Используем для нахождения мат. ожидания формулу:
$$
M(X)=int_{-infty}^{+infty} f(x) cdot x dx.
$$
Подставляем из условия плотность вероятности и вычисляем значение интеграла:
$$
M(X)=int_{-infty}^{+infty} f(x) cdot x dx = int_{0}^{1} 12(x^2-x^3) cdot x dx = int_{0}^{1} 12(x^3-x^4) dx = \
=left.(3x^4-frac{12}{5}x^5) right|_0^1=3-frac{12}{5} = frac{3}{5}=0.6.
$$

Другие задачи с решениями по ТВ

Подробно решим ваши задачи по теории вероятностей

Вычисление математического ожидания онлайн

Как найти математическое ожидание онлайн для произвольной дискретной случайной величины? Используйте калькулятор ниже.

  • Введите число значений случайной величины К.
  • Появится форма ввода для значений $x_i$ и соответствующих вероятностей $p_i$ (десятичные дроби вводятся с разделителем точкой, например: -10.3 или 0.5). Введите нужные значения (проверьте, что сумма вероятностей равна 1, то есть закон распределения корректный).
  • Нажмите на кнопку “Вычислить”.
  • Калькулятор покажет вычисленное математическое ожидание $M(X)$.

Видео. Полезные ссылки

Видеоролики: что такое среднее (математическое ожидание)

Если вам нужно более подробное объяснение того, что такое мат.ожидание, как она вычисляется и какими свойствами обладает, рекомендую два видео (для дискретной и непрерывной случайной величины соответственно).

Полезная страница? Сохрани или расскажи друзьям

Полезные ссылки

А теперь узнайте о том, как находить дисперсию или проверьте онлайн-калькулятор для вычисления математического ожидания, дисперсии и среднего квадратического отклонения дискретной случайной величины.

Что еще может пригодиться? Например, для изучения основ теории вероятностей – онлайн учебник по терверу. Для закрепления материала – еще примеры решений по теории вероятностей.

А если у вас есть задачи, которые надо срочно сделать, а времени нет? Можете поискать готовые решения в решебнике или заказать в МатБюро:

Математическое ожидание — это ожидаемый результат от какого-то действия.

Например, можно рассчитать ожидаемую стоимость инвестиции в определённый момент в будущем. Рассчитывая математическое ожидание перед тем, как инвестировать, можно выбрать наилучший сценарий который, по мнению инвестора, даст наилучший результат.

Случайная величина может быть двух типов:

  1. Дискретной: число возможных значений X — это числимое конечное или бесконечное множество точек; пример: количество дефектных устройств в производстве фабрики.
  2. Непрерывной: X может принимать любое значение в заданном диапазоне; пример: концентрация углекислого газа в воде.

Математическое ожидание дискретной случайной величины рассчитывается этой формулой:

Математическое ожидание дискретной случайной величины рассчитать формула:  M(X)=∑ Xi×Pi
M(X) = ∑ xi × pi
Где:
М — математическое ожидание,
X — случайная величина,
p — вероятность появления случайной величины.

Математическое ожидание дискретной случайной величины рассчитывается:
1. Сначала нужно умножить каждое из возможных результатов на свою вероятность (например: вероятность, что выпадет “1” — 1/6, “2” — 1/3, значит умножаем 1 на 1/6, 2 на 1/3, и т.д.),
2. Затем суммируем все эти значения (1 × 1/6 + 2 × 1/3 и т.д.).

Для непрерывной случайной величины используется эта формула:

Математическое ожидание непрерывной случайной величины рассчитать формула: M(X) = -∞+∞f(x) × x.dx
M(X) = ∫ f(x) × x.dx
Где:
М — математическое ожидание
f (x) — функция (которая будет предоставлена в условии задачи)
x — случайная величина
dx — элемент интегрирования

В этом случае рассчитывается интеграл в заданном интервале.

Примеры вычисления математического ожидания

Кратко:

  • если в задаче даётся таблица с данными, то перемножаем каждое событие на его вероятность и потом всё складываем;
  • если в задаче дают функцию с заданным интервалом, то вычисляем интеграл с этим интервалом.

Пример 1

Вычислить математическое ожидание дискретной случайной величины Х со следующими данными:

xi −1 1 2 3 4
pi 0,1 0,2 0,3 0,1 0,3

Используется формула для дискретной случайной величины:

Математическое ожидание дискретной случайной величины рассчитать формула:  M(X)=∑ Xi×Pi

M(X) = ∑ xi×pi = −1×0,1+ 1×0,2 + 2×0,3 + 3×0,1 + 4×0,3 = −0,1 + 0,2 + 0,6 + 0,3 + 1,2 = 2,2

Пример 2

Найти математическое ожидание для величины Х, распределённой непрерывно с плотностью f(x) = 2x, при x∈(0,1) и f(x) = 0 в остальных точках.

Используется формула для непрерывной случайной величины:

Математическое ожидание непрерывной случайной величины рассчитать формула: M(X) = -∞+∞f(x) × x.dx

M(X) = -∞+∞f(x) × x.dx математическое ожидание пример

Пример 3

Вычислить математическое ожидание дискретной случайной величины Х со следующими данными:

xi 1 2 3 4 5
pi 0,3 0,3 0,1 0,1 0,2

Используется формула для дискретной случайной величины:

Математическое ожидание дискретной случайной величины рассчитать формула:  M(X)=∑ Xi×Pi

M(X) = ∑ xi×pi = 1×0,3 + 2×0,3 + 3×0,1 + 4×0,1 + 5×0,2 = 0,3 + 0,6 + 0,3 + 0,4 + 1 = 2,6

Пример 4

Найти математическое ожидание для величины Х, распределённой непрерывно с плотностью f(x) = (1/10).(3x²+1), при x∈(0,2) и f(x) = 0 в остальных точках.

Используется формула для непрерывной случайной величины:

M(X) = -∞+∞f(x) × x.dx математическое ожидание пример

M(X) = -∞+∞f(x) × x.dx математическое ожидание пример

M(X) = -∞+∞f(x) × x.dx математическое ожидание пример

Узнайте больше про Интегралы.

Основные свойства математического ожидания

  1. Математическое ожидание постоянной равно самой постоянной: М(c)=c.
  2. Математическое ожидание сложения/вычитания двух случайных величин равно сумме/вычитанию их математических ожиданий: пусть X и Y — две случайные величины, значит М (X ± Y) = М (X) ± М (Y).
  3. Если умножить случайную величину X на c, её среднее значение также умножается на эту константу (c): М (cX) = cМ (X).
  4. Если добавить или вычесть c из случайной величины X, то произойдёт та же операция (сложение или вычитание константы) с её средним значением: М (X ± c) = М (X) ± c.
  5. Если X и Y — две независимые случайные величины, значит: М(XY)=М(X)×М(Y).

Узнайте больше про Теорию вероятностей.

Глава седьмая

МАТЕМАТИЧЕСКОЕ
ОЖИДАНИЕ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

Как уже известно,
закон распределения полностью
характеризует случайную величину.
Однако часто закон распределения
неизвестен и приходится ограничиваться
меньшими сведениями. Иногда даже выгоднее
пользоваться числами, которые описывают
случайную величину суммарно; такие
числа называют числовыми
характеристиками случайной величины.
К числу
важных числовых характеристик относится
математическое ожидание.

Математическое
ожидание, как будет показано далее,
приближенно равно среднему значению
случайной величины. Для решения многих
задач достаточно знать математическое
ожидание. Например, если известно, что
математическое ожидание числа выбиваемых
очков у первого стрелка больше, чем у
второго, то первый стрелок в среднем
выбивает больше очков, чем второй, и,
следовательно, стреляет лучше второго.
Хотя математическое ожидание дает о
случайной величине значительно меньше
сведений, чем закон ее распределения,
но для решения задач, подобных приведенной
и многих других, знание математического
ожидания оказывается достаточным.

§ 2. Математическое ожидание дискретной случайной величины

Математическим
ожиданием
дискретной
случайной величины называют сумму
произведений всех ее возможных значений
на их вероятности.

Пусть случайная
величина X
может
принимать только значения х1,
х
2,
…, хп,
вероятности
которых соответственно равны р1,
р
2,
. . ., рп.
Тогда
математическое ожидание М
(X)
случайной
величины X
определяется
равенством

М (X)
= х1р1
+ х2р2
+ … + xnpn.

Если дискретная
случайная величина X
принимает
счетное множество возможных значений,
то

М(Х)=

причем математическое
ожидание существует, если ряд в правой
части равенства сходится абсолютно.

Замечание. Из
определения следует, что математическое
ожидание дискретной случайной величины
есть неслучайная (постоянная) величина.
Рекомендуем запомнить это утверждение,
так как далее оно используется многократно.
В дальнейшем будет показано, что
математическое ожидание непрерывной
случайной величины также есть постоянная
величина.

Пример 1. Найти
математическое ожидание случайной
величины X,
зная закон
ее распределения:

X

3

5

2

p

0,1

0,6

0,3

Решение. Искомое
математическое ожидание равно сумме
произведений всех возможных значений
случайной величины на их вероятности:

M(X)=3*0,1+5*0,6+2*0,3=3,9.

Пример 2. Найти
математическое ожидание числа появлений
события А в
одном испытании, если вероятность
события А
равна р.

Решение. Случайная
величина X
— число
появлений события А
в одном
испытании — может принимать только два
значения: х1=1
(событие А
наступило)
с вероятностью р
и х2
=
0
(событие А
не наступило)
с вероятностью q=
1 —р.
Искомое
математическое ожидание

M(X)=1*p+0*q=p

Итак, математическое
ожидание числа появлений события в
одном испытании равно вероятности этого
события.
Этот
результат будет использован ниже.

§ 3. Вероятностный смысл математического ожидания

Пусть произведено
п испытаний,
в которых случайная величина X
приняла т1
раз значение
х1,
т
2
раз значение
х2,…,mk
раз значение
xk,
причем т1
+
т2+
…+т
к
= п.
Тогда
сумма всех значений, принятых X,
равна

х1т1
+ х2т2
+ … + хктк.

Найдем среднее
арифметическое

всех значений,
принятых, случайной величиной, для чего
разделим найденную сумму на общее число
испытаний:

= (х1т1
+ х2т2+
… +
хктк)/п,

или

=
х
1
(m1/
n)
+ х2
(m2/
n)
+ … + хк
(тк/п).
(*)

Заметив, что
отношение m1/
n
— относительная частота W1
значения
х1,
m2/
n
— относительная
частота W2
значения х2
и т. д., запишем
соотношение (*) так:

=
х
1
W1
+
x2W2
+ ..
. + хкWk.
(**)

Допустим, что число
испытаний достаточно велико. Тогда
относительная частота приближенно
равна вероятности появления события
(это будет доказано в гл. IX,
§ 6):

W1
p1,
W2
p2,
…,
Wk
pk.

Заменив в соотношении
(**) относительные частоты соответствующими
вероятностями, получим

x1p1
+ х2р2
+ … + хкрк.

Правая часть этого
приближенного равенства есть М
(X).
Итак,

М (X).

Вероятностный
смысл полученного результата таков:
математическое
ожидание приближенно равно
(тем
точнее, чем больше число испытаний)
среднему
арифметическому наблюдаемых значений
случайной величины.

Замечание 1. Легко
сообразить, что математическое ожидание
больше наименьшего и меньше наибольшего
возможных значений. Другими словами,
на числовой оси возможные значения
расположены слева и справа от
математического ожидания. В этом смысле
математическое ожидание характеризует
расположение распределения и поэтому
его часто называют центром
распределения.

Этот термин
заимствован из механики: если массы
р1,
р
2,
…, р
п
расположены
в точках с абсциссами x1,
х
2,…,
хn,
причем

то абсцисса центра тяжести

xc=.

Учитывая, что
=
M
(X)
и

получим М(Х)
= х
с.

Итак, математическое
ожидание есть абсцисса центра тяжести
системы материальных точек, абсциссы
которых равны возможным значениям
случайной величины, а массы — их
вероятностям.

Замечание 2.
Происхождение термина «математическое
ожидание» связано с начальным периодом
возникновения теории вероятностей (XVI
— XVII
вв.), когда область ее применения
ограничивалась азартными играми. Игрока
интересовало среднее значение ожидаемого
выигрыша, или, иными словами, математическое
ожидание выигрыша.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Числовые характеристики распределения вероятностей. Математическое ожидание, дисперсия и стандартное отклонение

  1. Закон распределения дискретной случайной величины
  2. Математическое ожидание
  3. Дисперсия
  4. Среднее квадратичное отклонение
  5. Правило трёх сигм
  6. Примеры

п.1. Закон распределения дискретной случайной величины

Законом распределения дискретной случайной величины называют соответствие между полученными на опыте значениями этой величины X= {xi} и их вероятностями pi = P(xi).
При этом сумма всех вероятностей равна 1: (mathrm{sum_{i=1}^n p_i=1})
Закон распределения можно задать таблицей, графиком или аналитически (в виде формулы).

Например:
Закон распределения случайной величины X = {0;1;2;3}, равной числу выпадения орлов при 3 бросках монеты, аналитически задаётся формулой: $$ mathrm{ p_i=P(x_i)=P_3(i)=frac{C_3^{i}}{2^3}, i={0;1;2;3} } $$

В табличном виде:

xi

pi

0

1/8

1

3/8

2

3/8

3

1/8

В виде графика:

Закон распределения дискретной случайной величины

п.2. Математическое ожидание

Математическое ожидание дискретной случайной величины X = {xi} равно сумме произведений всех возможных значений xi на соответствующие вероятности pi: $$ mathrm{ M(X)=x_1p_1+x_2p_2+…+x_{n}p_{n}=sum_{i=1}^n x_{i}p_{i} } $$ Математическое ожидание является средним значением величины X.

Свойства математического ожидания
1) Размерность математического ожидания равна размерности случайной величины.
2) Математическое ожидание может быть любым действительным числом: положительным, равным 0, отрицательным.
3) Математическое ожидание постоянной величины равно этой постоянной:

M(C) = C

4) Математическое ожидание суммы независимых случайных величин равно сумме математических ожиданий:

M(X + Y) = M(X) + M(Y)

5) Математическое ожидание произведения двух независимых случайных величин равно произведению математических ожиданий:

M(XY) = M(X) · M(Y)

6) Постоянный множитель можно вынести за знак математического ожидания:

M(CX) = C · M(X)

Например:
Пусть в результате экспериментов получено следующее распределение случайной величины X – числа появления белых шаров (см. пример 1, §40 данного справочника):

Число белых шаров, xi 0 1 2 3 4 5
pi (mathrm{C_5^0q^5}) (mathrm{C_5^1pq^4}) (mathrm{C_5^2p^2q^3}) (mathrm{C_5^3p^3q^2}) (mathrm{C_5^4p^4q}) (mathrm{C_5^5p^5})
0,0074 0,0618 0,2060 0,3433 0,2861 0,0954

Найдём математическое ожидание для данного распределения:

M(X) = 0 · 0,0074 + 1 · 0,0618 + … + 5 · 0,0954 = 3,125

п.3. Дисперсия

Дисперсия дискретной случайной величины X = {xi} – это математическое ожидание квадрата отклонения случайной величины от её математического ожидания: $$ mathrm{ D(X)=M(X-M(X))^2 } $$ На практике дисперсия рассчитывается по формуле: $$ mathrm{ D(X)=M(X)^2-M^2(X)=sum_{i=1}^n x_i^2p_i-M^2(X) } $$

Свойства дисперсии
1) Размерность дисперсии равна квадрату размерности случайной величины.
2) Дисперсия может быть любым неотрицательным действительным числом.
3) Дисперсия постоянной величины равна нулю:

D(C) = 0

4) Дисперсия суммы независимых случайных величин равна сумме дисперсий:

D(X + Y) = D(X) + D(Y)

5) Постоянный множитель можно вынести за знак дисперсии:

D(CX) = C2 · D(X)

Например:
Продолжим исследование и найдём дисперсию для распределения случайной величины X – числа появления белых шаров. Составим расчётную таблицу:

pi

0,0074

0,0618

0,2060

0,3433

0,2861

0,0954

1

xip1

0

0,0618

0,4120

1,0300

1,1444

0,4768

3,125

(mathrm{x_i^2})

0

1

4

9

16

25

(mathrm{x_i^2p_i})

0

0,0618

0,8240

3,0899

4,5776

2,3842

10,9375

Получаем: D(X) = 10,9375 – 3,1252 ≈ 1,1719.

п.4. Среднее квадратичное отклонение

Среднее квадратичное отклонение (СКО) дискретной случайной величины X = {xi} – это корень квадратный от дисперсии: $$ mathrm{ sigma(X)=sqrt{D(X)} } $$ СКО характеризует степень отклонения случайной величины от среднего значения.

Свойства СКО
1) Размерность СКО равна размерности случайной величины.
2) СКО может быть любым неотрицательным действительным числом.
3) СКО постоянной величины равно нулю:

σ(C) = 0

4) Постоянный множитель можно вынести за знак СКО:

σ(CX) = C · σ(X)

п.5. Правило трёх сигм

Большое количество случайных величин, измеряемых в экспериментах (например, в школьных лабораторных работах), имеет так называемое нормальное распределение.
В частности, при больших n, биномиальное распределение можно с хорошей точностью описывать как нормальное с M(X) = np и (mathrm{sigma(X)=sqrt{npq}}).
График плотности нормального распределения p(x) похож на колокол, с максимумом, соответствующим M(X) = Xcp – среднему значению измеряемой величины.
Правило трёх сигм
Величина СКО σ(X) характеризует степень отклонения X от среднего значения M(X).

Если величина X имеет нормальное распределение, то в пределах
±σ лежит 68,26% значений, принимаемых этой величиной
±2σ лежит 95,44% значений, принимаемых этой величиной
±3σ лежит 99,72% значений, принимаемых этой величиной
Вероятность того, что нормально распределённая величина примет значение, отклоняющееся от среднего больше, чем на «три сигмы», равна 0,28%, т.е. пренебрежимо мала.

п.6. Примеры

Пример 1. Найдите математическое ожидание, дисперсию и СКО при бросании кубика.

Закон распределения величины X – очки на верхней грани при бросании кубика и расчётная таблица:

pi

1/6

1/6

1/6

1/6

1/6

1/6

1

xip1

1/6

1/3

1/2

2/3

5/6

1

3,5

(mathrm{x_i^2})

1

4

9

16

25

36

(mathrm{x_i^2p_i})

(mathrm{frac16})

(mathrm{frac23})

(mathrm{1frac12})

(mathrm{2frac23})

(mathrm{4frac16})

6

(mathrm{15frac16})

Получаем: begin{gather*} mathrm{ M(X)=sum_{i=1}^6 x_ip_i=3,5 }\ mathrm{ D(X)=sum_{i=1}^6 x_i^2p_i-M^2(X)=15frac16-3,5^3=2frac{11}{12} }\ mathrm{ sigma(X)=sqrt{D(X)}=sqrt{2frac{11}{12}}approx 1,7 } end{gather*} Ответ: (mathrm{M(X)=3,5; D(X)=2frac{11}{12}; sigma(X)approx 1,7}).

Пример 2*. Найти математическое ожидание, дисперсию и СКО суммы очков при бросании двух кубиков.

Используем свойства мат.ожиданий и дисперсий.
Пусть X – очки на первом кубике, Y – на втором.
Параметры распределения для каждого из кубиков рассчитаны в примере 1.
(mathrm{M(X)=M(Y)=3,5, D(X)=D(Y)=2frac{11}{12}}).
Для суммы очков получаем:
(mathrm{M(X+Y)=M(X)+M(Y)=3,5+3,5=7})
(mathrm{D(X+Y)=D(X)+D(Y)=2frac{11}{12}+2frac{11}{12}=5frac56})
(mathrm{sigma(X+Y)=sqrt{D(X+Y)}=sqrt{5frac56}approx 2,4})
Ответ: (mathrm{M(X+Y)=7; D(X+Y)=5frac56; sigma(X+Y)approx 2,4}).

Пример 3*. Докажите, что в опытах по схеме Бернулли математическое ожидание M(X)=np, а дисперсия D(X)=npq.

Проведем один опыт. В нём может быть только два исхода: «успех» и «неудача».
Составим расчётную таблицу:

(mathrm{x_i^2p_i})

0

p

p

Мат.ожидание первого опыта (mathrm{M(X)=sum x_ip_i=p}).
Общее число успехов при n опытах складывается из числа успехов при каждом опыте, т.е. (mathrm{X=X_1+X_2+…+X_n}). Все опыты между собой независимы.
По свойству мат.ожидания суммы независимых событий: begin{gather*} mathrm{ M(X)=M(X_1+X_2+…+X_n)=M(X_1)+M(X_2)+…+M(X_n)= }\ mathrm{=underbrace{p+p+…+p}_{n text{раз}}=np } end{gather*} Дисперсия первого опыта (mathrm{D(X)=sum x_i^2p_i-M(X)=p-p^2=p(1-p)=pq})
По свойству дисперсии суммы независимых событий: begin{gather*} mathrm{ D(X)=D(X_1+X_2+…+X_n)=D(X_1)+D(X_2)+…+D(X_n)= }\ mathrm{=underbrace{pq+pq+…+pq}_{n text{раз}}=npq } end{gather*} Что и требовалось доказать.

Пример 4. 100 канцелярских кнопок высыпали на стул. Вероятность, что кнопка упала острием вверх, равна 0,4. Найдите среднее количество, дисперсию и СКО для числа кнопок, упавших острием вверх. Найдите интервал оценки для количества этих кнопок по правилу «трёх сигм».

По условию n = 100, p = 0,4.
Для каждой кнопки может быть два исхода: упасть острием вверх или вниз.
Таким образом, это испытание Бернулли с биномиальным распределением случайной величины. begin{gather*} mathrm{ M(X)=np=100cdot 0,4=40 }\ mathrm{D(X)=npq=100cdot 0,4cdot 0,6=24 }\ mathrm{sigma(X)=sqrt{D(X)}=sqrt{24}approx 4,9} end{gather*} Интервал оценки «три сигмы»: begin{gather*} mathrm{ M(X)-3sigma(X)lt Xlt M(X)+3sigma(X) }\ mathrm{40-3cdot 4,9lt Xlt 40+3cdot 4,9 }\ mathrm{25,3lt Xlt 54,7}\ mathrm{26leq Xleq 54} end{gather*} Скорее всего (99,7%), от 26 до 54 кнопок будут острием вверх.
Ответ: (mathrm{M(X)=40; D(X)=24; sigma(X)approx 4,9; 26leq Xleq 54})

Пример 5*. В тесте 10 задач с 4 вариантами ответов. Ответы выбираются наугад. Постройте распределение величины X = «количество угаданных ответов», найдите числовые характеристики этого распределения.
Найдите интервал оценки для количества угаданных ответов по правилу «трёх сигм».
Какова вероятность угадать хотя бы 1 ответ? Хотя бы 5 ответов? Угадать все 10 ответов?

По условию: (mathrm{n=10, p=frac14, q=frac34}).
Для каждого ответа может быть два исхода: «угадал»/ «не угадал».
Таким образом, это испытание Бернулли с биномиальным распределением случайной величины. $$ mathrm{ P_{10}(k)=C_{10}^kp^kq^{10-k}=C_{10}^kfrac{3^{10-k}}{4^{10}}=left(frac34right)^{10}frac{C_{10}^k}{3^k} } $$ Строим расчётную таблицу. Для (mathrm{C_{10}^k}) используем рекуррентную формулу (см. §36 данного справочника): $$ mathrm{ C_{n}^k=frac{n-k+1}{k}C_n^{k-1} } $$

(mathrm{x_i=k}) (mathrm{C_k}) (mathrm{3^k}) (mathrm{p_i(x_i)}) (mathrm{x_icdot p_i}) (mathrm{x_i^2}) (mathrm{x_i^2cdot p_i})
0 1 1 0,0563135 0,0000000 0 0,0000000
1 10 3 0,1877117 0,1877117 1 0,1877117
2 45 9 0,2815676 0,5631351 4 1,1262703
3 120 27 0,2502823 0,7508469 9 2,2525406
4 210 81 0,1459980 0,5839920 16 2,3359680
5 252 243 0,0583992 0,2919960 25 1,4599800
6 210 729 0,0162220 0,0973320 36 0,5839920
7 120 2187 0,0030899 0,0216293 49 0,1514053
8 45 6561 0,0003862 0,0030899 64 0,0247192
9 10 19683 0,0000286 0,0002575 81 0,0023174
10 1 59049 0,0000010 0,0000095 100 0,0000954
Σ 1 2,5 8,125

Получаем: begin{gather*} mathrm{ M(X)=sum_{i=0}^{10} x_ip_i=2,5 }\ mathrm{ D(X)=sum_{i=0}^{10} x_i^2p_i-M^2(X)=8,125=2,5^2=1,875 }\ mathrm{ sigma(X)=sqrt{D(X)}=sqrt{1,875}approx 1,37 } end{gather*} Пример 5
Интервал оценки «три сигмы»: begin{gather*} mathrm{ M(X)-3sigma(X) lt Xlt M(X)+3sigma(X) }\ mathrm{ 2,5-3cdot 1,37lt X lt 2,5+3cdot 1,37 }\ mathrm{ -1,61lt Xlt 6,61 }\ mathrm{ 0leq Xleq 6 } end{gather*} Скорее всего (по расчетам – 99,65%), вы угадаете от 0 до 6 ответов.

Вероятность угадать хотя бы один ответ: begin{gather*} mathrm{ P(Xgeq 1)=1-p_0approx 1-0,0563=0,9437 }end{gather*} Очень хорошие шансы – 94,37%.
Вероятность угадать хотя бы 5 ответов: begin{gather*} mathrm{ P(Xgeq 5)=1-left(sum_{i=0}^{4}{p_i} right)approx 1-(0,0563+0,1877+…+0,1460)=0,0781 }end{gather*} Шансов мало – 7,81%. Т.е. «средний балл» при сдаче тестов мало достижим методом научного тыка.
Вероятность угадать все 10 ответов: p10≈ 0,000001. Шанс – один из миллиона.

Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 1 октября 2021 года; проверки требуют 7 правок.

Математи́ческое ожида́ние — понятие в теории вероятностей, означающее среднее (взвешенное по вероятностям возможных значений) значение случайной величины[1]. В случае непрерывной случайной величины подразумевается взвешивание по плотности распределения (более строгие определения см. ниже). Математическое ожидание случайного вектора равно вектору, компоненты которого равны математическим ожиданиям компонентов случайного вектора.

Обозначается через {mathbb  {E}}[X][2] (например, от англ. Expected value или нем. Erwartungswert);
в русскоязычной литературе также встречается обозначение M[X] (возможно, от англ. Mean value или нем. Mittelwert, а возможно от «Математическое ожидание»). В статистике часто используют обозначение mu .

Для случайной величины, принимающей значения только 0 или 1 математическое ожидание равно p — вероятности «единицы». Математическое ожидание суммы таких случайных величин равно np, где n — количество таких случайных величин. При этом вероятности появления определенного кол-ва единиц рассчитываются по биномиальному распределению. Поэтому в литературе, скорее всего, легче найти запись, что мат. ожидание биномиального распределения равно np[3].

Некоторые случайные величины не имеют математического ожидания, например, случайные величины, имеющие распределение Коши.

На практике математическое ожидание обычно оценивается как среднее арифметическое наблюдаемых значений случайной величины (выборочное среднее, среднее по выборке). Доказано, что при соблюдении определенных слабых условий (в частности, если выборка является случайной, то есть наблюдения являются независимыми) выборочное среднее стремится к истинному значению математического ожидания случайной величины при стремлении объема выборки (количества наблюдений, испытаний, измерений) к бесконечности.

Определение[править | править код]

Общее определение через интеграл Лебега[править | править код]

Пусть задано вероятностное пространство (Omega,mathfrak{A},mathbb{P}) и определённая на нём случайная величина X. То есть, по определению, Xcolon Omega to mathbb {R}  — измеримая функция. Если существует интеграл Лебега от X по пространству Omega , то он называется математическим ожиданием, или средним (ожидаемым) значением и обозначается M[X] или {mathbb  {E}}[X].

{displaystyle mathbb {E} [X]=int limits _{Omega }!X(omega ),mathbb {P} (domega ).}

Определение через функцию распределения случайной величины[править | править код]

Если F_{X}(x) — функция распределения случайной величины, то её математическое ожидание задаётся интегралом Лебега — Стилтьеса:

{displaystyle mathbb {E} [X]=int limits _{-infty }^{infty }!x,dF_{X}(x)}, {displaystyle xin mathbb {R} }.

Определение для абсолютно непрерывной случайной величины (через плотность распределения)[править | править код]

Математическое ожидание абсолютно непрерывной случайной величины, распределение которой задаётся плотностью f_{X}(x), равно

{displaystyle mathbb {E} [X]=int limits _{-infty }^{infty }!xf_{X}(x),dx}.

Определение для дискретной случайной величины[править | править код]

Если X — дискретная случайная величина, имеющая распределение

{displaystyle mathbb {P} (X=x_{i})=p_{i}} , {displaystyle sum limits _{i=1}^{infty }p_{i}=1},

то прямо из определения интеграла Лебега следует, что

{displaystyle mathbb {E} [X]=sum limits _{i=1}^{infty }x_{i},p_{i}}.

Математическое ожидание целочисленной величины[править | править код]

  • Если X — положительная целочисленная случайная величина (частный случай дискретной), имеющая распределение вероятностей
{displaystyle mathbb {P} (X=j)=p_{j}} , {displaystyle j=0,1,dotsc }, {displaystyle sum limits _{j=0}^{infty }p_{j}=1},

то её математическое ожидание может быть выражено через производящую функцию последовательности {p_{i}}

P(s)=sum _{{k=0}}^{infty };p_{k}s^{k}

как значение первой производной в единице: {displaystyle mathbb {E} [X]=P'(1)}. Если математическое ожидание X бесконечно, то lim _{{sto 1}}P'(s)=infty и мы будем писать {displaystyle P'(1)=mathbb {E} [X]=infty }

Теперь возьмём производящую функцию Q(s) последовательности «хвостов» распределения {q_{k}}

{displaystyle q_{k}=mathbb {P} (X>k)=sum _{j=k+1}^{infty }{p_{j}}} , {displaystyle Q(s)=sum _{k=0}^{infty }q_{k}s^{k}.}

Эта производящая функция связана с определённой ранее функцией P(s) свойством: Q(s)={frac  {1-P(s)}{1-s}} при |s|<1. Из этого по теореме о среднем следует, что математическое ожидание равно просто значению этой функции в единице:

{displaystyle mathbb {E} [X]=P'(1)=Q(1)}

Математическое ожидание случайного вектора[править | править код]

Пусть X=(X_{1},dots ,X_{n})^{{top }}colon Omega to {mathbb  {R}}^{n} — случайный вектор. Тогда по определению

{displaystyle mathbb {E} [X]=(mathbb {E} [X_{1}],dots ,mathbb {E} [X_{n}])^{top }},

то есть математическое ожидание вектора определяется покомпонентно.

Математическое ожидание преобразования случайной величины[править | править код]

Пусть gcolon {mathbb  {R}}to {mathbb  {R}} — борелевская функция, такая что случайная величина Y = g(X) имеет конечное математическое ожидание. Тогда для него справедлива формула

{displaystyle mathbb {E} left[g(X)right]=sum limits _{i=1}^{infty }g(x_{i})p_{i},}

если X имеет дискретное распределение;

{displaystyle mathbb {E} left[g(X)right]=int limits _{-infty }^{infty }!g(x)f_{X}(x),dx,}

если X имеет абсолютно непрерывное распределение.

Если распределение mathbb {P} ^{X} случайной величины X общего вида, то

{displaystyle mathbb {E} left[g(X)right]=int limits _{-infty }^{infty }!g(x),mathbb {P} ^{X}(dx).}

В специальном случае, когда {displaystyle g(X)=X^{k}}, математическое ожидание {displaystyle mathbb {E} [g(X)]=mathbb {E} [X^{k}]} называется k-м моментом случайной величины.

Свойства математического ожидания[править | править код]

  • Математическое ожидание числа (не случайной, фиксированной величины, константы) есть само число.
{displaystyle mathbb {E} [a]=a}
ain {mathbb  {R}} — константа;
  • Математическое ожидание линейно[4], то есть
{displaystyle mathbb {E} [aX+bY]=amathbb {E} [X]+bmathbb {E} [Y]},
где X,Y — случайные величины с конечным математическим ожиданием, а a,bin mathbb{R} — произвольные константы;

В частности, математическое ожидание суммы (разности) случайных величин равно сумме (соответственно — разности) их математических ожиданий.

{displaystyle 0leqslant mathbb {E} [X]leqslant mathbb {E} [Y]}.
  • Математическое ожидание не зависит от поведения случайной величины на событии вероятности нуль, то есть если X=Y почти наверняка, то
{displaystyle mathbb {E} [X]=mathbb {E} [Y]}.
  • Математическое ожидание произведения двух независимых или некоррелированных[5] случайных величин X,Y равно произведению их математических ожиданий
{displaystyle mathbb {E} [XY]=mathbb {E} [X]cdot mathbb {E} [Y]}.

Неравенства, связанные с математическим ожиданием[править | править код]

Неравенство Маркова — для неотрицательной случайной величины {displaystyle Xcolon Omega to mathbb {R} ^{+}} определённой на вероятностном пространстве (Omega ,{mathcal  {F}},{mathbb  {P}}) с конечным математическим ожиданием {displaystyle mathbb {E} (X)} выполняется неравенство:

{displaystyle mathbb {P} left(Xgeqslant aright)leqslant {frac {mathbb {E} (X)}{a}}}, где a>0.

Неравенство Йенсена для математического ожидания выпуклой функции от случайной величины. Пусть (Omega ,{mathcal {F}},mathbb {P} ) — вероятностное пространство, {displaystyle Xcolon Omega to mathbb {R} } — определённая на нём случайная величина, varphi colon {mathbb  {R}}to {mathbb  {R}} — выпуклая борелевская функция, такие, что X,varphi (X)in L^{1}(Omega ,{mathcal  {F}},{mathbb  {P}}), то

{displaystyle varphi (mathbb {E} (X))leqslant mathbb {E} (varphi (X))}.

Теоремы, связанные с математическим ожиданием[править | править код]

{displaystyle lim limits _{nto infty }mathbb {E} (X_{n})=mathbb {E} (X)} .
{displaystyle mathbb {E} left(sum _{i=1}^{N}X_{i}right)=mathbb {E} (N)mathbb {E} (X)}
{displaystyle mathbb {E} (X)=G'(0)}.

Примеры[править | править код]

  • Пусть случайная величина имеет дискретное равномерное распределение, то есть mathbb {P} (X=x_{i})={frac {1}{n}},;i=1,ldots ,n. Тогда её математическое ожидание
{displaystyle mathbb {E} [X]={frac {1}{n}}sum limits _{i=1}^{n}x_{i}}

равно среднему арифметическому всех принимаемых значений.

{displaystyle mathbb {E} [X]=int limits _{a}^{b}!{frac {x}{b-a}},dx={frac {a+b}{2}}}.
  • Пусть случайная величина X имеет стандартное распределение Коши. Тогда
int limits _{-infty }^{infty }!xf_{X}(x),dx=infty ,

то есть математическое ожидание X не определено.

См. также[править | править код]

  • Дисперсия случайной величины
  • Моменты случайной величины
  • Условное математическое ожидание

Примечания[править | править код]

  1. «Математическая энциклопедия» / Главный редактор И. М. Виноградов. — : «Советская энциклопедия», 1979. — 1104 с. — (51[03] М34). — 148 800 экз.
  2. А. Н. Ширяев. 1 // «Вероятность». — : МЦНМО, 2007. — 968 с. — ISBN 978-5-94057-036-3, 978-5-94057-106-3, 978-5-94057-105-6.
  3. В.Е.Гмурман. Часть вторая. Случайные величины. ->
    Глава 4. Дискретные случайные величины. ->
    Параграф 3.
    // [http://elenagavrile.narod.ru/ms/gmurman.pdf РУКОВОДСТВО К РЕШЕНИЮ ЗАДАЧ ПО ТЕОРИИ ВЕРОЯТНОСТЕЙ И
    МАТЕМАТИЧЕСКОЙ СТАТИСТИКЕ]. — 1979. — С. 63. — 400 с.
    Архивная копия от 21 января 2022 на Wayback Machine
  4. Пытьев Ю. П., Шишмарев И. А., Теория вероятностей, математическая статистика и элементы теории возможностей для физиков. — М.: Физический факультет МГУ, 2010.
  5. Теория вероятностей: 10.2. Теоремы о числовых характеристиках. sernam.ru. Дата обращения: 10 января 2018. Архивировано 10 января 2018 года.

Литература[править | править код]

  • Феллер В. Глава XI. Целочисленные величины. Производящие функции // Введение в теорию вероятностей и её приложения = An introduction to probability theory and its applicatons, Volume I second edition / Перевод с англ. Р. Л. Добрушина, А. А. Юшкевича, С. А. Молчанова Под ред. Е. Б. Дынкина с предисловием А. Н. Колмогорова. — 2-е изд. — М.: Мир, 1964. — С. 270—272.

Ссылки[править | править код]

  • Математическое ожидание и его свойства на http://www.toehelp.ru

Добавить комментарий