Как найти дельта х в статистике

Подскажите как найти дельту)



Ученик

(162),
закрыт



12 лет назад

Дополнен 12 лет назад

ммм. . спасибо большое) ) Помогла очень)

PaulW

Гуру

(3172)


12 лет назад

Дельта = (данное значение – среднее значение)
Удобнее делать в виде таблицы, но для начала посчитаем среднее = (0,2+1+1,5)/3 = 0,9
0,2 – 0,9 = -0,7
1 – 0,9 = 0,1
1,5 – 0,9 = 0,6

Саул

Профи

(640)


6 лет назад

Дельта = (данное значение – среднее значение)
Удобнее делать в виде таблицы, но для начала посчитаем среднее = (0,2+1+1,5)/3 = 0,9
0,2 – 0,9 = -0,7
1 – 0,9 = 0,1
1,5 – 0,9 = 0,6

Как рассчитать дельту

Четвертой буквой греческого алфавита, «дельтой», в науке принято называть изменение какой-либо величины, погрешность, приращение. Записывается этот знак различными способами: чаще всего в виде небольшого треугольника Δ перед буквенным обозначением величины. Но иногда можно встретить и такое написание δ, либо латинской строчной буквой d, реже латинской прописной – D.

Как рассчитать дельту

Инструкция

Для нахождения изменения какой-либо величины вычислите или измерьте ее начальное значение (x1).

Вычислите или измерьте конечное значение этой же величины (x2).

Найдите изменение данной величины по формуле: Δx=x2-x1. Например: начальное значение напряжения электрической сети U1=220В, конечное значение – U2=120В. Изменение напряжения (или дельта напряжения) будет равно ΔU=U2–U1=220В-120В=100В

Для нахождения абсолютной погрешности измерения определите точное или, как его иногда называют, истинное значение какой-либо величины (x0).

Возьмите приближенное (при измерении – измеренное) значение этой же величины (x).

Найдите абсолютную погрешность измерения по формуле: Δx=|x-x0|. Например: точное число жителей города – 8253 жителя (х0=8253), при округлении этого числа до 8300 (приближенное значение х=8300). Абсолютная погрешность (или дельта икс) будет равна Δx=|8300-8253|=47, а при округлении до 8200 (х=8200), абсолютная погрешность – Δx=|8200-8253|=53. Таким образом, округление до числа 8300 будет более точным.

Для сравнения значений функции F(х) в строго фиксированной точке х0 со значениями этой же функции в любой другой точке х, лежащей в окрестностях х0, используются понятия «приращение функции» (ΔF) и «приращение аргумента функции» (Δx). Иногда Δx называют «приращением независимой переменной». Найдите приращение аргумента по формуле Δx=x-x0.

Определите значения функции в точках х0 и х и обозначьте их соответственно F(х0) и F(х).

Вычислите приращение функции: ΔF= F(х)- F(х0). Например: необходимо найти приращение аргумента и приращение функции F(х)=х˄2+1 при изменении аргумента от 2 до 3. В этом случае х0 равно 2, а х=3.
Приращение аргумента (или дельта икс) будет Δx=3-2=1.
F(х0)= х0˄2+1= 2˄2+1=5.
F(х)= х˄2+1= 3˄2+1=10.
Приращение функции (или дельта эф) ΔF= F(х)- F(х0)=10-5=5

Обратите внимание

Вычитать нужно не из большего числа меньшее, а из конечного значения (не важно: больше оно или меньше) начальное!

Полезный совет

При нахождении Δ все значения используйте только в одинаковых единицах измерения.

Источники:

  • Справочник по математике для средних учебных заведений, А.Г. Цыпкин, 1983

Войти на сайт

или

Забыли пароль?
Еще не зарегистрированы?

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

У этого термина существуют и другие значения, см. Дельта-метод.

Дельта-метод (в статистике) — вероятностное распределение функции от асимптотически нормальной статистической оценки при известной асимптотической дисперсии этой оценки.

Одномерный дельта-метод[править | править код]

Хотя дельта-метод легко обобщается до многомерного случая, аккуратное обоснование этой техники проще продемонстрировать в одномерной постановке задачи. Грубо говоря, если существует последовательность случайных величин Xn , удовлетворяющая:

{displaystyle {{sqrt {n}}[X_{n}-theta ],{xrightarrow {D}},{mathcal {N}}(0,sigma ^{2})}}

где θ и σ2 – конечные константы, а {displaystyle {xrightarrow {D}}} обозначает сходимость по распределению, то верно:

{displaystyle {{sqrt {n}}[g(X_{n})-g(theta )],{xrightarrow {D}},{mathcal {N}}(0,sigma ^{2}[g'(theta )]^{2})}}

для любой функции g, такой, что  g′(θ) существует, принимает ненулевые значения, и полиномиально ограничена случайной величиной[1].

Доказательство в одномерном случае[править | править код]

Демонстрация этого результата довольно очевидна в предположении, что g′(θ) непрерывна. 

По формуле Лагранжа: {displaystyle g(X_{n})=g(theta )+g'({tilde {theta }})(X_{n}-theta ),}

где {displaystyle {tilde {theta }}} лежит между Xn и θ.

Поскольку  {displaystyle X_{n},{xrightarrow {P}},theta } и{displaystyle X_{n}<{tilde {theta }}<theta }, то {displaystyle {tilde {theta }},{xrightarrow {P}},theta } , и поскольку g′(θ) непрерывна, применение теоремы о непрерывном отображении даёт:

{displaystyle g'({tilde {theta }}),{xrightarrow {P}},g'(theta ),}

где {displaystyle {xrightarrow {P}}} обозначает сходимость по вероятности.

Перестановка слагаемых и умножение на  {sqrt {n}} даёт {displaystyle {sqrt {n}}[g(X_{n})-g(theta )]=g'left({tilde {theta }}right){sqrt {n}}[X_{n}-theta ].}

Так как {displaystyle {{sqrt {n}}[X_{n}-theta ]{xrightarrow {D}}{mathcal {N}}(0,sigma ^{2})}} по предположению, то применение теоремы Слуцкого даёт {displaystyle {{sqrt {n}}[g(X_{n})-g(theta )]{xrightarrow {D}}{mathcal {N}}(0,sigma ^{2}[g'(theta )]^{2})}.}

Это завершает доказательство.

Доказательство с явным порядком приближения[править | править код]

Как вариант, можно добавить ещё один шаг в конце, чтобы выразить степень приближения.

{displaystyle {begin{aligned}{sqrt {n}}[g(X_{n})-g(theta )]&=g'left({tilde {theta }}right){sqrt {n}}[X_{n}-theta ]={sqrt {n}}[X_{n}-theta ]left[g'({tilde {theta }})+g'(theta )-g'(theta )right]\&={sqrt {n}}[X_{n}-theta ]left[g'(theta )right]+{sqrt {n}}[X_{n}-theta ]left[g'({tilde {theta }})-g'(theta )right]\&={sqrt {n}}[X_{n}-theta ]left[g'(theta )right]+O_{p}(1)cdot o_{p}(1)\&={sqrt {n}}[X_{n}-theta ]left[g'(theta )right]+o_{p}(1)end{aligned}}}

Это говорит о том, что ошибка аппроксимации сходится к 0 по вероятности.

Многомерный дельта-метод[править | править код]

По определению, состоятельная оценка B сходится по вероятности к своему истинному значению β, и зачастую можно применить центральную предельную теорему, чтобы получить асимптотически нормальную оценку:

{displaystyle {sqrt {n}}left(B-beta right),{xrightarrow {D}},Nleft(0,Sigma right),}

где n — число наблюдений и Σ — (симметричная, положительно определённая) ковариационная матрица. Предположим, мы хотим оценить дисперсию скалярной функции h от оценки B. Возьмём первых два члена ряда Тейлора и используя векторную нотацию градиента, мы можем оценить h(B) как

{displaystyle h(B)approx h(beta )+nabla h(beta )^{T}cdot (B-beta )}

что означает, что дисперсия h(B) примерно

{displaystyle {begin{aligned}operatorname {Var} left(h(B)right)&approx operatorname {Var} left(h(beta )+nabla h(beta )^{T}cdot (B-beta )right)\&=operatorname {Var} left(h(beta )+nabla h(beta )^{T}cdot B-nabla h(beta )^{T}cdot beta right)\&=operatorname {Var} left(nabla h(beta )^{T}cdot Bright)\&=nabla h(beta )^{T}cdot operatorname {Cov} (B)cdot nabla h(beta )\&=nabla h(beta )^{T}cdot {frac {Sigma }{n}}cdot nabla h(beta )end{aligned}}}

Можно использовать формулу конечных приращений (для действительнозначных функций нескольких переменных), чтобы увидеть, что это не влияет на приближения в первом порядке[[{{{1}}}|?]].

Дельта метод утверждает, что

{displaystyle {sqrt {n}}left(h(B)-h(beta )right),{xrightarrow {D}},Nleft(0,nabla h(beta )^{T}cdot Sigma cdot nabla h(beta )right)}

или в одномерном случае:

{displaystyle {sqrt {n}}left(h(B)-h(beta )right),{xrightarrow {D}},Nleft(0,sigma ^{2}cdot left(h^{prime }(beta )right)^{2}right).}

Пример[править | править код]

Этот раздел требует существенной доработки.

Этот раздел статьи необходимо дополнить и убрать это сообщение.

Замечание[править | править код]

Этот раздел требует существенной доработки.

Этот раздел статьи необходимо дополнить и убрать это сообщение.

Примечания[править | править код]

  1. Oehlert, G. W. (1992).

Математики любят греческие буквы и используют дельту заглавной буквы, которая выглядит как треугольник (∆), чтобы символизировать изменение. Когда дело доходит до пары чисел, дельта обозначает разницу между ними. Вы получаете эту разницу, используя основную арифметику и вычитая меньшее число из большего. В некоторых случаях числа располагаются в хронологическом порядке или в некоторой другой упорядоченной последовательности, и вам, возможно, придется вычесть большее из меньшего, чтобы сохранить порядок. Это может привести к отрицательному числу.

Абсолютная Дельта

Если у вас есть случайная пара чисел, и вы хотите узнать дельту – или разницу – между ними, просто вычтите меньшее из большего. Например, дельта между 3 и 6 составляет (6 – 3) = 3.

Если одно из чисел отрицательно, сложите два числа вместе. Операция выглядит следующим образом: (6 – {-3}) = (6 + 3) = 9. Легко понять, почему в этом случае дельта больше, если вы визуализируете два числа на оси x графика. Число 6 равно 6 единицам справа от оси, но отрицательное значение 3 равно 3 единицам слева. Другими словами, он дальше от 6, чем от положительного 3, который находится справа от оси.

Вам нужно запомнить некоторую арифметику вашей начальной школы, чтобы найти дельту между парой дробей. Например, чтобы найти дельту между 1/3 и 1/2, вы должны сначала найти общий знаменатель. Для этого умножьте знаменатели вместе, а затем умножьте числитель в каждой дроби на знаменатель другой дроби. В этом случае это выглядит так: 1/3 x 2/2 = 2/6 и 1/2 x 3/3 = 3/6. Вычтите 2/6 из 3/6, чтобы получить дельту, которая составляет 1/6.

Относительная дельта

Относительная дельта сравнивает разницу между двумя числами, A и B, в процентах от одного из чисел. Базовая формула A – B / A x100. Например, если вы зарабатываете 10 000 долларов в год и жертвуете 500 долларов на благотворительность, относительная дельта вашей зарплаты составляет 10 000 – 500/10 000 x 100 = 95%. Это означает, что вы пожертвовали 5 процентов своей зарплаты, а у вас осталось 95 процентов. Если вы зарабатываете 100 000 долларов в год и делаете то же самое пожертвование, вы сохранили 99, 5% своей зарплаты и пожертвовали только 0, 5% на благотворительность, что не очень впечатляет в момент налогообложения.

От дельты к дифференциалу

Вы можете представить любую точку на двумерном графике парой чисел, которые обозначают расстояние от точки до пересечения осей в направлениях x (горизонтальное) и y (вертикальное). Предположим, у вас есть две точки на графике, называемые точкой 1 и точкой 2, и эта точка 2 находится дальше от пересечения, чем точка 1. Дельта между значениями x этих точек – ∆ x – определяется как (x 2 – x 1), и y для этой пары точек равно (y 2 – y 1). Когда вы делите ∆y на ∆x, вы получаете наклон графика между точками, который говорит вам, как быстро x и y изменяются относительно друг друга.

Склон предоставляет полезную информацию. Например, если вы наносите время вдоль оси x и измеряете положение объекта при его перемещении в пространстве по оси Y, наклон графика показывает среднюю скорость объекта между этими двумя измерениями.

Скорость может быть не постоянной, и вы можете узнать скорость в определенный момент времени. Дифференциальное исчисление обеспечивает концептуальный трюк, который позволяет вам сделать это. Хитрость заключается в том, чтобы представить две точки на оси х и позволить им бесконечно сближаться. Отношение ∆y к ∆x – ∆y / ∆x – при приближении ∆x к 0 называется производной. Обычно это выражается как dy / dx или как df / dx, где f – алгебраическая функция, которая описывает граф. На графике, на котором время (t) отображается на горизонтальной оси, «dx» становится «dt», а производная dy / dt (или df / dt) является мерой мгновенной скорости.

В статистике , то метод дельта является результатом относительно приближенное распределение вероятностей для функции от к асимптотически нормальной статистической оценки от знаний о предельной дисперсии этой оценки.

История

Дельта-метод был основан на распространении ошибки , и идея, лежащая в его основе, была известна в начале 19 века. Его статистическое применение можно проследить еще в 1928 году Т.Л. Келли . Формальное описание метода было представлено JL Doob в 1935 году. Роберт Дорфман также описал его версию в 1938 году.

Одномерный дельта-метод

В то время как дельта-метод легко обобщается на многомерные параметры, тщательная мотивация метода легче продемонстрировать в одномерных терминах. Грубо говоря, если существует последовательность случайных величин X n, удовлетворяющая

{{ sqrt {n}} [X_ {n} -  theta] , { xrightarrow {D}} , { mathcal {N}} (0,  sigma ^ {2})},

где θ и σ 2 – конечнозначные константы и обозначают сходимость по распределению , то
 xrightarrow {D}

{ displaystyle {{ sqrt {n}} [g (X_ {n}) - g ( theta)] , { xrightarrow {D}} , { mathcal {N}} (0,  sigma ^ {2}  cdot [g '( theta)] ^ {2})}}

для любой функции g, удовлетворяющей тому свойству, что g ′ ( θ ) существует и имеет ненулевые значения.

Доказательство в одномерном случае

Демонстрация этого результата достаточно проста в предположении , что г ‘ ( θ ) является непрерывным . Для начала мы используем теорему о среднем значении (то есть: приближение первого порядка ряда Тейлора с использованием теоремы Тейлора ):

g (X_ {n}) = g ( theta) + g '({ tilde { theta}}) (X_ {n} -  theta),

где лежит между X n и θ . Заметим, что, поскольку и , должно быть так и поскольку g ′ ( θ ) непрерывна, применение теоремы о непрерывном отображении дает
{ tilde { theta}}X_ {n} , { xrightarrow {P}} ,  theta { displaystyle | { тильда { theta}} -  theta | <| X_ {n} -  theta |}{ tilde { theta}} , { xrightarrow {P}} ,  theta

g '({ tilde { theta}}) , { xrightarrow {P}} , g' ( theta),

где означает сходимость по вероятности .
{ xrightarrow {P}}

Перестановка членов и умножение на дает
{ sqrt {n}}

{ sqrt {n}} [g (X_ {n}) - g ( theta)] = g ' left ({ tilde { theta}}  right) { sqrt {n}} [X_ {n } -  theta].

поскольку

{{ sqrt {n}} [X_ {n} -  theta] { xrightarrow {D}} { mathcal {N}} (0,  sigma ^ {2})}

по предположению сразу из обращения к теореме Слуцкого следует, что

{{ sqrt {n}} [g (X_ {n}) - g ( theta)] { xrightarrow {D}} { mathcal {N}} (0,  sigma ^ {2} [g '(  theta)] ^ {2})}.

Это завершает доказательство.

Доказательство с явным порядком приближения.

В качестве альтернативы можно добавить еще один шаг в конце, чтобы получить порядок приближения :

{ begin {align} { sqrt {n}} [g (X_ {n}) - g ( theta)] & = g ' left ({ tilde { theta}}  right) { sqrt { n}} [X_ {n} -  theta] = { sqrt {n}} [X_ {n} -  theta]  left [g '({ tilde { theta}}) + g' ( theta ) -g '( theta)  right] \ & = { sqrt {n}} [X_ {n} -  theta]  left [g' ( theta)  right] + { sqrt {n} } [X_ {n} -  theta]  left [g '({ tilde { theta}}) - g' ( theta)  right] \ & = { sqrt {n}} [X_ {n } -  theta]  left [g '( theta)  right] + O_ {p} (1)  cdot o_ {p} (1) \ & = { sqrt {n}} [X_ {n} -  theta]  left [g '( theta)  right] + o_ {p} (1)  end {align}}

Это говорит о том, что ошибка приближения по вероятности сходится к нулю.

Многовариантный дельта-метод

По определению, согласованная оценка B сходится по вероятности к своему истинному значению β , и часто центральная предельная теорема может применяться для получения асимптотической нормальности :

{ sqrt {n}}  left (B-  beta  right) , { xrightarrow {D}} , N  left (0,  Sigma  right),

где n – количество наблюдений, а Σ – ковариационная матрица (симметричная положительно полуопределенная). Предположим , что мы хотим , чтобы оценить дисперсию скалярной функции ч -оценки B . Сохраняя только первые два члена ряда Тейлора и используя векторные обозначения градиента , мы можем оценить h (B) как

h (B)  приблизительно h ( beta) +  nabla h ( beta) ^ {T}  cdot (B-  beta)

откуда следует, что дисперсия h (B) приблизительно равна

{ Displaystyle { begin {выровнено}  OperatorName {Var}  left (h (B)  right) &  ок  OperatorName {Var}  left (h ( beta) +  nabla h ( beta) ^ { T}  cdot (B-  beta)  right) \ & =  operatorname {Var}  left (h ( beta) +  nabla h ( beta) ^ {T}  cdot B-  nabla h (  beta) ^ {T}  cdot  beta  right) \ & =  operatorname {Var}  left ( nabla h ( beta) ^ {T}  cdot B  right) \ & =  nabla h ( beta) ^ {T}  cdot  operatorname {Cov} (B)  cdot  nabla h ( beta) \ & =  nabla h ( beta) ^ {T}  cdot ( Sigma)  cdot  набла ч ( бета)  конец {выровнено}}}

Можно использовать теорему о среднем значении (для действительных функций многих переменных), чтобы увидеть, что это не зависит от приближения первого порядка.

Следовательно, дельта-метод подразумевает, что

{ sqrt {n}}  left (h (B) -h ( beta)  right) , { xrightarrow {D}} , N  left (0,  nabla h ( beta) ^ {T }  cdot  Sigma  cdot  nabla h ( beta)  right)

или в одномерном выражении,

{ sqrt {n}}  left (h (B) -h ( beta)  right) , { xrightarrow {D}} , N  left (0,  sigma ^ {2}  cdot  left (h ^ { prime} ( beta)  right) ^ {2}  right).

Пример: биномиальная пропорция

Пусть X п является бином с параметрами и п . поскольку
 p  in (0,1]

{{ sqrt {n}}  left [{ frac {X_ {n}} {n}} - p  right] , { xrightarrow {D}} , N (0, p (1-p) )},

мы можем применить метод Дельты с g ( θ ) = log ( θ ), чтобы увидеть

{{ sqrt {n}}  left [ log  left ({ frac {X_ {n}} {n}}  right) -  log (p)  right] , { xrightarrow {D}} , N (0, p (1-p) [1 / p] ^ {2})}

Следовательно, даже если для любого конечного n дисперсия фактически не существует (поскольку X n может быть нулевым), асимптотическая дисперсия действительно существует и равна
{ displaystyle  log  left ({ frac {X_ {n}} {n}}  right)} log  left ({ frac {X_ {n}} {n}}  right)

{ displaystyle { frac {1-p} {np}}.}

Заметим, что поскольку p> 0 , as , поэтому с вероятностью, сходящейся к единице, конечно при больших n .
{ displaystyle  Pr  left ({ frac {X_ {n}} {n}}> 0  right)  rightarrow 1} п  стрелка вправо  infty { displaystyle  log  left ({ frac {X_ {n}} {n}}  right)}

Более того, если и являются оценками различных групповых показателей из независимых выборок размеров n и m соответственно, то логарифм оцененного относительного риска имеет асимптотическую дисперсию, равную
{ hat p} шляпа д { frac {{ hat p}} {{ hat q}}}

{ displaystyle { frac {1-p} {p , n}} + { frac {1-q} {q , m}}.}

Это полезно для построения проверки гипотез или для определения доверительного интервала для относительного риска.

Альтернативная форма

Дельта-метод часто используется в форме, которая по существу идентична приведенной выше, но без предположения, что X n или B асимптотически нормальны. Часто единственным контекстом является то, что дисперсия «мала». В таком случае результаты просто дают приближения к средним и ковариациям преобразованных величин. Например, формулы, представленные в Klein (1953, p. 258), следующие:

{ begin {align}  operatorname {Var}  left (h_ {r}  right) = &  sum _ {i}  left ({ frac { partial h_ {r}} { partial B_ {i}) }}  right) ^ {2}  operatorname {Var}  left (B_ {i}  right) +  sum _ {i}  sum _ {{j  neq i}}  left ({ frac { частичный h_ {r}} { partial B_ {i}}}  right)  left ({ frac { partial h_ {r}} { partial B_ {j}}}  right)  operatorname {Cov}  left (B_ {i}, B_ {j}  right) \ operatorname {Cov}  left (h_ {r}, h_ {s}  right) = &  sum _ {i}  left ({ frac { partial h_ {r}} { partial B_ {i}}}  right)  left ({ frac { partial h_ {s}} { partial B_ {i}}}  right)  operatorname {Var }  left (B_ {i}  right) +  sum _ {i}  sum _ {{j  neq i}}  left ({ frac { partial h_ {r}} { partial B_ {i} }}  right)  left ({ frac { partial h_ {s}} { partial B_ {j}}}  right)  operatorname {Cov}  left (B_ {i}, B_ {j}  right )  конец {выровнено}}

где ч г является г – й элемент ч ( B ) и B я это я й элемент B .

Дельта-метод второго порядка

Когда g ′ ( θ ) = 0, дельта-метод не может быть применен. Однако, если g ′ ′ ( θ ) существует и не равно нулю, можно применить дельта-метод второго порядка. По разложению Тейлора , так что дисперсия зависит от 4-го момента .
{ displaystyle { sqrt {n}} [g (X_ {n}) - g ( theta)] = { frac {1} {2}} { sqrt {n}} [X_ {n} -  theta] ^ {2}  left [g '' ( theta)  right] + o_ {p} (1)}{ Displaystyle г  влево (X_ {п}  вправо)}X_ {n}

Дельта-метод второго порядка также полезен для более точной аппроксимации распределения при небольшом размере выборки.
. Например, если следовать стандартному нормальному распределению, его можно аппроксимировать как взвешенную сумму стандартной нормали и хи-квадрат со степенью свободы 1.
{ Displaystyle г  влево (X_ {п}  вправо)}{ displaystyle { sqrt {n}} [g (X_ {n}) - g ( theta)] = { sqrt {n}} [X_ {n} -  theta] g '( theta) + {  frac {1} {2}} { sqrt {n}} [X_ {n} -  theta] ^ {2} g '' ( theta) + o_ {p} (1)}X_ {n}{ Displaystyle г  влево (X_ {п}  вправо)}

Смотрите также

  • Разложения Тейлора для моментов функций случайных величин
  • Преобразование, стабилизирующее отклонение

Рекомендации

дальнейшее чтение

  • Oehlert, GW (1992). «Примечание о методе дельты». Американский статистик . 46 (1): 27–29. DOI : 10.1080 / 00031305.1992.10475842 . JSTOR   2684406 .
  • Уолтер, Кирк М. (1985). «Методы серии Тейлора» . Введение в оценку дисперсии . Нью-Йорк: Спрингер. С. 221–247. ISBN   0-387-96119-4 .

внешние ссылки

  • Асмуссен, Сорен (2005). «Некоторые приложения дельта-метода» (PDF) . Конспект лекций . Орхусский университет.
  • Фейвесон, Алан Х. «Объяснение дельта-метода» . Stata Corp.
  • Сюй, Цзюнь; Лонг, Дж. Скотт (22 августа 2005 г.). «Использование метода дельты для построения доверительных интервалов для прогнозируемых вероятностей, скоростей и дискретных изменений» (PDF) . Конспект лекций . Университет Индианы.

Добавить комментарий