Відкрити головне меню

Зміни

нема опису редагування
В [[статистика|статистиці]], '''дельта метод''' ({{lang-en|Delta method}})  — це твердження щодо наближеного ймовірнісного розподілу функції асимптотично нормальної статистичної оцінки за відомої граничної варіації цієї оцінки.   
 
== Одновимірний дельта метод ==
У той час, як метод дельта легко узагальнюється до багато вимірногобагатовимірного випадку, ретельну мотивацію методи легше продемонструвати в одновимірних умовах. Грубо кажучи, якщо є [[Послідовність (математика)|послідовність]] випадкових величин <math>X_n</math>, що задовольняють
: <math>{\sqrt{n}[X_n-\theta]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2)},</math>
 
дe <math>\theta</math> тa <math>\sigma^2</math> -&nbsp;— скінченні константи і <math>\xrightarrow{D}</math> позначає [[збіжність за розподілом]], тоді
: <math>{\sqrt{n}[g(X_n)-g(\theta)]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2[g'(\theta)]^2)}</math>
для довільної функції ''g'', яка задовольняє властивість: <math>\exist \ g'(\theta)\ne0</math> (існує і не дорівнює нулю).
 
=== Доведення одновимірного випадку ===
Доведення твердження досить просте у випадку [[Неперервна функція|неперервної]] похідної <math>g'(\theta)</math>. Для початку скористаємось [[Теорема Лагранжа|теоремою Лагранжа про середнє]]:
: <math>g(X_n)=g(\theta)+g'(\tilde{\theta})(X_n-\theta),</math>
дe <math>\tilde{\theta}</math> знаходиться між {{Шаблон:Mvar|X<sub>n</sub>}} тa <math>\theta</math>.
Зауважте, що оскільки <math>X_n\,\xrightarrow{P}\,\theta</math> тa <math>X_n < \tilde{\theta} < \theta </math>, то відповідно маємо <math>\tilde{\theta} \,\xrightarrow{P}\,\theta</math> і оскільки <math>g'(\theta)</math> неперервна, то застосовуючи теорему про неперервне відображення маємо
: <math>g'(\tilde{\theta})\,\xrightarrow{P}\,g'(\theta),</math>
дe <math>\xrightarrow{P}</math> позначає збіжність за розподілом.
 
Після тривіальних перетворень і множення на  <math>\sqrt{n}</math> маємо
: <math>\sqrt{n}[g(X_n)-g(\theta)]=g' \left (\tilde{\theta} \right )\sqrt{n}[X_n-\theta].</math>
Оскільки<span class="cx-segment" data-segmentid="65"></span>
: <math>{\sqrt{n}[X_n-\theta] \xrightarrow{D} \mathcal{N}(0,\sigma^2)}</math>
за припущенням і використовуючи [[Теорема Слуцького|теорему Слуцького]] випливає
: <math>{\sqrt{n}[g(X_n)-g(\theta)] \xrightarrow{D} \mathcal{N}(0,\sigma^2[g'(\theta)]^2)}.</math>
 
Що й треба було показати.
==== Доведення з явним використанням О символіки ====
Альтернативно, можна було б додати ще один крок в кінці для отримання порядкового наближення:
: <math>
\begin{align}
\sqrt{n}[g(X_n)-g(\theta)]&=g' \left (\tilde{\theta} \right )\sqrt{n}[X_n-\theta]=\sqrt{n}[X_n-\theta]\left[ g'(\tilde{\theta} )+g'(\theta)-g'(\theta)\right]\\
== Багатовимірний дельта метод ==
За означенням, конзистентна оцінка ''B'' [[Збіжність за мірою|збігається за ймовірністю]] до її справжнього значення ''β'', і застосовуючи центральну граничну теорему можна отримати асимптотичну нормальність:
: <math>\sqrt{n}\left(B-\beta\right)\,\xrightarrow{D}\,N\left(0, \Sigma \right),</math>
дe ''n'' число спостережень і Σ матриця коваріації (симетрична позитивно напів-визначена). Нехай треба оцінити варіацію функції ''h'' оцінки ''B''. Беручи до уваги тільки два перші члени розкладу Тейлора[[Ряд Тейлора|<nowiki/>]], з використанням векторного позначення градієнта[[Градієнт|<nowiki/>]], можемо оцінити ''h(B)'' як
: <math>h(B) \approx h(\beta) + \nabla h(\beta)^T \cdot (B-\beta)</math>
звідки випливає, що варіація ''h(B)'' наближено дорівнює
: <math>\begin{align}
\operatorname{Var}\left(h(B)\right) & \approx \operatorname{Var}\left(h(\beta) + \nabla h(\beta)^T \cdot (B-\beta)\right) \\
& = \operatorname{Var}\left(h(\beta) + \nabla h(\beta)^T \cdot B - \nabla h(\beta)^T \cdot \beta\right) \\
& = \nabla h(\beta)^T \cdot (\Sigma / n) \cdot \nabla h(\beta)
\end{align}</math>
Застосовуючи теорему Лагранжа про середнє (для дійснозначних функцій багатьох змінних) можна переконатись, щo доведення не спирається на той факт, що враховуються тільки наближення першого порядку.
 
Отже, з дельта методу випливає
 
: <math>\sqrt{n}\left(h(B)-h(\beta)\right)\,\xrightarrow{D}\,N\left(0, \nabla h(\beta)^T \cdot \Sigma \cdot \nabla h(\beta)\right)</math>
 
чи в одновимірному випадку,
: <math>\sqrt{n}\left(h(B)-h(\beta)\right)\,\xrightarrow{D}\,N\left(0, \sigma^2 \cdot \left(h^\prime(\beta)\right)^2 \right).</math>
 
== Джерела ==
* Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
* Klein, L. R. (1953), A Textbook of Econometrics, p. 258.
 
== Ланки ==
* Oehlert, G. W. (1992), A Note on the Delta Method, ''The American Statistician'', Vol. 46, No. 1, p. 27-29. http://www.jstor.org/stable/2684406