Автокореляція: відмінності між версіями

[неперевірена версія][перевірена версія]
(Створена сторінка: [[Файл:Acf new.svg|200px|thumb|Графік 100 випадкових величин з прихованою синусоїдою. Автокореляційн...)
 
(Виправлено джерел: 5; позначено як недійсні: 0.) #IABot (v2.0.8.7)
 
(Не показано 22 проміжні версії 12 користувачів)
Рядок 1: Рядок 1:
{{Короткий опис|Кореляція сигналу зі зміщеною в часі копією самого себе як функція від зміщення}}
[[Файл:Acf new.svg|200px|thumb|Графік 100 випадкових величин з прихованою синусоїдою. Автокореляційна функція дозволяє побачити періодичність в ряді даних.]]
{{Кореляція та коваріація}}
'''Автокореляція''' або '''автокореляційна функція''' - це кореляція функції з самою собою зміщеною на певну величину незалежної змінної. Автокореляція використовується для знаходження закономірностей в ряді даних, таких як періодичність. Часто застосовується у [[Математична статистика|статистиці]] та [[Обробка сигналів|обробці сигналів]] для аналізу функцій або серій даних.
[[Файл:Acf_new.svg|праворуч|міні|400x400пкс|Нагорі: графік ряду зі 100 випадкових чисел, що приховують функцію [[синус]]а. Внизу: ця функція синуса, виявлена в [[Корелограма|корелограмі]], отриманій за допомогою автокореляції.]]
[[Файл:Comparison_convolution_correlation.svg|міні|400x400пкс|Наочне порівняння [[Згортка (математичний аналіз)|згортки]], [[Взаємна кореляція|взаємної кореляції]] та [[Автокореляція |автокореляції]]. Для операцій, що включають функцію {{mvar|f}}, і виходячи з припущення, що висота {{mvar|f}} становить 1,0, значення результату в 5 різних точках показано затіненою областю під кожною точкою. Також, вертикальна симетрія {{mvar|f}} є причиною того, що <math>g*f</math> та <math>f \star g</math> у цьому прикладі ідентичні.]]
'''Автокореля́ція''' ({{lang-en|autocorrelation}}), іноді відома як '''послідо́вна кореля́ція''' ({{lang-en|serial correlation}}), у випадку {{нп|Дискретний час|дискретного часу||Discrete time}}&nbsp;— це [[кореляція]] [[сигнал]]у із затриманою копією самого себе як функція від затримки. Неформально&nbsp;— це схожість між спостереженнями як функція від відставання в часі ({{lang-en|time lag}}) між ними. Аналіз автокореляції&nbsp;— це математичний інструмент для пошуку повторюваних закономірностей, таких як наявність [[Періодичний сигнал|періодичного сигналу]], заекранованого {{нп|Шум (обробка сигналів)|шумом||Noise (signal processing)}}, або визначення {{нп|Відсутність основної частоти|відсутньої основної частоти||Missing fundamental frequency}} в сигналі, на яку натякають його [[Гармоніки|гармонічні]] частоти. Його часто використовують в [[Обробка сигналів|обробці сигналів]] для аналізу функцій або рядів значень, таких як сигнали [[Часова область|часової області]].


Різні галузі досліджень визначають автокореляцію по-різному, й не всі ці визначення є рівнозначними. У деяких галузях цей термін використовують взаємозамінно з [[Автоковаріація|автоковаріацією]].
Математично автокореляційна функція визначається як:

:<math>R_f(\tau) = \int_{-\infty}^{\infty} f(t)f^*(t-\tau)\, dt</math>,
Особливими видами процесів із автокореляцією є процеси з {{нп|Одиничний корінь|одиничним коренем||Unit root}}, {{нп|Тренд-стаціонарний процес|тренд-стаціонарні процеси||Trend-stationary process}}, {{нп|Авторегресійний процес|авторегресійні процеси||Autoregressive process}} та {{нп|Процес ковзного середнього|процеси ковзного середнього||Moving average process}}.
де функція <math>\;f(t)</math> інтегрується у добутку з комплексно спряженою та зміщеною на певну величину <math>\tau</math> (часто <math>\tau</math> це час) функцією.

== Автокореляція стохастичних процесів ==

У [[Статистика|статистиці]] автокореляція дійсного або комплексного [[Випадковий процес|випадкового процесу]]&nbsp;— це [[Коефіцієнт кореляції Пірсона|кореляція Пірсона]] між значеннями цього процесу в різні моменти часу як функція від двох моментів часу, або від відставання в часі. Нехай <math>\left\{ X_t \right\}</math>&nbsp;— випадковий процес, а <math>t</math>&nbsp;— будь-яка точка в часі (<math>t</math> може бути [[Цілі числа|цілим числом]] для {{нп|Дискретний час|дискретночасового||Discrete time}}, або [[Дійсне число|дійсним числом]] для {{нп|Неперервний час|неперервночасового||Continuous time}} процесу). Тоді <math>X_t</math>&nbsp;— це значення (або {{нп|Реалізація (теорія ймовірностей)|реалізація||Realization (probability)}}), отримане в результаті заданого {{нп|Виконання (обчислення)|виконання||Execution (computing)}} процесу в момент часу <math>t</math>. Припустімо, що цей процес у момент часу <math>t</math> має [[середнє значення]] <math>\mu_t</math> та [[Дисперсія випадкової величини|дисперсію]] <math>\sigma_t^2</math>, для будь-якого <math>t</math>. Тоді визначенням '''автокореляці́йної фу́нкції''' ({{lang-en|auto-correlation function}}) між моментами часу <math>t_1</math> та <math>t_2</math> є<ref name=Gubner>{{cite book |first=John A. |last=Gubner |year=2006 |title=Probability and Random Processes for Electrical and Computer Engineers |publisher=Cambridge University Press |isbn=978-0-521-86470-1}} {{ref-en}}</ref>{{rp|с.388}}<ref name=KunIlPark>Kun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, {{ISBN|978-3-319-68074-3}} {{ref-en}}</ref>{{rp|с.165}}

{{Equation box 1
|indent = :
|title=
|equation = {{NumBlk||<math>\operatorname{R}_{XX}(t_1,t_2) = \operatorname{E} \left[ X_{t_1} \overline{X}_{t_2}\right]</math>|{{EquationRef|1}}}}
|cellpadding= 6
|border colour = #0073CF
|background colour=#F5FFFA}}

де <math>\operatorname{E}</math>&nbsp;— оператор [[Математичне сподівання|математичного сподівання]], а риска подає [[комплексне спряження]]. Зауважте, що це математичне сподівання може не бути {{нп|Однозначна визначеність|однозначна визначеним||Well defined}}.

Віднімання середнього значення перед множенням дає '''автоковаріаці́йну фу́нкцію''' ({{lang-en|auto-covariance function}}) між моментами часу <math>t_1</math> та <math>t_2</math>:<ref name=Gubner/>{{rp|с.392}}<ref name=KunIlPark/>{{rp|с.168}}

{{Equation box 1
|indent = :
|title=
|equation = {{NumBlk||<math>\operatorname{K}_{XX}(t_1,t_2) = \operatorname{E} \left[ (X_{t_1} - \mu_{t_1})\overline{(X_{t_2} - \mu_{t_2})} \right] = \operatorname{E}\left[X_{t_1} \overline{X}_{t_2} \right] - \mu_{t_1}\overline{\mu}_{t_2}</math>|{{EquationRef|2}}}}
|cellpadding= 6
|border colour = #0073CF
|background colour=#F5FFFA}}

Зауважте, що цей вираз не є однозначно визначеним для всіх часових рядів та процесів, оскільки середнього значення може не існувати, або дисперсія може бути нульовою (для сталого процесу) чи нескінченною (для процесів із розподілом без коректних моментів, таких як певні типи [[Степеневий розподіл|степеневого розподілу]]).

=== Визначення для стаціонарного в широкому сенсі стохастичного процесу ===

Якщо <math>\left\{ X_t \right\}</math>&nbsp;— [[Стаціонарність у широкому сенсі|стаціонарний у широкому сенсі процес]], то середнє значення <math>\mu</math> та дисперсія <math>\sigma^2</math> незалежні від часу, й відтак автоковаріаційна функція залежить лише від відставання між <math>t_1</math> та <math>t_2</math>: автоковаріація залежить лише від часової відстані між парою значень, але не від їхнього положення в часі. Це відтак означає, що автоковаріацію та автокореляцію можливо виразити як функцію від відставання в часі, й що вона буде [[Парна функція|парною функцією]] відставання в часі <math>\tau=t_2-t_1</math>. Це дає звичніші вигляди '''автокореляційної функції'''<ref name=Gubner/>{{rp|с.395}}

{{Equation box 1
|indent = :
|title=
|equation = {{NumBlk||<math>\operatorname{R}_{XX}(\tau) = \operatorname{E}\left[X_{t+\tau} \overline{X}_{t} \right]</math>|{{EquationRef|3}}}}
|cellpadding= 6
|border colour = #0073CF
|background colour=#F5FFFA}}

та '''автоковаріаційної функції''':

{{Equation box 1
|indent = :
|title=
|equation = {{NumBlk||<math>\operatorname{K}_{XX}(\tau) = \operatorname{E}\left[ (X_{t+\tau} - \mu)\overline{(X_{t} - \mu)} \right] = \operatorname{E} \left[ X_{t+\tau} \overline{X}_{t} \right] - \mu\overline{\mu}</math>|{{EquationRef|4}}}}
|cellpadding= 6
|border colour = #0073CF
|background colour=#F5FFFA}}

=== Унормовування ===

Поширеною практикою в деяких дисциплінах (наприклад, у статистиці та [[Аналіз часових рядів|аналізі часових рядів]]) є унормовувати автоковаріаційну функцію, щоб отримувати залежний від часу [[коефіцієнт кореляції Пірсона]]. Проте в деяких інших дисциплінах (наприклад, в інженерії) унормовування зазвичай пропускають, а терміни «автокореляція» та «автоковаріація» використовують як взаємозамінні.

Визначення коефіцієнта автокореляції стохастичного процесу:<ref name=KunIlPark/>{{rp|с.169}}

<math display=block>\rho_{XX}(t_1,t_2) = \frac{\operatorname{K}_{XX}(t_1,t_2)}{\sigma_{t_1}\sigma_{t_2}} = \frac{\operatorname{E}\left[(X_{t_1} - \mu_{t_1}) \overline{(X_{t_2} - \mu_{t_2})} \right]}{\sigma_{t_1}\sigma_{t_2}} .</math>

Якщо функція <math>\rho_{XX}</math>&nbsp;однозначно визначена, її значення мусять лежати в діапазоні <math>[-1,1]</math>, причому 1 вказує на ідеальну кореляцію, а −1&nbsp;— на ідеальну {{нп|Антикореляція|антикореляцію||Anti-correlation}}.

Для [[Стаціонарність|слабко стаціонарного, стаціонарного в широкому сенсі (СШС)]] процесу, визначення таке:

<math display=block>\rho_{XX}(\tau) = \frac{\operatorname{K}_{XX}(\tau)}{\sigma^2} = \frac{\operatorname{E} \left[(X_{t+\tau} - \mu)\overline{(X_{t} - \mu)}\right]}{\sigma^2}</math>

де

<math display=block>\operatorname{K}_{XX}(0) = \sigma^2 .</math>

Унормовування важливе як тому, що інтерпретація автокореляції як кореляції забезпечує безмасштабну міру сили [[Статистична залежність|статистичної залежності]], так і тому, що воно впливає на статистичні властивості оцінюваних автокореляцій.

=== Властивості ===

==== Властивість симетрії ====

Той факт, що автокореляційна функція <math>\operatorname{R}_{XX}</math> [[Парна функція|парна]], може бути сформульовано як<ref name=KunIlPark/>{{rp|с.171}}

<math display=block>\operatorname{R}_{XX}(t_1,t_2) = \overline{\operatorname{R}_{XX}(t_2,t_1)}</math>

відповідно, для СШС процесу:<ref name=KunIlPark/>{{rp|с.173}}

<math display=block>\operatorname{R}_{XX}(\tau) = \overline{\operatorname{R}_{XX}(-\tau)} .</math>

==== Максимум в нулі ====

Для СШС процесу<ref name=KunIlPark/>{{rp|с.174}}

<math display=block>\left|\operatorname{R}_{XX}(\tau)\right| \leq \operatorname{R}_{XX}(0)</math>

Зверніть увагу, що <math>\operatorname{R}_{XX}(0)</math> завжди дійсна.

==== Нерівність Коші&nbsp;— Буняковського ====

[[Нерівність Коші — Буняковського]], нерівність для стохастичних процесів:<ref name=Gubner/>{{rp|с.392}}

<math display=block>\left|\operatorname{R}_{XX}(t_1,t_2)\right|^2 \leq \operatorname{E}\left[ |X_{t_1}|^2\right] \operatorname{E}\left[|X_{t_2}|^2\right]</math>

==== Автокореляція білого шуму ====

Автокореляція неперервночасового сигналу [[Білий шум|білого шуму]] матиме сильний пік (представлений [[Дельта-функція Дірака|дельта-функцією Дірака]]) при <math>\tau=0</math>, й дорівнюватиме <math>0</math> для всіх інших <math>\tau</math>.

==== Теорема Вінера&nbsp;— Хінчина ====

{{нп|Теорема Вінера — Хінчина|||Wiener–Khinchin theorem}} пов'язує автокореляційну функцію <math>\operatorname{R}_{XX}</math> зі [[Спектральна густина|спектральною густиною потужності]] <math>S_{XX}</math> через [[перетворення Фур'є]]:

<math display=block>\operatorname{R}_{XX}(\tau) = \int_{-\infty}^\infty S_{XX}(f) e^{i 2 \pi f \tau} \, {\rm d}f</math>

<math display=block>S_{XX}(f) = \int_{-\infty}^\infty \operatorname{R}_{XX}(\tau) e^{- i 2 \pi f \tau} \, {\rm d}\tau .</math>

Для дійснозначних функцій симетрична автокореляційна функція має дійсне симетричне перетворення, тож {{нп|Теорема Вінера — Хінчина|теорему Вінера&nbsp;— Хінчина||Wiener–Khinchin theorem}} можливо виразити в термінах лише дійсних косинусів:

<math display=block>\operatorname{R}_{XX}(\tau) = \int_{-\infty}^\infty S_{XX}(f) \cos(2 \pi f \tau) \, {\rm d}f</math>

<math display=block>S_{XX}(f) = \int_{-\infty}^\infty \operatorname{R}_{XX}(\tau) \cos(2 \pi f \tau) \, {\rm d}\tau .</math>

== {{якірець|Автокореляційна матриця}}Автокореляція випадкових векторів ==

(Потенційно залежна від часу) '''автокореляці́йна ма́триця''' ({{lang-en|auto-correlation matrix}}, також звана другим моментом) (потенційно залежного від часу) [[Випадковий вектор|випадкового вектора]] <math>\mathbf{X} = (X_1,\ldots,X_n)^{\rm T}</math>&nbsp;— це матриця <math>n \times n</math>, яка містить як елементи автокореляції всіх пар елементів випадкового вектора <math>\mathbf{X}</math>. Автокореляційну матрицю використовують у різних алгоритмах [[Цифрова обробка сигналів|цифрової обробки сигналів]].

Для [[Випадковий вектор|випадкового вектора]] <math>\mathbf{X} = (X_1,\ldots,X_n)^{\rm T}</math>, що містить [[Випадковий елемент|випадкові елементи]], [[математичне сподівання]] та [[Дисперсія випадкової величини|дисперсія]] яких існують, '''автокореляційну матрицю''' визначають як<ref name=Papoulis>Papoulis, Athanasius, ''Probability, Random variables and Stochastic processes'', McGraw-Hill, 1991 {{ref-en}}</ref>{{rp|с.190}}<ref name=Gubner/>{{rp|c.334}}

{{Equation box 1
|indent = :
|title=
|equation = {{NumBlk||<math>\operatorname{R}_{\mathbf{X}\mathbf{X}} \triangleq\ \operatorname{E} \left[ \mathbf{X} \mathbf{X}^{\rm T} \right] </math>|{{EquationRef|5}}}}
|cellpadding= 6
|border
|border colour = #0073CF
|background colour=#F5FFFA}}

де <math>{}^{\rm T}</math> позначує транспонування, й має розміри <math>n \times n</math>.

У поелементному записі:

<math display=block>\operatorname{R}_{\mathbf{X}\mathbf{X}} =
\begin{bmatrix}
\operatorname{E}[X_1 X_1] & \operatorname{E}[X_1 X_2] & \cdots & \operatorname{E}[X_1 X_n] \\ \\
\operatorname{E}[X_2 X_1] & \operatorname{E}[X_2 X_2] & \cdots & \operatorname{E}[X_2 X_n] \\ \\
\vdots & \vdots & \ddots & \vdots \\ \\
\operatorname{E}[X_n X_1] & \operatorname{E}[X_n X_2] & \cdots & \operatorname{E}[X_n X_n] \\ \\
\end{bmatrix}
</math>

Якщо <math>\mathbf{Z}</math>&nbsp;— {{нп|комплексний випадковий вектор|||Complex random vector}}, то автокореляційну матрицю натомість визначають як

<math display=block>\operatorname{R}_{\mathbf{Z}\mathbf{Z}} \triangleq\ \operatorname{E}[\mathbf{Z} \mathbf{Z}^{\rm H}] .</math>

Тут <math>{}^{\rm H}</math> позначує [[ермітове транспонування]].

Наприклад, якщо <math>\mathbf{X} = \left( X_1,X_2,X_3 \right)^{\rm T}</math>&nbsp;— випадковий вектор, то <math>\operatorname{R}_{\mathbf{X}\mathbf{X}}</math>&nbsp;— матриця <math>3 \times 3</math>, чиїм <math>(i,j)</math>-м елементом є <math>\operatorname{E}[X_i X_j]</math>.

=== Властивості автокореляційної матриці ===

* Автокореляційна матриця&nbsp;— [[ермітова матриця]] для комплексних випадкових векторів, і [[симетрична матриця]] для дійсних випадкових векторів.<ref name=Papoulis />{{rp|с.190}}
* Автоковаріаційна матриця [[Додатно напіввизначена матриця|додатно напіввизначена]],<ref name=Papoulis />{{rp|с.190}} тобто, <math>\mathbf{a}^{\mathrm T} \operatorname{R}_{\mathbf{X}\mathbf{X}} \mathbf{a} \ge 0</math> для всіх <math>\mathbf{a} \in \mathbb{R}^n</math> для дійсного випадкового вектора, й відповідно <math>\mathbf{a}^{\mathrm H} \operatorname{R}_{\mathbf{Z}\mathbf{Z}} \mathbf{a} \ge 0</math> для всіх <math>\mathbf{a} \in \mathbb{C}^n</math> у разі комплексного випадкового вектора.
* Усі власні значення автокореляційної матриці є дійсними та невід'ємними.
* ''Автоковаріаційна матриця'' пов'язана з автокореляціною матрицею наступним чином:<!--

--><math display="block">\operatorname{K}_{\mathbf{X}\mathbf{X}} = \operatorname{E}[(\mathbf{X} - \operatorname{E}[\mathbf{X}])(\mathbf{X} - \operatorname{E}[\mathbf{X}])^{\rm T}] = \operatorname{R}_{\mathbf{X}\mathbf{X}} - \operatorname{E}[\mathbf{X}] \operatorname{E}[\mathbf{X}]^{\rm T}</math><!--

-->Відповідно, для комплексних випадкових векторів:<!--

--><math display=block>\operatorname{K}_{\mathbf{Z}\mathbf{Z}} = \operatorname{E}[(\mathbf{Z} - \operatorname{E}[\mathbf{Z}])(\mathbf{Z} - \operatorname{E}[\mathbf{Z}])^{\rm H}] = \operatorname{R}_{\mathbf{Z}\mathbf{Z}} - \operatorname{E}[\mathbf{Z}] \operatorname{E}[\mathbf{Z}]^{\rm H}</math>

== Автокореляція детермінованих сигналів ==

В [[Обробка сигналів|обробці сигналів]] наведене вище визначення часто використовують без унормовування, тобто без віднімання середнього значення й ділення на дисперсію. Коли автокореляційну функцію унормовують за середнім значенням та дисперсією, її іноді називають '''коефіціє́нтом автокореля́ції''' ({{lang-en|autocorrelation coefficient}})<ref name="dunn">{{cite book |first=Patrick F. |last=Dunn |title=Measurement and Data Analysis for Engineering and Science |url=https://archive.org/details/measurementdataa0000dunn |location=New York |publisher=McGraw–Hill |year=2005 |isbn=978-0-07-282538-1 }} {{ref-en}}</ref> або автоковаріаційною функцією.

=== Автокореляція неперервночасового сигналу ===

За заданого [[сигнал]]у <math>f(t)</math> неперервну автокореляцію <math>R_{ff}(\tau)</math> найчастіше визначають як неперервний [[Взаємна кореляція|взаємнокореляційний]] інтеграл <math>f(t)</math> із самим собою, з відставанням <math>\tau</math>.<ref name=Gubner/>{{rp|с.411}}

{{Equation box 1
|indent = :
|title=
|equation = {{NumBlk||<math>R_{ff}(\tau) = \int_{-\infty}^\infty f(t+\tau)\overline{f(t)}\, {\rm d}t = \int_{-\infty}^\infty f(t) \overline{f(t-\tau)}\, {\rm d}t</math>|{{EquationRef|6}}}}
|cellpadding= 6
|border
|border colour = #0073CF
|background colour=#F5FFFA}}

де <math>\overline{f(t)}</math> являє собою [[комплексне спряження]] <math>f(t)</math>. Зверніть увагу, що параметр <math>t</math> в інтегралі є фіктивною змінною, необхідною лише для обчислення інтеграла. Вона не несе конкретного змісту.

=== Автокореляція дискретночасового сигналу ===

Дискретна автокореляція <math>R</math> за відставання <math>\ell</math> для дискретночасового сигналу часу <math>y(n)</math>:

{{Equation box 1
|indent = :
|title=
|equation = {{NumBlk||<math>R_{yy}(\ell) = \sum_{n \in Z} y(n)\,\overline{y(n-\ell)}</math>|{{EquationRef|7}}}}
|cellpadding= 6
|border
|border colour = #0073CF
|background colour=#F5FFFA}}

Наведені вище визначення працюють для квадратно інтегровних або квадратно сумовних сигналів, тобто, зі скінченною енергією. Сигнали, що «тривають вічно», натомість розглядають як випадкові процеси, й у цьому випадку необхідні відмінні визначення, на основі математичних сподівань. Для [[Стаціонарність у широкому сенсі|стаціонарних у широкому сенсі випадкових процесів]] автокореляції визначають як

<math display=block>\begin{align}
R_{ff}(\tau) &= \operatorname{E}\left[f(t)\overline{f(t-\tau)}\right] \\
R_{yy}(\ell) &= \operatorname{E}\left[y(n)\,\overline{y(n-\ell)}\right] .
\end{align}</math>

Для процесів, що не є [[Стаціонарність|стаціонарними]], вони також будуть функціями від <math>t</math> та <math>n</math>.

Для процесів, що є також {{нп|Ергодичний процес|ергодичними||Ergodic process}}, математичне сподівання можливо замінити границею усереднення за часом. Автокореляцію ергодичного процесу іноді визначають як, або прирівнюють до<ref name="dunn"/>

<math display=block>\begin{align}
R_{ff}(\tau) &= \lim_{T \rightarrow \infty} \frac 1 T \int_0^T f(t+\tau)\overline{f(t)}\, {\rm d}t \\
R_{yy}(\ell) &= \lim_{N \rightarrow \infty} \frac 1 N \sum_{n=0}^{N-1} y(n)\,\overline{y(n-\ell)} .
\end{align}</math>

Ці визначення мають ту перевагу, що вони дають осмислені однозначно визначені однопараметрові результати для періодичних функцій, навіть якщо ці функції не є результатом стаціонарних ергодичних процесів.

Крім того, сигнали, які ''тривають вічно,'' можливо розглядати за допомогою аналізу віконних автокореляційних функцій ({{lang-en|short-time autocorrelation function analysis}}), застосовуючи скінченні інтеграли за часом. (Про пов'язаний процес див. [[віконне перетворення Фур'є]].)

=== Визначення для періодичних сигналів ===

Якщо <math>f</math>&nbsp;— неперервна періодична функція з періодом <math>T</math>, то інтегрування від <math>-\infty</math> до <math>\infty</math> замінюють інтегруванням над будь-яким інтервалом <math>[t_0,t_0+T]</math> довжини <math>T</math>:<math display="block">R_{ff}(\tau) \triangleq \int_{t_0}^{t_0+T} f(t+\tau) \overline{f(t)} \,dt</math>що рівнозначне<math display="block">R_{ff}(\tau) \triangleq \int_{t_0}^{t_0+T} f(t) \overline{f(t-\tau)} \,dt</math>

=== Властивості ===

Далі ми опишемо властивості лише одновимірних автокореляцій, оскільки більшість властивостей легко переносяться з одновимірного випадку на багатовимірні. Ці властивості справедливі для [[Стаціонарність у широкому сенсі|стаціонарних у широкому сенсі процесів]].<ref>{{cite book|last1=Proakis|first1=John|title=Communication Systems Engineering (2nd Edition)|date=31 серпня 2001|publisher=Pearson|isbn=978-0130617934|page=168|edition=2}} {{ref-en}}</ref>

* Основною властивістю автокореляції є симетрія, <math>R_{ff}(\tau) = R_{ff}(-\tau)</math>, що легко довести з визначення. У неперервному випадку
** автокореляція є [[Парна функція|парною функцією]] <math>R_{ff}(-\tau) = R_{ff}(\tau)</math>, коли <math>f</math> є дійсною функцією, і
** автокореляція є {{нп|Ермітова функція|ермітовою функцією||Hermitian function}} <math>R_{ff}(-\tau) = R_{ff}^*(\tau)</math>, коли <math>f</math> є [[Комплексна функція|комплексною функцією]].
* Неперервна автокореляційна функція досягає свого піку в початку координат, де вона набуває дійсного значення, тобто, для будь-якої затримки <math>\tau</math>, <math>|R_{ff}(\tau)| \leq R_{ff}(0)</math>.<ref name=Gubner/>{{rp|с.410}} Це&nbsp;— наслідок [[Нерівність перестановок|нерівності перестановок]]. Той самий результат має місце і в дискретному випадку.
* Автокореляція [[Періодична функція|періодичної функції]] сама по собі є періодичною, з тим самим періодом.
* Автокореляція суми двох абсолютно некорельованих функцій (взаємна кореляція дорівнює нулеві для всіх <math>\tau</math>) є сумою автокореляцій кожної з функцій окремо.
* Оскільки автокореляція є особливим видом [[Взаємна кореляція|взаємної кореляції]], вона зберігає всі властивості взаємної кореляції.
* За допомогою символу <math>*</math> для подання [[Згортка (математичний аналіз)|згортки]], й функції <math>g_{-1}</math>, що маніпулює функцією <math>f</math>, й визначена як <math>g_{-1}(f)(t)=f(-t)</math>, визначення для <math>R_{ff}(\tau)</math> може бути записано так:<!--

--><math display="block">R_{ff}(\tau) = (f * g_{-1}(\overline{f}))(\tau)</math>

== Багатовимірна автокореляція ==

[[Багатовимірність|Багатовимірну]] автокореляцію визначають аналогічно. Наприклад, у [[Тривимірний простір|трьох вимірах]] автокореляцією квадратно-сумовного [[Дискретний сигнал|дискретного сигналу]] була би

<math display=block>R(j,k,\ell) = \sum_{n,q,r} x_{n,q,r}\,\overline{x}_{n-j,q-k,r-\ell} .</math>

Коли перед обчисленням автокореляційної функції від сигналів віднімають середні значення, отриману функцію зазвичай називають автоковаріаційною функцією.

== Ефективне обчислення ==

Для даних, виражених як [[Дискретний сигнал|дискретна]] послідовність, часто необхідно обчислювати автокореляцію з високою [[Ефективність алгоритму|обчислювальною ефективністю]]. {{нп|Метод грубої сили (доведення)|Метод грубої сили||Brute force method}}, що ґрунтується на визначенні обробки сигналу <math>R_{xx}(j) = \sum_n x_n\,\overline{x}_{n-j}</math>, можливо використовувати, коли розмір сигналу невеликий. Наприклад, для обчислення автокореляції послідовності дійсного сигналу <math>x = (2,3,-1)</math> (тобто, <math>x_0=2, x_1=3, x_2=-1</math>, й <math>x_i = 0</math> для всіх інших значень {{mvar|i}}) вручну ми спочатку з'ясовуємо, що щойно наведене визначення таке саме, як і «звичайне» множення, але зі зміщеннями праворуч, де кожне вертикальне додавання дає автокореляцію для певних значень відставання:

<math display=block>\begin{array}{rrrrrr}
& 2 & 3 & -1 \\
\times & 2 & 3 & -1 \\
\hline
&-2 &-3 & 1 \\
& & 6 & 9 & -3 \\
+ & & & 4 & 6 & -2 \\
\hline
& -2 & 3 &14 & 3 & -2
\end{array}</math>

Таким чином, потрібна послідовність автокореляції&nbsp;— <math>R_{xx}=(-2,3,14,3,-2)</math>, де <math>R_{xx}(0)=14,</math><math>R_{xx}(-1)= R_{xx}(1)=3,</math> а <math>R_{xx}(-2)= R_{xx}(2) = -2,</math> автокореляція для інших значень відставання дорівнює нулеві. В цьому обчисленні ми не виконуємо операцію перенесення під час додавання, як це зазвичай відбувається при звичайному множенні. Зауважте, що ми можемо зменшити кількість необхідних операцій вдвічі, використовуючи притаманну автокореляції симетрію. Якщо сигнал виявляється періодичним, тобто <math>x=(\ldots,2,3,-1,2,3,-1,\ldots),</math> то ми отримуємо циклічну автокореляцію ({{lang-en|circular autocorrelation}}, подібну до {{нп|Циклічна згортка|циклічної згортки||Circular convolution}}), де лівий та правий хвости попередньої автокореляційної послідовності перекриватимуться й даватимуть <math>R_{xx}=(\ldots,14,1,1,14,1,1,\ldots)</math>, що має той самий період, що й послідовність сигналу <math>x.</math> Цю процедуру можливо розглядати як застосування властивості згортки [[Z-перетворення|''Z''-перетворення]] дискретного сигналу.

В той час як алгоритм грубої сили має [[Нотація Ландау|порядок]] {{Math|''n''<sup>2</sup>}}, існує декілька ефективних алгоритмів, які можуть обчислювати автокореляцію в межах порядку {{Math|''n'' log(''n'')}}. Наприклад, {{нп|Теорема Вінера — Хінчина|3=en|4=Wiener–Khinchin theorem}} дозволяє обчислювати автокореляцію з сирих даних {{Math|''X''(''t'')}} за допомогою двох [[Швидке перетворення Фур'є|швидких перетворень Фур'є]] ({{lang-en|fast Fourier transforms, FFT}}):<ref>{{cite book |last1=Box |first1=G. E. P. |first2=G. M. |last2=Jenkins |first3=G. C. |last3=Reinsel |title=Time Series Analysis: Forecasting and Control |edition=3rd |location=Upper Saddle River, NJ |publisher=Prentice–Hall |year=1994 |isbn=978-0130607744 }} {{ref-en}}</ref>{{Сторінка|дата=листопад 2021}}

<math display=block>\begin{align}
F_R(f) &= \operatorname{FFT}[X(t)] \\
S(f) &= F_R(f) F^*_R(f) \\
R(\tau) &= \operatorname{IFFT}[S(f)]
\end{align}</math>

де ''IFFT'' позначує обернене [[швидке перетворення Фур'є]] ({{lang-en|inverse fast Fourier transform}}). Зірочка позначує [[комплексне спряження]].

Як альтернатива, кореляцію для декількох {{mvar|τ}} можливо виконувати, використовуючи обчислення грубою сили для низьких значень {{mvar|τ}}, а потім поступово об'єднуючи дані {{Math|''X''(''t'')}} з [[логарифм]]ічною густиною для обчислення для вищих значень, що дає ту ж ефективність {{Math|''n'' log(''n'')}}, але з нижчими вимогами до пам'яті.<ref>{{cite book |first1=D. |last1=Frenkel |first2=B. |last2=Smit |title=Understanding Molecular Simulation |edition=2nd |location=London |publisher=Academic Press |year=2002 |chapter=chap. 4.4.2 |isbn=978-0122673511 }} {{ref-en}}</ref><ref>{{cite journal |first1=P. |last1=Colberg |first2=F. |last2=Höfling |title=Highly accelerated simulations of glassy dynamics using GPUs: caveats on limited floating-point precision |journal={{нп|Computer Physics Communications|Comput. Phys. Commun.}} |volume=182 |issue=5 |pages=1120–1129 |year=2011 |doi=10.1016/j.cpc.2011.01.009 |arxiv=0912.3824 |bibcode=2011CoPhC.182.1120C |s2cid=7173093 }} {{ref-en}}</ref>

== Оцінювання ==

Для [[Дискретний сигнал|дискретного]] процесу з відомими середнім значенням та дисперсією, для якого ми спостерігаємо <math>n</math> спостережень <math>\{X_1,\,X_2,\,\ldots,\,X_n\}</math>, оцінку коефіцієнта автокореляції можна отримати через

<math display=block> \hat{R}(k)=\frac{1}{(n-k) \sigma^2} \sum_{t=1}^{n-k} (X_t-\mu)(X_{t+k}-\mu) </math>

для будь-якого додатного цілого <math>k<n</math>. Коли істинне середнє значення <math>\mu</math> та дисперсія <math>\sigma^2</math> відомі, ця оцінка є '''[[Незміщена оцінка|незмі́щеною]]''' ({{lang-en|unbiased}}). Якщо істинне середнє значення та [[Дисперсія випадкової величини|дисперсія]] процесу невідомі, є декілька можливостей:

* Якщо <math>\mu</math> та <math>\sigma^2</math> замінити стандартними формулами для вибіркового середнього та вибіркової дисперсії, то це '''[[Зміщена оцінка|змі́щена оці́нка]]''' ({{lang-en|biased estimate}}).
* Оцінка на основі {{нп|Періодограма|періодограми||Periodogram}} замінює <math>n-k</math> у наведеній вище формулі на <math>n</math>. Ця оцінка завжди зміщена; проте, вона зазвичай має меншу середньоквадратичну похибку.<ref>{{cite book |title=Spectral Analysis and Time Series |first=M. B. |last=Priestley |location=London, New York |publisher=Academic Press |year=1982 |isbn=978-0125649018 }} {{ref-en}}</ref><ref>{{cite book | last=Percival | first=Donald B. | author2=Andrew T. Walden | title=Spectral Analysis for Physical Applications: Multitaper and Conventional Univariate Techniques | url=https://archive.org/details/spectralanalysis00perc_105 | url-access=limited | year=1993 | publisher=Cambridge University Press | isbn=978-0-521-43541-3 | pages=[https://archive.org/details/spectralanalysis00perc_105/page/n217 190]–195}} {{ref-en}}</ref>
* Інші можливості випливають із розгляду двох частин даних <math>\{X_1,\,X_2,\,\ldots,\,X_{n-k}\}</math> та <math>\{X_{k+1},\,X_{k+2},\,\ldots,\,X_n\}</math> окремо, та обчислення окремих вибіркових середніх та/або вибіркових дисперсій для використання при визначенні оцінки.{{джерело|дата=листопад 2021}}<!--Мені справді не вдається знайти цитату для цього крайнього типу оцінювача, хоч я й можу перевірити чисельно, що він розв'язує проблему від'ємності, підняту в doi:10.1080/00031305.1993.10475997-->

Перевага оцінок останнього типу полягає в тому, що набір оцінених автокореляцій, як функція від <math>k</math>, потім формує функцію, яка є дійсною автокореляцією в тому сенсі, що можливо визначити теоретичний процес, що має саме таку автокореляцію. Інші оцінки можуть страждати від проблеми, що, якщо їх використовують для обчислення дисперсії лінійної комбінації <math>X</math>-ів, то обчислювана дисперсія може виявлятися від'ємною.<ref>{{Cite journal|last=Percival|first=Donald B.|date=1993|title=Three Curious Properties of the Sample Variance and Autocovariance for Stationary Processes with Unknown Mean|url=https://archive.org/details/sim_american-statistician_1993-11_47_4/page/274|journal=The American Statistician|language=en|volume=47|issue=4|pages=274–276|doi=10.1080/00031305.1993.10475997}} {{ref-en}}</ref>

== Регресійний аналіз ==

У [[Регресійний аналіз|регресійному аналізі]] з використанням [[Часовий ряд|даних часових рядів]] автокореляцію у цільовій змінній зазвичай моделюють {{нп|Авторегресійна модель|авторегресійною моделлю||Autoregressive model}} (АР, {{lang-en|autoregressive model, AR}}), {{нп|Модель ковзного середнього|моделлю ковзного середнього||Moving-average model}} (КС, {{lang-en|moving average model, MA}}), їхнім поєднанням як [[Модель авторегресії з ковзним середнім|моделлю авторегресії з ковзним середнім]] (АРКС, {{lang-en|autoregressive-moving-average model, ARMA}}) або розширенням крайнього, званим {{нп|Модель авторегресії з інтегрованим ковзним середнім|моделлю авторегресії з інтегрованим ковзним середнім||Autoregressive integrated moving average}} (АРІКС, {{lang-en|autoregressive integrated moving average model, ARIMA}}). При множинних взаємопов'язаних рядах даних використовують [[Векторна авторегресія|векторну авторегресію]] (ВАР, {{lang-en|vector autoregression, VAR}}) або її розширення.

У {{нп|Звичайні найменші квадрати|звичайних найменших квадратах||Ordinary least squares}} (ЗНК, {{lang-en|ordinary least squares, OLS}}) адекватність специфікації моделі можливо частково перевіряти, встановлюючи, чи існує автокореляція [[Похибки та залишки|залишків регресії]]. Проблемну автокореляцію похибок, що самі по собі неспостережні, зазвичай можливо виявляти через те, що вона створює автокореляцію у спостережуваних залишках. (Похибки також відомі як «члени похибки», {{lang-en|error terms}}, в [[Економетрія|економетрії]].) Автокореляція похибок порушує припущення звичайних найменших квадратів, що члени похибки некорельовані, що означає незастосовність [[Теорема Гаусса — Маркова|теореми Гауса&nbsp;— Маркова]], і що оцінювачі ЗНК вже не є найкращими лінійними незміщеними оцінювачами ([[НЛНО]], {{lang-en|Best Linear Unbiased Estimators, BLUE}}). Хоч це й не зміщує оцінок коефіцієнтів ЗНК, але коли автокореляції похибок при малих відставання є додатними, то [[Стандартна похибка|стандартні похибки]], як правило, недооцінюються (а {{нп|t-статистика|''t''-показники||t-statistic}} завищуються).

Традиційною перевіркою на наявність автокореляції першого порядку є [[критерій Дарбіна — Уотсона]], або, якщо пояснювальні змінні включають залежну змінну з відставанням, [[H-критерій Дарбіна|''h''-критерій Дарбіна]]. Проте, Дарбіна&nbsp;— Уотсона можливо лінійно відобразити на кореляцію Пірсона між значеннями та їхніми відставаннями.<ref>{{Cite web|url=http://statisticalideas.blogspot.com/2014/05/serial-correlation-techniques.html|website=Statistical Ideas|title=Serial correlation techniques|date=26 травня 2014|accessdate=27 листопада 2021|archive-date=27 листопада 2021|archive-url=https://web.archive.org/web/20211127074749/http://statisticalideas.blogspot.com/2014/05/serial-correlation-techniques.html}} {{ref-en}}</ref> Гнучкішим критерієм, що охоплює автокореляцію вищих порядків, і є застосовним незалежно від того, чи включають незалежні змінні відставання залежної змінної, є {{нп|критерій Бройша — Ґодфрі|||Breusch–Godfrey test}}. Він включає допоміжну регресію залишків, отримуваних в результаті оцінки цільової моделі, на (а) первинні незалежні змінні, та (б) ''k'' відставань залишків, де «''k''» є порядком цього критерію. Найпростішим варіантом статистичного критерію з цієї допоміжної регресії є ''TR'' <sup>2</sup>, де ''T''&nbsp;— розмір вибірки, а ''R'' <sup>2</sup>&nbsp;— [[коефіцієнт детермінації]]. За нульової гіпотези відсутності автокореляції ця статистика асимптотично має [[Розподіл хі-квадрат|розподіл <math>\chi^2</math>]] з ''k'' ступенями вільності.

До відповідей на ненульову автокореляцію належать {{нп|узагальнені найменші квадрати|||Generalized least squares}} та {{нп|Оцінювач Ньюї — Уеста|оцінювач Ньюї&nbsp;— Уеста ГАС||Newey–West estimator}} (гетероскедастично та автокореляційно стійкий, {{lang-en|Heteroskedasticity and Autocorrelation Consistent, HAC}}).<ref>{{cite book | title = An Introduction to Modern Econometrics Using Stata |first= Christopher F. |last=Baum | publisher = Stata Press | year = 2006 | isbn = 978-1-59718-013-9}} {{ref-en}}</ref>

В оцінюванні {{нп|Модель ковзного середнього|моделлю ковзного середнього||Moving-average model}} (КС) функцію автокореляції використовують, щоби визначати, яку кількість членів відставання буде доречно включити. Це ґрунтується на тому факті, що для процесу КС порядку ''q'' маємо <math>R(\tau) \neq 0</math> для <math> \tau = 0,1, \ldots, q</math>, й <math> R(\tau) = 0</math> для <math>\tau >q</math>.

== Застосування ==

* Автокореляційний аналіз широко застосовують у [[Флюоресцентна кореляційна спектроскопія|флуоресцентній кореляційній спектроскопії]],<ref>{{Cite journal|last=Elson|first=Elliot L.|date=December 2011|title=Fluorescence Correlation Spectroscopy: Past, Present, Future|journal=Biophysical Journal|language=en|volume=101|issue=12|pages=2855–2870|doi=10.1016/j.bpj.2011.11.012|pmc=3244056|pmid=22208184|bibcode=2011BpJ...101.2855E}} {{ref-en}}</ref> щоби забезпечувати кількісне уявлення про дифузію та хімічні реакції на молекулярному рівні.<ref>{{Cite journal|last1=Hołyst|first1=Robert|last2=Poniewierski|first2=Andrzej|last3=Zhang|first3=Xuzhu|date=2017|title=Analytical form of the autocorrelation function for the fluorescence correlation spectroscopy|journal=Soft Matter|language=en|volume=13|issue=6|pages=1267–1275|doi=10.1039/C6SM02643E|pmid=28106203|issn=1744-683X|bibcode=2017SMat...13.1267H|doi-access=free}} {{ref-en}}</ref>
* Іншим застосуванням автокореляції є вимірювання [[Оптичний спектр|оптичних спектрів]] і вимірювання надкоротких [[світло]]вих [[Лазери надкоротких імпульсів|імпульсів]], створюваних [[лазер]]ами, обидва з використанням {{нп|Оптична автокореляція|оптичних автокореляторів||Optical autocorrelation}}.
* Автокореляцію використовують для аналізу даних {{нп|Динамічне розсіювання світла|динамічного розсіювання світла||Dynamic light scattering}}, що, зокрема, дозволяє визначати [[Розподіл розмірів частинок|розподіл розмірів]] нанометрових частинок або [[Міцели|міцел]], зважених у рідині. Лазер, що світить у суміш, створює {{нп|Спекл-структура|спекл-структуру||Speckle pattern}}, яка виникає в результаті руху частинок. Автокореляцію цього сигналу можливо аналізувати з точки зору дифузії частинок. З цього, знаючи в'язкість рідини, можливо обчислювати розміри частинок.
* Використовують у системі ''[[GPS]]'' для уточнення {{нп|Затримка поширювання|затримки поширювання||Propagation delay}}, або часового зсуву між моментом передачі [[Опорний сигнал|опорного сигналу]] на супутниках і моментом часу в приймачі на землі. Для цього приймач генерує копію сигналу 1&nbsp;023-бітового коду ''C/A'' ({{lang-en|Coarse/Acquisition}}), і генерує рядки кодових імпульсів [-1,1] у пакетах по десять за раз, або 10&nbsp;230 імпульси (1&nbsp;023 × 10), злегка зміщуючись по ходу, щоби врахувати [[доплерівський зсув]] у вхідному супутниковому сигналі, доки сигнал приймачевої копії та коди супутникового сигналу не збіжаться.<ref>{{Cite book
|title=GPS for Land Surveyors
|last=Van Sickle
|first=Jan
|date=2008
|publisher=CRC Press
|edition=Third
|pages=18–19
|isbn=978-0-8493-9195-8
}} {{ref-en}}</ref>
* Інтенсивність [[Малокутове рентгенівське розсіювання|малокутового рентгенівського розсіювання]] наноструктурної системи&nbsp;— це перетворенням Фур'є просторової автокореляційної функції електронної густини.
* У [[Фізика і хімія поверхні|науці про поверхню]] та в [[Сканувальний зондовий мікроскоп|сканувальній зондовій мікроскопії]] автокореляцію використовують для встановлювання зв'язку між морфологією поверхні та функційними характеристиками.<ref>{{Cite journal|last=Kalvani|first=Payam Rajabi|last2=Jahangiri|first2=Ali Reza|last3=Shapouri|first3=Samaneh|last4=Sari|first4=Amirhossein|last5=Jalili|first5=Yousef Seyed|date=August 2019|title=Multimode AFM analysis of aluminum-doped zinc oxide thin films sputtered under various substrate temperatures for optoelectronic applications|journal=Superlattices and Microstructures|language=en|volume=132|pages=106173|doi=10.1016/j.spmi.2019.106173}} {{ref-en}}</ref>
* В оптиці нормовані автокореляції та взаємні кореляції дають {{нп|ступінь когерентності|||Degree of coherence}} електромагнітного поля.
* В [[Обробка сигналів|обробці сигналів]] автокореляція може давати інформацію про повторювані події, такі як [[Доля (музика)|музичні долі]] (наприклад, щоби визначати [[темп]]) або [[Частота|частоти]] [[пульсар]]ів, хоч вона й не може визначити положення долі в часі. Її також можуть використовувати, щоб {{нп|Алгоритм визначення висоти музичного звуку|оцінювати висоту музичного звуку||Pitch detection algorithm}}.
* У [[Звукові технології|музичнім звукозаписі]] автокореляцію використовують як {{нп|Алгоритм визначення висоти музичного звуку|алгоритм визначення висоти звуку||Pitch detection algorithm}} перед обробкою голосу, як ефект [[дисторшн]], або для усунення небажаних помилок і неточностей.<ref>{{Cite news
| last1 = Tyrangiel | first1 = Josh
| title = Auto-Tune: Why Pop Music Sounds Perfect
| magazine = [[Time (magazine)|Time]]
| date = 2009-02-05
| url = http://www.time.com/time/magazine/article/0,9171,1877372,00.html| archive-url = https://web.archive.org/web/20090210004826/http://www.time.com/time/magazine/article/0,9171,1877372,00.html| url-status = dead| archive-date = February 10, 2009}} {{ref-en}}</ref>
* Дифракціювальники рентгенівських променів використовують автокореляцію в просторі замість часу за допомогою {{нп|Функція Паттерсона|функції Паттерсона||Patterson function}}, щоби полегшувати відновлення «фазової інформації Фур'є» про положення атомів, недоступної за допомогою самої лише дифракції.
* У статистиці просторова автокореляція між положеннями зразків також допомагає оцінювати {{нп|Узагальнення дисперсії|невизначеність середнього значення||Variance generalizations}} під час вибірки з неоднорідної сукупності.
* Алгоритм ''{{нп|SEQUEST}}'' для аналізу {{нп|Спектр мас|спектрів мас||Mass spectrum}} використовує автокореляцію у поєднанні зі [[Взаємна кореляція|взаємною кореляцією]], щоб оцінювати подібність спостережуваного спектру до ідеалізованого спектру, що подає якийсь [[Пептиди|пептид]].
* В [[Астрофізика|астрофізиці]] автокореляцію використовують для вивчення та характеризування просторового розподілу [[Галактика|галактик]] у Всесвіті, та при багатохвильових спостереженнях [[Рентгенівські подвійні|рентгенівських подвійних]] малої маси.
* У {{нп|Панельні дані|панельних даних||Panel data}} просторова автокореляція стосується кореляції змінної з самою собою в просторі.
* При аналізі даних [[Методи Монте-Карло марковських ланцюгів|Монте-Карло марковських ланцюгів]] автокореляцію необхідно враховувати, щоби правильного визначати похибку.
* У [[Науки про Землю|науках про Землю]] (зокрема в [[Геофізика|геофізиці]]) її можливо використовувати для обчислення автокореляційного сейсмічного параметра за допомогою тривимірної сейсмічної зйомки під землею.
* У [[Медична акустика|медичній ультразвуковій]] візуалізації автокореляцію використовують для унаочнювання кровотоку.
* При {{нп|Міжчасовий вибір портфеля|міжчасовому виборі портфеля||Intertemporal portfolio choice}} наявність або відсутність автокореляції в [[Рентабельність|нормі прибутковості]] активу може впливати на оптимальну частину портфеля для зберігання в цьому активі.

== Послідовна залежність ==

'''Послідо́вна зале́жність''' ({{lang-en|serial dependence}}) тісно пов'язана з поняттям автокореляції, але подає окреме поняття (див. [[Кореляція і залежність|кореляцію та залежність]]). Зокрема, можливо мати послідовну залежність за відсутності (лінійної) кореляції. Проте у деяких областях ці два терміни використовують як синоніми.

[[Часовий ряд]] [[Випадкова величина|випадкової величини]] має послідовну залежність, якщо значення в якийсь момент часу <math>t</math> цього ряду [[Незалежність (теорія ймовірностей)|статистично залежне]] від значення в інший момент часу <math>s</math>. Ряд є послідовно незалежним, якщо між будь-якою парою моментів часу залежності немає.

Якщо часовий ряд <math>\left\{ X_t \right\}</math> [[Стаціонарність|стаціонарний]], то статистична залежність всередині пари <math>(X_t,X_s)</math> означала би, що існує статистична залежність між усіма парами значень з однаковим відставанням <math>\tau=s-t</math>.


== Див. також ==
== Див. також ==
{{Div col|colwidth=40em}}
* [[Автокореляційна матриця]]
* {{нп|Автокореляційна методика|||Autocorrelation technique}}
* {{нп|Автокореляція (слова)|Автокореляція формального слова||Autocorrelation (words)}}
* {{нп|Автокорелятор|||Autocorrelator}}
* [[Взаємна кореляція]]
* {{нп|Задача Гальтона|||Galton's problem}}
* [[Кореляційна функція]]
* [[Корелограма]]
* {{нп|Частинна автокореляційна функція|||Partial autocorrelation function}}
* [[Флюоресцентна кореляційна спектроскопія]]
* [[Флюоресцентна кореляційна спектроскопія]]
* {{нп|Оптична автокореляція|||Optical autocorrelation}}
* {{нп|Алгоритм визначення висоти музичного звуку|||Pitch detection algorithm}}
* {{нп|Потрійна кореляція|||Triple correlation}}
* ''{{нп|CUSUM}}''
* {{нп|Процедура Кокрейна — Оркатта|||Cochrane–Orcutt estimation}} (перетворення для автокорельованих членів похибки)
* {{нп|Перетворення Прейза — Уінсена|||Prais–Winsten transformation}}
* {{нп|Масштабна кореляція|||Scaled correlation}}
* {{нп|Незміщене оцінювання стандартного відхилення#Вплив автокореляції (послідовної кореляції)|Незміщене оцінювання стандартного відхилення||Unbiased estimation of standard deviation#Effect of autocorrelation (serial correlation)}}
{{Div col end}}


== Джерела ==
== Примітки ==
{{Примітки}} 
* Patrick F. Dunn, Measurement and Data Analysis for Engineering and Science, New York: McGraw–Hill, 2005 ISBN 0-07-282538-3


== Література ==
[[Категорія:Обробка сигналів]]
* {{cite book |last=Kmenta |first=Jan |author-link=Ян Кмента |title=Elements of Econometrics |location=New York |publisher=Macmillan |year=1986 |edition=Second |isbn=978-0-02-365070-3 |pages=[https://archive.org/details/elementsofeconom0003kmen/page/298 298–334] |url-access=registration |url=https://archive.org/details/elementsofeconom0003kmen/page/298 }} {{ref-en}}
[[Категорія:Теорія ймовірностей]]
* {{cite book|author=Marno Verbeek|author-link=Марно Вербек|title=A Guide to Modern Econometrics|url=https://books.google.com/books?id=SQxDDwAAQBAJ|date=10 серпня 2017|publisher=Wiley|isbn=978-1-119-40110-0|accessdate=27 листопада 2021|archive-date=27 листопада 2021|archive-url=https://web.archive.org/web/20211127074743/https://books.google.com/books?id=SQxDDwAAQBAJ}} {{ref-en}}
[[Категорія:Математична статистика]]
* Mojtaba Soltanalian, and Petre Stoica. "[http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6142119 Computational design of sequences with good correlation properties] {{Webarchive|url=https://web.archive.org/web/20131215192112/http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6142119 |date=15 грудня 2013 }}." IEEE Transactions on Signal Processing, 60.5 (2012): 2180–2193. {{ref-en}}
* Solomon W. Golomb, and Guang Gong. [http://www.cambridge.org/us/academic/subjects/computer-science/cryptography-cryptology-and-coding/signal-design-good-correlation-wireless-communication-cryptography-and-radar Signal design for good correlation: for wireless communication, cryptography, and radar] {{Webarchive|url=https://web.archive.org/web/20150923232434/http://www.cambridge.org/us/academic/subjects/computer-science/cryptography-cryptology-and-coding/signal-design-good-correlation-wireless-communication-cryptography-and-radar |date=23 вересня 2015 }}. Cambridge University Press, 2005. {{ref-en}}
* Klapetek, Petr (2018). ''[https://www.elsevier.com/books/quantitative-data-processing-in-scanning-probe-microscopy/klapetek/978-0-12-813347-7 Quantitative Data Processing in Scanning Probe Microscopy: SPM Applications for Nanometrology] {{Webarchive|url=https://web.archive.org/web/20211127075117/https://www.elsevier.com/books/quantitative-data-processing-in-scanning-probe-microscopy/klapetek/978-0-12-813347-7 |date=27 листопада 2021 }}'' (Second ed.). Elsevier. pp.&nbsp;108–112 {{ISBN|9780128133477}}. {{ref-en}}
* {{MathWorld | urlname=Autocorrelation | title=Autocorrelation}}


{{Статистика|аналіз}}
[[ar:ترابط تلقائي]]

[[de:Autokorrelation]]
[[Категорія:Автокореляція| ]]
[[en:Autocorrelation]]
[[Категорія:Обробка сигналів]]
[[es:Autocorrelación]]
[[Категорія:Аналіз часової області]]
[[fi:Autokorrelaatio]]
[[gl:Autocorrelación]]
[[it:Autocorrelazione]]
[[ja:自己相関]]
[[pl:Autokorelacja]]
[[pt:Autocorrelação]]
[[ru:Автокорреляционная функция]]
[[su:Autokorélasi]]
[[sv:Autokorrelation]]
[[tr:Otokorelasyon]]
[[zh:自相关函数]]

Поточна версія на 10:57, 20 травня 2022

Автокореля́ція (англ. autocorrelation), іноді відома як послідо́вна кореля́ція (англ. serial correlation), у випадку дискретного часу[en] — це кореляція сигналу із затриманою копією самого себе як функція від затримки. Неформально — це схожість між спостереженнями як функція від відставання в часі (англ. time lag) між ними. Аналіз автокореляції — це математичний інструмент для пошуку повторюваних закономірностей, таких як наявність періодичного сигналу, заекранованого шумом[en], або визначення відсутньої основної частоти[en] в сигналі, на яку натякають його гармонічні частоти. Його часто використовують в обробці сигналів для аналізу функцій або рядів значень, таких як сигнали часової області.

Нагорі: графік ряду зі 100 випадкових чисел, що приховують функцію синуса. Внизу: ця функція синуса, виявлена в корелограмі, отриманій за допомогою автокореляції.
Наочне порівняння згортки, взаємної кореляції та автокореляції. Для операцій, що включають функцію f, і виходячи з припущення, що висота f становить 1,0, значення результату в 5 різних точках показано затіненою областю під кожною точкою. Також, вертикальна симетрія f є причиною того, що та у цьому прикладі ідентичні.

Різні галузі досліджень визначають автокореляцію по-різному, й не всі ці визначення є рівнозначними. У деяких галузях цей термін використовують взаємозамінно з автоковаріацією.

Особливими видами процесів із автокореляцією є процеси з одиничним коренем[en], тренд-стаціонарні процеси[en], авторегресійні процеси[en] та процеси ковзного середнього[en].

Автокореляція стохастичних процесівРедагувати

У статистиці автокореляція дійсного або комплексного випадкового процесу — це кореляція Пірсона між значеннями цього процесу в різні моменти часу як функція від двох моментів часу, або від відставання в часі. Нехай   — випадковий процес, а   — будь-яка точка в часі (  може бути цілим числом для дискретночасового[en], або дійсним числом для неперервночасового[en] процесу). Тоді   — це значення (або реалізація[en]), отримане в результаті заданого виконання[en] процесу в момент часу  . Припустімо, що цей процес у момент часу   має середнє значення   та дисперсію  , для будь-якого  . Тоді визначенням автокореляці́йної фу́нкції (англ. auto-correlation function) між моментами часу   та   є[1]:с.388[2]:с.165

 

 

 

 

 

(1)

де   — оператор математичного сподівання, а риска подає комплексне спряження. Зауважте, що це математичне сподівання може не бути однозначна визначеним[en].

Віднімання середнього значення перед множенням дає автоковаріаці́йну фу́нкцію (англ. auto-covariance function) між моментами часу   та  :[1]:с.392[2]:с.168

 

 

 

 

 

(2)

Зауважте, що цей вираз не є однозначно визначеним для всіх часових рядів та процесів, оскільки середнього значення може не існувати, або дисперсія може бути нульовою (для сталого процесу) чи нескінченною (для процесів із розподілом без коректних моментів, таких як певні типи степеневого розподілу).

Визначення для стаціонарного в широкому сенсі стохастичного процесуРедагувати

Якщо   — стаціонарний у широкому сенсі процес, то середнє значення   та дисперсія   незалежні від часу, й відтак автоковаріаційна функція залежить лише від відставання між   та  : автоковаріація залежить лише від часової відстані між парою значень, але не від їхнього положення в часі. Це відтак означає, що автоковаріацію та автокореляцію можливо виразити як функцію від відставання в часі, й що вона буде парною функцією відставання в часі  . Це дає звичніші вигляди автокореляційної функції[1]:с.395

 

 

 

 

 

(3)

та автоковаріаційної функції:

 

 

 

 

 

(4)

УнормовуванняРедагувати

Поширеною практикою в деяких дисциплінах (наприклад, у статистиці та аналізі часових рядів) є унормовувати автоковаріаційну функцію, щоб отримувати залежний від часу коефіцієнт кореляції Пірсона. Проте в деяких інших дисциплінах (наприклад, в інженерії) унормовування зазвичай пропускають, а терміни «автокореляція» та «автоковаріація» використовують як взаємозамінні.

Визначення коефіцієнта автокореляції стохастичного процесу:[2]:с.169

 

Якщо функція   однозначно визначена, її значення мусять лежати в діапазоні  , причому 1 вказує на ідеальну кореляцію, а −1 — на ідеальну антикореляцію[en].

Для слабко стаціонарного, стаціонарного в широкому сенсі (СШС) процесу, визначення таке:

 

де

 

Унормовування важливе як тому, що інтерпретація автокореляції як кореляції забезпечує безмасштабну міру сили статистичної залежності, так і тому, що воно впливає на статистичні властивості оцінюваних автокореляцій.

ВластивостіРедагувати

Властивість симетріїРедагувати

Той факт, що автокореляційна функція   парна, може бути сформульовано як[2]:с.171

 

відповідно, для СШС процесу:[2]:с.173

 

Максимум в нуліРедагувати

Для СШС процесу[2]:с.174

 

Зверніть увагу, що   завжди дійсна.

Нерівність Коші — БуняковськогоРедагувати

Нерівність Коші — Буняковського, нерівність для стохастичних процесів:[1]:с.392

 

Автокореляція білого шумуРедагувати

Автокореляція неперервночасового сигналу білого шуму матиме сильний пік (представлений дельта-функцією Дірака) при  , й дорівнюватиме   для всіх інших  .

Теорема Вінера — ХінчинаРедагувати

Теорема Вінера — Хінчина[en] пов'язує автокореляційну функцію   зі спектральною густиною потужності   через перетворення Фур'є:

 

 

Для дійснозначних функцій симетрична автокореляційна функція має дійсне симетричне перетворення, тож теорему Вінера — Хінчина[en] можливо виразити в термінах лише дійсних косинусів:

 

 

Автокореляція випадкових векторівРедагувати

(Потенційно залежна від часу) автокореляці́йна ма́триця (англ. auto-correlation matrix, також звана другим моментом) (потенційно залежного від часу) випадкового вектора   — це матриця  , яка містить як елементи автокореляції всіх пар елементів випадкового вектора  . Автокореляційну матрицю використовують у різних алгоритмах цифрової обробки сигналів.

Для випадкового вектора  , що містить випадкові елементи, математичне сподівання та дисперсія яких існують, автокореляційну матрицю визначають як[3]:с.190[1]:c.334

 

 

 

 

 

(5)

де   позначує транспонування, й має розміри  .

У поелементному записі:

 

Якщо   — комплексний випадковий вектор[en], то автокореляційну матрицю натомість визначають як

 

Тут   позначує ермітове транспонування.

Наприклад, якщо   — випадковий вектор, то   — матриця  , чиїм  -м елементом є  .

Властивості автокореляційної матриціРедагувати

  • Автокореляційна матриця — ермітова матриця для комплексних випадкових векторів, і симетрична матриця для дійсних випадкових векторів.[3]:с.190
  • Автоковаріаційна матриця додатно напіввизначена,[3]:с.190 тобто,   для всіх   для дійсного випадкового вектора, й відповідно   для всіх   у разі комплексного випадкового вектора.
  • Усі власні значення автокореляційної матриці є дійсними та невід'ємними.
  • Автоковаріаційна матриця пов'язана з автокореляціною матрицею наступним чином:
     
    Відповідно, для комплексних випадкових векторів:
     

Автокореляція детермінованих сигналівРедагувати

В обробці сигналів наведене вище визначення часто використовують без унормовування, тобто без віднімання середнього значення й ділення на дисперсію. Коли автокореляційну функцію унормовують за середнім значенням та дисперсією, її іноді називають коефіціє́нтом автокореля́ції (англ. autocorrelation coefficient)[4] або автоковаріаційною функцією.

Автокореляція неперервночасового сигналуРедагувати

За заданого сигналу   неперервну автокореляцію   найчастіше визначають як неперервний взаємнокореляційний інтеграл   із самим собою, з відставанням  .[1]:с.411

 

 

 

 

 

(6)

де   являє собою комплексне спряження  . Зверніть увагу, що параметр   в інтегралі є фіктивною змінною, необхідною лише для обчислення інтеграла. Вона не несе конкретного змісту.

Автокореляція дискретночасового сигналуРедагувати

Дискретна автокореляція   за відставання   для дискретночасового сигналу часу  :

 

 

 

 

 

(7)

Наведені вище визначення працюють для квадратно інтегровних або квадратно сумовних сигналів, тобто, зі скінченною енергією. Сигнали, що «тривають вічно», натомість розглядають як випадкові процеси, й у цьому випадку необхідні відмінні визначення, на основі математичних сподівань. Для стаціонарних у широкому сенсі випадкових процесів автокореляції визначають як

 

Для процесів, що не є стаціонарними, вони також будуть функціями від   та  .

Для процесів, що є також ергодичними[en], математичне сподівання можливо замінити границею усереднення за часом. Автокореляцію ергодичного процесу іноді визначають як, або прирівнюють до[4]

 

Ці визначення мають ту перевагу, що вони дають осмислені однозначно визначені однопараметрові результати для періодичних функцій, навіть якщо ці функції не є результатом стаціонарних ергодичних процесів.

Крім того, сигнали, які тривають вічно, можливо розглядати за допомогою аналізу віконних автокореляційних функцій (англ. short-time autocorrelation function analysis), застосовуючи скінченні інтеграли за часом. (Про пов'язаний процес див. віконне перетворення Фур'є.)

Визначення для періодичних сигналівРедагувати

Якщо   — неперервна періодична функція з періодом  , то інтегрування від   до   замінюють інтегруванням над будь-яким інтервалом   довжини  :

 
що рівнозначне
 

ВластивостіРедагувати

Далі ми опишемо властивості лише одновимірних автокореляцій, оскільки більшість властивостей легко переносяться з одновимірного випадку на багатовимірні. Ці властивості справедливі для стаціонарних у широкому сенсі процесів.[5]

  • Основною властивістю автокореляції є симетрія,  , що легко довести з визначення. У неперервному випадку
  • Неперервна автокореляційна функція досягає свого піку в початку координат, де вона набуває дійсного значення, тобто, для будь-якої затримки  ,  .[1]:с.410 Це — наслідок нерівності перестановок. Той самий результат має місце і в дискретному випадку.
  • Автокореляція періодичної функції сама по собі є періодичною, з тим самим періодом.
  • Автокореляція суми двох абсолютно некорельованих функцій (взаємна кореляція дорівнює нулеві для всіх  ) є сумою автокореляцій кожної з функцій окремо.
  • Оскільки автокореляція є особливим видом взаємної кореляції, вона зберігає всі властивості взаємної кореляції.
  • За допомогою символу   для подання згортки, й функції  , що маніпулює функцією  , й визначена як  , визначення для   може бути записано так:
     

Багатовимірна автокореляціяРедагувати

Багатовимірну автокореляцію визначають аналогічно. Наприклад, у трьох вимірах автокореляцією квадратно-сумовного дискретного сигналу була би

 

Коли перед обчисленням автокореляційної функції від сигналів віднімають середні значення, отриману функцію зазвичай називають автоковаріаційною функцією.

Ефективне обчисленняРедагувати

Для даних, виражених як дискретна послідовність, часто необхідно обчислювати автокореляцію з високою обчислювальною ефективністю. Метод грубої сили[en], що ґрунтується на визначенні обробки сигналу  , можливо використовувати, коли розмір сигналу невеликий. Наприклад, для обчислення автокореляції послідовності дійсного сигналу   (тобто,  , й   для всіх інших значень i) вручну ми спочатку з'ясовуємо, що щойно наведене визначення таке саме, як і «звичайне» множення, але зі зміщеннями праворуч, де кожне вертикальне додавання дає автокореляцію для певних значень відставання:

 

Таким чином, потрібна послідовність автокореляції —  , де    а   автокореляція для інших значень відставання дорівнює нулеві. В цьому обчисленні ми не виконуємо операцію перенесення під час додавання, як це зазвичай відбувається при звичайному множенні. Зауважте, що ми можемо зменшити кількість необхідних операцій вдвічі, використовуючи притаманну автокореляції симетрію. Якщо сигнал виявляється періодичним, тобто   то ми отримуємо циклічну автокореляцію (англ. circular autocorrelation, подібну до циклічної згортки[en]), де лівий та правий хвости попередньої автокореляційної послідовності перекриватимуться й даватимуть  , що має той самий період, що й послідовність сигналу   Цю процедуру можливо розглядати як застосування властивості згортки Z-перетворення дискретного сигналу.

В той час як алгоритм грубої сили має порядок n2, існує декілька ефективних алгоритмів, які можуть обчислювати автокореляцію в межах порядку n log(n). Наприклад, Теорема Вінера — Хінчина[en] дозволяє обчислювати автокореляцію з сирих даних X(t) за допомогою двох швидких перетворень Фур'є (англ. fast Fourier transforms, FFT):[6][сторінка?]

 

де IFFT позначує обернене швидке перетворення Фур'є (англ. inverse fast Fourier transform). Зірочка позначує комплексне спряження.

Як альтернатива, кореляцію для декількох τ можливо виконувати, використовуючи обчислення грубою сили для низьких значень τ, а потім поступово об'єднуючи дані X(t) з логарифмічною густиною для обчислення для вищих значень, що дає ту ж ефективність n log(n), але з нижчими вимогами до пам'яті.[7][8]

ОцінюванняРедагувати

Для дискретного процесу з відомими середнім значенням та дисперсією, для якого ми спостерігаємо   спостережень  , оцінку коефіцієнта автокореляції можна отримати через

 

для будь-якого додатного цілого  . Коли істинне середнє значення   та дисперсія   відомі, ця оцінка є незмі́щеною (англ. unbiased). Якщо істинне середнє значення та дисперсія процесу невідомі, є декілька можливостей:

  • Якщо   та   замінити стандартними формулами для вибіркового середнього та вибіркової дисперсії, то це змі́щена оці́нка (англ. biased estimate).
  • Оцінка на основі періодограми[en] замінює   у наведеній вище формулі на  . Ця оцінка завжди зміщена; проте, вона зазвичай має меншу середньоквадратичну похибку.[9][10]
  • Інші можливості випливають із розгляду двох частин даних   та   окремо, та обчислення окремих вибіркових середніх та/або вибіркових дисперсій для використання при визначенні оцінки.[джерело?]

Перевага оцінок останнього типу полягає в тому, що набір оцінених автокореляцій, як функція від  , потім формує функцію, яка є дійсною автокореляцією в тому сенсі, що можливо визначити теоретичний процес, що має саме таку автокореляцію. Інші оцінки можуть страждати від проблеми, що, якщо їх використовують для обчислення дисперсії лінійної комбінації  -ів, то обчислювана дисперсія може виявлятися від'ємною.[11]

Регресійний аналізРедагувати

У регресійному аналізі з використанням даних часових рядів автокореляцію у цільовій змінній зазвичай моделюють авторегресійною моделлю[en] (АР, англ. autoregressive model, AR), моделлю ковзного середнього[en] (КС, англ. moving average model, MA), їхнім поєднанням як моделлю авторегресії з ковзним середнім (АРКС, англ. autoregressive-moving-average model, ARMA) або розширенням крайнього, званим моделлю авторегресії з інтегрованим ковзним середнім[en] (АРІКС, англ. autoregressive integrated moving average model, ARIMA). При множинних взаємопов'язаних рядах даних використовують векторну авторегресію (ВАР, англ. vector autoregression, VAR) або її розширення.

У звичайних найменших квадратах[en] (ЗНК, англ. ordinary least squares, OLS) адекватність специфікації моделі можливо частково перевіряти, встановлюючи, чи існує автокореляція залишків регресії. Проблемну автокореляцію похибок, що самі по собі неспостережні, зазвичай можливо виявляти через те, що вона створює автокореляцію у спостережуваних залишках. (Похибки також відомі як «члени похибки», англ. error terms, в економетрії.) Автокореляція похибок порушує припущення звичайних найменших квадратів, що члени похибки некорельовані, що означає незастосовність теореми Гауса — Маркова, і що оцінювачі ЗНК вже не є найкращими лінійними незміщеними оцінювачами (НЛНО, англ. Best Linear Unbiased Estimators, BLUE). Хоч це й не зміщує оцінок коефіцієнтів ЗНК, але коли автокореляції похибок при малих відставання є додатними, то стандартні похибки, як правило, недооцінюються (а t-показники[en] завищуються).

Традиційною перевіркою на наявність автокореляції першого порядку є критерій Дарбіна — Уотсона, або, якщо пояснювальні змінні включають залежну змінну з відставанням, h-критерій Дарбіна. Проте, Дарбіна — Уотсона можливо лінійно відобразити на кореляцію Пірсона між значеннями та їхніми відставаннями.[12] Гнучкішим критерієм, що охоплює автокореляцію вищих порядків, і є застосовним незалежно від того, чи включають незалежні змінні відставання залежної змінної, є критерій Бройша — Ґодфрі[en]. Він включає допоміжну регресію залишків, отримуваних в результаті оцінки цільової моделі, на (а) первинні незалежні змінні, та (б) k відставань залишків, де «k» є порядком цього критерію. Найпростішим варіантом статистичного критерію з цієї допоміжної регресії є TR 2, де T — розмір вибірки, а R 2 — коефіцієнт детермінації. За нульової гіпотези відсутності автокореляції ця статистика асимптотично має розподіл   з k ступенями вільності.

До відповідей на ненульову автокореляцію належать узагальнені найменші квадрати[en] та оцінювач Ньюї — Уеста ГАС[en] (гетероскедастично та автокореляційно стійкий, англ. Heteroskedasticity and Autocorrelation Consistent, HAC).[13]

В оцінюванні моделлю ковзного середнього[en] (КС) функцію автокореляції використовують, щоби визначати, яку кількість членів відставання буде доречно включити. Це ґрунтується на тому факті, що для процесу КС порядку q маємо   для  , й   для  .

ЗастосуванняРедагувати

Послідовна залежністьРедагувати

Послідо́вна зале́жність (англ. serial dependence) тісно пов'язана з поняттям автокореляції, але подає окреме поняття (див. кореляцію та залежність). Зокрема, можливо мати послідовну залежність за відсутності (лінійної) кореляції. Проте у деяких областях ці два терміни використовують як синоніми.

Часовий ряд випадкової величини має послідовну залежність, якщо значення в якийсь момент часу   цього ряду статистично залежне від значення в інший момент часу  . Ряд є послідовно незалежним, якщо між будь-якою парою моментів часу залежності немає.

Якщо часовий ряд   стаціонарний, то статистична залежність всередині пари   означала би, що існує статистична залежність між усіма парами значень з однаковим відставанням  .

Див. такожРедагувати

ПриміткиРедагувати

  1. а б в г д е ж Gubner, John A. (2006). Probability and Random Processes for Electrical and Computer Engineers. Cambridge University Press. ISBN 978-0-521-86470-1.  (англ.)
  2. а б в г д е Kun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, ISBN 978-3-319-68074-3 (англ.)
  3. а б в Papoulis, Athanasius, Probability, Random variables and Stochastic processes, McGraw-Hill, 1991 (англ.)
  4. а б Dunn, Patrick F. (2005). Measurement and Data Analysis for Engineering and Science. New York: McGraw–Hill. ISBN 978-0-07-282538-1.  (англ.)
  5. Proakis, John (31 серпня 2001). Communication Systems Engineering (2nd Edition) (вид. 2). Pearson. с. 168. ISBN 978-0130617934.  (англ.)
  6. Box, G. E. P.; Jenkins, G. M.; Reinsel, G. C. (1994). Time Series Analysis: Forecasting and Control (вид. 3rd). Upper Saddle River, NJ: Prentice–Hall. ISBN 978-0130607744.  (англ.)
  7. Frenkel, D.; Smit, B. (2002). chap. 4.4.2. Understanding Molecular Simulation (вид. 2nd). London: Academic Press. ISBN 978-0122673511.  (англ.)
  8. Colberg, P.; Höfling, F. (2011). Highly accelerated simulations of glassy dynamics using GPUs: caveats on limited floating-point precision. Comput. Phys. Commun.[en] 182 (5): 1120–1129. Bibcode:2011CoPhC.182.1120C. arXiv:0912.3824. doi:10.1016/j.cpc.2011.01.009.  (англ.)
  9. Priestley, M. B. (1982). Spectral Analysis and Time Series. London, New York: Academic Press. ISBN 978-0125649018.  (англ.)
  10. Percival, Donald B.; Andrew T. Walden (1993). Spectral Analysis for Physical Applications: Multitaper and Conventional Univariate Techniques. Cambridge University Press. с. 190–195. ISBN 978-0-521-43541-3.  (англ.)
  11. Percival, Donald B. (1993). Three Curious Properties of the Sample Variance and Autocovariance for Stationary Processes with Unknown Mean. The American Statistician (англ.) 47 (4): 274–276. doi:10.1080/00031305.1993.10475997.  (англ.)
  12. Serial correlation techniques. Statistical Ideas. 26 травня 2014. Архів оригіналу за 27 листопада 2021. Процитовано 27 листопада 2021.  (англ.)
  13. Baum, Christopher F. (2006). An Introduction to Modern Econometrics Using Stata. Stata Press. ISBN 978-1-59718-013-9.  (англ.)
  14. Elson, Elliot L. (December 2011). Fluorescence Correlation Spectroscopy: Past, Present, Future. Biophysical Journal (англ.) 101 (12): 2855–2870. Bibcode:2011BpJ...101.2855E. PMC 3244056. PMID 22208184. doi:10.1016/j.bpj.2011.11.012.  (англ.)
  15. Hołyst, Robert; Poniewierski, Andrzej; Zhang, Xuzhu (2017). Analytical form of the autocorrelation function for the fluorescence correlation spectroscopy. Soft Matter (англ.) 13 (6): 1267–1275. Bibcode:2017SMat...13.1267H. ISSN 1744-683X. PMID 28106203. doi:10.1039/C6SM02643E.  (англ.)
  16. Van Sickle, Jan (2008). GPS for Land Surveyors (вид. Third). CRC Press. с. 18–19. ISBN 978-0-8493-9195-8.  (англ.)
  17. Kalvani, Payam Rajabi; Jahangiri, Ali Reza; Shapouri, Samaneh; Sari, Amirhossein; Jalili, Yousef Seyed (August 2019). Multimode AFM analysis of aluminum-doped zinc oxide thin films sputtered under various substrate temperatures for optoelectronic applications. Superlattices and Microstructures (англ.) 132: 106173. doi:10.1016/j.spmi.2019.106173.  (англ.)
  18. Tyrangiel, Josh (5 лютого 2009). Auto-Tune: Why Pop Music Sounds Perfect. Time. Архів оригіналу за 10 лютого 2009.  (англ.)

 

ЛітератураРедагувати