У теорії ймовірностей та статистиці для заданих двох стохастичних процесів
{
X
t
}
{\displaystyle \left\{X_{t}\right\}}
та
{
Y
t
}
{\displaystyle \left\{Y_{t}\right\}}
, взає́мна коваріа́ція (англ. cross-covariance ) — це функція, яка дає коваріацію одного процесу з іншим у пари моментів часу. За звичайного позначення
E
{\displaystyle \operatorname {E} }
для оператора математичного сподівання , якщо процеси мають функції середнього значення
μ
X
(
t
)
=
E
[
X
t
]
{\displaystyle \mu _{X}(t)=\operatorname {\operatorname {E} } [X_{t}]}
та
μ
Y
(
t
)
=
E
[
Y
t
]
{\displaystyle \mu _{Y}(t)=\operatorname {E} [Y_{t}]}
, то перехресну коваріацію задають як
K
X
Y
(
t
1
,
t
2
)
=
cov
(
X
t
1
,
Y
t
2
)
=
E
[
(
X
t
1
−
μ
X
(
t
1
)
)
(
Y
t
2
−
μ
Y
(
t
2
)
)
]
=
E
[
X
t
1
Y
t
2
]
−
μ
X
(
t
1
)
μ
Y
(
t
2
)
.
{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2})=\operatorname {cov} (X_{t_{1}},Y_{t_{2}})=\operatorname {E} [(X_{t_{1}}-\mu _{X}(t_{1}))(Y_{t_{2}}-\mu _{Y}(t_{2}))]=\operatorname {E} [X_{t_{1}}Y_{t_{2}}]-\mu _{X}(t_{1})\mu _{Y}(t_{2}).\,}
Взаємна коваріація пов'язана із ширше вживаною взаємною кореляцією процесів, про які йде мова.
У випадку двох випадкових векторів
X
=
(
X
1
,
X
2
,
…
,
X
p
)
T
{\displaystyle \mathbf {X} =(X_{1},X_{2},\ldots ,X_{p})^{\rm {T}}}
та
Y
=
(
Y
1
,
Y
2
,
…
,
Y
q
)
T
{\displaystyle \mathbf {Y} =(Y_{1},Y_{2},\ldots ,Y_{q})^{\rm {T}}}
взаємною коваріацією буде матриця
K
X
Y
{\displaystyle \operatorname {K} _{XY}}
розміру
p
×
q
{\displaystyle p\times q}
(яку часто позначують через
cov
(
X
,
Y
)
{\displaystyle \operatorname {cov} (X,Y)}
) з елементами
K
X
Y
(
j
,
k
)
=
cov
(
X
j
,
Y
k
)
.
{\displaystyle \operatorname {K} _{XY}(j,k)=\operatorname {cov} (X_{j},Y_{k}).\,}
Таким чином, термін взаємна коваріація використовують для того, щоб відрізняти це поняття від коваріації випадкового вектора
X
{\displaystyle \mathbf {X} }
, яку розуміють як матрицю коваріацій між скалярними складовими самого
X
{\displaystyle \mathbf {X} }
.
В обробці сигналів взаємну коваріацію часто називають взаємною кореляцією , й вона є мірою подібності двох сигналів , яку зазвичай використовують для пошуку ознак (англ. features ) у невідомому сигналі шляхом порівняння його з відомим. Вона є функцією відносного часу між сигналами, іноді носить назву ковзного скалярного добутку (англ. sliding dot product ), й має застосування в розпізнаванні образів та криптоаналізі .
Взаємна коваріація випадкових векторів
ред.
Взаємна коваріація стохастичних процесів
ред.
Визначення взаємної коваріації випадкових векторів можна узагальнити на випадкові процеси наступним чином:
Визначення
ред.
Нехай
{
X
(
t
)
}
{\displaystyle \{X(t)\}}
та
{
Y
(
t
)
}
{\displaystyle \{Y(t)\}}
позначують випадкові процеси. Тоді взаємну коваріаційну функцію цих процесів
K
X
Y
{\displaystyle K_{XY}}
визначають як[1] :с.172
K
X
Y
(
t
1
,
t
2
)
=
d
e
f
cov
(
X
t
1
,
Y
t
2
)
=
E
[
(
X
(
t
1
)
−
μ
X
(
t
1
)
)
(
Y
(
t
2
)
−
μ
Y
(
t
2
)
)
]
{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2}){\stackrel {\mathrm {def} }{=}}\ \operatorname {cov} (X_{t_{1}},Y_{t_{2}})=\operatorname {E} \left[\left(X(t_{1})-\mu _{X}(t_{1})\right)\left(Y(t_{2})-\mu _{Y}(t_{2})\right)\right]}
(1 )
де
μ
X
(
t
)
=
E
[
X
(
t
)
]
{\displaystyle \mu _{X}(t)=\operatorname {E} \left[X(t)\right]}
, а
μ
Y
(
t
)
=
E
[
Y
(
t
)
]
{\displaystyle \mu _{Y}(t)=\operatorname {E} \left[Y(t)\right]}
.
Якщо ці процеси є комплекснозначними випадковими процесами, то другий множник потребує комплексного спряження :
K
X
Y
(
t
1
,
t
2
)
=
d
e
f
cov
(
X
t
1
,
Y
t
2
)
=
E
[
(
X
(
t
1
)
−
μ
X
(
t
1
)
)
(
Y
(
t
2
)
−
μ
Y
(
t
2
)
)
¯
]
{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2}){\stackrel {\mathrm {def} }{=}}\ \operatorname {cov} (X_{t_{1}},Y_{t_{2}})=\operatorname {E} \left[\left(X(t_{1})-\mu _{X}(t_{1})\right){\overline {\left(Y(t_{2})-\mu _{Y}(t_{2})\right)}}\right]}
Визначення для спільно СШС процесів
ред.
Якщо
{
X
t
}
{\displaystyle \left\{X_{t}\right\}}
та
{
Y
t
}
{\displaystyle \left\{Y_{t}\right\}}
є спільно стаціонарними в широкому сенсі [en] , то справедливим є наступне:
μ
X
(
t
1
)
=
μ
X
(
t
2
)
≜
μ
X
{\displaystyle \mu _{X}(t_{1})=\mu _{X}(t_{2})\triangleq \mu _{X}}
для всіх
t
1
,
t
2
{\displaystyle t_{1},t_{2}}
,
μ
Y
(
t
1
)
=
μ
Y
(
t
2
)
≜
μ
Y
{\displaystyle \mu _{Y}(t_{1})=\mu _{Y}(t_{2})\triangleq \mu _{Y}}
для всіх
t
1
,
t
2
{\displaystyle t_{1},t_{2}}
і
K
X
Y
(
t
1
,
t
2
)
=
K
X
Y
(
t
2
−
t
1
,
0
)
{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2})=\operatorname {K} _{XY}(t_{2}-t_{1},0)}
для всіх
t
1
,
t
2
{\displaystyle t_{1},t_{2}}
Поклавши
τ
=
t
2
−
t
1
{\displaystyle \tau =t_{2}-t_{1}}
(запізнювання в часі, англ. time lag , або кількість часу, на яку було зміщено сигнал), ми можемо визначити
K
X
Y
(
τ
)
=
K
X
Y
(
t
2
−
t
1
)
≜
K
X
Y
(
t
1
,
t
2
)
{\displaystyle \operatorname {K} _{XY}(\tau )=\operatorname {K} _{XY}(t_{2}-t_{1})\triangleq \operatorname {K} _{XY}(t_{1},t_{2})}
.
Таким чином, взаємна коваріаційна функція двох спільно СШС процесів задається як
K
X
Y
(
τ
)
=
cov
(
X
t
,
Y
t
−
τ
)
=
E
[
(
X
t
−
μ
X
)
(
Y
t
−
τ
−
μ
Y
)
]
=
E
[
X
t
Y
t
−
τ
]
−
μ
X
μ
Y
{\displaystyle \operatorname {K} _{XY}(\tau )=\operatorname {cov} (X_{t},Y_{t-\tau })=\operatorname {E} [(X_{t}-\mu _{X})(Y_{t-\tau }-\mu _{Y})]=\operatorname {E} [X_{t}Y_{t-\tau }]-\mu _{X}\mu _{Y}}
(2 )
що рівнозначне
K
X
Y
(
τ
)
=
cov
(
X
t
+
τ
,
Y
t
)
=
E
[
(
X
t
+
τ
−
μ
X
)
(
Y
t
−
μ
Y
)
]
=
E
[
X
t
+
τ
Y
t
]
−
μ
X
μ
Y
{\displaystyle \operatorname {K} _{XY}(\tau )=\operatorname {cov} (X_{t+\tau },Y_{t})=\operatorname {E} [(X_{t+\tau }-\mu _{X})(Y_{t}-\mu _{Y})]=\operatorname {E} [X_{t+\tau }Y_{t}]-\mu _{X}\mu _{Y}}
.
Некорельованість
ред.
Два стохастичні процеси
{
X
t
}
{\displaystyle \left\{X_{t}\right\}}
та
{
Y
t
}
{\displaystyle \left\{Y_{t}\right\}}
називають некорельо́ваними (англ. uncorrelated ), якщо їхня коваріація
K
X
Y
(
t
1
,
t
2
)
{\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})}
є нульовою для всіх моментів часу.[1] :с.142 Формально:
{
X
t
}
,
{
Y
t
}
{\displaystyle \left\{X_{t}\right\},\left\{Y_{t}\right\}}
некорельовані
⟺
K
X
Y
(
t
1
,
t
2
)
=
0
∀
t
1
,
t
2
{\displaystyle \quad \iff \quad \operatorname {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})=0\quad \forall t_{1},t_{2}}
.
Взаємна коваріація детермінованих сигналів
ред.
Взаємна коваріація також важлива в обробці сигналів , де взаємну коваріацію між двома стаціонарними в широкому сенсі випадковими процесами можливо оцінювати шляхом усереднювання добутку зразків, виміряних за одним процесом, і зразків, виміряних за іншим (та його зсувами в часі). Зразки, включені до усереднювання, можуть бути довільною підмножиною всіх зразків у сигналі (наприклад, зразки в межах скінченного часового вікна, або підвибірка одного з сигналів). За великої кількості зразків це усереднення збігається до істинної коваріації.
Під взаємною коваріацією також можуть мати на увазі «детерміно́вану» взає́мну коваріа́цію (англ. "deterministic" cross-covariance ) між двома сигналами. Вона складається з підсумовування над усіма часовими індексами. Наприклад, для дискретночасових [en] сигналів
f
[
k
]
{\displaystyle f[k]}
та
g
[
k
]
{\displaystyle g[k]}
взаємну коваріацію визначають як
(
f
⋆
g
)
[
n
]
=
d
e
f
∑
k
∈
Z
f
[
k
]
¯
g
[
n
+
k
]
=
∑
k
∈
Z
f
[
k
−
n
]
¯
g
[
k
]
{\displaystyle (f\star g)[n]\ {\stackrel {\mathrm {def} }{=}}\ \sum _{k\in \mathbb {Z} }{\overline {f[k]}}g[n+k]=\sum _{k\in \mathbb {Z} }{\overline {f[k-n]}}g[k]}
де лінія вказує на взяття комплексного спряження , коли сигнали комплекснозначні .
Для неперервних функцій
f
(
x
)
{\displaystyle f(x)}
та
g
(
x
)
{\displaystyle g(x)}
(детерміновану) взаємну коваріацію визначають як
(
f
⋆
g
)
(
x
)
=
d
e
f
∫
f
(
t
)
¯
g
(
x
+
t
)
d
t
=
∫
f
(
t
−
x
)
¯
g
(
t
)
d
t
{\displaystyle (f\star g)(x)\ {\stackrel {\mathrm {def} }{=}}\ \int {\overline {f(t)}}g(x+t)\,dt=\int {\overline {f(t-x)}}g(t)\,dt}
.
Властивості
ред.
(Детермінована) взаємна коваріація двох неперервних сигналів пов'язана зі згорткою через
(
f
⋆
g
)
(
t
)
=
(
f
(
−
τ
)
¯
∗
g
(
τ
)
)
(
t
)
{\displaystyle (f\star g)(t)=({\overline {f(-\tau )}}*g(\tau ))(t)}
а (детермінована) взаємна коваріація двох дискретночасових сигналів пов'язана з дискретною згорткою [en] через
(
f
⋆
g
)
[
n
]
=
(
f
[
−
k
]
¯
∗
g
[
k
]
)
[
n
]
{\displaystyle (f\star g)[n]=({\overline {f[-k]}}*g[k])[n]}
.
Див. також
ред.
Примітки
ред.
↑ а б Kun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, 978-3-319-68074-3 (англ.)
Посилання
ред.