У теорії ймовірностей та статистиці для заданих двох стохастичних процесів
та
, взає́мна коваріа́ція (англ. cross-covariance) — це функція, яка дає коваріацію одного процесу з іншим у пари моментів часу. За звичайного позначення
для оператора математичного сподівання, якщо процеси мають функції середнього значення
та
, то перехресну коваріацію задають як
![{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2})=\operatorname {cov} (X_{t_{1}},Y_{t_{2}})=\operatorname {E} [(X_{t_{1}}-\mu _{X}(t_{1}))(Y_{t_{2}}-\mu _{Y}(t_{2}))]=\operatorname {E} [X_{t_{1}}Y_{t_{2}}]-\mu _{X}(t_{1})\mu _{Y}(t_{2}).\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/05f4077f8173bfb323a68313e4287d017cc0c281)
Взаємна коваріація пов'язана із ширше вживаною взаємною кореляцією процесів, про які йде мова.
У випадку двох випадкових векторів
та
взаємною коваріацією буде матриця
розміру
(яку часто позначують через
) з елементами
Таким чином, термін взаємна коваріація використовують для того, щоб відрізняти це поняття від коваріації випадкового вектора
, яку розуміють як матрицю коваріацій між скалярними складовими самого
.
В обробці сигналів взаємну коваріацію часто називають взаємною кореляцією, й вона є мірою подібності двох сигналів, яку зазвичай використовують для пошуку ознак (англ. features) у невідомому сигналі шляхом порівняння його з відомим. Вона є функцією відносного часу між сигналами, іноді носить назву ковзного скалярного добутку (англ. sliding dot product), й має застосування в розпізнаванні образів та криптоаналізі .
Визначення взаємної коваріації випадкових векторів можна узагальнити на випадкові процеси наступним чином:
Нехай
та
позначують випадкові процеси. Тоді взаємну коваріаційну функцію цих процесів
визначають як[1]:с.172
![{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2}){\stackrel {\mathrm {def} }{=}}\ \operatorname {cov} (X_{t_{1}},Y_{t_{2}})=\operatorname {E} \left[\left(X(t_{1})-\mu _{X}(t_{1})\right)\left(Y(t_{2})-\mu _{Y}(t_{2})\right)\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/43a9557f62a2b87ad3e9ea3fe34fd2886a555452)
|
|
(1)
|
де
, а
.
Якщо ці процеси є комплекснозначними випадковими процесами, то другий множник потребує комплексного спряження:
![{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2}){\stackrel {\mathrm {def} }{=}}\ \operatorname {cov} (X_{t_{1}},Y_{t_{2}})=\operatorname {E} \left[\left(X(t_{1})-\mu _{X}(t_{1})\right){\overline {\left(Y(t_{2})-\mu _{Y}(t_{2})\right)}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4af132571e88ed273022677215e210816f4f9b93)
Якщо
та
є спільно стаціонарними в широкому сенсі[en], то справедливим є наступне:
для всіх
,
для всіх 
і
для всіх 
Поклавши
(запізнювання в часі, англ. time lag, або кількість часу, на яку було зміщено сигнал), ми можемо визначити
.
Таким чином, взаємна коваріаційна функція двох спільно СШС процесів задається як
![{\displaystyle \operatorname {K} _{XY}(\tau )=\operatorname {cov} (X_{t},Y_{t-\tau })=\operatorname {E} [(X_{t}-\mu _{X})(Y_{t-\tau }-\mu _{Y})]=\operatorname {E} [X_{t}Y_{t-\tau }]-\mu _{X}\mu _{Y}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e9d33105bfcc12b9bd9a3d240d78fad1df3cf524)
|
|
(2)
|
що рівнозначне
.
Два стохастичні процеси
та
називають некорельо́ваними (англ. uncorrelated), якщо їхня коваріація
є нульовою для всіх моментів часу.[1]:с.142 Формально:
некорельовані
.
Взаємна коваріація також важлива в обробці сигналів, де взаємну коваріацію між двома стаціонарними в широкому сенсі випадковими процесами можливо оцінювати шляхом усереднювання добутку зразків, виміряних за одним процесом, і зразків, виміряних за іншим (та його зсувами в часі). Зразки, включені до усереднювання, можуть бути довільною підмножиною всіх зразків у сигналі (наприклад, зразки в межах скінченного часового вікна, або підвибірка одного з сигналів). За великої кількості зразків це усереднення збігається до істинної коваріації.
Під взаємною коваріацією також можуть мати на увазі «детерміно́вану» взає́мну коваріа́цію (англ. "deterministic" cross-covariance) між двома сигналами. Вона складається з підсумовування над усіма часовими індексами. Наприклад, для дискретночасових[en] сигналів
та
взаємну коваріацію визначають як
![{\displaystyle (f\star g)[n]\ {\stackrel {\mathrm {def} }{=}}\ \sum _{k\in \mathbb {Z} }{\overline {f[k]}}g[n+k]=\sum _{k\in \mathbb {Z} }{\overline {f[k-n]}}g[k]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/02f82f14c2e14226808b1b3517153c75716e658d)
де лінія вказує на взяття комплексного спряження, коли сигнали комплекснозначні.
Для неперервних функцій
та
(детерміновану) взаємну коваріацію визначають як
.
(Детермінована) взаємна коваріація двох неперервних сигналів пов'язана зі згорткою через

а (детермінована) взаємна коваріація двох дискретночасових сигналів пов'язана з дискретною згорткою[en] через
.
- ↑ а б Kun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, 978-3-319-68074-3 (англ.)