У теорії ймовірностей та статистиці дві дійсні випадкові величини
X
{\displaystyle X}
й
Y
{\displaystyle Y}
називаються некорельованими , якщо їхня коваріація
cov
[
X
,
Y
]
=
E
[
X
Y
]
−
E
[
X
]
E
[
Y
]
{\displaystyle \operatorname {cov} [X,Y]=\mathrm {E} [XY]-\mathrm {E} [X]\mathrm {E} [Y]}
дорівнює нулю. Якщо дві величини некорельовані, то між ними не існує лінійної залежності.
Некорельовані випадкові величини мають нульовий коефіцієнт кореляції Пірсона , якщо він існує, за винятком тривіального випадку, коли будь-яка змінна має нульову дисперсію (є константою). У цьому випадку кореляція невизначена.
Загалом, некорельованість — це не те ж саме, що ортогональність , за винятком особливого випадку, коли математичне очікування принаймні однієї з двох випадкових величин дорівнює 0. У цьому випадку коваріація є математичним очікуванням добутку, а
X
{\displaystyle X}
та
Y
{\displaystyle Y}
некорельовані тоді й лише тоді , коли
E
[
X
Y
]
=
0
{\displaystyle \mathrm {E} [XY]=0}
.
Якщо
X
{\displaystyle X}
та
Y
{\displaystyle Y}
незалежні , зі скінченними моментами другого порядку , то вони некорельовані. Однак не всі некорельовані величини є незалежними.[ 1] :p. 155
Означення для двох дійсних випадкових величин[ ред. | ред. код ]
Дві випадкові величини
X
{\displaystyle X}
та
Y
{\displaystyle Y}
називаються некорельованими, якщо їхня коваріація
cov
[
X
,
Y
]
=
E
[
(
X
−
E
[
X
]
)
(
Y
−
E
[
Y
]
)
]
{\displaystyle \operatorname {cov} [X,Y]=\mathrm {E} [(X-\mathrm {E} [X])(Y-\mathrm {E} [Y])]}
дорівнює нулю. [ 1] :p. 153 [ 2] :p. 121 Формально:
X
,
Y
некорельовані
⟺
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
.
{\displaystyle X,Y{\text{ некорельовані}}\ \iff \ \mathrm {E} [XY]=\mathrm {E} [X]\cdot \mathrm {E} [Y].}
Означення для двох комплексних випадкових величин[ ред. | ред. код ]
Дві комплексні випадкові величини [en]
Z
{\displaystyle Z}
,
W
{\displaystyle W}
називаються некорельованими, якщо їхня коваріація
K
Z
W
=
E
[
(
Z
−
E
[
Z
]
)
(
W
−
E
[
W
]
)
¯
]
{\displaystyle \mathrm {K} _{ZW}=\mathrm {E} [(Z-\mathrm {E} [Z]){\overline {(W-\mathrm {E} [W])}}]}
та псевдоковаріація
J
Z
W
=
E
[
(
Z
−
E
[
Z
]
)
(
W
−
E
[
W
]
)
]
{\displaystyle \mathrm {J} _{ZW}=\mathrm {E} [(Z-\mathrm {E} [Z])(W-\mathrm {E} [W])]}
дорівнюють нулю. Іншими словами,
Z
,
W
некорельовані
⟺
E
[
Z
W
¯
]
=
E
[
Z
]
⋅
E
[
W
¯
]
та
E
[
Z
W
]
=
E
[
Z
]
⋅
E
[
W
]
.
{\displaystyle Z,W{\text{ некорельовані}}\ \iff \ \mathrm {E} [Z{\overline {W}}]=\mathrm {E} [Z]\cdot \mathrm {E} [{\overline {W}}]\quad {\text{та}}\quad \mathrm {E} [ZW]=\mathrm {E} [Z]\cdot \mathrm {E} [W].}
Означення для більше ніж двох випадкових змінних[ ред. | ред. код ]
Набір, що складається з двох або більше випадкових величин
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
називається некорельованим, якщо величини попарно некорельовані. Це еквівалентно вимозі, щоб недіагональні елементи матриці автоковаріацій
K
X
X
{\displaystyle \mathrm {K} _{\mathbf {X} \mathbf {X} }}
випадкового вектора
X
=
(
X
1
,
…
,
X
n
)
T
{\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})^{\mathsf {T}}}
дорівнювали нулю. Матриця автоковаріацій визначається як:
K
X
X
=
cov
[
X
,
X
]
=
E
[
(
X
−
E
[
X
]
)
(
X
−
E
[
X
]
)
T
]
=
E
[
X
X
]
T
−
E
[
X
]
E
[
X
]
T
.
{\displaystyle \mathrm {K} _{\mathbf {X} \mathbf {X} }=\operatorname {cov} [\mathbf {X} ,\mathbf {X} ]=\mathrm {E} {\bigl [}(\mathbf {X} -\mathrm {E} [\mathbf {X} ])(\mathbf {X} -\mathrm {E} [\mathbf {X} ])^{\mathsf {T}}{\bigr ]}=\mathrm {E} [\mathbf {X} \mathbf {X} ]^{\mathsf {T}}-\mathrm {E} [\mathbf {X} ]\mathrm {E} [\mathbf {X} ]^{\mathsf {T}}.}
Основна стаття: Кореляція та залежність
Нехай
X
{\displaystyle X}
— випадкова величина, що набуває значення
0
{\displaystyle 0}
або
1
{\displaystyle 1}
з ймовірністю
1
/
2
{\displaystyle 1/2}
.
Нехай
Y
{\displaystyle Y}
— незалежна від
X
{\displaystyle X}
випадкова величина, що набуває значення
−
1
{\displaystyle -1}
або
1
{\displaystyle 1}
з ймовірністю
1
/
2
{\displaystyle 1/2}
.
Нехай
U
{\displaystyle U}
— випадкова величина, що визначається як
U
=
X
Y
{\displaystyle U=XY}
.
Твердження полягає в тому, що
U
{\displaystyle U}
і
X
{\displaystyle X}
мають нульову коваріацію (отже, некорельовані), але не є незалежними.
\emph{Доведення:} Враховуючи, що
E
[
U
]
=
E
[
X
Y
]
=
E
[
X
]
E
[
Y
]
=
E
[
X
]
⋅
0
=
0
,
{\displaystyle \mathrm {E} [U]=\mathrm {E} [XY]=\mathrm {E} [X]\mathrm {E} [Y]=\mathrm {E} [X]\cdot 0=0,}
де друга рівність виконується так як
X
{\displaystyle X}
та
Y
{\displaystyle Y}
незалежні, тому отримуємо
cov
[
U
,
X
]
=
E
[
(
U
−
E
[
U
]
)
(
X
−
E
[
X
]
)
]
=
E
[
U
(
X
−
1
2
)
]
=
E
[
X
2
Y
−
1
2
X
Y
]
=
E
[
(
X
2
−
1
2
X
)
Y
]
=
E
[
(
X
2
−
1
2
X
)
]
E
[
Y
]
=
0.
{\displaystyle {\begin{aligned}\operatorname {cov} [U,X]&=\mathrm {E} [(U-\mathrm {E} [U])(X-\mathrm {E} [X])]=\mathrm {E} \left[U(X-{\frac {1}{2}})\right]\\&=\mathrm {E} \left[X^{2}Y-{\frac {1}{2}}XY\right]=\mathrm {E} \left[(X^{2}-{\frac {1}{2}}X)Y\right]=\mathrm {E} \left[(X^{2}-{\frac {1}{2}}X)\right]\mathrm {E} [Y]=0.\end{aligned}}}
Таким чином,
U
{\displaystyle U}
та
X
{\displaystyle X}
— некорельовані.
Незалежність
U
{\displaystyle U}
та
X
{\displaystyle X}
означає, що для всіх
a
{\displaystyle a}
та
b
{\displaystyle b}
має місце рівність
Pr
(
U
=
a
∣
X
=
b
)
=
Pr
(
U
=
a
)
{\displaystyle \operatorname {Pr} (U=a\mid X=b)=\operatorname {Pr} (U=a)}
. Це невірно, зокрема, для
a
=
1
{\displaystyle a=1}
та
b
=
0
{\displaystyle b=0}
.
Pr
(
U
=
1
∣
X
=
0
)
=
Pr
(
X
Y
=
1
∣
X
=
0
)
=
0
{\displaystyle \operatorname {Pr} (U=1\mid X=0)=\operatorname {Pr} (XY=1\mid X=0)=0}
;
Pr
(
U
=
1
)
=
Pr
(
X
Y
=
1
)
=
1
/
4
{\displaystyle \operatorname {Pr} (U=1)=\operatorname {Pr} (XY=1)=1/4}
.
Таким чином,
Pr
(
U
=
1
∣
X
=
0
)
≠
Pr
(
U
=
1
)
{\displaystyle \operatorname {Pr} (U=1\mid X=0)\neq \operatorname {Pr} (U=1)}
, тому
U
{\displaystyle U}
та
X
{\displaystyle X}
є залежними.
Що і треба було довести.
Якщо неперервна випадкова величина
X
{\displaystyle X}
рівномірно розподілена на проміжку
[
−
1
,
1
]
{\displaystyle [-1,1]}
та
Y
=
X
2
{\displaystyle Y=X^{2}}
, то
X
{\displaystyle X}
та
Y
{\displaystyle Y}
некорельовані навіть, якщо
X
{\displaystyle X}
визначає
Y
{\displaystyle Y}
та часткове значення
Y
{\displaystyle Y}
можна отримати за допомогою лише одного або двох значень
X
{\displaystyle X}
:
f
X
(
t
)
=
1
2
I
[
−
1
,
1
]
;
f
Y
(
t
)
=
1
2
t
I
[
0
,
1
]
.
{\displaystyle f_{X}(t)={\frac {1}{2}}I_{[-1,1]};\quad f_{Y}(t)={\frac {1}{2{\sqrt {t}}}}I_{[0,1]}.}
З іншого боку,
f
X
,
Y
{\displaystyle f_{X,Y}}
дорівнює нулю на трикутнику, заданому подвійною нерівністю
0
<
X
<
Y
<
1
{\displaystyle 0<X<Y<1}
, хоча
f
X
⋅
f
Y
{\displaystyle f_{X}\cdot f_{Y}}
не дорівнює нулю в цій області. Тому
f
X
,
Y
(
X
,
Y
)
≠
f
X
(
X
)
⋅
f
Y
(
Y
)
{\displaystyle f_{X,Y}(X,Y)\neq f_{X}(X)\cdot f_{Y}(Y)}
, а змінні не є незалежними:
E
[
X
]
=
1
−
1
4
=
0
;
E
[
Y
]
=
1
3
−
(
−
1
)
3
3
⋅
2
=
1
3
,
{\displaystyle \mathrm {E} [X]={{1-1} \over 4}=0;\quad \mathrm {E} [Y]={{1^{3}-(-1)^{3}} \over {3\cdot 2}}={1 \over 3},}
cov
[
X
,
Y
]
=
E
[
(
X
−
E
[
X
]
)
(
Y
−
E
[
Y
]
)
]
=
E
[
X
3
−
X
3
]
=
1
4
−
(
−
1
)
4
4
⋅
2
=
0.
{\displaystyle \operatorname {cov} [X,Y]=\mathrm {E} \left[(X-\mathrm {E} [X])(Y-\mathrm {E} [Y])\right]=\mathrm {E} \left[X^{3}-{\frac {X}{3}}\right]={\frac {1^{4}-(-1)^{4}}{4\cdot 2}}=0.}
Таким чином, величини є некорельованими.
Існують випадки, в яких некорельованість означає незалежність. Одним із таких є випадок, коли обидві випадкові величини є двозначними (тому кожна може бути лінійно перетворена до величини з розподілом Бернуллі .[ 3] Крім того, дві сумісно нормально розподілені випадкові змінні є незалежними, якщо вони некорельовані. Крім того, дві сумісно нормально розподілені випадкові змінні є незалежними, якщо вони некорельовані, [ 4] хоча це не справджується для змінних, чий граничний розподіл є нормальним і некорельованим, але чий сумісний розподіл не є сумісним нормальним (див. Нормально розподілений і некорельований не означає незалежний [en] ).
Два випадкові вектори
X
=
(
X
1
,
…
,
X
m
)
T
{\displaystyle \mathbf {X} =(X_{1},\dots ,X_{m})^{\mathsf {T}}}
та
Y
=
(
Y
1
,
…
,
Y
n
)
T
{\displaystyle \mathbf {Y} =(Y_{1},\dots ,Y_{n})^{\mathsf {T}}}
називаються некорельованими, якщо
E
[
X
Y
T
]
=
E
[
X
]
E
[
Y
]
T
.
{\displaystyle \mathrm {E} [\mathbf {XY} ^{\mathsf {T}}]=\mathrm {E} [\mathbf {X} ]\mathrm {E} [\mathbf {Y} ]^{\mathsf {T}}.}
Вони некорельовані тоді й лише тоді, якщо їхня крос-коваріаційна матриця [en]
K
X
,
Y
{\displaystyle \mathbf {\mathrm {K} _{X,Y}} }
дорівнює нулю. [ 5] :p.337
Два комплексні випадкові вектори
Z
{\displaystyle \mathbf {Z} }
та
W
{\displaystyle \mathbf {W} }
називаються некорельованими , якщо їхня крос-коваріаційна матриця та псведокрос-коваріаційна матриця дорівнюють нулю, тобто якщо
K
Z
W
=
J
Z
W
=
0
{\displaystyle \mathbf {\mathrm {K} _{ZW}} =\mathbf {\mathrm {J} _{ZW}} =0}
,
де
K
Z
W
=
E
[
(
Z
−
E
[
Z
]
)
(
W
−
E
[
W
]
)
H
]
{\displaystyle \mathbf {\mathrm {K} _{ZW}} =\mathrm {E} [(\mathbf {Z} -\mathrm {E} [\mathbf {Z} ])(\mathbf {W} -\mathrm {E} [\mathbf {W} ])^{\mathsf {H}}]}
та
J
Z
W
=
E
[
(
Z
−
E
[
Z
]
)
(
W
−
E
[
W
]
)
T
]
.
{\displaystyle \mathbf {\mathrm {J} _{ZW}} =\mathrm {E} [(\mathbf {Z} -\mathrm {E} [\mathbf {Z} ])(\mathbf {W} -\mathrm {E} [\mathbf {W} ])^{\mathsf {T}}].}
Два стохастичні процеси
{
X
t
}
{\displaystyle \{X_{t}\}}
та
{
Y
t
}
{\displaystyle \{Y_{t}\}}
називаються некорельованими , якщо їхня крос-коваріація
K
X
Y
(
t
1
,
t
2
)
=
E
[
(
X
(
t
1
)
−
μ
X
(
t
1
)
)
(
Y
(
t
2
)
−
μ
Y
(
t
2
)
)
]
{\displaystyle {\mathrm {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})=\mathrm {E} [(X(t_{1})-\mu _{X}(t_{1}))(Y(t_{2})-\mu _{Y}(t_{2}))]}}
завжди дорівнює нулю.[ 2] :p. 142
Формально:
{
X
t
}
,
{
Y
t
}
некорельовані
⟺
∀
t
1
,
t
2
K
X
Y
(
t
1
,
t
2
)
=
0
{\displaystyle \{X_{t}\},\{Y_{t}\}{\text{ некорельовані}}\quad \iff \quad \forall t_{1},t_{2}\ \mathrm {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})=0}
.
↑ а б Papoulis, Athanasios (1991). Probability, Random Variables and Stochastic Processes . MCGraw Hill. ISBN 0-07-048477-5 .
↑ а б Kun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, 978-3-319-68074-3
↑ Virtual Laboratories in Probability and Statistics: Covariance and Correlation , item 17.
↑ Bain, Lee; Engelhardt, Max (1992). Chapter 5.5 Conditional Expectation. Introduction to Probability and Mathematical Statistics (вид. 2nd). с. 185—186. ISBN 0534929303 .
↑ Gubner, John A. (2006). Probability and Random Processes for Electrical and Computer Engineers . Cambridge University Press. ISBN 978-0-521-86470-1 .