В теорії ймовірностей твердження відоме як закон повного математичного сподівання [ 1] , закон повторних сподівань [ 2] , правило вежі [ 3] , закон Адама чи теорема згладжування [ 4] стверджує, що якщо
X
{\displaystyle X}
— випадкова величина , з визначеним матсподіванням
E
(
X
)
{\displaystyle \operatorname {E} (X)}
, а
Y
{\displaystyle Y}
— довільна випадкова величина на тому ймовірнісному просторі .
E
(
X
)
=
E
(
E
(
X
∣
Y
)
)
,
{\displaystyle \operatorname {E} (X)=\operatorname {E} (\operatorname {E} (X\mid Y)),}
тобто значення сподівання умовного матсподівання значення
X
{\displaystyle X}
для певного
Y
{\displaystyle Y}
дорівнює матсподіванню
X
{\displaystyle X}
.
У спеціальному випадку, для
{
A
i
}
i
{\displaystyle {\left\{A_{i}\right\}}_{i}}
- скінченного або зліченного розбиття простору елементарних подій , тоді
E
(
X
)
=
∑
i
E
(
X
∣
A
i
)
P
(
A
i
)
.
{\displaystyle \operatorname {E} (X)=\sum _{i}{\operatorname {E} (X\mid A_{i})\operatorname {P} (A_{i})}.}
Припустимо, що дві фабрики постачають на ринок лампочки . Лампочки із заводу
X
{\displaystyle X}
працюють в середньому 5000 годин, тоді як лампи заводу
Y
{\displaystyle Y}
працюють в середньому впродовж 4000 годин. Відомо, що фабрика
X
{\displaystyle X}
постачає 60% від загальної кількості наявних ламп. Яка очікувана тривалість часу роботи придбаної лампочки?
Застосовуючи закон повного матсподівання отримаємо:
E
(
L
)
=
E
(
L
∣
X
)
P
(
X
)
+
E
(
L
∣
Y
)
P
(
Y
)
=
5000
(
0.6
)
+
4000
(
0.4
)
=
4600
{\displaystyle \operatorname {E} (L)=\operatorname {E} (L\mid X)\operatorname {P} (X)+\operatorname {E} (L\mid Y)\operatorname {P} (Y)=5000(0.6)+4000(0.4)=4600}
де
E
(
L
)
{\displaystyle \operatorname {E} (L)}
— тривалість роботи лампочки;
P
(
X
)
=
6
10
{\displaystyle \operatorname {P} (X)={6 \over 10}}
— ймовірність, що куплена лампочка виготовлена на заводі X;
P
(
Y
)
=
4
10
{\displaystyle \operatorname {P} (Y)={4 \over 10}}
— ймовірність, що куплена лампочка виготовлена на заводі Y;
E
(
L
∣
X
)
=
5000
{\displaystyle \operatorname {E} (L\mid X)=5000}
— очікувана тривалість роботи лампочки виготовленої на заводі X;
E
(
L
∣
Y
)
=
4000
{\displaystyle \operatorname {E} (L\mid Y)=4000}
— очікувана тривалість роботи лампочки виготовленої на заводі Y.
Отже, очікувана тривалість роботи кожної придбаної лампочки дорівнює 4600 годин.
Доведення для скінченних і зліченних випадків[ ред. | ред. код ]
Нехай випадкові величини
X
{\displaystyle X}
та
Y
{\displaystyle Y}
визначені на одному ймовірнісному просторі, припустимо скінченну чи зліченну множину скінченних значень. Припустимо що
E
[
X
]
{\displaystyle \operatorname {E} [X]}
визначена, тобто
min
(
E
[
X
+
]
,
E
[
X
−
]
)
<
∞
{\displaystyle \min(\operatorname {E} [X_{+}],\operatorname {E} [X_{-}])<\infty }
. Якщо
{
A
i
}
{\displaystyle \{A_{i}\}}
— подрібнення ймовірнісного простору
Ω
{\displaystyle \Omega }
, то
E
(
X
)
=
∑
i
E
(
X
∣
A
i
)
P
(
A
i
)
.
{\displaystyle \operatorname {E} (X)=\sum _{i}{\operatorname {E} (X\mid A_{i})\operatorname {P} (A_{i})}.}
E
(
E
(
X
∣
Y
)
)
=
E
[
∑
x
x
⋅
P
(
X
=
x
∣
Y
)
]
=
∑
y
[
∑
x
x
⋅
P
(
X
=
x
∣
Y
=
y
)
]
⋅
P
(
Y
=
y
)
=
∑
y
∑
x
x
⋅
P
(
X
=
x
,
Y
=
y
)
.
{\displaystyle {\begin{aligned}\operatorname {E} \left(\operatorname {E} (X\mid Y)\right)&=\operatorname {E} {\Bigg [}\sum _{x}x\cdot \operatorname {P} (X=x\mid Y){\Bigg ]}\\[6pt]&=\sum _{y}{\Bigg [}\sum _{x}x\cdot \operatorname {P} (X=x\mid Y=y){\Bigg ]}\cdot \operatorname {P} (Y=y)\\[6pt]&=\sum _{y}\sum _{x}x\cdot \operatorname {P} (X=x,Y=y).\end{aligned}}}
Якщо ряд скінченний, то можемо змінити порядок сумування й попередній вираз запишеться
∑
x
∑
y
x
⋅
P
(
X
=
x
,
Y
=
y
)
=
∑
x
x
∑
y
P
(
X
=
x
,
Y
=
y
)
=
∑
x
x
⋅
P
(
X
=
x
)
=
E
(
X
)
.
{\displaystyle {\begin{aligned}\sum _{x}\sum _{y}x\cdot \operatorname {P} (X=x,Y=y)&=\sum _{x}x\sum _{y}\operatorname {P} (X=x,Y=y)\\[6pt]&=\sum _{x}x\cdot \operatorname {P} (X=x)\\[6pt]&=\operatorname {E} (X).\end{aligned}}}
Якщо ж, з іншого боку, ряд нескінченний, то його збіжність не може бути умовною через припущення, що
min
(
E
[
X
+
]
,
E
[
X
−
]
)
<
∞
.
{\displaystyle \min(\operatorname {E} [X_{+}],\operatorname {E} [X_{-}])<\infty .}
Ряд збіжний абсолютно якщо обидвоє,
E
[
X
+
]
{\displaystyle \operatorname {E} [X_{+}]}
і
E
[
X
−
]
{\displaystyle \operatorname {E} [X_{-}]}
- скінченні і розбіжний до нескінченності, якщо чи
E
[
X
+
]
{\displaystyle \operatorname {E} [X_{+}]}
чи
E
[
X
−
]
{\displaystyle \operatorname {E} [X_{-}]}
— нескінченне. В обидвох випадках порядок сумування можна змінити не змінюючи суми.
Нехай
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},\operatorname {P} )}
— ймовірнісний простір, з визначеними на ньому σ-алгебрами
G
1
⊆
G
2
⊆
F
{\displaystyle {\mathcal {G}}_{1}\subseteq {\mathcal {G}}_{2}\subseteq {\mathcal {F}}}
. Для випадкової величини
X
{\displaystyle X}
на такому просторі, закон згладжування стверджує, що якщо
E
[
X
]
{\displaystyle \operatorname {E} [X]}
- визначене, тобто
min
(
E
[
X
+
]
,
E
[
X
−
]
)
<
∞
{\displaystyle \min(\operatorname {E} [X_{+}],\operatorname {E} [X_{-}])<\infty }
, тоді
E
[
E
[
X
∣
G
2
]
∣
G
1
]
=
E
[
X
∣
G
1
]
(майже напевно)
.
{\displaystyle \operatorname {E} [\operatorname {E} [X\mid {\mathcal {G}}_{2}]\mid {\mathcal {G}}_{1}]=\operatorname {E} [X\mid {\mathcal {G}}_{1}]\quad {\text{(майже напевно)}}.}
Доведення . Завдяки тому, що умовне матсподівання це похідна Радона – Нікодима , доведення закону згладжування зводиться до перевірки таких двох властивостей:
E
[
E
[
X
∣
G
2
]
∣
G
1
]
{\displaystyle \operatorname {E} [\operatorname {E} [X\mid {\mathcal {G}}_{2}]\mid {\mathcal {G}}_{1}]}
є
G
1
{\displaystyle {\mathcal {G}}_{1}}
-вимірною
∫
G
1
E
[
E
[
X
∣
G
2
]
∣
G
1
]
d
P
=
∫
G
1
X
d
P
,
{\displaystyle \int _{G_{1}}\operatorname {E} [\operatorname {E} [X\mid {\mathcal {G}}_{2}]\mid {\mathcal {G}}_{1}]d\operatorname {P} =\int _{G_{1}}Xd\operatorname {P} ,}
для всіх
G
1
∈
G
1
.
{\displaystyle G_{1}\in {\mathcal {G}}_{1}.}
Перша з цих властивостей випливає з означення умовного матсподівання. Для доведення другого,
min
(
∫
G
1
X
+
d
P
,
∫
G
1
X
−
d
P
)
≤
min
(
∫
Ω
X
+
d
P
,
∫
Ω
X
−
d
P
)
=
min
(
E
[
X
+
]
,
E
[
X
−
]
)
<
∞
,
{\displaystyle {\begin{aligned}\min \left(\int _{G_{1}}X_{+}\,d\operatorname {P} ,\int _{G_{1}}X_{-}\,d\operatorname {P} \right)&\leq \min \left(\int _{\Omega }X_{+}\,d\operatorname {P} ,\int _{\Omega }X_{-}\,d\operatorname {P} \right)\\[4pt]&=\min(\operatorname {E} [X_{+}],\operatorname {E} [X_{-}])<\infty ,\end{aligned}}}
отже інтеграл
∫
G
1
X
d
P
{\displaystyle \textstyle \int _{G_{1}}X\,d\operatorname {P} }
визначений (не дорівнює
±
∞
{\displaystyle \pm \infty }
).
Друга властивість правильна, бо з
G
1
∈
G
1
⊆
G
2
{\displaystyle G_{1}\in {\mathcal {G}}_{1}\subseteq {\mathcal {G}}_{2}}
випливає
∫
G
1
E
[
E
[
X
∣
G
2
]
∣
G
1
]
d
P
=
∫
G
1
E
[
X
∣
G
2
]
d
P
=
∫
G
1
X
d
P
.
{\displaystyle \int _{G_{1}}\operatorname {E} [\operatorname {E} [X\mid {\mathcal {G}}_{2}]\mid {\mathcal {G}}_{1}]d\operatorname {P} =\int _{G_{1}}\operatorname {E} [X\mid {\mathcal {G}}_{2}]d\operatorname {P} =\int _{G_{1}}Xd\operatorname {P} .}
Висновок. В особливому випадку, коли
G
1
=
{
∅
,
Ω
}
{\displaystyle {\mathcal {G}}_{1}=\{\emptyset ,\Omega \}}
і
G
2
=
σ
(
Y
)
{\displaystyle {\mathcal {G}}_{2}=\sigma (Y)}
, закон згладжування зводиться до
E
[
E
[
X
∣
Y
]
]
=
E
[
X
]
.
{\displaystyle \operatorname {E} [\operatorname {E} [X\mid Y]]=\operatorname {E} [X].}
∑
i
E
(
X
∣
A
i
)
P
(
A
i
)
=
∑
i
∫
Ω
X
(
ω
)
P
(
d
ω
∣
A
i
)
⋅
P
(
A
i
)
=
∑
i
∫
Ω
X
(
ω
)
P
(
d
ω
∩
A
i
)
=
∑
i
∫
Ω
X
(
ω
)
I
A
i
(
ω
)
P
(
d
ω
)
=
∑
i
E
(
X
I
A
i
)
,
{\displaystyle {\begin{aligned}\sum \limits _{i}\operatorname {E} (X\mid A_{i})\operatorname {P} (A_{i})&=\sum \limits _{i}\int \limits _{\Omega }X(\omega )\operatorname {P} (d\omega \mid A_{i})\cdot \operatorname {P} (A_{i})\\&=\sum \limits _{i}\int \limits _{\Omega }X(\omega )\operatorname {P} (d\omega \cap A_{i})\\&=\sum \limits _{i}\int \limits _{\Omega }X(\omega )I_{A_{i}}(\omega )\operatorname {P} (d\omega )\\&=\sum \limits _{i}\operatorname {E} (XI_{A_{i}}),\end{aligned}}}
де
I
A
i
{\displaystyle I_{A_{i}}}
- характеристична функція множини
A
i
{\displaystyle A_{i}}
.
Якщо розбиття
{
A
i
}
i
=
0
n
{\displaystyle {\{A_{i}\}}_{i=0}^{n}}
- скінченне, то, за властивістю лінійності, попередній вираз записується у вигляді
E
(
∑
i
=
0
n
X
I
A
i
)
=
E
(
X
)
,
{\displaystyle \operatorname {E} \left(\sum \limits _{i=0}^{n}XI_{A_{i}}\right)=\operatorname {E} (X),}
що й треба було показати.
Якщо ж розбиття
{
A
i
}
i
=
0
∞
{\displaystyle {\{A_{i}\}}_{i=0}^{\infty }}
- нескінченне, то застосовуючи теорему про мажоровану збіжність можемо показати
E
(
∑
i
=
0
n
X
I
A
i
)
→
E
(
X
)
.
{\displaystyle \operatorname {E} \left(\sum \limits _{i=0}^{n}XI_{A_{i}}\right)\to \operatorname {E} (X).}
Справді, для кожного
n
≥
0
{\displaystyle n\geq 0}
,
|
∑
i
=
0
n
X
I
A
i
|
≤
|
X
|
I
⋃
i
=
0
n
A
i
≤
|
X
|
.
{\displaystyle \left|\sum _{i=0}^{n}XI_{A_{i}}\right|\leq |X|I_{\mathop {\bigcup } \limits _{i=0}^{n}A_{i}}\leq |X|.}
Позаяк кожен елемент множини
Ω
{\displaystyle \Omega }
належить певному елементу подрібнення
A
i
{\displaystyle A_{i}}
, легко перевірити що послідовність
{
∑
i
=
0
n
X
I
A
i
}
n
=
0
∞
{\displaystyle {\left\{\sum _{i=0}^{n}XI_{A_{i}}\right\}}_{n=0}^{\infty }}
поточково збіжна до X. За припущенням у твердженні,
E
|
X
|
<
∞
{\displaystyle \operatorname {E} |X|<\infty }
. Застосовуючи теорему про мажоровану збіжність отримуємо бажане твердження.
Карташов М. В. Імовірність, процеси, статистика . — Київ : ВПЦ Київський університет , 2007. — 504 с.
Гнеденко Б. В. Курс теории вероятностей . — 6-е изд. — Москва : Наука , 1988. — 446 с.(рос.)
Гихман И. И. , Скороход А. В. , Ядренко М. В. Теория вероятностей и математическая статистика . — Київ : Вища школа , 1988. — 436 с.(рос.)
Billingsley, Patrick (1995). Probability and measure . New York: John Wiley & Sons. ISBN 0-471-00710-2 . (англ.) (Теорема 34.4)
Christopher Sims , "Notes on Random Variables, Expectations, Probability Densities, and Martingales" , especially equations (16) through (18)