Незалежність (імовірність)

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

У теорії ймовірностей дві випадкові події називаються незалежними, якщо настання однієї з них не змінює вірогідність настання іншої. Аналогічно, дві випадкові величини називають незалежними якщо значення однієї з них не впливає на розподіл значень іншої[1].

Незалежні події[2][ред.ред. код]

Вважатимемо, що дано фіксований ймовірнісний простір (\Omega , \mathcal{F}, \mathbb{P}).

Означення 1. Дві події A,B\in \mathcal{F} називають незалежними, якщо

\mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B).

Зауваження 1. В тому випадку, якщо ймовірність однієї події, скажемо B ненульова, тобто \mathbb{P}(B)>0, визначення незалежності еквівалентне:

\mathbb{P}(A \mid B ) = \mathbb{P}(A),

тобто умовна ймовірність події ~A за умови ~B дорівнює безумовній вірогідності події ~A.

Означення 2. Нехай є сімейство (скінченне або нескінченне) випадкових подій \{A_{i}\}_{i\in I}\subset \mathcal{F}, де ~I — довільна індексна безліч. Тоді ці події є попарно незалежними, якщо будь-які дві події з цього сімейства незалежні, тобто

\mathbb{P}(A_i \cap A_j)= \mathbb{P}(A_i) \cdot \mathbb{P}(A_j),\; \forall i \not= j.

Означення 3. Нехай є сімейство (скінчене або нескінчене) випадкових подій \{A_{i}\}_{i\in I}\subset \mathcal{F}. Тоді ці події сукупно незалежні, якщо для будь-якого кінцевого набору цих подій \{A_{i_k}\}_{k=1}^N вірно:

\mathbb{P}(A_{i_1} \cap \ldots \cap A_{i_n}) = \mathbb{P}( A_{i_1}) \ldots \mathbb{P}(A_{i_n}).

Приклад 1. Хай кинуто три урівноважені монети. Визначимо події таким чином:

  • ~A_1: монети 1 і 2 впали однією і тією ж стороною;
  • ~A_2: монети 2 і 3 впали однією і тією ж стороною;
  • ~A_3: монети 1 і 3 впали однією і тією ж стороною;

залежні, бо знаючи, наприклад, що події ~A_1,A_2 сталися, ми знаємо точно, що ~A_3 також сталося.

Те що три і більше події попарно незалежні, не означає, що вони незалежні в сукупності. Дивіться приклад Бернштейна.

Незалежні σ-алгебри[ред.ред. код]

Означення 4. Нехай \mathcal{A}_1,\mathcal{A}_2 \subset \mathcal{F} дві сигма-алгебри на одному і тому ж ймовірнісному просторі. Вони називаються незалежними, якщо будь-які їх представники незалежні між собою, тобто:

\mathbb{P}(A_1 \cap A_2) = \mathbb{P}(A_1)\cdot \mathbb{P}(A_2),\; \forall A_1 \in \mathcal{A}_1,\, A_2\in \mathcal{A}_2.

Якщо замість двох є ціле сімейство (можливо нескінчене) сигма-алгебр, то для нього визначається попарна і спільна незалежність очевидним чином.

Див. також[ред.ред. код]

Джерела[ред.ред. код]

  1. Сеньо П.С. Теорія ймовірностей та математична статистика: Підручник. — 2-ге вид., перероб. і доп. — К.: Знання, 2007. — С. 291.
  2. Patrick Billingsley - Probability and Measure. Second edition. (New York: John Wiley and Sons, 1986). MR 80h:60001.