Апостеріорна ймовірність

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

В Байєсівській статистиці, апостеріорна ймовірність (з англ. Posterior probability) випадкових подій, або сумнівних тверджень являє собою умовну ймовірність, яка присвоюється після того, як були враховані відповідні докази. Так само апостеріорний імовірнісний розподіл є розподілом невідомих величин, який розглядають, як випадкову величину, що ґрунтується на доказах, отриманих з експерименту або спостереження.

Визначення[ред.ред. код]

Апостеріорна ймовірність — ймовірність параметру \theta , наведені докази X: p(\theta|X). Це контрастує з функцією ймовірності, яка є ймовірністю, засвідченою параметрами : p(X|\theta).
Але наступний розподіл і ймовірнісна функція пов'язані наступним чином : Нехай у нас є попереднє свідчення, що функція ймовірнісного розподілу це p(\theta) і спостереження — X, з вірогідністю p(X|\theta). тоді апостеріорна ймовірність визначається, як: p(\theta|X) = \frac{p(\theta)p(X|\theta)}{p(X)}.[1]
Апостеріорна ймовірність може бути записана в такій зручній для запам'ятовування формі: \text{Posterior probability} \propto \text{Prior probability} \times \text{Likelihood}.

Приклад[ред.ред. код]

Нехай у школі 60% учнів — хлопців і 40% — дівчат. Учениці носять штани та спідниці в рівній кількості, учні-хлопці всі носять штани. Спостерігач бачить учня (випадкового) з деякої відстані. Все, що може бачити спостерігач, це те, що учень в штанах. Яка ймовірність того, що цей учень — дівчинка? Правильну відповідь можна обчислити за допомогою теореми Байєса.
Подія G — учень, якого бачив спостерігач — дівчинка, подія Т — учень, що спостерігався носить штани. Для обчислення P(G|T), ми для початку маємо дізнатись:
1) P(G), або ймовірність того, що учень — дівчина незалежно від будь-якої іншої інформації. Оскільки спостерігач бачить випадкового учня, це означає, що всі учні мають однакову ймовірність бути поміченими, а частка дівчат серед них становить 40%, тому ця ймовірність дорівнює 0,4.
2) P(B), або ймовірність того, що учень не дівчина (тобто, хлопчик), незалежно від будь-якої іншої інформації (B є додатковою подією G). Це є 60%, або 0,6.
3) P(T|G), або ймовірність, що учень носить стани, враховуючи, що це дівчинка. Оскільки вони однаково часто носять штани та спідниці, то це 0,5.
4) P(T|B), або ймовірність, що учень носить штани, враховуючи, що він хлопчик. Це є 1.
5) P(T), або ймовірність, що (випадково вибраний) учень носить штани незалежно від будь-якої іншої інформації. Так як P (T) = P (T | G) P (G) + P (T | B) P (B) (За законом повної ймовірності), це становить 0,5 × 0,4 + 1 × 0,6 = 0,8
Враховуючи всю цю інформацію, ймовірність того, що спостерігач бачив дівчинку, враховуючи що спостережуваний учень був в штанах, може бути обчислена, підставляючи ці значення в формулу: P(G|T) = \frac{P(T|G) P(G)}{P(T)} = \frac{0.5 \times 0.4}{0.8} = 0.25.

Підрахунки[ред.ред. код]

Апостеріорний розподіл ймовірності, де одній випадковій змінній присвоюється значення іншої, може бути розрахований за теоремою Байєса шляхом множення попереднього розподілу ймовірностей на функцію правдоподібності (вірогідності), а потім діленням на нормуючий множник, а саме: f_{X\mid Y=y}(x)={f_X(x) L_{X\mid Y=y}(x) \over {\int_{-\infty}^\infty f_X(x) L_{X\mid Y=y}(x)\,dx}} дає попередню функцію щільності ймовірності випадкової величини X з урахуванням даних Y = у, де

  • f_X(x) — попередня щільність Х;
  • L_{X\mid Y=y}(x) = f_{Y\mid X=x}(y) — функція вірогідності, як функція від х;
  • \int_{-\infty}^\infty f_X(x) L_{X\mid Y=y}(x)\,dx — нормуючий множник;
  • f_{X\mid Y=y}(x) — наступна щільність X з урахуванням даних Y = у.

Класифікація[ред.ред. код]

У класифікації апостеріорної ймовірності відображається невизначеність оцінки спостереження певного класу. В той час як статистичні методи класифікації за означенням генерують нуступні(апостеріорні) ймовірності, Machine Learners часто дає значення, які не викликають ймовірнісної довіри. Це бажано, для трансформації або оновлення membership values to class membership probabilities, як тільки вони порівнянні і додатково простіші для наступної обробки.

Див. також[ред.ред. код]

Примітки[ред.ред. код]

  1. Christopher M. Bishop (2006). Pattern Recognition and Machine Learning. Springer. с. 21–24. ISBN 978-0-387-31073-2.