Коефіцієнт Баєса

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

У статистиці використання коефіціє́нтів Ба́єса (англ. Bayes factors) є баєсовою альтернативою класичній перевірці гіпотез.[1][2] Ба́єсове порівня́ння моде́лей є методом обирання моделі, що ґрунтується на коефіцієнтах Баєса.

Визначення[ред.ред. код]

Апостеріорна ймовірність Pr(M|D) моделі M при заданих даних D задається теоремою Баєса:

Ключовий залежний від даних член Pr(D|M) є правдоподібністю, він представляє ймовірність виникнення якихось даних за умови цієї моделі, M; його коректне обчислення є ключем до баєсового порівняння моделей.

При заданій задачі обирання моделі, в якій ми маємо зробити вибір серед двох моделей на підставі спостережуваних даних D, правдоподібність двох різних моделей M1 та M2, параметризованих векторами параметрів моделей та , оцінюється коефіцієнтом Баєса K, що задається як

Якщо замість інтегралу коефіцієнта Баєса використовується правдоподібність, що відповідає оцінці максимальної правдоподібності параметра кожної з моделей, тоді ця перевірка стає класичною перевіркою відношенням правдоподібностей.[джерело?] На відміну від перевірки відношенням правдоподібностей, це баєсове порівняння моделей не залежить від жодного окремого набору параметрів, оскільки воно інтегрується над усіма параметрами в кожній з моделей (по відношенню до відповідних апріорних ймовірностей). І тим не менш, перевагою використання коефіцієнтів Баєса є те, що воно автоматично і цілком природно включає штраф за надлишкове включення структури моделі.[3] Воно таким чином захищає від перенавчання. Для моделей, для яких точна версія правдоподібності є недоступною або занадто витратною для чисельного оцінювання, для вибору моделі у баєсовій мережі може використовуватися приблизне баєсове обчислення,[4] із застереженням, що приблизно-баєсові оцінки коефіцієнтів Баєса часто є упередженими.[5]

Іншими підходами є:

Інтерпретація[ред.ред. код]

Значення K > 1 означає, що M1 підтримується даними, що розглядаються, сильніше, ніж M2. Зауважте, що класична перевірка гіпотез надає одній гіпотезі (або моделі) привілейованого статусу («нульова гіпотеза»), і розглядає лише свідчення проти неї. Гарольд Джеффріс запропонував шкалу для інтерпретації K:[6]

K дХарт біти Сила свідчення
< 100
< 0
негативна (підтримує M2)
100—101/2
0—5
0—1.6
заледве варта згадування
101/2—101
5—10
1.6—3.3
істотна
101—103/2
10—15
    3.3—5.0    
сильна
103/2—102
15—20
5.0—6.6
дуже сильна
> 102
> 20
> 6.6
вирішальна

Другий стовпчик подає відповідну вагу свідчення в децигартлі (також відомих як децибани); біти додано у третьому стовпчику для ясності. Згідно з І. Дж. Ґудом[en], зміна у вазі свідчення в 1 децибан або 1/3 біту (тобто, зміна у співвідношенні шансів з рівних до приблизно 5:4) є приблизно настільки тонкою, наскільки люди можуть розсудливо розрізняти свої міри переконання в гіпотезах у повсякденному вжитку.[7]

Альтернативну, широко цитовану таблицю запропоновано Кассом та Рафтері[en]:[3]

2 ln K K Сила свідчення
0—2
1—3
   не варте більш ніж просто згадки
2—6
3—20
   позитивне
6—10
20—150
   сильне
>10
>150
   дуже сильне

Використання коефіцієнту Баєса або класичної перевірки гіпотез трапляється радше в контексті висновування, ніж ухвалення рішень в умовах невизначеності. Тобто, ми радше просто хочемо з'ясувати, яка з гіпотез є правильною, ніж справді ухвалювати рішення на базі цієї інформації. Частотне висновування проводить чітке розрізнення між цими двома, оскільки класичні перевірки гіпотез не є когерентинми[en] у баєсовому сенсі. Баєсові процедури, включно з коефіцієнтами Баєса, є когерентними, тому немає потреби проводити таке розрізнення. Тоді висновування просто розглядається як особливий випадок ухвалення рішення в умовах невизначеності, в якому дією результату є повідомлення значення. Для ухвалення рішень баєсові статистики можуть використовувати коефіцієнт Баєса у поєднанні з апріорним розподілом та функцією втрат, пов'язаною зі здійсненням невірного вибору. В контексті висновування функція втрат набуватиме форми оцінювального правила[en]. Наприклад, використання логарифмічної оцінювальної функції[en] призводить до того, що очікувана корисність набуває форми відстані Кульбака — Лейблера.

Приклад[ред.ред. код]

Припустімо, що ми маємо випадкову змінну, що продукує успіх або невдачу. Ми хочемо порівняти модель M1, де ймовірністю успіху є q = ½, та іншу модель M2, де q є невідомим та ми приймаємо, що апріорним розподілом q є рівномірний на [0,1]. Ми робимо вибірку з 200, і виявляємо 115 успіхів та 85 невдач. Правдоподібність може бути обчислено згідно біноміального розподілу:

Отже, ми маємо

але

Тоді відношенням є 1.197…, що є «заледве вартим згадування», незважаючи на те, що воно вказує трішки в бік M1.

Це не є тим самим, що й класична перевірка відношенням правдоподібностей, що знайшла би оцінку максимальної правдоподібності для q, а саме 115200 = 0.575, звідки (замість усереднення за всіма можливими q). Це дає відношення правдоподібностей 0.1045, і таким чином вказує на M2.

Сучасний метод відносної правдоподібності, на відміну від класичного відношення правдоподібностей, враховує кількість вільних параметрів у моделях. Метод відносної правдоподібності може застосовуватися наступним чином. Модель M1 має 0 параметрів, і тому значенням її ІКА є 2·0 − 2·ln(0.005956) = 10.2467. Модель M2 має 1 параметр, і тому значенням її ІКА є 2·1 − 2·ln(0.056991) = 7.7297. Отже, M1 є приблизно у exp((7.7297 − 10.2467)/2) = 0.284 разів ймовірнішою за M2 для мінімізації втрати інформації. Відтак, M2 є трохи кращою, але M1 не може виключатися.

Частотна перевірка гіпотези M1 (що розглядається тут як нульова гіпотеза) видала би тут зовсім інший результат. Така перевірка каже, що M1 мала би бути відкинутою на рівні значущості 5%, оскільки ймовірністю отримання 115 або більше успіхів з вибірки з 200, якщо q = ½, є 0.0200, та оскільки двобічний критерій[en] отримання значення настільки ж віддаленого, або віддаленішого за 115, є 0.0400. Зауважте, що 115 є у більш ніж двох стандартних відхиленнях від 100.

M2 є складнішою моделлю за M1, оскільки вона має вільний параметр, що дозволяє їй моделювати дані ближче. Здатність коефіцієнтів Баєса враховувати це є тією причиною, чому баєсове висновування було висунуто як теоретичне обґрунтування та узагальнення Бритви Оккама, що зменшує похибки першого роду.[8]

Див. також[ред.ред. код]

Статистичні відношення

Примітки[ред.ред. код]

  1. Goodman S. (1999). Toward evidence-based medical statistics. 1: The P value fallacy (PDF). Ann Intern Med 130 (12). с. 995–1004. PMID 10383371. doi:10.7326/0003-4819-130-12-199906150-00008.  (англ.)
  2. Goodman S. (1999). Toward evidence-based medical statistics. 2: The Bayes factor (PDF). Ann Intern Med 130 (12). с. 1005–13. PMID 10383350. doi:10.7326/0003-4819-130-12-199906150-00019.  (англ.)
  3. а б Robert E. Kass and Adrian E. Raftery[en] (1995). Bayes Factors. Journal of the American Statistical Association 90 (430). с. 791. doi:10.2307/2291091.  (англ.)
  4. Toni, T.; Stumpf, M.P.H. (2009). Simulation-based model selection for dynamical systems in systems and population biology (PDF). Bioinformatics 26 (1). с. 104–10. PMC 2796821. PMID 19880371. doi:10.1093/bioinformatics/btp619.  (англ.)
  5. Robert, C.P., J. Cornuet, J. Marin and N.S. Pillai (2011). Lack of confidence in approximate Bayesian computation model choice. Proceedings of the National Academy of Sciences 108 (37). с. 15112–15117. PMC 3174657. PMID 21876135. doi:10.1073/pnas.1102900108.  (англ.)
  6. H. Jeffreys (1961). The Theory of Probability (вид. 3). Oxford. с. 432.  (англ.)
  7. Good, I.J. (1979). Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II. Biometrika[en] 66 (2). с. 393–396. MR 82c:01049. doi:10.1093/biomet/66.2.393.  (англ.)
  8. Sharpening Ockham's Razor On a Bayesian Strop (англ.)

Література[ред.ред. код]

  • Bernardo, J.; Smith, A. F. M. (1994). Bayesian Theory. John Wiley. ISBN 0-471-92416-4.  (англ.)
  • Denison, D. G. T.; Holmes, C. C.; Mallick, B. K.; Smith, A. F. M. (2002). Bayesian Methods for Nonlinear Classification and Regression. John Wiley. ISBN 0-471-49036-9.  (англ.)
  • Duda, Richard O.; Hart, Peter E.; Stork, David G. (2000). Section 9.6.5. Pattern classification (вид. 2nd). Wiley. с. 487–489. ISBN 0-471-05669-3.  (англ.)
  • Gelman, Andrew; Carlin, John B.; Stern, Hal S.; Dunson, David B.; Vehtari, Aki; Rubin, Donald B. (2013). Bayesian Data Analysis (вид. III). CRC Press. ISBN 978-1439840955.  (англ.)
  • Jaynes E. T.[en] (1994), Probability Theory: the logic of science, chapter 24. (англ.)
  • Lee, P. M. (2012). Bayesian Statistics: an introduction. Wiley. ISBN 9781118332573.  (англ.)
  • Winkler, Robert (2003). Introduction to Bayesian Inference and Decision (вид. 2nd). Probabilistic. ISBN 0-9647938-4-9.  (англ.)

Посилання[ред.ред. код]

  • BayesFactor — пакет R для обчислення коефіцієнтів Баєса у звичайних планах досліджень
  • Bayes Factor Calculators — інтернет-версія значної частини пакету BayesFactor