Баєсове програмування

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Ба́єсове програмува́ння — це формальна система та методологія визначення ймовірнісних моделей та розв'язання задач, коли не вся необхідна інформація є доступною.

Едвін Томпсон Джейнс[cs] запропонував, щоби ймовірність могла розглядатися як альтернатива та розширення логіки для раціонального міркування з неповною та непевною інформацією. У своїй засадничій книзі «Теорія ймовірностей: логіка науки»[1] він розробив цю теорію та запропонував те, що він назвав «роботом», що було не фізичним пристроєм, а рушієм висновування для автоматизації ймовірнісних міркувань — щось на кшталт Прологу для ймовірності замість логіки. Баєсове програмування[2] є формальним та конкретним втіленням цього «робота».

Баєсове програмування також можна розглядати як алгебраїчну формальну систему для визначення графових моделей, таких як, наприклад, баєсові мережі, фільтри Калмана або приховані марковські моделі. Дійсно, баєсове програмування є загальнішим за баєсові мережі, і має виразну потужність, еквівалентну ймовірнісним графам розкладу[en].

Формальна система[ред. | ред. код]

Баєсова програма є засобом визначення сімейства розподілів імовірності.

Нижче представлено складові елементи баєсової програми:

  1. Програма будується з опису (англ. description) та питання (англ. question).
  2. Опис будується із застосуванням якогось визначення (, англ. specification), заданого програмістом, та ідентифікації (англ. identification) або навчального процесу для параметрів, не повністю описаних у визначенні, із застосуванням набору даних ().
  3. Визначення будується з набору доречних змінних (англ. variables), розкладу (англ. decomposition) та набору форм (англ. forms).
  4. Форми є або параметричними формами, або питаннями до інших баєсових програм.
  5. Питання визначає, який розподіл імовірності повинно бути розраховано.

Опис[ред. | ред. код]

Задачею опису є визначення ефективного методу обчислення спільного розподілу ймовірності набору змінних для заданого набору експериментальних даних та деякого визначення . Цей спільний розподіл позначається як .

Для визначення попереднього знання програміст мусить виконати наступне:

  1. Визначити набір доречних змінних , на якому визначено спільний розподіл імовірності.
  2. Розкласти спільний розподіл (розбити його на доречні незалежні або умовні ймовірності).
  3. Визначити форми кожного з цих розподілів (наприклад, для кожної змінної, один з переліку розподілів імовірності).

Розклад[ред. | ред. код]

Для даного поділу , що містить підмножин, визначаються змінних , кожна з яких відповідає одній з цих підмножин. Кожна змінна отримується як кон'юнкція змінних , що належать до -тої підмножини. Рекурсивне застосування теореми Баєса веде до

Потім гіпотези умовної незалежності[en] дозволяють подальші спрощення. Гіпотеза умовної незалежності для змінної визначається вибором деякої змінної серед змінних, присутніх у кон'юнкції , позначенням через кон'юнкції цих обраних змінних, і встановленням

Потім ми отримуємо

Таке спрощення спільного розподілу як добутку простіших розподілів називається розкладом, виведеним із застосуванням ланцюгового правила.

Воно забезпечує, щоби кожна змінна з'являлася ліворуч від риски обумовлювання не менше одного разу, що є необхідною і достатньою умовою написання математично вірних розкладів.[джерело?]

Форми[ред. | ред. код]

Кожен розподіл , що з'являється в добутку, потім пов'язується або з параметричною формою (тобто, функцією ), або з питанням до іншої баєсової програми .

Коли це форма , в загальному випадку є вектором параметрів, що можуть залежати або від , або , або від обох. Коли деякі з цих параметрів обчислюються із застосуванням набору даних , відбувається навчання.

Важливою особливістю баєсового програмування є ця здатність використовувати питання до інших баєсових програм як складову визначення нової баєсової програми. отримується деяким висновуванням, що здійснюється іншою баєсовою програмою, визначеною визначенням та даними . Це є схожим на виклик підпрограми в класичному програмуванні, й пропонує простий простий спосіб побудови ієрархічних моделей.

Питання[ред. | ред. код]

Для даного опису (тобто, ) питання отримується поділом на три набори: досліджувані (англ. searched) змінні, відомі (англ. known) змінні та вільні (англ. free) змінні.

Три змінні , та визначаються як кон'юнкція змінних, що належать до цих наборів.

Питання визначається як набір розподілів

зроблений з багатьох «конкретизованих питань» як кардинал , де кожне конкретизоване питання є розподілом

Висновування[ред. | ред. код]

Для заданого спільного розподілу завжди можливо обчислити будь-яке можливе питання, застосовуючи наступне загальне висновування:

де перше рівняння випливає з правила відособлення, друге випливає з теореми Баєса, а третє відповідає другому застосуванню відособлення. Знаменник виявляється нормувальним членом, і його може бути замінено сталою .

Теоретично це дозволяє розв'язувати будь-які задачі баєсового висновування. Проте на практиці майже в усіх випадках витратність вичерпного та точного обчислення є занадто високою.

Заміною спільного розподілу його розкладом ми отримуємо

що зазвичай є виразом, значно простішим для обчислення, оскільки розмірність задачі значно знижено шляхом розкладу на добуток розподілів меншої розмірності.

Приклад[ред. | ред. код]

Баєсове виявлення спаму[ред. | ред. код]

Метою баєсового фільтрування спаму є усування сміттєвих електронних листів.

Ця задача є дуже простою для формулювання. Електронні листи повинні класифікуватися до однієї з двох категорій: не-спам та спам. Єдиною доступною інформацією для класифікації електронних листів є їхній вміст: набір слів. Використання цих слів без взяття до уваги їхнього порядку часто називають моделлю «торба слів».

Крім того, класифікатор повинен бути здатним адаптуватися до свого користувача та вчитися з досвіду. Починаючи зі стандартного початкового налаштування, класифікатор повинен змінювати свої внутрішні параметри, коли користувач не погоджується з його власним рішенням. Він, отже, адаптуватиметься до користувачевих критеріїв розрізнення між не-спамом та спамом. Він покращуватиме власні результати, стикаючись з більшою кількістю класифікованих електронних листів.

Змінні[ред. | ред. код]

Змінні, необхідні для написання цієї програми, є такими:

  1. : двійкова змінна, хибна (англ. false), якщо електронний лист не є спамом, та істинна (англ. true) в іншому разі.
  2. : двійкових змінних. є істинною, якщо -те слово словника присутнє в тексті.

Ці двійкових змінних підсумовують всю інформацію про електронний лист.

Розклад[ред. | ред. код]

Починаючи зі спільного розподілу і застосовуючи рекурсивно теорему Баєса, ми отримуємо:

Це є точним математичним виразом.

Його може бути радикально спрощено шляхом припущення, що ймовірність появи слова при відомій природі тексту (спам чи ні) є незалежною від появи інших слів. Це є наївним баєсовим припущенням, і воно робить цей фільтр спаму наївною баєсовою моделлю.

Наприклад, програміст може припустити, що

щоби врешті отримати

Цей вид припущення відомий як наївне баєсове припущення. Воно є «наївним» у тому сенсі, що незалежність між словами явно є не зовсім вірною. Наприклад, воно повністю нехтує тим, що поява пари слів може бути суттєвішою та ізольовані появи. Проте програміст може прийняти цю гіпотезу, і може розробити модель та пов'язані висновування, щоби перевірити, наскільки надійною та ефективною вона є.

Параметричні форми[ред. | ред. код]

Щоби мати можливість обчислити спільний розподіл, програміст тепер мусить вказати розподілів, присутніх у розкладі:

  1. є визначеним апріорно, наприклад, як
  2. Кожну з форм може бути вказано з використанням правила наслідування Лапласа[en] (це методика згладжування на базі псевдолічильників[en] для подолання проблеми нульової частоти досі ніколи не бачених слів):

де відповідає кількості появ -того слова в не-спамових електронних листах, а відповідає загальній кількості не-спамових електронних листів. Аналогічно, відповідає кількості появ -того слова в спамових електронних листах, а відповідає загальній кількості спамових електронних листів.

Ідентифікація[ред. | ред. код]

форм визначено ще не повністю, оскільки параметрів , , та ще не мають значень.

Ідентифікацію цих параметрів може бути здійснено або пакетною обробкою комплектів класифікованих електронних листів, або покроковним уточненням параметрів із використанням класифікації електронних листів користувачем у процесі їхнього надходження.

Обидва методи може бути об'єднано: система може стартувати з початковими стандартними значеннями цих параметрів, виданих з узагальненої бази даних, а потім певне покрокове навчання підганяє класифікатор під кожного окремого користувача.

Питання[ред. | ред. код]

Питанням, що задається програмі, є «якою є ймовірність того, що даний текст є спамом, якщо відомо, які слова в ньому присутні, а які — ні?» Його може бути формалізовано як

що може бути обчислено наступним чином:

Знаменник виявляється сталою нормалізації[en]. Його не обов'язково обчислювати для того, щоби з'ясувати, чи ми маємо справу зі спамом. Наприклад, простий прийом для обчислення відношення:

Таке обчислення є швидшим та простішим, оскільки воно вимагає лише добутків.

Баєсова програма[ред. | ред. код]

Програма баєсового фільтра спаму визначається повністю як

Фільтр Баєса, фільтр Калмана та прихована модель Маркова[ред. | ред. код]

Баєсові фільтри (що часто називають рекурсивною баєсовою оцінкою) є загальними ймовірнісними моделями для процесів, що розгортаються в часі. Численні моделі є окремими випадками цього загального підходу, наприклад, фільтр Калмана, або прихована марковська модель.

Змінні[ред. | ред. код]

  • Змінні є часовим рядом змінних стану, що розглядаються на часовому горизонті в діапазоні від до .
  • Змінні є часовим рядом змінних спостережень на цьому ж горизонті.

Розклад[ред. | ред. код]

Розклад ґрунтується:

  • на , що називається моделлю системи, моделлю переходу або динамічною моделлю, яка формалізує перехід від стану в момент часу до стану в момент часу ;
  • на , що називається моделлю спостереження, яка виражає, що може спостерігатися в момент часу , коли система знаходиться в стані ;
  • на початковому стані в момент часу : .

Параметричні форми[ред. | ред. код]

Параметричні моделі не обмежено, й різні варіанти ведуть до різних добре відомих моделей: див. фільтри Калмана та приховані марковські моделі трохи нижче.

Питання[ред. | ред. код]

Питанням, яке зазвичай ставлять цим моделям, є : яким є розподіл імовірності стану в момент часу за відомих спостережень від моменту до ?

Найпоширенішим випадком є баєсове фільтрування, в якому , що означає, що з'ясовується поточний стан за відомих попередніх спостережень.

Проте можливо також здійснювати й передбачення , коли робиться спроба екстраполяції майбутнього стану з минулих спостережень, або здійснювати згладжування , коли робиться спроба відновлення минулого стану зі спостережень, зроблених або до, або після того моменту.

Також можуть ставитися й дещо складніші питання, як показано нижче у розділі ПММ.

Баєсові фільтри мають дуже цікаву рекурсивну властивість, що значно сприяє їхній привабливості. може бути обчислено просто з за наступною формулою:

Іншою цікавою точкою зору стосовно цього рівняння є розгляд існування двох фаз: фази передбачення та фази уточнення:

  • Протягом фази передбачення стан передбачується із застосуванням динамічної моделі та оцінки стану в попередній момент:
  • Протягом фази уточнення, передбачення або підтверджується, або визнається недійсним із застосуванням крайнього спостереження:

Баєсова програма[ред. | ред. код]

Фільтр Калмана[ред. | ред. код]

Добре відомі фільтри Калмана[3] є окремим випадком баєсових фільтрів.

Вони визначаються наступною баєсовою програмою:

  • Змінні є неперервними.
  • Моделі переходу та спостереження обидві визначаються із застосуванням Гаусових законів із середніми значеннями, що є лінійними функціями обумовлювальних змінних.

З цими гіпотезами та із застосуванням рекурсивної формули задачу висновування для отримання відповіді на звичайне питання можна розв'язувати аналітично. Це веде до надзвичайно ефективного алгоритму, що пояснює популярність фільтрів Калмана та численність їхніх повсякденних застосувань.

Коли очевидних лінійних моделей переходу та спостереження немає, часто все ще можливо, застосовуючи розклад Тейлора першого порядку, трактувати ці моделі як локально лінійні. Це узагальнення зазвичай називають розширеним фільтром Калмана.

Прихована марковська модель[ред. | ред. код]

Приховані марковські моделі (ПММ) є іншою дуже популярною спеціалізацією фільтрів Калмана.

Вони визначаються наступною баєсовою програмою:

  • Змінні розглядаються як дискретні.
  • Моделі переходу та спостереження обидві визначаються із застосуванням матриць імовірностей.
  • Питання, що найчастіше ставлять прихованим марковським моделям:

Якою є найімовірніша послідовність станів, що веде до поточного стану за відомих минулих спостережень?

Відповідь на дане окреме питання можна отримувати за допомогою особливого та дуже ефективного алгоритму, що називається алгоритмом Вітербі.

Для ПММ також було розроблено особливий алгоритм навчання, що називається Алгоритм Баума — Велша.

Застосування[ред. | ред. код]

Академічні застосування[ред. | ред. код]

Протягом останніх 15 років підхід баєсового програмування застосовувався в багатьох університетах для розробки як застосувань у робототехніці, так і моделей в науках про життя.[4]

Робототехніка[ред. | ред. код]

В робототехніці баєсове програмування застосовувалося в автономній робототехніці,[5][6][7][8][9] роботизованих САПР,[10] передових системам допомоги водієві,[11] роботизованому керуванні маніпуляторами, мобільній робототехніці[en],[12][13] людино-роботній взаємодії,[14] людино-автомобільній взаємодії (баєсові автономні моделі водія),[15][16][17][18][19][20] програмуванні та навчанні аватарів у відеоіграх[21] та в стратегічних іграх реального часу (ШІ).[22]

Науки про життя[ред. | ред. код]

В науках про життя баєсове програмування застосовувалося в баченні для відтворення структури з руху,[23] для моделювання зорово-вестибулярної взаємодії[24] та дослідження саккадного руху очей;[25] у сприйнятті мовлення та володіння ним для дослідження раннього надбання мовлення[26] та появи артикулярно-акустичних систем;[27] та для моделювання сприйняття рукописного тексту та володіння ним.[28]

Баєсове програмування та теорії можливостей[ред. | ред. код]

Порівняння ймовірнісних підходів (не лише баєсового програмування) та теорій можливостей обговорювалося вже тривалий час, і, на жаль, є дуже спірним питанням.

Теорії можливостей, такі як, наприклад, нечіткі множини,[29] нечітка логіка[30] та теорія можливостей[31] пропонують різні альтернативи ймовірності для моделювання невизначеності. Вони стверджують, що ймовірність є недостатньою або незручною для моделювання певних аспектів неповного або непевного знання.

Захист імовірності головним чином базується на теоремі Кокса[en], яка, починаючи з чотирьох постулатів щодо раціонального міркування в умовах невизначеності, демонструє, що лише математична модель, яка задовольняє ці постулати, є теорією ймовірності. Аргументація потім іде таким чином: якщо ви використовуєте інший підхід, ніж імовірність, то ви обов'язково порушуєте один з цих постулатів. Подивимося, який саме, та обговоримо його корисність.

Баєсове програмування та ймовірнісне програмування[ред. | ред. код]

Метою ймовірнісного програмування[en] є об'єднання сфери класичних мов програмування з імовірнісним моделюванням (особливо з баєсовими мережами) для того, щоби бути в змозі мати справу із невизначеністю, але все ще отримувати користь від виразної сили мов програмування для опису складних моделей.

Розширені класичні мови програмування можуть бути логічними мовами, як запропоновано в Імовірнісній абдукції Горна,[32] Логіці незалежного вибору,[33] PRISM[34] та ProbLog, що пропонує розширення мови Prolog.

Воно також може бути розширеннями функційних мов програмування (по суті LISP та Scheme), такими як IBAL або Church[en]. Мовами, що дають натхнення, можуть бути навіть об'єктно орієнтовані, як у BLOG та FACTORIE, або стандартніші, як у CES та FIGARO [Архівовано 1 лютого 2016 у Wayback Machine.].

Мета баєсового програмування є іншою. Настанова Джейнса про «ймовірність як логіку» обстоює те, що ймовірність є розширенням та альтернативою логіці, над якою може бути перебудовано повну теорію раціональності, обчислення та програмування. Баєсове програмування шукає способу не розширити класичні мови, а швидше замінити їх новим підходом програмування на основі ймовірності та повного врахування неповноти та невизначеності[en].

Точне порівняння семантики та виразної потужності баєсового та ймовірнісного програмування наразі залишається відкритим питанням.

Див. також[ред. | ред. код]

Примітки[ред. | ред. код]

  1. Jaynes, Edwin T. (2003). Probability Theory: The Logic of Science (PDF). Cambridge University Press. ISBN 0-521-59271-2. Архів оригіналу (PDF) за 21 лютого 2016. Процитовано 18 жовтня 2015. (англ.)
  2. Bessière, P.; Mazer, E.; Ahuactzin, J-M.; Mekhnacha, K. (2013). Bayesian Programming. Chapman & Hall/CRC. ISBN 9781439880326. Архів оригіналу за 25 червня 2016. Процитовано 18 жовтня 2015. (англ.)
  3. Kalman, R. E. (1960). A New Approach to Linear Filtering and Prediction Problems. Transactions of the ASME--Journal of Basic Engineering. 82: 33––45. doi:10.1115/1.3662552. (англ.)
  4. Bessière, P.; Laugier, C. & Siegwart, R. (2008). Probabilistic Reasoning and Decision Making in Sensory-Motor Systems. Springer. ISBN 978-3-540-79007-5. (англ.)
  5. Lebeltel, O.; Bessière, P.; Diard, J.; Mazer, E. (2004). Bayesian Robot Programming. Advanced Robotics. 16 (1): 49––79. doi:10.1023/b:auro.0000008671.38949.43. (англ.)
  6. Diard, J.; Gilet, E.; Simonin, E.; Bessière, P. (2010). Incremental learning of Bayesian sensorimotor models: from low-level behaviours to large-scale structure of the environment. Connection Science. 22 (4): 291––312. doi:10.1080/09540091003682561. (англ.)
  7. Pradalier, C.; Hermosillo, J.; Koike, C.; Braillon, C.; Bessière, P.; Laugier, C. (2005). The CyCab: a car-like robot navigating autonomously and safely among pedestrians. Robotics and Autonomous Systems. 50 (1): 51––68. doi:10.1016/j.robot.2004.10.002. (англ.)
  8. Ferreira, J.; Lobo, J.; Bessière, P.; Castelo-Branco, M.; Dias, J. (2012). A Bayesian Framework for Active Artificial Perception. IEEE Transactions on Systems, IEEE Transactions on Systems, Man, and Cybernetics, Part B. 99: 1––13. (англ.)
  9. Ferreira, J. F.; Dias, J. M. (2014). Probabilistic Approaches to Robotic Perception. Springer. (англ.)
  10. Mekhnacha, K.; Mazer, E.; Bessière, P. (2001). The design and implementation of a Bayesian CAD modeler for robotic applications. Advanced Robotics. 15 (1): 45––69. doi:10.1163/156855301750095578. (англ.)
  11. Coué, C.; Pradalier, C.; Laugier, C.; Fraichard, T.; Bessière, P. (2006). Bayesian Occupancy Filtering for Multitarget Tracking: an Automotive Application. International Journal of Robotics Research. 25 (1): 19––30. doi:10.1177/0278364906061158. (англ.)
  12. Vasudevan, S.; Siegwart, R. (2008). Bayesian space conceptualization and place classification for semantic maps in mobile robotics. Robotics and Autonomous Systems. 56 (6): 522––537. doi:10.1016/j.robot.2008.03.005. (англ.)
  13. Perrin, X.; Chavarriaga, R.; Colas, F.; Seigwart, R.; Millan, J. (2010). Brain-coupled interaction for semi-autonomous navigation of an assistive robot. Robotics and Autonomous Systems. 58 (12): 1246––1255. doi:10.1016/j.robot.2010.05.010. (англ.)
  14. Rett, J.; Dias, J.; Ahuactzin, J-M. (2010). Bayesian reasoning for Laban Movement Analysis used in human-machine interaction. Int. J. of Reasoning-based Intelligent Systems. 2 (1): 13––35. doi:10.1504/IJRIS.2010.029812. (англ.)
  15. Möbus, C.; Eilers, M.; Garbe, H.; Zilinski, M. (2009), Probabilistic and Empirical Grounded Modeling of Agents in (Partial) Cooperative Traffic Scenarios, у Duffy, Vincent G. (ред.), Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, с. 423—432, doi:10.1007/978-3-642-02809-0_45, ISBN 978-3-642-02808-3, архів оригіналу за 4 березня 2016, процитовано 18 жовтня 2015 (англ.)
  16. Möbus, C.; Eilers, M. (2009), Further Steps Towards Driver Modeling according to the Bayesian Programming Approach, у Duffy, Vincent G. (ред.), Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, с. 413—422, doi:10.1007/978-3-642-02809-0_44, ISBN 978-3-642-02808-3, архів оригіналу за 4 березня 2016, процитовано 18 жовтня 2015 (англ.)
  17. Eilers, M.; Möbus, C. (2010). Lernen eines modularen Bayesian Autonomous Driver Mixture-of-Behaviors (BAD MoB) Modells (PDF). У Kolrep, H.; Jürgensohn, Th. (ред.). Fahrermodellierung - Zwischen kinematischen Menschmodellen und dynamisch-kognitiven Verhaltensmodellen. Fortschrittsbericht des VDI in der Reihe 22 (Mensch-Maschine-Systeme). Düsseldorf, Germany: VDI-Verlag. с. 61—74. ISBN 978-3-18-303222-8. Архів оригіналу (PDF) за 3 лютого 2014. (нім.)
  18. Möbus, C.; Eilers, M. (2011). Prototyping Smart Assistance with Bayesian Autonomous Driver Models. У Mastrogiovanni, F.; Chong, N.-Y. (ред.). Handbook of Research on Ambient Intelligence and Smart Environments: Trends and Perspectives. Hershey, Pennsylvania (USA): IGI Global publications. с. 460—512. doi:10.4018/978-1-61692-857-5.ch023. ISBN 9781616928575. Архів оригіналу за 24 вересня 2015. (англ.)
  19. Eilers, M.; Möbus, C. (2011). Learning the Relevant Percepts of Modular Hierarchical Bayesian Driver Models Using a Bayesian Information Criterion. У Duffy, V.G. (ред.). Digital Human Modeling. LNCS 6777. Heidelberg, Germany: Springer. с. 463—472. doi:10.1007/978-3-642-21799-9_52. ISBN 978-3-642-21798-2. {{cite conference}}: |archive-url= вимагає |url= (довідка) (англ.)
  20. Eilers, M.; Möbus, C. (2011). Learning of a Bayesian Autonomous Driver Mixture-of-Behaviors (BAD-MoB) Model. У Duffy, V.G. (ред.). Advances in Applied Digital Human Modeling. LNCS 6777. Boca Raton, USA: CRC Press, Taylor & Francis Group. с. 436—445. ISBN 978-1-4398-3511-1. Архів оригіналу за 1 лютого 2014. (англ.)
  21. Le Hy, R.; Arrigoni, A.; Bessière, P.; Lebetel, O. (2004). Teaching Bayesian Behaviours to Video Game Characters. Robotics and Autonomous Systems. 47 (2–3): 177––185. doi:10.1016/j.robot.2004.03.012. (англ.)
  22. Synnaeve, G. (2012). Bayesian Programming and Learning for Multiplayer Video Games (PDF). Архів оригіналу (PDF) за 13 вересня 2014. Процитовано 18 жовтня 2015. (англ.)
  23. Colas, F.; Droulez, J.; Wexler, M.; Bessière, P. (2008). A unified probabilistic model of the perception of three-dimensional structure from optic flow. Biological Cybernetics: 132––154. (англ.)
  24. Laurens, J.; Droulez, J. (2007). Bayesian processing of vestibular information. Biological Cybernetics. 96 (4): 389––404. doi:10.1007/s00422-006-0133-1. (англ.)
  25. Colas, F.; Flacher, F.; Tanner, T.; Bessière, P.; Girard, B. (2009). Bayesian models of eye movement selection with retinotopic maps. Biological Cybernetics. 100 (3): 203––214. doi:10.1007/s00422-009-0292-y. (англ.)
  26. Serkhane, J.; Schwartz, J-L.; Bessière, P. (2005). Building a talking baby robot A contribution to the study of speech acquisition and evolution. Interaction Studies. 6 (2): 253––286. doi:10.1075/is.6.2.06ser. (англ.)
  27. Moulin-Frier, C.; Laurent, R.; Bessière, P.; Schwartz, J-L.; Diard, J. (2012). Adverse conditions improve distinguishability of auditory, motor and percep-tuo-motor theories of speech perception: an exploratory Bayesian modeling study. Language and Cognitive Processes. 27 (7–8): 1240––1263. doi:10.1080/01690965.2011.645313. (англ.)
  28. Gilet, E.; Diard, J.; Bessière, P. (2011). Sporns, Olaf (ред.). Bayesian Action–Perception Computational Model: Interaction of Production and Recognition of Cursive Letters. Plos ONE. 6 (6): e20387. Bibcode:2011PLoSO...620387G. doi:10.1371/journal.pone.0020387.{{cite journal}}: Обслуговування CS1: Сторінки із непозначеним DOI з безкоштовним доступом (посилання) (англ.)
  29. Zadeh, Lofti, A. (1965). Fuzzy sets. Information and Control. 8 (3): 338––353. doi:10.1016/S0019-9958(65)90241-X. (англ.)
  30. Zadeh, Lofti, A. (1975). Fuzzy logic and approximate reasoning. Synthese. 30 (3––4): 407––428. doi:10.1007/BF00485052. (англ.)
  31. Dubois, D.; Prade, H. (2001). Possibility Theory, Probability Theory and Multiple-Valued Logics: A Clarification (PDF). Ann. Math. Artif. Intell. 32 (1––4): 35––66. doi:10.1023/A:1016740830286. (англ.)
  32. Poole, D. (1993). Probabilistic Horn abduction and Bayesian networks. Artificial Intelligence. 64: 81—129. doi:10.1016/0004-3702(93)90061-F. (англ.)
  33. Poole, D. (1997). The Independent Choice Logic for modelling multiple agents under uncertainty. Artficial Intelligence. 94: 7—56. doi:10.1016/S0004-3702(97)00027-1. (англ.)
  34. Sato, T.; Kameya, Y. (2001). Parameter learning of logic programs for symbolic-statistical modeling (PDF). Journal of Artificial Intelligence Research. 15: 391––454. Архів оригіналу (PDF) за 12 липня 2014. Процитовано 18 жовтня 2015. (англ.)

Література[ред. | ред. код]

Посилання[ред. | ред. код]