Програмна модель переконань, бажань та намірів

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Програмна модель переконань, бажань та намірів (ПБН, англ. Belief–desire–intention software model) — є моделлю програмного забезпечення, призначеною для програмування інтелектуальних агентів. Поверхово характеризується реалізацією переконань, бажань і намірів агента, але насправді використовує ці концепції для розв'язання специфічної задачі в програмуванні агента. По суті, ця модель забезпечує механізм для відокремлення діяльності з вибору плану (з бібліотеки планів або зовнішньої програми планування) від виконання поточних активних планів. Тим самим, агенти ПБН можуть збалансувати час, витрачений на обдумування планів (вибір того, що робити) і виконання цих планів (втілення). Третій вид діяльності, в першу чергу створення планів (планування), не входить до сфери застосування моделі, і залишається на розсуд системного розробника та програміста.

Огляд[ред. | ред. код]

Для досягнення поділу активності агентів, у моделі ПБН застосовуються головним чином розвинені концепції Майкла Бретмена[en] у його однойменній теорії про практичну думку людини[en] (також відома як Переконання-Бажання-Намір або ПБН). Ця модель реалізує концепції переконання, бажання та (зокрема) наміру, у спосіб, навіяний Братменом. Для Братмена і бажання, і намір є «про-ставленнями» (психічні установки, пов'язані з дією). Він визначає зобов'язання як відмінний фактор між бажанням і наміром, зазначаючи, що воно призводить до (1) тимчасової наполегливості в планах і (2) подальших планів, які складаються на основі тих, до яких він уже зобов'язаний. Модель програмного забезпечення ПБН частково розв'язує ці проблеми. Аспекти часової стійкості, що безпосередньо посилаються на час, не досліджені. Ієрархічний характер планів легше реалізувати: план складається з кількох кроків, деякі з яких можуть викликати інші плани. Саме ієрархічне визначення планів має на увазі своєрідну тимчасову стійкість, оскільки загальний план залишається в силі, поки виконуються допоміжні плани.

Один із ключових аспектів моделі програмного забезпечення ПБН, з точки зору його актуальності у дослідженнях, полягає у наявності логічних моделей, які дозволяють аналізувати та розуміти роботу агентів ПБН. Дослідження в цій галузі призвели, наприклад, до аксіоматизації деяких реалізацій ПБН, а також до формально-логічних описів, таких як ПБНЛОД (переконання-бажання-намір логіка обчислювального дерева) (Anand Rao та Michael Georgeff[en], 1995). Останній поєднує багатомодальну логіку (з модальностями, що представляють переконання, бажання та наміри) з темпоральною логікою логікою обчислювального дерева[en]. Нещодавно Майкл Вулдрідж розширив ПБНЛОД, щоб визначити LORA (логіку раціональних агентів), включивши логіку дій. В принципі, LORA дозволяє міркувати не лише про окремих агентів, але й про спілкування та іншу взаємодію в багатоагентній системі.

Модель програмного забезпечення ПБН тісно пов'язана з інтелектуальними агентами, але сама по собі не забезпечує всіх характеристик, пов'язаних із такими агентами. Наприклад, це дозволяє агентам мати приватні переконання, але не змушує їх бути приватними. Крім того, в цьому контексті нічого не говориться про комунікацію між агентами. Зрештою, модель програмного забезпечення ПБН є спробою розв'язати проблему, яка пов'язана більше з планами та плануванням (їх вибором і виконанням), ніж із програмуванням інтелектуальних агентів. Цей підхід нещодавно запропонували Стівен Умбрелло і Роман Ямпольський[en] як засіб проєктування автономних транспортних засобів для людських цінностей.[1]

Агенти ПБН[ред. | ред. код]

ПБН-агент — це особливий тип обмеженого інтелекнуального агента, пронизаного певними «психічними установками», а саме: переконаннями, бажаннями та намірами (ПБН).

Архітектура[ред. | ред. код]

Цей розділ визначає ідеалізовані архітектурні компоненти системи ПБН.

  • Переконання: переконання представляють інформаційний стан агента, іншими словами його переконання щодо світу (включаючи себе та інших агентів). Переконання також можуть включати правила висновування, що дозволяє прямому виводу вести до нових переконань. Використання терміну «переконання» замість «знання» визнає, що те, у що вірить агент, не обов'язково може бути правдою (і насправді може змінитися в майбутньому).
    • Переконання: Переконання зберігаються в базі даних (іноді її називають «базою переконань» або «набором переконань»), хоча це рішення імплементації.
  • Бажання: бажання представляють мотиваційний стан агента. Вони представляють цілі або ситуації, які агент «хотів би» досягти або викликати. Прикладами бажань можуть бути: «знайти найкращу ціну», «піти на вечірку» або «стати багатим».
    • Цілі: ціль — це бажання, яке агент прийняв для активного досягнення. Використання терміну «цілі» додає ще одне обмеження, згідно з яким набір активних бажань має бути послідовним. Наприклад, у людини не повинно бути одночасних цілей піти на вечірку і залишитися вдома — навіть якщо вони обидві можуть бути бажаними.
  • Наміри: наміри представляють стан обговорення агента - конкретні дії, які агент обрав для виконання. Це суть бажань, які агент певною мірою підтримує. У випадку реалізованих систем це означає, що агент розпочав виконання певного плану.
    • Плани: плани — це послідовності дій (рецептів або областей знань), які агент може виконати для досягнення одного або кількох своїх намірів. Плани можуть включати інші плани: мій план покататися може включати план пошуку ключів від машини. Це свідчить про те, що в моделі Бретмена плани спочатку лише частково задумані, а деталі доповнюються у міру їхнього розвитку.
  • Події: це ініціатори реактивної активності агента. Подія може оновити переконання, запустити плани або змінити цілі. Події можуть генеруватися ззовні та прийматися датчиками або інтегрованими системами. Крім того, події можуть генеруватися внутрішньо для ініціювання незалежних оновлень або планів діяльності.

ПБН також було розширено компонентом зобов'язань, що дало початок архітектурі агента BOID[2] для включення зобов'язань, норм і зобов'язань агентів, які діють у соціальному середовищі.

Інтерпретатор ПБН[ред. | ред. код]

У цьому розділі визначено ідеалізований інтерпретатор ПБН, який є основою ПСА[en](процедурна система аргументації) лінії систем ПБН SRI:[3]

  1. стан ініціалізації
  2. повтор
    1. options: option-generator (event-queue)
    2. selected-options: deliberate(options)
    3. update-intentions(selected-options)
    4. execute()
    5. get-new-external-events()
    6. drop-unsuccessful-attitudes()
    7. drop-impossible-attitudes()
  3. завершення повторення

Обмеження та критика[ред. | ред. код]

Модель програмного забезпечення ПБН є одним із прикладів архітектури міркувань для одного раціонального агента та однією з проблем у ширшій багатоагентній системі. Цей розділ обмежує сферу проблем для моделі програмного забезпечення ПБН, підкреслюючи відомі обмеження архітектури.

  • Навчання: агентам ПБН бракує будь-яких конкретних механізмів в архітектурі, щоб вчитися на минулій поведінці та адаптуватися до нових ситуацій.[4][5]
  • Три погляди: класичні теоретики прийняття рішень і дослідження планування ставлять під сумнів необхідність мати всі три погляди, розподілений штучний інтелект[en] дослідження ставить під сумнів, чи достатньо цих трьох поглядів.[3]
  • Логіка: мультимодальна логіка, яка лежить в основі ПБН (яка не має повної аксіоматизації та не є ефективно обчислюваною), мало актуальна на практиці.[3][6]
  • Кілька агентів: крім явної підтримки навчання, фреймворк може бути невідповідним для поведінки навчання. Крім того, модель ПБН явно не описує механізми взаємодії з іншими агентами та інтеграцію в багатоагентну систему.[7]
  • Явні цілі: у більшості реалізацій ПБН відсутнє явне визначення цілей.[8]
  • Передбачення: Архітектура не має (за задумом) будь-якого попереднього обговорення або перспективного планування. Це може бути небажаним, оскільки прийняті плани можуть використовувати обмежені ресурси, дії можуть бути необоротними, виконання завдання може тривати довше, ніж планування наперед, дії можуть мати небажані побічні ефекти, якщо вони не вдаються.[9]

Реалізація агента ПБН[ред. | ред. код]

«Чистий» ПБН[ред. | ред. код]

Розширення та гібридні системи[ред. | ред. код]

Див. також[ред. | ред. код]

Примітки[ред. | ред. код]

  1. Umbrello, Steven; Yampolskiy, Roman V. (15 травня 2021). Designing AI for Explainability and Verifiability: A Value Sensitive Design Approach to Avoid Artificial Stupidity in Autonomous Vehicles. International Journal of Social Robotics (англ.). 14 (2): 313—322. doi:10.1007/s12369-021-00790-w. ISSN 1875-4805.
  2. J. Broersen, M. Dastani, J. Hulstijn, Z. Huang, L. van der Torre The BOID architecture: conflicts between beliefs, obligations, intentions and desires Proceedings of the fifth international conference on Autonomous agents, 2001, pages 9-16, ACM New York, NY, USA
  3. а б в Rao, M. P. Georgeff. (1995). BDI-agents: From Theory to Practice (PDF). Proceedings of the First International Conference on Multiagent Systems (ICMAS'95). Архів оригіналу (PDF) за 4 червня 2011. Процитовано 9 липня 2009.
  4. Phung, Toan; Michael Winikoff; Lin Padgham (2005). Learning Within the BDI Framework: An Empirical Analysis. Knowledge-Based Intelligent Information and Engineering Systems. Lecture Notes in Computer Science. Т. 3683. с. 282—288. doi:10.1007/11553939_41. ISBN 978-3-540-28896-1.
  5. Guerra-Hernández, Alejandro; Amal El Fallah-Seghrouchni; Henry Soldano (2004). Learning in BDI Multi-agent Systems. Computational Logic in Multi-Agent Systems. Lecture Notes in Computer Science. Т. 3259. с. 218—233. doi:10.1007/978-3-540-30200-1_12. ISBN 978-3-540-24010-5.
  6. Rao, M. P. Georgeff. (1995). Formal models and decision procedures for multi-agent systems. Technical Note, AAII. CiteSeerX 10.1.1.52.7924.
  7. Georgeff, Michael; Barney Pell; Martha E. Pollack; Milind Tambe; Michael Wooldridge (1999). The Belief-Desire-Intention Model of Agency. Intelligent Agents V: Agents Theories, Architectures, and Languages. Lecture Notes in Computer Science. Т. 1555. с. 1—10. doi:10.1007/3-540-49057-4_1. ISBN 978-3-540-65713-2.
  8. Pokahr, Alexander; Lars Braubach; Winfried Lamersdorf (2005). Jadex: A BDI Reasoning Engine. Multi-Agent Programming. Multiagent Systems, Artificial Societies, and Simulated Organizations. Т. 15. с. 149—174. doi:10.1007/0-387-26350-0_6. ISBN 978-0-387-24568-3.
  9. Sardina, Sebastian; Lavindra de Silva; Lin Padgham (2006). Hierarchical planning in BDI agent programming languages: a formal approach. Proceedings of the fifth international joint conference on Autonomous agents and multiagent systems.
  10. UM-PRS
  11. OpenPRS. Архів оригіналу за 21 жовтня 2014. Процитовано 23 жовтня 2014.
  12. AgentSpeak(RT) [Архівовано 2012-03-26 у Wayback Machine.]
  13. Vikhorev, K., Alechina, N. and Logan, B. (2011). "Agent programming with priorities and deadlines" [Архівовано March 26, 2012, у Wayback Machine.]. In Proceedings of the Tenth International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2011). Taipei, Taiwan. May 2011., pp. 397-404.
  14. Agent Real-Time System [Архівовано 2011-09-27 у Wayback Machine.]
  15. Vikhorev, K., Alechina, N. and Logan, B. (2009). "The ARTS Real-Time Agent Architecture" [Архівовано March 26, 2012, у Wayback Machine.]. In Proceedings of Second Workshop on Languages, Methodologies and Development Tools for Multi-agent Systems (LADS2009). Turin, Italy. September 2009. CEUR Workshop Proceedings Vol-494.
  16. JAM
  17. JADEX
  18. Jason | a Java-based interpreter for an extended version of AgentSpeak. Архів оригіналу за 10 червня 2023. Процитовано 28 листопада 2023.
  19. SPARK
  20. 2APL
  21. а б CogniTAO (Think-As-One)
  22. а б TAO: A JAUS-based High-Level Control System for Single and Multiple Robots Y. Elmaliach, CogniTeam, (2008) Archived copy. Архів оригіналу за 7 січня 2009. Процитовано 3 листопада 2008.{{cite web}}: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title (посилання)
  23. а б Living Systems Process Suite
  24. а б Rimassa, G., Greenwood, D. and Kernland, M. E., (2006). The Living Systems Technology Suite: An Autonomous Middleware for Autonomic Computing [Архівовано May 16, 2008, у Wayback Machine.]. International Conference on Autonomic and Autonomous Systems (ICAS).
  25. Fichera, Loris; Marletta, Daniele; Nicosia, Vincenzo; Santoro, Corrado (2011). Flexible Robot Strategy Design Using Belief-Desire-Intention Model. У Obdržálek, David; Gottscheber, Achim (ред.). Research and Education in Robotics - EUROBOT 2010. Communications in Computer and Information Science (англ.). Т. 156. Berlin, Heidelberg: Springer. с. 57—71. doi:10.1007/978-3-642-27272-1_5. ISBN 978-3-642-27272-1.
  26. Gwendolen Semantics:2017
  27. Model Checking Agent Programming Languages
  28. MCAPL (Zenodo)
  29. Brahms
  30. Home. jacamo.sourceforge.net.

Джерела[ред. | ред. код]