Моделювання свідомості: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[неперевірена версія][неперевірена версія]
Вилучено вміст Додано вміст
Немає опису редагування
посилання
Рядок 1: Рядок 1:
'''Штучна свідомість''', також відома, як '''машина свідомості''' (MC) або '''синтетична свідомість''' — це наукова галузь, пов'язана зі штучним інтелектом та {{Нп|Когнітивна робототехніка|когнітивною робототехнікою|en|Cognitive robotics}}, метою яких є визначення того, що мало б бути штучною свідомістю.
'''Штучна свідомість'''<ref name="gunn">{{cite journal | last1 = Thaler | first1 = S. L. | year = 1998 | title = The emerging intelligence and its critical look at us | url = | journal = Journal of Near-Death Studies | volume = 17 | issue = 1| page = | doi = 10.1023/A:1022990118714 }}</ref> ({{lang-en|Artificial consciousness}}), також відома, як '''машина свідомості''' (MC) або '''синтетична свідомість''' ({{harvnb|Gamez|2008}}; {{harvnb|Reggia|2013}})&nbsp;— це наукова галузь, пов'язана зі штучним інтелектом та {{Нп|Когнітивна робототехніка|когнітивною робототехнікою||Cognitive robotics}}, метою яких є визначення того, що мало б бути штучною свідомістю {{Harv|Aleksander|1995}}.


[[Неврологія]] припускає, що свідомість породжується із інтероперабельності різних частин мозку, які називаються {{Нп|Нейронні кореляти свідомості|нейронними корелятами свідомості|en|Neural correlates of consciousness}} або НКС. Прихильники штучного інтелекту вважають, що можна побудувати машини (наприклад, комп'ютерні системи), які зможуть емулювати дану систему {{Нп|Інтероперабельність|інтероперабельності|ru|Интероперабельность}}.
[[Неврологія]] припускає, що свідомість породжується із інтероперабельності різних частин мозку, які називаються {{Нп|Нейронні кореляти свідомості|нейронними корелятами свідомості|en|Neural correlates of consciousness}} або НКС. Прихильники штучного інтелекту вважають, що можна побудувати машини (наприклад, комп'ютерні системи), які зможуть емулювати дану систему {{Нп|Інтероперабельність|інтероперабельності|ru|Интероперабельность}}.<ref name="Graziano Consciousness and the Social Brain">{{cite book|last1=Graziano|first1=Michael|title=Consciousness and the Social Brain|date=2013|publisher=Oxford University Press|isbn=978-0199928644}}</ref>


Штучну свідомість можна розглядати як розширення штучного інтелекту, припускаючи, що поняття інтелекту, в його зазвичай використовуваному сенсі, дуже вузьке для того, щоб включати всі аспекти свідомості.
Штучну свідомість можна розглядати як розширення штучного інтелекту, припускаючи, що поняття інтелекту, в його зазвичай використовуваному сенсі, дуже вузьке для того, щоб включати всі аспекти свідомості.<ref>''[[Artificial Intelligence: A Modern Approach]]'' includes the philosophical foundations of AI including the questions of consciousness http://aima.cs.berkeley.edu/contents.html, Russell, Stuart J., Norvig, Peter, 2003, Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2</ref>


== Філософські погляди на штучну свідомість ==
== Філософські погляди на штучну свідомість ==

Версія за 22:21, 22 грудня 2015

Штучна свідомість[1] (англ. Artificial consciousness), також відома, як машина свідомості (MC) або синтетична свідомість ((Gamez, 2008); (Reggia, 2013)) — це наукова галузь, пов'язана зі штучним інтелектом та когнітивною робототехнікою[en], метою яких є визначення того, що мало б бути штучною свідомістю (Aleksander, 1995).

Неврологія припускає, що свідомість породжується із інтероперабельності різних частин мозку, які називаються нейронними корелятами свідомості[en] або НКС. Прихильники штучного інтелекту вважають, що можна побудувати машини (наприклад, комп'ютерні системи), які зможуть емулювати дану систему інтероперабельності.[2]

Штучну свідомість можна розглядати як розширення штучного інтелекту, припускаючи, що поняття інтелекту, в його зазвичай використовуваному сенсі, дуже вузьке для того, щоб включати всі аспекти свідомості.[3]

Філософські погляди на штучну свідомість

Існує багато типів свідомості, отже можливе й існування різних типів штучної свідомості. У філософській літературі, мабуть, найбільш поширеними таксономіями свідомості є «доступ» і «феноменальність». Свідомість доступу стосується тих аспектів досвіду, які піддаються функціональному опису, а свідомість феноменальності стосується тих аспектів досвіду, які, здається, кидають виклик функціональному зображенню відчуття світу.

Домінік Парізі, науковий співробітник Інституту когнітивної науки і технологій, пише у своїй статті «Психіка Робота», що для того, щоб роботи володіли штучною свідомiстю, вони також повинні мати те, що він називає «психічне життя». Парізі осмислив психічне життя як можливість «мати внутрішні уявлення сенсорної інформації за відсутністю вхідного сигналу.»

Дебати з приводу правдивості штучної свідомості

Скептична думка теоретиків відносного струму в провідниках різної природи (наприклад, теоретиків типу ідентичності), які вважають, що свідомість може бути реалізована тільки в особливих фізичних системах, оскільки свідомість має властивості, які обов'язково залежать від фізичної конституції (блок, 1978; Bickle, 2003).

У своїй статті «Штучна свідомість: утопія чи реальна можливість» Георгіка Бутазо каже, що, незважаючи на здатність наших сучасних технологій для імітації автономії, «Працюючи в повністю автоматичному режимі, вони [комп'ютери] не можуть проявляти творчість, емоції, або вільну волю, як пральна машина що працює за попередньо заданим алгоритмом.

Для інших теоретиків (наприклад, функціоналістів), які визначають психічні стани з точки зору причинно-наслідкових функцій, будь-яка система, яка може створити екземпляр тією ж схемою причинно-наслідкових функцій, незалежно від фізичної конституції, буде екземпляром з тим же психічним станом, в тому числі свідомості (Putnam, 1967) ,

Аргумент Чалмерса для штучногї свідомості

Один з найбільш явних аргументів на користь правдоподібності штучної свідомості висловив Девід Чалмерс. Його пропозиція, знайдена у рукописах Фонду з вивчення обчислювальної техніки, полягає у тому, що комп'ютерного виконання, обчислення й різних видів розрахунків достатньо для створення свідомості. Взагалі, він аргументує свою думку наступним чином: Комп'ютери виконують обчислення. Їх розрахунки можуть мати абстрактну причинно-наслідкову організацію. Психічні властивості не що інше, як абстрактна причинно-наслідкова організація. Таким чином, комп'ютери під управлінням правильних розрахунків будуть прикладом психічних властивостей.

Найбільш спірна частина пропозиції Чалмерса це „організаційний інваріант“, тобто, немає нічого понад абстрактної причинно-наслідкової організації. Його грубий аргумент, полягає в наступному: Психологічні властивості, такі як впевненість і сприйняття, характеризуються причинною роллю в рамках загальної системи причинно-наслідкового сприйняття, стверджуючи, що система з тією ж топологією причинно-наслідкового сприйняття поділяє психологічні властивості.

Феноменальні властивості, на перший погляд визначаються в термінах їх причинних ролей. Твердження, що феноменальні властивості піддаються індивідуалізації причинної ролі, вимагають аргументів. Чалмерс забезпечує їх для цієї мети.

Чалмерс припускає, що агенти з однаковими причинними організаціями можуть мати різний досвід, різні матеріальні конституції (наприклад, кремній та нейрони). Потім він просить нас уявити собі зміну одного агента в іншого, замінюючи частини (наприклад, нейронні деталі замінені кремнієм), зберігаючи при цьому свою причинно-наслідкову організацію. За припущенням, досвід агента при перетворенні зміниться (коли будуть замінені деталі), але не буде ніяких змін в причинно-наслідковій топології і, отже, у агента може бути „повідомлення“ про зрушення в досвіді.

Критики штучного інтелекту заперечили, що Чалмерс напрошує питання, вважаючи, що всі психічні властивості недостатньо враховуються в абстрактній організації причинно-наслідкового усвідомлення.

Етика штучної свідомості

Якщо припустити, що деяка машина буде мати свідомість, то її права будуть етичним питанням, яке потрібно буде вирішувати (наприклад, які права вона буде мати за законом). Наприклад, у свідомості комп'ютера, який належав і використовувався як інструмент або центрального комп'ютера будівлі або у великій машині, конкретна неоднозначність. Якщо закони будуть для такого випадку, свідомість також вимагатиме юридичного визначення (наприклад здатність машини випробувати задоволення або біль, як свідоме відчуття). Бо штучна свідомість значною мірою теоретичний об'єкт, тому етика не обговорювалася і не розроблялася в значній мірі, хоча це є обговорюваною темою в художній літературі (див нижче).

Для премії Лоєбнера[ru] на конкурсі 2003 р. докладно розглянуто питання про права роботів:

6.1. Якщо в тому чи іншому році, публічно доступний з відкритим вихідним кодом увійшов в Університет Суррея або Кембриджського центру виграє срібну медаль або золоту медаль, то медаль і премією будуть нагороджені органи, відповідальні за розвиток цього штучного інтелекта. Якщо немає такого органу або не може бути ідентифікований або, якщо існують розбіжності між двома або більше заявниками, медаль і премія будуть знаходятися в довірчому управлінні доти, доки штучний інтелект може юридично володіти, або в США або в місці проведення конкурсу, премією та золотою медаллю у своєму власному праві.

Свідомість в цифрових обчислювальних машинах

Є різні аспекти свідомості і в цілому необхідною для машини вважається штучна свідомість. Різноманітність функцій, в яких свідомість відіграє значну роль, була запропонованою Бернардом Баарсом[en]. Функції свідомості, запропоновані Бернардом визначають контекст установки, адаптацію і навчання, редагування, маркування та налагодження, рекрутинг та управління, пріоритет і контроль доступу, прийняття рішень або виконання функцій, функцію формування аналогії, метакогнітивного і самостійного функціонування, моніторингу та автопрограмування, функції самообслуговування. Ігор Олександр запропонував 12 принципів для штучної свідомості у своїй книжці «Неможливі розуми»:"Мозок — статична машина, внутрішні нейронні, створення розділів, свідоме і несвідоме сприйняття навчання і пам'яті, прогнозування, усвідомлення самого себе, представлення сенсу, навчання висловлювання, вивчення мови, воля, інстинкт і емоції. Метою штучної свідомості є визначення того, як ці та інші аспекти свідомості можуть бути синтезовані в інженерії артефакту, такі як цифровий комп'ютер". Цей список є не вичерпним, існує багато інших, непоширених аспектів.

Усвідомлення

Усвідомлення може бути одним обов'язковим аспектом, але є багато проблем з точним визначенням свідомості. Результати експериментів нейросканування на мавпах припускають, що процеси, а не тільки стан або об'єкт, активізує нейрони. Усвідомлення включає в себе створення і тестування альтернативних моделей кожного процесу, заснованого на інформації, отриманої через органи чуття чи уявної інформації, а також є корисною для передбачення. Таке моделювання вимагає великої гнучкості. Створення такої моделі включає в себе моделювання фізичного світу, моделювання своїх власних внутрішніх станів і процесів, а також моделювання інших свідомих осіб.

Є принаймні три типи свідомості: усвідомлення сприяння, усвідомлення мети, і розуміння сенсомоторії, які також можуть бути свідомими чи ні. Наприклад, в усвідомленні сприяння ви можете бути в курсі, що ви виконали певну дію вчора, але зараз не усвідомлююте це. У усвідомлення мети ви можете розуміти, що ви повинні шукати загублений предмет, але зараз не усвідомлююте це. В усвідомленні сенсомоторії, ви можете знати, що ваша рука спочиває на предметі, але зараз не усвідомлюєте це.

Тому, що об'єкти усвідомлення часто свідомі. Різниця між усвідомленням і свідомісттю розпливчата, або навіть синонімічна.

Навчання

Навчання також визнане необхіднм для штучної свідомості. За ствердженням Бернардом Баарсем[en] — свідомий досвід необхідний, щоб представляти і адаптуватися до нових і важливих подій. За Акселем Кліремансом[en] і Луїсом Хіменесом — навчання визначається як „філогенетична сукупність“. Розширення адаптаційних процесів, що в значній мірі залежать від розвитку чутливості до суб'єктивного досвіду, з тим щоб агенти мали гнучкий контроль над своїми діями в складних, непередбачуваних умовах».

Очікування

Здатність передбачати прогнозовані події вважається важливою для штучного інтелекту (за Ігорем Олександром[en]). Принципи емерджентістского законопроекту, запропоновані Деніелем Деннеттом у поясненні свідомості можуть бути корисні для прогнозування. Вони включаєть в себе оцінку і вибір найбільш підходящого «проекту», щоб відповідати поточному середовищу. Очікування включає в себе прогнозування наслідків своїх власних запропонованих заходів та прогнозування наслідків можливих дій інших осіб.

Відносини між реальними державами світу знаходять відображення в державній структурі свідомого організму, що дозволяє організму прогнозувати події. Машина зі штучним інтелектом має бути в змозі передбачити події правильно, щоб бути готовою реагувати на них, коли вони відбуваються або прийняти попередні заходи для запобігання очікуваних подій. Сенс полягає в тому, що машина повинна бути гнучкою, в режимі реального часу для побудови компонентів з яких просторові, динамічні, статистичні, функціональні та причинно-наслідкові моделі реального світу і передбачення світу, що дозволяє продемонструвати, що вона володіє штучною свідомістю в даний час і майбутньому, а не тільки в минулому. Для того, щоб зробити це, свідома машина повинна робити когерентні прогнози і плани дій у надзвичайних ситуаціях, не тільки в світах з фіксованими правилами, як шахівниці, але і для нових умов, які можуть змінюватися, можуть бути виконані тільки при необхідності моделювати і контролювати в режимі реального світу.

Суб'єктивний досвід

Суб'єктивні переживання або кваліа вважаються важкою проблемою штучної свідомості. Справді, вони існують, щоб представляти проблему для фізикалізму. З іншого боку, є проблеми в інших галузях науки, які обмежують те, що ми можемо спостерігати, наприклад, принцип невизначеності у фізиці, які не роблять дослідження в цих галузях науки неможливим.

Символічні або гібридні пропозиції

Інтелектуальний агент розповсюджувача Франкліна

Стен Франклін[en] (1995, 2003) визначає автономного агента, як володіючого функціональною свідомістю, коли він здатний на кілька функцій свідомості, як це визначено в теорії глобального робочого простору Бернардом Баарсем[en]. Його мозок дитини IAD(Intelligent Agent Distribution) є програмна реалізація GWT, що робить його функціонально свідомим за визначенням. Завдання IAD — це обговорення нових завдань для моряків у ВМФ США після того, як закінчиться чергування, шляхом зіставлення навичкок та переваг кожної людини з урахуванням потреб ВМФ. IAD взаємодіє з базами даних ВМФ і спілкується з моряками через електронну пошту, але підкоряючись великому набору стратегій ВМФ. Обчислювальна модель IAD була розроблена Software Research Group Стена Франкліна в університеті Мемфіса[ru] в 1996–2001. Цей агент складався з приблизно чверть мільйона рядків коду Java, і майже повністю поглинає ресурси 2001 висококласної робочої станції. Ця программа значною мірою спирається на кодекси, які мають спеціальне призначення, відносно незалежних, міні-агентів зазвичай реалізується у вигляді невеликого фрагменту коду працює в окремому потоці. В архітектурі зверху вниз IAD, високого рівня когнітивних функцій явно за зразком (див Франклін 1995 і Франклін 2003 для деталей). Хоча IDA функціонально свідоме за визначенням, Франклін "Не приписував феноменальної свідомості до свого "свідомого « програмного агенту», IAD, незважаючи на її численні людські подібності форм поведінки. І незважаючи на це кілька Detailers ВМС США неодноразово кивали головами кажучи "Так, от як я це роблю, спостерігаючи внутрішні і зовнішні дії IAD, якa виконує своє завдання ".

Когнітивна архітектура CLARION Рона Санса

Архітектура CLARION має дворівнеий вид, що пояснює розходження між свідомими і несвідомими психічними процесами.

CLARION[en] успішна в області бухгалтерського обліку для різних психологічних даних. Відомі навички виконання завдань були змодельовані з використанням CLARION, охоплюють спектр від простих реактивних навичок до складних когнітивних. Завдання включають в себе задачі на серійний час реакції (SRT), завдання на штучну граматику (AGL), задачі на управління процесом (PC), задачі на категоричний висновок (CI), задачі на алфавітну арифметику (AA), і задача про Ханойську Вежу (ToH)(ВС 2002). Серед них, СТО, AGL і PC є типовими неявними завданнями навчання, що також мають відношення до проблеми свідомості, оскільки вони представляють поняття свідомості в контексті психологічних експериментів.

Проект OpenCog Бен Герцель

Бен Герцель проводить втілення AGI через OpenCog проект з відкритим вихідним кодом. Поточний код включає в себе втілення віртуальних домашніх тварин, здатних навчатися простим командам англійською мовою, а також інтеграцію з реальною робототехнікою, що відбувається в Гонконзькому політехнічному університеті.

Нейромережеві пропозиції

Когнітивна архітектура Хаіконена

Пентті Хаіконен (2003) вважає, класичне правило на основі обчислень недостатньо для досягнення штучної свідомості. "Мозок, безумовно, не комп'ютер мислення — не виконання запрограмованих рядків команд, мозок не чисельний калькулятор адже ми не думаємо числами ". Замість того, щоб досягти розуму і свідомісті шляхом визначення і здійснення, що лежать в основі обчислювальних правил, Хаіконен пропонує «спеціальну когнітивну архітектуру[ru]» для відтворення процесів сприйняття, образу, внутріособистісного зв'язку[en], білі, радості, емоцій і пізнання, що стоять за цим. Йдучи знизу вгору архітектурою буде вироблятися високорівнева функція силою елементарних блоків обробки, штучних нейронів, без алгоритмів і програм ". Хаіконен вважає, що при реалізації з достатньою складністю, ця архітектура буде розвивати свідомість, він вважає «стиль і спосіб роботи, характеризується розподіленим представленням сигналу, процес сприйняття, уявлення крос-модальності та доступності для ретроспекції.» Хаіконен не самотній у цьому поданні процесу свідомості, вважає, що штучна свідомість спонтанно виникає в автономних агентів, які мають відповідну нервову архітектуру складності; цю теорію поділяють багато вчених, наприклад, Фріман (1999) та Котеріл (2003). Виконання архітектури низької складності, запропонованої Хаіконеном (2003), як повідомляється, неможливо штучним інтелектом, але це не проявляє емоції, як очікувалося.

Когнітивна архітектура Shanahan

Мюррей Шанахан описує когнітивну архітектуру[ru], яка поєднує в собі ідею Баарсевого[en] глобального робочого механізма для внутрішнього моделювання («уява») (Shanahan 2006). Для обговорення архітектури Shanahan, див (GÁMEZ 2008) та (Reggia 2013) і глави 20 (Haikonen 2012).

Дослідження самосвідомості Такено

Самосвідомість роботів досліджується Дзюн'іті Такено в університеті Мейдзі в Японії. Такено заявляє про те, що він розробив робота, здатного розрізняти між своїм відображенням в дзеркалі і будь-яким іншим, що має ідентичне зображення, і ця вимога вже була розглянута (Такено, Інаба і Suzuki 2005). Такено стверджує, що він вперше створив обчислювальний модуль під назвою монада, що має самосвідомість функції, і тоді він побудував штучну систему свідомості, сформулювавши відносини між емоціями, почуттями і розумом, з'єднуючи модулі в ієрархії (Igarashi, Такено 2007). Такено завершив пізнання експерименту дзеркальнеого зображення за допомогою робота, оснащеного системою монади. Такено запропонував теорію Self-Body про те, що «люди відчувають, що їх власні дзеркальні зображення ближче до себе, ніж актуальна частина себе.» Найбільш важливим моментом у розвитку штучної свідомості або уточнення людської свідомості є розвиток функції самосвідомості, і він стверджує, що він продемонстрував фізичні й математичні докази для цього у своїй дисертації (Такено 2008 [5]). Він також показав, що роботи можуть вчитися епізодам в пам'яті, де були стимульовані емоції і використовувати цей досвід для прогнозування заходів щодо недопущення повторення неприємних емоцій (Torigoe, Такено 2009).

Неможливий розум Олександра

Ігор Олександр[en], почесний професор нейронних системної інженерії Імперського коледжу, вже широко вивчає Штучна нейронна мережа і висловлються у своїй книзі «Неможливі розуми»: Мої нейрони, моя свідомість, що принципи для створення свідомої машини вже існують, але, ще б сорок років, щоб навчати таку машину зрозуміти мову. Чи вірно це ще необхідно довести, і основний принцип, викладений у нездійсненній свідомості — це мозок, який викликає сумніви. [12]

Творча машина Талера

Стівен Тайлер запропонував можливий зв'язок між свідомістю і творчістю в його патенті, під назвою «Пристрій для автономної генерації Корисної інформації» (DAGUI), [2] або так звана «Творча машина», в якій обчислювальні процеси управляються ін'єкцією синаптичного шуму і деградацією в нейронних мережах для того, щоб викликати помилкові спогади, які можуть бути визначені як потенційні ідеї або стратегії. Він використовує цю нейронну архітектуру і методологію для обліку суб'єктивного відчуття свідомості, стверджуючи, що подібні шуми створюють нейронні вузли, що в межах мозку винаходить сумнівні значення загальної активності кори головного мозку. Теорія Талера і патенти в машинобудуванні свідомості були натхненні експериментами, в яких він внутрішньо порушує твердження про нейронні мережі для того, щоб подивитися на послідовність нервових варіантів активації, що він порівнював з потоком свідомості. [3] [14] [15] [16]

Нещодавно [17] він запропонував просте рівняння, яке зв'язує новизну нейронних моделей активації, що виникають в результаті таких DAGUI архітектур і ритм, в якому вони утворюються. З цього співвідношення очевидно, що величина синаптичного шуму є ключовим фактором у визначенні новизни концепції, що виходять з таких нейронних систем. Точно так само він виявив, що у людини потік свідомості мабуть, з цього ж приводу, з утворенням нової концепції, що супроводжує зростання синаптичного шуму. Такий сплеск, швидше за все, проводиться через обсяг нейромедіатора (тобто, адреналінового впуску [18]), викликаного асоціативними ланцюжками нервових модулів, що закінчуються на тих, які кодують екзистенціальні загрози. Так званий «шум» свідомості моделюється за допомогою принципу DAGUI за рахунок використання відносного спокою нервових модулів, які, не явно пов'язують швидкий і лінійний потік свідомості з примітивними чуттєвими сприйманнями, які могли б в буквальному сенсі представляти звуки. Повільні і спазматичні ритми, що характеризують нову думку, наприклад, нові теорії свідомості, легко помітили супутні кіркові мережі через їх швидкість утворення попередніми.

Талер вважає, що мозок, як і архітектури DAGUI, є нейронна державна машина, ґрунтуючи більшу частину своєї теорії на вимірюванні державного обороту обох систем. Він також підтвердив, що свідомість не результат складності, але поступається, що багатство свідомості пропорційна ширині і глибині отриманого досвіду нейронної системи. [14]

Тестування штучної свідомості

Найбільш відомим методом для тестування штучної свідомості є Тест Тюрінга. Але він суперечить принципу теорії залежності спостереження[en]. Крім того, було припущено, що імітаційні рекомендації Алана Тюринга, не до дорослої людської свідомості, а до свідомості дитини, слід приймати всерйоз. [19]

Інші тести, такі як ConsScale, перевіряють наявність ознак наявних біологічним системам, або виміряють когнітивний розвиток штучних систем.

Qualia, або феноменологічна свідомість, по суті перше особливе явище. Хоча різні системи можуть відображати різні ознаки поведінки, немає ніякої думки про те, яким чином тести третьої особи можуть мати доступ до феноменологічних особливостей першої особи. Через це немає ніяких емпіричних визначень свідомості. [20] Тест присутності свідомості в штучному інтелекті не може бути можливим.

Посилання

  • [1] Mental Robotics Parisi, Domenico
  • [2] Thaler, S.L., "Device for the autonomous generation of useful information, " http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%2Fsearch-bool.html&r=1&f=G&l=50&co1=AND&d=PTXT&s1=5659666.PN.&OS=PN/5659666&RS=PN/5659666
  • [3] Thaler, S. L. (1995). «Virtual Input Phenomena» Within the Death of a Simple Pattern Associator, Neural Networks, 8(1), 55-65
  • [4] «Why not artificial consciousness or thought?», Schlagel, R. H., 1999, Minds and Machines, 9(1), 3-28
  • [5] «Minds, brains, and programs», Searle, J. R., 1980, Behavioral and brain sciences, 3(3), 417–457
  • [6] Artificial consciousness: Utopia or real possibility? Buttazzo, Giorgio, July 2001, Computer, ISSN 0018-9162
  • [7] Loebner Prize Contest Official Rules — Version 2.0 The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  • [8] Joëlle Proust in Neural Correlates of Consciousness, Thomas Metzinger, 2000, MIT, pages 307–324
  • [9] Christof Koch, The Quest for Consciousness, 2004, page 2 footnote 2
  • [10] Aleksander 1995
  • [11] Aleksander I (1996) Impossible Minds: My neurons, My Consciousness, Imperial College Press ISBN 1-86094-036-6
  • [12] Wilson RJ (1998) review of Impossible Minds. Journal of Consciousness Studies 5(1), 115-6.
  • [13] Thaler, S. L. (2013)The Creativity Machine Paradigm, Encyclopedia of Creativity, Invention, Innovation, and Entrepreneurship, (ed.) E.G. Carayannis, Springer Science+Business Media, available at http://www.springerreference.com/docs/html/chapterdbid/358097.html
  • [14] Thaler, S. L. (2011). "The Creativity Machine: Withstanding the Argument from Consciousness, " APA Newsletter on Philosophy and Computers
  • [15] Thaler, S. L. (1995). Death of a gedanken creature, Journal of Near-Death Studies, 13(3), Spring 1995
  • [16] Thaler, S. L. (1996). Is Neuronal Chaos the Source of Stream of Consciousness? In Proceedings of the World Congress on Neural Networks, (WCNN'96), Lawrence Erlbaum, Mawah, NJ.
  • [17] Thaler, S. L. (2014). Synaptic Perturbation and Consciousness, Int. J. Mach. Conscious., 06, 75 (2014). DOI: 10.1142/S1793843014400137, available at http://www.worldscientific.com/doi/abs/10.1142/S1793843014400137?src=recsys&&
  • [18] https://en.wikipedia.org/wiki/Neuromodulation
  • [19] [1], Mapping the Landscape of Human-Level Artificial General Intelligence
  • [20] «Consciousness». In Honderich T. The Oxford companion to philosophy. Oxford University Press. ISBN 978-0-19-926479-7
  1. Thaler, S. L. (1998). The emerging intelligence and its critical look at us. Journal of Near-Death Studies. 17 (1). doi:10.1023/A:1022990118714.
  2. Graziano, Michael (2013). Consciousness and the Social Brain. Oxford University Press. ISBN 978-0199928644.
  3. Artificial Intelligence: A Modern Approach includes the philosophical foundations of AI including the questions of consciousness http://aima.cs.berkeley.edu/contents.html, Russell, Stuart J., Norvig, Peter, 2003, Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2