Китайська кімната

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

Китайська кімната — уявний експеримент, описаний Джоном Серлем, в якому критикується можливість моделювання людського розуміння природної мови, створення так званого «сильного штучного інтелекту». Зокрема є критикою тесту Тюрінга.

Був запропонований в 1980 році в статті «Minds, Brains, and Programs» («Розуми, мізки і програми»).

Уявний експеримент[ред.ред. код]

У популярній статті «Is the Brain's Mind a Computer Program?» («Чи є мозкове мислення комп'ютерною програмою?»), опублікованій у 1990 році, Серль описує експеримент таким чином:

«

Візьмемо, наприклад, яку-небудь мову, якої ви не розумієте. Для мене такою мовою є китайська. Текст, написаний китайською, я сприймаю як набір безглуздих каракулів. Тепер припустимо, що мене помістили в кімнату, в якій розставлені кошики, повні китайських ієрогліфів. Припустимо також, що мені дали підручник англійською мовою, в якому наводяться правила поєднання символів китайської мови, причому правила ці можна застосовувати, знаючи лише форму символів, розуміти значення символів зовсім необов'язково. Наприклад, правила можуть твердити: «Візьміть такий-то ієрогліф з кошика номер один і помістіть його поряд з таким-то ієрогліфом з кошика номер два».

Уявімо собі, що люди, які перебувають за дверима кімнати і розуміють китайську мову, передають у кімнату набори символів, і що у відповідь я маніпулюю символами відповідно до правил і передаю назад інші набори символів. У цьому випадку книга правил є не що інше, як «комп'ютерна програма». Люди, які написали її, - «програмісти», а я граю роль «комп'ютера». Кошики, наповнені символами, - це «база даних»; набори символів, що передаються до кімнати, це «питання», а набори, що виходять з кімнати, це «відповіді».

Припустимо далі, що книга правил написана так, що мої «відповіді» на «питання» не відрізняються від відповідей людини, яка вільно розмовляє китайською мовою. Наприклад, люди, що знаходяться зовні, можуть передати незрозумілі мені символи, що означають: «Який колір вам більше всього подобається?» У відповідь, виконавши запропоновані правилами маніпуляції, я видам символи, на жаль, мені також незрозумілі, що означають, що мій улюблений колір синій, але мені насправді подобається зелений. Таким чином, я витримаю тест Тюрінга на розуміння китайської мови. Але все ж насправді я не розумію ані слова китайською. До того ж, я ніяк не можу навчитися цій мові у розглянутій системі, оскільки не існує жодного способу, за допомогою якого я міг би довідатися сенс хоча б одного символу. Подібно до комп'ютера, що маніпулює символами, але не може вкласти в них жодного змісту.

 »

Формалізація[ред.ред. код]

В 1984 році Джон Серль формулює свою ідею більш формалізовано. Він розглядає наступні передумови:

  • Передумова 1: Мозок породжує розум.
  • Передумова 2: Синтаксису недостатньо для існування семантики.
  • Передумова 3: Комп'ютерна програма повністю визначається своєю синтаксичною структурою.
  • Передумова 4: Людський розум оперує смисловим змістом (семантикою).

І робить висновки:

  • Висновок 1: Програми не є сутністю розуму і їх наявності недостатньо для наявності розуму.
  • Висновок 2: Той спосіб, за допомогою якого людський мозок насправді породжує ментальні явища, не може зводитися лише до виконання комп'ютерної програми.
  • Висновок 3: Те, що породжує розум, повинно мати принаймні причинно-наслідкові властвості, еквівалентні відповідним властивостям мозку.

Дискусія[ред.ред. код]

Уявний експеримент викликав інтенсивну дискусію серед учених. Існують різні аргументи проти результатів, отриманих Серлем:

  • Деякі критики вважають, що тест Тюрінга витримує не людина, а система, що складається з кімнати, книги правил і людини. Серль, на їхню думку, відволікає увагу від цього факту, концентруючись на одному з компонентів системи, що виконує в даному випадку чисто механічну роботу. Система з книги правил, людини і кімнати, на їхню думку, є розумною і розуміє китайську мову.
  • Інша думка полягає в тому, що жодної семантики не існує в принципі: все, що відбувається в мозку, всього лише маніпулювання синтаксисом, яке здійснюється і в комп'ютерах.
  • На думку Станіслава Лема [1], розуміння у самій "китайської кімнаті " дійсно не існує, але воно є в мозку її творця — того, хто розробив систему правил поводження з ієрогліфами для учасника експерименту. «Робота завжди асемантично формальна», і це не може бути підставою говорити про відсутність розуміння. Автор експерименту повинен був заздалегідь передбачити всі комбінації питань і відповідей або придумати принцип добору відповіді на запитання. У реальних умовах при створенні передбачуваного штучного інтелекту навряд чи таке буде можливо.

Література[ред.ред. код]

  • Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417—457 (Джон Серль, Стаття «Розум, мозок і програми», 1980)
  • Джон Серль, книга «Minds, Brains, and Science» («Розуми, мізки і наука», 1984)
  • Стать М. Черчленд і Патріція Сміт Черчленд («Чи може машина мислити?», «У світі науки», 1990, № 3, с. 14)
  • Searle, John. R. Is the Brain's Mind a Computer Program. Scientific American, Jan. 1990, pp. 26-31 (Джон Сирл, стаття «Розум мозку - комп'ютерна програма ?» (рос.) «У світі науки», 1990, № 3 , с. 7-13)

Примітки[ред.ред. код]

  1. Станіслав Лем, стаття «Таємниця китайської кімнати» (Лем С. " Молох ", М:. АСТ: Транзіткніга, 2005, с.246-255)