Теорія алгоритмів

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

Теорія алгоритмів (англ. Theory of computation) — окремий розділ математики, що вивчає загальні властивості алгоритмів. Виникла в 30-х роках 20 століття.

Алгоритми, проте, простежуються в математиці протягом всього часу її існування. Необхідність точного математичного уточнення інтуїтивного поняття алгоритму стала неминучою після усвідомлення неможливості існування алгоритмів розв'язку багатьох масових проблем, в першу чергу пов'язаних з арифметикою та математичною логікою (проблеми істинності арифметичних формул та формул першопорядкового числення предикатів, 10-та проблема Гільберта про розв'язність діофантових рівнянь та ін.). Для доведення неіснування алгоритму треба мати його точне математичне визначення, тому після сформування поняття алгоритму як нової та окремої сутності першочерговою стала проблема знаходження адекватних формальних моделей алгоритму та дослідження їх властивостей. При цьому формальні моделі були запропоновані як для первісного поняття алгоритму, так і для похідного поняття алгоритмічно обчислюваної функції.

Історія розвитку[ред.ред. код]

Вперше поняття алгоритму з'явилося в працях Е. Бореля (1912) та Г. Вейля (1921).

Першими формальними моделями алгоритмічно обчислюваних функцій були λ-означувані функції (Алонзо Черч, 1932) та загальнорекурсивні функції (Курт Гедель, 1934). Вказані класи визначались як функції, графіки яких породжуються відповідно численням λ-конверсій та численням Ербрана-Геделя. В 1936 році Стівен Коул Кліні поширив поняття загальнорекурсивної функції на випадок часткових функцій, ввівши поняття частково рекурсивної функції, та описав клас таких функцій в чисто функціональних термінах. В 1943 році Еміль Пост запропонував модель обчислюваних функцій на основі введеного ним числення спеціального вигляду (канонічних систем).

Для формалізації самого поняття алгоритму були запропоновані точні математичні описи алгоритмічної машини та обчислюваності на ній. Першою формальною моделлю алгоритмічної машини була машина Тюрінга (Алан Тюрінг, Еміль Пост, 1936). Із пізніших моделей відзначимо нормальні алгоритми (А. Марков, І952) та регістрові машини (Д. Шепердсон, Г. Стерджіс, 1963).

В 1936 р.А. Черч та С. Кліні довели збіг класів загально-рекурсивних та λ-означуваних функцій. На основі цього факту та аналізу ідей, які привели до вказаних понять, А. Черч висунув тезу про збіг класу АОФ з класом загальнорекурсивних функцій. С. Кліні узагальнив цю тезу для випадку часткових функцій. Доведений А. Тьюрінгом в 1937 р. збіг класів частково рекурсивних функцій та функцій, обчислюваних на машинах Тюрінга, стало ще одним підтвердженням тези Черча. Пізніше такі збіги були встановлені для всіх відомих формальних моделей АОФ. Тому є всі підстави вважати, що кожна із названих вище формальних моделей адекватно уточнює інтуїтивне поняття АОФ.

Теорія алгоритмів виникла як розділ математичної логіки, поняття алгоритму тісно пов'язане з поняттям числення. Перші та найчисельніші застосування теорія алгоритмів має саме в математичній логіці. Теорія алгоритмів є теоретичним фундаментом програмування, вона має застосування всюди, де зустрічаються алгоритмічні проблеми (основи математики, теорія інформації, теорія керування, конструктивний аналіз, обчислювальна математика, теорія ймовірності, лінгвістика, економіка та ін.).

Основні поняття теорії алгоритмів[ред.ред. код]

Областю застосовності алгоритму називається сукупність тих об'єктів, до яких його можна застосувати, тобто в застосуванні до яких він дає результат. Про алгоритм U кажуть, що він: 1) «обчислює функцію f», коли його область застосування збігається з областю визначення f, і U перетворює будь-який х зі своєї області застосування в f(х); 2) «розв'язує множину A відносно множини X», коли він застосовується до будь-якого х з X, і перетворює будь-який х з X∩A на слово «так», а будь-який х з Х\А — на слово «ні»; 3) «перераховує множину B», коли його область застосування є натуральний ряд, а сукупність результатів є B. Функція наз. обчислюваною, якщо існує алгоритм, що її обчислює. Множина називається розв'язною відносно X, якщо існує алгоритм, що розв'язує її відносно X. Множина наз. перераховуваною, якщо або вона порожня, або існує перераховуючий її алгоритм.

Детальний аналіз поняття «алгоритм» виявляє, що (I) область можливих вихідних даних і область застосовності будь-якого алгоритму є перераховуваними множинами. Своєю чергою, (II) для будь-якої пари вкладених одна в другу перераховуваних множин можна підібрати алгоритм, у якого більша множина слугує областю можливих вихідних даних, а менша — областю застосовності. Мають місце такі основні теореми: (III) функція f обчислювана тоді і тільки тоді, коли перераховуваний її графік, тобто множина всіх пар вигляду <х, f(x)>. (IV) Підмножина А перераховуваної множини X тоді і тільки тоді розв'язна відносно X, коли А і X\A перераховувані. (V) Якщо А і В перераховувані, то A об'єднати B і A∩B також перераховувані. (VI) В кожній нескінченній перераховуваній множині X існує перераховувана підмножина з неперераховуваним доповненням (в силу (IV) ця перераховувана підмножина буде нерозв'язною відносно X). (VII) Для кожної нескінченної перераховуваної множини X існує обчислювана функція, визначена на підмножині цієї множини і яка не продовжувана до обчислюваної функції, визначеної на всій X. Твердження (VI) і (II) в сукупності дають приклад алгоритму з нерозв'язною областю застосовуваності.

Розв'язні і перераховувані множини складають найпростіші (і найважливіші) приклади множин, структура яких задається за допомогою тих чи тих алгоритмічних процедур. Систематичне вивчення множин конструктивних об'єктів з точки зору таких властивостей цих множин, які зв'язані з наявністю тих чи тих алгоритмів, утворює так звану алгоритмічну теорію множин.

Теорію алгоритмів можна розділити на дескриптивну (якісну) і метричну (кількісну). Перша досліджує алгоритми з точки зору встановлюваної ними відповідності між вихідними даними і результатами; до неї належать, зокрема, проблеми побудови алгоритму, що йому властиві ті чи ті властивості,— алгоритмічні проблеми. Друга досліджує алгоритми з точки зору складності як самих алгоритмів, так і обчислень, що ними задаються, тобто процесів послідовного перетворення конструктивних об'ектів (див. Складність алгоритму). Важливо підкреслити, що як складність алгоритмів, так і складність обчислень можуть визначатися різними способами. Розробка методів оцінки складності алгоритмів і обчислень має важливе теоретичне і практичне значення.

Формалізація поняття алгоритму[ред.ред. код]

Серед інших поширених математичних моделей алгоритмів можна назвати[1]:

Моделі обчислень[ред.ред. код]

  • Машина Тьюринга - абстрактний виконавець (абстрактна обчислювальна машина). Була запропонована Аланом Тьюрингом в 1936 році для формалізації поняття алгоритму. Машина Тьюринга є розширенням кінцевого автомата і, згідно з тезою Черча - Тьюринга, здатна імітувати всі інші виконавці (за допомогою завдання правил переходу), будь-яким чином реалізують процес покрокового обчислення, в якому кожен крок обчислення досить елементарний.
  • Лямбда-числення - розглядається пара - λ-вираз і його аргумент, - а обчисленням вважається застосування, або аппліцирування, першого члена пари до другого. Це дозволяє відокремити функцію і те, до чого вона застосовується. У більш загальному випадку обчисленням вважаються ланцюжки, що починаються з вихідного λ-виразу, за яким слідує кінцева послідовність λ-виразів, кожне з яких виходить з попереднього застосування β-редукції, тобто правила підстановки.
  • Комбінаторна логіка - трактування обчислення подібне до λ-обчислень, але є і важливі відмінності (наприклад, комбінатор нерухомої точки Y має нормальну форму в комбінаторній логіці, а в λ-численні - не має). Комбінаторна логіка була спочатку розроблена для вивчення природи парадоксів і для побудови концептуально ясних підстав математики, причому уявлення про змінну виключалося зовсім, що допомагало прояснити роль і місце змінних в математиці.
  • RAM-машина - абстрактна обчислювальна машина, що моделює комп'ютер з довільним доступом до пам'яті. Саме ця модель обчислень найбільш часто використовується при аналізі алгоритмів.

Теза Черча - Тьюринга і алгоритмічно нерозв'язні проблеми[ред.ред. код]

Алан Тьюринг висловив припущення (відоме як Теза Черча - Тьюринга), що будь-який алгоритм в інтуїтивному сенсі цього слова може бути представлений еквівалентною машиною Тьюринга. Уточнення уявлення про обчислюваності на основі поняття машини Тьюринга (і інших аналогічних їй понять) відкрило можливості для суворого доказу алгоритмічної нерозв'язності різних масових проблем (тобто проблем про знаходження єдиного методу рішення деякого класу задач, умови яких можуть змінюватися в певних межах). Найпростішим прикладом алгоритмічно нерозв'язної масової проблеми є так звана проблема застосовності алгоритму (звана також проблемою зупинки). Вона полягає в наступному: потрібно знайти спільний метод, який дозволяв би для довільної машини Тьюринга (заданої за допомогою своєї програми) і довільного початкового стану стрічки цієї машини визначити, чи завершиться робота машини за кінцеве число кроків, або ж буде тривати необмежено довго.

Протягом першого десятиліття історії теорії алгоритмів нерозв'язні масові проблеми були виявлені лише всередині самої цієї теорії (сюди відноситься описана вище проблема застосовності), а також всередині математичної логіки (проблема виводу в класичному численні предикатів). Тому вважалося, що теорія алгоритмів є узбіччя математики, що не має значення для таких її класичних розділів, як абстрактна алгебра або математичний аналіз. Положення змінилося після того, як А. А. Марков і Е. Л. Пост в 1947 році встановили алгоритмічну нерозв'язність відомої в алгебрі проблеми рівності для кінцево-створених і кінцево-визначених напівгруп (т. Н. Проблеми ТУЕ). Згодом було встановлено алгоритмічна нерозв'язність і багатьох інших «чисто математичних» масових проблем. Одним з найбільш відомих результатів в цій області є доведена Ю. В. Матіясевіч алгоритмічна нерозв'язність десятої проблеми Гільберта.

Застосування теорії алгоритмів[ред.ред. код]

У всіх областях математики, в яких зустрічаються алгоритмічні проблеми. Такі проблеми виникають практично в усіх розділах математики. В математичній логіці для кожної теорії формулюється проблема розв'язування множини всіх істинних або довідних тверджень цієї теорії відносно множини всіх її пропозиції (теорії поділяються на розв'язні і нерозв'язні в залежності від розв'язності або нерозв'язності вказаної проблеми); у 1936 р. А. Черч встановив нерозв'язність проблеми розв'язності для множини всіх істинних пропозицій логіки предикатів, подальші важливі результати в цьому напрямі належать А. Тарському, А. І. Мальцеву та інші. Нерозв'язні алгоритмічні проблеми зустрічаються в алгебрі (проблема тотожності для напівгруп і, зокрема, для груп; перші приклади напівгруп з нерозв'язною проблемою тотожності були винайдені в 1947 р. незалежно А. А. Марковим і Е. Постом, а приклад групи з нерозв'язною проблемою тотожності — в 1952 р. П. С. Новіковим); в топології (проблема гомеоморфії, нерозв'язність якої для важливого класу випадків була доведена в 1958 р. А. А. Марковим); в теорії чисел (проблема розв'язності діофантових рівнянь, нерозв'язність якої була встановлена в 1970 р. Ю. В. Матіясевичем) та в інших розділах математики.

Теорія алгоритмів тісно зв'язана:

Сучасний стан теорії алгоритмів[ред.ред. код]

В даний час теорія алгоритмів розвивається, головним чином, за трьома напрямками.

  • Класична теорія алгоритмів вивчає проблеми формулювання завдань в термінах формальних мов, вводить поняття завдання дозволу, проводить класифікацію задач за класами складності (P, NP і ін.).
  • Теорія асимптотичного аналізу алгоритмів розглядає методи отримання асимптотичних оцінок ємності або часу виконання алгоритмів, зокрема, для рекурсивних алгоритмів. Асимптотичний аналіз дозволяє оцінити зростання потреби алгоритму в ресурсах (наприклад, часу виконання) зі збільшенням обсягу вхідних даних.
  • Теорія практичного аналізу обчислювальних алгоритмів вирішує завдання отримання явних функції трудомісткості, інтервального аналізу функцій, пошуку практичних критеріїв якості алгоритмів, розробки методики вибору раціональних алгоритмів.

Аналіз трудомісткості алгоритмів[ред.ред. код]

Метою аналізу трудомісткості алгоритмів є знаходження оптимального алгоритму для вирішення даного завдання. Як критерій оптимальності алгоритму вибирається трудомісткість алгоритму, що розуміється як кількість елементарних операцій, які необхідно виконати для вирішення задачі за допомогою даного алгоритму. Функцією трудомісткості називається відношення, що зв'язують вхідні дані алгоритму з кількістю елементарних операцій.

Трудомісткість алгоритмів по-різному залежить від вхідних даних. Для деяких алгоритмів трудомісткість залежить тільки від обсягу даних, для інших алгоритмів - від значень даних, в деяких випадках порядок надходження даних може впливати на трудомісткість. Трудомісткість багатьох алгоритмів може в тій чи іншій мірі залежати від всіх перерахованих вище факторів.

Одним з спрощених видів аналізу, що використовуються на практиці, є асимптотичний аналіз алгоритмів. Метою асимптотичного аналізу є порівняння витрат часу та інших ресурсів різними алгоритмами, призначеними для вирішення однієї і тієї ж задачі, при великих обсягах вхідних даних. Використовувана в асимптотичному аналізі оцінка функції трудомісткості, звана складністю алгоритму, дозволяє визначити, як швидко зростає трудомісткість алгоритму зі збільшенням обсягу даних. У асимптотичному аналізі алгоритмів використовуються позначення, прийняті в математичному асимптотичному аналізі. Нижче перераховані основні оцінки складності.

Основною оцінкою функції складності алгоритму f(n) є оцінка . Тут n - величина обсягу даних або довжина входу. Ми говоримо, що оцінка складності алгоритму

якщо при g > 0 при n > 0 існують додатні с1, с2, n0, такі, що:

при n > n0, інакше кажучи, можна знайти такі с1 і c2, що при достатньо великих n f(n) буде знаходитьсь між

і .

У такому випадку говорять ще, що функція g(n) є асимптотично точною оцінкою функції f(n), так як за визначенням функція f(n) не відрізняється від функції g(n) з точністю до постійного множника. Наприклад, для методу сортування heapsort оцінка трудомісткості становить

то є

Із випливає, що .

Важливо розуміти, що представляє собою не функцію, а безліч функцій, що описують зростання з точністю до постійного множника.

дає одночасно верхню і нижню оцінки зростання функції. Часто буває необхідно розглядати ці оцінки окремо. Оцінка представляє собою верхню асимптотичну оцінку трудомісткості алгоритму. Ми говоримо, що якщо

Інакше кажучи, запис означає, що f(n) належить класу функцій, що ростуть не швидше, ніж функція g(n) з точністю до постійного множника.

Оцінка задає нижню асимптотичну оцінку зростання функції f(n) і визначає клас функцій, які ростуть не повільніше, ніж g(n) з точністю до постійного множника. якщо

Наприклад, запис позначає клас функцій, які ростуть не повільніше, ніж , в цей клас потрапляють всі поліноми зі ступенем більшої одиниці, так само як і всі статичні функції з повним правом великої одиниці. Рівність виконується тоді і тільки тоді, коли і .

Асимптотичний аналіз алгоритмів має не тільки практичне, але і теоретичне значення. Так, наприклад, доведено, що всі алгоритми сортування, засновані на попарному порівнянні елементів, відсортують n елементів за час, не менше .

Важливу роль у розвитку асимптотичного аналізу алгоритмів зіграли A. Ахо, Дж. Ульман, Дж. Хопкрофта.

Класи складності[ред.ред. код]

В рамках класичної теорії здійснюється класифікація завдань за класами складності (P-складні, NP-складні, експоненціально складні і ін.). До класу P відносяться завдання, які можуть бути вирішені за час, залежне від обсягу вихідних даних, за допомогою детермінованої обчислювальної машини (наприклад, машини Тьюринга), а до класу NP - завдання, які можуть бути вирішені за виражений час за допомогою недетермінованої обчислювальної машини, тобто машини, наступний стан якої не завжди однозначно визначається попередніми. Роботу такої машини можна уявити як розгалужується на кожній неоднозначності процесу: завдання вважається вирішеним, якщо хоча б одна гілка процесу прийшла до відповіді. Інше визначення класу NP: до класу NP відносяться завдання, вирішення яких за допомогою додаткової інформації довжини, даної нам згори, ми можемо перевірити за поліноміальний час. Зокрема, до класу NP відносяться всі завдання, вирішення яких можна перевірити за поліноміального часу. Клас P міститься в класі NP. Класичним прикладом NP-задачі є задача про комівояжера.

Оскільки клас P міститься в класі NP, приналежність того чи іншого завдання до класу NP часто відображає наше поточне уявлення про способи вирішення даного завдання і носить неостаточний характер. У загальному випадку немає підстав вважати, що для того чи іншого NP-завдання не може бути знайдено P-рішення. Питання про можливість еквівалентності класів P і NP (тобто про можливість знаходження P-рішення для будь-якої NP-задачі) вважається одним з основних питань сучасної теорії складності алгоритмів. Відповідь на це питання не знайдена досі. Сама постановка питання про еквівалентність класів P і NP можлива завдяки введенню поняття NP-повних задач. NP-повні задачі складають підмножина NP-задач і відрізняються тією властивістю, що все NP-завдання можуть бути тим чи іншим способом зведені до них. З цього випливає, що якщо для NP-повної задачі буде знайдено P-рішення, то P-рішення буде знайдено для всіх завдань класу NP. Прикладом NP-повної задачі є задача про кон'юнктивні форми.

Дослідження складності алгоритмів дозволили по-новому поглянути на вирішення багатьох класичних математичних задач і знайти для ряду таких завдань (множення многочленів і матриць, рішення лінійних систем рівнянь і ін.) Рішення, які вимагають менше ресурсів, ніж традиційні.

Математичні додатки теорії алгоритмів[ред.ред. код]

  1. Дослідження масових проблем.
  2. Додатки до підстав математики: конструктивна семантика.
  3. Додатки до математичної логіки: аналіз формалізованих мов логіки і арифметики.
  4. Обчислюваності аналіз.
  5. Нумеровані структури.
  6. Додатки до теорії ймовірностей: визначення випадкової послідовності.
  7. Додатки до теорії інформації: алгоритмічний підхід до поняття кількості інформації.
  8. Оцінки складнощів рішення окремих завдань.
  9. Вплив теорії алгоритмів на алгоритмічну практику.

Примітки[ред.ред. код]

  1. Burgin, M. S. (2005). 2.2 Mathematical models of algorithms and why we need them. Super-recursive algorithms. Monographs in computer science. New York, NY: Springer. ISBN 978-0-387-95569-8. 
  2. Petri, C. (1962). Kommunikation mit Automaten, Ph.D. Dissertation, University of Bonn, Bonn, Germany.
  3. Zervos, C. (1977). Colored Petri Nets: Their Properties and Applications, Technical Report 107, System Engineering Laboratory, University of Michigan, Ann Arbor, Michigan.
  4. Valk, R. (1978). Self-Modifying Nets — A Natural Extension of Petri Nets, in Automata, Languages, and Programming, Lecture Notes in Computer Science, 62, Springer-Verlag, New York, Berlin.
  5. V. Pratt, M. Rabin, L. Stockmeyer, A charaterization of the power of vector machines, Proc. SToC 74, pp. 122—134
  6. а б McCulloch, W.S. and Pitts, E. (1943). A logical calculus of the ideas immanent in nervous activity, Bulletin of Mathematical Biophysics, v. 5, pp. 115—133.
  7. von Neumann, J. (1966). Theory of Self-Reproducing Automata, 1949 University of Illinois Lectures on the Theory and Organization of Complicated Automata, edited and completed by Arthur W. Burks. Urbana, University of Illinois Press.
  8. Kolmogorov, A.N. (1953). On the concept of algorithm, Russian Mathematical Surveys, v. 8, no. 4, pp. 175—176.
  9. 1958 г. июль—август т. XIII, вып. 4 (82) УСПЕХИ МАТЕМАТИЧЕСКИХ НАУК. К ОПРЕДЕЛЕНИЮ АЛГОРИТМА А. Н. Колмогоров и В. А. Успенский http://lpcs.math.msu.su/~uspensky/bib/Uspensky_1958_UMN_Kolmogorov_Opredelenie_algoritma.pdf
  10. Mealy, G.H. (1953). A method for synthesizing sequential circuits, Bell System Techn. J., v. 34, pp. 1045—1079.
  11. Kleene, S.C. (1956). Representation of events in nerve nets, Automata Studies, Princeton University Press, Princeton, NJ, pp. 3–41.
  12. Moore, E.F. (1956). Gedanken-experiments on sequential machines, in Automata Studies, Princeton University Press, Princeton, NJ, pp. 129—153.
  13. Rabin, M.O. and Scott, D. (1959). Finite automata and their decision problems, IBM Journal of Research and Development, v. 3, pp. 114—125.
  14. Minsky, Marvin (1967). Computation: finite and infinite machines. Englewood Cliffs, NJ: Prentice-Hall. ISBN 978-0-13-165563-8. 
  15. Shönhage, A. (1980). Storage modification machines, SIAM Journal on Computing, v. o 9, pp. 490—508.
  16. Shepherdson, J.C. and Sturgis, H.E. (1963). Computability of recursive functions, Journal of the ACM, v. 10, no. 2, pp. 217—255.
  17. Elgot, C.C. and Robinson, A. (1964). Random-access stored-program machines, an approach to programming languages, J. Assoc. Comput. Mach., 11, pp. 365—399.
  18. Van Leeuwen, J. and Wiedermann, J. (1985). Array Processing Machines, in Fundamentals of Computation Theory, Lecture Notes in Computer Science, 199, Springer-Verlag, New York, Berlin, pp. 99–113.
  19. Бургин М.С, А. Ю. Карасик. Исследование одной абстрактной модели вычислительных систем // Программирование. — 1975. — № 1. — С. 72–82. http://www.mathnet.ru/php/archive.phtml?wshow=paper&jrnid=at&paperid=8035&option_lang=rus
  20. Burgin, M. and Karasik, A. (1976). Operators of multidimensional structured model of parallel computations, Automation and Remote Control, v. 37, no. 8, pp. 1295—1300.
  21. Kung, H.T. and Leiserson, C.E. (1979). Systolic arrays (for VLSI), in Sparse Matrix Proc. (Society for Industrial and Applied Mathematics), pp. 256—282.
  22. Dymond, P.W. and Cook, S.A. (1989). Complexity theory of parallel time and hardware, Information and Computation, v. 80, pp. 205—226.
  23. Emil Post, "Formal Reductions of the General Combinatorial Decision Problem, " American Journal of Mathematics 65 (2): 197—215, 1943.
  24. А. А. Марков, «Теория алгорифмов», Тр. МИАН СССР, 42, Изд-во АН СССР, М.–Л., 1954, 3–375 http://mi.mathnet.ru/tm1178
  25. Chomsky, N. (1956). Three models for the description of language, IRE Trans. On Information Theory, v. 2, no. 3, pp. 113—124.
  26. Backus, J.W. (1959). The Syntax and Semantics of the Proposed International Algebraic Language of the Zurich ACM-GAMM Conference, Proc. Internat. Conf on Information Processing, UNESCO, pp. 125—132.
  27. Naur, P., et al. (1960). Report on the algorithmic language ALGOL 60, Communications of the ACM, v. 3, no. 5, pp. 299—314.

Посилання[ред.ред. код]

Література[ред.ред. код]

Українською
  • Л. М. Клакович, С. М. Левицька Теорія алгоритмів: Навчальний посібник. — Друге видання, доповнене. — Львів : Видавничий центр ЛНУ ім. Івана Франка, 2015. — 161 с. — ISBN 9786171002302. (укр.)
  • «Енциклопедія кібернетики», відповідальний ред. В. Глушков, 2 тт., 1973. (укр.)
Іншими мовами
  • Michael Sipser Introduction to the Theory of Computation. — Boston : PWS Publishing Company, 1997. — 387 с. — ISBN 0-534-94728-X. (англ.)
  • Вейль Г., О философии математики, пер. с нем., М.— Л., 1934;
  • Марков А. А., Нагорный Н. М., Теория алгоритмов, М., 1984;
  • Мальцев А. И., Алгоритмы и рекурсивные функции, М., 1965;
  • Роджерс X., Теория рекурсивных функций и эффективная вычислимость, пер. с англ., М., 1972;
  • Успенский В. А., Машина Поста, М., 1979; его же, Теорема Гёделя о неполноте, М., 1982;
  • Проблемы математической логики. Сложность алгоритмов и классы вычислимых функций. Сб. переводов, М., 1970;
  • Колмогоров А. Н., «Проблемы передачи информации», 1965, т. 1, № 1, с. 3—11;
  • Алгоритмы в современной математике и ее приложениях, ч. 1—2, Новосиб., 1982;
  • Успенский В. А., Семенов А. Л., «Квант», 1985, № 7, с. 9—15.

Див. також[ред.ред. код]