Історія штучного інтелекту

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Істо́рія шту́чного інтеле́кту (ШІ, англ. artificial intelligence, AI) почалася у стародавньому світі, з міфів, оповідань та чуток про створення штучних істот, яких майстри обдарували розумом чи свідомістю. Зерна сучасного ШІ заклали філософи, які намагалися описати процес людського мислення як механічне маніпулювання символами. Ця робота досягла найвищої точки винайденням у 1940-х роках програмованого цифрового комп'ютера, машини, що ґрунтується на абстрактній сутності математичного міркування. Цей пристрій та ідеї в його основі надихнули невелику групу науковців почати серйозно обговорювати можливість побудови електронного мозку.

Алан Тюрінг був першим, хто здійснив істотні дослідження в галузі, яку він називав машинним інтелектом (англ. Machine Intelligence).[1] Галузь дослідження ШІ заснували на семінарі[en], проведеному в кампусі Дартмутського коледжу в США влітку 1956 року.[2] Ті, хто відвідали той семінар, стали лідерами досліджень у галузі ШІ на десятиліття вперед. Багато хто з них прогнозували, що машина з інтелектом, рівносильним людському, з'явиться не більше, ніж за покоління, і їм виділили мільйони доларів для втілення цього бачення.[3]

З часом стало очевидно, що дослідники дуже сильно недооцінили складність цього проєкту.[4] 1974 року, у відповідь на критику з боку Джеймса Лайтгілла та під тиском конгресу, уряди США та Великої Британії припинили фінансування неспрямованих досліджень щодо штучного інтелекту, і наступні складні роки стали відомі як «зима ШІ». Сім років потому візіонерська ініціатива японського уряду надихнула уряди та промисловість надавати ШІ мільярди доларів, але до кінця 1980-х років ці інвестори розчарувалися і знову відкликали фінансування.

Інвестиції та інтерес до ШІ зазнали буму в 2020-х роках, коли до багатьох задач науки та промисловості стали успішно застосовувати машинне навчання завдяки новим методам, використанню потужного обчислювального обладнання, та збиранню величезних наборів даних.

Предтечі

[ред. | ред. код]

Міфічні, фантастичні, та гіпотетичні предтечі

[ред. | ред. код]

Міфи та легенди

[ред. | ред. код]

У грецькій міфології Тал був гігантом, зробленим із бронзи, який був сторожем острова Крит. Він кидав валуни в кораблі загарбників та щоденно здійснював 3 обходи навколо периметра острова.[5] За даними «Бібліотеки» Псевдо-Аполлодора, Гефест викував Тала за допомогою циклопів і подарував цього автоматона Міносу.[6] В «Аргонавтиці» Ясон з аргонавтами перемогли його, витягнувши єдиний штир, розташований біля його стопи, який, бувши вийнятим, дозволив витекти життєдайному іхору з його тіла, залишивши його бездіяльним.[7]

Пігмаліон у грецькій міфології був легендарним царем і скульптором, найвідомішим завдяки «Метаморфозам» Овідія. У 10-й книзі повісті Овідія Пігмаліон починає гидувати жінками після того, як стає свідком проституції Пропоетид[en].[8] Незважаючи на це, він приносить жертви до храму Венери й благає богиню дату йому жінку, точно таку, як скульптура, яку він вирізьбив.

Середньовічні легенди про штучні створіння

[ред. | ред. код]
Зображення гомункула з «Фауста» Гете

У творі «Про природу речей», написаному швейцарським алхіміком Парацельсом, описано процедуру, яка, за його твердженням, дозволяє створити «штучну людину». Якщо помістити «чоловічу сперму» до кінського гною, й годувати її «Таємницею людської крові» протягом 40 днів, це місиво стане живим немовлям.[9]

Найраніша писемна згадка про створення голема зустрічається у творах Елеазара бен Юда Вормського[en] на початку XIII століття.[10][11][сторінка?] У середньовіччі вважали, що оживлення Голема можливо досягти, вставивши до рота глиняної фігури аркуш паперу з будь-яким з імен бога.[12] На відміну від легендарних автоматів, таких як Бронзові голови[en],[13] Голем розмовляти не міг.[14]

Таквін[en], штучне живе створення, було частою темою алхімічних рукописів ісмаїлітів, особливо тих, які приписувалися Джабіру ібн Хаяну. Ісламські алхіміки у своїй роботі намагалися створити різноманітні форми життя, від рослин до тварин.[15]

У творі «Фауст: Друга частина трагедії[en]» Йоганна Вольфганга фон Гете створений алхімічно гомункул, призначений жити вічно у флаконі, в якому його створили, намагається народитися в повному людському тілі. Проте під час цього перетворення флакон розбивається, і гомункул гине.[16]

Сучасна фантастика

[ред. | ред. код]

Ідеї про штучних людей і мислячі машини розвинулися у фантастиці вже на початку XIX століття, наприклад, у «Франкенштейні» Мері Шеллі та «Р. У. Р. (Россумових Універсальних Роботах)» Карела Чапека,[17] а також у гіпотезах, як у «Дарвіні серед машин» Семюеля Батлера,[18] і реальних випадках, включно з «Шахістом Мельцеля[en]» Едгара Аллана По.[19] ШІ залишається популярною темою у фантастиці й досі.[20]

Автомати

[ред. | ред. код]
Докладніше: Автомат (техніка)
Програмовані автомати Аль-Джазарі[en] (1206 рік)

Реалістичні гуманоїдні автомати створювали ремісники кожної з цивілізацій, зокрема, Янь Ші[en],[21] Герон Александрійський,[22] Аль-Джазарі[en],[23] П'єр Жаке-Дро[en] й Вольфганг фон Кемпелен[en].[24][25]

Найстародавнішими відомими автоматами були священні статуї стародавнього Єгипту та Греції.[26] Віряни вважали, що ремісники наділи ці фігури справжніми розумами, здатними до мудрості й почуттів. Гермес Трисмегіст писав, що «відкривши справжню природу богів, людина змогла її відтворити».[27][28] Англійський учений Александр Некем[en] стверджував, що давньоримський поет Вергілій побудував палац з автоматичними статуями.[29]

Протягом ранньомодерністського періоду стверджували, що ці легендарні автомати володіли магічною здатністю відповідати на адресовані їм запитання. Пізньосередньовічний алхімік та протопротестант Роджер Бекон вигадав бронзову голову[en], розпустивши легенду те, що він чарівник.[30][31] Ці легенди були схожі на скандинавський міф про Голову Міміра. За легендою, Мімір славився розумом і мудрістю, і був обезголовлений під час війни асів та ванів. Сказано, що Одін «забальзамував» його голову травами й читав заклинання над нею, так що голова Міміра зберегла здатність висловлювати мудрість перед Одіном. Одін відтоді зберігав цю голову при собі, щоби радитися з нею.[32]

Формальне міркування

[ред. | ред. код]

Штучний інтелект ґрунтується на припущенні, що процес людського мислення можливо механізувати. Вивчення механічного або «формального» міркування має довгу історію. Китайські та грецькі філософи розробили структуровані методи формального виведення в першому тисячолітті до н. е. Їхні ідеї розвинули протягом століть такі філософи як Арістотель (який дав формальний аналіз силогізму), Евклід (чиї «Начала» були моделлю формального міркування), Аль-Хорезмі (який розвинув алгебру і дав своє ім'я «алгоритму») та європейські філософи-схоластики, як-от Вільям Оккам та Дунс Скот.[33]

Іспанський філософ Раймунд Луллій (1232—1315) розробив декілька логічних машин, присвячених вироблянню знань логічними засобами;[34] Луллій описував свої машини як механічні сутності, які могли поєднувати базові й беззаперечні істини за допомогою простих логічних операцій, виконуваних машиною механічними засобами, таким чином, щоби виробити всі можливі знання.[35] Робота Луллія мала великий вплив на Готфріда Лейбніца, який переосмислив його ідеї.[36]

Готфрід Лейбніц, який припускав, що людський розум можливо звести до механічного обчислення

У XVII столітті Лейбніц, Томас Гоббс та Рене Декарт досліджували, чи можливо все раціональне мислення зробити таким же систематизованим, як алгебра та геометрія.[37] Гоббс знаменито написав у «Левіафані»: «розум — це ніщо інше, як обчислення».[38] Лейбніц уявляв універсальну мову міркування, characteristica universalis[en], яка зводила би аргументування до обчислення, таким чином, що «потреби в суперечці між двома філософами було би не більше, ніж між двома бухгалтерами. Бо достатньо було би взяти їм олівці в руки, сісти до їхніх дощок, і сказати один одному (з другом як свідком, якщо бажають): Порахуймо[39] Ці філософи почали формулювати гіпотезу системи фізичних символів, яка стала дороговказною вірою досліджень ШІ.

У XX столітті вивчення математичної логіки забезпечило необхідний прорив, який зробив штучний інтелект позірно правдоподібним. Основи заклали такі праці як «Закони мислення[en]» Буля та «Begriffsschrift[de]» Фреге. Спираючись на систему Фреге, Расселл та Вайтгед представили формальне викладення основ математики у своєму шедеврі, «Principia Mathematica» 1913 року. Надихнувшись успіхом Рассела, Давид Гільберт викликав математиків 1920-х і 30-х років відповісти на фундаментальне питання: «чи можливо формалізувати все математичне міркування?»[33] Відповідь на його питання дали доведення неповноти Геделя, машина Тюрінга та лямбда-числення Черча.[33][40]

Фото ENIAC армії США у Школі електротехніки Мура[41]

Їхня відповідь була несподіваною з двох боків. По-перше, вони довели, що насправді існують межі того, чого може досягти математична логіка. Але по-друге (і важливіше для ШІ), їхня робота підказувала, що в межах цих обмежень можливо механізувати будь-який вид математичного міркування. Ключовим прозрінням була машина Тюрінга — проста теоретична конструкція, яка вловлювала суть маніпулювання абстрактними символами.[42] Цей винахід надихнув групу науковців почати обговорювати можливість мислячих машин.[33][43]

Інформатика

[ред. | ред. код]

Лічильні машини проєктували й будували у давнину та протягом історії багато людей, серед них Готфрід Лейбніц,[44] Жозеф Марі Жаккар,[45] Чарлз Беббідж,[46] Персі Ладгейт[en],[47] Леонардо Торрес Кеведо[en],[48] Веннівер Буш[49] та інші. Ада Лавлейс припускала, що машина Беббіджа була «мислячою або … розумною машиною», але застерігала: «Бажано захиститися від можливості перебільшення уявлень, що виникають щодо можливостей» цієї машини.[50][51] Олександр Щукарьов із Харківського технологічного інституту розглядав дещо вдосконалене ним «логічне піаніно» Джевонса як «машину логічного мислення», технічний засіб механізації тих сторін мислення, що формалізуються.[52][53][54]

МЕЛМ. Загальний вигляд.

Перші сучасні комп'ютери були величезними машинами Другої світової війни (такими як Z3 Конрада Цузе, Гіт Робінсон[en] та Колос Алана Тюрінга, ABC Атанасова та Беррі (з використанням теоретичних праць Михайла Кравчука[55][56]), та ENIAC у Пенсільванському університеті).[57] ENIAC ґрунтувався на теоретичній основі, закладеній Аланом Тюрінгом, розробив його фон Нейман,[58] і він виявився найвпливовішим.[57] Перший електронний комп'ютер на теренах України, МЕЛМ, розробили вже після Другої світової війни в Інституті електротехніки АН УРСР, під керівництвом Сергія Лебедєва.[59][60][61]

Народження машинного інтелекту (до 1956)

[ред. | ред. код]
IBM 702: комп'ютер, який використовувало перше покоління дослідників ШІ.

У 1940-х і 50-х роках група науковців з різних галузей (математики, психології, інженерії, економіки та політології) почали обговорювати можливість створення штучного мозку. Алан Тюрінг був першим, хто здійснив істотні дослідження в галузі, яку він називав машинним інтелектом (англ. Machine Intelligence).[1] Галузь досліджень штучного інтелекту заснували як академічну дисципліну 1956 року.[62]

Кібернетика та ранні нейронні мережі

[ред. | ред. код]

Найраніші дослідження мислячих машин надихнув збіг ідей, які набули поширення наприкінці 1930-х, у 1940-х, та на початку 1950-х років. Новітні дослідження в неврології показали, що мозок виявився електричною мережею нейронів, які випромінювали імпульси типу «все або нічого». Кібернетика Норберта Вінера описувала керування та стабільність в електричних мережах. Теорія інформації Клода Шеннона описувала цифрові сигнали (тобто сигнали типу «все або нічого»). Теорія алгоритмів Алана Тюрінга показала, що будь-який вид обчислення можливо описати в цифровому вигляді. Тісний зв'язок між цими ідеями підказував, що може існувати можливість побудувати «електронний мозок».[63] Експериментальних роботів, як-от черепах[en] В. Грея Волтера[en] та звіра Джонса Гопкінса[en], побудували в 1950-х роках. Ці машини не використовували комп'ютери, цифрову електроніку або символьне міркування; вони керувалися суто аналоговою схемотехнікою.[64]

Алан Тюрінг розмірковував про машинний інтелект щонайменше з 1941 року, коли він поширив статтю про машинний інтелект, яка може бути найранішою статтею в галузі ШІ, — хоча наразі її втрачено.[1] Волтер Піттс[en] та Воррен Маккалох аналізували мережі ідеалізованих штучних нейронів і показали, як вони можуть виконувати прості логічні функції, 1943 року.[65][66] Вони були першими, хто описав те, що пізніше дослідники назвуть нейронною мережею.[67] Ця праця зазнала впливу ранішої праці Тюрінга «Про обчисле́нні числа[en]» 1936 року, яка використовувала подібні двостанові булеві «нейрони», але в ній вперше застосували це до функціювання нейронів.[1] Одним зі студентів, кого надихнули Піттс[en] та Маккалох, був молодий Марвін Мінський, тоді 24-річний аспірант. 1951 року (з Діном Едмондсом) він побудував першу нейромережну машину, SNARC[en].[68] Мінський став одним із найважливіших лідерів та новаторів у ШІ.

Тест Тюрінга

[ред. | ред. код]

Протягом свого життя Алан Тюрінг використовував термін «машинний інтелект» (англ. 'Machine Intelligence'), який після його смерті 1954 року часто називають «штучним інтелектом» (англ. 'Artificial Intelligence'). 1950 року Алан Тюрінг опублікував поворотну й найвідомішу його працю «Обчислювальні машини та інтелект[en]», в якій він розмірковував про можливість створення машин, що думають, і яка представила його поняття, відоме тепер загалові як тест Тюрінга.[69] Він зазначив, що поняття «думати» визначити складно, і запропонував свій знаменитий тест Тюрінга.[70] Якщо машина могла би вести розмову (через телетайп) так, що її неможливо було би відрізнити від розмови з людиною, то було би розважливо сказати, що машина «думає». Ця спрощена версія задачі дозволила Тюрінгу переконливо довести, що «мисляча машина» є принаймні можливою, і ця праця відповіла на всі найпоширеніші заперечення проти цього твердження.[71] Тест Тюрінга був першою серйозною пропозицією у філософії штучного інтелекту. Після цього відбулися три радіопередачі про ШІ від Тюрінга: лекції «Розумна машинерія, єретична теорія» (англ. 'Intelligent Machinery, A Heretical Theory'), «Чи можуть цифрові комп'ютери думати?» (англ. 'Can Digital Computers Think?'), та панельна дискусія «Чи можливо сказати, що автоматичні обчислювальні машини думають» (англ. 'Can Automatic Calculating Machines be Said to Think'). До 1956 року комп'ютерний інтелект активно розвивався у Британії протягом понад десятиліття; найперші програми ШІ там було написано в 1951—52 роках.[1]

Ігровий ШІ

[ред. | ред. код]

1951 року, використовуючи машину Ferranti Mark 1[en] Манчестерського університету, Крістофер Стрейчі[en] написав програму для гри в шашки, а Дітріх Принц[en] — для гри в шахи.[72] Програма для гри в шашки Артура Семюеля, предмет його статті 1959 року «Деякі дослідження в машинному навчанні з використанням гри в шашки», з часом досягла достатнього рівня майстерності, щоби викликати на поєдинок поважного аматора.[73] Ігровий ШІ продовжуватимуть використовувати як міру поступу в ШІ протягом усієї його історії.

Символьне міркування та Логічний теоретик

[ред. | ред. код]

Коли у середині п'ятдесятих років уможливився доступ до цифрових комп'ютерів, декілька науковців інтуїтивно зрозуміли, що машина, яка може маніпулювати числами, може також маніпулювати й символами, і що маніпулювання символами може бути суттю людського мислення. Це був новий підхід до створення мислячих машин.[74]

1955 року Аллен Ньюелл і (майбутній лауреат Нобелівської премії) Герберт Саймон створили «Логічного теоретика[en]» (за допомогою Кліффа Шоу[en]). Ця програма згодом довела 38 із перших 52 теорем у «Principia Mathematica» Расселла і Вайтгеда, а для деяких знайшла нові й елегантніші доведення.[75] Саймон сказав, що вони «розв'язали шановану проблему розуму й тіла, пояснивши, як складена з матерії система може мати властивості розуму».[76] (Це була рання заява філософської позиції, яку Джон Серль пізніше назве «Сильним ШІ» (англ. "Strong AI"): що машини можуть містити розум так само, як і людські тіла.)[77]

Народження штучного інтелекту (1956—1974)

[ред. | ред. код]

Сам термін «штучний інтелект» офіційно запровадив Джон Маккарті під час Дартмутського семінару[en] 1956 року, поворотної події, яка ознаменувала офіційне запровадження ШІ як академічної дисципліни. Основною метою цього семінару було дослідити можливості створення машин, здатних імітувати людський інтелект, що стало початком цілеспрямованого дослідження сфери ШІ.[78]

Дартмутський семінар 1956 року[79] організували Марвін Мінський, Джон Маккарті та двоє старших науковців, Клод Шеннон та Натан Рочестер[en] з IBM. Пропозиція для цієї конференції містила таке твердження: «будь-який аспект навчання або будь-яку іншу ознаку інтелекту можливо описати так точно, що можливо буде зробити машину, яка її імітуватиме».[80] Серед учасників були Рей Соломонов[en], Олівер Селфрідж[en], Тренчард Мор[en], Артур Семюель, Аллен Ньюелл та Герберт Саймон, кожен з яких створить важливі програми протягом перших десятиліть досліджень ШІ.[81] На цьому семінарі Ньюелл та Саймон представили «Логічного теоретика[en]», а Маккарті переконав учасників прийняти «Штучний інтелект» (англ. "Artificial Intelligence") як назву цієї галузі.[82] (Маккарті обрав термін «Штучний інтелект», щоб уникнути асоціацій з кібернетикою та впливом Норберта Вінера.)[83] Семінар у Дартмуті 1956 року був моментом, коли ШІ отримав свою назву, свою місію, свій перший успіх і своїх головних гравців, і його широко вважають народженням ШІ.[84]

Програми, розроблені в перші роки після Дартмутського семінару, були для більшості людей просто «дивовижними»:[85] комп'ютери розв'язували алгебричні задачі, доводили теореми в геометрії, та вчилися говорити англійською. Мало хто в той час вірив, що така «інтелектуальна» поведінка машин взагалі можлива.[86] Дослідники висловлювали надмірний оптимізм приватно й у друці, прогнозуючи, що повністю розумну машину буде побудовано менше ніж за 20 років.[87] Урядові агентства, як-от DARPA, вливали гроші в цю нову галузь.[88] У низці британських та американських університетів наприкінці 1950-х та на початку 1960-х років було створено лабораторії штучного інтелекту,[1] в Україні Віктор Глушков заснував Інститут кібернетики АН УРСР.

Підходи

[ред. | ред. код]

Було багато успішних програм та нових напрямків наприкінці 50-х та у 60-х роках. Серед найвпливовіших були такі:

Міркування як пошук

[ред. | ред. код]

Багато ранніх програм ШІ використовували один і той же базовий алгоритм. Щоби досягти якоїсь мети (наприклад, виграти гру або довести теорему), вони крок за кроком просувалися до неї (роблячи хід або виведення) так, ніби шукали шлях у лабіринті, відступаючи, коли потрапляли в тупик. Цю парадигму назвали «міркування як пошук[en]».[89]

Основна складність полягала в тому, що для багатьох задач кількість можливих шляхів цим «лабіринтом» була просто астрономічною (ситуація, відома як «комбінаторний вибух»). Дослідники зменшували простір пошуку, використовуючи евристики або «евристичні формули», які виключали ті шляхи, що малоймовірно вели до розв'язку.[90]

Ньюелл та Саймон намагалися охопити загальну версію цього алгоритму в програмі, яку назвали «Загальний розв'язувач задач» (англ. "General Problem Solver").[91] Інші програми «пошуку» змогли виконати вражаючі завдання, такі як розв'язування задач з геометрії та алгебри, наприклад «Доводник геометричних теорем» (англ. Geometry theorem prover) Герберта Гелернтера[en] (1958) та «Символьний автоматичний інтегрувальник» (англ. Symbolic automatic integrator, SAINT), написаний студентом Мінського Джеймсом Слейглом (1961).[92] Інші програми шукали цілі та підцілі, щоби планувати дії, як система STRIPS, розроблена у Стенфорді для керування поведінкою їхнього робота Шейкі.[93]

Нейронні мережі

[ред. | ред. код]

Стаття Маккаллоха та Піттса (1944) надихнула підходи до створення обчислювального апаратного забезпечення, яке втілює нейронний підхід до штучного інтелекту в апаратурі. Найвпливовішими були зусилля під проводом Френка Розенблата щодо будівництва перцептронних машин (1957—1962) з кількістю шарів до чотирьох. Фінансувало його переважно Управління військово-морських досліджень США[en].[94] Бернард Уїдроу[en] та його студент Тед Гофф побудували ADALINE (1960) та MADALINE (1962), які мали до 1000 підлаштовуваних ваг.[95] Група у Стенфордському дослідницькому інституті під керівництвом Чарльза А. Розена[en] та Альфреда Е. (Теда) Брейна побудувала дві нейронні мережі, названі MINOS I (1960) та II (1963), фінансовані переважно Корпусом зв'язку армії США[en]. MINOS II[96] мала 6600 підлаштовуваних ваг,[97] і керувалася комп'ютером SDS 910[en] у конфігурації під назвою MINOS III (1968), який міг класифікувати символи на армійських картах і розпізнавати символи, написані друкованими літерами на картках[en] Фортран.[98][99][100]

Більшість досліджень нейронних мереж у цей ранній період полягала в побудові й використанні спеціалізованого апаратного забезпечення, а не моделюванні на цифрових комп'ютерах. Різноманітність апаратного забезпечення була особливо помітною в різних технологіях, які використовували для втілення підлаштовуваних ваг. Перцептронні машини та SNARC[en] використовували потенціометри, які рухали електричні моторчики. ADALINE використовувала мемістори, які регулювалися електроосадженням, хоча вони також використовували й моделювання на IBM 1620[en]. Машини MINOS використовували феритові осердя з кількома отворами в них, з можливістю індивідуального блокування, причому ступінь блокування подавав ваги.[101]

Хоч були й багатошарові нейронні мережі, як-от метод групового урахування аргументів Олексія Івахненка з Інституту кібернетики АН УРСР,[102][103] більшість нейронних мереж у цей період мали лише один шар підлаштовуваних ваг. Були емпіричні спроби тренування понад одного шару, але вони були невдалими. Зворотне поширення не набуло поширення для тренування нейронних мереж до 1980-х років.[101]

Приклад семантичної мережі

Природна мова

[ред. | ред. код]

Одна з важливих цілей досліджень штучного інтелекту — уможливити спілкування комп'ютерів природними мовами, як-от англійською. Раннім успіхом була програма Деніела Боброва[en] STUDENT[en], яка могла розв'язувати задачі з алгебри середньої школи.[104]

Семантична мережа подає поняття (наприклад, «будинок», «двері») як вузли, а відношення між поняттями (наприклад, «має») як зв'язки між вузлами. Першу програмою ШІ, яка використовувала семантичну мережу, написав Росс Квілліан (англ. Ross Quillian)[105], а найуспішнішою (та найсуперечливішою) версією була теорія поняттєвої залежності[en] Роджера Скенка[en].[106]

ELIZA Джозефа Вейценбаума могла вести розмови, які були настільки реалістичними, що користувачі іноді помилялися, думаючи, що вони спілкуються з людиною, а не з програмою (див. ефект Елізи). Але насправді ELIZA не мала жодного уявлення про те, про що вона говорила. Вона просто давала готову відповідь[en] або повторювала те, що до неї говорили, перефразовуючи свою відповідь за допомогою кількох граматичних правил. ELIZA була першим чат-ботом.[107]

Мікросвіти

[ред. | ред. код]

У кінці 60-х років Марвін Мінський та Сеймур Пейперт з Лабораторії ШІ МТІ висунули пропозицію, що дослідження штучного інтелекту повинні зосередитися на штучно простих ситуаціях, відомих як мікросвіти (англ. micro-worlds). Вони вказали, що в успішних науках, як-от фізиці, розуміння основних принципів часто досягали, використовуючи спрощені моделі, як-от безтертьові площини або ідеально жорсткі тіла. Багато досліджень зосереджувалися на «світі кубиків[en]», що складається з кольорових фігур різних форм і розмірів, розташованих на пласкій поверхні.[108]

Ця парадигма привела до інноваційної роботи в машинному баченні Джеральда Сасмена[en] (який очолював команду), Адольфо Гусмана, Девіда Вальца[en] (який винайшов «поширення обмежень», англ. "constraint propagation") та особливо Патріка Вінстона. У той же час Мінський та Пейперт побудували автоматичну руку, яка могла складати кубики, ожививши світ кубиків. Найвищим досягненням програми мікросвітів була SHRDLU Террі Винограда. Вона могла спілкуватися звичайними англійськими реченнями, планувати дії й виконувати їх.[109]

Автомати

[ред. | ред. код]

У Японії Університет Васеда розпочав проєкт WABOT 1967 року, й 1972 року завершив WABOT-1, перший у світі повномасштабний «розумний» робот-гуманоїд,[110][111] або андроїд. Його система керування кінцівками дозволяла йому ходити нижніми кінцівками та брати й переносити предмети руками, використовуючи тактильні давачі. Його система зору дозволяла йому вимірювати відстані та напрямки до об'єктів, використовуючи зовнішні рецептори, штучні очі та вуха. А його система розмови дозволяла йому спілкуватися з людиною японською мовою за допомогою штучного рота.[112][113][114] В Інституті кібернетики АН УРСР у 1972—1975 роках відділ біокібернетики Миколи Амосова за ініціативою й під проводом Ернста Куссуля створив триколісного автономного транспортного робота ТАІР, обладнаного далекомірами й давачами дотику, керованого втіленою апаратно нейронною мережею. Він міг здійснювати цілеспрямований рух у природному середовищі з оминанням перешкод.[115][116]

Оптимізм

[ред. | ред. код]

Перше покоління дослідників штучного інтелекту зробило такі прогнози щодо своєї роботи:

  • 1958, Г. А. Саймон та Аллен Ньюелл: «протягом десяти років цифровий комп'ютер стане чемпіоном світу з шахів» та «протягом десяти років цифровий комп'ютер відкриє та доведе важливу нову математичну теорему.»[117]
  • 1965, Г. А. Саймон: «машини будуть здатні, протягом двадцяти років, робити будь-яку роботу, яку може робити людина.»[118]
  • 1967, Марвін Мінський: «Протягом покоління … задачу створення „штучного інтелекту“ буде по суті розв'язано.»[119]
  • 1970, Марвін Мінськийжурналі «Life»): «Протягом трьох-восьми років ми матимемо машину із загальним інтелектом середньої людини.»[120]

Фінансування

[ред. | ред. код]

У червні 1963 року МТІ отримав грант у розмірі 2,2 мільйона доларів від новоствореної Агенції передових дослідницьких проєктів США (пізніше відомої як DARPA). Гроші використали для фінансування проєкту MAC, який поглинув «Групу ШІ» (англ. "AI Group"), засновану Мінським та Маккарті п'ятьма роками раніше. DARPA продовжувала надавати три мільйони доларів на рік до 70-х років.[121] DARPA надавала подібні гранти програмі Ньюелла та Саймона в УКМ, та Стенфордському проєкту ШІ[en] (заснованому Джоном Маккарті 1963 року).[122] Іншу важливу лабораторію ШІ створив 1965 року в Единбурзькому університеті Дональд Мічі[en].[123] Ці чотири заклади продовжували бути основними центрами досліджень (та фінансування) ШІ в академічному середовищі протягом багатьох років.[124]

Ці гроші було запропоновано з мінімальними обмеженнями: Джозеф Ліклайдер, тодішній директор ARPA, вважав, що його організація повинна «фінансувати людей, а не проєкти!», й дозволяв дослідникам займатися будь-якими напрямками, які їх цікавили.[125] Це створило вільну атмосферу в МТІ, яка породила хакерську культуру[en],[126] проте цей «бездоглядний» підхід триватиме довго.

Перша зима ШІ (1974—1980)

[ред. | ред. код]

У 1970-х роках ШІ піддали критиці та затримкам фінансування. Дослідники ШІ не змогли оцінити складність задач, із якими стикнулися. Їхній надмірний оптимізм підняв громадські очікування занадто високо, і коли обіцяні результати не втілилися, спрямоване на ШІ фінансування майже зникло.[127][128] У той же час дослідження простих, одношарових штучних нейронних мереж було майже повністю припинено на десятиліття частково через книгу[en] Мінського, яка підкреслювала обмеження того, що можуть робити перцептрони.[129] Незважаючи на труднощі з громадським сприйняттям ШІ в кінці 70-х, було досліджено нові ідеї в логічному програмуванні, міркуванні здорового глузду[en] та багатьох інших областях.[130][131]

Проблеми

[ред. | ред. код]

На початку 70-х можливості програм ШІ були обмеженими. Навіть найразючіші могли впоратися лише з тривіальними версіями задач, які вони повинні були розв'язувати; всі програми були, в деякому сенсі, «іграшками».[132] Дослідники ШІ почали стикатися з декількома фундаментальними обмеженнями, подолати які в 1970-х роках було неможливо. Хоч деякі з цих обмежень і було подолано протягом наступних десятиліть, інші ускладнюють розвиток цієї галузі й дотепер.[133][134]

  • Обмежена обчислювальна потужність: Не було достатньо пам'яті чи швидкості обробки, щоби досягти чогось дійсно корисного. Наприклад, успішна робота Росса Квілліана над природною мовою була продемонстрована зі словником лише з двадцяти слів, тому що більше не вміщалося у пам'ять.[135] Ганс Моравек стверджував 1976 року, що комп'ютери все ще в мільйони разів слабші, щоби проявити інтелект. Він запропонував аналогію: штучний інтелект вимагає обчислювальної потужності так само, як літаки вимагають кінських сил. Нижче певного порогу це неможливо, але зі зростанням потужності це, нарешті, може стати легко.[136] Щодо комп'ютерного бачення, Моравек оцінив, що просто для відповідності можливостям людської сітківки у виявлянні контурів та руху в реальному часі потрібен універсальний комп'ютер, здатний виконувати 109 операцій/секунду (1000 MIPS).[137] Станом на 2011 рік практичні застосування комп'ютерного бачення вимагають від 10 000 до 1 000 000 MIPS. Для порівняння, найшвидший суперкомп'ютер 1976 року, Cray-1 (із роздрібною ціною від 5 до 8 мільйонів доларів), був здатний лише приблизно на від 80 до 130 MIPS, а типовий настільний комп'ютер того часу досягав менше 1 MIPS.
  • Непіддатливість та комбінаторний вибух. 1972 року Річард Карп (на основі теореми Стівена Кука 1971 року) показав, що існує багато задач, які, ймовірно, можливо розв'язувати лише за експоненційний час (відносно розміру даних входу). Знаходження оптимальних рішень для цих задач вимагає неймовірної кількості часу комп'ютера, окрім випадків, коли задачі тривіальні. Це майже напевно означало, що багато з «іграшкових» рішень, які використовув ШІ, ймовірно, ніколи не масштабуються до корисних систем.[138]
  • Знання та міркування здорового глузду[en]. Багато важливих застосувань ШІ, як-от бачення та природна мова, вимагають просто величезної кількості інформації про світ: програмі потрібно мати якусь уяву про те, на що вона, можливо, дивиться, або про що вона говорить. Це вимагає, щоби програма знала більшість тих самих речей про світ, що й дитина. Дослідники скоро виявили, що це дійсно величезна кількість інформації. Ніхто в 1970 році не міг побудувати такої великої бази даних, і ніхто не знав, як програма може навчитися такої великої кількості інформації.[139]
  • Парадокс Моравека: Доведення теорем і розв'язання геометричних задач порівняно легкі для комп'ютерів, але нібито проста задача, як-от розпізнавання обличчя або перетинання кімнати без зіткнення з чимось, є надзвичайно складною. Це допомагає пояснити, чому дослідження з бачення та робототехніки зробили так мало прогресу до середини 1970-х.[140]
  • Проблеми рамок[en] та кваліфікації[en]. Дослідники ШІ (як-от Джон Маккарті), які використовували логіку, виявили, що вони не можуть подавати звичайні виведення, які містять планування чи міркування за замовчуванням, не роблячи змін у структурі самої логіки. Вони розробили нові логіки (як-от немонотонні логіки та модальні логіки), щоби спробувати розв'язати ці проблеми.[141]

Кінець фінансування

[ред. | ред. код]
Див. також: Зима ШІ

Агенції, які фінансували дослідження ШІ (як-от британський уряд, DARPA та NRC[en]), були розчаровані відсутністю прогресу, й урешті-решт припинили майже все фінансування для неспрямованих досліджень з ШІ. Ця картина почалася ще 1966 року, коли з'явився звіт ALPAC[en], що розкритикував зусилля з машинного перекладу. Після витрати 20 мільйонів доларів NRC[en] припинила всю підтримку.[142] 1973 року доповідь Лайтгілла про стан досліджень ШІ у Великій Британії розкритикувала повну невдачу ШІ досягти своїх «грандіозних цілей» і призвела до розпуску досліджень ШІ в цій країні.[143] (Ця доповідь зокрема згадувала комбінаторний вибух як причину невдач ШІ.)[144] DARPA глибоко розчарувалася в дослідниках, які працювали над програмою дослідження розуміння мовлення в УКМ, і скасувала щорічний грант у три мільйони доларів.[145] Станом на 1974 рік знайти фінансування проєктів ШІ було важко.

Для досліджень нейронних мереж кінець фінансування наступив ще раніше, частково через відсутність результатів, і частково через конкуренцію з дослідженнями символьного ШІ[en]. Проєкт MINOS вичерпав фінансування 1966 року. Розенблат не зміг отримати продовження фінансування в 1960-х.[101]

Ганс Моравек звинуватив цю кризу в нереалістичних прогнозах своїх колег. «Багато дослідників опинилися в павутинні зростаючої перебільшеності».[146] Проте була й іще одна проблема: з часу прийняття поправки Менсфілда[en] 1969 року DARPA була під зростаючим тиском фінансувати «орієнтовані на завдання прямі дослідження, а не базові ненаправлені дослідження». Фінансування для творчого, вільного дослідження, яке відбувалося в 60-х, з боку DARPA не повернулося. Замість цього гроші було спрямовано на конкретні проєкти з чіткими цілями, як-от автономні танки та системи управління боєм.[147]

Критика з іншого боку кампуса

[ред. | ред. код]

Декілька філософів мали сильні заперечення проти тверджень, які робили дослідники ШІ. Одним із перших був Джон Лукас[en], який стверджував, що теорема Геделя про неповноту показувала, що формальна система (така як комп'ютерна програма) ніколи не може бачити істину певних тверджень, тоді як людина може.[148] Г'юберт Дрейфус[en] висміяв порушені обіцянки 1960-х і критикував припущення ШІ, стверджуючи, що людське міркування насправді містить дуже мало «символьної обробки», і багато втіленого, інстинктивного, несвідомого «знання-як[en]».[149][150] Джон Серль у своєму аргументі китайської кімнати, представленому 1980 року, намагався показати, що програма не може сказати, що «розуміє» символи, які використовує (якість, яку називають «інтенціональність»). Якщо символи не мають сенсу для машини, стверджував Серль, то машину неможливо назвати «мислячою».[151]

Дослідники ШІ не сприймали цих критиків всерйоз, часто тому, що вони видавалися такими далекими від суті. Такі проблеми як непіддатливість і знання здорового глузду видавалися набагато безпосереднішими й серйознішими. Було незрозуміло, що змінює «знання-як[en]» чи «інтенціональність» для конкретної комп'ютерної програми. Мінський сказав про Дрейфуса та Серля: «Вони неправильно розуміють, їх слід ігнорувати».[152] Дрейфус, який викладав в МТІ, отримав холодне ставлення: він пізніше сказав, що дослідники ШІ «не наважувалися бути поміченими за обідом зі мною».[153] Джозеф Вейценбаум, автор ELIZA, відчував, що ставлення його колег до Дрейфуса[en] було непрофесійним і дитячим.[154] Хоч він і був голосним критиком позицій Дрейфуса, він «навмисно показав, що це не той спосіб поводитися з людиною».[155]

Вейценбаум почав мати серйозні етичні сумніви щодо ШІ, коли Кеннет Колбі[en] написав «комп'ютерну програму, яка може вести психотерапевтичний діалог» на основі ELIZA.[156] Вейценбаума збентежило, що Колбі сприймав бездумну програму як серйозний терапевтичний інструмент. Почалася сварка, і ситуацію не поліпшувало те, що Колбі не віддав належне Вейценбауму за його внесок у програму. 1976 року Вейценбаум опублікував «Комп'ютерну силу і людський розум[en]», у якій стверджував, що зловживання штучним інтелектом має потенціал знецінити людське життя.[157]

Перцептрони й напад на конекціонізм

[ред. | ред. код]

Перцептрон був одним із видів нейронних мереж, запропонованим 1958 року Френком Розенблатом, який був однокласником Марвіна Мінського у Вищій науковій школі Бронксу[en]. Як і більшість дослідників ШІ, він був оптимістичним щодо їхньої потужності, прогнозуючи, що «перцептрон може з часом набути здатності вчитися, ухвалювати рішення й перекладати мови». Активну програму досліджень у цій парадигмі проводили протягом 1960-х, але раптово припинили після публікації книги Мінського й Пейперта 1969 року «Перцептрони[en]». Вона підказувала, що існували суворі обмеження того, що могли би робити перцептрони, і що прогнози Френка Розенблатта були надзвичайно перебільшеними. Вплив книги був спустошливим: практично жодних досліджень з конекціонізму не фінансували протягом 10 років.

З основних зусиль щодо нейронних мереж, Розенблат намагався зібрати кошти на побудову більших перцептронних машин, але загинув у човновій аварії 1971 року. Мінський (з боку SNARC) перетворився на запеклого противника чистого конекціоністського ШІ. Уїдроу (з боку ADALINE) звернувся до адаптивної обробки сигналів, використовуючи методи на основі алгоритму НСК[en]. Група СДІ (з боку MINOS) звернулася до символьного ШІ та робототехніки. Основними проблемами були нестача фінансування та нездатність тренувати багатошарові мережі (зворотне поширення було не відоме). Змагання за державне фінансування закінчилося перемогою підходів символьного ШІ.[100][101]

Логіка в Стенфорді, УКМ та Единбурзі

[ред. | ред. код]

Логіку до досліджень ШІ ввів ще 1959 року Джон Маккарті у своїй пропозиції приймача порад[en].[158] 1963 року Джон Алан Робінсон відкрив простий метод втілення виведення на комп'ютерах, алгоритм резолюції та уніфікації. Проте прямі втілення, які спробували Маккарті та його студенти наприкінці 1960-х, були особливо непіддатливими: програми потребували астрономічної кількості кроків, щоби довести прості теореми.[159] Плідніший підхід до логіки розробив у 1970-х роках Роберт Ковальський в Единбурзькому університеті, й незабаром це призвело до співпраці з французькими дослідниками Аланом Кольмерое[en] та Філіпом Русселем[fr], які створили успішну мову логічного програмування Пролог (англ. Prolog).[160] Пролог використовує підмножину логіки (диз'юнкти Горна, тісно пов'язані з «правилами[en]» та «продукційними правилами»), яка дозволяює здійснювати розв'язні обчислення. Правила продовжуватимуть бути впливовими, надаючи основу для експертних систем Едварда Фейгенбаума та наступної роботи Аллена Ньюелла й Герберта Саймона, яка призвела до Soar[en] та їхніх узагальнених теорій пізнання[en].[161]

Критики логічного підходу зауважили, як і Дрейфус[en], що люди рідко використовували логіку, коли розв'язували проблеми. Експерименти психологів, як-от Пітера Вейсона[en], Елеанори Рош[en], Амоса Тверські, Деніела Канемана та інших, надали докази.[162] Маккарті відповів, що те, що роблять люди, не стосується справи. Він стверджував, що насправді потрібні машини, здатні розв'язувати задачі, а не машини, які мислять, як люди.[163]

«Антилогічний» підхід МТІ

[ред. | ред. код]

Серед критиків підходу Маккарті були його колеги на іншому кінці країни в МТІ. Марвін Мінський, Сеймур Пейперт та Роджер Скенк[en] намагалися розв'язати такі задачі як «розуміння історій» та «розпізнавання об'єктів», які вимагали, щоб машина думала як людина. Щоби використовувати звичайні поняття, як-от «стілець» або «ресторан», вони мусили робити всі ті ж нелогічні припущення, які зазвичай роблять люди. На жаль, такі неточні поняття, як ці, важко подати в логіці. Джеральд Сасмен[en] зауважив, що «використання точної мови для опису неточних по суті понять не робить їх точнішими».[164] Скенк[en] назвав їхні «антилогічні» (англ. "anti-logic") підходи «нечупарними[en]» (англ. "scruffy"), на противагу до «чепурних[en]» (англ. "neat") парадигм, які використовували Маккарті, Ковальський, Фейгенбаум, Ньюелл та Саймон.[165]

1975 року, у знаковій статті, Мінський зауважив, що багато його колег-дослідників використовували один і той же інструмент: систему рамок, яка вловлює всі наші припущення здорового глузду про щось. Наприклад, якщо ми використовуємо поняття птаха, то в голові виникає сузір'я фактів, які одразу спадають на думку: ми можемо припустити, що він літає, їсть хробаків тощо. Ми знаємо, що ці факти не завжди правдиві, й що висновки, які використовують ці факти, не будуть «логічними», але ці структуровані набори припущень є частиною контексту всього, що ми кажемо й думаємо. Він назвав ці структури «рамками» (англ. "frames"). Скенк[en] використовував версію рамок, яку він називав «сценаріями[en]» (англ. "scripts"), щоби успішно відповідати на питання про короткі історії англійською.[166]

Поява немонотонних логік

[ред. | ред. код]

Логіки прийняли виклик. Пат Гейз[en] стверджував, що «більшість „рамок“ це лише новий синтаксис для частин логіки першого порядку.» Але він зазначив, що «є одна чи дві здавалося би незначні деталі, які викликають багато проблем, особливо замовчування».[167] Тим часом Реймон Райтер[en] визнав, що «традиційні логіки, такі як логіка першого порядку, не мають достатньої виразності для адекватного подання знань, необхідних для міркування за замовчуванням».[168] Він запропонував доповнити логіку першого порядку припущенням про замкненість світу[en], що висновок правильний (за замовчуванням), якщо неможливо довести протилежне. Він показав, як таке припущення відповідає загальноприйнятому припущенню, зробленому при міркуванні з рамками. Він також показав, що воно має свій «процедурний еквівалент» як заперечення як відмова в Пролозі.

Припущення про замкненість світу, сформульоване Райтером, «не є поняттям першого порядку. (Це метапоняття.)»[168] Проте, Кіт Кларк[en] показав, що заперечення як скінченну відмову (англ. finite failure) можливо розуміти як неявне міркування з визначеннями в логіці першого порядку, включно з припущенням про унікальні назви[en], що різні терми позначують різних індивідів.[169]

Протягом кінця 1970-х та протягом 1980-х років було розроблено численні логіки та розширення логіки першого порядку як для заперечення як відмови в логічному програмуванні, так і для міркування за замовчуванням загалом. Разом ці логіки стали відомі як немонотонні.

Бум (1980—1987)

[ред. | ред. код]

У 1980-х роках корпорації по всьому світу прийняли один з видів програм ШІ, званий «експертними системами», і подання знань стало центром основних досліджень ШІ. У ті ж роки японський уряд активно фінансував ШІ своїм проєктом комп'ютерів п'ятого покоління. Ще одна заохочувальна подія на початку 1980-х була відродженням конекціонізму в роботі Джона Гопфілда та Девіда Румельхарта. Знову ж таки, ШІ досяг успіху.[170]

Поширення експертних систем

[ред. | ред. код]

Експертна система — це програма, яка відповідає на питання або розв'язує задачі з певної області знань, використовуючи логічні правила, виведені зі знань експертів. Найперші їх приклади розробили Едвард Фейгенбаум і його студенти. Дендрал (англ. Dendral), початок якого було закладено 1965 року, встановлював сполуки за даними спектрометра. MYCIN, розроблена 1972 року, діагностувала інфекційні захворювання крові. Вони продемонстрували здійсненність такого підходу.[171]

Експертні системи обмежували себе невеликою областю специфічних знань (тим самим уникаючи проблеми здорового глузду), а їхній простий дизайн робив відносно легкими побудову та зміну програм після встановлення. Загалом, ці програми виявилися корисними: щось, чого ШІ до цього моменту досягти не міг.[172]

1980 року в УКМ завершили експертну система під назвою XCON для Digital Equipment Corporation. Це був величезний успіх: вона заощаджувала компанії 40 мільйонів доларів щорічно до 1986 року.[173] Корпорації по всьому світу почали розробляти та впроваджувати експертні системи, й до 1985 року вони витрачали понад мільярд доларів на ШІ, більшість з яких — на внутрішні відділи ШІ.[174] З'явилася галузь, що їх підтримувала, включно з компаніями з апаратного забезпечення, як-от Symbolics[en] та Lisp Machines[en], та компаніями з програмного забезпечення, як-от IntelliCorp[en] та Aion[en].[175]

Революція знань

[ред. | ред. код]

Сила експертних систем полягала в експертних знаннях, які вони містили. Вони були частиною нового напряму в дослідженнях ШІ, який набирав обертів протягом 70-х років. «Дослідники ШІ почали підозрювати — неохоче, бо це порушувало науковий принцип ощадливості — що інтелект, можливо, дуже залежить від здатності використовувати великі кількості різноманітних знань різними способами»,[176] пише Памела Маккордак[en]. «[В]еликим уроком з 1970-х було те, що інтелектуальна поведінка дуже залежить від роботи зі знаннями, іноді досить докладними знаннями, з області, в якій лежить задана задача».[177] Системи на основі знань[en] та інженерія знань стали основним фокусом досліджень ШІ в 1980-х роках.[178]

У 1980-х роках також народився Cyc (укр. Сайк), перша спроба лобової атаки на проблему здорового глузду, шляхом створення величезної бази даних, яка містила би всі буденні факти, що їх знає середня людина. Дуглас Ленат, який розпочав і очолював цей проєкт, стверджував, що короткого шляху не існує — єдиний спосіб, щоби машини знали значення людських понять, це навчати їх, по поняттю за раз, вручну. Проєкт не очікувався бути завершеним протягом багатьох десятиліть.[179]

Програми для гри в шахи HiTech та Deep Thought[en] перемогли шахових гросмейстерів 1989 року. Обидві розробили в УКМ; розробка Deep Thought проклала шлях для Deep Blue.[180]

Гроші повертаються: проєкт П'ятого покоління

[ред. | ред. код]

1981 року Міністерство міжнародної торгівлі та промисловості Японії[en] виділило 850 мільйонів доларів на проєкт комп'ютерів п'ятого покоління. Їхніми цілями було написати програми та побудувати машини, які могли би вести розмови, перекладати мови, інтерпретувати зображення та міркувати як людські істоти.[181] До жалю нечупар[en], як основну мову програмування для проєкту було обрано Пролог.[182]

Інші країни відповіли власними новими програмами. Велика Британія розпочала проєкт Alvey[en] на 350 мільйонів фунтів стерлінгів. Консорціум компаній США створив Корпорацію мікроелектроніки та комп'ютерних технологій[en] (англ. Microelectronics and Computer Technology Corporation, MCC) для фінансування великомасштабних проєктів з ШІ та інформаційних технологій.[183][184] DARPA також відреагувала, заснувавши Стратегічну комп'ютерну ініціативу[en], і потроївши свої інвестиції в ШІ між 1984 і 1988 роками.[185]

Мережа Гопфілда з чотирма вузлами

Відродження нейронних мереж

[ред. | ред. код]

1982 року фізик Джон Гопфілд зміг довести, що певний вигляд нейронної мережі (званий тепер «мережею Гопфілда») може навчатися й обробляти інформацію, і довідно збігатися після достатнього часу за будь-яких незмінних умов. Це був прорив, оскільки раніше вважали, що нелінійні мережі в загальному випадку розвиватимуться хаотично.[186]

Приблизно в той же час Джефрі Гінтон та Девід Румельхарт популяризували метод тренування нейронних мереж, званий «зворотним поширенням» (англ. "backpropagation"), відомий також як зворотний режим автоматичного диференціювання, опублікований Сеппо Ліннаінмаа[en] (1970) та застосований до нейронних мереж Полом Вербосом[en]. Ці два відкриття допомогли відродити дослідження штучних нейронних мереж.[184][187]

Починаючи з публікації 1986 року «Паралельно розподіленої обробки», двотомної збірки статей під редакцією Румельхарта та психолога Джеймса Макклелланда, дослідження нейронних мереж набули нового імпульсу, й стануть комерційно успішними в 1990-х роках у застосуванні до оптичного розпізнавання символів та розпізнавання мовлення.[184][188]

Розвиток метал-діелектрик-напівпровідникових (МДН, англ. MOS) схем надвеликого рівня інтеграції (НВРІ, англ. VLSI) у вигляді технології комплементарних метал-оксид-напівпровідників (КМОН, англ. CMOS) уможливив розвиток практичної технології штучних нейронних мереж у 1980-х роках.

Провідною публікацією в цій галузі була книга 1989 року «Аналогове НВРІ-втілення нейронних систем» Карвера А. Міда та Мохаммеда Ісмаїла.[189]

Крах: друга зима ШІ (1987—1993)

[ред. | ред. код]

Захоплення ділової спільноти штучним інтелектом у 1980-х роках здійнялося й упало за класичним сценарієм економічної бульбашки. Коли десятки компаній зазнали невдач, склалося враження, що ця технологія нежиттєздатна.[190] Проте ця галузь продовжувала робити прогрес, незважаючи на критику. Багато дослідників, включно з розробниками робототехніки Родні Бруксом[en] та Гансом Моравеком, виступали за цілком новий підхід до штучного інтелекту.

Зима ШІ

[ред. | ред. код]

Термін «Зима ШІ» запровадили дослідники, які вижили після скорочення фінансування 1974 року, коли стали турбуватися, що ентузіазм щодо експертних систем вийшов з-під контролю, і що розчарування неодмінно настане.[191] Їхні побоювання були обґрунтованими: наприкінці 1980-х і на початку 1990-х років ШІ зазнає низки фінансових ударів.

Першою ознакою зміни погоди був раптовий крах ринку спеціалізованого апаратного забезпечення для ШІ 1987 року. Настільні комп'ютери від Apple та IBM постійно збільшували швидкодію й потужність, і 1987 року вони стали потужнішими за дорожчі Лісп-машини, які випускали Symbolics[en] та інші. Купувати їх вже не було жодної доброї причини. Вся індустрія вартістю півмільярда доларів зруйнувалася за одну ніч.[192]

Зрештою, найраніші успішні експертні системи, такі як XCON, виявилися занадто дорогими в обслуговуванні. Їх було важко оновлювати, вони не могли навчатися, вони були «крихкими» (тобто могли робити абсурдні помилки за незвичайних даних входу) й пали жертвою проблем (як-от проблеми кваліфікації[en]), які було виявлено ще роки тому. Експертні системи виявилися корисними, але тільки в декількох особливих контекстах.[193]

Наприкінці 1980-х років Стратегічна комп'ютерна ініціатива[en] обрізала фінансування ШІ «різко і жорстоко». Нове керівництво DARPA вирішило, що ШІ не є «наступною хвилею», і спрямувало кошти на проєкти, отримання негайних результатів від яких видавалося правдоподібнішим.[194]

До 1991 року вражаючого переліку цілей, сформульованих 1981 року для японського п'ятого покоління комп'ютерів, досягнуто не було. Насправді, деяких із них, як-от «підтримувати неформальну розмову», не було досягнуто навіть до 2010 року.[195] Як і з іншими проєктами ШІ, очікування були набагато вищими за те, що було можливим насправді.[195][196]

Понад 300 компаній, які займалися ШІ, закрилися, збанкрутували або були придбані до кінця 1993 року, фактично завершивши першу комерційну хвилю ШІ.[197] 1994 року ГП Найквіст[en] заявив у книзі «The Brain Makers», що «Найближче майбутнє штучного інтелекту — в його комерційному вигляді — здається, залежить частково від продовження успіху нейронних мереж.»[197]

Нувельний ШІ та втілений розум

[ред. | ред. код]

Наприкінці 1980-х років декілька дослідників пропагували цілком новий підхід до штучного інтелекту, на основі робототехніки.[198] Вони вважали, що для того, щоби проявити справжній інтелект, машині потрібно мати тіло — вона повинна сприймати, рухатися, виживати та взаємодіяти зі світом. Вони стверджували, що ці чуттєо-моторні навички необхідні для вищих рівнів навичок, як-от міркування здорового глузду[en], і що абстрактне міркування насправді є найменш цікавою чи важливою людською навичкою (див. парадокс Моравека). Вони пропагували побудову інтелекту «знизу вгору.»[199]

Цей підхід відродив ідеї з кібернетики й теорії керування, які були непопулярними з 1960-х років. Іншим предтечею був Девід Марр, який прийшов до МТІ наприкінці 1970-х років з успішним досвідом у теоретичній нейробіології, щоби очолити групу, яка вивчала бачення. Він відкинув усі символьні підходи (як логіку Маккарті, так і рамки Мінського), стверджуючи, що ШІ потрібно було розуміти фізичну механіку зору знизу вгору, перш ніж відбувалася би будь-яка символьна обробка. (1980 року роботу Марра обірвала лейкемія.)[200]

У своїй статті 1990 року «Слони не грають у шахи»[201] дослідник з робототехніки Родні Брукс[en] спрямував свою критику безпосередньо на гіпотезу системи фізичних символів, стверджуючи, що символи не завжди необхідні, оскільки «світ є найкращою моделлю самого себе. Він завжди точно актуальний. Він завжди має всі деталі, які треба знати. Секрет полягає в тому, щоби сприймати його доречним чином і достатньо часто.»[202] У 1980-х і 1990-х роках багато когнітивістів також відкинули модель символьної обробки розуму і стверджували, що для міркування необхідне тіло, теорію, названу тезою про втілений розум.[203]

ШІ (1993—2011)

[ред. | ред. код]

Галузь ШІ, якій вже понад півстоліття, нарешті досягла деяких своїх найдавніших цілей. Її почали успішно використовувати в усій технологічній промисловості, хоча й дещо за лаштунками. Деякі з цих успіхів були пов'язані зі зростанням обчислювальної потужності, а деяких було досягнуто шляхом зосередження на конкретних ізольованих задачах і розв'язанні їх за найвищими стандартами наукової відповідальності. Проте репутація ШІ, принаймні в діловому світі, була не дуже бездоганною.[204] Усередині галузі бракувало згоди щодо причин невдачі ШІ у втіленні мрії про людський рівень інтелекту, яка захопила уяву світу в 1960-х роках. Разом усі ці чинники допомогли розколоти ШІ на конкурентні підгалузі, зосереджені на певних задачах або підходах, іноді навіть під новими назвами, які приховували потьмяніле походження від «штучного інтелекту».[205] ШІ став як обережнішим, так і успішнішим, ніж будь-коли раніше.

Віхи та закон Мура

[ред. | ред. код]

11 травня 1997 року Deep Blue став першою комп'ютерною шаховою системою, яка перемогла чинного чемпіона світу з шахів Гаррі Каспарова.[206] Цей суперкомп'ютер був спеціалізованою версією платформи, створеної IBM, і міг обробляти вдвічі більше ходів за секунду, ніж під час першого матчу (який Deep Blue програв), а саме 200 000 000 ходів за секунду.[207]

2005 року робот зі Стенфорду виграв DARPA Grand Challenge[en], автономно проїхавши 121 км непідготовленою пустельною трасою.[208] Через два роки команда з УКМ виграла DARPA Urban Challenge[en], автономно проїхавши 89 км у міському середовищі, дотримуючись усіх дорожніх небезпек і правил дорожнього руху.[209] У лютому 2011 року в телевікторині Jeopardy![en] в показовому матчі система відповідей на запитання IBM, Watson, перемогла двох найкращих чемпіонів Jeopardy!, Бреда Раттера[en] та Кена Дженнінгса[en], зі значною перевагою.[210]

Ці успіхи не були наслідком якоїсь революційної нової парадигми, а переважно ґрунтувалися на наполегливому застосуванні інженерних навичок та величезному зростанні швидкості й обсягу пам'яті комп'ютерів у 90-х роках.[211] Насправді, Deep Blue був у 10 мільйонів разів швидший за Ferranti Mark 1[en], якого Крістофер Стрейчі[en] навчив грати в шахи у 1951 році.[212] Це драматичне зростання вимірюється законом Мура, який передбачує, що швидкість і обсяг пам'яті комп'ютерів подвоюються кожні два роки внаслідок щодворічного подвоєння кількості[en] МДН-транзисторів. Основну проблему «сирої обчислювальної потужності» поступово вдавалося подолати.

Інтелектуальні агенти

[ред. | ред. код]

Нова парадигма, яку назвали «інтелектуальними агентами» (англ. "intelligent agents"), стала широко прийнятою протягом 1990-х років.[213] Хоч раніше дослідники й пропонували модульні підходи «розділяй і володарюй» до ШІ,[214] інтелектуальний агент не набув свого сучасного вигляду, доки Джуда Перл, Аллен Ньюелл, Леслі П. Келблінг[en] та інші не привнесли поняття з теорії рішень та економіки до вивчення ШІ.[215] Коли економістське визначення раціонального агента було поєднано з інформатичним визначенням об'єкта або модуля, парадигму інтелектуального агента було завершено.

Інтелектуальний агент — це система, яка сприймає своє середовище і вживає дії, які максимізують її шанси на успіх. За цим визначенням, прості програми, які розв'язують конкретні задачі, є «інтелектуальними агентами», так само як і людські істоти та організації людських істот, такі як фірми. Парадигма інтелектуальних агентів визначає дослідження ШІ як «вивчення інтелектуальних агентів». Це узагальнення деяких попередніх визначень ШІ: воно виходить за рамки вивчення людського інтелекту; воно вивчає всі види інтелекту.[216]

Ця парадигма дала дослідникам можливість вивчати окремі задачі й знаходити рішення, які були одночасно перевірними й корисними. Вона надала спільну мову для опису задач та обміну їхніми рішеннями між собою та з іншими галузями, які також використовували поняття абстрактних агентів, як-от з економікою та теорією керування. Сподівалися, що завершена агентна архітектура[en] (як-от SOAR[en] Ньюелла) колись дозволить дослідникам побудувати універсальніші та інтелектуальніші системи із взаємодійних інтелектуальних агентів.[215][217]

Імовірнісне міркування та більша строгість

[ред. | ред. код]

Дослідники ШІ почали розробляти й використовувати складніші математичні інструменти, ніж будь-коли раніше.[218] Було загальне усвідомлення, що над багатьма задачами, які треба було розв'язати ШІ, вже працювали дослідники з таких галузей як математика, електротехніка, економіка та дослідження операцій. Спільна математична мова уможливила вищий рівень співпраці з усталенішими й успішнішими галузями та досягнення результатів, які були вимірюваними й довідними; ШІ став більш строгою «науковою» дисципліною.

Впливова книга Джуди Перла 1988 року[219] привнесла до ШІ ймовірність та теорію рішень. Серед багатьох нових інструментів у вжитку були баєсові мережі, приховані марковські моделі, теорія інформації, статистичне моделювання та класична оптимізація. Також було розроблено точні математичні описи для таких парадигм «обчислювального інтелекту» як нейронні мережі та еволюційні алгоритми.[220]

ШІ за лаштунками

[ред. | ред. код]

Алгоритми, первинно розроблені дослідниками ШІ, почали з'являтися як частини більших систем. ШІ розв'язав багато дуже складних задач[221] і їхні розв'язки виявилися корисними в усій технологічній промисловості,[222] як-от у розробленні даних, промисловій робототехніці, логістиці,[223] розпізнаванні мовлення,[224] банківському програмному забезпеченні,[225] медичному діагностуванні[225] та пошуковій системі Google.[226]

Галузь ШІ отримала мало або жодного визнання за ці успіхи у 1990-х та на початку 2000-х років. Багато з найбільших нововведень ШІ було зведено до статусу просто ще одного предмета в скриньці інструментів інформатики.[227] Нік Бостром пояснює: «Багато передового ШІ просочилося в загальні застосування, часто без називання цього ШІ, тому що коли щось стає достатньо корисним і поширеним, його вже не мітять як ШІ.»[228]

Багато дослідників ШІ у 1990-х навмисно називали свою роботу іншими назвами, як-от інформатикою, системами на основі знань[en], когнітивними системами та обчислювальним інтелектом. Можливо, частково через те, що вони вважали свою галузь принципово відмінною від ШІ, але також ці нові назви допомагали залучати фінансування. У комерційному світі, принаймні, невиконані обіцянки зими штучного інтелекту продовжували переслідувати дослідження ШІ у 2000-х роках, як повідомляла New York Times 2005 року: «Інформатики та програмісти уникали терміну „штучний інтелект“ через побоювання бути сприйнятими як мрійники з шаленими очима.»[229][230][231][232]

Глибоке навчання, великі дані (2011—2020)

[ред. | ред. код]

У перших десятиліттях XXI століття доступ до великої кількості даних (відомих як «великі дані», англ. "big data"), дешевші та швидші комп'ютери та передові методики машинного навчання успішно застосували до багатьох задач по всій економіці. Справді, McKinsey Global Institute[en] оцінили у своїй відомій статті «Великі дані: наступний рубіж для інновацій, конкуренції та продуктивності» (англ. "Big data: The next frontier for innovation, competition, and productivity"), що «до 2009 року майже всі сектори економіки США мали принаймні середній рівень 200 терабайт збережених даних».

До 2016 року ринок продуктів, апаратного та програмного забезпечення, пов'язаних із ШІ, досяг понад 8 мільярдів доларів, а New York Times повідомили, що інтерес до ШІ досяг «божевільного» рівня.[233] Застосування великих даних почали досягати й інших галузей, як-от тренування моделей в екології[234] та для різних застосувань в економіці.[235] Просування й дослідження в глибокому навчанні (особливо в глибоких згорткових нейронних мережах та рекурентних нейронних мережах) підштовхнули просування й дослідження в обробці зображень і відео, аналізі тексту, й навіть розпізнаванні мовлення.[236]

На першому глобальному саміті з безпеки ШІ[en], що відбувся в Блечлі-Парку в листопаді 2023 року, обговорили найближчі та віддалені ризики штучного інтелекту й можливість обов'язкових та добровільних регуляторних рамок.[237] 28 країн, включно зі США, Китаєм та ЄС, оприлюднили декларацію на початку саміту, закликаючи до міжнародної співпраці для управління викликами та ризиками штучного інтелекту.[238][239]

Глибоке навчання

[ред. | ред. код]
Докладніше: Глибоке навчання

Глибоке навчання (англ. deep learning) — це галузь машинного навчання, яка моделює високорівневі абстракції в даних за допомогою глибокого графа з багатьма шарами обробки.[236] За теоремою про універсальне наближення (теоремою Цибенка), глибина не є необхідною для нейронної мережі, щоби наближувати довільні неперервні функції. Незважаючи на це, є багато проблем, поширених для неглибоких мереж (як-от перенавчання), яких глибокі мережі допомагають уникати.[240] Як такі, глибокі нейронні мережі здатні насправді породжувати набагато складніші моделі порівняно з їхніми неглибокими аналогами.

Проте, глибоке навчання має свої власні проблеми. Поширеною проблемою для рекурентних нейронних мереж є проблема зникання градієнту, яка полягає в тому, що градієнти, які передаються між шарами, поступово знижуються й буквально зникають, коли округлюються до нуля. Було розроблено багато методів, щоби підійти до цієї проблеми, як-от вузли довгої короткочасної пам'яті.

Глибокі нейронні архітектури рівня останніх досягнень іноді навіть можуть змагатися з людською точністю в таких галузях як комп'ютерне бачення, зокрема в таких речах, як база даних MNIST та розпізнавання дорожніх знаків.[241]

Мовні обробники, які працюють на основі розумних пошукових систем, можуть легко перемагати людей у відповідях на загальні питання (як-от IBM Watson), а нещодавні розробки в глибокому навчанні дали дивовижні результати у змаганні з людьми в таких речах як Ґо та Doom (який, будучи стрілялкою від першої особи, викликав деякі суперечки).[242][243][244][245]

Великі дані

[ред. | ред. код]
Докладніше: Великі дані

Великі дані (англ. big data) — це збірка даних, якими неможливо оволодіти, управляти та обробляти їх звичайними програмними інструментами протягом певного часового проміжку. Це величезна кількість можливостей для ухвалювання рішень, розуміння та оптимізації процесів, які вимагають нових моделей обробки. У книзі «Ера великих даних» (англ. The Big Data Era), написаній Віктором Майєром Шонбергом та Кеннетом Куком[en], великі дані означають, що замість випадкового аналізу (вибіркового дослідження) для аналізу використовують усі дані. Характеристики 5 «V» великих даних (запропоновані IBM): обсяг (англ. Volume), швидкість (англ. Velocity), різноманітність (англ. Variety)[246], цінність (англ. Value)[247], достовірність (англ. Veracity)[248].

Стратегічна значущість технології великих даних полягає не в тому, щоби оволодіти величезною кількістю інформації, а в тому, щоби спеціалізуватися на цих змістовних даних. Іншими словами, якщо великі дані порівняти з промисловістю, то ключем до досягнення прибутковості в цій промисловості є підвищення «можливостей процесу[en]» цими даними та реалізація їхньої «доданої вартості» шляхом «обробки».

Ера ШІ, сильний штучний інтелект (2020—дотепер)

[ред. | ред. код]
Докладніше: Бум ШІ

Ера ШІ починається з початкової розробки ключових архітектур й алгоритмів, таких як трансформерна архітектура 2017 року, що призвела до масштабування та розвитку великих мовних моделей, які виявляють подібні до людських риси розуміння, пізнання, уваги та творчості. Початком ери ШІ вважають приблизно 2022—2024 роки із розробкою масштабованих великих мовних моделей, як-от ChatGPT.[249][250][251][252][253]

Великі мовні моделі

[ред. | ред. код]

2017 року дослідники з Google запропонували трансформерну архітектуру. Вона використовує механізм уваги, й пізніше стала широко використовуваною у великих мовних моделях.[254]

Моделі-основи[en] (англ. foundation models), що є великими мовними моделями, натренованими на величезних кількостях немічених даних, які можливо пристосовувати для широкого спектра підзадач, почали розробляти 2018 року.

Моделі, такі як GPT-3, випущену організацією OpenAI 2020 року, та Gato[en], випущену компанією DeepMind 2022 року, описували як важливі досягнення машинного навчання.

2023 року Microsoft Research перевірили велику мовну модель GPT-4 на великому розмаїтті завдань та зробили висновок, що «її можливо стерпно розглядати як ранню (але все ще неповну) версію системи сильного штучного інтелекту (СШІ, англ. artificial general intelligence, AGI[255]

Див. також

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. а б в г д е Copeland, J (Ed.) (2004). The Essential Turing: the ideas that gave birth to the computer age (англ.). Oxford: Clarendon Press. ISBN 0-19-825079-7.
  2. Kaplan, Andreas; Haenlein, Michael (2019). Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons (англ.). 62: 15—25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  3. Newquist, 1994, с. 143—156.
  4. Newquist, 1994, с. 144—152.
  5. Епізод про Тала у 4-тій книзі «Аргонавтики»
  6. Бібліотека 1.9.26
  7. Rhodios, Apollonios (2007). The Argonautika : Expanded Edition (англ.). University of California Press. с. 355. ISBN 978-0-520-93439-9. OCLC 811491744.
  8. Morford, Mark (2007). Classical mythology (англ.). Oxford. с. 184. ISBN 978-0-19-085164-4. OCLC 1102437035.
  9. Linden, Stanton J. (2003). The alchemy reader: from Hermes Trismegistus to Isaac Newton (англ.). New York: Cambridge University Press. с. Ch. 18. ISBN 0-521-79234-7. OCLC 51210362.
  10. Kressel, Matthew (1 жовтня 2015). 36 Days of Judaic Myth: Day 24, The Golem of Prague. Matthew Kressel (англ.). Процитовано 15 березня 2020.
  11. Newquist, 1994.
  12. GOLEM. www.jewishencyclopedia.com (англ.). Процитовано 15 березня 2020.
  13. Newquist, 1994, с. 38.
  14. Sanhedrin 65b. www.sefaria.org (англ.). Процитовано 15 березня 2020.
  15. O'Connor, Kathleen Malone (1994). The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam. Dissertations Available from ProQuest (англ.): 1—435.
  16. Goethe, Johann Wolfgang von (1890). Faust; a tragedy. Translated, in the original metres ... by Bayard Taylor. Authorised ed., published by special arrangement with Mrs. Bayard Taylor. With a biographical introd (англ.). London Ward, Lock.
  17. McCorduck, 2004, с. 17—25.
  18. Butler, 1863.
  19. Newquist, 1994, с. 65.
  20. Cave, Stephen; Dihal, Kanta (2019). Hopes and fears for intelligent machines in fiction and reality. Nature Machine Intelligence (англ.). 1 (2): 74—78. doi:10.1038/s42256-019-0020-9. ISSN 2522-5839. S2CID 150700981.
  21. Needham, 1986, с. 53.
  22. McCorduck, 2004, с. 6.
  23. Nick, 2005.
  24. McCorduck, 2004, с. 17.
  25. Levitt, 2000.
  26. Newquist, 1994, с. 30.
  27. Процитоване в McCorduck, 2004, с. 8, Crevier, 1993, с. 1, а McCorduck, 2004, с. 6—9 обговорює священні статуї.
  28. Інші важливі автомати створили Гарун ар-Рашид (McCorduck, 2004, с. 10), Жак де Вокансон (Newquist, 1994, с. 40), (McCorduck, 2004, с. 16) і Леонардо Торрес-і-Кеведо[en] (McCorduck, 2004, с. 59—62)
  29. Cave, S.; Dihal, K.; Dillon, S. (2020). AI Narratives: A History of Imaginative Thinking about Intelligent Machines (англ.). Oxford University Press. с. 56. ISBN 978-0-19-884666-6. Процитовано 2 травня 2023.
  30. Butler, E. M. (Eliza Marian) (1948). The myth of the magus (англ.). London: Cambridge University Press. ISBN 0-521-22564-7. OCLC 5063114.
  31. Porterfield, A. (2006). The Protestant Experience in America. American religious experience (англ.). Greenwood Press. с. 136. ISBN 978-0-313-32801-5. Процитовано 15 травня 2023.
  32. Hollander, Lee M. (1964). Heimskringla; history of the kings of Norway (англ.). Austin: Published for the American-Scandinavian Foundation by the University of Texas Press. ISBN 0-292-73061-6. OCLC 638953.
  33. а б в г Berlinski, 2000.
  34. Cfr. Carreras Artau, Tomás y Joaquín. Historia de la filosofía española. Filosofía cristiana de los siglos XIII al XV. Madrid, 1939, Volume I (ісп.)
  35. Bonner, Anthonny, The Art and Logic of Ramón Llull: A User's Guide, Brill, 2007. (англ.)
  36. Anthony Bonner (ed.), Doctor Illuminatus. A Ramon Llull Reader (Princeton University 1985). Vid. "Llull's Influence: The History of Lullism" at 57–71 (англ.)
  37. Механістичність та ШІ XVII століття:
  38. Гоббс та ШІ:
  39. Лейбніц та ШІ:
  40. Лямбда-числення було особливо важливим для ШІ, оскільки воно стало натхненням для Lisp (найважливішої мови програмування, яку використовували в ШІ). (Crevier, 1993, с. 190 196, 61)
  41. Оригінальне фото можна побачити у статті: Rose, Allen (April 1946). Lightning Strikes Mathematics. Popular Science (англ.): 83—86. Процитовано 15 квітня 2012.
  42. Newquist, 1994, с. 56.
  43. Машина Тюрінга: McCorduck, 2004, с. 63—64, Crevier, 1993, с. 22—24, Russell та Norvig, 2003, с. 8 та див. Turing, 1936–37
  44. Couturat, 1901.
  45. Russell та Norvig, 2021, с. 15.
  46. Russell та Norvig, (2021, с. 15); Newquist, (1994, с. 67)
  47. Randall, (1982, с. 4—5); Byrne, (2012); Mulvihill, (2012)
  48. Randall, (1982, с. 6, 11—13); Quevedo, (1914); Quevedo, (1915)
  49. Randall, 1982, с. 13, 16—17.
  50. Цитовано в Russell та Norvig, (2021, с. 15)
  51. Menabrea та Lovelace, 1843.
  52. Історія кафедри. Кафедра загальної та неорганічної хімії НТУ «ХПІ» (укр.). Архів оригіналу за 19 листопада 2023. Процитовано 20 листопада 2023.
  53. Кратко, 2009, с. 57.
  54. Малиновський, 2004, с. 8—10.
  55. Mollenhoff, Clark R. (1988). Atanasoff: Forgotten Father of the Computer (англ.). Ames: Iowa State University Press. ISBN 0-8138-0032-3.
  56. Katchanovski, Ivan (березень 2004). Virchenko, Nina; Katchanovski, Ivan; Haidey, Viktor; Andrushkiw, Roman; Voronka, Roman (ред.). A Puzzle in the Invention and Patenting of the Electronic Computer in the US (англ.). National Technical University of Ukraine and Shevchenko Scientific Society in the US. с. 655—687.
  57. а б Russell та Norvig, 2021, с. 14.
  58. McCorduck, 2004, с. 76—80.
  59. ЕК1973, т. 2, с. 36.
  60. Кратко, 2009, с. 58—59.
  61. Малиновський, 2004, с. 11—14.
  62. Kaplan, Andreas. Artificial Intelligence, Business and Civilization - Our Fate Made in Machines (англ.). Процитовано 11 березня 2022.
  63. McCorduck, 2004, с. 51—57, 80—107, Crevier, 1993, с. 27—32, Russell та Norvig, 2003, с. 15, 940, Moravec, 1988, с. 3, Cordeschi, 2002, Chap. 5.
  64. McCorduck, 2004, с. 98, Crevier, 1993, с. 27—28, Russell та Norvig, 2003, с. 15, 940, Moravec, 1988, с. 3, Cordeschi, 2002, Chap. 5.
  65. McCulloch, Warren S.; Pitts, Walter (1 грудня 1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics (англ.). 5 (4): 115—133. doi:10.1007/BF02478259. ISSN 1522-9602.
  66. Piccinini, Gualtiero (1 серпня 2004). The First Computational Theory of Mind and Brain: A Close Look at Mcculloch and Pitts's "Logical Calculus of Ideas Immanent in Nervous Activity". Synthese (англ.). 141 (2): 175—215. doi:10.1023/B:SYNT.0000043018.52445.3e. ISSN 1573-0964. S2CID 10442035.
  67. McCorduck, 2004, с. 51—57, 88—94, Crevier, 1993, с. 30, Russell та Norvig, 2003, с. 15−16, Cordeschi, 2002, Chap. 5 та див. також McCullough та Pitts, 1943
  68. McCorduck, 2004, с. 102, Crevier, 1993, с. 34—35 та Russell та Norvig, 2003, с. 17
  69. McCorduck, 2004, с. 70—72, Crevier, 1993, с. 22−25, Russell та Norvig, 2003, с. 2–3 and 948, Haugeland, 1985, с. 6—9, Cordeschi, 2002, с. 170—176. Див. також Turing, 1950
  70. Newquist, 1994, с. 92—98.
  71. Russell та Norvig, (2003, с. 948) стверджують, що Тюрінг відповів на всі основні заперечення проти ШІ, які було висунуто протягом років після появи цієї праці.
  72. Див. "A Brief History of Computing" (англ.) на AlanTuring.net.
  73. Schaeffer, Jonathan. One Jump Ahead:: Challenging Human Supremacy in Checkers, 1997, 2009, Springer, ISBN 978-0-387-76575-4. Розділ 6. (англ.)
  74. McCorduck, 2004, с. 137—170, Crevier, 1993, с. 44—47
  75. McCorduck, 2004, с. 123—125, Crevier, 1993, с. 44—46 та Russell та Norvig, 2003, с. 17
  76. Цитовано в Crevier, 1993, с. 46 та Russell та Norvig, 2003, с. 17
  77. Russell та Norvig, 2003, с. 947, 952.
  78. Chatterjee, Sheshadri; N.S., Sreenivasulu; Hussain, Zahid (1 січня 2021). Evolution of artificial intelligence and its impact on human rights: from sociolegal perspective. International Journal of Law and Management (англ.). 64 (2): 184—205. doi:10.1108/IJLMA-06-2021-0156. ISSN 1754-243X. S2CID 238670666.
  79. McCorduck, 2004, с. 111—136, Crevier, 1993, с. 49—51 та Russell та Norvig, 2003, с. 17 Newquist, 1994, с. 91—112
  80. Див. McCarthy та ін., 1955. Також див. Crevier, 1993, с. 48, де Крев'є[en] стверджує, що «[ця пропозиція] пізніше стала відомою як „гіпотеза систем фізичних символів“». Гіпотезу системи фізичних символів сформульовали та дали їй назву Ньюелл та Саймон у своїй статті про ЗРЗ. (Newell та Simon, 1963) Вона містить конкретніше визначення «машини» як агента, що маніпулює символами. Див. філософію штучного інтелекту.
  81. McCorduck, (2004, с. 129—130) розповідає, як випускники Дартмутського семінару домінували в перші два десятиліття досліджень ШІ, називаючи їх «невидимим коледжем».
  82. «Я не присягатимуся, але я не бачив її раніше», — сказав Маккарті Памелі Маккордак[en] 1979 року. (McCorduck, 2004, с. 114) Проте Маккарті також недвозначно заявив «Я придумав цей термін» в інтерв'ю CNET. (Skillings, 2006)
  83. McCarthy, John (1988). Review of The Question of Artificial Intelligence. Annals of the History of Computing (англ.). 10 (3): 224—229., зібрано в McCarthy, John (1996). 10. Review of The Question of Artificial Intelligence. Defending AI Research: A Collection of Essays and Reviews (англ.). CSLI., с. 73 «[О]днією з причин винаходу терміна „штучний інтелект“ була втеча від асоціації з „кібернетикою“. Її зосередження на аналоговому зворотному зв'язку здавалося помилковим, і я хотів уникнути чи то прийняття Норберта (не Роберта) Вінера як гуру, чи то сперечання з ним.»
  84. Crevier, (1993, с. 49) пише «цю конференцію загалом визнають офіційною датою народження цієї нової науки.»
  85. Рассел та Норвіг пишуть «це було дивовижно, коли комп'ютер робив щось хоч віддалено розумне.» Russell та Norvig, 2003, с. 18
  86. Crevier, 1993, с. 52—107, Moravec, 1988, с. 9 та Russell та Norvig, 2003, с. 18−21
  87. McCorduck, 2004, с. 218, Newquist, 1994, с. 91—112, Crevier, 1993, с. 108—109 та Russell та Norvig, 2003, с. 21
  88. Crevier, 1993, с. 52—107, Moravec, 1988, с. 9
  89. Аналіз цілей—засобів, міркування як пошук: McCorduck, 2004, с. 247—248. Russell та Norvig, 2003, с. 59—61
  90. Евристика: McCorduck, 2004, с. 246, Russell та Norvig, 2003, с. 21—22
  91. ЗРЗ: McCorduck, 2004, с. 245—250, Crevier, 1993, с. ЗРЗ?, Russell та Norvig, 2003, с. ЗРЗ?
  92. Crevier, 1993, с. 51—58, 65—66 та Russell та Norvig, 2003, с. 18—19
  93. McCorduck, 2004, с. 268—271, Crevier, 1993, с. 95—96, Newquist, 1994, с. 148—156, Moravec, 1988, с. 14—15
  94. Rosenblatt, Frank. Principles of neurodynamics: Perceptrons and the theory of brain mechanisms. Vol. 55. Washington, DC: Spartan books, 1962. (англ.)
  95. Widrow, B.; Lehr, M.A. (Вересень 1990). 30 years of adaptive neural networks: perceptron, Madaline, and backpropagation. Proceedings of the IEEE (англ.). 78 (9): 1415—1442. doi:10.1109/5.58323. S2CID 195704643.
  96. Rosen, Charles A., Nils J. Nilsson, and Milton B. Adams. "A research and development program in applications of intelligent automata to reconnaissance-phase I." Proposal for Research SRI No. ESU 65-1, 8 січня 1965. (англ.)
  97. Nilsson, Nils J. The SRI Artificial Intelligence Center: A Brief History. Artificial Intelligence Center, SRI International, 1984. (англ.)
  98. Hart, Peter E.; Nilsson, Nils J.; Perrault, Ray; Mitchell, Tom; Kulikowski, Casimir A.; Leake, David B. (15 березня 2003). In Memoriam: Charles Rosen, Norman Nielsen, and Saul Amarel. AI Magazine (англ.). 24 (1): 6. doi:10.1609/aimag.v24i1.1683. ISSN 2371-9621.
  99. Nilsson, Nils J. (2009). Section 4.2: Neural Networks. The Quest for Artificial Intelligence (англ.). Cambridge: Cambridge University Press. doi:10.1017/cbo9780511819346. ISBN 978-0-521-11639-8.
  100. а б Nielson, Donald L. (1 січня 2005). Chapter 4: The Life and Times of a Successful SRI Laboratory: Artificial Intelligence and Robotics (PDF). A HERITAGE OF INNOVATION SRI's First Half Century (English) (вид. 1st). SRI International. ISBN 978-0-9745208-0-3.
  101. а б в г Olazaran Rodriguez, Jose Miguel. A historical sociology of neural network research. PhD Dissertation. University of Edinburgh, 1991. Див. особливо розділи 2 та 3. (англ.)
  102. Schmidhuber, Jurgen. Critique of Paper by "Deep Learning Conspiracy". (Nature 521 p 436) (англ.). Процитовано 26 грудня 2019.
  103. Ivakhnenko, A.G. (1968). The Group Method of Data Handling - a Rival of the Method of Stochastic Approximation. Soviet Automatic Control. 13 (3): 43—55.
  104. McCorduck, 2004, с. 286, Crevier, 1993, с. 76—79, Russell та Norvig, 2003, с. 19
  105. Crevier, 1993, с. 79—83.
  106. Crevier, 1993, с. 164—172.
  107. McCorduck, 2004, с. 291—296, Crevier, 1993, с. 134—139
  108. McCorduck, 2004, с. 299—305, Crevier, 1993, с. 83—102, Russell та Norvig, 2003, с. 19 та Copeland, 2000
  109. McCorduck, 2004, с. 300—305, Crevier, 1993, с. 84—102, Russell та Norvig, 2003, с. 19
  110. Humanoid History -WABOT- (яп.).
  111. Zeghloul, Saïd; Laribi, Med Amine; Gazeau, Jean-Pierre (21 вересня 2015). Robotics and Mechatronics: Proceedings of the 4th IFToMM International Symposium on Robotics and Mechatronics (англ.). Springer. ISBN 9783319223681 — через Google Books.
  112. Historical Android Projects. androidworld.com (англ.).
  113. Robots: From Science Fiction to Technological Revolution, сторінка 130 (англ.)
  114. Duffy, Vincent G. (19 квітня 2016). Handbook of Digital Human Modeling: Research for Applied Ergonomics and Human Factors Engineering (англ.). CRC Press. ISBN 9781420063523 — через Google Books.
  115. Amosov, N.M.; Kussul, E.M.; Fomenko, V.D. (1975). Transport robot with network control system (PDF). IJCAI (англ.). Tbilisi. Архів (PDF) оригіналу за 31 травня 2023. Процитовано 20 листопада 2023.
  116. Микола Амосов - основоположник біокібернетичних інформаційних технологій. Робототехнічний період. Музей історії розвитку інформаційних технологій в Україні. Архів оригіналу за 10 червня 2023. Процитовано 20 листопада 2023.
  117. Simon та Newell, 1958, с. 7−8 цитовано в Crevier, 1993, с. 108. Див. також Russell та Norvig, 2003, с. 21
  118. Simon, 1965, с. 96 цитовано в Crevier, 1993, с. 109
  119. Minsky, 1967, с. 2 цитовано в Crevier, 1993, с. 109
  120. Мінський переконаний, що його неправильно процитували. Див. McCorduck, 2004, с. 272—274, Crevier, 1993, с. 96 та Darrach, 1970.
  121. Crevier, 1993, с. 64—65.
  122. Crevier, 1993, с. 94.
  123. Howe, 1994
  124. McCorduck, 2004, с. 131, Crevier, 1993, с. 51. Маккордак також зазначає, що фінансування було переважно під керівництвом випускників Дартмутського семінару[en] 1956 року.
  125. Crevier, 1993, с. 65.
  126. Crevier, 1993, с. 68—71 та Turkle, 1984
  127. Crevier, 1993, с. 100—144 та Russell та Norvig, 2003, с. 21—22
  128. Малиновський, 1995, с. 72—73: «… виявилося, що вже перші спроби давали обнадійливі результати: ідея вже є, залишається тільки її реалізувати, а виходячи зі старого досвіду, який був накопичений в інших науках, вважали, що ідея — це вже 40% справи. Якщо на розробку ідеї треба було два роки, значить, на її реалізацію буде потрібно в півтора рази більше і через п'ять років ми зробимо програми, які будуть перекладати краще будь-якого перекладача з англійської на російську, або зробимо таку машину, яка буде призначена для кращого розуміння мови і змісту хорошим співрозмовником на рівні людини і т.п. Але виявилося, що це далеко не так.» — В. М. Глушков, 1982 рік
  129. McCorduck, 2004, с. 104—107, Crevier, 1993, с. 102—105, Russell та Norvig, 2003, с. 22
  130. Crevier, 1993, с. 163—196.
  131. Haigh, Thomas (грудень 2023). There Was No 'First AI Winter'. Communications of the ACM (англ.). 66 (12): 35—39. doi:10.1145/3625833. ISSN 0001-0782.
  132. Crevier, 1993, с. 146.
  133. Russell та Norvig, 2003, с. 20—21.
  134. Newquist, 1994, с. 336.
  135. Crevier, 1993, с. 146—148, див. також Buchanan, 2005, с. 56: «Ранні програми були неминуче обмежені в охопленні розміром і швидкістю пам'яті»
  136. Moravec, 1976. Маккарті завжди не погоджувався з Моравеком, починаючи з їхніх спільних ранніх днів у SAIL[en]. В інтерв'ю CNET він заявив: «Я би сказав, що 50 років тому можливості машин були занадто малі, але 30 років тому можливості машин не були реальною проблемою». (Skillings, 2006)
  137. Hans Moravec, ROBOT: Mere Machine to Transcendent Mind (англ.)
  138. Russell та Norvig, 2003, с. 9, 21—22 та Lighthill, 1973
  139. McCorduck, 2004, с. 300 & 421; Crevier, 1993, с. 113—114; Moravec, 1988, с. 13; Lenat та Guha, 1989, (Introduction); Russell та Norvig, 2003, с. 21
  140. McCorduck, 2004, с. 456, Moravec, 1988, с. 15—16
  141. McCarthy та Hayes, 1969, Crevier, 1993, с. 117—119
  142. McCorduck, 2004, с. 280—281, Crevier, 1993, с. 110, Russell та Norvig, 2003, с. 21 та NRC, 1999 під «Success in Speech Recognition».
  143. Crevier, 1993, с. 117, Russell та Norvig, 2003, с. 22, Howe, 1994 та див. також Lighthill, 1973.
  144. Russell та Norvig, 2003, с. 22, Lighthill, 1973, Джон Маккарті написав у відповідь у Review of Lighthill report, що «проблема комбінаторного вибуху була визнана в ШІ від самого початку»
  145. Crevier, 1993, с. 115—116 (на чому ґрунтується це твердження). До інших поглядів належать McCorduck, 2004, с. 306—313 та NRC, 1999 під «Success in Speech Recognition».
  146. Crevier, 1993, с. 115. Моравек пояснює: «Їхні початкові обіцянки DARPA були занадто оптимістичними. Звісно, те, що вони виконали, значно відставало від цього. Але вони відчували, що в наступній пропозиції вони не можуть обіцяти менше, ніж у першій, тому вони обіцяли більше».
  147. NRC, 1999 під «Shift to Applied Research Increases Investment». Хоч автономний танк і виявився невдачею, система управління боєм (названа «DART») виявилася надзвичайно успішною, заощадивши мільярди в першій війні в Перській затоці, відшкодувавши інвестиції й виправдавши прагматичну політику DARPA, принаймні з погляду DARPA.
  148. Лукасова та Пенроузова критика ШІ: Crevier, 1993, с. 22, Russell та Norvig, 2003, с. 949—950, Hofstadter, 1999, с. 471—477 та див. Lucas, 1961
  149. «Знання-як» — це термін Дрейфуса. (Дрейфус робить розрізнення між «знанням-як» і «знанням-що», сучасною версією Гайдеґґерового розрізнення підручної готовності[en] та перебування в руках[en].) (Dreyfus та Dreyfus, 1986)
  150. Дрейфусова критика штучного інтелекту[en]: McCorduck, 2004, с. 211—239, Crevier, 1993, с. 120—132, Russell та Norvig, 2003, с. 950—952 та див. Dreyfus, 1965, Dreyfus, 1972, Dreyfus та Dreyfus, 1986
  151. Серлева Критика ШІ: McCorduck, 2004, с. 443—445, Crevier, 1993, с. 269—271, Russell та Norvig, 2003, с. 958—960 та див. Searle, 1980
  152. Цитовано в Crevier, 1993, с. 143
  153. Цитовано в Crevier, 1993, с. 122
  154. Newquist, 1994, с. 276.
  155. «Я став єдиним членом спільноти ШІ, поміченим за обідом з Дрейфусом. І я навмисно показав, що це не той спосіб поводитися з людиною». Джозеф Вейценбаум, цитований в Crevier, 1993, с. 123.
  156. Colby, Watt та Gilbert, 1966, с. 148. Вейценбаум посилався на цей текст у Weizenbaum, 1976, с. 5, 6. Колбі та його колеги пізніше також розробили схожі на чат-боти «комп'ютерні моделі параноїдальних процесів (PARRY)», щоби «зробити зрозумілими параноїдальні процеси в явних термінах символьної обробки». Colby, 1974, с. 6
  157. Вейценбаумова критика ШІ: McCorduck, 2004, с. 356—373, Crevier, 1993, с. 132—144, Russell та Norvig, 2003, с. 961 та див. Weizenbaum, 1976
  158. McCorduck, 2004, с. 51, Russell та Norvig, 2003, с. 19, 23
  159. McCorduck, 2004, с. 51, Crevier, 1993, с. 190—192
  160. Crevier, 1993, с. 193—196.
  161. Crevier, 1993, с. 145—149, 258—63.
  162. Wason та Shapiro, (1966) показали, що люди погано впоруються з повністю абстрактними задачами, але якщо задачу переформулювати так, щоби дозволити використання інтуїтивного соціального інтелекту, продуктивність різко покращується. (Див. задачу вибору Вейсона[en]) Kahneman, Slovic та Tversky, (1982) показали, що люди жахливо впоруються з елементарними задачами, які вимагають нечіткого міркування. (Див. декілька прикладів у переліку когнітивних упереджень). Роботу Елеанори Рош[en] описано в Lakoff, 1987
  163. Раннім прикладом позиції Маккарті був журнал Science, де він сказав: «Це ШІ, тому нам не важливо, чи це психологічно реально» (Kolata, 1982), і він нещодавно повторив свою позицію на конференції AI@50[en], де сказав: «Штучний інтелект не є, за визначенням, імітуванням людського інтелекту» (Maker, 2006).
  164. Crevier, 1993, с. 175.
  165. Чепурні проти нечупар: McCorduck, 2004, с. 421—424 (який показує стан дебатів у 1984 році). Crevier, 1993, с. 168 (який документує первинне використання цього терміну Скенком). Інший аспект цього конфлікту назвали «процедурною/декларативною відмінністю», але він не виявився впливовим у подальших дослідженнях ШІ.
  166. McCorduck, 2004, с. 305—306, Crevier, 1993, с. 170—173, 246 та Russell та Norvig, 2003, с. 24. Стаття Мінського про рамки: Minsky, 1974.
  167. Hayes, P.J. (1981). The logic of frames. У Kaufmann, Morgan (ред.). Readings in artificial intelligence (англ.). с. 451—458.
  168. а б Reiter, R. (1978). On reasoning by default. American Journal of Computational Linguistics (англ.): 29—37.
  169. Clark, K.L. (1977). Negation as Failure. Logic and Data Bases (англ.). Boston, MA: Springer US. с. 293—322. doi:10.1007/978-1-4684-3384-5_11. ISBN 978-1-4684-3386-9.
  170. Newquist, 1994, с. 189—192.
  171. McCorduck, 2004, с. 327—335 (Дендрал), Crevier, 1993, с. 148—159, Newquist, 1994, с. 271, Russell та Norvig, 2003, с. 22—23
  172. Crevier, 1993, с. 158—159 та Russell та Norvig, 2003, с. 23−24
  173. Crevier, 1993, с. 198.
  174. Newquist, 1994, с. 259.
  175. McCorduck, 2004, с. 434—435, Crevier, 1993, с. 161—162, 197—203, Newquist, 1994, с. 275 та Russell та Norvig, 2003, с. 24
  176. McCorduck, 2004, с. 299.
  177. McCorduck, 2004, с. 421.
  178. Революція знань: McCorduck, 2004, с. 266—276, 298—300, 314, 421, Newquist, 1994, с. 255—267, Russell та Norvig, 2003, с. 22—23
  179. Cyc: McCorduck, 2004, с. 489, Crevier, 1993, с. 239—243, Newquist, 1994, с. 431—455, Russell та Norvig, 2003, с. 363−365 та Lenat та Guha, 1989
  180. Chess: Checkmate (PDF) (англ.). Архів оригіналу (PDF) за 8 жовтня 2007. Процитовано 1 вересня 2007.
  181. McCorduck, 2004, с. 436—441, Newquist, 1994, с. 231—240, Crevier, 1993, с. 211, Russell та Norvig, 2003, с. 24 та див. також Feigenbaum та McCorduck, 1983
  182. Crevier, 1993, с. 195.
  183. Crevier, 1993, с. 240.
  184. а б в Russell та Norvig, 2003, с. 25.
  185. McCorduck, 2004, с. 426—432, NRC, 1999 під «Shift to Applied Research Increases Investment»
  186. Sejnowski, Terrence J. (23 жовтня 2018). The Deep Learning Revolution (англ.) (вид. 1st). Cambridge, Massachusetts London, England: The MIT Press. с. 93–94. ISBN 978-0-262-03803-4.
  187. Crevier, 1993, с. 214—215.
  188. Crevier, 1993, с. 215—216.
  189. Mead, Carver A.; Ismail, Mohammed (8 травня 1989). Analog VLSI Implementation of Neural Systems (PDF). The Kluwer International Series in Engineering and Computer Science (англ.). Т. 80. Norwell, MA: Kluwer Academic Publishers[en]. doi:10.1007/978-1-4613-1639-8. ISBN 978-1-4613-1639-8.
  190. Newquist, 1994, с. 501.
  191. Crevier, 1993, с. 203. Термін «зима ШІ» вперше використали як назву семінару на цю тему для Асоціації з розвитку штучного інтелекту.
  192. Newquist, 1994, с. 359—379, McCorduck, 2004, с. 435, Crevier, 1993, с. 209—210
  193. McCorduck, 2004, с. 435 (яка наводить інституційні причини їхньої остаточної невдачі), Newquist, 1994, с. 258—283 (який наводить обмежене впровадження в корпораціях), Crevier, 1993, с. 204—208 (який наводить складність підтримки істинності, тобто навчання та оновлення), Lenat та Guha, 1989, Вступ (які підкреслюють крихкість і неспроможність впоратися з надмірною кваліфікацією.)
  194. McCorduck, 2004, с. 430—431.
  195. а б McCorduck, 2004, с. 441, Crevier, 1993, с. 212. Маккордак пише: «Через два з половиною десятиліття ми можемо бачити, що японці не те щоби досягли всіх тих амбітних цілей.»
  196. Newquist, 1994, с. 476.
  197. а б Newquist, 1994, с. 440.
  198. McCorduck, 2004, с. 454—462.
  199. Moravec, (1988, с. 20) пише: «Я впевнений, що цей підхід знизу вгору до штучного інтелекту одного дня зустрінеться з традиційним підходом згори донизу більше ніж на половині шляху, готовий надати компетентність щодо реального світу й знання здорового глузду, що були такими недосяжними в програмах міркування. Повністю інтелектуальні машини виникнуть, коли буде вбито метафоричний золотий костиль[en], що об'єднає ці два зусилля.»
  200. Crevier, 1993, с. 183—190.
  201. Brooks, Robert A. (1990). Elephants Don't Play Chess (PDF). Robotics and Autonomous Systems (англ.). 6 (1–2): 3—15. doi:10.1016/S0921-8890(05)80025-9.
  202. Brooks, 1990, с. 3.
  203. Див., наприклад, Lakoff та Johnson, 1999
  204. Newquist, 1994, с. 511.
  205. McCorduck, (2004, с. 424) обговорює розкол і відмову від первинних цілей ШІ.
  206. McCorduck, 2004, с. 480—483.
  207. Deep Blue (англ.). IBM Research. Процитовано 10 вересня 2010.
  208. DARPA Grand Challenge – home page (англ.). Архів оригіналу за 31 жовтня 2007.
  209. Welcome (англ.). Архів оригіналу за 5 березня 2014. Процитовано 25 жовтня 2011.
  210. Markoff, John (16 лютого 2011). On 'Jeopardy!' Watson Win Is All but Trivial. The New York Times (англ.).
  211. Kurzweil, 2005, с. 274 пише, що поліпшення в комп'ютерних шахах, «за загальною думкою, обумовлене лише розширенням грубою силою апаратного забезпечення комп'ютерів.»
  212. Тривалість циклу Ferranti Mark 1[en] становила 1,2 мілісекунди, що можна вважати еквівалентним приблизно 833 FLOPS. Deep Blue працював на швидкості 11,38 гігафлопс (і це без урахування спеціального апаратного забезпечення для шахів у Deep Blue). Дуже приблизно, ці значення відрізняються в 107 разів.
  213. McCorduck, 2004, с. 471—478, Russell та Norvig, 2003, с. 55, де вони пишуть: «Погляд на цілісного агента зараз широко прийнятий у галузі». Парадигму інтелектуального агента обговорюють в основних підручниках з ШІ, як-от: Russell та Norvig, 2003, с. 32—58, 968—972, Poole, Mackworth та Goebel, 1998, с. 7—21, Luger та Stubblefield, 2004, с. 235—240
  214. Модель акторів Карла Г'юїтта[en] передбачила сучасне визначення інтелектуальних агентів. (Hewitt, Bishop та Steiger, 1973) Як Джон Дойль (Doyle, 1983), так і популярна класика Марвіна Мінського «Суспільство розуму[en]» (Minsky, 1986), використовували слово «агент» (англ. "agent"). Серед інших «модульних» пропозицій були категоризувальна архітектура[en] Родні Брукса[en], об'єктно-орієнтоване програмування та інші.
  215. а б Russell та Norvig, 2003, с. 27, 55.
  216. Ось так найширше визнані підручники XXI століття визначають штучний інтелект. Див. Russell та Norvig, 2003, с. 32 та Poole, Mackworth та Goebel, 1998, с. 1
  217. McCorduck, 2004, с. 478.
  218. McCorduck, 2004, с. 486—487, Russell та Norvig, 2003, с. 25—26
  219. Pearl, 1988.
  220. Russell та Norvig, 2003, с. 25−26.
  221. Див. застосування штучного інтелекту в інформатиці
  222. NRC, 1999 під «Artificial Intelligence in the 90s», та Kurzweil, 2005, с. 264
  223. Russell та Norvig, 2003, с. 28.
  224. Щодо нового рівня останніх досягнень у розпізнаванні мовлення на основі ШІ див. The Economist, (2007)
  225. а б «Натхнені ШІ системи вже було вбудовано до багатьох повсякденних технологій, як-от рушіїв пошуку в Інтернет, банківського програмного забезпечення для обробки транзакцій, та медичного діагностування.» Нік Бостром, цитований у CNN, 2006
  226. Olsen, (2004),Olsen, (2006)
  227. McCorduck, 2004, с. 423, Kurzweil, 2005, с. 265, Hofstadter, 1999, с. 601 Newquist, 1994, с. 445
  228. CNN, 2006.
  229. Markoff, 2005.
  230. The Economist, 2007.
  231. Tascarella, 2006.
  232. Newquist, 1994, с. 532.
  233. Steve Lohr (17 жовтня 2016), IBM Is Counting on Its Bet on Watson, and Paying Big Money for It, New York Times (англ.)
  234. Hampton, Stephanie E; Strasser, Carly A; Tewksbury, Joshua J; Gram, Wendy K; Budden, Amber E; Batcheller, Archer L; Duke, Clifford S; Porter, John H (1 квітня 2013). Big data and the future of ecology. Frontiers in Ecology and the Environment (англ.). 11 (3): 156—162. Bibcode:2013FrEE...11..156H. doi:10.1890/120103. ISSN 1540-9309.
  235. How Big Data is Changing Economies | Becker Friedman Institute. bfi.uchicago.edu (англ.). Архів оригіналу за 18 червня 2018. Процитовано 9 червня 2017.
  236. а б LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). Deep learning. Nature (англ.). 521 (7553): 436—444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096.
  237. Milmo, Dan (3 листопада 2023). Hope or Horror? The great AI debate dividing its pioneers. The Guardian Weekly[en] (англ.). с. 10—12.
  238. The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. GOV.UK (англ.). 1 листопада 2023. Архів оригіналу за 1 листопада 2023. Процитовано 2 листопада 2023.
  239. Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration. GOV.UK (Пресреліз) (англ.). Архів оригіналу за 1 листопада 2023. Процитовано 1 листопада 2023.
  240. Baral, Chitta; Fuentes, Olac; Kreinovich, Vladik (June 2015). Why Deep Neural Networks: A Possible Theoretical Explanation. Departmental Technical Reports (Cs) (англ.). Процитовано 9 червня 2017.
  241. Ciregan, D.; Meier, U.; Schmidhuber, J. (June 2012). Multi-column deep neural networks for image classification. 2012 IEEE Conference on Computer Vision and Pattern Recognition (англ.). с. 3642—3649. arXiv:1202.2745. Bibcode:2012arXiv1202.2745C. CiteSeerX 10.1.1.300.3283. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592.
  242. Markoff, John (16 лютого 2011). On 'Jeopardy!' Watson Win Is All but Trivial. The New York Times (амер.). ISSN 0362-4331. Процитовано 10 червня 2017.
  243. AlphaGo: Mastering the ancient game of Go with Machine Learning. Research Blog (амер.). Процитовано 10 червня 2017.
  244. Innovations of AlphaGo | DeepMind. DeepMind (англ.). Процитовано 10 червня 2017.
  245. University, Carnegie Mellon. Computer Out-Plays Humans in "Doom"-CMU News - Carnegie Mellon University. www.cmu.edu (англ.). Процитовано 10 червня 2017.
  246. Laney, Doug (2001). 3D data management: Controlling data volume, velocity and variety. META Group Research Note (англ.). 6 (70).
  247. Marr, Bernard (6 March 2014). Big Data: The 5 Vs Everyone Must Know (англ.).
  248. Goes, Paulo B. (2014). Design science research in top information systems journals. MIS Quarterly: Management Information Systems (англ.). 38 (1).
  249. Marr, Bernard. Beyond The Hype: What You Really Need To Know About AI In 2023. Forbes (англ.). Процитовано 27 січня 2024.
  250. The Era of AI: 2023's Landmark Year. CMSWire.com (англ.). Процитовано 28 січня 2024.
  251. How the era of artificial intelligence will transform society?. PocketConfidant AI (амер.). 15 червня 2018. Процитовано 28 січня 2024.
  252. This year signaled the start of a new era. www.linkedin.com (англ.). Процитовано 28 січня 2024.
  253. Lee, Adrienne (23 січня 2024). UT Designates 2024 ‘The Year of AI’. UT News (амер.). Процитовано 28 січня 2024.
  254. Murgia, Madhumita (23 липня 2023). Transformers: the Google scientists who pioneered an AI revolution. www.ft.com (англ.). Процитовано 10 грудня 2023.
  255. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 березня 2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4 (англ.). arXiv:2303.12712 [cs.CL].

Література

[ред. | ред. код]