GPT-3

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
Породжувальний попередньо тренований трансформер (Generative Pre-trained Transformer 3, GPT-3)
Тип Авторегресійна[en] трансформерна модель мови
Автор(и) OpenAI[1]
Розробник OpenAI
Перший випуск 11 червня 2020 року (бета)
Версії 175B[2]
Репозиторій github.com/openai/gpt-3
Ліцензія Код не доступний, доступна лише через платний ППІ
Вебсайт openai.com/blog/openai-api

Поро́джувальний попере́дньо трено́ваний трансфо́рмер 3 (англ. Generative Pre-trained Transformer 3, GPT-3) — це авторегресійна[en] модель мови, яка використовує глибинне навчання, щоби виробляти текст, подібний до людського. Вона є мовною передбачувальною моделлю третього покоління в серії GPT-n, створеній OpenAI, лабораторією досліджень штучного інтелекту в Сан-Франциско.[3] Повна версія GPT-3 має ємність у 175 мільярдів параметрів машинного навчання. GPT-3, яку було представлено в травні 2020 року і яка перебуває в бета-тестуванні станом на липень 2020 року[4], є частиною тенденції попереднього тренування представлень мови в системах обробки природної мови (ОПМ)[1]. Перед випуском GPT-3 найбільшою мовною моделлю була Turing NLG Microsoft, представлена в лютому 2020 року, з ємністю в 17 мільярдів параметрів, або менш ніж 10 % у порівнянні з GPT-3[5].

Якість тексту, породжуваного GPT-3, є настільки високою, що його складно відрізнити від тексту, написаного людиною, що несе як переваги, так і ризики[5]. Оригінальну працю 28 травня 2020 року, яка представила GPT-3, презентували тридцять один дослідник та інженер OpenAI. У своїй праці вони попередили про небезпеки потенціалу GPT-3, й закликали провести дослідження з метою зниження ризику.[1]:34 Девід Чалмерс, австралійський філософ, описав GPT-3 як «одну із найцікавіших та найважливіших систем ШІ з будь-коли зроблених».[6]

22 вересня 2020 року Microsoft оголосила, що отримала ліцензію на «ексклюзивне» використання GPT-3; інші все ще можуть використовувати цей загальнодоступний ППІ для отримування виходу, але лише Microsoft має контроль над первинним кодом.[7]

Передісторія[ред. | ред. код]

Згідно журналу «Економіст», вдосконалені алгоритми, потужні комп'ютери, та збільшення оцифрованих даних спричинили революцію в машиннім навчанні, завдяки чому нові методики призвели 2010 року до «швидкого вдосконалення в задачах», включно з маніпулюванням мовою.[8] Програмні моделі тренуються навчатися, використовуючи тисячі або мільйони зразків у «структурі, … що в загальних рисах ґрунтується на нейронній архітектурі мозку».[8] Однією з архітектур, які використовують в обробці природної мови (ОПМ), є нейронна мережа, що ґрунтується на моделі глибинного навчання, вперше представлена 2017 року —Трансформер.[9] Моделі GPT-n ґрунтуються на цій нейромережній архітектурі глибинного навчання на основі Трансформера. Існує низка систем ОПМ, здатних оброблювати, видобувати, впорядковувати, з'єднувати, протиставляти, розуміти, та породжувати відповіді на питання.[10]

11 червня 2018 року дослідники та інженери OpenAI опублікувати свою оригінальну працю про породжувальні моделі — мовні моделі — системи штучного інтелекту — які може бути попередньо треновано величезним та різноманітним корпусом тексту[en] через набори даних, у процесі, який вони назвали породжувальним попереднім тренуванням (англ. generative pre-training, GP).[11] Ці автори описали, як в GPT-n було покращено продуктивності розуміння мови в обробці природної мови (ОПМ) за допомогою процесу «породжувального попереднього тренування моделі мови на різноманітнім корпусі неміченого тексту, з подальшим розрізнювальним тонким налаштуванням на для кожної конкретної задачі». Це усунуло потребу в людському керуванні та тривалому міченні вручну.[11]

В лютому 2020 року Microsoft представила своє Тюрінгове породжування природної мови (англ. Turing Natural Language Generation, T-NLG), що було на той момент «найбільшою моделлю мови з будь-коли опублікованих, із 17 мільярдами параметрів».[12] Вона працювала краще за будь-яку іншу модель мови на різноманітних задачах, до яких належали автоматизоване реферування та відповідання на питання.[12]

Можливості[ред. | ред. код]

Сигнальний примірник arXiv 28 травня 2020 року від групи з 31 інженера та дослідника OpenAI[a] описав розробку GPT-3, «моделі мови найвищого рівня» третього покоління.[1][5] Ця команда збільшила ємність GPT-3 на понад два порядки відносно її попередниці, GPT-2,[13] зробивши GPT-3 найбільшою нерозрідженою[прояснити] моделлю мови на той момент.[1]:14[3] Вище число параметрів GPT-3 дає їй вищий рівень точності відносно попередніх версій із меншою ємністю.[14] Ємність GPT-3 є в десять разів більшою за Тюрінгове ППМ Microsoft.[5]

Шістдесят відсотків зваженого набору даних попереднього тренування GPT-3 походить із відфільтрованої версії Common Crawl[en], що складається з 410 мільярдів діграмно кодованих[en] лексем[1]:9. Іншими джерелами є 19 мільярдів лексем з WebText2, що представляють 22 % зваженого загального, 12 мільярдів лексем з Books1, що представляють 8 %, 55 мільярдів лексем з Books2, що представляють 8 %, та 3 мільярди лексем із Вікіпедії, що представляють 3 %[1]:9. GPT-3 треновано на сотнях мільярдів слів, і вона здатна, серед іншого, писати код мовами CSS, JCX та Python[4]. Оскільки тренувальні дані GTP-3 були всеосяжними, вона не вимагає подальшого тренування для окремих мовних задач[4].

11 червня 2020 року OpenAI оголосила, що користувачі можуть робити запити на доступ до їхнього дружнього ППІ GPT-3 — «набору інструментів машинного навчання» (англ. «machine learning toolset») — щоби допомогти OpenAI «дослідити сильні сторони та межі» цієї нової технології.[15][16] Це запрошення описувало, що цей ППІ мав інтерфейс загального призначення «текст на вході, текст на виході», що може виконувати майже «будь-яку задачу для англійської мови», замість звичного єдиного сценарію використання.[15] Згідно з одним користувачем, який мав доступ до приватного раннього випуску ППІ GPT-3 OpenAI, GPT-3 була «моторошно доброю» в написанні «напрочуд зв'язного тексту», маючи лише декілька простих підказок[17].

Оскільки GPT-3 може «породжувати новинні статті, які оцінювачам-людям складно відрізнити від статей, написаних людьми»,[5] GPT-3 має «потенціал створити прогрес як у корисних, так і в шкідливих застосуваннях моделей мови».[1]:34 У своїй праці від 28 травня 2020 року дослідники описали в деталях потенційні «шкідливі впливи GPT-3»,[5] до яких належать «дезінформація, спам, фішинг, зловживання правовими та державними процесами[en], написання шахрайських академічних есе[en] та соціально-інженерний претекстинг».[1] Автори привернули увагу до цих небезпек, щоби закликати до дослідження стосовно зниження ризику.[1]:34

Огляди[ред. | ред. код]

У своєму огляді 29 липня 2020 року в «Нью-Йорк таймс» Фархад Манджу[en] сказав, що GPT-3, яка може породжувати комп'ютерний код та поезію, так само як і прозу, є не просто «дивовижною», «моторошною» та «принижувальною», але й також «більш ніж трохи жахальною»[18].

«Дейлі Ноус»[en] представив низку статей про GPT-3 від дев'яти філософів.[19] Австралійський філософ Девід Чалмерс описав GPT-3 як «одну із найцікавіших та найважливіших систем ШІ з будь-коли зроблених».[6]

В огляді у «Wired» сказано, що GPT-3 «викликала озноб по всій Кремнієвій долині».[20]

У статті в «Towards Data Science» зазначено, що GPT-3 треновано на сотнях мільярдів слів, і що вона здатна писати код мовами CSS, JSX, Python, та іншими[4].

У «National Law Review»[en] сказано, що GPT-3 є «вражаючим кроком у масштабнішому процесі», і що OpenAI та інші перебувають у пошуку «корисних застосувань для всієї цієї потужності», в той же час продовжуючи «працювати в напрямку сильнішого інтелекту».[21]

У статті в «MIT Technology Review»[en], написаній у співавторстві з критиком глибинного навчання Ґері Маркусом[en],[22] зазначено стосовно GPT-3, що її «розуміння світу є часто дуже бідним, що означає, що ви ніколи не можете насправді довіряти тому, що вона каже».[23] Згідно цих авторів, GPT-3 моделює взаємозв'язки між словами, не маючи розуміння значення, що стоїть за кожним словом.

Джером Пезенті, голова лабораторії Facebook A.I., сказав, що GPT-3 є «не безпечною», вказавши на сексистські, расистські та інші упередження й негативний тон, породжувані цією системою, коли її просили обговорити євреїв, жінок, чорношкірих та Голокост.[24]

Застосування[ред. | ред. код]

  • GPT-3 використано Ендрю Мейном[en] для AI Writer, який дозволяє людям листуватися з історичними діячами електронною поштою.
  • GPT-3 використано Джейсоном Рорером[en] в стилізованім під ретро проєкті чатботу, названім «Project December» («Проєкт Грудень»), що є доступним онлайн і дозволяє користувачам спілкуватися з декількома ШІ за допомогою технології GPT-3.
  • GPT-3 використано «Ґардіан» для написання статті про те, що ШІ є нешкідливим для людей. Їй згодовано декілька ідей, і вона виробила вісім різних есе, які в підсумку об'єднано в одну статтю[25].
  • GPT-3 використовують у AI Dungeon[en] (Темниця ШІ), що породжує текстові пригодницькі ігри.

Виноски[ред. | ред. код]

  1. Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Child, Rewon; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hesse, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Chess, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; Sutskever, Ilya; Amodei, Dario

Примітки[ред. | ред. код]

  1. а б в г д е ж и к л Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav та ін. (July 22, 2020). «Language Models are Few-Shot Learners». arXiv:2005.14165.  (англ.)
  2. Sutskever I., Neelakantan A., Radford A. et al. Language Models are Few-Shot Learners // ArXiv.org — 2020. — 75 p. — ISSN 2331-8422arXiv:2005.14165
  3. а б Shead, Sam (July 23, 2020). Why everyone is talking about the A.I. text generator released by an Elon Musk-backed lab. CNBC. Процитовано July 31, 2020.  (англ.) Між 28 травня та 22 липня 2020 року випущено чотири сигнальні примірники.
  4. а б в г Bussler, Frederik (July 21, 2020). Will GPT-3 Kill Coding?. Towards Data Science. Процитовано August 1, 2020.  (англ.)
  5. а б в г д е Sagar, Ram (June 3, 2020). OpenAI Releases GPT-3, The Largest Model So Far. Analytics India Magazine. Процитовано July 31, 2020.  (англ.)
  6. а б Chalmers, David (July 30, 2020). GPT-3 and General Intelligence. У Weinberg, Justin. Daily Nous[en]. Philosophers On GPT-3 (updated with replies by GPT-3). Процитовано August 4, 2020.  (англ.)
  7. Hao, Karen (September 23, 2020). OpenAI is giving Microsoft exclusive access to its GPT-3 language model. MIT Technology Review[en] (en). Процитовано 2020-09-25. «Компанії заявляють, що OpenAI продовжуватиме пропонувати свій публічний ППІ, що дозволяє обраним користувачам надсилати текст до GPT-3 або інших моделей OpenAI та отримувати їхній вихід. Проте лише Microsoft матиме доступ до коду, що лежить в основі GTP-3, що дозволяє їм вбудовувати, перепрофільовувати та змінювати модель, як їм заманеться.»  (англ.)
  8. а б An understanding of AI’s limitations is starting to sink in. The Economist. June 11, 2020. ISSN 0013-0613. Процитовано July 31, 2020.  (англ.)
  9. Polosukhin, Illia; Kaiser, Lukasz; Gomez, Aidan N.; Jones, Llion; Uszkoreit, Jakob; Parmar, Niki; Shazeer, Noam; Vaswani, Ashish (2017-06-12). «Attention Is All You Need». arXiv:1706.03762 [cs.CL].  (англ.)
  10. Natural Language Processing. Процитовано 2020-07-31.  (англ.)
  11. а б Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya (June 11, 2018). Improving Language Understanding by Generative Pre-Training. с. 12. Процитовано July 31, 2020.  (англ.)
  12. а б Sterling, Bruce (February 13, 2020). Web Semantics: Microsoft Project Turing introduces Turing Natural Language Generation (T-NLG). Wired. ISSN 1059-1028. Процитовано July 31, 2020.  (англ.)
  13. Language Models are Unsupervised Multitask Learners. Процитовано December 4, 2019. «GPT-2, is a 1.5B parameter Transformer»  (англ.)
  14. Ray, Tiernan (June 1, 2020). OpenAI’s gigantic GPT-3 hints at the limits of language models for AI. ZDNet. Процитовано July 31, 2020.  (англ.)
  15. а б OpenAI API. OpenAI. June 11, 2020.  (англ.)
  16. TechCrunch – Startup and Technology News. TechCrunch. June 11, 2020. Процитовано July 31, 2020. «Якщо ви коли-небудь хотіли спробувати хвалений набір інструментів машинного навчання OpenAI, то це стало набагато простішим. Ця компанія випустила ППІ, що дає можливість розробникам робити виклики її інструментів ШІ у „практично будь-якій задачі для англійської мови“.»  (англ.)
  17. Arram (July 9, 2020). GPT-3: An AI that's eerily good at writing almost anything. Arram Sabeti. Процитовано July 31, 2020.  (англ.)
  18. Manjoo, Farhad (July 29, 2020). How Do You Know a Human Wrote This?. The New York Times. ISSN 0362-4331. Процитовано August 4, 2020.  (англ.)
  19. Weinberg, Justin, ред. (July 30, 2020). Philosophers On GPT-3 (updated with replies by GPT-3). Daily Nous[en]. Процитовано July 31, 2020.  (англ.)
  20. Simonite, Tom (July 22, 2020). Did a Person Write This Headline, or a Machine?. Wired. ISSN 1059-1028. Процитовано July 31, 2020.  (англ.)
  21. Claypoole, Theodore (July 30, 2020). New AI Tool GPT-3 Ascends to New Peaks, But Proves How Far We Still Need to Travel. The National Law Review[en] 10 (214). Процитовано August 4, 2020.  (англ.)
  22. Marcus, Gary (2018-12-01). The deepest problem with deep learning. Medium (en). Процитовано 2020-09-29.  (англ.)
  23. Marcus, Gary; Davis, Ernest (August 22, 2020). GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about. MIT Technology Review[en]. Процитовано August 23, 2020.  (англ.)
  24. Metz, Cade (2020-11-24). Meet GPT-3. It Has Learned to Code (and Blog and Argue).. The New York Times (en-US). ISSN 0362-4331. Процитовано 2020-11-24.  (англ.)
  25. GPT-3 (2020-09-08). A robot wrote this entire article. Are you scared yet, human? | GPT-3. The Guardian (en-GB). ISSN 0261-3077. Процитовано 2020-09-15.  (англ.)

Посилання[ред. | ред. код]