Елізер Юдковський

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук
Елізер Юдковський
англ. Eliezer Shlomo Yudkowsky
Eliezer Yudkowsky, Stanford 2006 (square crop).jpg
Елізер Юдковський, Стенфорд, 2006 рік
Народився 11 вересня 1979(1979-09-11) (35 років)
Flag of the United States.svg США
Громадянство Американець
Галузь наукових інтересів Етика машин, штучний інтелект
Відомий завдяки: Дружній штучний інтелект, фанфік про Гаррі Поттера

Елізер Шломо Юдковський / Юдковскі (англ. Eliezer Shlomo Yudkowsky, 11 вересня 1979) — американський блогер, письменник, футуролог, фахівець з штучного інтелекту, дослідник проблем технологічної сингулярності. Підтримує створення дружнього штучного інтелекту.[1] Юдковський живе в Берклі, Каліфорнія.

Діяльність[ред.ред. код]

Елізер Юдковський відомий досягненнями в різних сферах

Наука[ред.ред. код]

Багато в чому автодидакт(самоучка)[2], без формальної освіти в галузі штучного інтелекту (не навчався у ВНЗ)[3]. Співзасновник та науковий співробітник Інституту Сингулярності по створенню Штучного Інтелекту (SIAI) [4].

Автор публікацій на тему штучного інтелекту. Юдковський досліджує ті конструкції штучного інтелекту, які здатні до саморозуміння, самомодіфікаціі й рекурсивного самовдосконалення, а також такі архітектури штучного інтелекту, які будуть володіти стабільною та позитивною структурою мотивації (Дружній штучний інтелект).[4]:420 Останнім часом коло наукових інтересів складає теорія прийняття рішень для задач самомодіфікаціі та проблеми Newcomblike.

Крім дослідницької роботи, Елізер Юдковський відомий своїми науково-популярними поясненнями складних моделей, мовою, доступною широкому колу читачів.

Блогерство[ред.ред. код]

Юдковський разом з Робіном Хансоном був одним один з провідних авторів блогу Overcoming Bias.[5]

На початку 2009 року брав участь в організації блогу Less Wrong, націленого на «розвиток раціональності людини та подолання когнітивних спотворень».[2]:37. Після цього Overcoming Bias став особистим блогом Хансона. Матеріал, представлений на цих блогах, організований у вигляді ланцюжків постів, які змогли залучити тисячі читачів — див. наприклад, ланцюжок «теорія розваг»[2].

Less Wrong детально розглядався у Business Insider.[6] На Less Wrong посилались зі шпальт The Guardian.[7][8] Less Wrong фігурував у статтях, пов'язаних з технологічною сингулярістю та Інституту Сингулярності по створенню Штучного Інтелекту.[9] Крім того, згадувався в статтях про інтернет-монархістів та нео-реакціонерів.[10]

Фанфікшн[ред.ред. код]

Юдковський написав кілька робіт[11] з наукової фантастики, в яких він ілюструє деякі теми, пов'язані з когнітивною наукою та раціональністю. У неакадемічних колах здебільшого відомий як автор фанфіку про альтернативний розвиток подій у світі Гаррі Поттера "Гаррі Поттер та Методи раціонального мислення" (англ. Harry Potter and the Methods of Rationality). створений під ніком Less Wrong [3]. Дана історія намагається пояснити магічний світ Гаррі Поттера з позиції наукової парадигми, послуговуючись досягненнями когнітивної науки та методів раціональності[2][12]). Робота знайшла відгук у Девіда Бріна[13], Ракеля Аарона[14][15], Робіна Хенсона[16] Аарона Шварца[17], Еріка Раймонда[18]. Реакція читачів на зміст історії та її пропагандиський зміст неоднозначна[19].

Публікації[ред.ред. код]

Оригінал[ред.ред. код]

Статті російською[ред.ред. код]

Посилання[ред.ред. код]

Примітки[ред.ред. код]

  1. Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Архів оригіналу за 2012-07-04. Процитовано 2009-07-16. 
  2. а б в Singularity Rising, by James Miller
  3. GDay World #238: Eliezer Yudkowsky. The Podcast Network. Архів оригіналу за 2007-07-17. Процитовано 2009-07-26. 
  4. а б Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. с. 599. ISBN 0-670-03384-7. 
  5. Overcoming Bias: About. Robin Hanson. Процитовано 2012-02-01. 
  6. Miller, James (July 28, 2011). You Can Learn How To Become More Rational. Business Insider. Процитовано March 25, 2014. 
  7. Burkeman, Oliver (July 8, 2011). This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten?. The Guardian. Процитовано March 25, 2014. 
  8. Burkeman, Oliver (March 9, 2012). This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity?. The Guardian. Процитовано March 25, 2014. 
  9. Tiku, Natasha (July 25, 2012). Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. BetaBeat. Процитовано March 25, 2014. 
  10. Finley, Klint (November 22, 2013). Geeks for Monarchy: The Rise of the Neoreactionaries. TechCrunch. Процитовано March 25, 2014. 
  11. [1]
  12. "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire"
  13. David Brin (2010-06-21). CONTRARY BRIN: A secret of college life... plus controversies and science tablefix. Davidbrin.blogspot.com. Процитовано 2012-08-31. 
  14. Authors (2012-04-02). Rachel Aaron interview (April 2012). Fantasybookreview.co.uk. Процитовано 2012-08-31. 
  15. Civilian Reader: An Interview with Rachel Aaron. Civilian-reader.blogspot.com. 2011-05-04. Процитовано 2012-08-31. 
  16. Hanson, Robin (2010-10-31). Hyper-Rational Harry. Overcoming Bias. Процитовано 2012-08-31. 
  17. Swartz, Aaron. The 2011 Review of Books (Aaron Swartz's Raw Thought). archive.org. Процитовано 2013-04-10. 
  18. Harry Potter and the Methods of Rationality. Esr.ibiblio.org. 2010-07-06. Процитовано 2012-08-31. 
  19. Рецензії читачів на книгу "Гаррі Поттер та метод раціонального мислення" на сайті LiveLib.ru
  20. перекл. "Створення дружнього штучного інтелекту"
  21. перекл. "Рівні організації універсального інтелекту"
  22. перекл. «Когерентна екстрапольована воля»
  23. перекл. "Штучний інтелект як позитивний та негативний чинник глобального ризику"
  24. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Архів оригіналу за 2012-07-04. Процитовано 2009-07-28. 
  25. а б Bostrom, Nick, ред. (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. с. 91–119, 308–345. ISBN 978-0-19-857050-9. 
  26. перекл. "Когнітивні спотворення в оцінці глобальних ризиків"
  27. Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Архів оригіналу за 2012-07-04. 
  28. перекл. "Позачасова теорія прийняття рішень"
  29. Eliezer Yudkowsky Profile. Accelerating Future. Архів оригіналу за 2012-07-04. 
  30. перекл. "Інтуїтивне пояснення теореми Байеса"