Робоетика

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Етика роботів (іноді робоетика) — складова етики штучного інтелекту, що розглядає етичні проблеми, які виникають з роботами, наприклад, чи роботи є загрозою для людини в довгостроковій чи короткостроковій перспективі, чи є використання деяких роботів проблематичним (наприклад, у галузі охорони здоров'я або як «роботів-убивць» на війні), і як роботи мають бути сконструйовані, щоб вони діяли «етично» (цю останню проблему також називають машинною етикою). Крім того, робоетика стосується етики поведінки людини щодо роботів, оскільки роботи стають все більш досконалими[1].

Робоетика — це галузь етики технологій, зокрема інформаційних технологій, і вона має тісні зв'язки як з юридичними, так і з соціально-економічними питаннями. Дослідники з різних областей починають вирішувати етичні питання щодо створення роботизованої технології та її впровадження в суспільстві таким чином, щоб була забезпечена безпека людського роду[2].

Хоча питання старі, як слово «робот», серйозні наукові дискусії розпочалися близько 2000 року. Етика роботи вимагає об'єднаної відданості експертів декількох дисциплін, які повинні пристосувати закони та правила до проблем, що виникають в результаті наукових досліджень та технологічні досягнення в галузі робототехніки та штучного інтелекту. Основними сферами застосування етики роботів є: робототехніка, інформатика, штучний інтелект, філософія, етика, теологія, біологія , фізіологія, когнітивна наука, нейронаука, закон, соціологія, психологія та промисловий дизайн.

Історія та події[ред. | ред. код]

Однією з перших публікацій, що безпосередньо стосуються та встановлюють основи етики роботів, була новела з наукової фантастики Зачароване коло, написана Айзеком Азімовим у 1942 р., в якій були сформульовані Три закони робототехніки. Ці три закони Азімова постійно змінювалися, і четвертий, або нульовий закон, був врешті доданий, щоб передувати першим трьом, у контексті його науково-фантастичних творів. Короткий термін «робототехніка», швидше за все, був придуманий Джанмарко Вергуджо.[3]

Важливою подією, яка викликала занепокоєння робототехнікою, став Перший міжнародний симпозіум з робототехніки у 2004 році спільними зусиллями Scuola di Robotica, Лабораторії мистецтв Scuola Superiore Sant'Anna, Піза, та Теологічним інститутом Pontificia Accademia della Santa Croce, Рим. "Після двох днів напружених дебатів антрополог Даніела Черкі визначила три основні етичні позиції, що випливають із двох днів напружених дискусій:

  1. Ті, хто не цікавиться етикою. Вони вважають, що їх дії є суто технічними, і не вважають, що вони несуть соціальну чи моральну відповідальність у своїй роботі.
  2. Ті, кого цікавлять короткочасні етичні питання. Відповідно до цього профілю, питання виражаються як «добре» чи «погано», і стосуються деяких культурних цінностей. Наприклад, вони вважають, що роботи повинні дотримуватися соціальних умов. Це стосуватиметься «поваги» та допомоги людям у різних сферах, таких як виконання законів або допомога літнім людям. (Такі міркування важливі, але ми маємо пам'ятати, що значення, які використовуються для визначення «поганого» та «хорошого», є відносними. Вони є сучасними цінностями індустріальних країн).
  3. Ті, хто думає з точки зору довготривалих етичних питань, наприклад, про «цифровий розрив» між Півднем та Північчю, або молоді та літні люди. Вони усвідомлюють розрив між індустріалізованими та бідними країнами, і дивуються, чи не повинні перші змінити свій спосіб розвитку робототехніки, щоб бути більш корисним Півдні. Вони чітко не формулюють питання, для чого, але ми можемо вважати, що це неявно ".[4]

Це кілька важливих подій та проектів з етики роботи. Подальші події в цій галузі оголошують euRobotics ELS topics group та RoboHub:

Вчена-інформатик Virginia Dignum відмітила у випуску «Ethics and Information Technology» у березні 2018 року, що загальне суспільне ставлення до штучного інтелекту в сучасну епоху відійшло від погляду на штучний інтелект як на інструмент і до того, щоб сприймати його як розумного «товариша по команді». У цій же статті вона оцінила, що стосовно ШІ етичні мислителі мають три цілі, кожна з яких, на її думку, може бути досягнута в сучасну епоху при ретельному обдумуванні та здійсненні.[9][10][11][12][13] Ці три етичні цілі:

  • Етика з дизайну (технічна / алгоритмічна інтеграція етичних можливостей міркування як частина поведінки штучної автономної системи (див. Машинна етика);
  • Етика у дизайні (регуляторні та інженерні методи, які підтримують аналіз та оцінку етичних наслідків систем ШІ, оскільки вони інтегрують або замінюють традиційні соціальні структури);
  • Етика для дизайну (кодекси поведінки, стандарти та процеси сертифікації, які забезпечують чесність розробників та користувачів під час дослідження, проектування, конструювання, використання та управління штучними інтелектуальними системами)[14]

У популярній культурі[ред. | ред. код]

Робоетика як наукова чи філософська тема стала загальною темою в науково-фантастичній літературі та фільмах. Один фільм, який можна стверджувати, що він є вбудованим у поп-культуру, який зображає дистопічне майбутнє використання роботизованого ШІ, — це «Матриця», який зображає майбутнє, де люди та свідомий розумний ШІ борються за контроль над земною поверхнею, в результаті чого знищення більшої частини людського роду. Анімаційний фільм, заснований на «Матриці», «Animatrix», зосередився на потенційних етичних проблемах та невпевненості між людьми та роботами. Фільм розбитий на короткі історії. Анімаційні шорти Animatrix також названі на честь вигаданих оповідань Айзека Азімова.

Ще одна грань робототехніки, зокрема, стосується поводження з роботами людьми, і вона була досліджена в численних фільмах і телевізійних шоу. Одним із таких прикладів є Star Trek: The Next Generation, який має гуманоїдний андроїд, названий Data, як є одним із головних персонажів. Здебільшого йому довіряють критично важливу роботу, але його здатність підходити до інших живих істот часто виникає під питанням.[15] З недавніх пір фільми Ex Machina і телешоу Westworld прийняли ці етичні питання досить безпосередньо, зобразивши гіпер-реалістичних роботів, яких люди трактують як неіснуючі товари.[16][17] Питання щодо поводження з інженерними істотами також були ключовим компонентом Blade Runner протягом більше 50 років.[18] Фільми на кшталт «Її» ще більше відгородили людські стосунки з роботами, знявши фізичний аспект і зосередившись на емоціях.

Хоча не є частиною робототехніки «як такої», етична поведінка самих роботів також стала проблемою приєднання робототехніки до популярної культури. Серія «Термінатор» зосереджена на роботах, керованих свідомою програмою ШІ, без обмежень щодо знищення своїх ворогів. Ця серія також має той же архетип, що і серія «Матриця», де роботи отримали контроль. Ще один відомий випадок поп-культури роботів чи ШІ без запрограмованої етики чи моралі — це HAL 9000 у серії «Космічна Одіссея», де HAL (комп'ютер із заздалегідь розвиненими можливостями ШІ, який контролює та допомагає людям на космічній станції) вбиває всіх людей на борту, щоб забезпечити успіх призначеної місії після загрози його власного життя.[19]

Етика роботів та закон[ред. | ред. код]

Із сучасними технологічними проблемами, що виникають під час наполягання на суспільстві, одна тема, яка потребує ретельного продумування, — це етика роботів, що стосується закону. Вчені обговорюють процес того, як уряд може піти на створення законодавства з етикою та законом для роботів. Пара науковців, які задають ці питання, — Ніл М. Річардс, професор юридичного факультету Вашингтонського університету в Сент-Луїсі, а також доцент Вільям Д. Смарт, професор комп'ютерних наук в Університеті Вашингтона в Сент-Луїсі. У своїй роботі «Як повинні роботи думати про закон» вони висловлюють чотири основні претензії щодо етики та закону роботів.[20] Він ґрунтується на їхньому аргументі на визначенні робота як «небіологічних автономних агентів, які, на наш погляд, відображають суть регуляторних та технологічних проблем, які задають роботи, і які корисно можуть бути основою регулювання». По-друге, пара вивчає майбутні розширені можливості роботів протягом приблизно десятиліть. Третя їхня заява аргументує взаємозв'язок між юридичними питаннями етики роботів та юридичним досвідом із правовим досвідом кібер-права. Це означає, що закони етики роботів можуть орієнтуватися на кібер-право як настанову. «Урок», отриманий з кібер-права, є важливістю метафор, під яким ми розуміємо виникаючі проблеми в технології. Це ґрунтується на тому, що якщо ми використовуємо помилкову метафору, наприклад, законодавство, що стосується виникаючих технологічних питань, швидше за все, неправильне. Четверте твердження, проти якого вони сперечаються, — це метафора, яку вони визначають як «Провалля Android». Вони заперечують проти помилки андроїда, яка стверджує, що люди та небіологічні утворення є «подібно до людей».

Див. також[ред. | ред. код]

Примітки[ред. | ред. код]

  1. Veruggio, Gianmarco; Operto, Fiorella (2008). Roboethics: Social and Ethical Implications of Robotics. У Siciliano, Bruno; Khatib, Oussama. Springer Handbook of Robotics (en) (Springer Berlin Heidelberg): 1499–1524. ISBN 9783540303015. doi:10.1007/978-3-540-30301-5_65. 
  2. Robot Ethics. IEEE Robotics and Automation Society (en-gb). Процитовано 2017-06-26. 
  3. Tzafestas, Spyros G. (2016). Roboethics A Navigating Overview. Cham: Springer. с. 1. ISBN 978-3-319-21713-0. 
  4. http://www.roboethics.org/icra2005/veruggio.pdf
  5. Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot. Newsweek. 26 October 2017. 
  6. Saudi Arabia bestows citizenship on a robot named Sophia. TechCrunch. October 26, 2017. Процитовано October 27, 2016. 
  7. Saudi Arabia takes terrifying step to the future by granting a robot citizenship. AV Club. October 26, 2017. Процитовано October 28, 2017. 
  8. Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News. Abcnews.go.com. Процитовано 2017-10-28. 
  9. Rahwan, Iyad (2018). Society-In-the-Loop: Programming the Algorithmic Social Contract. Ethics and Information Technology 20: 5–14. arXiv:1707.07232. doi:10.1007/s10676-017-9430-8. 
  10. Bryson, Joanna (2018). Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics. Ethics and Information Technology 20: 15–26. doi:10.1007/s10676-018-9448-6.  Проігноровано невідомий параметр |doi-access= (довідка)
  11. Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). Human-Aligned Artificial Intelligence Is a Multiobjective Problem. Ethics and Information Technology 20: 27–40. doi:10.1007/s10676-017-9440-6. 
  12. Bonnemains, Vincent; Saurel, Claire; Tessier, Catherine (2018). Embedded Ethics: Some Technical and Ethical Challenges.. Ethics and Information Technology 20: 41–58. doi:10.1007/s10676-018-9444-x. 
  13. Arnold, Thomas; Scheutz, Matthias (2018). The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems. Ethics and Information Technology 20: 59–69. doi:10.1007/s10676-018-9447-7. 
  14. Dignum, Virginia (2018). Ethics in Artificial Intelligence: Introduction to the Special Issue. Ethics and Information Technology 20: 1–3. doi:10.1007/s10676-018-9450-z.  Проігноровано невідомий параметр |doi-access= (довідка)
  15. Short, Sue (2003-01-01). The Measure of a Man?: Asimov's Bicentennial Man, Star Trek's Data, and Being Human. Extrapolation 44 (2): 209–223. ISSN 0014-5483. doi:10.3828/extr.2003.44.2.6. 
  16. Staff, Pacific Standard. Can 'Westworld' Give Us New Ways of Talking About Slavery?. Pacific Standard (en). Процитовано 2019-09-16. 
  17. Parker, Laura (2015-04-15). How 'Ex Machina' Stands Out for Not Fearing Artificial Intelligence. The Atlantic (en-US). Процитовано 2019-09-16. 
  18. Kilkenny, Katie. The Meaning of Life in 'Blade Runner 2049'. Pacific Standard (en). Процитовано 2019-09-16. 
  19. Krishnan, Armin (2016). Killer Robots: Legality and Ethicality of Autonomous Weapons. www.taylorfrancis.com (Routledge). ISBN 9781315591070. doi:10.4324/9781315591070. Процитовано 2019-09-16. 
  20. Шаблон:Cite ssrn

Посилання[ред. | ред. код]