Робоетика: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[неперевірена версія][неперевірена версія]
Вилучено вміст Додано вміст
Рядок 40: Рядок 40:
* Етика з дизайну (технічна / алгоритмічна інтеграція етичних можливостей міркування як частина поведінки штучної автономної системи (див. [[Машинна етика]]);
* Етика з дизайну (технічна / алгоритмічна інтеграція етичних можливостей міркування як частина поведінки штучної автономної системи (див. [[Машинна етика]]);
* Етика у дизайні (регуляторні та інженерні методи, які підтримують аналіз та оцінку етичних наслідків систем ШІ, оскільки вони інтегрують або замінюють традиційні соціальні структури);
* Етика у дизайні (регуляторні та інженерні методи, які підтримують аналіз та оцінку етичних наслідків систем ШІ, оскільки вони інтегрують або замінюють традиційні соціальні структури);
* Етика для дизайну (кодекси поведінки, стандарти та процеси сертифікації, які забезпечують чесність розробників та користувачів під час дослідження, проектування, конструювання, використання та управління штучними інтелектуальними системами)
* Етика для дизайну (кодекси поведінки, стандарти та процеси сертифікації, які забезпечують чесність розробників та користувачів під час дослідження, проектування, конструювання, використання та управління штучними інтелектуальними системами)<ref>{{Cite journal|last=Dignum|first=Virginia|date=2018|title=Ethics in Artificial Intelligence: Introduction to the Special Issue|url=|journal=Ethics and Information Technology|volume=20|pages=1–3|doi=10.1007/s10676-018-9450-z|doi-access=free}}</ref>


== Примітки ==
== Примітки ==

Версія за 15:31, 23 червня 2020

Етика роботів, іноді відома коротким виразом "робоетика", стосується етичних проблем, які виникають з роботами, наприклад, чи роботи представляють загрозу для людини в довгостроковій чи короткостроковій перспективі, чи є використання деяких роботів проблематичним (наприклад, в галузі охорони здоров'я або як "роботів-вбивць" на війні), і як роботи повинні бути сконструйовані так, щоб вони діяли "етично" (цю останню проблему також називають машинною етикою). Крім того, робототехніка стосується етики поведінки людини щодо роботів, оскільки роботи стають все більш досконалими.[1] Робоетика - це галузь етики технологій, зокрема інформаційних технологій, і вона має тісні зв’язки як з юридичними, так і з соціально-економічними питаннями. Дослідники з різних областей починають вирішувати етичні питання щодо створення роботизованої технології та її впровадження в суспільстві таким чином, щоб була забезпечена безпека людського роду.[2]

Хоча питання старі, як слово "робот", серйозні наукові дискусії розпочалися близько 2000 року. Етика роботи вимагає об'єднаної відданості експертів декількох дисциплін, які повинні пристосувати закони та правила до проблем, що виникають в результаті наукових досліджень та технологічні досягнення в галузі робототехніки та штучного інтелекту. Основними сферами застосування етики роботів є: робототехніка, інформатика, штучний інтелект, філософія, етика, теологія, біологія , фізіологія, когнітивна наука, нейронаука, закон, соціологія, психологія та промисловий дизайн.

Історія та події

Однією з перших публікацій, що безпосередньо стосуються та встановлюють основи етики роботів, була новела з наукової фантастики Зачароване коло, написана Айзеком Азімовим у 1942 р., в якій були сформульовані Три закони робототехніки. Ці три закони Азімова постійно змінювалися, і четвертий, або нульовий закон, був врешті доданий, щоб передувати першим трьом, у контексті його науково-фантастичних творів. Короткий термін "робототехніка", швидше за все, був придуманий Джанмарко Вергуджо.[3]

Важливою подією, яка викликала занепокоєння робототехнікою, став Перший міжнародний симпозіум з робототехніки у 2004 році спільними зусиллями Scuola di Robotica, Лабораторії мистецтв Scuola Superiore Sant'Anna, Піза, та Теологічним інститутом Pontificia Accademia della Santa Croce, Рим. "Після двох днів напружених дебатів антрополог Даніела Черкі визначила три основні етичні позиції, що випливають із двох днів напружених дискусій:

  1. Ті, хто не цікавиться етикою. Вони вважають, що їх дії є суто технічними, і не вважають, що вони несуть соціальну чи моральну відповідальність у своїй роботі.
  2. Ті, кого цікавлять короткочасні етичні питання. Відповідно до цього профілю, питання виражаються як «добре» чи «погано», і стосуються деяких культурних цінностей. Наприклад, вони вважають, що роботи повинні дотримуватися соціальних умов. Це стосуватиметься «поваги» та допомоги людям у різних сферах, таких як виконання законів або допомога літнім людям. (Такі міркування важливі, але ми маємо пам’ятати, що значення, які використовуються для визначення «поганого» та «хорошого», є відносними. Вони є сучасними цінностями індустріальних країн).
  3. Ті, хто думає з точки зору довготривалих етичних питань, наприклад, про "цифровий розрив" між Півднем та Північчю, або молоді та літні люди. Вони усвідомлюють розрив між індустріалізованими та бідними країнами, і дивуються, чи не повинні перші змінити свій спосіб розвитку робототехніки, щоб бути більш корисним Півдні. Вони чітко не формулюють питання, для чого, але ми можемо вважати, що це неявно ". [4]

Це кілька важливих подій та проектів з етики роботи. Подальші події в цій галузі оголошують euRobotics ELS topics group та RoboHub:

Вчена-інформатик Virginia Dignum відмітила у випуску "Ethics and Information Technology" у березні 2018 року, що загальне суспільне ставлення до штучного інтелекту в сучасну епоху відійшло від погляду на штучний інтелект як на інструмент і до того, щоб сприймати його як розумного "товариша по команді". У цій же статті вона оцінила, що стосовно ШІ етичні мислителі мають три цілі, кожна з яких, на її думку, може бути досягнута в сучасну епоху при ретельному обдумуванні та здійсненні.[9][10][11][12][13] Ці три етичні цілі:

  • Етика з дизайну (технічна / алгоритмічна інтеграція етичних можливостей міркування як частина поведінки штучної автономної системи (див. Машинна етика);
  • Етика у дизайні (регуляторні та інженерні методи, які підтримують аналіз та оцінку етичних наслідків систем ШІ, оскільки вони інтегрують або замінюють традиційні соціальні структури);
  • Етика для дизайну (кодекси поведінки, стандарти та процеси сертифікації, які забезпечують чесність розробників та користувачів під час дослідження, проектування, конструювання, використання та управління штучними інтелектуальними системами)[14]

Примітки

  1. Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (ред.), Roboethics: Social and Ethical Implications of Robotics, Springer Handbook of Robotics (англ.), Springer Berlin Heidelberg, с. 1499—1524, doi:10.1007/978-3-540-30301-5_65, ISBN 9783540303015
  2. Robot Ethics. IEEE Robotics and Automation Society (en-gb) . Процитовано 26 червня 2017.
  3. Tzafestas, Spyros G. (2016). Roboethics A Navigating Overview. Cham: Springer. с. 1. ISBN 978-3-319-21713-0.
  4. http://www.roboethics.org/icra2005/veruggio.pdf
  5. Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot. Newsweek. 26 October 2017.
  6. Saudi Arabia bestows citizenship on a robot named Sophia. TechCrunch. 26 жовтня 2017. Процитовано 27 жовтня 2016.
  7. Saudi Arabia takes terrifying step to the future by granting a robot citizenship. AV Club. 26 жовтня 2017. Процитовано 28 жовтня 2017.
  8. Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News. Abcnews.go.com. Процитовано 28 жовтня 2017.
  9. Rahwan, Iyad (2018). Society-In-the-Loop: Programming the Algorithmic Social Contract. Ethics and Information Technology. 20: 5—14. arXiv:1707.07232. doi:10.1007/s10676-017-9430-8.
  10. Bryson, Joanna (2018). Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics. Ethics and Information Technology. 20: 15—26. doi:10.1007/s10676-018-9448-6.
  11. Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). Human-Aligned Artificial Intelligence Is a Multiobjective Problem. Ethics and Information Technology. 20: 27—40. doi:10.1007/s10676-017-9440-6.
  12. Bonnemains, Vincent; Saurel, Claire; Tessier, Catherine (2018). Embedded Ethics: Some Technical and Ethical Challenges (PDF). Ethics and Information Technology. 20: 41—58. doi:10.1007/s10676-018-9444-x.
  13. Arnold, Thomas; Scheutz, Matthias (2018). The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems. Ethics and Information Technology. 20: 59—69. doi:10.1007/s10676-018-9447-7.
  14. Dignum, Virginia (2018). Ethics in Artificial Intelligence: Introduction to the Special Issue. Ethics and Information Technology. 20: 1—3. doi:10.1007/s10676-018-9450-z.