Deepfake

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Deepfake, конкатенація слів «глибинне навчання» (англ. deep learning) та «підробка» (англ. fake),[1] методика синтезу зображення людини, яка базується на штучному інтелекті. Вона використовується для поєднання і накладення існуючих зображень та відео на початкові зображення або відеоролики.

Deepfake може бути використаний для створення фальшивих порнографічних відео із селебриті або порно для помсти.[2] Deepfake-порнографія з'явилася в Інтернеті в 2017 році, зокрема на Reddit,[3] і була заборонена сайтами, включаючи Reddit, Twitter і Pornhub.[4][5][6] Deepfake можуть бути використані для створення підроблених новин і зловмисних обманів.[7][8]

Непорнографічні deepfake-ролики можна легко знайти на популярних веб-сайтах потокового відео, таких як YouTube або Vimeo. Популярною програмою є FakeApp,[9] який використовує TensorFlow.[10]

Методи виявлення жестів та перетворення на початкового відео на відео з особою, схожою на цільову особу, були представлені в 2016 році і дозволяють обчислення в режимі реального часу підробних мімічних виразів в існуючому 2D-відео.[11]

Порнографія[ред. | ред. код]

Восени 2017 року анонімний користувач Reddit під псевдонімом «Deepfakes» опублікував кілька порно відео в Інтернеті. Перше відео, яке привернуло увагу, було deepfake-відео з Дейзі Рідлі. Це також було одним з найбільш відомих deepfake-фільмів, а також відома особливість декількох статей. Інші — це симуляція сексу з актрисами Гал Гадот, Еммою Уотсон, Кеті Перрі, Тейлор Свіфт або Скарлетт Йоганссон. Сцени не були реальними, а були створені штучним інтелектом. Вони були розвінчені через короткий час. З часом спільнота Reddit виправляла безліч помилок у фальшивих відео, через що все важче відрізнити підробку від справжнього контенту. Як дані тренувань для програмного забезпечення, користувачі Reddit використовували записи з сексуальних фільмів та відповідної актриси. Феномен Deepfake вперше було повідомлено в грудні 2017 року в технічному та науковому розділі журналу Vice, що призвело до його широкомасштабних повідомлень в інших засобах масової інформації.[12][13]

У Сполученому Королівстві виробники deepfake можуть бути притягнуті до відповідальності за переслідування, але існують заклики зробити Deepfake конкретним злочином.[14]

Політика[ред. | ред. код]

Deepfakes були використані для підміни відомих політиків на відеопорталах або чат-кімнатах. Наприклад, обличчя Президента Аргентини Маурісіо Макрі замінено на обличчя Адольфа Гітлера, а обличчя Ангели Меркель замінено на Дональда Трампа.[15][16] У квітні 2018 року Jordan Peele та Jonah Peretti створили deepfake, використовуючи зображення Барака Обами як публічне попередження про небезпеку deepfake.[17]

Програми[ред. | ред. код]

У січні 2018 року було запущено настільну програму FakeApp. Застосунок дозволяє користувачам легко створювати та обмінюватися відео, обмінюючись обличчям. Додаток використовує штучну нейронну мережу, обчислювальну потужність графічного процесора та три-чотири гігабайти пам'яті для створення фальшивого відео. Для отримання детальної інформації програмі потрібна велика кількість візуальних матеріалів від людини, яку потрібно вставити, щоб дізнатись, які аспекти зображення мають бути замінені, використовуючи алгоритм глибокого навчання на основі відеопослідовностей та зображень. Програмне забезпечення використовує Framework штучного інтелекту TensorFlow від Google, який, серед іншого, вже використовувався для програми DeepDream. Знаменитості є основними цілями подібних фальшивих секс-відео, але деякі звичайні люди також постраждали.[18][19][20] У серпні 2018 р. дослідники у Університеті Каліфорнії, Берклі опублікували статтю, в якій представлено додаток, який може замінити дитину експериментальною танцівницею, використовуючи штучний інтелект.[21][22]

Критика[ред. | ред. код]

Зловживання[ред. | ред. код]

Aargauer Zeitung стверджує, що маніпуляція фотознімками та відео з використанням штучного інтелекту може стати небезпечним масовим явищем. Проте фальсифікація зображень та відео навіть старше, ніж поява програмного забезпечення для редагування відео та програмного забезпечення для редагування зображень; в цьому випадку реалізм є новим аспектом.[15] Також можна використовувати Deepfake для цільових обманів і порно для помсти.[23][24]

Вплив на довіру та автентичність[ред. | ред. код]

Інший ефект Deepfake полягає в тому, що більше не можна розпізнати, чи є вміст підготовленим (наприклад, сатира), або справжнім. Дослідник штучного інтелекту Alex Champandard сказав, що всі повинні знати, як сьогоднішня ситуація може бути пошкоджена з використанням цієї технології, і що проблема не є технічною, а, швидше за все, вирішена шляхом довіри до інформації та журналістики. Первинним є те, що людство може потрапляти в епоху, в якому більше неможливо визначити, чи відповідає істині те, що показується у ЗМІ.[15]

Реакція у Інтернет[ред. | ред. код]

Деякі веб-сайти, такі як Twitter і Gfycat, оголосили про видалення Deepfake-контенту та блокування його видавців. Раніше платформа чатів Discord заблокувала канал чату з підробленими порновідео знаменитостей. Порнографічний веб-сайт Pornhub також планує заблокувати такий вміст, однак повідомляється, що сайт не виконував заборону.[25][26] На Reddit ситуація спочатку залишалася незрозумілою, доки субреддіт не був призупинений 7 лютого 2018 року через порушення політики «недобровільної порнографії».[13][27][28][29]

Методи виявлення[ред. | ред. код]

Deepfake-відео можуть бути виявлені за відсутністю фізіологічних сигналів, притаманних людині: дихання, кліпання очима, пульс. [30] DARPA у 2016 розпочало проект MediFor (англ. Media Forensics, криміналістичний аналіз медіа), метою якого є розробка технологій для автоматичної оцінки цілісності зображення чи відео та інтеграція їх у платформу для обміну криміналістичними матеріалами між кінцевими користувачами. У випадку успіху платформа MediFor автоматично виявлятиме маніпуляції, надаватиме детальну інформацію про те, як ці маніпуляції були виконані, а також причини загальної цілісності візуальних медіа, щоб полегшити рішення щодо використання будь-якого сумнівного зображення чи відео.[31]

AI Foundation розробляє програмне забезпечення для перевірки справжності медіа. Дослідники запрошують користувачів надсилати їм матеріали, які є фейками для навчання штучного інтелекту. [32]

Див. також[ред. | ред. код]

Примітки[ред. | ред. код]

  1. Brandon, John (2018-02-16). Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise. Fox News (en-US). Процитовано 2018-02-20. 
  2. What Are Deepfakes & Why the Future of Porn is Terrifying. Highsnobiety (en-US). 2018-02-20. Процитовано 2018-02-20. 
  3. Roettgers, Janko (2018-02-21). Porn Producers Offer to Help Hollywood Take Down Deepfake Videos. Variety (en-US). Процитовано 2018-02-28. 
  4. It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet (en). Процитовано 2018-02-20. 
  5. Kharpal, Arjun (2018-02-08). Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor. CNBC. Процитовано 2018-02-20. 
  6. PornHub, Twitter Ban 'Deepfake' AI-Modified Porn. PCMAG (en). Процитовано 2018-02-20. 
  7. Experts fear face swapping tech could start an international showdown. The Outline (en). Процитовано 2018-02-28. 
  8. Roose, Kevin (2018-03-04). Here Come the Fake Videos, Too. The New York Times (en-US). ISSN 0362-4331. Процитовано 2018-03-24. 
  9. FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!. Reason.com (en). 2018-01-25. Процитовано 2018-03-24. 
  10. I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it. The Verge. Процитовано 2018-03-24. 
  11. Thies, Justus (2016). Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Процитовано 2018-02-24. 
  12. AI-Assisted Fake Porn Is Here and We’re All Fucked. Motherboard. 2017-12-11. 
  13. а б Markus Böhm (2018-02-07). "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. Spiegel Online. 
  14. Call for upskirting bill to include 'deepfake' pornography ban (en). The Guardian. 
  15. а б в Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. az Aargauer Zeitung. 2018-02-03. 
  16. Patrick Gensing. Deepfakes: Auf dem Weg in eine alternative Realität?. 
  17. Romano, Aja (April 18, 2018). Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news. Vox. Процитовано September 10, 2018. 
  18. Britta Bauchmüller. "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!. Berliner-Kurier.de. 
  19. Eike Kühl (2018-01-26). Künstliche Intelligenz: Auf Fake News folgt Fake Porn. Die Zeit. ISSN 0044-2070. 
  20. heise online. Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. 
  21. Farquhar, Peter (2018-08-27). An AI program will soon be here to help your deepfake dancing - just don't call it deepfake. Business Insider Australia (en). Процитовано 2018-08-27. 
  22. Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted. The Verge. Процитовано 2018-08-27. 
  23. Künstliche Intelligenz: Selfies sind eine gute Quelle. Die Zeit. 2018-01-26. ISSN 0044-2070. 
  24. „Deepfake“ - FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?. WILDE BEUGER SOLMECKE Rechtsanwälte. 2018-02-02. 
  25. Pornhub hasn't been actively enforcing its deepfake ban. Engadget (en-US). Процитовано 2018-04-21. 
  26. Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them. BuzzFeed (en). Процитовано 2018-04-21. 
  27. barbara.wimmer. Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. 
  28. heise online. Deepfakes: Auch Reddit verbannt Fake-Porn. 
  29. Reddit verbannt Deepfake-Pornos. 
  30. Yuezun Li, Ming-Ching Chang and Siwei Lyu. In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking. 
  31. Media Forensics (MediFor). 
  32. Responsibility. www.aifoundation.com. Процитовано 2019-01-12. 

Посилання[ред. | ред. код]