Діпфейк

Матеріал з Вікіпедії — вільної енциклопедії.
(Перенаправлено з Deepfake)
Перейти до навігації Перейти до пошуку
Жіноче обличчя, згенероване комп'ютером на основі реальних фото

Діпфе́йк[1] (англ. deepfake; конкатенація слів deep learning («глибинне навчання») та fake («підробка»)[2]) — методика синтезу зображення людини, яка базується на штучному інтелекті. Використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики.

Діпфейк можна використати для створення фальшивих порнографічних відео із селебриті або для помсти.[3] Діпфейкова порнографія з'явилася в Інтернеті 2017 року, зокрема на Reddit,[4] і була заборонена сайтами, зокрема, Reddit, Twitter і Pornhub.[5][6][7] Діпфейк використовують для створення підроблених новин і зловмисних обманів.[8][9]

Непорнографічні діпфейк-ролики можна легко знайти на популярних вебсайтах потокового відео, таких як YouTube або Vimeo. Популярна програма для діпфейку FakeApp[10] використовує TensorFlow[11].

Методи виявлення жестів та перетворення початкового відео на відео з особою, схожою на цільову особу, представлені 2016 року, дозволяють обчислення в режимі реального часу підробних мімічних виразів у наявному 2D-відео[12].

Порнографія[ред. | ред. код]

Восени 2017 року анонімний користувач Reddit під псевдонімом «Deepfakes» опублікував в інтернеті кілька порнографічних відео. Першим, яке привернуло увагу, було діпфейкове відео з Дейзі Рідлі. Це один з найвідоміших діпфейкових фільмів, обговорюваний у низці статей. Інші — це симуляція сексу з акторками Галь Гадот, Еммою Вотсон, Кеті Перрі, Тейлор Свіфт або Скарлетт Йоганссон. Сцени не були реальними, а створені штучним інтелектом, про що й було невдовзі повідомлено. З часом спільнота Reddit виправила безліч помилок у фальшивих відео, тому все важче відрізнити підробку від справжнього матеріалу. Як дані тренувань для програмного забезпечення, користувачі Reddit використовували записи зі сексуальних фільмів та відповідної акторки. Про феномен діпфейку вперше повідомлено в грудні 2017 року в науково-технічному розділі журналу Vice, що спричинило багато повідомлень в інших ЗМІ[13][14].

У Великій Британії виробників діпфейків можуть притягти до відповідальності за переслідування, але існують заклики оголосити діпфейки окремим злочином[15].

Політика[ред. | ред. код]

Діпфейкове відео: Володимир Путін нібито застерігає американців від втручання у вибори та збільшення політичного розриву з Росією

Діпфейки використовували для підміни відомих політиків на відеопорталах або чат-кімнатах. Наприклад, обличчя президента Аргентини Маурісіо Макрі замінили обличчям Адольфа Гітлера, а обличчя Ангели Меркель — Дональда Трампа.[16][17] У квітні 2018 року Джордан Піл (Jordan Peele) та Йона Перетті (Jonah Peretti) створили діпфейк із зображенням Барака Обами як публічне попередження про небезпеку діпфейків.[18]

Центр протидії дезінформації заявив у лютому 2022 року про те, що технологія діпфейку може бути використана в інформаційно-психологічній операції в ході російського вторгнення в Україну для створення несправжнього відео з заявою про капітуляцю Володимира Зеленського.[19]

24 червня 2022 року мер Берліна Франциска Ґіффай протягом 15 хвилин спілкувалася у відеорежимі з чоловіком, який назвався міським головою Києва Віталієм Кличком. За словами прессекретаря, спочатку бесіда не викликала жодних підозр, попри те, що співрозмовник розмовляв російською (насправді Віталій Кличко добре володіє німецькою)[20].

Програми[ред. | ред. код]

У січні 2018 року випущено настільну програму FakeApp. Застосунок дозволяє користувачам легко створювати та обмінюватися відео зі зміненим обличчям. Застосунок використовує для створення фальшивого відео штучну нейронну мережу, обчислювальну потужність графічного процесора та 3-4 ГБ пам'яті. Для отримання детальної інформації програмі потрібно багато візуальних матеріалів з зображеннями людини, обличчя якої потрібно вставити, щоб, використовуючи алгоритм глибокого навчання на основі відеопослідовностей та зображень, дізнатись, які аспекти зображення слід замінити. Застосунок використовує програмний каркас для штучного інтелекту TensorFlow від Google, який, серед іншого, вже використовувався для програми DeepDream. Основними цілями подібних фальшивих секс-відео є знаменитості, але деякі звичайні люди також постраждали.[21][22][23] У серпні 2018 року дослідники з Університету Каліфорнії, Берклі опублікували статтю, в якій представлено застосунок, який, використовуючи штучний інтелект, «змушує» на відео людину танцювати так, як це робить танцівник на іншому відео[24][25].

Критика[ред. | ред. код]

Діпфейкове фото, що зображає типову американку

Зловживання[ред. | ред. код]

Aargauer Zeitung стверджує, що маніпуляція фотознімками та відео з використанням штучного інтелекту може стати небезпечним масовим явищем. Проте фальсифікація зображень та відео виникла задовго до програмного забезпечення для редагування відео та зображень; новиною в цьому випадку є реалістичність.[16] Також можна діпфейки можна використати для цільових обманів, для помсти тощо[26][27].

Вплив на довіру та автентичність[ред. | ред. код]

Інший ефект діпфейку полягає в тому, що більше не можна розпізнати, чи є матеріал підробним, чи справжнім. Дослідник штучного інтелекту Алекс Шампандар (Alex Champandard) сказав, що всі мають знати, які ризики несе ця технологія, і що проблема не є технічною, а, найпевніше, пов'язана з довірою до інформації та журналістики. Первинним є те, що людство може потрапити в епоху, коли буде неможливо визначити, чи відповідає істині те, що показують у ЗМІ[16].

Реакція в інтернеті[ред. | ред. код]

Деякі вебсайти, такі як Твіттер і Gfycat[en], оголосили про видалення діпфейкового вмісту та блокування його видавців. Раніше платформа чатів Discord заблокувала канал чату з підробленими порновідео знаменитостей. Порнографічний вебсайт Pornhub також планує блокувати такий вміст, однак повідомляється, що сайт не виконував заборону.[28][29] На Reddit ситуація спочатку залишалася незрозумілою, доки 7 лютого 2018 року відповідний субреддіт не був призупинений через порушення політики «недобровільної порнографії»[14][30][31][32].

Методи виявлення[ред. | ред. код]

Діпфейкові відео можна виявити за відсутністю фізіологічних сигналів, притаманних людині: дихання, кліпання очима, пульсу.[33] DARPA 2016 року розпочало проєкт MediFor (англ. Media Forensics, криміналістичний аналіз медіа), метою якого є розробка технологій для автоматичного оцінювання цілісності зображення чи відео та інтеграція їх у платформу для обміну криміналістичними матеріалами між кінцевими користувачами. У разі успіху, платформа MediFor автоматично виявлятиме маніпуляції, надаватиме детальну інформацію про те, як ці маніпуляції виконано, а також оцінюватиме загальну цілісність візуальних матеріалів, щоб полегшити рішення щодо використання будь-якого сумнівного зображення чи відео[34].

AI Foundation розробляє програмне забезпечення для перевірки справжності медіа. Дослідники запрошують користувачів надсилати їм матеріали, які є фейками для навчання штучного інтелекту[35].

Див. також[ред. | ред. код]

Примітки[ред. | ред. код]

  1. Технологія діпфейку стане найсучаснішою інформаційною зброєю – Associated Press. Радіо Свобода (укр.). Архів оригіналу за 18 лютого 2022. Процитовано 18 лютого 2022. 
  2. Brandon, John (16 лютого 2018). Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise. Fox News (амер.). Архів оригіналу за 15 червня 2018. Процитовано 20 лютого 2018. 
  3. What Are Deepfakes & Why the Future of Porn is Terrifying. Highsnobiety (амер.). 20 лютого 2018. Архів оригіналу за 14 липня 2021. Процитовано 20 лютого 2018. 
  4. Roettgers, Janko (21 лютого 2018). Porn Producers Offer to Help Hollywood Take Down Deepfake Videos. Variety (амер.). Архів оригіналу за 10 червня 2019. Процитовано 28 лютого 2018. 
  5. It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018. 
  6. Kharpal, Arjun (8 лютого 2018). Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor. CNBC. Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018. 
  7. PornHub, Twitter Ban 'Deepfake' AI-Modified Porn. PCMAG (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018. 
  8. Experts fear face swapping tech could start an international showdown. The Outline (англ.). Архів оригіналу за 16 січня 2020. Процитовано 28 лютого 2018. 
  9. Roose, Kevin (4 березня 2018). Here Come the Fake Videos, Too. The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 18 червня 2019. Процитовано 24 березня 2018. 
  10. FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!. Reason.com (англ.). 25 січня 2018. Архів оригіналу за 22 березня 2018. Процитовано 24 березня 2018. 
  11. I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it. The Verge. Архів оригіналу за 24 березня 2018. Процитовано 24 березня 2018. 
  12. Thies, Justus (2016). Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Архів оригіналу за 26 лютого 2018. Процитовано 24 лютого 2018. 
  13. AI-Assisted Fake Porn Is Here and We’re All Fucked. Motherboard. 11 грудня 2017. Архів оригіналу за 5 травня 2019. Процитовано 12 листопада 2018. 
  14. а б Markus Böhm (7 лютого 2018). "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. Spiegel Online. Архів оригіналу за 23 вересня 2019. Процитовано 12 листопада 2018. 
  15. Call for upskirting bill to include 'deepfake' pornography ban (англ.). The Guardian. Архів оригіналу за 21 червня 2018. Процитовано 12 листопада 2018. 
  16. а б в Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. az Aargauer Zeitung. 3 лютого 2018. Архів оригіналу за 13 квітня 2019. Процитовано 12 листопада 2018. 
  17. Patrick Gensing. Deepfakes: Auf dem Weg in eine alternative Realität?. Архів оригіналу за 11 жовтня 2018. Процитовано 12 листопада 2018. 
  18. Romano, Aja (18 квітня 2018). Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news. Vox. Архів оригіналу за 11 червня 2019. Процитовано 10 вересня 2018. 
  19. Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського – Центр стратегічних досліджень. www.ukrinform.ua (укр.). Архів оригіналу за 2 березня 2022. Процитовано 2 березня 2022. 
  20. Дивні запитання та розмова російською: мер Берліна поговорила з несправжнім Кличком. ТСН.ua (укр.). 25 червня 2022. Процитовано 25 червня 2022. 
  21. Britta Bauchmüller. "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!. Berliner-Kurier.de. Архів оригіналу за 28 серпня 2019. Процитовано 12 листопада 2018. 
  22. Eike Kühl (26 січня 2018). Künstliche Intelligenz: Auf Fake News folgt Fake Porn. Die Zeit. ISSN 0044-2070. Архів оригіналу за 24 травня 2019. Процитовано 12 листопада 2018. 
  23. heise online. Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. Архів оригіналу за 12 грудня 2019. Процитовано 12 листопада 2018. 
  24. Farquhar, Peter (27 серпня 2018). An AI program will soon be here to help your deepfake dancing - just don't call it deepfake. Business Insider Australia (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 27 серпня 2018. 
  25. Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted. The Verge. Архів оригіналу за 17 травня 2019. Процитовано 27 серпня 2018. 
  26. Künstliche Intelligenz: Selfies sind eine gute Quelle. Die Zeit. 26 січня 2018. ISSN 0044-2070. Архів оригіналу за 25 травня 2019. Процитовано 12 листопада 2018. 
  27. „Deepfake“ - FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?. WILDE BEUGER SOLMECKE Rechtsanwälte. 2 лютого 2018. Архів оригіналу за 13 квітня 2019. Процитовано 12 листопада 2018. 
  28. Pornhub hasn't been actively enforcing its deepfake ban. Engadget (амер.). Архів оригіналу за 10 квітня 2019. Процитовано 21 квітня 2018. 
  29. Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them. BuzzFeed (англ.). Архів оригіналу за 20 червня 2018. Процитовано 21 квітня 2018. 
  30. barbara.wimmer. Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. Архів оригіналу за 8 лютого 2018. Процитовано 12 листопада 2018. 
  31. heise online. Deepfakes: Auch Reddit verbannt Fake-Porn. Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018. 
  32. Reddit verbannt Deepfake-Pornos. Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018. 
  33. Yuezun Li, Ming-Ching Chang and Siwei Lyu. In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking. Архів оригіналу за 13 листопада 2018. Процитовано 12 листопада 2018. 
  34. Media Forensics (MediFor). Архів оригіналу за 29 жовтня 2020. Процитовано 12 листопада 2018. 
  35. Responsibility. www.aifoundation.com. Архів оригіналу за 12 січня 2019. Процитовано 12 січня 2019. 

Посилання[ред. | ред. код]