Розпізнавання емоцій: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
Вилучено вміст Додано вміст
Gerali17 (обговорення | внесок)
Створено шляхом перекладу сторінки «Emotion recognition»
Мітки: Посилання на сторінки неоднозначності Переклад вмісту «Переклад вмісту 2»
(Немає відмінностей)

Версія за 18:30, 24 травня 2022

Розпізнавання емоцій - це процес виявлення людських емоцій. Люди сильно відрізняються за точністю розпізнавання емоцій інших. Використання технологій, які допомагають людям з розпізнаванням емоцій, є відносно новою сферою досліджень. Як правило, технологія працює найкраще, якщо вона використовує кілька способів у контексті. На сьогодні найбільша робота була проведена з автоматизації розпізнавання виразів обличчя з відео, мовленнєвих виразів із аудіо, письмових виразів із тексту та фізіології, виміряної за допомогою носимих пристроїв.

Докладніше: Emotion perception

Люди демонструють велику мінливість у своїх здібностях розпізнавати емоції. Ключовим моментом, який слід пам’ятати, вивчаючи автоматичне розпізнавання емоцій, є кілька джерел «основної істини» або правди про те, що таке справжня емоція. Припустимо, ми намагаємося розпізнати емоції Алекса. Одне з джерел: «Що більшість людей скаже, що відчуває Алекс?» У цьому випадку «правда» може не відповідати тому, що відчуває Алекс, але може відповідати тому, що більшість людей скаже, що виглядає так, як відчуває Алекс. Наприклад, Алекс може бути сумним, але він широко посміхається, а потім більшість людей кажуть, що він виглядає щасливим. Якщо автоматизований метод досягає тих же результатів, що й група спостерігачів, його можна вважати точним, навіть якщо він насправді не вимірює те, що Алекс справді відчуває. Інше джерело «правди» — запитати Алекса, що він насправді відчуває. Це працює, якщо Алекс добре відчуває свій внутрішній стан, хоче розповісти вам, що це таке, і вміє точно передати це словами чи цифрами. Однак деякі люди погано відчувають свої внутрішні відчуття або не можуть точно передати їх словами й цифрами. Взагалі , щоб дізнатися правду про те, яка емоція насправді присутня, може знадобитися певна робота, вона може змінюватися залежно від обраних критеріїв і зазвичай вимагає підтримки певного рівня невизначеності.

Десятиліттями наукових досліджень ведуться розробка та оцінка методів автоматизованого розпізнавання емоцій. Зараз існує велика література, в якій пропонуються й оцінюються сотні різних методів, що використовують методи з різних областей, таких як обробка сигналів, машинне навчання, комп’ютерний зір та обробка мовлення. Для інтерпретації емоцій можуть використовуватися різні методології та техніки, наприклад байєсівські мережі. [1] , моделі гаусової суміші [2] та приховані моделі Маркова [3] та глибокі нейронні мережі. [4]

Підходи

Точність розпізнавання емоцій зазвичай покращується, коли воно поєднує аналіз людських виразів із мультимодальних форм, таких як тексти, фізіологія, аудіо чи відео. [5] Різні типи емоцій виявляються завдяки інтеграції інформації з виразів обличчя, рухів тіла та жестів, а також мови. [6] Кажуть, що ця технологія сприяє появі так званого емоційного або емоційного Інтернету. [7]

Теперішні підходи до розпізнавання емоцій для класифікації певних типів емоцій можна загалом розділити на три основні категорії: методи, засновані на знаннях, статистичні методи та гібридні підходи. [8]

Техніки, засновані на знаннях (іноді їх називають методиками, заснованими на лексиці), використовують знання предметної області та семантичні та синтаксичні характеристики мови для виявлення певних типів емоцій.  У цьому підході зазвичай використовуються ресурси, засновані на знаннях, під час процесу класифікації емоцій, такі як WordNet, SenticNet, [9] ConceptNet і EmotiNet [10], щоб назвати лише деякі. [11] Однією з переваг цього підходу є доступність та економічність, зумовлені великою доступністю таких баз знань. [8] Обмеженням цієї техніки, з іншого боку, є її нездатність обробляти концептуальні нюанси та складні лінгвістичні правила. [8]

Методи, засновані на знаннях, можна в основному розділити на дві категорії: підходи, засновані на словнику та на основі корпусу.  Підходи, засновані на словнику, знаходять у словнику початкові слова думки чи емоції та шукають їх синоніми й антоніми, щоб розширити початковий список думок чи емоцій . [12] З іншого боку, підходи, засновані на корпусі, починаються з початкового списку слів думок або емоцій і розширюють базу даних шляхом пошуку інших слів із контекстно-специфічними характеристиками у великому корпусі . [12] Хоча підходи, засновані на корпусі, враховують контекст, їх ефективність все ще різниться в різних областях, оскільки слово в одному домені може мати різну орієнтацію в іншому домені. [13]

Статистичні методи

Статистичні методи зазвичай передбачають використання різних контрольованих алгоритмів машинного навчання, в яких великий набір анотованих даних подається в алгоритми, щоб система вивчала та передбачала відповідні типи емоцій. [8] Алгоритми машинного навчання, як правило, забезпечують більш розумну точність класифікації у порівнянні іншими підходами, але однією з проблем у досягненні кращих результатів у процесі класифікації є необхідність мати достатньо великий навчальний набір. [8]

Деякі з найбільш часто використовуваних алгоритмів машинного навчання включають опорні векторні машини (SVM), наївні байєсівські та максимальні ентропії. [14] Глибоке навчання, яке належить до групи машинного навчання без нагляду, також широко використовується для розпізнавання емоцій. [15] [16] [17] Добре відомі алгоритми глибокого навчання включають різні архітектури штучної нейронної мережі (ANN), такі як згортка нейронна мережа (CNN), довготривала короткочасна пам’ять (LSTM) і машина екстремального навчання (ELM) . [14] Популярність підходів глибокого навчання в області розпізнавання емоцій може бути пов’язана головним чином з його успіхом у пов’язаних додатках, таких як комп’ютерний зір, розпізнавання мовлення та обробка природної мови (NLP). [14]

Гібридні підходи

Гібридні підходи до розпізнавання емоцій, по суті, є комбінацією методів, заснованих на знаннях, і статистичних методів, які використовують додаткові характеристики обох методів. [8] Деякі з робіт, у яких застосовано сукупність керованих знаннями лінгвістичних елементів і статистичних методів, включають септичні обчислення та iFeel, обидві з яких використовують ресурс на основі знань на рівні концепції SenticNet. [18] [19] Роль таких ресурсів на основі знань у реалізації гібридних підходів дуже важлива в процесі класифікації емоцій. [11] Оскільки гібридні методи отримують переваги як підходів, що ґрунтуються на знаннях, так і статистичних підходів, вони, як правило, мають кращу ефективність класифікації, ніж використання методів, заснованих на знаннях або статистичних, незалежно.  Недоліком використання гібридних методів є складність обчислень під час процесу класифікації. [11]

Набори даних

Дані є невіддільною частиною наявних підходів до розпізнавання емоцій, і в більшості випадків отримати анотовані дані, необхідні для навчання алгоритмів машинного навчання, є складним завданням. [12] Для завдання класифікації різних типів емоцій із мультимодальних джерел у вигляді текстів, аудіо, відео чи фізіологічних сигналів доступні такі набори даних:

  1. HUMAINE: надає природні кліпи зі словами емоцій та мітками контексту в різних модальностях [20]
  2. База даних Белфаста: надає кліпи з широким спектром емоцій з телевізійних програм та записів інтерв'ю [21]
  3. SEMAINE: забезпечує аудіовізуальні записи між людиною та віртуальним агентом і містить анотації емоцій, такі як гнів, щастя, страх, огида, смуток, презирство та розвага [22]
  4. IEMOCAP: забезпечує записи діадичних сеансів між акторами та містить анотації емоцій, такі як щастя, гнів, смуток, розчарування та нейтральний стан [23]
  5. ІНТЕРФЕЙС: забезпечує аудіовізуальні записи суб’єктів семи національностей та містить анотації емоцій, такі як щастя, гнів, смуток, здивування, огида та страх [24]
  6. DEAP: забезпечує електроенцефалографію (ЕЕГ), електрокардіографію (ЕКГ) та відеозаписи обличчя, а також анотації емоцій щодо валентності, збудження та домінування людей, які дивляться кліпи [25]
  7. DREAMER: забезпечує записи електроенцефалографії (ЕЕГ) та електрокардіографії (ЕКГ), а також анотації емоцій щодо валентності, збудження та домінування людей, які дивляться фільми [26]
  8. MELD: це багатосторонній набір даних для розмови, де кожне висловлювання позначено емоціями та почуттями. MELD [27] забезпечує розмови у форматі відео і, отже, підходить для мультимодального розпізнавання емоцій та аналізу настроїв . MELD корисний для мультимодального аналізу настроїв і розпізнавання емоцій, систем діалогу та розпізнавання емоцій у розмовах. [28]
  9. MuSe: забезпечує аудіовізуальні записи природних взаємодій між людиною та об’єктом. [29] Він має дискретні й безперервні анотації емоцій з точки зору валентності, збудження та надійності, а також теми мовлення, корисні для мультимодального аналізу настроїв та розпізнавання емоцій.
  10. UIT-VSMEC: це стандартний в’єтнамський корпус емоцій у соціальних мережах (UIT-VSMEC) з приблизно 6927 анотованими людьми речень із шістьма мітками емоцій, що сприяє дослідженню розпізнавання емоцій у в’єтнамській мові, яка є малоресурсною мовою в обробці природної мови (NLP). . [30]
  11. BED: забезпечує записи електроенцефалографії (ЕЕГ), а також анотації емоцій з точки зору валентності та збудження людей, які переглядають зображення. Він також включає записи електроенцефалографії (ЕЕГ) людей, які зазнали впливу різних подразників (SSVEP, відпочинок із закритими очима, відпочинок з відкритими очима, когнітивні завдання) для завдання біометричних даних на основі ЕЕГ. [31]

Додатки

Розпізнавання емоцій використовується в суспільстві з різних причин. Affectiva, що виникла з Массачусетського технологічного інституту, надає програмне забезпечення для штучного інтелекту, яке робить його більш ефективним для виконання завдань, які раніше виконували люди вручну, в основному для збору інформації про вираз обличчя та голос, пов’язану з конкретними контекстами, де глядачі погодилися поділитися цією інформацією. Наприклад, замість того, щоб заповнювати довге опитування про те, як ви себе почуваєте під час перегляду навчального відео чи реклами, ви можете погодитися на те, щоб камера спостерігала за вашим обличчям і слухала, що ви говорите, і відзначати, під час яких частин досвіду ви показували такі вирази, як нудьга, інтерес, розгубленість або посмішка. (Зауважте, що це не означає, що це читає ваші найпотаємніші почуття — це лише те, що ви висловлюєте зовні.) Інші види використання Affectiva містять в собі допомогу дітям з аутизмом, допомогу сліпим людям читати вирази обличчя, допомогу роботам взаємодіяти більш розумно з людьми та моніторинг ознак уваги під час водіння, щоб підвищити безпеку водія. [32]

Патент, поданий Snapchat у 2015 році, описує метод вилучення даних про натовпи на публічних заходах шляхом виконання алгоритмічного розпізнавання емоцій на селфі користувачів із географічними тегами. [33]

Emotient була стартап-компанією, яка застосовувала розпізнавання емоцій до читання нахмурених, посмішок та інших виразів на обличчях, а саме штучний інтелект, щоб передбачати «ставлення та дії на основі виразів обличчя». [34] Apple купила Emotient у 2016 році і використовує технологію розпізнавання емоцій для підвищення емоційного інтелекту своїх продуктів. [34]

nViso забезпечує розпізнавання емоцій у режимі реального часу для веб та мобільних додатків через API в режимі реального часу. [35] Visage Technologies AB пропонує оцінку емоцій як частину свого Visage SDK для маркетингових і наукових досліджень та подібних цілей. [36]

Eyeris — це компанія з розпізнавання емоцій, яка співпрацює з виробниками вбудованих систем, включаючи виробників автомобілів і компаній, що працюють у соціальних мережах, над інтеграцією свого програмного забезпечення для аналізу облич і розпізнавання емоцій; а також із творцями відеоконтенту, щоб допомогти їм оцінити ефективність їх короткого та довгої відеореклами. [37] [38]

Також існує багато продуктів для об’єднання інформації з емоцій, переданих в Інтернеті, в тому числі за допомогою натискання кнопки «подобається» та кількості позитивних і негативних фраз у тексті, а розпізнавання афектів все частіше використовується в деяких видах ігор і віртуальної реальності, як для навчальних цілей, так і для надати гравцям більш природний контроль над своїми соціальними аватарами. 

Підполя розпізнавання емоцій

Розпізнавання емоцій, ймовірно, досягне найкращого результату, якщо застосовує кілька способів, поєднуючи різні об’єкти, включаючи текст (розмову), аудіо, відео та фізіологію для виявлення емоцій.

Текстові дані є сприятливим об’єктом дослідження для розпізнавання емоцій, коли вони безплатні та доступні скрізь у житті людини. У порівнянні з іншими типами даних, зберігання текстових даних легше і легко стискається до найкращої продуктивності через часте повторення слів і символів у мовах. Емоції можна витягти з двох основних текстових форм: письмових текстів і розмов (діалогів). [39] Для письмових текстів багато вчених зосереджуються на роботі з рівнем речень, щоб витягти «слова/фрази», що представляють емоції. [40] [41]

Розпізнавання емоцій в аудіо

На відміну від розпізнавання емоцій у тексті, голосові сигнали використовуються для розпізнавання для вилучення емоцій з аудіо. [42]

Розпізнавання емоцій у відео

Відеодані — це комбінація аудіоданих, даних зображень і іноді текстів (у разі субтитрів [43] ).

Розпізнавання емоцій у розмові

Розпізнавання емоцій у розмові (ERC) витягує думки між учасниками з масивних даних розмови в соціальних платформах, таких як Facebook, Twitter, YouTube та інших. [28] ERC може приймати вхідні дані, такі як текст, аудіо, відео або комбіновану форму, щоб виявити кілька емоцій, таких як страх, пожадливість, біль і задоволення.

Дивись також

Посилання

  1. Miyakoshi, Yoshihiro, and Shohei Kato. "Facial Emotion Detection Considering Partial Occlusion Of Face Using Baysian Network". Computers and Informatics (2011): 96–101.
  2. Hari Krishna Vydana, P. Phani Kumar, K. Sri Rama Krishna and Anil Kumar Vuppala. "Improved emotion recognition using GMM-UBMs". 2015 International Conference on Signal Processing and Communication Engineering Systems
  3. B. Schuller, G. Rigoll M. Lang. "Hidden Markov model-based speech emotion recognition". ICME '03. Proceedings. 2003 International Conference on Multimedia and Expo, 2003.
  4. Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). Non-linear frequency warping using constant-Q transformation for speech emotion recognition. 2021 International Conference on Computer Communication and Informatics (ICCCI). с. 1—4. arXiv:2102.04029. doi:10.1109/ICCCI50826.2021.9402569. ISBN 978-1-7281-5875-4.
  5. Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). A review of affective computing: From unimodal analysis to multimodal fusion. Information Fusion. 37: 98—125. doi:10.1016/j.inffus.2017.02.003. {{cite journal}}: |hdl-access= вимагає |hdl= (довідка)
  6. Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amaryllis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 September 2007). Multimodal emotion recognition from expressive faces, body gestures and speech (англ.). Т. 247. с. 375—388. doi:10.1007/978-0-387-74161-1_41. ISBN 978-0-387-74160-4. {{cite book}}: Проігноровано |journal= (довідка)
  7. Price. Tapping Into The Emotional Internet. TechCrunch (амер.). Процитовано 12 грудня 2018.
  8. а б в г д е Cambria, Erik (March 2016). Affective Computing and Sentiment Analysis. IEEE Intelligent Systems. 31 (2): 102—107. doi:10.1109/MIS.2016.31. Помилка цитування: Некоректний тег <ref>; назва «s1» визначена кілька разів з різним вмістом
  9. Cambria, Erik; Poria, Soujanya; Bajpai, Rajiv; Schuller, Bjoern (2016). SenticNet 4: A Semantic Resource for Sentiment Analysis Based on Conceptual Primitives. Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers (англ.): 2666—2677.
  10. Balahur, Alexandra; Hermida, JesúS M; Montoyo, AndréS (1 November 2012). Detecting implicit expressions of emotion in text: A comparative analysis. Decision Support Systems. 53 (4): 742—753. doi:10.1016/j.dss.2012.05.024. ISSN 0167-9236.
  11. а б в Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (December 2014). Sentiment analysis algorithms and applications: A survey. Ain Shams Engineering Journal. 5 (4): 1093—1113. doi:10.1016/j.asej.2014.04.011. Помилка цитування: Некоректний тег <ref>; назва «s6» визначена кілька разів з різним вмістом
  12. а б в Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). Sentiment analysis techniques in recent works. 2015 Science and Information Conference (SAI). с. 288—291. doi:10.1109/SAI.2015.7237157. ISBN 978-1-4799-8547-0. Помилка цитування: Некоректний тег <ref>; назва «s3» визначена кілька разів з різним вмістом
  13. Hemmatian, Fatemeh; Sohrabi, Mohammad Karim (18 December 2017). A survey on classification techniques for opinion mining and sentiment analysis. Artificial Intelligence Review. 52 (3): 1495—1545. doi:10.1007/s10462-017-9599-6.
  14. а б в Sun, Shiliang; Luo, Chen; Chen, Junyu (July 2017). A review of natural language processing techniques for opinion mining systems. Information Fusion. 36: 10—25. doi:10.1016/j.inffus.2016.10.004.
  15. Majumder, Navonil; Poria, Soujanya; Gelbukh, Alexander; Cambria, Erik (March 2017). Deep Learning-Based Document Modeling for Personality Detection from Text. IEEE Intelligent Systems. 32 (2): 74—79. doi:10.1109/MIS.2017.23.
  16. Mahendhiran, P. D.; Kannimuthu, S. (May 2018). Deep Learning Techniques for Polarity Classification in Multimodal Sentiment Analysis. International Journal of Information Technology & Decision Making. 17 (3): 883—910. doi:10.1142/S0219622018500128.
  17. Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 October 2017). Temporally Selective Attention Model for Social and Affective State Recognition in Multimedia Content. MM '17. ACM. с. 1743—1751. doi:10.1145/3123266.3123413. ISBN 9781450349062.
  18. Cambria, Erik; Hussain, Amir (2015). Sentic Computing: A Common-Sense-Based Framework for Concept-Level Sentiment Analysis. Springer Publishing Company, Incorporated. ISBN 978-3319236537.
  19. Araújo, Matheus; Gonçalves, Pollyanna; Cha, Meeyoung; Benevenuto, Fabrício (7 April 2014). iFeel: a system that compares and combines sentiment analysis methods. WWW '14 Companion. ACM. с. 75—78. doi:10.1145/2567948.2577013. ISBN 9781450327459.
  20. Paolo Petta, ред. (2011). Emotion-oriented systems the humaine handbook. Berlin: Springer. ISBN 978-3-642-15184-2.
  21. Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 April 2003). Emotional speech: towards a new generation of databases. Speech Communication. 40 (1–2): 33—60. CiteSeerX 10.1.1.128.3991. doi:10.1016/S0167-6393(02)00070-5. ISSN 0167-6393.
  22. McKeown, G.; Valstar, M.; Cowie, R.; Pantic, M.; Schroder, M. (January 2012). The SEMAINE Database: Annotated Multimodal Records of Emotionally Colored Conversations between a Person and a Limited Agent. IEEE Transactions on Affective Computing. 3 (1): 5—17. doi:10.1109/T-AFFC.2011.20.
  23. Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Mower, Emily; Kim, Samuel; Chang, Jeannette N.; Lee, Sungbok; Narayanan, Shrikanth S. (5 November 2008). IEMOCAP: interactive emotional dyadic motion capture database. Language Resources and Evaluation (англ.). 42 (4): 335—359. doi:10.1007/s10579-008-9076-6. ISSN 1574-020X.
  24. Martin, O.; Kotsia, I.; Macq, B.; Pitas, I. (3 April 2006). The eNTERFACE'05 Audio-Visual Emotion Database. Icdew '06. IEEE Computer Society. с. 8–. doi:10.1109/ICDEW.2006.145. ISBN 9780769525716.
  25. Koelstra, Sander; Muhl, Christian; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Pun, Thierry; Nijholt, Anton; Patras, Ioannis (January 2012). DEAP: A Database for Emotion Analysis Using Physiological Signals. IEEE Transactions on Affective Computing. 3 (1): 18—31. CiteSeerX 10.1.1.593.8470. doi:10.1109/T-AFFC.2011.15. ISSN 1949-3045.
  26. Katsigiannis, Stamos; Ramzan, Naeem (January 2018). DREAMER: A Database for Emotion Recognition Through EEG and ECG Signals From Wireless Low-cost Off-the-Shelf Devices (PDF). IEEE Journal of Biomedical and Health Informatics. 22 (1): 98—107. doi:10.1109/JBHI.2017.2688239. ISSN 2168-2194. PMID 28368836.
  27. Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). MELD: A Multimodal Multi-Party Dataset for Emotion Recognition in Conversations. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics: 527—536. arXiv:1810.02508. doi:10.18653/v1/p19-1050.
  28. а б Poria, S., Majumder, N., Mihalcea, R., & Hovy, E. (2019). Emotion recognition in conversation: Research challenges, datasets, and recent advances. IEEE Access, 7, 100943-100953.
  29. Stappen, Lukas; Schuller, Björn; Lefter, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). Summary of MuSe 2020: Multimodal Sentiment Analysis, Emotion-target Engagement and Trustworthiness Detection in Real-life Media. Proceedings of the 28th ACM International Conference on Multimedia. Seattle, PA, USA: Association for Computing Machinery: 4769—4770. arXiv:2004.14858. doi:10.1145/3394171.3421901.
  30. Ho, Vong (2020). Emotion Recognition for Vietnamese Social Media Text. 16th International Conference of the Pacific Association for Computational Linguistics (PACLING 2019). Communications in Computer and Information Science. 1215: 319—333. arXiv:1911.09339. doi:10.1007/978-981-15-6168-9_27. ISBN 978-981-15-6167-2.
  31. Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (February 2021). BED: A new dataset for EEG-based biometrics. IEEE Internet of Things Journal. (Early Access): 1. doi:10.1109/JIOT.2021.3061727. ISSN 2327-4662.
  32. Affectiva.
  33. Bushwick, Sophie. This Video Watches You Back. Scientific American (англ.). Процитовано 27 січня 2020.
  34. а б DeMuth Jr., Chris (8 January 2016). Apple Reads Your Mind. M&A Daily. Seeking Alpha. Процитовано 9 January 2016.
  35. nViso. nViso.ch.
  36. Visage Technologies.
  37. Feeling sad, angry? Your future car will know.
  38. Varagur, Krithika (22 березня 2016). Cars May Soon Warn Drivers Before They Nod Off. Huffington Post.
  39. Shivhare, S. N., & Khethawat, S. (2012). Emotion detection from text. arXiv preprint arXiv:1205.4944
  40. Ezhilarasi, R., & Minu, R. I. (2012). Automatic emotion recognition and classification. Procedia Engineering, 38, 21-26.
  41. Krcadinac, U., Pasquier, P., Jovanovic, J., & Devedzic, V. (2013). Synesketch: An open source library for sentence-based emotion recognition. IEEE Transactions on Affective Computing, 4(3), 312-325.
  42. Schmitt, M., Ringeval, F., & Schuller, B. W. (2016, September). At the Border of Acoustics and Linguistics: Bag-of-Audio-Words for the Recognition of Emotions in Speech. In Interspeech (pp. 495-499).
  43. Dhall, A., Goecke, R., Lucey, S., & Gedeon, T. (2012). Collecting large, richly annotated facial-expression databases from movies. IEEE multimedia, (3), 34-41.

Шаблон:Nonverbal communication