ReLU

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
Графіки ReLU (синій) та softplus (зелений) передавальних функцій в околі x = 0

Зрі́заний ліні́йний ву́зол[1][2], іноді ви́прямлений ліні́йний ву́зол[3] (англ. rectified linear unit, ReLU[4]), або випрямля́ч[5][6] (англ. rectifier) у контексті штучних нейронних мереж є передавальною функцією, яка визначена таким чином:

,

де x вхідне значення нейрона. Вона є аналогом напівперіодичного випрямляча у схемотехніці. Ця передавальна функція була запроваджена для динамічних мереж Ганлозером (англ. Hahnloser) та іншими у 2000 році[7] з біологічним підґрунтям та математичним обґрунтуванням.[8] В 2011 році вперше було продемонстровано, як забезпечити краще навчання глибоких мереж,[9] на відміну від передавальних функцій, які широко використовувались до цього, а саме, логістичною функцією (яка була запозичена з теорії ймовірностей; дивись логістична регресія) і виявились більш практичними[10] ніж гіперболічний тангенс. ReLU є, станом на 2018, найбільш популярною передавальною функцією для глибоких нейронних мереж.[11][12]

Гладке наближення ReLU є гладкою функцією

яка називається softplus-функцією.[13] Похідною softplus є , тобто логістична функція.

ReLU часто використовується при глибокому навчанні в задачах комп'ютерного зору[9] та розпізнавання мовлення[14][15].

Варіації

[ред. | ред. код]

ReLU з шумом

[ред. | ред. код]

До ReLU можна додати гауссів шум, що дає ReLU з шумом[4]

, з

ReLU з шумом успішно використовуються в задачах комп'ютерного зору в обмежених машинах Больцмана.[4]

Нещільна ReLU

[ред. | ред. код]

Нещільна ReLU використовує невеличкий додатній градієнт, коли передавач не активний.[15]

Параметрична ReLU

[ред. | ред. код]

Параметрична ReLU узагальнює нещільну ReLU, а саме додається параметр нещільності, який навчається разом з іншими параметрами нейронної мережі.[16]

Зауважте, що для , це еквівалентно

і тому таке відношення називають «максимальним виводом» (англ. maxout) мережі.[16]

Експоненціально-лінійна ReLU робить середнє передавача ближчим до нуля, що прискорює навчання. Було показано, що ELU може отримати більш високу точність класифікації, ніж ReLU.[17]

є гіперпараметром, який налаштовується і  — константа.

Переваги

[ред. | ред. код]
  • Біологічна правдоподібність: Одностороння на відміну від центрально симетричного гіперболічного тангенса.
  • Розріджена активація: наприклад, у випадково ініціалізованій мережі, тільки близько 50 % прихованих елементів активуються (мають не нульове значення).
  • Краще градієнтне поширення: рідше виникає проблема зникання градієнту у порівнянні з сигмоїдальною передавальною функцією, яка може виникнути в обох напрямках.[18]
  • Швидкість обчислення: тільки порівняння, додавання та множення.
  • Інваріантність відносно масштабування: для .

ReLU було використано для відокремлення специфічного збудження та неспецифічного інгібування у піраміді з нейронною абстракцією (англ. Neural Abstraction Pyramid), яка була навчена керовано, щоб вирішувати декілька завдань комп'ютерного зору.[19] У 2011,[9] ReLU використовували як елемент нелінійності з метою показати, можливість глибокого навчання нейронної мережі без попереднього некерованого навчання. ReLU, на відміну від сигмоїда та подібних передавальних функцій, дозволяє швидше та ефективніше навчання глибоких нейронних мереж на великих та складних наборах даних.

Потенційні складнощі

[ред. | ред. код]
  • Не регулярна у нулі: проте похідна існує в усіх інших точках, також можна на власний розсуд задати значення у нулі — 0 або 1.
  • Несиметрична
  • Необмежена
  • Наявність мертвих зон: може трапитись так, що нейрони будуть переведені у стан, в якому вони стануть неактивними для всіх вхідних значень. Для такого стану відсутнє зворотне поширення градієнту, яке проходить через нейрон і тому в такому стані нейроном потрапляє у незмінний стан і «вмирає». Це один з різновидів проблеми зникання градієнту. В деяких випадках велика кількість нейронів мережі може застигнути у мертвому стані, і справити ефект зменшення місткості моделі. Така проблема зазвичай виникає коли встановлено дуже велику швидкість навчання. Цей ефект можна послабити, якщо натомість використати нещільну ReLU.

Див. також

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. Білоус, Наталія; Комаров, Олексій (2018). Використання методів глибинного навчання для сегментації пухлин головного мозку на МРТ-зображеннях (PDF). Інформаційні системи та технології. Коблеве — Харків. с. 438. Архів оригіналу (PDF) за 16 травня 2021. Процитовано 16 травня 2021.
  2. Проніна, О. І. (2019). Робоча програма навчальної дисципліни «Машинне навчання» для здобувачів освітнього ступеня магістра за спеціальністю 122 «Комп’ютерні науки», освітньої програми «Інформаційні системи та технології». Маріуполь: ПДТУ. Архів оригіналу за 16 травня 2021. Процитовано 16 травня 2021.
  3. Момотюк, П. В. (2016). Оптимізація архітектури згорткових нейронних мереж за розташуванням вузлів ReLU (PDF). Перспективи розвитку сучасної науки. Львів. с. 94—96. Архів оригіналу (PDF) за 16 травня 2021. Процитовано 16 травня 2021.
  4. а б в Vinod Nair and Geoffrey Hinton (2010). Rectified Linear Units Improve Restricted Boltzmann Machines (PDF). ICML. Архів оригіналу (PDF) за 29 липня 2018. Процитовано 10 серпня 2018.
  5. Бубенщиков, О. В.; Лєпа, Є. В. (2019). Використання згортальних нейронних мереж для ідентифікації обличчя людини (PDF). Інформаційні технології. Вісник ХНТУ. Херсон: ХНТУ. 1 (68): 136—142. Архів оригіналу (PDF) за 6 березня 2022. Процитовано 12 травня 2022.
  6. Ялова, К. М.; Яшина, К. В.; Ткаченко, М. В. (2018). Розпізнавання образів згортковою нейронною мережею (PDF). Технічні науки. Вісник ХНУ. Хмельницький: ХНУ. 2 (259). Архів оригіналу (PDF) за 18 квітня 2022. Процитовано 12 травня 2022.
  7. R Hahnloser, R. Sarpeshkar, M A Mahowald, R. J. Douglas, H.S. Seung (2000). Digital selection and analogue amplification coexist in a cortex-inspired silicon circuit. Nature. Т. 405. с. 947—951.
  8. R Hahnloser, H.S. Seung (2001). Permitted and Forbidden Sets in Symmetric Threshold-Linear Networks. NIPS 2001.
  9. а б в Xavier Glorot, Antoine Bordes and Yoshua Bengio[en] (2011). Deep sparse rectifier neural networks (PDF). AISTATS. Архів оригіналу (PDF) за 13 грудня 2016. Процитовано 10 серпня 2018.
  10. Yann LeCun, Leon Bottou, Genevieve B. Orr and Klaus-Robert Müller[en] (1998). Efficient BackProp (PDF). У G. Orr and K. Müller (ред.). Neural Networks: Tricks of the Trade. Springer. Архів оригіналу (PDF) за 31 серпня 2018. Процитовано 10 серпня 2018.
  11. LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). Deep learning. Nature. 521 (7553): 436—444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442.
  12. Ramachandran, Prajit; Barret, Zoph; Quoc, V. Le (16 жовтня 2017). Searching for Activation Functions. arXiv:1710.05941 [cs.NE].
  13. C. Dugas, Y. Bengio, F. Bélisle, C. Nadeau, R. Garcia, NIPS'2000, (2001), Incorporating Second-Order Functional Knowledge for Better Option Pricing [Архівовано 31 серпня 2018 у Wayback Machine.].
  14. László Tóth (2013). Phone Recognition with Deep Sparse Rectifier Neural Networks (PDF). ICASSP. Архів оригіналу (PDF) за 25 вересня 2019. Процитовано 10 серпня 2018.
  15. а б Andrew L. Maas, Awni Y. Hannun, Andrew Y. Ng (2014). Rectifier Nonlinearities Improve Neural Network Acoustic Models [Архівовано 19 червня 2018 у Wayback Machine.]
  16. а б He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2015). Delving Deep into Rectifiers: Surpassing Human-Level Performance on Image Net Classification. arXiv:1502.01852 [cs.CV].
  17. Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (2015). Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs). arXiv:1511.07289 [cs.LG].
  18. Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua (14 червня 2011). Deep Sparse Rectifier Neural Networks. PMLR (англ.). Архів оригіналу за 24 серпня 2018. Процитовано 11 серпня 2018.
  19. Behnke, Sven (2003). Hierarchical Neural Networks for Image Interpretation. Lecture Notes in Computer Science. Т. 2766. Springer. doi:10.1007/b11963. Архів оригіналу за 11 серпня 2018. Процитовано 11 серпня 2018.