Функція активації: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[перевірена версія][перевірена версія]
Вилучено вміст Додано вміст
зв'язність
мНемає опису редагування
Рядок 2: Рядок 2:


* [[Функція активації (net input)]] — у [[штучний нейрон|штучному нейроні]], [[математична функція|відображення]] вхідного вектора сигналів на якесь число.
* [[Функція активації (net input)]] — у [[штучний нейрон|штучному нейроні]], [[математична функція|відображення]] вхідного вектора сигналів на якесь число.
* [[Передавальна функція штучного нейрона]] — відображення вхідного сигналу (результату [[Функція активації (net input)|функції активації]]) на виходовий. Зазвичай на цю роль вибирають нелінійну обмежувальну функцію на зразок [[сигмоїда|сигмоїди]].
* [[Передавальна функція штучного нейрона]] ({{lang-en|activation function}}<ref>Ke-Lin Du, Swamy M. N. S., Neural Networks and Statistical Learning, Springer-Verlag London, 2014 {{doi|10.1007/978-1-4471-5571-3}}</ref><ref>James Keller, Derong Liu, and David Fogel: Fundamentals of computational intelligence: neural networks, fuzzy systems, and evolutionary computation: John Wiley and Sons, 2016, 378 pp, ISBN 978-1-110-21434-2</ref><ref>Lionel Tarassenko, 2 - Mathematical background for neural computing, In Guide to Neural Computing Applications, Butterworth-Heinemann, New York, 1998, Pages 5-35, ISBN 9780340705896, http://doi.org/10.1016/B978-034070589-6/50002-6.</ref><ref name="Anthony2001">{{cite journal|last=Anthony|first=Martin|year=2001|title=1. Artificial Neural Networks|pages=1–8|doi=10.1137/1.9780898718539}}</ref><ref>[http://neuralnetworksanddeeplearning.com/chap1.html#perceptrons Michael Nielsen. Neural Networks and Deep Learning.]</ref><ref name="Stegemann-Buenfeld-1999">{{cite journal|last=Stegemann|first=J. A.|coauthors=N. R. Buenfeld|year=2014|title=A Glossary of Basic Neural Network Terminology for Regression Problems|journal=Neural Computing & Applications|volume=8|issue=4|pages=290–296|issn=0941-0643|doi=10.1007/s005210050034}}</ref>, також ''excitation function, squashing function, transfer function''<ref name="Stegemann-Buenfeld-1999"/>) — відображення вхідного сигналу (результату [[Функція активації (net input)|функції активації]]) на виходовий. Зазвичай на цю роль вибирають нелінійну обмежувальну функцію на зразок [[сигмоїда|сигмоїди]].

== Примітки ==
{{reflist}}

Версія за 09:03, 12 квітня 2017

Примітки

  1. Ke-Lin Du, Swamy M. N. S., Neural Networks and Statistical Learning, Springer-Verlag London, 2014 DOI:10.1007/978-1-4471-5571-3
  2. James Keller, Derong Liu, and David Fogel: Fundamentals of computational intelligence: neural networks, fuzzy systems, and evolutionary computation: John Wiley and Sons, 2016, 378 pp, ISBN 978-1-110-21434-2
  3. Lionel Tarassenko, 2 - Mathematical background for neural computing, In Guide to Neural Computing Applications, Butterworth-Heinemann, New York, 1998, Pages 5-35, ISBN 9780340705896, http://doi.org/10.1016/B978-034070589-6/50002-6.
  4. Anthony, Martin (2001). 1. Artificial Neural Networks: 1—8. doi:10.1137/1.9780898718539.
  5. Michael Nielsen. Neural Networks and Deep Learning.
  6. а б Stegemann, J. A.; N. R. Buenfeld (2014). A Glossary of Basic Neural Network Terminology for Regression Problems. Neural Computing & Applications. 8 (4): 290—296. doi:10.1007/s005210050034. ISSN 0941-0643.