Користувач:Маркіян Сколоздра/пісочниця

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Мережа на основі Радіально-базисної функції

У галузі математичного моделювання, мережа радіально-базисних функцій є штучною нейронною мережею, яка використовує радіальні базисні функції як функції активації. Вихід мережі є лінійною комбінацією радіальних базисних функцій входів і параметрів нейронів. Мережі на основі Радіально-базисних функцій мають безліч застосувань, у тому числі функції наближення, прогнозування часових рядів, класифікація і системи управління. Вони були вперше сформульовані Брумхедом і Лоу у їхній статті 1988 р.[1][2][3]

Архітектура мережі[ред. | ред. код]

Рисунок 1. Архітектура радіальної базисної функції мережі. Вхідний вектор , який використовується в якості вхідних даних для всіх радіально-базисних функцій, кожен з різними параметрами. Вихід мережі є лінійною комбінацією виходів з радіально-базисних функцій.

Мережа радіально-базисних функцій (RBF) має три рівні: вхідний; прихований, з нелінійною функцією активації RBF і рівень з лінійним виходом. Вхід може бути поданий вектором дійсних чисел . Виходом мережі, є скалярна функція вхідного вектора,  , і задається так:

де це кількість нейронів на прихованому рівні, є центром вектору нейрона , та це вага нейрона  у лінійному виході нейрону. Функція, яка залежать тільки від відстані до центру вектора є радіально симетричні щодо цього вектора, отже називається радіально-базисною функцією. В базовій формі всі входи підключені до кожного прихованого нейрона. Норма, як правило, береться з евклідової відстані (хоча відстань Махаланобіса мабуть в цілому краще працює) і радіально-базисну функцію зазвичай прийнято брати Гаусову

.

Гаусові базисні функції є локальними для центрального вектора в такому значення, що

тобто зміна параметрів одного нейрона має тільки невеликий вплив на вхідні значення, які знаходяться далеко від центру цього нейрона.

Параметри , , і визначаються таким чином, що оптимізує схожість між та даними.

Рисунок 2. Дві ненормовані радіально-базисні функції з одними вхідними даними. Центри базисних функцій розташовані в and .

Нормована[ред. | ред. код]

Нормована архітектура[ред. | ред. код]

На додаток до вищесказаної ненормованої архітектури, RBF мережі можуть бути нормовані. В даному випадку відображення наступне

де

відома як "нормована радіально-базисна функція"

Рисунок 3. Дві нормовані радіально-базисні функції з одними вхідними даними. Центри базисних функцій розташовані в and .

Теоретична мотивація для нормування[ред. | ред. код]

Існує теоретичне обґрунтування для цієї архітектури у випадку стохастичного потоку даних. Припустимо, наближення стохастичного ядра для спільної щільності ймовірностей

де ваги і є екземплярами з даних, які вимагають нормування ядра.

та

.

Щільність ймовірностей у вхідних і вихідних областях визначаємо

і

Очікування y взяте з входу є

де

це умовна ймовірність y взятого з . Умовна ймовірність пов'язана зі спільною ймовірністю через теорему Байеса

який дає

.

А потім стає

коли проводяться обчислення.

Локальні лінійні моделі[ред. | ред. код]

Іноді зручно розширити архітектуру на місцеві лінійні моделі. У цьому випадку архітектура перетворюється у перший порядок

і

in the unnormalized and normalized cases, respectively. Here are weights to be determined. Higher order linear terms are also possible.

в ненормалізованих і нормованих випадках, відповідно. Тут є вагами, що були визначені. Лінійні члени вищого порядку також можливі.

Цей результат може бути записаний

where

and

у ненормованому випадку та

в нормованому випадку.

Тут є дельта функція Кронекера, описана як

.

Навчання[ред. | ред. код]

RBF мережі, навчаються за допомогою двох крокового алгоритму. На першому етапі, вибирають вектор значень центрів функції RBF на прихованому рівні. Цей крок може бути виконаний кількома способами; центри можуть бути випадковою вибіркою з безлічі прикладів, або вони можуть бути визначені з використанням методу кластеризації k-середніх. Зверніть увагу, що цей крок є неконтрольованим навчанням. Третій крок зворотного поширення може бути виконаний, щоб точно налаштувати всі параметри RBF.[3]

Другий крок сходиться до лінійної моделі з коефіцієнтами  до виходів прихованого рівня по відношенню до будь-якої об'єктивної функції. Загальна цільова функція, принаймні, для оцінки регресії / функції, є найменша функція квадратів:

де

.

Ми явно включаємо залежність від ваг. Мінімізація цільової функції найменших квадратів для оптимального вибору ваг оптимізує точність результату підгонки.

Приклад[ред. | ред. код]

Рисунок 4: Нормовані базисні функції. Логістичного відображення (синій) і наближення до логістичного відображення (червоний) як функція часу. Зверніть увагу, що наближення є вірним всього в декількох часових кроках. Це загальна характеристика хаотичних часових рядів.

Прогнозування часових рядів[ред. | ред. код]

Для прогнозування часового ряду можуть бути зроблені наступні ітерації:

.

Порівняння фактичного і розрахункового часового ряду відображається на малюнку. За оцінками часовий ряд починається в нульовий момент часу з точним знанням х (0). Потім він використовує оцінку динаміки, щоб оновити оцінку часових рядів для декількох часових кроків.

Відзначимо, що оцінка є точною тільки протягом декількох часових кроків. Це загальна характеристика хаотичних часових рядів. Ця властивість чутливої залежності від початкових умов, загальних для хаотичного часового ряду. Невеликі початкові помилки посилюється з часом. Міра розбіжності часових рядів з майже ідентичними початковими умов відома як показник Ляпунова.

Дивіться також[ред. | ред. код]

Посилання на джерела[ред. | ред. код]

  1. Broomhead, D. S.; Lowe, David (1988). Radial basis functions, multi-variable functional interpolation and adaptive networks (Технічний звіт). № 4148. RSRE.
  2. Broomhead, D. S.; Lowe, David (1988). Multivariable functional interpolation and adaptive networks. Complex Systems. 2: 321—355.
  3. а б Schwenker, Friedhelm; Kestler, Hans A.; Palm, Günther (2001). Three learning phases for radial-basis-function networks. Neural Networks. 14: 439—458. doi:10.1016/s0893-6080(01)00027-2. CiteSeerX: 10.1.1.109.312.
  • J. Moody and C. J. Darken, "Fast learning in networks of locally tuned processing units," Neural Computation, 1, 281-294 (1989). Also see Radial basis function networks according to Moody and Darken
  • T. Poggio and F. Girosi, "Networks for approximation and learning," Proc. IEEE 78(9), 1484-1487 (1990).
  • Roger D. Jones, Y. C. Lee, C. W. Barnes, G. W. Flake, K. Lee, P. S. Lewis, and S. Qian, ?Function approximation and time series prediction with neural networks,? Proceedings of the International Joint Conference on Neural Networks, June 17–21, p. I-649 (1990).
  • Martin D. Buhmann (2003). Radial Basis Functions: Theory and Implementations. Cambridge University. ISBN 0-521-63338-9.
  • Yee, Paul V. and Haykin, Simon (2001). Regularized Radial Basis Function Networks: Theory and Applications. John Wiley. ISBN 0-471-35349-3.
  • John R. Davies, Stephen V. Coggeshall, Roger D. Jones, and Daniel Schutzer, "Intelligent Security Systems," in Freedman, Roy S., Flein, Robert A., and Lederman, Jess, Editors (1995). Artificial Intelligence in the Capital Markets. Chicago: Irwin. ISBN 1-55738-811-3.
  • Simon Haykin (1999). Neural Networks: A Comprehensive Foundation (вид. 2nd). Upper Saddle River, NJ: Prentice Hall. ISBN 0-13-908385-5.
  • S. Chen, C. F. N. Cowan, and P. M. Grant, "Orthogonal Least Squares Learning Algorithm for Radial Basis Function Networks", IEEE Transactions on Neural Networks, Vol 2, No 2 (Mar) 1991.