Самоорганізаційна Карта Кохонена: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[неперевірена версія][неперевірена версія]
Вилучено вміст Додано вміст
ShelestS (обговорення | внесок)
Немає опису редагування
ShelestS (обговорення | внесок)
Немає опису редагування
Рядок 25: Рядок 25:
Як і більшість штучних нейронних мереж, cамоорганізаційні карти працюють у двох режимах: навчання та відображення (mapping). "Навчання" створює карту використовуючи вхідні приклади ({{Не перекладено|Конкурентние навчання|конкурентний процес|en|Competitive learning}}, або {{Не перекладено|Векторне квантування|векторне квантування|en|Vector quantization}}), тоді як "відображення" автоматично класифікує новий вхідний вектор.
Як і більшість штучних нейронних мереж, cамоорганізаційні карти працюють у двох режимах: навчання та відображення (mapping). "Навчання" створює карту використовуючи вхідні приклади ({{Не перекладено|Конкурентние навчання|конкурентний процес|en|Competitive learning}}, або {{Не перекладено|Векторне квантування|векторне квантування|en|Vector quantization}}), тоді як "відображення" автоматично класифікує новий вхідний вектор.


Видимою частиною самоорганізаційні карти є простір карти, який складається з компонентів, які називаються вузлами або нейронами. Простір карти визначається заздалегідь, як правило, як кінцева двовимірна область, де вузли розташовані у правильній [[Шестикутник|гексагональній]] або [[Прямокутник|прямокутній]] сітці [8]. Кожен вузол пов'язаний з "ваговим" вектором, який є позицією у вхідному просторі; тобто, цей вектор має той же вимір, що і кожен вхідний вектор. Хоча вузли в картографічному просторі залишаються фіксованими, тренування полягає в переміщенні векторів ваги у напрямку вхідних даних (зменшення [[Метрика (математика)|метрики відстані]]) без псування топології, індукованої з простору карти. Таким чином, самоорганізаційна карта описує відображення(mapping) з багатовимірного вхідного простору до картографічного простору з меншою вимірностю. Після навчання карта може класифікувати вектор з вхідного простору, знаходячи вузол з найближчим (найменшою [[Метрика (математика)|метричною відстанню]]) ваговим вектором до вхідного вектора простору.
Видимою частиною самоорганізаційні карти є простір карти, який складається з компонентів, які називаються вузлами або нейронами. Простір карти визначається заздалегідь, як правило, як кінцева двовимірна область, де вузли розташовані у правильній [[Шестикутник|гексагональній]] або [[Прямокутник|прямокутній]] сітці.<ref>{{cite web |url=http://users.ics.aalto.fi/jhollmen/dippa/node9.html |author=Jaakko Hollmen |date=9 March 1996 |title=Self-Organizing Map (SOM) |website=[[Aalto University]]}}</ref> Кожен вузол пов'язаний з "ваговим" вектором, який є позицією у вхідному просторі; тобто, цей вектор має той же вимір, що і кожен вхідний вектор. Хоча вузли в картографічному просторі залишаються фіксованими, тренування полягає в переміщенні векторів ваги у напрямку вхідних даних (зменшення [[Метрика (математика)|метрики відстані]]) без псування топології, індукованої з простору карти. Таким чином, самоорганізаційна карта описує відображення(mapping) з багатовимірного вхідного простору до картографічного простору з меншою вимірностю. Після навчання карта може класифікувати вектор з вхідного простору, знаходячи вузол з найближчим (найменшою [[Метрика (математика)|метричною відстанню]]) ваговим вектором до вхідного вектора простору.


== Алгоритм навчання ==
== Алгоритм навчання ==
Метою навчання самоорганізаційної карти — змусити різні частини мережі давати однакову відповідь на певні вхідні шаблони. Це частково мотивується тим, як візуальна, слухова або інша [[Відчуття|сенсорна]] інформація обробляється в окремих частинах [[Кора головного мозку|кори головного мозку]] людини [9].
Метою навчання самоорганізаційної карти — змусити різні частини мережі давати однакову відповідь на певні вхідні шаблони. Це частково мотивується тим, як візуальна, слухова або інша [[Відчуття|сенсорна]] інформація обробляється в окремих частинах [[Кора головного мозку|кори головного мозку]] людини.<ref name="Haykin">{{cite book |first=Simon |last=Haykin |title=Neural networks - A comprehensive foundation |chapter=9. Self-organizing maps |edition=2nd |publisher=Prentice-Hall |year=1999 |isbn=978-0-13-908385-3 }}</ref>
[[Файл:Somtraining.svg|міні|500x500пкс|Ілюстрація навчання самоорганізаційної карти. Синя область — це розподіл тренувальних даних, а маленький білий диск — поточна навчальна вибірка, отримана з цих даних. Спочатку (ліворуч) вузли карти довільно розташовані в просторі даних. Вибирається вузол, найближчий до тренувального вузла (виділений жовтим кольором), та переміщується у напрямку тренувальних даних, оскільки є (меншою мірою) її сусідами на сітці. Після багатьох ітерацій сітка має тенденцію наближатися до розподілу даних (праворуч).]]
[[Файл:Somtraining.svg|міні|500x500пкс|Ілюстрація навчання самоорганізаційної карти. Синя область — це розподіл тренувальних даних, а маленький білий диск — поточна навчальна вибірка, отримана з цих даних. Спочатку (ліворуч) вузли карти довільно розташовані в просторі даних. Вибирається вузол, найближчий до тренувального вузла (виділений жовтим кольором), та переміщується у напрямку тренувальних даних, оскільки є (меншою мірою) її сусідами на сітці. Після багатьох ітерацій сітка має тенденцію наближатися до розподілу даних (праворуч).]]
Ваги нейронів ініціалізуються або малими випадковими значеннями, або рівномірно відбираються з підпростору, охопленого двома найбільшими власними векторами головних компонентів. В останньому варіанті навчання відбувається набагато швидше, оскільки початкові ваги вже дають гарну апроксимацію вагових коефіцієнтів. [10]
Ваги нейронів ініціалізуються або малими випадковими значеннями, або рівномірно відбираються з підпростору, охопленого двома найбільшими власними векторами головних компонентів. В останньому варіанті навчання відбувається набагато швидше, оскільки початкові ваги вже дають гарну апроксимацію вагових коефіцієнтів.<ref name="SOMIntro">{{cite web |title=Intro to SOM |first=Teuvo |last=Kohonen |work=SOM Toolbox |url=http://www.cis.hut.fi/projects/somtoolbox/theory/somalgorithm.shtml |year=2005<!-- last updated 18 March 2005 --> |accessdate=2006-06-18 }}</ref>


У мережу повинно подаватися велика кількість прикладів векторів, що представляють види векторів, найточніше наскільки це можливо, очікуваних при відображенні. Приклади зазвичай застосовуються кілька разів як ітерації.
У мережу повинно подаватися велика кількість прикладів векторів, що представляють види векторів, найточніше наскільки це можливо, очікуваних при відображенні. Приклади зазвичай застосовуються кілька разів як ітерації.
Рядок 38: Рядок 38:
<math>W_{v}(s + 1) = W_{v}(s) + \theta(u, v, s) \cdot \alpha(s) \cdot (D(t) - W_{v}(s))</math>,
<math>W_{v}(s + 1) = W_{v}(s) + \theta(u, v, s) \cdot \alpha(s) \cdot (D(t) - W_{v}(s))</math>,


де s — індекс кроку, t індекс в навчальну вибірку, u — індекс БМУ для вхідного вектора <math>D (t)</math>, <math>\alpha(s) </math> — коефіцієнт навчання, який [[Монотонна функція|монотонно зменшується]]; <math>\theta(u, v, s)</math> — функція сусідства, яка дає відстань між нейроном u і нейроном v на етапі s. Залежно від реалізації, t може сканувати набір навчальних даних, що систематично вибирається випадковим чином з набору даних ([[статистичний бутстреп]]), або реалізувати інший метод вибірки (наприклад, [[складано-ножева перевибірка]]). (t = 0, 1, 2,...,T-1, потім повторюється, T — розмір навчальної вибірки).
де s — індекс кроку, t індекс в навчальну вибірку, u — індекс БМУ для вхідного вектора <math>D (t)</math>, <math>\alpha(s) </math> — коефіцієнт навчання, який [[Монотонна функція|монотонно зменшується]]; <math>\theta(u, v, s)</math> — функція сусідства, яка дає відстань між нейроном u і нейроном v на етапі s.<ref name="Scholarpedia">{{cite web|url=http://www.scholarpedia.org/article/Kohonen_network|title=Kohonen network|last1=Kohonen|first1=Teuvo|last2=Honkela|first2=Timo|year=2011<!-- last approved revision 2011-11-15 -->|work=Scholarpedia|accessdate=2012-09-24}}<!--
Begin Quote
Consider first data items that are n-dimensional Euclidean vectors x(t)=[ξ1(t),ξ2(t),…,ξn(t)]. Here t is the index of the data item in a given sequence. Let the ith model be mi(t)=[μi1(t),μi2(t),…,μin(t)], where now t denotes the index in the sequence in which the models are generated.
End Quote
The equation mi(t+1)=mi(t)+α(t)hci(t)[x(t)−mi(t)] thus uses the symbol t to mean *two different things*: the t of x(t) is not the t of m, α and h. This is why we use s and t here.


Ultsch & Siemon 1990 also use three nested loops when describing Kohonen's algorithm: the outer one is over the training steps (and controls the decay of Θ and α (called n and η, respectively, in their paper)), the middle one is over the data items, and the inner is over the neurons.
Функція сусідства <math>\theta(u, v, s)</math> залежить від відстані між ''найкращим вузлом відповідності'' (нейрон u) та нейрона v. У найпростішій формі це 1 для всіх нейронів, досить близьких до ''BMU'', та 0 для інших, але [[Функція Гауса|функція]] [[Функція Гауса|Гауса]] також є загальним вибором. Незалежно від функціональної форми, функція сусідства стискається з часом [9]. На початку, коли сусідство є далеким, самоорганізація відбувається в глобальному масштабі. Коли околиця зменшилася до декількох нейронів, ваги сходяться до місцевих оцінок. У деяких реалізаціях коефіцієнт навчання <math>\alpha</math>та функція сусідства <math>\theta</math>неухильно зменшуються зі збільшенням s, в інших випадках (зокрема, коли t сканує набір даних навчання) вони зменшуються покроково, один раз на кожні T кроки.
--></ref> Залежно від реалізації, t може сканувати набір навчальних даних, що систематично вибирається випадковим чином з набору даних ([[статистичний бутстреп]]), або реалізувати інший метод вибірки (наприклад, [[складано-ножева перевибірка]]). (t = 0, 1, 2,...,T-1, потім повторюється, T — розмір навчальної вибірки).

Функція сусідства <math>\theta(u, v, s)</math> залежить від відстані між ''найкращим вузлом відповідності'' (нейрон u) та нейрона v. У найпростішій формі це 1 для всіх нейронів, досить близьких до ''BMU'', та 0 для інших, але [[Функція Гауса|функція]] [[Функція Гауса|Гауса]] також є загальним вибором. Незалежно від функціональної форми, функція сусідства стискається з часом.<ref name="Haykin" /> На початку, коли сусідство є далеким, самоорганізація відбувається в глобальному масштабі. Коли околиця зменшилася до декількох нейронів, ваги сходяться до місцевих оцінок. У деяких реалізаціях коефіцієнт навчання <math>\alpha</math>та функція сусідства <math>\theta</math>неухильно зменшуються зі збільшенням s, в інших випадках (зокрема, коли t сканує набір даних навчання) вони зменшуються покроково, один раз на кожні T кроки.


Цей процес повторюється для кожного вхідного вектора для (зазвичай великого) числа циклів <math>\lambda</math>. Мережа зав'язує вихідні вузли з групами або шаблонами у наборі вхідних даних. Якщо ці шаблони можна назвати, їх імена можуть бути прикріплені до відповідних вузлів в натренованій мережі.
Цей процес повторюється для кожного вхідного вектора для (зазвичай великого) числа циклів <math>\lambda</math>. Мережа зав'язує вихідні вузли з групами або шаблонами у наборі вхідних даних. Якщо ці шаблони можна назвати, їх імена можуть бути прикріплені до відповідних вузлів в натренованій мережі.
Рядок 85: Рядок 92:


=== Ініціалізація самоорганізованої карти Кохонена ===
=== Ініціалізація самоорганізованої карти Кохонена ===
Вибір гарного початкового [[Апроксимація|наближення]] є відомою проблемою для всіх ітераційних методів навчання нейронних мереж. Кохонен [12] використовував випадкове ініціювання ваг самоорганізованої карти. Останнім часом популярна ініціалізація основних компонентів, в якій ваги початкової карти вибираються з простору перших основних компонентів, завдяки точній відтворюваності результатів.
Вибір гарного початкового [[Апроксимація|наближення]] є відомою проблемою для всіх ітераційних методів навчання нейронних мереж. Кохонен<ref>T. Kohonen, Self-Organization and Associative Memory. Springer, Berlin, 1984.</ref> використовував випадкове ініціювання ваг самоорганізованої карти. Останнім часом популярна ініціалізація основних компонентів, в якій ваги початкової карти вибираються з простору перших основних компонентів, завдяки точній відтворюваності результатів.<ref>A. Ciampi, Y. Lechevallier, Clustering large, multi-level data sets: An approach based on Kohonen self organizing maps, in D.A. Zighed, J. Komorowski, J. Zytkow (Eds.), PKDD 2000, Springer LNCS (LNAI), vol. 1910, pp. 353-358, 2000.</ref>


Ретельне порівняння підходу випадкової ініціації до ініціалізації головних компонентів для одновимірної самоорганізованої карти (моделі основних кривих) показало, що переваги ініціалізації карти головного компонента не є універсальними. Найкращий метод ініціалізації залежить від геометрії конкретного набору даних. Ініціалізація основного компонента є кращою (в одиниці виміру), якщо головна крива, наближена до набору даних, може бути однозначно і лінійно спроектована на першу головну складову (квазілінійні множини). Однак для нелінійних наборів даних випадкове ініціювання краще. [14]
Ретельне порівняння підходу випадкової ініціації до ініціалізації головних компонентів для одновимірної самоорганізованої карти (моделі основних кривих) показало, що переваги ініціалізації карти головного компонента не є універсальними. Найкращий метод ініціалізації залежить від геометрії конкретного набору даних. Ініціалізація основного компонента є кращою (в одиниці виміру), якщо головна крива, наближена до набору даних, може бути однозначно і лінійно спроектована на першу головну складову (квазілінійні множини). Однак для нелінійних наборів даних випадкове ініціювання краще.<ref>{{cite journal | last1 = Akinduko | first1 = A.A. | last2 = Mirkes | first2 = E.M. | last3 = Gorban | first3 = A.N. | year = 2016 | title = SOM: Stochastic initialization versus principal components | url = https://www.researchgate.net/publication/283768202 | journal = Information Sciences | volume = 364-365| issue = | pages = 213–221| doi = 10.1016/j.ins.2015.10.013 }}</ref>


== Інтерпретація ==
== Інтерпретація ==
[[Файл:Self oraganizing map cartography.jpg|ліворуч|міні|264x264пкс|Картографічне зображення самоорганізуючої карти (U-матриці) на основі даних статей Вікіпедії (частота слів). Відстань обернено пропорційно подібності. "Гори" є краями між кластерами. Червоні лінії є посиланнями між статтями.]]
[[Файл:Self oraganizing map cartography.jpg|ліворуч|міні|264x264пкс|Картографічне зображення самоорганізуючої карти (U-матриці) на основі даних статей Вікіпедії (частота слів). Відстань обернено пропорційно подібності. "Гори" є краями між кластерами. Червоні лінії є посиланнями між статтями.]]
[[Файл:SOMsPCA.PNG|міні|290x290пкс|Одновимірний аналіз SOM та аналіз головних компонент (МГК) для наближення даних. SOM - це червона лінія з квадратами, 20 вузлів. Перша головна компонента представлена блакитною лінією. Точки даних — маленькі сірі кола. Для МГК, частка невідповідностей, що не пояснюється в цьому прикладі, становить 23,23%, для SOM - 6,86%. [15]]]
[[Файл:SOMsPCA.PNG|міні|290x290пкс|Одновимірний аналіз SOM та аналіз головних компонент (МГК) для наближення даних. SOM - це червона лінія з квадратами, 20 вузлів. Перша головна компонента представлена блакитною лінією. Точки даних — маленькі сірі кола. Для МГК, частка невідповідностей, що не пояснюється в цьому прикладі, становить 23,23%, для SOM - 6,86%. [http://www.math.le.ac.uk/people/ag153/homepage/PCA_SOM/PCA_SOM.html ''Principal Component Analysis and Self-Organizing Maps: applet''], University of Leicester, 2011</ref>]]
Існує два способи інтерпретації самоорганізаційної карти Кохонена. Оскільки в фазі тренування ваги околиці всіх сусідів переміщуються в одному напрямку, подібні предмети мають тенденцію збуджувати сусідні нейрони. Таким чином, самоорганізаційна карта утворює семантичну карту, де схожі приклади зображаються близькими один до одного, а несхожі — протилежними. Це може бути візуалізовано U-матрицею (евклідова відстань між ваговими векторами сусідніх клітин) SOM. [5] [6] [16]
Існує два способи інтерпретації самоорганізаційної карти Кохонена. Оскільки в фазі тренування ваги околиці всіх сусідів переміщуються в одному напрямку, подібні предмети мають тенденцію збуджувати сусідні нейрони. Таким чином, самоорганізаційна карта утворює семантичну карту, де схожі приклади зображаються близькими один до одного, а несхожі — протилежними. Це може бути візуалізовано U-матрицею (евклідова відстань між ваговими векторами сусідніх клітин) SOM..<ref name="UltschSiemon1990" /><ref name="Ultsch2003">Ultsch, Alfred (2003); ''U*-Matrix: A tool to visualize clusters in high dimensional data'', Department of Computer Science, University of Marburg, [http://www.uni-marburg.de/fb12/datenbionik/pdf/pubs/2003/ultsch03ustar Technical Report Nr. 36:1-12]</ref><ref>Saadatdoost, Robab, Alex Tze Hiang Sim, and Jafarkarimi, Hosein. "Application of self organizing map for knowledge discovery based in higher education data." Research and Innovation in Information Systems (ICRIIS), 2011 International Conference on. IEEE, 2011.</ref>


Інший спосіб полягає в тому, щоб вважати нейронні ваги як вказівники на вхідному просторі. Вони утворюють дискретну апроксимацію розподілу навчальних вибірок. Більше нейронів вказують на регіони з великою кількістю зразків для тренування та менше, де бракує зразків.
Інший спосіб полягає в тому, щоб вважати нейронні ваги як вказівники на вхідному просторі. Вони утворюють дискретну апроксимацію розподілу навчальних вибірок. Більше нейронів вказують на регіони з великою кількістю зразків для тренування та менше, де бракує зразків.


Самоорганізаційну карту можна вважати нелінійним узагальненням [[Метод головних компонент|методу головних компонент]] (МГК) [17]. Було показано що SOM має багато переваг, при використанні як штучних, так і реальних геофізичних даних. [18] [19] над звичайними методами вилучення ознак, такими як емпіричні ортогональні функції (МЕОФ) або МГК.
Самоорганізаційну карту можна вважати нелінійним узагальненням [[Метод головних компонент|методу головних компонент]] (МГК).<ref>Yin, Hujun; ''Learning Nonlinear Principal Manifolds by Self-Organising Maps'', in [[Alexander Nikolaevich Gorban|Gorban, Alexander N.]]; Kégl, Balázs; Wunsch, Donald C.; and Zinovyev, Andrei (Eds.); [https://www.researchgate.net/publication/271642170_Principal_Manifolds_for_Data_Visualisation_and_Dimension_Reduction_LNCSE_58 ''Principal Manifolds for Data Visualization and Dimension Reduction''], Lecture Notes in Computer Science and Engineering (LNCSE), vol. 58, Berlin, Germany: Springer, 2008, {{ISBN|978-3-540-73749-0}}</ref> Було показано що SOM має багато переваг, при використанні як штучних, так і реальних геофізичних даних <ref>{{cite journal | last1 = Liu | first1 = Yonggang | last2 = Weisberg | first2 = Robert H | year = 2005 | title = Patterns of Ocean Current Variability on the West Florida Shelf Using the Self-Organizing Map | url = http://www.agu.org/pubs/crossref/2005/2004JC002786.shtml | journal = Journal of Geophysical Research | volume = 110 | issue = C6| page = C06003 | doi = 10.1029/2004JC002786 | bibcode=2005JGRC..110.6003L}}</ref><ref>{{cite journal | last1 = Liu | first1 = Yonggang | last2 = Weisberg | first2 = Robert H. | last3 = Mooers | first3 = Christopher N. K. | year = 2006 | title = Performance Evaluation of the Self-Organizing Map for Feature Extraction | url = http://www.agu.org/pubs/crossref/2006/2005JC003117.shtml | journal = Journal of Geophysical Research | volume = 111 | issue = C5| page = C05018 | doi = 10.1029/2005jc003117 | bibcode=2006JGRC..111.5018L}}</ref> над звичайними методами вилучення ознак, такими як емпіричні ортогональні функції (МЕОФ) або МГК.


Спочатку SOM не була сформульована як розв'язання проблеми оптимізації. Однак, було зроблено кілька спроб змінити визначення SOM і сформулювати [[Задача оптимізації|задачу оптимізації]], яка дає подібні результати. Наприклад, {{Не перекладено|Еластичні карти|еластичні карти|en|Elastic map}} використовують механічну метафору еластичності для наближення основних різновидів [21] аналогією є еластична мембрана та пластина.
Спочатку SOM не була сформульована як розв'язання проблеми оптимізації. Однак, було зроблено кілька спроб змінити визначення SOM і сформулювати [[Задача оптимізації|задачу оптимізації]], яка дає подібні результати. <ref>Heskes, Tom; [http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.55.6572 ''Energy Functions for Self-Organizing Maps''], in Oja, Erkki; and Kaski, Samuel (Eds.), ''Kohonen Maps'', Elsevier, 1999</ref> Наприклад, {{Не перекладено|Еластичні карти|еластичні карти|en|Elastic map}} використовують механічну метафору еластичності для наближення основних різновидів <ref>[[Alexander Nikolaevich Gorban|Gorban, Alexander N.]]; Kégl, Balázs; Wunsch, Donald C.; and Zinovyev, Andrei (Eds.); [https://www.researchgate.net/publication/271642170_Principal_Manifolds_for_Data_Visualisation_and_Dimension_Reduction_LNCSE_58 ''Principal Manifolds for Data Visualization and Dimension Reduction''], Lecture Notes in Computer Science and Engineering (LNCSE), vol. 58, Berlin, Germany: Springer, 2008, {{ISBN|978-3-540-73749-0}}</ref> аналогією є еластична мембрана та пластина.
<br />
<br />
== Альтернативи ==
== Альтернативи ==


* {{Не перекладено|Генеративна топографічна карта|Генеративна топографічна карта|en|Generative topographic map}} (''англ.'' generative topographic map, GTM) є потенційною альтернативою самоорганізованої карти Кохонена. У тому сенсі, що ГТК явно вимагає плавного та безперервного відображення від вхідного простору до простору карти, це збереження [[Топологія|топології]]. Проте в практичному сенсі ця міра топологічного збереження відсутня. [22]
* {{Не перекладено|Генеративна топографічна карта|Генеративна топографічна карта|en|Generative topographic map}} (''англ.'' generative topographic map, GTM) є потенційною альтернативою самоорганізованої карти Кохонена. У тому сенсі, що ГТК явно вимагає плавного та безперервного відображення від вхідного простору до простору карти, це збереження [[Топологія|топології]]. Проте в практичному сенсі ця міра топологічного збереження відсутня. <ref>{{cite book |last=Kaski |first=Samuel |title=Data Exploration Using Self-Organizing Maps |journal=Acta Polytechnica Scandinavica |series=Mathematics, Computing and Management in Engineering Series No. 82 |year=1997 |publisher=Finnish Academy of Technology |location=Espoo, Finland |isbn=978-952-5148-13-8}}</ref>
* [[Часово-адаптивна самоорганізована карта|'''Часово-адаптивна самоорганізована карта''']] (''англ.'' time adaptive self-organizing map, TASOM) є розширенням базової самоорганізованої карти Кохонена. TASOM використовує адаптивні навчальні оцінки та функції сусідства. Вона також включає параметр масштабування, щоб зробити мережу інваріантною до масштабування, переміщення та обертання вхідного простору. TASOM та його варіанти використовувалися в декількох застосуваннях, включаючи адаптивну кластеризацію, багаторівневе обмеження, апроксимація вхідного простору та активне моделювання контуру. Крім того, було запропоновано [[двійкове дерево]] TASOM або BTASOM, що нагадує бінарне натуральне дерево, що має вузли, що складаються з мереж TASOM, де кількість його рівнів та кількість його вузлів адаптивні до його середовища.
* [[Часово-адаптивна самоорганізована карта|'''Часово-адаптивна самоорганізована карта''']] (''англ.'' time adaptive self-organizing map, TASOM) є розширенням базової самоорганізованої карти Кохонена. TASOM використовує адаптивні навчальні оцінки та функції сусідства. Вона також включає параметр масштабування, щоб зробити мережу інваріантною до масштабування, переміщення та обертання вхідного простору. TASOM та його варіанти використовувалися в декількох застосуваннях, включаючи адаптивну кластеризацію, багаторівневе обмеження, апроксимація вхідного простору та активне моделювання контуру.<ref>{{cite journal |first=Hamed |last=Shah-Hosseini |first2=Reza |last2=Safabakhsh |title=TASOM: A New Time Adaptive Self-Organizing Map |journal=IEEE Transactions on Systems, Man, and Cybernetics—Part B: Cybernetics |volume=33 |number=2 |date=April 2003 |pages=271–282 |url=http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=1187438&tag=1 |doi=10.1109/tsmcb.2003.810442|pmid=18238177 }}</ref> Крім того, було запропоновано [[двійкове дерево]] TASOM або BTASOM, що нагадує бінарне натуральне дерево, що має вузли, що складаються з мереж TASOM, де кількість його рівнів та кількість його вузлів адаптивні до його середовища.<ref>{{cite journal |first=Hamed |last=Shah-Hosseini |title=Binary Tree Time Adaptive Self-Organizing Map |journal=Neurocomputing |volume=74 |number=11 |date=May 2011 |pages=1823–1839 |url=http://www.sciencedirect.com/science/article/pii/S0925231211000786 |doi=10.1016/j.neucom.2010.07.037}}</ref>
* {{Не перекладено|Зростаюча самоорганізуюча карта|Зростаюча самоорганізуюча карта|en|Growing self-organizing map}} (''англ.'' growing self-organizing map, GSOM) - це зростаючий варіант самоорганізуючої карти. GSOM була розроблена для розв'язання питання визначення відповідного розміру карти в SOM. Вона починається з мінімального числа вузлів (зазвичай чотирьох) і створює нові вузли в межі на кордоні на основі евристики. Використовуючи значення, що називається ''коефіцієнтом розповсюдження,'' аналітик даних має можливість контролювати зростання GSOM.
* {{Не перекладено|Зростаюча самоорганізуюча карта|Зростаюча самоорганізуюча карта|en|Growing self-organizing map}} (''англ.'' growing self-organizing map, GSOM) - це зростаючий варіант самоорганізуючої карти. GSOM була розроблена для розв'язання питання визначення відповідного розміру карти в SOM. Вона починається з мінімального числа вузлів (зазвичай чотирьох) і створює нові вузли в межі на кордоні на основі евристики. Використовуючи значення, що називається ''коефіцієнтом розповсюдження,'' аналітик даних має можливість контролювати зростання GSOM.
*Підхід {{Не перекладено|Еластичні карти|еластичних карт|en|Elastic map}} [25] запозичує зі [[Сплайн|сплайн-інтерполяції]] ідею мінімізації {{Не перекладено|Еластична енергія|еластичної енергії|en|Elastic energy}}. У процесі навчання він мінімізує суму квадратичної енергії вигину та розтягування з [[Абсолютна похибка вимірювання|помилкою апроксимації]] [[Метод найменших квадратів|найменших квадратів]].
*Підхід {{Не перекладено|Еластичні карти|еластичних карт|en|Elastic map}} <ref>A. N. Gorban, A. Zinovyev, [https://arxiv.org/abs/1001.1122 Principal manifolds and graphs in practice: from molecular biology to dynamical systems], [[International Journal of Neural Systems]], Vol. 20, No. 3 (2010) 219–232.</ref> запозичує зі [[Сплайн|сплайн-інтерполяції]] ідею мінімізації {{Не перекладено|Еластична енергія|еластичної енергії|en|Elastic energy}}. У процесі навчання він мінімізує суму квадратичної енергії вигину та розтягування з [[Абсолютна похибка вимірювання|помилкою апроксимації]] [[Метод найменших квадратів|найменших квадратів]].
*'''Конформний підхід''' [26] [27], що використовує конформне відображення для [[Інтерполяція|інтерполяції]] кожного навчального приклада між вузлами сітки на безперервній поверхні. У цьому підході можливе плавне відображення "один в один".
*'''Конформний підхід''' <ref>{{cite journal | last=Liou | first=C.-Y. | last2=Kuo | first2=Y.-T. | title=Conformal Self-organizing Map for a Genus Zero Manifold |journal=The Visual Computer |volume=21 |issue=5 |pages=340–353 |date=2005 |doi=10.1007/s00371-005-0290-6 }}</ref><ref>{{cite journal | last=Liou | first=C.-Y. | last2=Tai | first2=W.-P. | title=Conformality in the self-organization network |journal=Artificial Intelligence |volume=116 | issue=1–2 |pages=265–286 |date=2000 |doi=10.1016/S0004-3702(99)00093-4 |url=http://www.sciencedirect.com/science/article/pii/S0004370299000934}}</ref>, що використовує конформне відображення для [[Інтерполяція|інтерполяції]] кожного навчального приклада між вузлами сітки на безперервній поверхні. У цьому підході можливе плавне відображення "один в один".
*[[Орієнтована і масштабована карта|'''Орієнтована і масштабована карта''']] (OS-Map) узагальнює функцію сусідства та вибір переможця [28]. Однорідна функція сусідства Гауса замінена експоненціальною матрицею. Таким чином можна задати орієнтацію або в просторі карти, або в просторі даних. Самоорганізаційна карта Кохонена має фіксований масштаб (= 1), так що карти "оптимально описують область спостереження". Але як щодо карти, що охоплює домен двічі або в n-разів? Це тягне за собою концепцію масштабування. OS-Map розглядає масштаб як статистичний опис кількості найкращих узгоджувальних вузлів на карті.
*[[Орієнтована і масштабована карта|'''Орієнтована і масштабована карта''']] (OS-Map) узагальнює функцію сусідства та вибір переможця <ref>Hua, H., 2016. Image and geometry processing with Oriented and Scalable Map. Neural Networks, 77, pp.1-6.</ref>. Однорідна функція сусідства Гауса замінена експоненціальною матрицею. Таким чином можна задати орієнтацію або в просторі карти, або в просторі даних. Самоорганізаційна карта Кохонена має фіксований масштаб (= 1), так що карти "оптимально описують область спостереження". Але як щодо карти, що охоплює домен двічі або в n-разів? Це тягне за собою концепцію масштабування. OS-Map розглядає масштаб як статистичний опис кількості найкращих узгоджувальних вузлів на карті.


== Використання ==
== Використання ==


* Метеорологія та океанографія <ref>Liu, Y., and R.H. Weisberg (2011) [http://cdn.intechopen.com/pdfs/13302/InTech-A_review_of_self_organizing_map_applications_in_meteorology_and_oceanography.pdf A review of self-organizing map applications in meteorology and oceanography]. In: Self-Organizing Maps-Applications and Novel Algorithm Design, 253-272.</ref>
* Метеорологія та океанографія [29]
* Визначення пріоритетів та відбір проектів [30]
* Визначення пріоритетів та відбір проектів <ref>Zheng, G. and Vaishnavi, V. (2011) [http://www.slideshare.net/jgzheng/multidimensional-perceptual-map "A Multidimensional Perceptual Map Approach to Project Prioritization and Selection,"] AIS Transactions on Human-Computer Interaction (3) 2, pp. 82-103</ref>
* Аналіз сейсмічних фацій для розвідки нафти і газу <ref>{{cite journal | last1 = Taner | first1 = M. T. | last2 = Walls | first2 = J. D. | last3 = Smith | first3 = M. | last4 = Taylor | first4 = G. | last5 = Carr | first5 = M. B. | last6 = Dumas | first6 = D. | year = 2001 | title = Reservoir characterization by calibration of self-organized map clusters | url = | journal = SEG Technical Program Expanded Abstracts | volume = 2001 | issue = | pages = 1552–1555 |doi= 10.1190/1.1816406}}</ref>
* Аналіз сейсмічних фацій для розвідки нафти і газу [31]
* Аналіз несправності та вплив <ref>{{cite journal|last1=Chang|first1=Wui Lee |last2=Pang|first2=Lie Meng |last3=Tay |first3=Kai Meng|date=March 2017|title=Application of Self-Organizing Map to Failure Modes and Effects Analysis Methodology|url=http://www.sciencedirect.com/science/article/pii/S0925231217305702|journal=Neurocomputing|volume=PP|pages=314–320 |doi=10.1016/j.neucom.2016.04.073}}</ref>
* Аналіз несправності та вплив [32]
* Створення ілюстрації [33]
* Створення ілюстрації <ref>ANNetGPGPU CUDA Library with examples [https://github.com/ANNetGPGPU/ANNetGPGPU] GPU accelerated image creation</ref>


== Див. також ==
== Див. також ==
Рядок 121: Рядок 128:


== Джерела ==
== Джерела ==
{{reflist|group=Note}}

* [[Теуво Кохонен|T. Kohonen]], «Self-Organizing Maps», Springer, 1995.
* [[Теуво Кохонен|T. Kohonen]], «Self-Organizing Maps», Springer, 1995.
==Література==
==Література==

Версія за 11:05, 16 квітня 2019

Самоорганізаційна карта Кохонена (SOM) або самоорганізовна карта особливостей (SOFM) (англ. Self-organizing map — SOM) - це тип штучної нейронної мережі (ANN), яка навчається з використанням способу навчання без учителя для створення маловимірного (зазвичай двовимірного), дискретного представлення вхідних просторів навчальних вибірок, які називаються картою, і тому використання цього типу нейронної мережі є методом для зниження розмірності. Самоорганізовані карти відрізняються від інших штучних нейронних мереж, оскільки вони застосовують конкурентне навчання, яке є протилежним до навчання з виправленням помилок (наприклад, метод зворотного поширення помилки з градієнтним спуском), і в тому сенсі, що вони використовують функцію сусідства для збереження топологічних властивостей вхідного простору.

Це робить самоорганізовані карти корисними для візуалізації шляхом створення маловимірних зображень багатовимірних даних, цей процес схожий на багатовимірне шкалювання. Штучна нейронна мережа, впроваджена фінським професором Теуво Кохоненом у 1980-х роках, іноді називають картою Кохонена або мережею Кохонена. [1][2] Мережа Кохонена є зручною для обчислювання абстракцією, що ґрунтується на біологічних моделях нейронних систем з 1970-х років [3], та моделі морфогенезу, що були впроваджені ще Аланом Тьюрінгом у 1950-х роках. [4]

У той час як заведено вважати, що цей тип структури мережі пов'язана із мережею прямого поширення, вузли якої зображуються пов'язаними між собою, але тип архітектури самоорганізованої карти принципово відрізняється в аранжуванні та мотивації.

Корисні розширення цього типу нейронної мережі включають використання тороїдальних сіток, де протилежні ребра з'єднані та використовується велика кількість вузлів. Показано, що самоорганізовані карти з невеликим числом вузлів поводяться подібно до кластеризації методом к–середніх, більші самоорганізовані карти візуалізують дані таким чином, що є принципово топологічним за характером.

Також звичайно використовується U-матриця[en].[5] Значення U-матриці конкретного вузла — це середня відстань між ваговим вектором вузла та його найближчими сусідами. [6] Наприклад, у квадратній сітці ми можемо розглядати найближчі 4 або 8 вузлів (Окіл фон Неймана і Мура, відповідно) або шість вузлів у гексагональній сітці.

Великі карти показують нові властивості. У картах, що складаються із тисяч вузлів, можна виконувати кластерні операції на самій карті. [7]

Структура та операції

Як і більшість штучних нейронних мереж, cамоорганізаційні карти працюють у двох режимах: навчання та відображення (mapping). "Навчання" створює карту використовуючи вхідні приклади (конкурентний процес[en], або векторне квантування[en]), тоді як "відображення" автоматично класифікує новий вхідний вектор.

Видимою частиною самоорганізаційні карти є простір карти, який складається з компонентів, які називаються вузлами або нейронами. Простір карти визначається заздалегідь, як правило, як кінцева двовимірна область, де вузли розташовані у правильній гексагональній або прямокутній сітці.[8] Кожен вузол пов'язаний з "ваговим" вектором, який є позицією у вхідному просторі; тобто, цей вектор має той же вимір, що і кожен вхідний вектор. Хоча вузли в картографічному просторі залишаються фіксованими, тренування полягає в переміщенні векторів ваги у напрямку вхідних даних (зменшення метрики відстані) без псування топології, індукованої з простору карти. Таким чином, самоорганізаційна карта описує відображення(mapping) з багатовимірного вхідного простору до картографічного простору з меншою вимірностю. Після навчання карта може класифікувати вектор з вхідного простору, знаходячи вузол з найближчим (найменшою метричною відстанню) ваговим вектором до вхідного вектора простору.

Алгоритм навчання

Метою навчання самоорганізаційної карти — змусити різні частини мережі давати однакову відповідь на певні вхідні шаблони. Це частково мотивується тим, як візуальна, слухова або інша сенсорна інформація обробляється в окремих частинах кори головного мозку людини.[9]

Ілюстрація навчання самоорганізаційної карти. Синя область — це розподіл тренувальних даних, а маленький білий диск — поточна навчальна вибірка, отримана з цих даних. Спочатку (ліворуч) вузли карти довільно розташовані в просторі даних. Вибирається вузол, найближчий до тренувального вузла (виділений жовтим кольором), та переміщується у напрямку тренувальних даних, оскільки є (меншою мірою) її сусідами на сітці. Після багатьох ітерацій сітка має тенденцію наближатися до розподілу даних (праворуч).

Ваги нейронів ініціалізуються або малими випадковими значеннями, або рівномірно відбираються з підпростору, охопленого двома найбільшими власними векторами головних компонентів. В останньому варіанті навчання відбувається набагато швидше, оскільки початкові ваги вже дають гарну апроксимацію вагових коефіцієнтів.[10]

У мережу повинно подаватися велика кількість прикладів векторів, що представляють види векторів, найточніше наскільки це можливо, очікуваних при відображенні. Приклади зазвичай застосовуються кілька разів як ітерації.

Навчання використовує конкурентне навчання. Коли навчальний приклад подається в мережу, обчислюється її евклідова відстань до всіх векторів ваги. Нейрон, чий ваговий вектор найбільш схожий на вхідний, називається найкращим вузлом відповідності (best matching unit). Ваги цього вузла та нейронів, близьких до нього в сітці самоорганізаційної карти, коригуються до вхідного вектора. Величина зміни зменшується з часом та з відстанню сітки від найкращого вузла відповідності. Формула оновлення нейрона v з ваговим вектором Wv(s) має вигляд

,

де s — індекс кроку, t індекс в навчальну вибірку, u — індекс БМУ для вхідного вектора , — коефіцієнт навчання, який монотонно зменшується; — функція сусідства, яка дає відстань між нейроном u і нейроном v на етапі s.[11] Залежно від реалізації, t може сканувати набір навчальних даних, що систематично вибирається випадковим чином з набору даних (статистичний бутстреп), або реалізувати інший метод вибірки (наприклад, складано-ножева перевибірка). (t = 0, 1, 2,...,T-1, потім повторюється, T — розмір навчальної вибірки).

Функція сусідства залежить від відстані між найкращим вузлом відповідності (нейрон u) та нейрона v. У найпростішій формі це 1 для всіх нейронів, досить близьких до BMU, та 0 для інших, але функція Гауса також є загальним вибором. Незалежно від функціональної форми, функція сусідства стискається з часом.[9] На початку, коли сусідство є далеким, самоорганізація відбувається в глобальному масштабі. Коли околиця зменшилася до декількох нейронів, ваги сходяться до місцевих оцінок. У деяких реалізаціях коефіцієнт навчання та функція сусідства неухильно зменшуються зі збільшенням s, в інших випадках (зокрема, коли t сканує набір даних навчання) вони зменшуються покроково, один раз на кожні T кроки.

Цей процес повторюється для кожного вхідного вектора для (зазвичай великого) числа циклів . Мережа зав'язує вихідні вузли з групами або шаблонами у наборі вхідних даних. Якщо ці шаблони можна назвати, їх імена можуть бути прикріплені до відповідних вузлів в натренованій мережі.

Тренувальний процес самоорганізаційної карти на прямокутній сітці 8х8 з двовимірним набором даних, з використанням евклідової відстані.


Під час встановлення відповідностей буде один виграючий нейрон: нейрон, чий ваговий вектор лежить ближче до вхідного вектора. Це може бути просто визначено шляхом обчислення евклідової відстані між вхідним вектором та ваговим вектором.

В цій статті підкреслювалися вхідні дані як вектори, та слід зазначити, що будь-який вид об'єкта, який може бути представлений в цифровому форматі, який має відповідну міру відстані, пов'язану з ним, та в якому можливі необхідні операції для навчання, може бути використаний для побудови самоорганізаційної карти. Це можуть бути матриці, неперервні функції або навіть інші самоорганізаційні карти.

Змінні

  • поточна ітерація,
  • ліміт ітерацій,
  • індекс цільового вхідного вектора даних у вхідномій множині ,
  • вектор цільових вхідних даних,
  • індекс вузла на карті,
  • поточний вектор ваги вузла ,
  • індекс найкращого вузла відповідності на карті,
  • функція сусідства, а також
  • коефіцієнт навчання.

Алгоритм

  1. Розташувати в довільному порядку вектори ваги вузла на карті
  2. Випадковим чином вибирати вхідний вектор
  3. Обійти кожен вузол на карті
    1. Використовуючи формулу евклідової відстані, для знаходження схожості між вхідним вектором і ваговим вектором вузла карти
    2. Запам'ятовуємо вузол, який має найменшу відстань (цей вузол є найкращим вузлом відповідності, BMU)
  4. Оновити вагові вектори вузлів в околиці BMU (включаючи самого BMU) шляхом наближення їх до вхідного вектора
  5. Збільшити та повторювати крок 2 поки

Або інший варіант алгоритму:

  1. Розташувати в довільному порядку вектори ваги вузла на карті
  2. Обійти кожен вхідний вектор із набору вхідних даних
    1. Обійти кожен вузол на карті
      1. Використовуючи формулу евклідової відстані, для знаходження схожості між вхідним вектором і ваговим вектором вузла карти
      2. Запам'ятовуємо вузол, який має найменшу відстань (цей вузол є найкращим вузлом відповідності, BMU)
    2. Оновити вагові вектори вузлів в околиці BMU (включаючи самого BMU) шляхом наближення їх до вхідного вектора
  3. Збільшити та повторювати крок 2 поки

Ініціалізація самоорганізованої карти Кохонена

Вибір гарного початкового наближення є відомою проблемою для всіх ітераційних методів навчання нейронних мереж. Кохонен[12] використовував випадкове ініціювання ваг самоорганізованої карти. Останнім часом популярна ініціалізація основних компонентів, в якій ваги початкової карти вибираються з простору перших основних компонентів, завдяки точній відтворюваності результатів.[13]

Ретельне порівняння підходу випадкової ініціації до ініціалізації головних компонентів для одновимірної самоорганізованої карти (моделі основних кривих) показало, що переваги ініціалізації карти головного компонента не є універсальними. Найкращий метод ініціалізації залежить від геометрії конкретного набору даних. Ініціалізація основного компонента є кращою (в одиниці виміру), якщо головна крива, наближена до набору даних, може бути однозначно і лінійно спроектована на першу головну складову (квазілінійні множини). Однак для нелінійних наборів даних випадкове ініціювання краще.[14]

Інтерпретація

Картографічне зображення самоорганізуючої карти (U-матриці) на основі даних статей Вікіпедії (частота слів). Відстань обернено пропорційно подібності. "Гори" є краями між кластерами. Червоні лінії є посиланнями між статтями.
Одновимірний аналіз SOM та аналіз головних компонент (МГК) для наближення даних. SOM - це червона лінія з квадратами, 20 вузлів. Перша головна компонента представлена блакитною лінією. Точки даних — маленькі сірі кола. Для МГК, частка невідповідностей, що не пояснюється в цьому прикладі, становить 23,23%, для SOM - 6,86%. Principal Component Analysis and Self-Organizing Maps: applet, University of Leicester, 2011</ref>

Існує два способи інтерпретації самоорганізаційної карти Кохонена. Оскільки в фазі тренування ваги околиці всіх сусідів переміщуються в одному напрямку, подібні предмети мають тенденцію збуджувати сусідні нейрони. Таким чином, самоорганізаційна карта утворює семантичну карту, де схожі приклади зображаються близькими один до одного, а несхожі — протилежними. Це може бути візуалізовано U-матрицею (евклідова відстань між ваговими векторами сусідніх клітин) SOM..[5][6][15]

Інший спосіб полягає в тому, щоб вважати нейронні ваги як вказівники на вхідному просторі. Вони утворюють дискретну апроксимацію розподілу навчальних вибірок. Більше нейронів вказують на регіони з великою кількістю зразків для тренування та менше, де бракує зразків.

Самоорганізаційну карту можна вважати нелінійним узагальненням методу головних компонент (МГК).[16] Було показано що SOM має багато переваг, при використанні як штучних, так і реальних геофізичних даних [17][18] над звичайними методами вилучення ознак, такими як емпіричні ортогональні функції (МЕОФ) або МГК.

Спочатку SOM не була сформульована як розв'язання проблеми оптимізації. Однак, було зроблено кілька спроб змінити визначення SOM і сформулювати задачу оптимізації, яка дає подібні результати. [19] Наприклад, еластичні карти[en] використовують механічну метафору еластичності для наближення основних різновидів [20] аналогією є еластична мембрана та пластина.

Альтернативи

  • Генеративна топографічна карта[en] (англ. generative topographic map, GTM) є потенційною альтернативою самоорганізованої карти Кохонена. У тому сенсі, що ГТК явно вимагає плавного та безперервного відображення від вхідного простору до простору карти, це збереження топології. Проте в практичному сенсі ця міра топологічного збереження відсутня. [21]
  • Часово-адаптивна самоорганізована карта (англ. time adaptive self-organizing map, TASOM) є розширенням базової самоорганізованої карти Кохонена. TASOM використовує адаптивні навчальні оцінки та функції сусідства. Вона також включає параметр масштабування, щоб зробити мережу інваріантною до масштабування, переміщення та обертання вхідного простору. TASOM та його варіанти використовувалися в декількох застосуваннях, включаючи адаптивну кластеризацію, багаторівневе обмеження, апроксимація вхідного простору та активне моделювання контуру.[22] Крім того, було запропоновано двійкове дерево TASOM або BTASOM, що нагадує бінарне натуральне дерево, що має вузли, що складаються з мереж TASOM, де кількість його рівнів та кількість його вузлів адаптивні до його середовища.[23]
  • Зростаюча самоорганізуюча карта[en] (англ. growing self-organizing map, GSOM) - це зростаючий варіант самоорганізуючої карти. GSOM була розроблена для розв'язання питання визначення відповідного розміру карти в SOM. Вона починається з мінімального числа вузлів (зазвичай чотирьох) і створює нові вузли в межі на кордоні на основі евристики. Використовуючи значення, що називається коефіцієнтом розповсюдження, аналітик даних має можливість контролювати зростання GSOM.
  • Підхід еластичних карт[en] [24] запозичує зі сплайн-інтерполяції ідею мінімізації еластичної енергії[en]. У процесі навчання він мінімізує суму квадратичної енергії вигину та розтягування з помилкою апроксимації найменших квадратів.
  • Конформний підхід [25][26], що використовує конформне відображення для інтерполяції кожного навчального приклада між вузлами сітки на безперервній поверхні. У цьому підході можливе плавне відображення "один в один".
  • Орієнтована і масштабована карта (OS-Map) узагальнює функцію сусідства та вибір переможця [27]. Однорідна функція сусідства Гауса замінена експоненціальною матрицею. Таким чином можна задати орієнтацію або в просторі карти, або в просторі даних. Самоорганізаційна карта Кохонена має фіксований масштаб (= 1), так що карти "оптимально описують область спостереження". Але як щодо карти, що охоплює домен двічі або в n-разів? Це тягне за собою концепцію масштабування. OS-Map розглядає масштаб як статистичний опис кількості найкращих узгоджувальних вузлів на карті.

Використання

  • Метеорологія та океанографія [28]
  • Визначення пріоритетів та відбір проектів [29]
  • Аналіз сейсмічних фацій для розвідки нафти і газу [30]
  • Аналіз несправності та вплив [31]
  • Створення ілюстрації [32]

Див. також

Джерела

  • T. Kohonen, «Self-Organizing Maps», Springer, 1995.

Література

  • Осовский С. Нейронные сети для обработки информации. – М.: Финансы и статистика, 2002. – 244 с.
  • Хайкин С. Нейронные сети: полный курс. – М.: Вильямс, 2006. – 1104 с.
  • Паклин Н. Б., Орешков В. И. Бизнес-аналитика: от данных к знаниям. – СПб.: Питер, 2013. – 704 с.
  • Матвійчук А. В. Штучний інтелект в економіці: нейронні мережі, нечітка логіка: монографія. / А. В. Матвійчук. – К. : КНЕУ, 2011.– 439 с.
  • Кохонен Т. Самоорганизующиеся карты. – М.: БИНОМ. Лаборатория знаний, 2008. – 655 с.
  • Trevor Hastie, Robert Tibshirani, Jerome Friedman. Chapter 14.4 Self-Organizing Maps // The Elements of Statistical Learning. — 2009. — С. 528-534.


  1. Kohonen, Teuvo; Honkela, Timo (2007). Kohonen Network. Scholarpedia.
  2. Kohonen, Teuvo (1982). Self-Organized Formation of Topologically Correct Feature Maps. Biological Cybernetics. 43 (1): 59—69. doi:10.1007/bf00337288.
  3. Von der Malsburg, C (1973). Self-organization of orientation sensitive cells in the striate cortex. Kybernetik. 14 (2): 85—100. doi:10.1007/bf00288907. PMID 4786750.
  4. Turing, Alan (1952). The chemical basis of morphogenesis. Phil. Trans. R. Soc. 237 (641): 37—72. doi:10.1098/rstb.1952.0012.
  5. а б Ultsch, Alfred; Siemon, H. Peter (1990). Kohonen's Self Organizing Feature Maps for Exploratory Data Analysis. У Widrow, Bernard; Angeniol, Bernard (ред.). Proceedings of the International Neural Network Conference (INNC-90), Paris, France, July 9–13, 1990. Т. 1. Dordrecht, Netherlands: Kluwer. с. 305—308. ISBN 978-0-7923-0831-7. Архів оригіналу за 13 червня 2013. {{cite book}}: Cite має пустий невідомий параметр: |df= (довідка)
  6. а б Ultsch, Alfred (2003); U*-Matrix: A tool to visualize clusters in high dimensional data, Department of Computer Science, University of Marburg, Technical Report Nr. 36:1-12
  7. Ultsch, Alfred (2007). Emergence in Self-Organizing Feature Maps. У Ritter, H.; Haschke, R. (ред.). Proceedings of the 6th International Workshop on Self-Organizing Maps (WSOM '07). Bielefeld, Germany: Neuroinformatics Group. ISBN 978-3-00-022473-7.
  8. Jaakko Hollmen (9 March 1996). Self-Organizing Map (SOM). Aalto University.
  9. а б Haykin, Simon (1999). 9. Self-organizing maps. Neural networks - A comprehensive foundation (вид. 2nd). Prentice-Hall. ISBN 978-0-13-908385-3.
  10. Kohonen, Teuvo (2005). Intro to SOM. SOM Toolbox. Процитовано 18 червня 2006.
  11. Kohonen, Teuvo; Honkela, Timo (2011). Kohonen network. Scholarpedia. Процитовано 24 вересня 2012.
  12. T. Kohonen, Self-Organization and Associative Memory. Springer, Berlin, 1984.
  13. A. Ciampi, Y. Lechevallier, Clustering large, multi-level data sets: An approach based on Kohonen self organizing maps, in D.A. Zighed, J. Komorowski, J. Zytkow (Eds.), PKDD 2000, Springer LNCS (LNAI), vol. 1910, pp. 353-358, 2000.
  14. Akinduko, A.A.; Mirkes, E.M.; Gorban, A.N. (2016). SOM: Stochastic initialization versus principal components. Information Sciences. 364—365: 213—221. doi:10.1016/j.ins.2015.10.013.
  15. Saadatdoost, Robab, Alex Tze Hiang Sim, and Jafarkarimi, Hosein. "Application of self organizing map for knowledge discovery based in higher education data." Research and Innovation in Information Systems (ICRIIS), 2011 International Conference on. IEEE, 2011.
  16. Yin, Hujun; Learning Nonlinear Principal Manifolds by Self-Organising Maps, in Gorban, Alexander N.; Kégl, Balázs; Wunsch, Donald C.; and Zinovyev, Andrei (Eds.); Principal Manifolds for Data Visualization and Dimension Reduction, Lecture Notes in Computer Science and Engineering (LNCSE), vol. 58, Berlin, Germany: Springer, 2008, ISBN 978-3-540-73749-0
  17. Liu, Yonggang; Weisberg, Robert H (2005). Patterns of Ocean Current Variability on the West Florida Shelf Using the Self-Organizing Map. Journal of Geophysical Research. 110 (C6): C06003. Bibcode:2005JGRC..110.6003L. doi:10.1029/2004JC002786.
  18. Liu, Yonggang; Weisberg, Robert H.; Mooers, Christopher N. K. (2006). Performance Evaluation of the Self-Organizing Map for Feature Extraction. Journal of Geophysical Research. 111 (C5): C05018. Bibcode:2006JGRC..111.5018L. doi:10.1029/2005jc003117.
  19. Heskes, Tom; Energy Functions for Self-Organizing Maps, in Oja, Erkki; and Kaski, Samuel (Eds.), Kohonen Maps, Elsevier, 1999
  20. Gorban, Alexander N.; Kégl, Balázs; Wunsch, Donald C.; and Zinovyev, Andrei (Eds.); Principal Manifolds for Data Visualization and Dimension Reduction, Lecture Notes in Computer Science and Engineering (LNCSE), vol. 58, Berlin, Germany: Springer, 2008, ISBN 978-3-540-73749-0
  21. Kaski, Samuel (1997). Data Exploration Using Self-Organizing Maps. Mathematics, Computing and Management in Engineering Series No. 82. Espoo, Finland: Finnish Academy of Technology. ISBN 978-952-5148-13-8. {{cite book}}: Проігноровано |journal= (довідка)
  22. Shah-Hosseini, Hamed; Safabakhsh, Reza (April 2003). TASOM: A New Time Adaptive Self-Organizing Map. IEEE Transactions on Systems, Man, and Cybernetics—Part B: Cybernetics. 33 (2): 271—282. doi:10.1109/tsmcb.2003.810442. PMID 18238177.
  23. Shah-Hosseini, Hamed (May 2011). Binary Tree Time Adaptive Self-Organizing Map. Neurocomputing. 74 (11): 1823—1839. doi:10.1016/j.neucom.2010.07.037.
  24. A. N. Gorban, A. Zinovyev, Principal manifolds and graphs in practice: from molecular biology to dynamical systems, International Journal of Neural Systems, Vol. 20, No. 3 (2010) 219–232.
  25. Liou, C.-Y.; Kuo, Y.-T. (2005). Conformal Self-organizing Map for a Genus Zero Manifold. The Visual Computer. 21 (5): 340—353. doi:10.1007/s00371-005-0290-6.
  26. Liou, C.-Y.; Tai, W.-P. (2000). Conformality in the self-organization network. Artificial Intelligence. 116 (1–2): 265—286. doi:10.1016/S0004-3702(99)00093-4.
  27. Hua, H., 2016. Image and geometry processing with Oriented and Scalable Map. Neural Networks, 77, pp.1-6.
  28. Liu, Y., and R.H. Weisberg (2011) A review of self-organizing map applications in meteorology and oceanography. In: Self-Organizing Maps-Applications and Novel Algorithm Design, 253-272.
  29. Zheng, G. and Vaishnavi, V. (2011) "A Multidimensional Perceptual Map Approach to Project Prioritization and Selection," AIS Transactions on Human-Computer Interaction (3) 2, pp. 82-103
  30. Taner, M. T.; Walls, J. D.; Smith, M.; Taylor, G.; Carr, M. B.; Dumas, D. (2001). Reservoir characterization by calibration of self-organized map clusters. SEG Technical Program Expanded Abstracts. 2001: 1552—1555. doi:10.1190/1.1816406.
  31. Chang, Wui Lee; Pang, Lie Meng; Tay, Kai Meng (March 2017). Application of Self-Organizing Map to Failure Modes and Effects Analysis Methodology. Neurocomputing. PP: 314—320. doi:10.1016/j.neucom.2016.04.073.
  32. ANNetGPGPU CUDA Library with examples [1] GPU accelerated image creation