Sdfefe

  • 26 окт. 2012 г.
  • 2290 Слова
Сети КохоненаСети Кохонена (Kohonen T.) [1 - 3] относятся к самоорганизующимся нейронным сетям. Самоорганизующаяся сеть позволяет выявлять кластеры (группы) входных векторов, обладающих некоторыми общими свойствами. При этом выделяют сети с неупорядоченными нейронами (часто называемые слоями Кохонена) и сети с упорядочением нейронов (часто называемые самоорганизующимися картами, или SOM- self-organizing map). Карты Кохонена наглядно отражают на двумерной карте объекты с близкими свойствами. 

Сеть Кохонена (рис. 1) - это однослойная сеть, каждый нейрон которой соединен со всеми компонентами  -мерного входного вектора. Входной вектор - это описание одного из объектов, подлежащих кластеризации. Количество нейронов совпадает с количеством кластеров, которое должна выделить сеть. В качественейронов сети Кохонена применяются линейные взвешенные сумматоры. Каждый  -ый нейрон описывается вектором весов  , где  - число компонентов входных векторов. Входной вектор имеет вид  .  |
Рис. 1. Структура сети Кохонена |

В сетях Кохонена используется обучение без учителя. Для обучения сети применяются механизмы конкуренции. При подаче на вход сети вектора побеждает тот нейрон, вектор весовкоторого в наименьшей степени отличаются от входного вектора. Для нейрона-победителя выполняется соотношениегде  - количество нейронов,  - номер нейрона победителя,  - расстояние (в смысле выбранной метрики) между векторами  и  . Чаще всего в качестве меры расстояния используется евклидова мераИспользуются и другие меры расстояния (метрики).

Вокруг нейрона победителя образуется окружение (neighborhood),или радиус обучения (radius of learning). Радиус обучения определяет сколько нейронов кроме нейрона-победителя участвуют в обучении (т.е. корректируют свои веса) на данной итерации. Под радиусом в данном случае подразумевается расстояние в пространстве векторов весов нейронов. Т. е. любой нейрон, расстояние от вектора весов которого до вектора весов нейрона победителя менее радиуса обучения,участвует в коррекции весов на данной итерации. Радиус обучения максимален на первой итерации и уменьшается с увеличением числа итераций таким образом, что в конце обучения корректирует свои веса только нейрон победитель. 

Веса нейрона-победителя и всех нейронов, лежащих в пределах его радиуса обучения, подвергаются обучению (адаптации) по правилу Кохоненагде  - входной вектор,  - номер циклаобучения,  - коэффициент скорости обучения  -го нейрона из радиуса обучения в  -ом цикле обучения. Веса нейронов, находящихся за пределами радиуса обучения не изменяются. 
Коэффициент скорости обучения  разбивается на две части: функцию соседства  и функции скорости обучения    . | (1) |

В качестве функции соседства применяется или константа   . | (2) |

или Гауссова функция.При этом лучший результат получается прииспользовании Гауссовой функции расстояния. В (1) и (2)  - расстояние между -м нейроном и нейроном-победителем. При этом  является убывающей функцией от номера цикла обучения. Наиболее часто используется функция, линейно убывающая от номера цикла обучения.Рассмотрим теперь функцию скорости обучения . Эта функция также представляет собой функцию, убывающую от номера цикла обучения. Наиболее частоиспользуются два варианта этой функции: линейная и обратно пропорциональная от номера цикла обучения вида,где  и  - это константы. Применение этой функции приводит к тому, что все векторы из обучающей выборки вносят примерно равный вклад в результат обучения. 

Обучение состоит из двух основных фаз: на первоначальной фазе выбирается достаточно большое значение скорости обучения и радиуса обучение, что позволяетрасположить векторы нейронов в соответствии с распределением примеров в выборке. На заключительной фазе производится точная подстройка весов, когда значения параметров скорости обучения много меньше начальных. Обучение продолжается до тех пор, пока погрешность сети (погрешность квантования) при входных векторах  | (3) |

не станет малой величиной (  - вектор...
tracking img