Нейрокомпьютерные системы

       

Алгоритмы обучения сетей с самоорганизацией


Целью обучения сети с самоорганизацией на основе конкуренции нейронов считается такое упорядочение нейронов (подбор значений их весов), которое минимизирует значение ожидаемого искажения, оцениваемого погрешностью аппроксимации входного вектора

Алгоритмы обучения сетей с самоорганизацией
значениями весов нейрона-победителя. При
Алгоритмы обучения сетей с самоорганизацией
входных векторах
Алгоритмы обучения сетей с самоорганизацией
и применении евклидовой метрики эта погрешность, называемая также погрешностью квантования, может быть выражена в виде

Алгоритмы обучения сетей с самоорганизацией

(3)

где

Алгоритмы обучения сетей с самоорганизацией
- вес нейрона-победителя при предъявлении вектора
Алгоритмы обучения сетей с самоорганизацией
.

Этот подход также называется векторным квантованием (англ. Vector Quantization - VQ) или кластеризацией. Номера нейронов-победителей при последовательном предъявлении векторов

Алгоритмы обучения сетей с самоорганизацией
образуют так называемую кодовую таблицу. При классическом решении задачи кодирования применяется алгоритм
Алгоритмы обучения сетей с самоорганизацией
-усреднений (англ. К-means), носящий имя обобщенного алгоритма Ллойда.

Для нейронных сетей аналогом алгоритма Ллойда считается алгоритм WTA (англ.: Winner Takes All - "победитель получает все"). В соответствии с ним после предъявления вектора

Алгоритмы обучения сетей с самоорганизацией
рассчитывается активность каждого нейрона. Победителем признается нейрон с самым сильным выходным сигналом, т.е. тот, для которого скалярное произведение
Алгоритмы обучения сетей с самоорганизацией
оказывается наибольшим. В предыдущем разделе было показано, что при использовании нормализованных векторов это равнозначно наименьшему эвклидову расстоянию между входным вектором и вектором весов нейронов. Победитель получает право уточнить свои веса в направлении вектора
Алгоритмы обучения сетей с самоорганизацией
согласно правилу

Алгоритмы обучения сетей с самоорганизацией

где

Алгоритмы обучения сетей с самоорганизацией
- коэффициент обучения. Веса остальных нейронов уточнению не подлежат. Алгоритм позволяет учитывать усталость нейронов путем подсчета количества побед каждого из них и поощрять элементы с наименьшей активностью для выравнивания их шансов. Такая модификация применяется чаще всего на начальной стадии обучения с последующим отключением после активизации всех нейронов. Подобный способ обучения реализован в виде режима CWTA (Conscience Winner Takes All) и считается одним из лучших и наиболее быстрых алгоритмов самоорганизации.

Помимо алгоритмов WTA, в которых в каждой итерации может обучаться только один нейрон, для обучения сетей с самоорганизацией широко применяются алгоритмы типа WTM (англ.: Winner Takes Most - "победитель получает больше"), в которых, кроме победителя, уточняют значения своих весов и нейроны из его ближайшего окружения.
При этом, чем дальше какой- либо нейрон находится от победителя, тем меньше изменяются его веса. Процесс уточнения вектора весов может быть определен обобщенной зависимостью, которая здесь представляется в виде

Алгоритмы обучения сетей с самоорганизацией


для всех нейронов, расположенных в окрестности победителя. Если функция
Алгоритмы обучения сетей с самоорганизацией
определяется в форме

Алгоритмы обучения сетей с самоорганизацией


где
Алгоритмы обучения сетей с самоорганизацией
обозначает номер победителя, то мы получаем классический алгоритм WTA. Существует множество вариантов алгоритма WTM, отличающихся прежде всего формой функции
Алгоритмы обучения сетей с самоорганизацией
. Для дальнейшего изучения выберем классический алгоритм Кохонена.


Содержание раздела