Нейрокомпьютерные системы

       

Работа сети АРТ


Решение задачи классификации с помощью АРТ содержит следующие этапы: инициализация, распознавание, сравнение, поиск, обучение.

1. Инициализация.

а) выбираем параметр

Работа сети АРТ
, исходя из требуемой детальности классификации;

б) создаем сеть в памяти. Количество нейронов должно быть достаточным, чтобы запомнить все ядра классов (до

Работа сети АРТ
). Изначально все нейроны слоя распознавания считаются "невыделенными", их веса приравниваются к одинаковым небольшим значениям:

Работа сети АРТ

где

Работа сети АРТ
- некоторая константа (обычно
Работа сети АРТ
). Веса в слое сравнения также выбираются одинаковыми, равными единице:
Работа сети АРТ
.

Такой выбор весов обеспечивает остановку поиска на невыделенном нейроне, если нет подходящих выделенных нейронов, и правильное обучение.

2. Распознавание.

а) предъявляем вектор

Работа сети АРТ
на входе. До этого момента
Работа сети АРТ
и выход слоя распознавания равен нулю:
Работа сети АРТ
.

б) у вектора

Работа сети АРТ
есть ненулевые компоненты, поэтому
Работа сети АРТ
становится равным единице, т.к.
Работа сети АРТ
. Сигнал
Работа сети АРТ

"подпитывает" нейроны слоя сравнения и

Работа сети АРТ
без изменений проходит через слой сравнения:
Работа сети АРТ
.

в) весовые коэффициенты

Работа сети АРТ
имеют смысл нормированных ядер классов. В слое распознавания активируется несколько нейронов, но благодаря латеральному торможению остается один нейрон с выходом
Работа сети АРТ
, а остальные тормозятся.
Работа сети АРТ
- номер выигравшего нейрона.

3. Сравнение.

а) выход

Работа сети АРТ
приводит к
Работа сети АРТ
, что снимает "подкачку" нейронов в слое сравнения. Весовые коэффициенты
Работа сети АРТ
имеют смысл ненормированных двоичных ядер классов. На вход слоя сравнения передается один ненулевой выход слоя распознавания,
Работа сети АРТ
. Эта единица умножается на весовые коэффициенты, давая в сумме сигнал

Работа сети АРТ

Порог всех нейронов равен 2, поэтому выход слоя сравнения равен

Работа сети АРТ

Следовательно, выход слоя сравнения на этом этапе - логическое произведение входного сигнала и двоичного ядра класса из слоя сравнения.

б) модуль сброса вычисляет второй критерий сходства (первый - максимум произведения (

Работа сети АРТ
) в слое распознавания). Если количества единиц в векторе
Работа сети АРТ
и векторе
Работа сети АРТ
близки, то сходство считается хорошим и выносится решение о принадлежности вектора
Работа сети АРТ
к классу
Работа сети АРТ
.


4. Поиск.

а) если критерий сходства не выполняется, схема сброса вырабатывает сигнал
Работа сети АРТ
, который тормозит нейрон
Работа сети АРТ
в слое распознавания. Сигнал
Работа сети АРТ
остается равным 1 до окончания данной классификации. Выход нейрона
Работа сети АРТ
становится равным 0, а, следовательно, и весь вектор
Работа сети АРТ
. Сигнал
Работа сети АРТ
становится равным нулю и вектор
Работа сети АРТ
снова проходит через слой сравнения без изменений, вызывая новый цикл поиска (шаги 2в-3б), пока критерий сходства не будет удовлетворен.

При соответствующем выборе начальных значений весов
Работа сети АРТ
поиск всегда закончится на нераспределенном нейроне слоя распознавания. Для него будет выполнен критерий сходства, т.к. все веса
Работа сети АРТ
равны 1. Если все нейроны выделены и критерий сходства не выполняется, следует аварийная остановка либо расширение сети введением нового нейрона в слое распознавания и новых входов в слое сравнения.

5. Обучение.

Независимо от того, найден ли на этапе поиска распределенный нейрон или нераспределенный, обучение протекает одинаково. Корректируются лишь веса выигравшего нейрона
Работа сети АРТ
в слое распознавания и веса
Работа сети АРТ
для всех
Работа сети АРТ
в слое сравнения.

Различают быстрое и медленное обучение. При быстром обучении коррекции весов имеют вид:

Работа сети АРТ


где
Работа сети АРТ
- константа.

Веса в слое сравнения - двоичные:
Работа сети АРТ
.

В результате такого алгоритма обучения ядра
Работа сети АРТ
изменяются, несущественные компоненты обнуляются в процессе обучения. Если какая-то компонента вектора
Работа сети АРТ
стала нулевой на какой-то итерации обучения, она никогда не вернется к единице. В этом проявляется асимметрия АРТ по отношению к значениям 0 и 1. Эта асимметрия имеет серьезные отрицательные последствия для модели, приводя к деградации ядер классов в случае зашумленных входных векторов.

Медленное обучение меняет ядра малыми коррекциями:

Работа сети АРТ


где
Работа сети АРТ
мало и характеризует скорость обучения.

В результате каждой итерации обучения ядра меняются незначительно.

Видно, что веса
Работа сети АРТ
в любой момент времени могут быть однозначно рассчитаны через веса
Работа сети АРТ
, таким образом, кодирование информации о ядрах в АРТ в рассмотренной модели является избыточным в смысле расхода памяти.


Содержание раздела