Нейрокомпьютерные системы


         

Гибридный алгоритм обучения нечетких сетей


Параметры, подлежащие адаптации, разделяются на две группы:

  • первая состоит из параметров
    линейного третьего слоя;
  • вторая состоит из параметров нелинейной функции принадлежности первого слоя.

Уточнение параметров проводится в два этапа.

На первом этапе при фиксации определенных значений параметров функции принадлежности путем решения системы линейных уравнений рассчитываются параметры

полинома TSK.

При известных значениях функции принадлежности преобразование, реализуемое сетью, можно представить в виде

При

обучающих выборках
и замене выходного сигнала сети ожидаемым значением
получим систему из
линейных уравнений вида

где

- уровень активации (вес)
-го правила при предъявлении
-го входного вектора
.

Размерность матрицы

равна
, при этом обычно количество строк (количество выборок) значительно больше количества столбцов. Решение этой системы уравнений можно получить за один шаг при помощи псевдоинверсии матрицы
:

Псевдоинверсия матрицы заключается в решении задачи минимизации

где

- единичная матрица.

На втором этапе (линейные параметры

- фиксированы) рассчитываются фактические выходные сигналы
,
:

вектор ошибки

и градиент целевой функции

по параметрам первого слоя. Если применяется метод наискорейшего спуска, то формулы адаптации принимают вид

где

обозначает номер очередной итерации.

После уточнения нелинейных параметров вновь запускается процесс адаптации линейных параметров TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл повторяется вплоть до стабилизации всех параметров процесса.




Содержание  Назад  Вперед