Нечеткие сети TSK (Такаги-Сугено-Канга)
Схема вывода в модели TSK при использовании
правил и переменных имеет видУсловие
реализуется функцией фазификацииПри
правилах агрегированный выходной результат сети имеет вид
(1) |
Веса
интерпретируются как значимость компонентов . Тогда формуле (1) можно поставить в соответствие многослойную нейронную сеть рис. 3.увеличить изображение
Рис. 3. Нечеткая нейронная сеть TSK
1. Первый слой выполняет фазификацию каждой переменной. Это параметрический слой с параметрами
, подлежащими адаптации в процессе обучения.2. Второй слой выполняет агрегирование отдельных переменных, определяя результирующее значение коэффициента принадлежности
для вектора (непараметрический слой).3. Третий слой - генератор функции TSK, рассчитывает значения
В этом слое также производится умножение
на , сформированные в предыдущем слое. Здесь адаптации подлежат веса , определяющие функцию следствия модели TSK.4. Четвертый слой составляют два нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов
, а второй - сумму весов (непараметрический слой).5. Пятый слой из одного нейрона - это нормализующий слой, в котором выходной сигнал сети агрегируется по формуле (1).
Таким образом, в процессе обучения происходит уточнение параметров только первого (нелинейного) и третьего (линейного) слоев.