Нечеткие нейронные сети для задач управления

В рассмотренных выше типах (2.13) – (2.16) нейронных сетей в качестве модели искусственного нейрона использовалась модель Маккалока и Питтса. Для задач интеллектуального управления была предложена новая модель нейрона - так называемый «нечеткий нейрон» (a fuzzy neuron).

Типовой нечеткий нейрон (для задач управления) обладает следующими отличительными свойствами:

· его входы являяются значения нечетких лингвистических переменных;

· вместо весов используются значения функций принадлежности лингвистических переменных и степени активаций нечетких правил;

· пороговое значение отсутствует.

Нечеткие нейронные сети (ННС) являются разновидностью адаптивных сетей, описанных в параграфе 2.4.6.

Нечеткий вывод может быть реализован с помощью ННС, включающей в свою структуру нечеткие нейроны.

На рис. 2.47 показан пример структуры ННС, реализующей вычисления для модели нечеткого вывода Сугено.

Рассмотрим пример построения ННС для задачи нечеткого вывода в модели Сугено.

Пример:Построение ННС для нечеткого вывода Сугено. Для простоты предположим, что ННС имеет два входа x и y, и один выход z. Для простоты также возьмем два правила, например, такие, как:

Правило 1:

ЕСЛИ Нечеткие нейронные сети для задач управления - student2.ru И Нечеткие нейронные сети для задач управления - student2.ru ТО Нечеткие нейронные сети для задач управления - student2.ru

Правило 2:

ЕСЛИ Нечеткие нейронные сети для задач управления - student2.ru И Нечеткие нейронные сети для задач управления - student2.ru ТО Нечеткие нейронные сети для задач управления - student2.ru

Опишем формально каждый слой представленной архитектуры ННС. Обозначим выход Нечеткие нейронные сети для задач управления - student2.ru -той вершины слоя Нечеткие нейронные сети для задач управления - student2.ru как Нечеткие нейронные сети для задач управления - student2.ru .

Нечеткие нейронные сети для задач управления - student2.ru

Рис. 2.47. ННС архитектура для модели нечеткого вывода Сугено нулевого порядка

Слой 1

Выходное значение каждой вершины данного слоя вычисляется следующим образом:

Нечеткие нейронные сети для задач управления - student2.ru = Нечеткие нейронные сети для задач управления - student2.ru , для Нечеткие нейронные сети для задач управления - student2.ru = 1,2, и Нечеткие нейронные сети для задач управления - student2.ru = Нечеткие нейронные сети для задач управления - student2.ru для Нечеткие нейронные сети для задач управления - student2.ru = 3,4,

где x и y – входные значения, Нечеткие нейронные сети для задач управления - student2.ru и Нечеткие нейронные сети для задач управления - student2.ru – функции принадлежности входных переменных.

Например, функции принадлежности входных переменных описываются так называемыми «bell functions» следующего вида:

Нечеткие нейронные сети для задач управления - student2.ru ,

где Нечеткие нейронные сети для задач управления - student2.ru - множество параметров функций принадлежности. Параметры данного слоя будем называть параметрами посылок (premise parameters).

Слой 2

Выходное значение каждой вершины данного слоя вычисляет значение нечеткой конъюнкции двух нечетких величин:

Нечеткие нейронные сети для задач управления - student2.ru , Нечеткие нейронные сети для задач управления - student2.ru =1,2.

Таким образом, каждая вершина второго слоя выдает значение степени активации нечеткого правила.

Примечание. В приведенной выше формуле в качестве операции нечеткой конъюнкции выбрано умножение, однако могут использоваться и другие интерпретации этой операции.

Слой 3

Выходное значение каждой вершины данного слоя вычисляет как:

Нечеткие нейронные сети для задач управления - student2.ru , Нечеткие нейронные сети для задач управления - student2.ru = 1,2.

Слой 4

Нечеткие нейронные сети для задач управления - student2.ru ,

где Нечеткие нейронные сети для задач управления - student2.ru - выход Нечеткие нейронные сети для задач управления - student2.ru -той вершины слоя 3 и Нечеткие нейронные сети для задач управления - student2.ru - параметры, называемые параметрами заключения (consequent parameters).

Слой 5

В данном слое формируется выходное значение сети:

Нечеткие нейронные сети для задач управления - student2.ru . (2.17)

Перепишем формулу (2.17) как:

Нечеткие нейронные сети для задач управления - student2.ru

= Нечеткие нейронные сети для задач управления - student2.ru .

Итак, мы построили ННС, реализующую нечеткий вывод Сугено первого порядка. Далее, с использованием специального алгоритма обучения, можно настраивать параметры сети Нечеткие нейронные сети для задач управления - student2.ru и Нечеткие нейронные сети для задач управления - student2.ru на решение определенной задачи.

На Рис. 2.47 показана структура ННС, реализующей вычисления для модели нечеткого вывода Сугено нулевого порядка. В этом случае вышеприведенная формула будет иметь следующий вид: Нечеткие нейронные сети для задач управления - student2.ru .

В заключение данного параграфа отметим основные особенности нейронных сетей.

1. ИНС рассматривается как взвешенный (или нет) направленный граф (weighted directed graph), вершины которого представлены нейронами, а направленные дуги описывают связи между нейронами. ИНС характеризуется тремя параметрами: типом нейронов, архитектурой (организацией связей между нейронами) и алгоритмом обучения в данной сети.

2. Функционирование ИНС может быть рассмотрено как некоторое отображение F: Нечеткие нейронные сети для задач управления - student2.ru , где Нечеткие нейронные сети для задач управления - student2.ru - пространство входных значений, а Нечеткие нейронные сети для задач управления - student2.ru - пространство выходных значений. Таким образом, ИНС отображает входной вектор Нечеткие нейронные сети для задач управления - student2.ru в выходной вектор Нечеткие нейронные сети для задач управления - student2.ru через «фильтр» синаптических весов. Можно представить выходной вектор как Нечеткие нейронные сети для задач управления - student2.ru , где Нечеткие нейронные сети для задач управления - student2.ru - матрица весов. Матрица Нечеткие нейронные сети для задач управления - student2.ru представляет «знания» сети, ее «долговременную память», в то время как, значения активации нейронов представляют текущее состояние сети или «кратковременную память» сети.

3. Характерные черты ИНС:

· способность к обучению и адаптации;

· способность к обобщению;

· свойство массивного параллелизма;

· свойство ассоциативной памяти;

· надежность (robustness);

· пространственно-временная обработка информации.

Способность к обучению и адаптации является фундаментальным свойством естественного интеллекта. Существует множество определений этих свойств. В контексте ИНС, процесс обучения рассматривается как процесс обновления весов сети так, что сеть могла оптимальным образом решать поставленную задачу.

Способность к обобщению позволяет на сходные, похожие, стимулы (входные значения) получать сходные, похожие, реакции сети (выходные значения). Например, сеть может распознать образ по входным данным, содержащим шум.

Надежность ИНС означает, что ИНС может продолжать успешно функционировать даже если сеть или входные данные повреждены. Ассоциативная память обладает свойством запоминать образы и распознавать их даже если на входе присутствует только часть образа.

Наши рекомендации