Тема: Аппроксимация нейронной сетью таблично заданной функции
Лабораторная работа №4
Постановка слабо формализованной задачи. Под СФЗ в данной работе понимается набор, содержащий m точек экспериментальных данных Zi=(V1i, V2i, ..., Vсi, W1i, W2i, ..., Wqi, W1i, W2i, ..., Wdi), где iÎ{1,.., m}, W – вектор ожидаемых реакций системы; V– вектор возможных состояний системы, представляющих собой количественное или качественное описание важнейших ресурсов, признаков и характеристик; W – вектор воздействий внешней среды. В рамках кибернетического подхода, используя принцип «черного ящика», функционирование системы может быть описано некоторой (неизвестной) вектор-функцией
Y = F(X), (1)
где X={(V1i, V2i, ..., Vсi, W1i, W2i, ..., Wqi, )| i=1,...,m}, Y=W.
Задачей моделирования является идентификация системы, состоящая в нахождении функционального отношения, алгоритма или системы правил в общей форме Y'=G(X,p),
ассоциирующей вектор X с вектором Y' таким образом, что Y' и Y близки в некоторой метрике, отражающей цели моделирования, где p – вектор параметров модели Ĝ. Отношение (1.2), воспроизводящее в указанном смысле функционирование системы, получило название модель системы.
Под искусственной нейронной сетью понимают направленный параметризованный граф, узлы которого представляют простые процессорные элементы с полностью локальным функционированием (нейроны), а ребра задают сеть функциональных связей между элементами. Каждому ребру соответствует скалярная величина (параметр) – вес связи или значение веса синапса. Выделяются входные связи, по которым поступает информация о состоянии входных переменных, и выходные, с которых снимаются результаты функционирования сети. Формальный нейрон может быть представлен как последовательное включение адаптивного сумматора и передаточной функции (функции активации нейрона) (рис.1).
Адаптивный сумматор вычисляет взвешенную сумму входных сигналов:
где xj – входные данные или переменные, aj – настраиваемые параметры (веса синапсов); x, a R. Для обеспечения неоднородности вводится дополнительный сигнал x01. Проект стандарта нейросетевых моделей, предложенный Е.М. Миркесом, описан в форме разработки компонентов «идеального» нейрокомпьютера. Выделяются следующие компоненты нейрокомпьютера: 1)предобработчик, 2) сеть, 3) учитель, 4) интерпретатор, 5) оценка, 6) контрастер, 7) задачник, 8) исполнитель. В этом контексте можно рассматривать макрокомпонент нейромпьютер как функцию с восемью параметрами
Y¢=НК(P,Х), (2)
где Р – вектор параметров, Рi – представляет собой идентификатор i -го компонента нейромпьютера, iÎ{1,...,8}, X – вектор входных данных, Y – вектор выходных данных, Y¢ и Y близки в некоторой метрике, отражающей цели моделирования. Функция Y¢=НК(P,Х) возвращает нейронную сеть структуры Р2, обученную учителем Р3, выход которой представляет собой следующее значение:
Здесь S – адаптивный линейный сумматор, вычисляющий скалярное произведение вектора входного сигнала (на первом слое Х) на вектор параметров (веса синапсов) а; js – нелинейный преобразователь с параметром s, преобразующий выходной сигнал сумматора и являющийся функцией нескольких переменных; n – число входных переменных; kj – число нейронов на j-томслое; l – число слоев. В этом смысле можно рассматривать нейросеть как метод нелинейной регрессии, а Y¢(Х) как нейросетевой регрессионный полином.
Цель работы: реализовать 30 нейросетевых регрессионных полиномов таблично заданной функции, выбрать наилучший - имеющий наименьшую ошибку обобщения.
Создайте тестовую выборку: переместите 10% примеров выборки из файла Дата в файл тест.
1. Используя пакет Matlab по обучающей выборке из файла обучение обучите 10 нейронных сетей различной структуры.(1 скрытый слой – количество нейронов равно
· количеству входных полей
· размерности признакового пространства задачи).
2. Определите ошибку обучения ЕT , тестируя сеть на файле обучение и ошибку обобщения ЕG , тестируя сеть на файле тест.
3. Выберите нейронную сеть, имеющую наименьшую ошибку обобщения и обучения, осуществите ее вербализацию.
В отчет по лабораторной работе включите: пп.1,3,4.