Анализ регрессионных возможностей нейронной сети

ЯРУЛЛИН А.А., КНИТУ–КАИ, г. Казань

Науч. рук. канд. техн. наук, доцент ЯКУПОВ З.Я.

В данной работе целью ставится исследование регрессионных возможностей многослойной нейронной сети прямого распространения на обучающих двумерных выборках, сгенерированных различными функциональными зависимостями. Нейронная сеть всякий раз в нашем рассмотрении решает задачу интерполяции или экстраполяции некоторой функции, известной нам лишь по конечному числу точек на декартовой плоскости. В качестве искомых зависимостей рассмотрим следующие функции: полиномиальные, тригонометрические и экспоненциальные.

Вначале рассмотрим задачу интерполяции и экстраполяции для полиномиальных зависимостей разного типа анализ регрессионных возможностей нейронной сети - student2.ru В качестве функционала качества для решающей функции был взят средний квадрат ошибки на всех объектах обучающей выборки. В качестве метода обучения был взят метод обратного распространения ошибки.

Для каждого случая построим графики целевой и решающей функций. Для случая интерполяции используется весь интервал от 0 до 4, в случае экстраполяции выполняется прогнозирование на участке от 2 до 4, где также интерполируется участок от 0 до 2. Зеленым цветом строятся графики решающей функции, целевые зависимости – черным цветом
(рис. 1–8).

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 1. Интерполяция анализ регрессионных возможностей нейронной сети - student2.ru

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 2. Экстраполяция анализ регрессионных возможностей нейронной сети - student2.ru

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 3. Интерполяция анализ регрессионных возможностей нейронной сети - student2.ru

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 4. Экстраполяция анализ регрессионных возможностей нейронной сети - student2.ru

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 5. Интерполяция анализ регрессионных возможностей нейронной сети - student2.ru

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 6. Экстраполяция анализ регрессионных возможностей нейронной сети - student2.ru

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 7. Интерполяция анализ регрессионных возможностей нейронной сети - student2.ru

анализ регрессионных возможностей нейронной сети - student2.ru

Рис. 8. Экстраполяция анализ регрессионных возможностей нейронной сети - student2.ru

Даже при беглом осмотре и сравнении графиков интерполяции и экстраполяции для различных зависимостей сразу можно обратить внимание на тот факт, что монотонные функциональные зависимости аппроксимируются намного лучше, чем те, где имеется несколько локальных экстремумов.

В нашем случае в качестве модели алгоритма использовалась нейронная сеть с одним скрытым слоем. В скрытом слое функциями активации были сигмоиды, а в выходном – линейная функция. На входной слой нейронной сети подавался один-единственный сигнал, который являлся аргументом искомой зависимости. В ходе анализа графиков аппроксимации выявился факт лучшего приближения монотонных функций нейронной сетью рассматриваемой архитектуры. Тем самым можно сформулировать теоретически интересный вопрос: как объяснить то, что монотонные функции аппроксимируются лучше, чем функции, которые имеют немонотонный характер?

Ответ на данный вопрос имеет большое значение по тем причинам, что с каждым днем все больше и больше нейросетевых технологий приходит в нашу жизнь. Большее понимание теоретических аспектов нейронных сетей может открыть новые, неожиданные области применения.

УДК 004.42

РАЗРАБОТКА ПРОГРАММНОГО КОМПЛЕКСА ДЛЯ РАСЧЕТА ПАРАМЕТРОВ СХЕМЫ ЗАМЕЩЕНИЯ СЕТИ 6–10 КВ

Наши рекомендации