Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС

Все рассмотренные алгоритмы обучения НС связаны только с определением направления Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru на каждом шаге, но ничего не говорят о выборе коэффициента обучения Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru , хотя он оказывает огромное влияние на скорость сходимости: слишком малое значение Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru не позволяет минимизировать Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru за один шаг в заданном направлении и требует повторных итераций, слишком большой шаг приводит к «перепрыгиванию» через минимум целевой функции и фактически заставляет возвращаться к нему. Существуют различные способы подбора h. Простейший из них основан на фиксации h=const на весь период оптимизации, практически используется только в АНС при обучении в режиме «online» и имеет низкую эффективность, поскольку никак не связан с величиной и направлением Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru на данной итерации. Обычно величина h подбирается отдельно для каждого слоя НС, чаще всего с использованием соотношения

Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru (3.15)

где ni – количество входов i – го нейрона в слое.

Более эффективный способ – адаптивный выбор h с учетом динамики изменения Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru в процессе обучения, когда тенденция к непрерывному увеличению h сочетается с контролем суммарной погрешности Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru на каждой итерации. При этом

Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru (3.16)

где ky, kв – коэффициенты уменьшения и увеличения ht соответственно, kn – коэффициент допустимого прироста погрешности e. Заметим, что реализация этой стратегии выбора h в NNT MATLAB 6.5 при kn = 1.41, ky = 0.7, kв = 1.05 позволила в несколько раз ускорить обучение многослойных НС при решении задач аппроксимации нелинейных функций.

Наиболее эффективный, хотя и наиболее сложный, метод подбора h связан с направленной минимизацией Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru в заранее выбранном направлении Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru , когда значение ht подбирается так, чтобы новое решение Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru соответствовало минимуму Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru в направлении Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru . Чаще всего определение оптимальной величины h связано с представлением Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru полиномом 2–го или 3–го порядка от h

Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru (3.17)

где для определения коэффициентов ai используют информацию о величине Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru и ее производной в направлении Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru , а значения hопт получают из условия минимума Р2(h) или Р3(h) согласно Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru для Р2(h) или Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru для Р3(h).

Эффективность алгоритмов обучения проверяется на стандартных тестах, к которым относятся задачи логистики (предсказания последующего значения хn+1 случайной последовательности по предыдущему значению xn), кодирования и декодирования двоичных данных, аппроксимации нелинейных функций определенного вида, комбинаторной оптимизации («задача коммивояжера») и т.п. Сравнение идет по количеству циклов обучения, количеству расчетов Подбор коэффициентов и сравнение эффективности детерминированных алгоритмов обучения НС - student2.ru , чувствительности к локальным минимумам и т.д. Поскольку эти характеристики могут существенно отличаться в зависимости от характера тестовой задачи, то однозначный ответ на вопрос, какой алгоритм считать абсолютно лучшим, дать невозможно.

В качестве возможного примера сравнения эффективности рассмотренных методов обучения в табл. 3.1 представлены результаты обучения многослойного персептрона со структурой 1–10–1, предназначенного для аппроксимации одномерной функции на основе обучающей выборки из 41 элемента. Все алгоритмы обучения были реализованы в пакете дополнений NNT MATLAB, что послужило основой для получения объективных оценок. Видно, что наибольшую эффективность продемонстрировал АЛМ, за ним идут АПМ (BFGS) и АСГ. Наихудшие результаты (по всем параметрам) показал АНС, а эвристический алгоритм RPROP в этом примере был сравним с АПМ и АСГ. Заметим однако, что на основании более общих тестов был сделан вывод, что доминирующая роль АЛМ и АПМ снижается по мере увеличения размеров НС, и при числе связей больше 103 наиболее эффективным становится АСГ.

Таблица 3.1

Наши рекомендации