Методы случайного поиска

Градиентные методы

Градиентные методы поиска оптимума целевой функции основаны на использовании двух основных свойств градиента функции.

1. Градиент функции Методы случайного поиска - student2.ru – это вектор, который в каждой точке области определения функции Методы случайного поиска - student2.ru направлен по нормали к поверхности уровня, проведенной через эту точку.

Проекции градиента Методы случайного поиска - student2.ru на оси координат равны частным производным функции Методы случайного поиска - student2.ru по соответствующим переменным, т.е.

Методы случайного поиска - student2.ru . (2.4)

2. Направление градиента характеризует направление наибольшего возрастания функции.

К градиентным методам относятся: метод релаксации, градиента, наискорейшего спуска и ряд других [1,2,5].

Рассмотрим некоторые из градиентных методов.

Метод градиента

В этом методе спуск производится в направлении наибыстрейшего изменения целевой функции, что, естественно, ускоряет процесс поиска оптимума.

Поиск оптимума производится в два этапа. На первом этапе находятся значения частных производных по всем независимым переменным, которые определяют направление градиента в рассматриваемой точке. На втором этапе осуществляется шаг в направлении, обратном направлению градиента (при поиске минимума целевой функции).

При выполнении шага одновременно изменяются значения всех независимых переменных. Каждая из них получает приращение пропорциональное соответствующей составляющей градиента по данной оси.

Формульная запись алгоритма может иметь вид:

Методы случайного поиска - student2.ru , Методы случайного поиска - student2.ru . (2.5)

В этом случае величина шага Методы случайного поиска - student2.ruпри постоянном значении параметра h изменяется автоматически с изменением величины градиента и при приближении к оптимуму уменьшается.

Другая формульная запись алгоритма имеет вид:

Методы случайного поиска - student2.ru , Методы случайного поиска - student2.ru . (2.6)

В этом алгоритме используется нормализованный вектор градиента, указывающий лишь направление наискорейшего изменения целевой функции, но не указывает скорости изменения по этому направлению.

В стратегии изменения шага Методы случайного поиска - student2.ru в этом случае используется то, что градиенты Методы случайного поиска - student2.ru и Методы случайного поиска - student2.ru отличаются по направлению. Изменение шага поиска производится в соответствии с правилом:

Методы случайного поиска - student2.ru (2.7)

где Методы случайного поиска - student2.ru– угол поворота градиента на k-ом шаге, определяемый выражением

Методы случайного поиска - student2.ru ,

Методы случайного поиска - student2.ru , Методы случайного поиска - student2.ru – допустимые пределы угла поворота градиента.

Характер поиска оптимума в методе градиента показан на рис. 2.1.

Момент окончания поиска можно найти проверкой на каждом шаге соотношения

Методы случайного поиска - student2.ru ,

где Методы случайного поиска - student2.ru – заданная погрешность расчета.

Методы случайного поиска - student2.ru

Рис. 2.1. Характер движения к оптимуму в методе градиента с большой величиной шага

Недостатком градиентного метода является то, что при его использовании можно обнаружить только локальный минимум целевой функции. Для того, чтобы найти у функции другие локальные минимумы, необходимо производить поиск из других начальных точек.

Другим недостатком этого метода является значительный объем вычислений, т.к. на каждом шаге определяются значения всех частных производных оптимизируемой функции по всем независимым переменным.

Наши рекомендации