Определение оптимального решения, т.е. сколько пакетов должно быть выбрано для максимальной полезности осуществляется при обратном ходе от стадии 4 к стадии 1.
На шаге 4 мы нашли максимальную полезность равную 31, а также то, что на этом шаге должно быть выбрано два пакета типа D по 4 кг. Т.о. осталось 3 кг.
Т.к. z3*(3) = 0, пакетов типа С не кладем, т.е. на последующих шагах остается положить 3 кг.
z2*(3) = 1, т.е. кладем один пакет типа В. Остается положить 1 кг и, следовательно, пакетов типа А кладем 1. Итак: Д=2, С=0, В=1 и А=1 при оптимальном значении целевой функции 31.
Очевидно, что укладка рюкзаков это не самая важная функция менеджера. Однако, аналогичную задачу нужно решать при распределении бюджета между различными подразделениями или проектами.
Дискуссия о преимуществах и недостатках двух основных методов исследования оптимальных процессов –принципе максимума и динамическом программировании – до сих пор не закончена.
В одних задачах удобней применять один метод, в других – другой. Аналитически они очень близки друг другу, однако, можно утверждать, что принцип максимума математически более строго обоснован. ДП основано на постулате, т.е. эвристическом утверждении, которое обычно формулируется как принцип оптимальности Беллмана.
Основное различие между этими методами лежит в вычислительной процедуре. И с этой точки зрения в большинстве случаев предпочтение отдается принципу максимума. При использовании метода ДП необходимо на каждом шаге вычислять значения функций для всех значений переменных состояния. Принцип же максимума позволяет все время иметь дело с одним и тем же решением, улучшая его на каждой итерации. Благодаря введению переменных y объем требуемой памяти ЭВМ для принципа максимума растет линейно с увеличением размерности задачи, а для ДП – экспоненциально. Поэтому время счета в первом случае, как правило, меньше. Однако для решения задач с ограничениями на переменные состояния принцип максимума встречается с трудностями, которые совершенно отсутствуют в ДП.
Задачи
1. Найти у(х), на которой функционал достигает экстремального (минимального) значения для у(1) = 0и у(2)=1
Ответ: y(х)– окружность, определяемая уравнением (у-2)2 + x2=5.
2. Найти экстремаль r(f) функционала , если r(0) =2, r(p/2) =1.
Ответ: r sinf = 1-1/2 r cosf (Указание: ввести новые переменные x= r cosf, y= r sinf)
3. Составить уравнения Понтрягина, если необходимо за минимальное время перевести систему, уравнения движения которой имеют вид
,
из точки с координатами в точку с координатами .
4. Для управляемой системы, движение которой задано уравнением , записать функцию Гамильтона, если функционал имеет вид .(Указание: предварительно нужно уравнения движения записать в канонической форме (нормальная форма Коши).
5. Записать дифференциальное уравнение Беллмана для системы, указанной в задаче 4.
Статистически оптимальные системы
Понятие случайного процесса
Случайной функцией называют функцию неслучайного аргумента, которая при каждом фиксированном значении аргумента t является случайной величиной. Случайные функции аргумента будем обозначать прописными буквами: X(t), Y(t) и т. д. Например, если U – случайная величина, то функция U(t) —случайная функция. Если аргумент t – время, то случайную функцию называют случайным процессом.
Конкретный вид случайной функции в данном опыте называется реализацией случайной функции. На. рис. 1 показаны 5 реализаций случайной функции Х(t), полученные в 5-ти опытах (x1(t), x2(t),…,x5(t)). Реализация является неслучайной функцией аргумента t, равной которой может оказаться случайная функция в результате испытания. Случайную функцию можно рассматривать как совокупность ее возможных реализаций.
Сечением случайной функции называют случайную величину, соответствующую фиксированному значению аргумента t случайной функции.
Рассмотрим n сечений (рис.1) случайной функции ( X(t1), .... X(tn), соответствующих t = t1, t = t2, …, t=tn, в результате мы получим n-мерную случайную величину, которая соответствует случайной функции X(t). Случайную функцию можно рассматривать как совокупность случайных величин {X(t)}, зависящих от переменной t, или как многомерную случайную величину.
Задать случайную функцию аналитически (формулой) в общем случае невозможно. В частных случаях, если вид случайной функции известен, а определяющие ее параметры – случайные величины, то случайную функцию можно задать аналитически. Например, случайными будут функции X(t) = sin U(t), где U — случайная величина, и Y(t) = W*sin U(t), где W и U — случайные величины.
Рис. 1
При фиксированном значении аргумента случайная функция является случайной величиной. Для задания случайной величины достаточно задать закон ее распределения или одномерную плотность вероятности. Например, для случайной величины X1=X1(t) нужно знать плотность вероятности f(x1).
Одномерную плотность вероятности для любого сечения обозначают f1(x,t); Здесь индекс 1 при t показывает, что плотность вероятности одномерная, а аргумент t принимает всевозможные значения. Так, сечение X(t1) при t = t1, характеризуется функцией f(x1,t). Функция f(x1;t) полностью характеризует только каждое отдельно взятое сечение, но не характеризует саму случайную функцию, кроме случая, когда набор сечений образует систему независимых случайных величин. Так как случайную функцию можно рассматривать как многомерную случайную величину, то для полного задания случайной функции необходимо знать все n-мерные функции распределения или n-мерные плотности вероятностей fn(x1, …,xn, t1,…,tn), которые зависят от n переменных x и n значений аргумента t.
Чем выше порядок заданных функций распределения случайной функции, тем полнее она описана. Теоретически исчерпывающей характеристикой является функции распределения бесконечно большого порядка, охватывающая все сечения случайной функции. Однако использование таких характеристик случайных функций для инженерных расчетов практически нецелесообразно из-за большой громоздкости вычислений. Поэтому на практике ограничиваются использованием таких характеристик случайной функции, которые хотя и описывают ее менее полно, но позволяют существенно упростить расчеты.
Корреляционной теорией случайных функций называют теорию, основанную на изучении моментов 1-го и 2-го порядка, что оказывается достаточным для решения многих практических задач. В отличие от моментов случайных величин, которые являются числами и поэтому называются числовыми характеристиками, моменты случайной функции являются неслучайными функциями, и их называют характеристиками случайной функции. Эти характеристики можно найти из опыта.
Основные характеристики случайной функции
Основными характеристиками случайной функции являются математическое ожидание, дисперсия и корреляционный момент (корреляционная функция).
Математическим ожиданием случайной функции X(t) называют неслучайную функцию mx(t), значение которой при каждом фиксированном значении аргумента t равно математическому ожиданию сечения, соответствующего этому фиксированному значению аргумента: mx(t)= M[X(t)], т. е. математическое ожидание случайной функции можно рассматривать как «среднюю кривую» (среднюю – по множеству реализаций), около которой расположены отдельные реализации случайной функции (рис. 1). Зная одномерную плотность распределения вероятностей f1(x,t), можно найти mx(t):
Дисперсией случайной функции Х(t) называют неслучайную неотрицательную функцию Dx(t), значение которой при каждом фиксированном значении аргумента t равно дисперсии сечения, соответствующего этому фиксированному значению аргумента: Dx(t)=D[X(t)]. Дисперсия характеризует степень рассеяния возможных реализаций вокруг математического ожидания случайной функции. В соответствии с определением дисперсия
Часто в качестве рассеяния рассматривается среднее квадратичное отклонение случайной функции sx(t):
Корреляционной функцией случайной функции Х(t) называют неслучайную функцию Kx(t1, t2) двух независимых аргументов t1 и t2, значение которой при каждой паре фиксированных значений аргументов равно корреляционному моменту сечений, соответствующих этим значениям аргументов:
где – центрированная случайная величина.
Из определения корреляционной функции следует, что
Корреляционная функция характеризует зависимость между случайными величинами X(t1) и X(t2) – сечениями случайной функции при t=t1 и t=t2. Чем меньше связь между сечениями, тем меньше значение корреляционной функции. Это означает, что значения. принимаемые случайной функцией, быстро изменяются. На рис. 2 показаны реализации двух случайных функций X(t) и Y(t) с одинаковыми математическими ожиданиями и дисперсиями.
Рис. 2
Случайная функция X(t) изменяется быстрее и связь между сечениями меньше, чем для функции Y(t), т. е. корреляционная функция для X(t) меньше, чем для Y(t).
Нетрудно заметить, что при равных значениях аргумента (t= t1 = t2) корреляционная функция случайной функции равна дисперсии этой функции: Kx(t, t)= Dx(t). Действительно, учитывая, что
Из свойств корреляционной функции отметим следующие:
1. При перестановке аргументов корреляционная функция не меняется:
- Прибавление к случайной функции X(t) неслучайного слагаемого j(t) не изменяет ее корреляционной функции:
Y(t) = X(t) + j(t),
3. При умножении случайной функции X(t) на неслучайный множитель j(t) ее корреляционная функция умножается на произведение j(t1)j(t2). Пусть Y(t) = X(t)j(t). Тогда, по определению корреляционной функции имеем
4. Для всякой корреляционной функции справедливо неравенство
Для того чтобы оценить степень зависимости сечений двух случайных функций, вводят характеристику – взаимную корреляционную функцию. Взаимной корреляционной функцией двух случайных функций X(t) и Y(t) называют неслучайную функцию Kxy(t1,t2) двух независимых аргументов t1 и t2, значение которой при каждой паре фиксированных значений аргументов равно корреляционному моменту сечений обеих функций, соответствующих фиксированным значениям аргументов:
Для того чтобы отличить взаимную корреляционную функцию от корреляционной функции, последнюю называют автокорреляционной функцией. Две случайные функции X(t) и Y(t) называют некоррелированными, если их взаимная корреляционная функция тождественно равна нулю. т. е. Kxy(t1,t2)=0.
Рассмотрим, как преобразуется основные характеристики случайных функций – математическое ожидание и корреляционная функция при проведении над ними линейных операций. Математическое ожидание суммы двух случайных функций равно сумме математических ожиданий слагаемых: если Z(t) = Х(t) + Y(t), то mz(t) = mx(t) + my(t). Найдем корреляционную функцию суммы двух коррелированных случайных функций Z(t):
Учитывая, что имеем
откуда
Из последнего выражения следует, что корреляционная функция двух некоррелированных случайных функций равна сумме корреляционных функций слагаемых, т. е.
Случайную функцию Х(t) называют стационарной в широком смысле, если ее математическое ожидание постоянно при всех значениях аргумента t, а корреляционная функция зависит только от разности аргумента t1 и t2. Случайную функцию Х(t) называют стационарной в узком смысле, если все характеристики этой функции (не только корреляционная функция) зависят только oт разности аргументов t1 и t2 и не зависят от положения интервала t2 - t1 в области изменения аргумента. Из стационарности в узком смысле следует стационарность в широком смысле; обратное утверждение в общем случае неверно.
В корреляционной теории используются только две характеристики (математическое ожидание и корреляционная функция), и поэтому далее будем рассматривать случайные функции, стационарные в широком смысле, причем будем называть их просто стационарными.
Корреляционная функции стационарной случайной функции есть функция одного аргумента t=t2-t1
а ее дисперсия постоянна при всех значениях аргумента и равна значению корреляционной функции при t=0:
Среди стационарных случайных функций выделяют класс функций, для которых характерно свойство эргодичности, которое состоит в том, что все усредненные статистические характеристики одинаковы для всех сечений и все они эквивалентны статистическим характеристикам одной реализации, достаточно длинной по времени. Поэтому для эргодического случайного процесса среднее по множеству реализаций равно среднему по времени для любой достаточно длинной реализации.
Достаточное условие эргодичности случайной функции относительно математического ожидания состоит в том, что ее корреляционная функция Кx(t) при стремится к нулю:
Достаточное условие эргодичности стационарной случайной функции относительно корреляционной функции состоит в том, что корреляционная функция случайной функции
при стремится к нулю
Для эргодической случайной функции
Для двух стационарных случайных эргодических функций X(t) и Y(t)при двух любых реализациях x(t)и y(t)взаимная корреляционная функция
или
Дляэргодической случайной функции корреляционная функция приближенно вычисляется пo одной
Рис. 3
реализации достаточно большой длительности Тследующий образом (рис. 3). Интервал разбивается на большое количество N (N>>100) малых промежутков времени D, т.е. T = D×N. Корреляционную функцию вычисляют по формуле
При вычислении по этой формуле важно, чтобы величина N была больше т: чем больше N, тем точнее результат расчета.
Спектральное представление стационарной случайной функции
Как нами было показано в курсе "Основы теории управления", одними из важнейших характеристик САУ являются частотные характеристики, которые определяют поведение системы при гармонических воздействиях различной частоты. В связи с тем, что по известной частотной характеристике можно найти весовую переходную функцию w(t-t) и передаточную функцию W(p) системы, для исследования поведения САУ при случайных воздействиях очень полезным оказывается спектральное представление случайной функции.
Пусть случайная функция X(t)=U×sin wt + V×cos wt
где U и V' — две некоррелированные случайные величины, такие, что
M[U]=M[V]=0, D[U]=D[V]=d1
и, соответственно, Kuv=0.
Тогда из свойства математического ожидания и корреляционной функции, изложенных выше, имеем:
M[X(t)]=0
Kx[t1,t2]=d1×(cos wt1×coswt2 + sinwt1× sinwt2) = d1×cos w(t1-t2)
т. е. Х(t) является стационарной в широком смысле. Пусть случайная функция является суммой конечного числа слагаемых вида
X(t)=
Здесь случайные величины Ui и Viнекоррелированы, их математические ожидания равны нулю, а дисперсии величин с одинаковыми индексами равны между собой:
M[Ui]=M[Vi]=0, D[Ui]=D[Vi]=di
Очевидно, что X(t) — центрированная функция, т.е. М[Х(t)]=0, так как математические ожидания каждого слагаемого равны нулю
Преобразуем правую часть выражения:
X(t)=
Обозначив Vi/Ui = tg ji после преобразований получим
т. е. случайную функцию X(t) можно рассматривать как сумму гармоник различных частотсо случайными амплитудами и случайными фазами
Определим корреляционную функцию этой случайной функции:
Таким образом, если случайная функция X(t) может быть представлена в виде суммы гармоник различных частот со случайными амплитудами и случайными фазами, то X(t)—стационарная в широком смысле.
Спектральным разложением стационарной случайной функции называют представление этой функции в виде суммы гармонических колебаний различных частот со случайными амплитудами и фазами.
Определим дисперсию одной гармоники Xi(t), учитывая, что случайные величины Uiи Viнекоррелированы и дисперсии величин содинаковыми индексами равны между собой
Принимая во внимание, что слагаемые Xi(t) некоррелированы и, следовательно, дисперсия их суммы равна сумме дисперсий слагаемых, имеем
т.е. дисперсия стационарной случайной функции, которая может быть представлена в виде суммы конечного числагармоник с произвольными частотами, равна сумме дисперсий составляющих ее гармоник.
Дискретным спектром стационарной случайной функции вида
X(t)=
называют совокупность дисперсий всех оставляющих ее гармоник. Спектр можно изобразить графически: по оси абсцисс откладывают частоты, а по оси ординат – соответствующие дисперсии.
В общем случае произвольной стационарной случайной функции вводится понятие спектральной плотности. Спектральной плотностью стационарной случайной функции X(j) называется предел отношения дисперсии, приходящийся на данный интервал частот, к длине этого интервала, когда последняя стремится к нулю. Для вычисления спектральной плотности применяются математические методы, основанные на интегральном преобразовании Фурье.
Имеем для спектральной плотности реализации случайного процесса
следующее соотношение:
где XT(iw) —преобразование Фурье x(t). Спектральная плотность является вещественной функцией, значение которой для частоты w равно квадрату амплитуды соответствующей гармоники спектрального разложения реализации случайной функции.
Спектральная плотность Sx(w) и корреляционная функция Kx(t) связаны преобразованиями Фурье. В действительной форме они имеют вид
Из последнего соотношения вытекает, что
Физический смысл спектральной плотности можно уяснить на следующем примере. Пусть x(t) — электрический ток. Тогда, если он протекает по резистору, имеющему сопротивление 1 Ом, то выделенная средняя мощность будет равна M[x2(t)] = Dx. Эта мощность выделена во всем интервале частот от 0 до ¥. Поэтому спектральная плотность пропорциональна мощности, выделяемой на единичном сопротивлении в диапазоне частот от w до (w + Dw).
Аналогично вводится понятие взаимной спектральной плотности двух случайных функций. Взаимная корреляционная функция и взаимная спектральная плотность двух стационарных (эргодический) случайных функций Х(t) и Y(t) связаны прямым и обратным Фурье-преобразованиями:
На рис. 4 показаны спектральная плотность и корреляционная функция, двух стационарных случайных функций. Чем медленнее изменяется Kxy(t) тем
Рис. 4
быстрее изменяется Sxy(w), (кривые 2),чем быстрее меняется Kxy(t), тем медленнее меняется Sxy(w)(кривые 1).
В теории случайных функций используется понятие стационарного белого шума, которым называют стационарную случайную функцию, спектральная плотность которой постоянна Sx(w)=S0 = const. Корреляционная функция стационарного белого шума
Учитывая, что
имеем Kx(t) = 2pS0d(t), где d(t) – дельта-функция; коэффициент 2pS0 называют интенсивностью стационарного белого шума.
Так как дельта-функция при t¹0 равна нулю, то это означает некоррелированность любых двух сечении случайной функции. Так как реализовать белый шум невозможно (для этого нужна бесконечная мощность источника энергии), то белый шум является математической абстракцией, полезной для моделирования случайных процессов.
Как нам известно, стационарной линейной динамической системойназывают систему, которая описывается линейным дифференциальным уравнением с постоянными коэффициентами. Стационарные случайные воздействия х(t) вызывают стационарные случайные изменения выходной величины y(t) системы автоматического управления.
В общем случае случайное воздействие х(t) состоит из среднего значения mx(t) и центрированной случайной составляющей . Аналогично может быть представлена и выходная величина: . Для линейной системы справедлив принцип суперпозиции, поэтому каждая из двух составляющих х(t) и y(t) может быть определена отдельно.
Математические ожидания mx(t) my(t) являются неслучайными величинами и связаны через передаточную функцию системы: my(t) = W(s) mx(t)/
Для стационарной случайной функции х(t) значения mx(t) и my(t) являются постоянными величинами и связаны друг с другом уравнениями статики – my = W(0)mx
В дальнейшем мы будем рассматривать только центрированные составляющие случайных функций.
Сигнал на выходе линейной системы y(t) выражается через сигнал на входе х(t) и импульсную переходную функцию w(t) при помощи интеграла Дюамеля:
Если входной сигнал задан корреляционной функцией Кx(t), то корреляционную функцию выходной величины Кy(t) можно определить по формуле, которую мы приведем без вывода:
Пользоваться этой формулой не совсем удобно из-за необходимости двойного интегрирования. Поэтому для установившегося режима, вместо соотношений между корреляционными функциями (во временной области), целесообразно перейти к соотношениям между спектральными плотностями (в частотной области). Заменим, как мы это делали раньше, функции x(t) и y(t), которые в общем случае не имеют фурье-преобразования, на функции xT(t) и yT(t) , для которых существует фурье-преобразование:
и
При этом частотная функция системы W(iw) будет равна отношению фурье-преобразований входного и выходного сигналов. Распространив это положение и на предельные значения преобразований XT(iw), YT(iw), получим W(iw) = причем сопряженная величина частотной функции W(-iw) = .
Для определения спектральной плотности выходного сигнала воспользуемся формулой:
,
которую преобразуем следующим образом:
Таким образом,
т. е. спектральная плотность выходного сигнала линейной системы равна произведению спектральной плотности входного сигнала на квадрат модуля амплитудно-фазовой частотной характеристики линейной системы.
Дисперсия выходного сигнала Y будет равна
Аналогично из определения взаимной спектральной плотности . После умножения и деления на XT(iw):
и учитывая, что
получим
т. е. взаимная спектральная плотность входного и выходного сигналов линейной системы равна произведению спектральной плотности входного сигнала на амплитудно-частотную характеристику системы.
Пример. Определить спектральную плотность случайного сигнала при прохождении его через: а) идеальное дифференцирующее звено; б) идеальное интегрирующее звено.
Передаточная функция» дифференцирующего звена W(s) = s, oтсюда спектральная платность сигнала навыходе Sy(w) = Sx(w)×w2 .
Передаточная функция интегрирующего звена W(s) = 1/s. Тогда спектральная плотность сигнала на выходе интегрирующего звена Sy(w) = Sx(w)/w2 .
Мы видим, что использование понятия спектральной плотности очень удобно для исследовании стационарных случайных процессов.
В системах управлении часто используются нелинейные звенья, у которых зависимость выходной величины Y от входной величины X описывается нелинейной функцией Y=j( X).
В таком звене мгновенное значение Yв момент времени t определяется только мгновенным значением входной величины в тот же момент времени. Если Х(t)—случайная функция, то и Y является случайной функцией. Поэтому, зная вероятностное распределение величины X в некоторый момент времени, можно найти вероятностное распределение для Y.
Пусть F1(x) -—функция распределения случайной величины X и P1(x) —плотность распределения этой величины. Необходимо найти плотность распределения P2(y) и функцию распределения F2(y) этой случайной величины Y, связанной с X зависимостью Y=j( X). Пусть формула Y=j( X) задает однозначную монотонную прямую зависимость величины Y от X (чем больше X тем больше Y). Обозначим обратную зависимость X от Y :
X =j--1 (Y)
Тогда распределение величины Y
F2(y)=P(Y<y)=P[j(X)<y]=P[X<j-1(y)]=F(j-1(y))
Таким образом, F2(y)=F1(j-1(y)).
Дифференцируя это равенство по у как сложную функцию, получим выражение для плотности вероятности F2(y):
откуда
Рассмотрим, например, как преобразуется случайная функция квадратичным детектором, когда j(X) = аХ2, т. е. Y= аХ2. Предположи для простоты, что а=1. Тогда условие j(X)<y эквивалентно условиям , поэтому, полагая величину Р1(у) непрерывной, получим
При этом плотность P2{y) для у > 0 найдем дифференцированием:
Для у < 0 имеем F2(y) º 0.
Найдем среднее значение выходного сигнала mY нелинейного звена, а также среднеквадратическое значение , или дисперсию D величины Y. Имеем
Так как Y=j(X), то можно написать
Среднеквадратическое значение определяется по формуле
Для анализа работы САУ часто важно знать значение автокорреляционной функции КY(t), а также спектральной плотности SY(w) выходного сигнала. Предположим, что все случайные процессы стационарные и эргодические; поэтому среднее по множеству совпадает со средним по времени, т. е.
Однако для нелинейных звеньев в общем случае нельзя вычислить КY(t), зная лишь автокорреляционную функцию Кx(t) входного сигнала X; следовательно, нельзя найти и спектральную плотность SY(w) выходной величины.