Модель многомерной (векторной) регрессии

Многомерный процесс РDj может представляться моделью многомерной (векторной) авторегрессии (векторная AR-модель) [1, 15, 32, 67]:

Модель многомерной (векторной) регрессии - student2.ru , (3.28)

где Модель многомерной (векторной) регрессии - student2.ru – n-мерные векторы реализации процесса Модель многомерной (векторной) регрессии - student2.ru для момента времени Модель многомерной (векторной) регрессии - student2.ru ; g – порядок векторной авторегрессии; Модель многомерной (векторной) регрессии - student2.ru – квадратная матрица коэффициентов авторегрессии размером n на n; Модель многомерной (векторной) регрессии - student2.ru – n-мерный центрированный случайный вектор погрешности (“белый шум”):

Модель многомерной (векторной) регрессии - student2.ru ; Модель многомерной (векторной) регрессии - student2.ru Модель многомерной (векторной) регрессии - student2.ru

Для учета воздействия внешних факторов на координаты n-мерного вектора Модель многомерной (векторной) регрессии - student2.ru в модели (3.28) вводят дополнительно регрессионные составляющие (векторная ARX-модель) [1, 4, 14, 15]:

Модель многомерной (векторной) регрессии - student2.ru , (3.29)

где Модель многомерной (векторной) регрессии - student2.ru – матрица коэффициентов регрессии размером n на l ; Модель многомерной (векторной) регрессии - student2.ru – l-мерный вектор значений внешних влияющих факторов в(j-i) момент времени; q – порядок векторной регрессии.

Выражение (3.29) можно записать в блочно-матричном виде и затем упростить его запись:

Модель многомерной (векторной) регрессии - student2.ru

Модель многомерной (векторной) регрессии - student2.ru . (3.30)

Выбор метода оценки блочной матрицы параметров Модель многомерной (векторной) регрессии - student2.ru модели (3.30) (метода идентификации) в значительной мере определяется имеющейся априорной информацией о моделируемом процессе работы радиоэлектронной системы и влияющих на него факторов. В настоящее время наиболее широко используются следующие методы оценки параметров модели многомерной регрессии [5, 9, 14, 15]:

- метод байесовских оценок параметров, который применяется, когда априори известно многомерное вероятностное описание Модель многомерной (векторной) регрессии - student2.ru и Модель многомерной (векторной) регрессии - student2.ru в виде априорного распределения вероятностей Модель многомерной (векторной) регрессии - student2.ru , семейства условных распределений Модель многомерной (векторной) регрессии - student2.ru ;

- метод максимального правдоподобия, который используется, если отсутствует информация о плотности вероятностей Модель многомерной (векторной) регрессии - student2.ru , а априори известна лишь условная плотность Модель многомерной (векторной) регрессии - student2.ru ;

- метод наименьших квадратов, который не требует никакой дополнительной априорной информации о процессе, кроме непосредственно выборок реализаций самого процесса и влияющих факторов.

Сущность метода байесовских оценок определяется формулой [9, 14, 15]:

Модель многомерной (векторной) регрессии - student2.ru ,

где Модель многомерной (векторной) регрессии - student2.ru – безусловная плотность распределения вероятностей наблюдений Модель многомерной (векторной) регрессии - student2.ru . Таким образом, вычисляют апостериорную многомерную плотность условного распределения вероятностей Модель многомерной (векторной) регрессии - student2.ru параметров Модель многомерной (векторной) регрессии - student2.ru относительно результатов наблюдения процесса Модель многомерной (векторной) регрессии - student2.ru . Далее определяют наиболее вероятные значения параметров Модель многомерной (векторной) регрессии - student2.ru , например, по формуле

Модель многомерной (векторной) регрессии - student2.ru ,

которые и рассматривают как найденные параметры модели. По мере прихода новой информации уточняются априорные плотности вероятности и, следовательно, уточняются параметры модели.

Байесовский подход используют при прогнозировании тридцатиминутной заявленной мощности предприятий [7]. Он позволяет учесть как результат прогнозирования, получаемый с помощью современных математических методов, так и субъективную информацию специалиста, определяющую «степень веры» в полученный результат относительно параметров модели Модель многомерной (векторной) регрессии - student2.ru . Большая уверенность в величине Модель многомерной (векторной) регрессии - student2.ru ведет к выбору распределения Модель многомерной (векторной) регрессии - student2.ru с меньшей дисперсией, иначе – с большей.

В методе максимального правдоподобия неизвестную величину Модель многомерной (векторной) регрессии - student2.ru заменяют постоянной величиной, тем самым, считая, что любое значение параметров Модель многомерной (векторной) регрессии - student2.ru равновероятное. В результате формулы метода Байеса преобразуются к виду [9, 14, 15]:

Модель многомерной (векторной) регрессии - student2.ru .

Таким образом, для отыскания наилучшей оценки Модель многомерной (векторной) регрессии - student2.ru параметров модели Модель многомерной (векторной) регрессии - student2.ru максимизируется условная плотность вероятностей Модель многомерной (векторной) регрессии - student2.ru , что равнозначно минимизации в силу монотонности логарифмической функции критерия качества

Модель многомерной (векторной) регрессии - student2.ru .

Оптимальная оценка Модель многомерной (векторной) регрессии - student2.ru при этом определяется как решение уравнения

Модель многомерной (векторной) регрессии - student2.ru .

Логарифм Модель многомерной (векторной) регрессии - student2.ru от апостериорной плотности вероятностей называют функцией правдоподобия, а последнее уравнение называют уравнением правдоподобия.

Основным недостатком методов байесовских оценок и максимального правдоподобия является необходимость получения и использования сложных условных многомерных плотностей вероятности Модель многомерной (векторной) регрессии - student2.ru , которые трудно получить и сложно использовать. Эти подходы используют в случае одномерных моделей, типа временных рядов, когда плотности вероятностей преобразуются в одномерные и набор оцениваемых параметров Модель многомерной (векторной) регрессии - student2.ru модели преобразуется из матрицы в вектор.

Метод наименьших квадратов не требует априорной информации о плотностях распределения параметров Модель многомерной (векторной) регрессии - student2.ru и моделируемого процесса Модель многомерной (векторной) регрессии - student2.ru , а определение параметров модели осуществляется на основе минимизации критерия качества

Модель многомерной (векторной) регрессии - student2.ru ,

где M[…] – знак среднего значения (математического ожидания) по переменной j; Модель многомерной (векторной) регрессии - student2.ru – евклидова норма вектора; Модель многомерной (векторной) регрессии - student2.ru – разность действительного и прогнозного значения процесса, полученного с помощью модели.

В векторной форме рассмотренный критерий качества записывают как положительно определенную квадратичную форму:

Модель многомерной (векторной) регрессии - student2.ru ,

где Модель многомерной (векторной) регрессии - student2.ru – положительно определенная весовая матрица, зачастую в качестве Модель многомерной (векторной) регрессии - student2.ru используют матрицу Модель многомерной (векторной) регрессии - student2.ru , где Модель многомерной (векторной) регрессии - student2.ru – корреляционная матрица помехи Модель многомерной (векторной) регрессии - student2.ru .

Можно показать [1, 9], что минимум критерия обеспечивается, когда параметры Модель многомерной (векторной) регрессии - student2.ru определяются выражением

Модель многомерной (векторной) регрессии - student2.ru . (3.31)

Если при этом Модель многомерной (векторной) регрессии - student2.ru , то оценку параметров называют марковской [9, 15].

Модель векторной регрессии в полной мере реализует концепцию многомерного моделирования электропотребления. В общем случае моделирование многомерных процессов электропотребления осуществляют так [1, 12]: выделяют многомерную детерминированную изменяющуюся составляющую (тренд) РSj и многомерный ряд случайных остатков РDj из общего многомерного процесса Pj. Многомерный ряд случайных остатков РDj моделируют с использованием методов многомерной векторной регрессии [12, 15, 32]. Однако следует отметить особенности, сильно затрудняющие использование векторной регрессии.

Рассмотренный метод (3.31) определения параметров модели (3.29), (3.30) на основе МНК в общем случае подразумевает решение следующих вопросов: оценка порядков регрессионной g и авторегрессионной q частей модели (3.29), используя предысторию изменения процесса; оценка параметров модели и как элементов матриц Аi, Bi или φ. Порядки модели g и q определяются, например, путем последовательных испытаний моделей с возрастающим порядком [1, 15, 64], при этом на каждом испытании определяются соответствующие матрицы коэффициентов Аi и Bi. Оценивание же параметров модели Аi и Bi связано, как правило, с решением плохо обусловленных систем линейных уравнений, что требует специальных процедур идентификации и ведет к значительному усложнению расчетов [1, 15], применение классических процедур идентификации [26] при этом затруднено. Последнее обстоятельство зачастую связано с мультиколлинеарностью исходных данных, используемых при построении модели векторной регрессии.

При идентификации авторегрессионной составляющей модели необходимо выполнение условия стационарности описываемого многомерного процесса Модель многомерной (векторной) регрессии - student2.ru , что не всегда возможно достичь. Использование конечных разностей (как в ARIMA-модели) для многомерного процесса также затруднено и не исследовано.

Кроме того, при вычислении матриц коэффициентов Аi и Bi необходимо использование блочных матриц достаточно больших размеров, что в свою очередь также сказывается на времени идентификации и ведет к увеличению ошибок округления, а следовательно, и ошибки идентификации [1, 80].

Наши рекомендации