Методы выделения тренда. Оценивание параметров трендовых моделей
Математическое выражение временной тенденции называется трендом. . Моделями трендов выступают элементарные (а иногда и не очень элементарные (по Светуне)) функции. Могут быть линейные, квадратичные, многочлен 3ей степени, степенная, показательная , тригонометрическая и др. Можно использовать синтез этих моделей.
Для построения прогнозных моделей необходимо найти коэффициент функции, выступающей как модель тренда.
Метод средних:
Поскольку для построения прямой линии необходимо иметь на плоскости только 2 точки, можно исходный ряд значений {Yt} разбить на 2 части, t=[1;T]
1) t=[1;T/2] и 2) t=[T/2+1;T]
Для каждой из частей рассчитывается среднее арифметическое: и . Теперь легко построить систему 2х уравнений с 2мя неизвестными:
, метод очень прост в использовании, коэф-т легко считается и необходимые рез-ты можно получить довольно быстро.
Если кол-во наблюдаемых яв-ся нечетным, то разделить ряд на 2 равные части не получится. Выбор способа разделения на 2 части становится субъективным. Задача построения наилучшей модели заключается в том, чтобы прямая линия прошла наилучшим образом через все точки, для этого необходимо конкретизировать понятие «наилучший образ».
Поскольку линия коэф-ов , получила различие , то появляется возможность по отклонениям подобрать модель с такими коэффициентами, чтобы модель была наилучшей с позиции некоторой ф-ии от . . Задание такого критерия приводит к простому решению, тогда сумма отклонений, положительных и отрицательных, наложатся и дадут 0.
МНК:
Мерой точности описания моделью реальных значений выступает ошибка аппроксимации. Применительно к линейному тренду это может быть записано так: . При известных значениях исходных переменных и t поведение ошибки аппроксимации определяется исключительными величинами двух коэф-ов и . . Модель должна наилучшим образом проходить через все множество точек, а не в отдельной точке, поэтому выбирая модель, необходимо говорить о некоторой сумме ошибок на этом множестве. Поскольку ошибки аппроксимации могут быть положительными и отрицательными, их простая сумма м.б. =0. Эту неправильность можно избежать, если возвести в квадрат каждую ошибку и суммировать их: . Поскольку каждая ошибка представляет собой ф-ию от коэф-ов модели, то и ∑ квадратов этих ошибок будет представлять собой ф-ию от этих коф-ов: . Геометрически это ф-ия показывает насколько в среднем для всех точек далеко от них стоит модель. Модель должна проходить через множество точек наиболее близко к ним: : . Ф-ия достигает своего мин (или макс), где 1ая произв =0. Необходимо вычислить частные производные и приравнять их к 0. В итоге получим:
– «система нормальных уравнений» МНК.
Применяя к стационарным процессам, система нормальных ур-ий дает оценки коэф-ов.
1) Состоятельные – по вер-ти сходятся к оцениваемому пар-ру при неограниченном увеличении объема выборки
2) Несмещенные, т.е. в них отсутствуют систематические отклонения от оцениваемого параметра
3) Эффективные – оценки, дающие минимальную дисперсию.
Для модифицированной гиперболы: :
, МНК легко применить ко всем аддитивным моделям.
В случае модели, в которой неизвестные коэф-ты представлены в мультипликативной форме, ситуация изменится. Рассмотрим прогнозную модель нелинейного тренда – экспоненту: .
Тогда . Частные производные = 0:
. Решить можно с помощью численных методов.
Задачу упрощают, сведя ее к линейному виду: . Процедура приведения нелинейной модели к линейному виду – «линеаризация». .
, .
Использование МНК приводит к тому, что полученные выборочные оценки будут являться состоятельными, несмещенными, эффективными. Но эти оценки характерны для линеаризованных моделей, а не для исходных моделей.
, и .
Несмещенность оценок МНК коэф-ов линеаризованной модели означает, что на рассматриваемом выборочном множестве сумма отклонений будет = 0. Поскольку , то получим: . Обозначим аддитивную ошибку: , то , и . Приравниваем друг к другу правые части равенства: . Отсюда .
, ⇒ . Знак ∑ определен в силу положительности прогнозируемых переменных !!! выражения: . S положит отклон-ий > отриц-х. . Модель яв-ся смещенной. Т.к. , то . Это означает, что модель в среднем пройдет ниже исход-х точек.
Вывод: линеаризация нелинейных моделей ухудшает аппроксимацию и прогнозные св-ва моделей.