Методы устранения автокорреляции
Основными причинами наличия случайного члена в модели являются несовершенные знания о причинах и взаимосвязях, определяющих то или иное значение зависимой переменной. Поэтому свойства случайных отклонений, в том числе и автокорреляция, в первую очередь зависят от выбора формулы зависимости и состава объясняющих переменных. Так как автокорреляция чаще всего вызывается неправильной спецификацией модели, то необходимо прежде всего скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой объясняющей переменной. Следует попытаться определить данный фактор и учесть его в уравнении регрессии. Также можно попробовать изменить форму зависимости (например, линейную на лог-линейную, линейную на гиперболическую и т.д.).
Однако если все разумные процедуры изменения спецификации модели, на ваш взгляд, исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда . В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).
Для простоты изложения AR(1) рассмотрим модель парной линейной регрессии:
(5.1)
Тогда наблюдениям и соответствуют формулы:
(5.2)
(5.3)
Пусть случайные отклонения подвержены воздействию авторегрессии первого порядка:
(5.4)
где , – случайные отклонения, удовлетворяющие всем предпосылкам МНК, а коэффициент известен.
Вычтем из (5.2) соотношение (5.3), умноженное на :
Примем , , , и с учетом (5.4) получим:
(5.6)
Так как по предположению коэффициент известен, то, очевидно, , , вычисляются достаточно просто.
Однако способ вычисления и приводит к потере первого наблюдения. Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых выборках может привести к потере эффективности. Эта проблема обычно преодолевается с помощью поправки Прайса-Винстена:
(5.7)
Рассмотренное авторегрессионное преобразование может быть обобщено на произвольное число объясняющих переменных, т.е. использовано для уравнения множественной регрессии.
На практике значение коэффициента обычно неизвестно и его необходимо оценивать. Существует несколько методов оценивания. Рассмотрим наиболее употребляемые.
1. Определение на основе статистики Дарбина-Уотсона
Статистика Дарбина-Уотсона тесно связана с коэффициентом корреляции между соседними отклонениями через соотношение:
(5.8)
Тогда в качестве оценки коэффициента может быть взят коэффициент . Из (5.8) имеем:
(5.9)
Этот метод оценивания рекомендуется применять при большом числе наблюдений. В этом случае оценка параметра будет достаточно точной.
Метод Хилдрета-Лу
По данному методу регрессия (5.5) оценивается для каждого возможного значения из отрезка [-1;1] с любым шагом (например, 0,001; 0,01 и т.д.). Величина , дающая наименьшую стандартную ошибку регрессии, принимается в качестве оценки коэффициента . И значения и оцениваются из уравнения регрессии (5.5) именно с данным значением .