Тема 2. линейная регрессионная модель

В статистическом анализе различают два типа регрессионных моделей: простую и множественную.

I. Парная (простая) регрессия

тема 2. линейная регрессионная модель - student2.ru (2.1)

где y – эндогенная, x – экзогенная и тема 2. линейная регрессионная модель - student2.ru – случайная «шоковая» переменная, a – неизвестный вектор параметров модели.

Под термином «шоковая» переменная в регрессии понимают не только случайные (переменные погрешности) модели, но и экзогенные (факторные) переменные, которые считаются несущественными (незначимыми) по степени влияния на эндогенную переменную. В инженерной литературе эта переменная называется шумом, чтобы отличить ее от понятия полезного сигнала модели, который формируют существенные экзогенные переменные.

По степени владения априорной информацией возникают различные задачи эконометрического анализа:

­ при неизвестной функции взаимосвязи тема 2. линейная регрессионная модель - student2.ru возникает задача подбора структуры (формы) модели, частными случаями которой являются модели с заданной функцией ( с точностью до неизвестных параметров a);

­ при заданной форме (функции тема 2. линейная регрессионная модель - student2.ru ) возникают задачи оценивания неизвестных параметров a, которые существенно облегчаются, если функция тема 2. линейная регрессионная модель - student2.ru – линейная по параметрам a. Следует заметить, что нелинейность функции по экзогенным переменным не осложняет процесс (выбор методов) оценивания параметров. Например, модель:

тема 2. линейная регрессионная модель - student2.ru

относится к классу линейных моделей по параметрам тема 2. линейная регрессионная модель - student2.ru и нелинейных относительно экзогенной переменной х;

­при недоступности точного измерения экзогенной переменной возникает задача оценивания условной регрессии, для решения которой применяются методы и свойства условного математического ожидания из теории вероятностей. Если же исследователю точно известны измерения переменной х, то используется аппарат «классической» регрессии для решения задачи определения формы и параметров модели.

В эконометрике наиболее подробно изучен частный случай простой линейной регрессии, в которой линейность означает пропорциональную зависимость y от x посредством неизвестных параметров:

тема 2. линейная регрессионная модель - student2.ru (2.2)

где a0 и a1 – неизвестные параметры модели.

Примером модели (2.2) является модель макроэкономики, отражающая закон А. Оукена об обратной зависимости темпа роста ВНП от темпа роста уровня безработицы [3]:

тема 2. линейная регрессионная модель - student2.ru

где тема 2. линейная регрессионная модель - student2.ru и тема 2. линейная регрессионная модель - student2.ru – абсолютные приросты объема ВНП тема 2. линейная регрессионная модель - student2.ru и уровня безработицы тема 2. линейная регрессионная модель - student2.ru за определенный период времени t. Оценки параметров по данным американской статистики составили: тема 2. линейная регрессионная модель - student2.ru

2. Модель множественной регрессии

тема 2. линейная регрессионная модель - student2.ru (2.3)

где описывается зависимость одной эндогенной переменной от m(m>1) экзогенных переменных. Например, производственная функция Кобба-Дугласа в логарифмической форме принадлежит классу моделей типа (2.3):

тема 2. линейная регрессионная модель - student2.ru

где Y, L, K – переменные, которые обозначают объем выпуска продукции, затрачиваемого труда и основных фондов соответственно; тема 2. линейная регрессионная модель - student2.ru – шоковая (возмущающая) переменная, отражающая влияние других факторов на выпуск Y.

Благодаря случайной переменной тема 2. линейная регрессионная модель - student2.ru , математически описываемой случайной величиной, эндогенная переменная тоже является случайной величиной, поэтому задача восстановления зависимости y от тема 2. линейная регрессионная модель - student2.ru может быть решена лишь при многократных наблюдениях этих переменных, полученных в различные моменты времени тема 2. линейная регрессионная модель - student2.ru . Результаты статистических наблюдений помещают в специальную таблицу исходных данных:


Номера наблюдений (t) Наблюдаемые переменные
Эндогенная yt Экзогенные
х1t хmt
y1 х11 хm1
y2 х12 хm2
тема 2. линейная регрессионная модель - student2.ru тема 2. линейная регрессионная модель - student2.ru тема 2. линейная регрессионная модель - student2.ru   тема 2. линейная регрессионная модель - student2.ru
Т yT х1T хmT

Выделяются две основные задачи регрессионного анализа:

1) Установление формы взаимосвязи между переменными y и тема 2. линейная регрессионная модель - student2.ru , т.е. подбор такой функции f, которая в определенном смысле оптимально характеризовала бы эту взаимосвязь.

2) Оценивание неизвестных параметров регрессионной модели, проверка гипотез об их значимости и адекватности модели анализируемому экономическому объекту.

I. Решение этих задач начнем с более простой задачи оценивания параметров простой линейной регрессии, которое без потери общности можно применить и к оценке параметров множественной линейной регрессии вида:

тема 2. линейная регрессионная модель - student2.ru ( тема 2. линейная регрессионная модель - student2.ru )

В статистической науке накоплен достаточно большой арсенал методов оценивания параметров регрессии, выбор которых зависит как от степени априорной информации, доступной исследователю, так и от критерия качества, согласно которому осуществляется оптимальный выбор оценок параметров. Наиболее часто используемыми методами оценивания являются:

¨ метод максимального правдоподобия (ММП), который строит оценки, доставляющие максимум функции правдоподобия, представляющий собой функцию распределения выборочных данных, которая предусматривает знание вида закона распределения переменных модели;

¨ байесовский метод оценивания, который максимизирует апостериорную плотность распределения вероятностей переменных модели и требует еще большей информации, чем предыдущий (ММП), состоящий в знании априорного распределения вероятностей неизвестных параметров;

¨ метод моментов, который находит оценки из решения системы уравнений, составленных приравниванием выборочных и теоретических начальных моментов;

¨ метод наименьших квадратов, который минимизирует сумму квадратов отклонений реальных наблюдений за эндогенной переменной от ее значения, рассчитанных по модели.

В последнее время интенсивно развиваются робастные и непараметрические методы оценивания параметров, которые существенно уменьшают требования к наличию априорной информации о виде распределения выборочных данных и к отсутствию выбросов (аномальных наблюдений).

Основным методом решения второй задачи в эконометрике является метод наименьших квадратов (МНК), который позволяет находить оценки, обеспечивающие максимальную точность (минимальную дисперсию) в классе несмещенных и линейно связанных с наблюдениями y оценками:

тема 2. линейная регрессионная модель - student2.ru (2.4)

где тема 2. линейная регрессионная модель - student2.ru – подстановочное значение эндогенной переменной от включения оценок неизвестных параметров тема 2. линейная регрессионная модель - student2.ru :

тема 2. линейная регрессионная модель - student2.ru

Тогда критерием качества оценивания по МНК будет сумма квадратов наблюдаемых отклонений реально зарегистрированных тема 2. линейная регрессионная модель - student2.ru и подстановочных значений тема 2. линейная регрессионная модель - student2.ru , обозначаемых символом тема 2. линейная регрессионная модель - student2.ru . Этот переход делает задачу оценивания реализуемой, т.к. значения случайной переменной тема 2. линейная регрессионная модель - student2.ru – не наблюдаемые в процессе регистрации статистических данных регрессионной модели – не могут участвовать в формировании критерия качества оценивания.

Однако метод наименьших квадратов обеспечивает оптимальные свойства МНК-оценкам лишь при выполнении следующих классических модельных предположений.

П.1. Отсутствие систематических ошибок наблюдений уравнения регрессии:

тема 2. линейная регрессионная модель - student2.ru

Другими словами, при операции усреднения переменных моделей, влияние случайной переменной исчезает.

П.2. Наблюдения организованы так, что случайные ошибки не коррелированны между собой:

тема 2. линейная регрессионная модель - student2.ru тема 2. линейная регрессионная модель - student2.ru

П.3. Наблюдения производятся с одинаковой точностью, т.е. дисперсии случайных переменных одинаковы во все моменты измерения:

тема 2. линейная регрессионная модель - student2.ru

Предположение П.3 носит название гомоскедастичности.

П.4. Экзогенные переменные измеряются без ошибок, и в случае модели множественной регрессии их значения, полученные на протяжении всех моментов наблюдения, образуют линейно-независимые векторы.

П.5. Закон распределения вероятностей случайной переменной принадлежит к классу нормальных распределений с нулевым математическим ожиданием и дисперсией тема 2. линейная регрессионная модель - student2.ru которая чаще всего неизвестна.

В рамках перечисленных модельных предположений решение задачи (2.4) может быть найдено как решение системы нормальных уравнений, которая для модели простой линейной регрессии имеет вид:

тема 2. линейная регрессионная модель - student2.ru (2.5)

Нетрудно получить решение системы (2.5) в явном виде:

тема 2. линейная регрессионная модель - student2.ru (2.6)

где тема 2. линейная регрессионная модель - student2.ru

Дадим геометрическую иллюстрацию оценки параметров, приводящей к восстановлению взаимосвязи между тема 2. линейная регрессионная модель - student2.ru и тема 2. линейная регрессионная модель - student2.ru по МНК:

тема 2. линейная регрессионная модель - student2.ru

тема 2. линейная регрессионная модель - student2.ru

Рис. 3

На рис.3 показано, что прямая восстановленной по МНК зависимости y от x проходит через «центр тяжести» тема 2. линейная регрессионная модель - student2.ru множества обрабатываемых пар данных тема 2. линейная регрессионная модель - student2.ru . Причем, оценка тема 2. линейная регрессионная модель - student2.ru определяет отрезок, отсекаемый прямой тема 2. линейная регрессионная модель - student2.ru от оси ординат, а оценка тема 2. линейная регрессионная модель - student2.ru представляет собой тангенс угла наклона прямой тема 2. линейная регрессионная модель - student2.ru с осью абсцисс.

Перечислим важные свойства параметров простой линейной регрессии (ПЛР), полученных по МНК.

Свойство 1. Оценки параметров тема 2. линейная регрессионная модель - student2.ru и тема 2. линейная регрессионная модель - student2.ru имеют нормальные вероятностные законы распределения и обладают свойством несмещенности.

Для доказательства свойства 1 представим (без потери общности) модель ПЛР в центрированном относительно переменной x виде, с этой целью введем преобразование тема 2. линейная регрессионная модель - student2.ru , тогда

тема 2. линейная регрессионная модель - student2.ru

Тогда оценки (2.6) примут вид:

тема 2. линейная регрессионная модель - student2.ru (2.7)

Заметим, что

тема 2. линейная регрессионная модель - student2.ru

Вследствие того, что тема 2. линейная регрессионная модель - student2.ru получим:

тема 2. линейная регрессионная модель - student2.ru (2.8)

и (после усреднения оператором математического ожидания) окончательно будем иметь:

тема 2. линейная регрессионная модель - student2.ru (2.9)

Соотношение (2.9) указывает на несмещенность тема 2. линейная регрессионная модель - student2.ru

Вычислим дисперсию этой оценки:

тема 2. линейная регрессионная модель - student2.ru

Окончательно учитывая аддитивность нормального распределения и связь (2.8) между случайными величинами тема 2. линейная регрессионная модель - student2.ru и тема 2. линейная регрессионная модель - student2.ru , замечаем, что оценки тема 2. линейная регрессионная модель - student2.ru имеют нормальный закон распределения вероятностей со средним тема 2. линейная регрессионная модель - student2.ru , дисперсией тема 2. линейная регрессионная модель - student2.ru . Однако на практике дисперсия случайной переменной тема 2. линейная регрессионная модель - student2.ruтема 2. линейная регрессионная модель - student2.ru обычно неизвестна и ее заменяют несмещенной оценкой вида (величину s именуют SEE):

тема 2. линейная регрессионная модель - student2.ru (2.10)

С учетом формулы (2.10) нетрудно определить доверительный интервал параметра тема 2. линейная регрессионная модель - student2.ru на основании известного из теории вероятностей факта, что величина тема 2. линейная регрессионная модель - student2.ru следует закону распределения Стьюдента с параметром Т–2, который соответствует числу степеней свободы, содержащемуся в исходных данных. В нашем случае (ПЛР) исходные данные связаны двумя параметрическими зависимостями, поэтому независимых данных насчитывается Т–2. Тогда, задавая доверительную вероятность тема 2. линейная регрессионная модель - student2.ru и определяя по таблицам закона Стьюдента квантиль тема 2. линейная регрессионная модель - student2.ru из условия тема 2. линейная регрессионная модель - student2.ru получим доверительный интервал для параметра тема 2. линейная регрессионная модель - student2.ru :

тема 2. линейная регрессионная модель - student2.ru (2.11)

Проведем анализ вероятностных свойств оценки параметра тема 2. линейная регрессионная модель - student2.ru

тема 2. линейная регрессионная модель - student2.ru

Отсюда

тема 2. линейная регрессионная модель - student2.ru (2.12)

Подвергая равенство (2.12) оператору усреднения, получим:

тема 2. линейная регрессионная модель - student2.ru

что подтверждает несмещенность оценки тема 2. линейная регрессионная модель - student2.ru .

Вычисляя дисперсию оценки тема 2. линейная регрессионная модель - student2.ru , будем иметь:

тема 2. линейная регрессионная модель - student2.ru тема 2. линейная регрессионная модель - student2.ru .

Тогда можно сделать вывод о нормальности вероятностного распределения оценки тема 2. линейная регрессионная модель - student2.ru со средним тема 2. линейная регрессионная модель - student2.ru и дисперсией тема 2. линейная регрессионная модель - student2.ru

Доверительный интервал для параметра тема 2. линейная регрессионная модель - student2.ru с надежностью тема 2. линейная регрессионная модель - student2.ru при неизвестной дисперсии тема 2. линейная регрессионная модель - student2.ru имеет вид:

тема 2. линейная регрессионная модель - student2.ru .

Свойство 2. Фундаментальное свойство МНК формулируется в виде теоремы Гаусса-Маркова, отмечающей высокую степень близости МНК-оценок к искомым параметрам.

Наши рекомендации