Парная регрессия и метод наименьших квадратов

Будем предполагать в рамках модели (2.2) линейную зависимость между двумя переменными Y и X. Т.е. имеем модель парной регрессии в виде:

Yi =a+bXi+ui, i=1,…,n.

а. Eui=0, i=1,…,n.

б. Парная регрессия и метод наименьших квадратов - student2.ru

в. X1, …, Xn – неслучайные величины.

Предположим, что имеется выборка значений Y и X.

Обозначим арифметические средние (выборочные математические ожидания) для переменных X и Y:

Парная регрессия и метод наименьших квадратов - student2.ru .

Запишем уравнение оцениваемой линии в виде:

Парная регрессия и метод наименьших квадратов - student2.ru , (2.6)

где Парная регрессия и метод наименьших квадратов - student2.ru и Парная регрессия и метод наименьших квадратов - student2.ru - оценки неизвестных параметров a и b, а Парная регрессия и метод наименьших квадратов - student2.ru - ордината этой линии.

Пусть (Xi, Yi) одна из пар наблюдений. Тогда отклонение этой точки (см. рис. 2.1) от оцениваемой линии будет равно ei=Yi - Парная регрессия и метод наименьших квадратов - student2.ru .

Принцип метода наименьших квадратов (МНК) заключается в выборе таких оценок Парная регрессия и метод наименьших квадратов - student2.ru и Парная регрессия и метод наименьших квадратов - student2.ru , для которых сумма квадратов отклонений для всех точек становится минимальной.

Парная регрессия и метод наименьших квадратов - student2.ru Y

Парная регрессия и метод наименьших квадратов - student2.ru Парная регрессия и метод наименьших квадратов - student2.ru

Парная регрессия и метод наименьших квадратов - student2.ru
Парная регрессия и метод наименьших квадратов - student2.ru

       
   
Парная регрессия и метод наименьших квадратов - student2.ru
 
  Парная регрессия и метод наименьших квадратов - student2.ru

X

Рис. 2.1. Иллюстрация принципа МНК

Необходимым условием для этого служит обращение в нуль частных производных функционала:

Парная регрессия и метод наименьших квадратов - student2.ru

по каждому из параметров. Имеем:

Парная регрессия и метод наименьших квадратов - student2.ru

Упростив последние равенства, получим стандартную форму нормальных уравнений, решение которых дает искомые оценки параметров:

Парная регрессия и метод наименьших квадратов - student2.ru (2.7)

Из (2.7) получаем:

Парная регрессия и метод наименьших квадратов - student2.ru (2.8)

Пример. Для иллюстрации вычислений при отыскании зависимости с помощью метода наименьших квадратов рассмотрим пример (табл. 2.1).

Таблица 2.1

Индивидуальное потребление и личные доходы (США, 1954-1965 гг.)

Год Индивидуальное потребление, млрд. долл. Личные доходы, млрд. долл.

Заметим, что исходные данные должны быть выражены величинами примерно одного порядка. Вычисления удобно организовать, как показано в таблице 2.2. Сначала рассчитываются Парная регрессия и метод наименьших квадратов - student2.ru , затем xi, yi. Результаты заносятся в столбцы 3 и 4. Далее определяются xi2, xiyi и заносятся в 5 и 6 столбцы таблицы 2.2. По формулам (2.8) получим искомые значения параметров Парная регрессия и метод наименьших квадратов - student2.ru =43145/46510=0,9276; Парная регрессия и метод наименьших квадратов - student2.ru =321,75-0,9276.350=-2,91.

Оцененное уравнение регрессии запишется в виде Парная регрессия и метод наименьших квадратов - student2.ru =-2,91+0,9276X.

Следующая важная проблема состоит в том, чтобы определить, насколько "хороши" полученные оценки и уравнение регрессии. Этот вопрос рассматривается по следующим стадиям исследования: квалифицирование (выяснение условий применимости результатов), определение качества оценок, проверка выполнения допущений метода наименьших квадратов.

Относительно квалифицирования уравнения Парная регрессия и метод наименьших квадратов - student2.ru =-2,91+0,9276X. Оно выражает, конечно, достаточно сильное утверждение. Применять это уравнение для прогнозирования следует очень осторожно. Дело в том, что, даже отвлекаясь от многих факторов, влияющих на потребление, и от систематического изменения дохода по мере варьирования потребления, мы не располагаем достаточно представительной выборкой.

Таблица 2.2

Рабочая таблица расчетов (по данным табл. 2.1)

Год X Y x y x2 xy Парная регрессия и метод наименьших квадратов - student2.ru ei
-93 -85,75 7974,75 235,48 0,52
-75 -67,75 5081,25 252,18 1,82
-57 -54,75 3120,75 268,88 -1,88
-41 -40,75 1670,75 283,72 -2,72
-31 -31,75 984,25 292,99 -2,99
-13 -10,75 139,75 309,69 1,31
3,25 321,75 3,25
13,25 185,5 334,74 0,26
33,25 1163,75 354,22 0,78
53,25 2928,75 372,77 2,23
79,25 6894,75 402,45 -1,45
109,25 13000,75 432,13 -1,13
å Парная регрессия и метод наименьших квадратов - student2.ru =350,00 Парная регрессия и метод наименьших квадратов - student2.ru =321,75 0,00 Парная регрессия и метод наименьших квадратов - student2.ru =321,75 0,00

Полученное уравнение Парная регрессия и метод наименьших квадратов - student2.ru =-2,91+0,9276X можно использовать для расчета точечного прогноза, в том числе и на ретроспективу. Подставляя последовательно значения X из второго столбца табл. 2.2 в уравнение Парная регрессия и метод наименьших квадратов - student2.ru =-2,91+0,9276X, получим предпоследний столбец табл. 2.2 для прогнозных значений Парная регрессия и метод наименьших квадратов - student2.ru . Ошибка прогноза вычисляется по формуле ei=Yi - Парная регрессия и метод наименьших квадратов - student2.ru и дана в последнем столбце рабочей таблицы.

Заметим, что ошибка прогноза ei фактически является оценкой значений ui. График ошибки ei представлен на рис. 2.2. Следует отметить факт равенства нулю суммы Sei=0, что согласуется с первым ограничением модели парной регрессии - Eui=0, i=1,…,n. Ñ

Парная регрессия и метод наименьших квадратов - student2.ru

Рис. 2.2. График ошибки прогноза

В модели (2.2) функция f может быть и нелинейной. Причем выделяют два класса нелинейных регрессий:

q регрессии, нелинейные относительно включенной объясняющей переменной, но линейные по параметрам, например полиномы разных степеней - Yi =a0 + a1Xi + a2Xi2+ ui, i=1,…,n или гипербола - Yi =a0 + a1/Xi + ui, i=1,…,n;

q регрессии нелинейные по оцениваемым параметрам, например степенная функция - Yi =a0 Парная регрессия и метод наименьших квадратов - student2.ru ui, i=1,…,n, или показательная функция - Yi = Парная регрессия и метод наименьших квадратов - student2.ru , i=1,…,n.

В первом случае МНК применяется так же, как и в линейной регрессии, поскольку после замены, например, в квадратичной параболе Yi =a0 + a1Xi + a2Xi2+ ui переменной Xi2 на X1i: Xi2=X1i, получаем линейное уравнение регрессии Yi =a0 + a1Xi + a2X1i+ ui, i=1,…,n.

Во втором случае в зависимости от вида функции возможно применение линеаризующих преобразований, приводящих функцию к виду линейной. Например, для степенной функции Yi =a0 Парная регрессия и метод наименьших квадратов - student2.ru ui после логарифмирования получаем Парная регрессия и метод наименьших квадратов - student2.ru линейную функцию в логарифмах и применяем МНК.

Однако для, например, модели Yi =a0+a2 Парная регрессия и метод наименьших квадратов - student2.ru +ui линеаризующее преобразование отсутствует, и приходится применять другие способы оценивания (например, нелинейный МНК).

Наши рекомендации