Оценка параметров классической регрессионной модели методом наименьших квадратов.

Данные, используемые в корреляционно-регрессионном анализе, рассматриваются как выборочные, неполные. Поэтому количественные характеристики связи между показателями, полученные на основе этих данных, также являются выборочными, т. е. содержащими некую ошибку, отличающимися от объективно существующих, но неизвестных «подлинных» характеристик.

Параметры уравнения регрессии, найденные на основе имеющихся у исследователя данных, называют оценками параметров, подчеркивая то, что они рассчитаны по выборочным данным. Оценки параметров могут меняться от выборки к выборке, поэтому они рассматриваются как случайные величины.

Так как найденные параметры являются лишь выборочными оценками неизвестных параметров по генеральной совокупности, то возникает вопрос об их качестве. Считается, что оценками параметров можно пользоваться для дальнейшего анализа и прогноза, если эти оценки являются несмещенными, эффективными и состоятельными.

Оценка параметра является несмещенной, если её математическое ожидание равно оцениваемому параметру или математическое ожидание остатков равно нулю.

Оценка параметра является эффективной, если она имеет наименьшую дисперсию среди всех возможных несмещенных оценок данного параметра по выборкам одного и того же объема.

Оценка параметра является состоятельной, если с увеличением числа наблюдений оценка параметра стремится к его значению в генеральной совокупности, т.е. точность оценок выборки увеличивается с увеличением объема выборки.

Наиболее простым методом, применяющимся для оценки параметров множественной регрессии, является метод наименьших, квадратов (МНК).

Для оценки вектора неизвестных параметров Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru применим метод наименьших квадратов. Как и в случае регрессионного уравнения с одной переменной целью метода является выбор вектора оценок Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , минимизирующего сумму квадратов остатков Ei (т.е. квадрат длины вектора остатков E):

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

Оценка метода наименьших квадратов:

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru (4)

Теорема Гаусса-Маркова.

Предположим, что:

1. Y=XB+E;

2. X – детерминированная матрица, имеет максимальный ранг k+1

3. М(ε)=0; V(ε)=М(εεT)=σ2In.

Тогда оценка метода наименьших квадратов Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru является наиболее эффективной (в смысле наименьшей дисперсии) оценкой в классе линейных (по y) несмещенных оценок.

1.3 Анализ вариации зависимой переменной в регрессии. Коэффициенты R2 и скорректированный Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

Для регрессионной модели известны следующие величины дисперсий:

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru где Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru – значение зависимой переменной по исходным данным, Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru - значение зависимой переменной, вычисленное по регрессионной модели, Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru - среднее значение зависимой переменной, определенное по исходным статистическим данным. Для указанных дисперсий справедливо равенство

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

Как и в случае регрессионной модели с одной независимой переменной, вариацию Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru можно разбить на две части: объясненную регрессионным уравнением и необъясненную ( т.е. связанную с ошибками ε).

Поэтому верно равенство

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru (7)

Записывая (7) в отклонениях Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru получим теорему Пифагора:

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru (8)

Определим коэффициент детерминации Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru как

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

Отметим, что коэффициент R2 корректно определен только в том случае, если константа, т.е. вектор Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , принадлежит линейной оболочке векторов Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru . В этом случае R2 принимает значения из интервала [0,1].

Коэффициент R2 показывает качество подгонки регрессионной модели к наблюдаемым значениям yt.

Если R2=0, то регрессия Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru на Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru не улучшает качество предсказания yt по сравнению с тривиальным предсказанием Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

Другой крайний случай R2=1 означает точную подгонку: все et=0, т.е. все точки наблюдений удовлетворяют уравнению регрессии.

Пример другого обозначения: Для модели регрессии вида Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , где Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , рассчитаны дисперсии Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , тогда величина коэффициента детерминации рассчитывается по формуле Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru или Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

В какой степени допустимо использовать критерий R2 для выбора между несколькими регрессионными уравнениями? Следующие два замечания побуждают не полагаться только на значение R2.

1. R2, вообще говоря, возрастает при добавлении еще одного регрессора.

2. R2 изменяется даже при простейшем преобразовании зависимой переменной, поэтому сравнивать по значению R2 можно только регрессии с одинаковыми зависимыми переменными.

Если взять число регрессоров равным числу наблюдений, всегда можно добиться того, что R2=1, но это вовсе не будет означать наличие содержательной (имеющей экономический смысл) зависимости у от регрессоров.

Попыткой устранить эффект, связанный с ростом R2 при возрастании числа регрессоров, является коррекция R2 на число регрессоров.

Скорректированным (adjusted) R2 называется

Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

Заметим, что нет никакого существенного оправдания именно такого способа коррекции.

Свойства скорректированного R2:

1. Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

2. Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru

3. Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru но может принимать значения < 0.

В определенной степени использование скорректированного коэффициента детерминации Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru , более корректно для сравнения регрессий при изменении количества регрессоров.

Скорректированный коэффициент детерминации применяется для оценки реальной тесноты связи между результатом и факторами и сравнения моделей с разным числом параметров.

В классической множественной линейной регрессии абсолютным показателем силы связи результата с фактором Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru является коэффициент Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru при соответствующем факторе.

Коэффициенты Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru линейной модели множественной регрессии называют коэффициентами условно-чистой регрессии. Они показывают на сколько единиц в среднем изменится результат при изменении фактора Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru на 1 при фиксированном уровне других факторов, включенных в модель.

В классической множественной линейной регрессии относительным показателем силы связи результата с фактором Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru является коэффициент эластичности

Коэффициенты эластичности показывают на сколько процентов в среднем изменится результат при изменении фактора Оценка параметров классической регрессионной модели методом наименьших квадратов. - student2.ru на 1% и значениях других факторов, фиксированных на средних уровнях.

В множественной регрессии показателями тесноты связи являются: коэффициент множественной корреляции и коэффициент множественной детерминации.

Проверка гипотез.

Наши рекомендации