МНК в случае линейной модели

Пусть регрессионная зависимость является линейной:

МНК в случае линейной модели - student2.ru

Пусть y — вектор-столбец наблюдений объясняемой переменной, а МНК в случае линейной модели - student2.ru — это МНК в случае линейной модели - student2.ru -матрица наблюдений факторов (строки матрицы — векторы значений факторов в данном наблюдении, по столбцам — вектор значений данного фактора во всех наблюдениях). Матричное представление линейной модели имеет вид:

МНК в случае линейной модели - student2.ru

Тогда вектор оценок объясняемой переменной и вектор остатков регрессии будут равны

МНК в случае линейной модели - student2.ru

соответственно сумма квадратов остатков регрессии будет равна

МНК в случае линейной модели - student2.ru

Дифференцируя эту функцию по вектору параметров и приравняв производные к нулю, получим систему уравнений (в матричной форме):

МНК в случае линейной модели - student2.ru .

В расшифрованной матричной форме эта система уравнений выглядит следующим образом:

МНК в случае линейной модели - student2.ru где все суммы берутся по всем допустимым значениям МНК в случае линейной модели - student2.ru .

Если в модель включена константа (как обычно), то МНК в случае линейной модели - student2.ru при всех МНК в случае линейной модели - student2.ru , поэтому в левом верхнем углу матрицы системы уравнений находится количество наблюдений МНК в случае линейной модели - student2.ru , а в остальных элементах первой строки и первого столбца — просто суммы значений переменных: МНК в случае линейной модели - student2.ru и первый элемент правой части системы — МНК в случае линейной модели - student2.ru .

Решение этой системы уравнений и дает общую формулу МНК-оценок для линейной модели:

МНК в случае линейной модели - student2.ru

Для аналитических целей оказывается полезным последнее представление этой формулы (в системе уравнений при делении на n, вместо сумм фигурируют средние арифметические). Если в регрессионной модели данные центрированы, то в этом представлении первая матрица имеет смысл выборочной ковариационной матрицы факторов, а вторая — вектор ковариаций факторов с зависимой переменной. Если кроме того данные ещё и нормированы на СКО (то есть в конечном итогестандартизированы), то первая матрица имеет смысл выборочной корреляционной матрицы факторов, второй вектор — вектора выборочных корреляций факторов с зависимой переменной.

Немаловажное свойство МНК-оценок для моделей с константой — линия построенной регрессии проходит через центр тяжести выборочных данных, то есть выполняется равенство:

МНК в случае линейной модели - student2.ru

В частности, в крайнем случае, когда единственным регрессором является константа, получаем, что МНК-оценка единственного параметра (собственно константы) равна среднему значению объясняемой переменной. То есть среднее арифметическое, известное своими хорошими свойствами из законов больших чисел, также является МНК-оценкой — удовлетворяет критерию минимума суммы квадратов отклонений от неё.

[править]Простейшие частные случаи

В случае парной линейной регрессии МНК в случае линейной модели - student2.ru , когда оценивается линейная зависимость одной переменной от другой, формулы расчета упрощаются (можно обойтись без матричной алгебры). Система уравнений имеет вид:

МНК в случае линейной модели - student2.ru

Отсюда несложно найти оценки коэффициентов:

МНК в случае линейной модели - student2.ru

Несмотря на то что в общем случае модели с константой предпочтительней, в некоторых случаях из теоретических соображений известно, что константа МНК в случае линейной модели - student2.ru должна быть равна нулю. Например, в физике зависимость между напряжением и силой тока имеет вид МНК в случае линейной модели - student2.ru ; замеряя напряжение и силу тока, необходимо оценить сопротивление. В таком случае речь идёт о модели МНК в случае линейной модели - student2.ru . В этом случае вместо системы уравнений имеем единственное уравнение

МНК в случае линейной модели - student2.ru

Следовательно, формула оценки единственного коэффициента имеет вид

МНК в случае линейной модели - student2.ru

Свойства МНК-оценок

В первую очередь, отметим, что для линейных моделей МНК-оценки являются линейными оценками, как это следует из вышеприведённой формулы. Для несмещенностиМНК-оценок необходимо и достаточно выполнения важнейшего условия регрессионного анализа: условное по факторам математическое ожидание случайной ошибки должно быть равно нулю. Данное условие, в частности, выполнено, если

  1. математическое ожидание случайных ошибок равно нулю, и
  2. факторы и случайные ошибки — независимые случайные величины.

Первое условие можно считать выполненным всегда для моделей с константой, так как константа берёт на себя ненулевое математическое ожидание ошибок (поэтому модели с константой в общем случае предпочтительнее).

Второе условие — условие экзогенности факторов — принципиальное. Если это свойство не выполнено, то можно считать, что практически любые оценки будут крайне неудовлетворительными: они не будут даже состоятельными (то есть даже очень большой объём данных не позволяет получить качественные оценки в этом случае). В классическом случае делается более сильное предположение о детерминированности факторов, в отличие от случайной ошибки, что автоматически означает выполнение условия экзогенности. В общем случае для состоятельности оценок достаточно выполнения условия экзогенности вместе со сходимостью матрицы МНК в случае линейной модели - student2.ru к некоторой невырожденной матрице при увеличении объёма выборки до бесконечности.

Для того, чтобы кроме состоятельности и несмещенности, оценки (обычного) МНК были ещё и эффективными (наилучшими в классе линейных несмещенных оценок) необходимо выполнение дополнительных свойств случайной ошибки:

  • Постоянная (одинаковая) дисперсия случайных ошибок во всех наблюдениях (отсутствие гетероскедастичности): МНК в случае линейной модели - student2.ru
  • Отсутствие корреляции (автокорреляции) случайных ошибок в разных наблюдениях между собой МНК в случае линейной модели - student2.ru

Данные предположения можно сформулировать для ковариационной матрицы вектора случайных ошибок МНК в случае линейной модели - student2.ru

Линейная модель, удовлетворяющая таким условиям, называется классической. МНК-оценки для классической линейной регрессии являются несмещёнными,состоятельными и наиболее эффективными оценками в классе всех линейных несмещённых оценок (в англоязычной литературе иногда употребляют аббревиатуру BLUE(Best Linear Unbaised Estimator) — наилучшая линейная несмещённая оценка; в отечественной литературе чаще приводится теорема Гаусса — Маркова). Как нетрудно показать, ковариационная матрица вектора оценок коэффициентов будет равна:

МНК в случае линейной модели - student2.ru

Эффективность означает, что эта ковариационная матрица является «минимальной» (любая линейная комбинация коэффициентов, и в частности сами коэффициенты, имеют минимальную дисперсию), то есть в классе линейных несмещенных оценок оценки МНК-наилучшие. Диагональные элементы этой матрицы — дисперсии оценок коэффициентов — важные параметры качества полученных оценок. Однако рассчитать ковариационную матрицу невозможно, поскольку дисперсия случайных ошибок неизвестна. Можно доказать, что несмещённой и состоятельной (для классической линейной модели) оценкой дисперсии случайных ошибок является величина:

МНК в случае линейной модели - student2.ru

Подставив данное значение в формулу для ковариационной матрицы и получим оценку ковариационной матрицы. Полученные оценки также являются несмещёнными исостоятельными. Важно также то, что оценка дисперсии ошибок (а значит и дисперсий коэффициентов) и оценки параметров модели являются независимыми случайными величинами, что позволяет получить тестовые статистики для проверки гипотез о коэффициентах модели.

Необходимо отметить, что если классические предположения не выполнены, МНК-оценки параметров не являются наиболее эффективными оценками (оставаясьнесмещёнными и состоятельными). Однако, ещё более ухудшается оценка ковариационной матрицы — она становится смещённой и несостоятельной. Это означает, что статистические выводы о качестве построенной модели в таком случае могут быть крайне недостоверными. Одним из вариантов решения последней проблемы является применение специальных оценок ковариационной матрицы, которые являются состоятельными при нарушениях классических предположений (стандартные ошибки в форме Уайта и стандартные ошибки в форме Ньюи-Уеста). Другой подход заключается в применении так называемого обобщённого МНК.

Обобщенный МНК

Метод наименьших квадратов допускает широкое обобщение. Вместо минимизации суммы квадратов остатков можно минимизировать некоторую положительно определенную квадратичную форму от вектора остатков МНК в случае линейной модели - student2.ru , где МНК в случае линейной модели - student2.ru — некоторая симметрическая положительно определенная весовая матрица. Обычный МНК является частным случаем данного подхода, когда весовая матрица пропорциональна единичной матрице. Как известно из теории симметрических матриц (или операторов) для таких матриц существует разложение МНК в случае линейной модели - student2.ru . Следовательно, указанный функционал можно представить следующим образом МНК в случае линейной модели - student2.ru , то есть этот функционал можно представить как сумму квадратов некоторых преобразованных «остатков». Таким образом, можно выделить класс методов наименьших квадратов — LS-методы (Least Squares).

Доказано (теорема Айткена), что для обобщенной линейной регрессионной модели (в которой на ковариационную матрицу случайных ошибок не налагается никаких ограничений) наиболее эффективными (в классе линейных несмещенных оценок) являются оценки т. н. обобщенного МНК (ОМНК, GLS — Generalized Least Squares) — LS-метода с весовой матрицей, равной обратной ковариационной матрице случайных ошибок: МНК в случае линейной модели - student2.ru .

Можно показать, что формула ОМНК-оценок параметров линейной модели имеет вид

МНК в случае линейной модели - student2.ru

Ковариационная матрица этих оценок соответственно будет равна

МНК в случае линейной модели - student2.ru

Фактически сущность ОМНК заключается в определенном (линейном) преобразовании (P) исходных данных и применении обычного МНК к преобразованным данным. Цель этого преобразования — для преобразованных данных случайные ошибки уже удовлетворяют классическим предположениям.

Взвешенный МНК

В случае диагональной весовой матрицы (а значит и ковариационной матрицы случайных ошибок) имеем так называемый взвешенный МНК (WLS — Weighted Least Squares). В данном случае минимизируется взвешенная сумма квадратов остатков модели, то есть каждое наблюдение получает «вес», обратно пропорциональный дисперсии случайной ошибки в данном наблюдении: МНК в случае линейной модели - student2.ru . Фактически данные преобразуются взвешиванием наблюдений (делением на величину, пропорциональную предполагаемому стандартному отклонению случайных ошибок), а к взвешенным данным применяется обычный МНК.

Наши рекомендации