Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК

Метод наименьших квадратов (МНК, OLS, Ordinary Least Squares) — один из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным. Метод основан на минимизации суммы квадратов остатков регрессии.

Необходимо отметить, что собственно методом наименьших квадратов можно назвать метод решения задачи в любой области, если решение заключается или удовлетворяет некоторому критерию минимизации суммы квадратов некоторых функций от искомых переменных. Поэтому метод наименьших квадратов может применяться также для приближённого представления (аппроксимации) заданной функции другими (более простыми) функциями, при нахождении совокупности величин, удовлетворяющих уравнениям или ограничениям, количество которых превышает количество этих величин и т. д.

Сущность МНК

Пусть задана некоторая (параметрическая) модель вероятностной (регрессионной) зависимости между (объясняемой) переменной y и множеством факторов (объясняющих переменных) x

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

где Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru — вектор неизвестных параметров модели

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru — случайная ошибка модели.

Пусть также имеются выборочные наблюдения значений указанных переменных. Пусть Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru — номер наблюдения ( Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru ). Тогда Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru — значения переменных в Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru -м наблюдении. Тогда при заданных значениях параметров b можно рассчитать теоретические (модельные) значения объясняемой переменной y:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Тогда можно рассчитать остатки регрессионной модели — разницу между наблюдаемыми значениями объясняемой переменной и теоретическими (модельными, оцененными):

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Величина остатков зависит от значений параметров b.

Сущность МНК (обычного, классического) заключается в том, чтобы найти такие параметры b, при которых сумма квадратов остатков Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru (англ. Residual Sum of Squares) будет минимальной:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

где:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

В общем случае решение этой задачи может осуществляться численными методами оптимизации (минимизации). В этом случае говорят о нелинейном МНК (NLS или NLLS — англ. Non-Linear Least Squares). Во многих случаях можно получить аналитическое решение. Для решения задачи минимизации необходимо найти стационарные точки функции Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru , продифференцировав её по неизвестным параметрам b, приравняв производные к нулю и решив полученную систему уравнений:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Если случайные ошибки модели имеют нормальное распределение, имеют одинаковую дисперсию и некоррелированы между собой, МНК-оценки параметров совпадают с оценками метода максимального правдоподобия (ММП).

МНК в случае линейной модели

Пусть регрессионная зависимость является линейной:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Пусть y — вектор-столбец наблюдений объясняемой переменной, а Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru — матрица наблюдений факторов (строки матрицы — векторы значений факторов в данном наблюдении, по столбцам — вектор значений данного фактора во всех наблюдениях). Матричное представление линейной модели имеет вид:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Тогда вектор оценок объясняемой переменной и вектор остатков регрессии будут равны

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

соответственно сумма квадратов остатков регрессии будет равна

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Дифференцируя эту функцию по вектору параметров и приравняв производные к нулю, получим систему уравнений (в матричной форме):

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru .

Решение этой системы уравнений и дает общую формулу МНК-оценок для линейной модели:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Для аналитических целей оказывается полезным последнее представление этой формулы. Если в регрессионной модели данные центрированы, то в этом представлении первая матрица имеет смысл выборочной ковариационной матрицы факторов, а вторая — вектор ковариаций факторов с зависимой переменной. Если кроме того данные ещё и нормированы на СКО (то есть в конечном итоге стандартизированы), то первая матрица имеет смысл выборочной корреляционной матрицы факторов, второй вектор — вектора выборочных корреляций факторов с зависимой переменной.

Немаловажное свойство МНК-оценок для моделей с константой — линия построенной регрессии проходит через центр тяжести выборочных данных, то есть выполняется равенство:

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

В частности, в крайнем случае, когда единственным регрессором является константа, получаем, что МНК-оценка единственного параметра (собственно константы) равна среднему значению объясняемой переменной. То есть среднее арифметическое, известное своими хорошими свойствами из законов больших чисел, также является МНК-оценкой — удовлетворяет критерию минимума суммы квадратов отклонений от неё.

Пример: простейшая (парная) регрессия

В случае парной линейной регрессии Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru формулы расчета упрощаются (можно обойтись без матричной алгебры):

Приведите формулы для расчета коэффициентов прямой парной регрессии по МНК - student2.ru

Наши рекомендации