Отсутствует. Для классификации связи по значению линейного
Коэффициента корреляции используется шкала Чеддока.
Выводы по результатам корреляционного анализа включают в
себя констатацию факта наличия связи, определение её направления,
Предварительную оценку формы связи по линии эмпирической регрессии и
классификацию связи по степени её тесноты.
Парная регрессия на основе метода наименьших квадратов
Парная регрессия характеризует связь между двумя признаками:
Факторным и результативным.
Задача построения уравнения регрессии для одного факторного и
одного результативного признака формулируется следующим образом:
Пусть имеется набор значений двух переменных:
Результативного признака i y и факторного признака i x . Между этими
переменными существует объективная связь вида: i ( i ) i y = f x +ε .
Необходимо по данным наблюдения ( i y , i x , i=1,n) подобрать функцию
yˆ = F(x) , наилучшим образом описывающую существующую связь.
При подборе функции последовательно решаются две задачи:
• Определяется вид функциональной зависимости, то есть
Проводится спецификация модели.
• Рассчитываются значения параметров уравнения регрессии.
В парной регрессии выбор вида математической функции может
быть осуществлён разными методами:
- аналитическим, исходя из материальной природы связи;
- графическим, на основе линии эмпирической регрессии;
- на основе показателей качества уравнения регрессии.
Показателем качества уравнения регрессии является величина
остаточной дисперсии:
( )
n
Y y
n
i
Y y
Σ=
−
−
= 1
ˆ
ˆ
σ .
Этот показатель рассчитывается для уравнений регрессии,
Построенных по разным математическим функциям. Лучшим по качеству
Является уравнение, для которого 2 min
ˆ → y− y σ .
При построении уравнений парной регрессии чаще всего
используют следующие уравнения:
1. прямой yˆ = a + bx ,
2. параболы второго порядка yˆ = a + bx + cx2 ,
Гиперболы
x
yˆ = a + b ,
4. степенной yˆ = a ⋅ xb ,
5. показательной yˆ = a ⋅bx ,
Логистической кривой bc CX
y a + −
=
ˆ и т.д.
Оценка параметров уравнений регрессии может быть проведена
Разными методами.
Классический подход к оцениванию параметров основан на методе
Наименьших квадратов (МНК).
Формат: Список
Метод наименьших квадратов позволяет получить такие оценки
Параметров уравнения регрессии, которые минимизируют функционал
вида:
( ˆ ) min
2 → − =Σ=
n
i
I i S y y ;
Применение метода наименьших квадратов для расчёта параметров
Уравнения регрессии рассмотрим на примере прямолинейной зависимости
yˆ = a + bx .
Подставим аналитическое выражение функции yˆ = a + bx в
функционал S:
( ) min 2 S =Σ y − a − bx → .
Для нахождения минимума функции двух переменных а и b
Необходимо взять частные производные по каждому параметру и
приравнять их к нулю:
= 0;
Da
dS = 0
Db
DS .
В результате получаем систему нормальных уравнений:
⎪⎩
⎪⎨ ⎧
⋅ + ⋅ =
+ ⋅ =
Σ Σ Σ
Σ Σ
.
;
A x b x2 xy
Na b x y
Решение системы уравнений даёт оценки параметров a и b:
;
n
Y b x
a Σ − ⋅Σ
= ( ) ;
2 2 Σ Σ
Σ Σ Σ
−
−
⋅
=
X x
Xy
n
X y
b
В линейном уравнении регрессии параметр а показывает
усреднённое влияние на результативный признак неучтённых факторов.
Формально а= y при х=0. Интерпретация параметра а как среднего
Значения результативного признака возможно лишь при условии, что
Среди наблюдаемых значений факторного признака есть значения, равные
Или близкие к 0. Параметр b в уравнении линейной регрессии называется
Коэффициентом регрессии. Коэффициент регрессии показывает, на
Сколько в среднем изменится значение результативного признака при
Увеличении факторного на единицу собственного измерения.
Для получения качественного уравнения регрессии необходимо
чтобы данные наблюдения соответствовали следующим требованиям:
Число наблюдений должно в 6-7 раз превышать число
Рассчитываемых параметров при переменных х. Таким образом,
Искать линейную регрессию имея менее 7 наблюдений не имеет смысла;
Распределение единиц наблюдения по факторному
Признаку должно быть однородным и подчиняться нормальному
Закону распределения.