Вектор залишків простої лінійної регресії та деякі його властивості.
Визначимо так звані залишки регресійної моделі (2.3). За означенням, це величини ei = yi – , де , i = 1,…, n. Вектором залишків моделі (2.3) називається вектор e = (e1,…, en). Зауважимо, що коли з самого початку вільний член b0 входив у модель (тобто не покладався одразу рівним 0), то сума всіх залишків (інакше, сума координат вектору залишків) дорівнює 0, тобто
å еi = 0 (3.1)
Це одразу випливає з рівності ¶S/¶b0 = 0 при b0 = b0, b1 = b1 (див. рівність на с. 9). Зазначена властивість використовується, наприклад, при перевірці обчислень за МНК, якщо останні виконувалися вручну.
3.1. Зауваження. Корисно помітити, що середнє арифметичне значень , i = 1, 2, … , n дорівнює – середньому значенню спостережуваних відгуків y1,…,yn . Тобто, коли позначити
= , i = 1, 2, … , n; =( +…+ )/n,
то матимемо рівність
= . (3.2)
Дійсно, згідно з рівністю (2.10) маємо
= /n = ( ( + b1(xi – )))/n = + b1 – b1 = .
З рівності (3.2) одразу випливає вже відзначений вище факт рівності 0 суми координат вектора залишків e:
S ei = S (yi – ) = n – n = 0.
(Нагадаємо, що коли не робиться спеціальних роз’яснень, то за відсутністю індексів у символі S мається на увазі підсумовування від 1 до n).
3.2. Про одну властивість оцінок МНК.
У багатьох питаннях регресійного аналізу є корисною наступна рівність
S( yi – )2 = S( yi – )2 + S( – )2 . (3.3)
Дана рівність часто називається основною тотожністю дисперсійного аналізу. (Зміст цієї назви стане зрозумілим дещо пізніше.) Сама ж рівність (3.3) може бути одержана наступним чином.
S( yi – )2 = S( yi – + – )2 = S( yi – )2 + S( – )2 +
+ 2S( – ) ( – ).
Тепер досить довести, що остання сума дорівнює 0. Використовуючи рівність (2.10), маємо
– = b1(xi – ), yi – = yi – – b1(xi – ).
Звідси вказана сума дорівнює
S b1(xi – )(( yi – ) – b1(xi – )) = b1(Sx y – b1 Sx x) = 0
(врахувати рівність (2.9)). Рівність (3.3) доведено.
З аналогічних міркувань також зрозуміло, що
S( – )2 = S( b1(xi – ))2 = b12 Sx x = b1 Sx y. (3.4)
Зауважимо, що суми квадратів у рівності (3.3) мають спеціальні назви. Сума зліва – сума квадратів відносно середнього; перша сума справа – сума квадратів відносно регресії; друга сума справа – сума квадратів, що зумовлена регресією.
3.3. Пояснювана частина варіації даних.
Позначимо
R2 = . (3.5)
З рівності (3.3) одразу випливає нерівність
R2 £ 1. (3.6)
Можна вважати, що величина R2 вимірює „долю загального розкидання даних, що пояснюється регресією”. Її часто вимірюють в процентах, помножуючи на 100. Досить часто величина R2 носить назву „коефіцієнт детермінації”. Величина R2 виводиться на друк у більшості відомих комп’ютерних програм з регресійного аналізу. Чим ближчою є величина R2 до 1, тим краще функція регресії (2.9) відповідає дійсному характеру зв’язку між незалежною та залежною змінними.
3.2.1. Зв’язок величини R2 з вибірковими коефіцієнтами кореляціїRx y та .
Як відомо, коефіцієнтом кореляції між випадковими величинами x, h називається вираз
rxh = Cov(x, h) / (Dx ×Dh)1 / 2,
де Cov(x, h) = Мxh – Мx Мh , D – символ дисперсії.
Оцінкою коефіцієнта кореляції (або вибірковим коефіцієнтом кореляції) між двома величинами x та h є вираз
Rxh = , (3.7)
де (xi, hi), i = 1,..., n – значення (x,h ) в n незалежних експериментах, та – відповідні середні арифметичні, а підсумовування виконується від 1 до n.
Позначимо Rxy та , відповідно, вибіркові коефіцієнти кореляції між x та y і y та ŷ відповідно. Тоді мають місце рівності
= sign (b1) × Rxy (3.8)
де
sign x =
R2 = (Rxy)2, (3.9)
R2 = ( )2 (3.10)
Дійсно, з використанням (3.4) одержуємо
= sign(b1)×Rxy (3.11)
З іншого боку,
R2 = = (Rxy)2 .
(3.11) і останні співвідношення доводять рівності (3.8) — (3.10).
РОЗДІЛ 4.
Ймовірнісні припущення про випадкову складову моделі простої лінійної регресії та їх наслідки.
4.1. Незалежність, однорідність і відсутність систематичних похибок.
Надалі буде вважатися, що всі експерименти є незалежними, виконуються в однакових умовах і не мають систематичних похибок. Математично це виражається наступним чином. Нехай εі позначає величину похибки в і-му експерименті (тобто εі = yi – (β0 + β1 xi)), і = 1,..., n Тоді вектор похибок ε = (ε1,..., εn) становить собою сукупність незалежних однаково розподілених випадкових величин, причому математичні сподівання кожної з цих величин дорівнюють 0:
Mεі = 0, і = 1,..., n, (4.1)
а дисперсії дорівнюють деякій сталій σ2:
Dεі = σ2, і = 1,..., n. (4.2)
4.1.1. Зауваження. З (4.1) та (4.2) одразу випливають рівності (переконайтеся в цьому):
Mу(х) = β0 + β1х, (4.3)
D у(х) = σ2 , (4.4)
D = σ2 ∕ n (4.5)
4.1.2. Наслідки. Наслідками зроблених вище припущень є також наступні властивості оцінок параметрів моделі:
1) Mb0 = β0, Mb1 = β1; (4.6)
2) Db0 = σ2, Db1 = . (4.7)
3) Cov( , b1) = 0, (4.8)
4) Cov(b0,b1) = . (4.9)
5) Нехай х0 – довільне значення змінної х. Позначимо ŷ0 значення оцінки функції регресії ŷ в точці х0. Тоді має місце рівність
D ŷ0 = . (4.10)
Зокрема, рівності (4.6) означають, що b0 та b1 є незсуненими оцінками, відповідно, величин β0 та β1. Рівності (4.7) дають вирази дисперсій оцінок коефіцієнтів регресії через дисперсію випадкової складової моделі ( 2.3). Рівність (4.8) стверджує некорельованість величин та b1. Рівність (4.9) дає явний вираз коваріацій між оцінками b0,b1, а (4.10) — вираз дисперсії оцінки функції регресії у довільній точці спостережень. З останньої рівності одразу бачимо, що дисперсія величини ŷ0 є мінімальною, коли точка х0 співпадає з і зростає при віддаленні цієї точки від .