Вектор залишків простої лінійної регресії та деякі його властивості.

Визначимо так звані залишки регресійної моделі (2.3). За означенням, це величини ei = yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru , де Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru , i = 1,…, n. Вектором залишків моделі (2.3) називається вектор e = (e1,…, en). Зауважимо, що коли з самого початку вільний член b0 входив у модель (тобто не покладався одразу рівним 0), то сума всіх залишків (інакше, сума координат вектору залишків) дорівнює 0, тобто

å еi = 0 (3.1)

Це одразу випливає з рівності ¶S/¶b0 = 0 при b0 = b0, b1 = b1 (див. рівність на с. 9). Зазначена властивість використовується, наприклад, при перевірці обчислень за МНК, якщо останні виконувалися вручну.

3.1. Зауваження. Корисно помітити, що середнє арифметичне значень Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru , i = 1, 2, … , n дорівнює Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru – середньому значенню спостережуваних відгуків y1,…,yn . Тобто, коли позначити

Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru , i = 1, 2, … , n; Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru =( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru +…+ Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )/n,

то матимемо рівність

Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru . (3.2)

Дійсно, згідно з рівністю (2.10) маємо

Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru /n = ( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru + b1(xiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )))/n = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru + b1 Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru – b1 Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru .

З рівності (3.2) одразу випливає вже відзначений вище факт рівності 0 суми координат вектора залишків e:

S ei = S (yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ) = n Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru – n Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = 0.

(Нагадаємо, що коли не робиться спеціальних роз’яснень, то за відсутністю індексів у символі S мається на увазі підсумовування від 1 до n).

3.2. Про одну властивість оцінок МНК.

У багатьох питаннях регресійного аналізу є корисною наступна рівність

S( yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 = S( yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 + S( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ruВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 . (3.3)

Дана рівність часто називається основною тотожністю дисперсійного аналізу. (Зміст цієї назви стане зрозумілим дещо пізніше.) Сама ж рівність (3.3) може бути одержана наступним чином.

S( yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 = S( yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru + Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ruВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 = S( yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 + S( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ruВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 +

+ 2S( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ruВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ) ( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ruВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ).

Тепер досить довести, що остання сума дорівнює 0. Використовуючи рівність (2.10), маємо

Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ruВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = b1(xiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ), yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru – b1(xiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ).

Звідси вказана сума дорівнює

S b1(xiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )(( yiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ) – b1(xiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )) = b1(Sx y – b1 Sx x) = 0

(врахувати рівність (2.9)). Рівність (3.3) доведено.

З аналогічних міркувань також зрозуміло, що

S( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ruВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 = S( b1(xiВектор залишків простої лінійної регресії та деякі його властивості. - student2.ru ))2 = b12 Sx x = b1 Sx y. (3.4)

Зауважимо, що суми квадратів у рівності (3.3) мають спеціальні назви. Сума зліва – сума квадратів відносно середнього; перша сума справа – сума квадратів відносно регресії; друга сума справа – сума квадратів, що зумовлена регресією.

3.3. Пояснювана частина варіації даних.

Позначимо

R2 = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru . (3.5)

З рівності (3.3) одразу випливає нерівність

R2 £ 1. (3.6)

Можна вважати, що величина R2 вимірює „долю загального розкидання даних, що пояснюється регресією”. Її часто вимірюють в процентах, помножуючи на 100. Досить часто величина R2 носить назву „коефіцієнт детермінації”. Величина R2 виводиться на друк у більшості відомих комп’ютерних програм з регресійного аналізу. Чим ближчою є величина R2 до 1, тим краще функція регресії (2.9) відповідає дійсному характеру зв’язку між незалежною та залежною змінними.

3.2.1. Зв’язок величини R2 з вибірковими коефіцієнтами кореляціїRx y та Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru .

Як відомо, коефіцієнтом кореляції між випадковими величинами x, h називається вираз

rxh = Cov(x, h) / (Dx ×Dh)1 / 2,

де Cov(x, h) = Мxh – Мx Мh , D – символ дисперсії.

Оцінкою коефіцієнта кореляції (або вибірковим коефіцієнтом кореляції) між двома величинами x та h є вираз

Rxh = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru , (3.7)

де (xi, hi), i = 1,..., n – значення (x,h ) в n незалежних експериментах, Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru та Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru – відповідні середні арифметичні, а підсумовування виконується від 1 до n.

Позначимо Rxy та Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru , відповідно, вибіркові коефіцієнти кореляції між x та y і y та ŷ відповідно. Тоді мають місце рівності

Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = sign (b1) × Rxy (3.8)

де

sign x = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru

R2 = (Rxy)2, (3.9)

R2 = ( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru )2 (3.10)

Дійсно, з використанням (3.4) одержуємо

Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = sign(b1)×Rxy (3.11)

З іншого боку,

R2 = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = (Rxy)2 .

(3.11) і останні співвідношення доводять рівності (3.8) — (3.10).

РОЗДІЛ 4.

Ймовірнісні припущення про випадкову складову моделі простої лінійної регресії та їх наслідки.

4.1. Незалежність, однорідність і відсутність систематичних похибок.

Надалі буде вважатися, що всі експерименти є незалежними, виконуються в однакових умовах і не мають систематичних похибок. Математично це виражається наступним чином. Нехай εі позначає величину похибки в і-му експерименті (тобто εі = yi – (β0 + β1 xi)), і = 1,..., n Тоді вектор похибок ε = (ε1,..., εn) становить собою сукупність незалежних однаково розподілених випадкових величин, причому математичні сподівання кожної з цих величин дорівнюють 0:

і = 0, і = 1,..., n, (4.1)

а дисперсії дорівнюють деякій сталій σ2:

і = σ2, і = 1,..., n. (4.2)

4.1.1. Зауваження. З (4.1) та (4.2) одразу випливають рівності (переконайтеся в цьому):

Mу(х) = β0 + β1х, (4.3)

D у(х) = σ2 , (4.4)

D Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru = σ2 ∕ n (4.5)

4.1.2. Наслідки. Наслідками зроблених вище припущень є також наступні властивості оцінок параметрів моделі:

1) Mb0 = β0, Mb1 = β1; (4.6)

2) Db0 = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru σ2, Db1 = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru . (4.7)

3) Cov( Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru , b1) = 0, (4.8)

4) Cov(b0,b1) = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru . (4.9)

5) Нехай х0 – довільне значення змінної х. Позначимо ŷ0 значення оцінки функції регресії ŷ в точці х0. Тоді має місце рівність

D ŷ0 = Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru . (4.10)

Зокрема, рівності (4.6) означають, що b0 та b1 є незсуненими оцінками, відповідно, величин β0 та β1. Рівності (4.7) дають вирази дисперсій оцінок коефіцієнтів регресії через дисперсію випадкової складової моделі ( 2.3). Рівність (4.8) стверджує некорельованість величин Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru та b1. Рівність (4.9) дає явний вираз коваріацій між оцінками b0,b1, а (4.10) — вираз дисперсії оцінки функції регресії у довільній точці спостережень. З останньої рівності одразу бачимо, що дисперсія величини ŷ0 є мінімальною, коли точка х0 співпадає з Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru і зростає при віддаленні цієї точки від Вектор залишків простої лінійної регресії та деякі його властивості. - student2.ru .

Наши рекомендации