Матриця коваріації і її вибіркова оцінка

Варіації оцінок параметрів будуть у кінцевому результаті визначати точність рівняння множинної регресії. Для їх виміру в багатовимірному регресійному аналізі розглядають так звану коваріаційну матрицю К, яка є матричним аналогом дисперсії однієї змінної:

матриця коваріації і її вибіркова оцінка - student2.ru

де елементи Кij - коваріації (або кореляційні моменти) оцінок параметрів матриця коваріації і її вибіркова оцінка - student2.ru і матриця коваріації і її вибіркова оцінка - student2.ru матриця коваріації і її вибіркова оцінка - student2.ru Коваріація двох змінних визначається як математичне сподівання добутку відхилень цих змінних від їх математичних сподівань. Тому

матриця коваріації і її вибіркова оцінка - student2.ru (1)

Коваріація характеризує як степінь розсіювання значень двох змінних відносно їх математичних сподівань , так і взаємозв’язок цих змінних. В силу того, що оцінки матриця коваріації і її вибіркова оцінка - student2.ru , отримані методом найменших квадратів, є незміщеними оцінками параметрів матриця коваріації і її вибіркова оцінка - student2.ru , тобто матриця коваріації і її вибіркова оцінка - student2.ru , вираз прийме вигляд:

матриця коваріації і її вибіркова оцінка - student2.ru .

Мультиколінеарність

Під мультиколінеарністю розуміється висока взаємна корельованість пояснюючих змінних. Мультиколінеарність може проявлятися в функціональній (явній) і стохастичній (неявній) формах.

При функціональній формі мультиколінеарності хоча б один із парних зв’язків між пояснюючими змінними є лінійною функціональною залежністю. В цьому випадку матриця ХТХ особлива, оскільки містить лінійно залежні вектори-стовпці і її визначник рівний нулю, тобто пору-шується посилання 6регресійного аналізу. Це призводить до неможливос-ті розв’язання відповідної системи нормальних рівнянь і отримання оцінок параметрів регресійної моделі.

В економічних задачах мультиколінеарність частіше проявляється в стохастичній формі, коли хоча б між двома пояснюючими змінними існує тісний кореляційний зв’язок. Матриця ХТХ в цьому випадку є неособли-вою, але її визначник дуже малий. В той же час вектор оцінок b і його коваріаційна матриця К пропорційні оберненій матриці (ХТХ)-1, а значить, їх елементи обернено пропорційні значенню визначника | ХТХ |. В результаті отримують значні середні квадратичні відхилення (стандартні помилки) коефіцієнтів регресії матриця коваріації і її вибіркова оцінка - student2.ru і оцінка їх значущості по t-критерію недоречна, хоча в цілому регресійна модель може виявитись значущою по

F-критерію.

Оцінки матриця коваріації і її вибіркова оцінка - student2.ru стають надто чутливими до незначних змін результатів спостережень і об’єму вибірки. Рівняння регресії в цьому випадку, як правило, не має реального смислу, оскільки деякі із його коефіцієнтів можуть мати неправильні з точки зору економічної теорії знаки і невиправдано великі значення.

Один із методів виявлення мультиколінеарності полягає в аналізі кореляційної матриці між пояснюючими змінними матриця коваріації і її вибіркова оцінка - student2.ru і виявленні пар змінних, які мають високий коефіцієнт кореляції (зазвичай більше 0,8). Якщо такі змінні існують, то кажуть про мультиколінеарність між ними.

Корисно також знаходити множинні коефіцієнти кореляції між одною із пояснюючих змінних і деякою групою з них. Наявність високого множинного коефіцієнта кореляції (зазвичай приймають більше 0,8) засвідчує про мультиколінеарність. Інший підхід полягає в дослідженні матриці ХТХ. Якщо визначник матриці ХТХ близький до нуля (наприклад, одного порядку із накопичуваними помилками обрахунків), то це свідчить про наявність мультиколінеарності.

Для усунення або зменшення мультиколінеарності використовується ряд методів. Один із них полягає в тому, що із двох пояснюючих змінних, які мають високий коефіцієнт кореляції (більше 0,8), одну змінну виключа-ють із розгляду. При цьому, яку змінну залишити, а яку видалити з аналізу, вирішують в першу чергу на основі економічних міркувань. Якщо з економічної точки зору жодній зі змінних не можна віддати перевагу, то залишають ту з двох, яка має більший коефіцієнт кореляції із залежною змінною.

Іншим із можливих методів усунення або зменшення мультиколі-неарності є використання покрокових процедур відбору найбільш інфор-мативних змінних. Наприклад, спочатку розглядається лінійна регресія залежної змінної Y від пояснюючої змінної, яка має з нею найбільш високий коефіцієнт кореляції (або індекс кореляції при нелінійній формі зв’язку). На другому кроці розглядається та пояснююча змінна, яка має найбільш високий частинний коефіцієнт кореляції з Y і обчислюється множинний коефіцієнт кореляції. На третьому кроці вводиться нова пояснююча змінна, яка має найбільший частинний коефіцієнт кореляції з Y, і знову обчислюється множинний коефіцієнт кореляції і т. д. Процедура введення нових і нових змінних продовжується до тих пір, поки додавання наступної пояснюючої змінної вагомо не збільшить коефіцієнт кореляції.

Наши рекомендации