Матриця коваріації і її вибіркова оцінка
Варіації оцінок параметрів будуть у кінцевому результаті визначати точність рівняння множинної регресії. Для їх виміру в багатовимірному регресійному аналізі розглядають так звану коваріаційну матрицю К, яка є матричним аналогом дисперсії однієї змінної:
де елементи Кij - коваріації (або кореляційні моменти) оцінок параметрів і Коваріація двох змінних визначається як математичне сподівання добутку відхилень цих змінних від їх математичних сподівань. Тому
(1)
Коваріація характеризує як степінь розсіювання значень двох змінних відносно їх математичних сподівань , так і взаємозв’язок цих змінних. В силу того, що оцінки , отримані методом найменших квадратів, є незміщеними оцінками параметрів , тобто , вираз прийме вигляд:
.
Мультиколінеарність
Під мультиколінеарністю розуміється висока взаємна корельованість пояснюючих змінних. Мультиколінеарність може проявлятися в функціональній (явній) і стохастичній (неявній) формах.
При функціональній формі мультиколінеарності хоча б один із парних зв’язків між пояснюючими змінними є лінійною функціональною залежністю. В цьому випадку матриця ХТХ особлива, оскільки містить лінійно залежні вектори-стовпці і її визначник рівний нулю, тобто пору-шується посилання 6регресійного аналізу. Це призводить до неможливос-ті розв’язання відповідної системи нормальних рівнянь і отримання оцінок параметрів регресійної моделі.
В економічних задачах мультиколінеарність частіше проявляється в стохастичній формі, коли хоча б між двома пояснюючими змінними існує тісний кореляційний зв’язок. Матриця ХТХ в цьому випадку є неособли-вою, але її визначник дуже малий. В той же час вектор оцінок b і його коваріаційна матриця К пропорційні оберненій матриці (ХТХ)-1, а значить, їх елементи обернено пропорційні значенню визначника | ХТХ |. В результаті отримують значні середні квадратичні відхилення (стандартні помилки) коефіцієнтів регресії і оцінка їх значущості по t-критерію недоречна, хоча в цілому регресійна модель може виявитись значущою по
F-критерію.
Оцінки стають надто чутливими до незначних змін результатів спостережень і об’єму вибірки. Рівняння регресії в цьому випадку, як правило, не має реального смислу, оскільки деякі із його коефіцієнтів можуть мати неправильні з точки зору економічної теорії знаки і невиправдано великі значення.
Один із методів виявлення мультиколінеарності полягає в аналізі кореляційної матриці між пояснюючими змінними і виявленні пар змінних, які мають високий коефіцієнт кореляції (зазвичай більше 0,8). Якщо такі змінні існують, то кажуть про мультиколінеарність між ними.
Корисно також знаходити множинні коефіцієнти кореляції між одною із пояснюючих змінних і деякою групою з них. Наявність високого множинного коефіцієнта кореляції (зазвичай приймають більше 0,8) засвідчує про мультиколінеарність. Інший підхід полягає в дослідженні матриці ХТХ. Якщо визначник матриці ХТХ близький до нуля (наприклад, одного порядку із накопичуваними помилками обрахунків), то це свідчить про наявність мультиколінеарності.
Для усунення або зменшення мультиколінеарності використовується ряд методів. Один із них полягає в тому, що із двох пояснюючих змінних, які мають високий коефіцієнт кореляції (більше 0,8), одну змінну виключа-ють із розгляду. При цьому, яку змінну залишити, а яку видалити з аналізу, вирішують в першу чергу на основі економічних міркувань. Якщо з економічної точки зору жодній зі змінних не можна віддати перевагу, то залишають ту з двох, яка має більший коефіцієнт кореляції із залежною змінною.
Іншим із можливих методів усунення або зменшення мультиколі-неарності є використання покрокових процедур відбору найбільш інфор-мативних змінних. Наприклад, спочатку розглядається лінійна регресія залежної змінної Y від пояснюючої змінної, яка має з нею найбільш високий коефіцієнт кореляції (або індекс кореляції при нелінійній формі зв’язку). На другому кроці розглядається та пояснююча змінна, яка має найбільш високий частинний коефіцієнт кореляції з Y і обчислюється множинний коефіцієнт кореляції. На третьому кроці вводиться нова пояснююча змінна, яка має найбільший частинний коефіцієнт кореляції з Y, і знову обчислюється множинний коефіцієнт кореляції і т. д. Процедура введення нових і нових змінних продовжується до тих пір, поки додавання наступної пояснюючої змінної вагомо не збільшить коефіцієнт кореляції.