Ознаки мультиколінеарності

1. Якщо серед парних коефіцієнтів кореляції незалежних змінних є такі, рівень яких наближається або дорівнює множинному коефіцієнту кореляції, то це свідчить про можливість існування мультиколінеарності. Інформацію про парну залежність може дати симетрична матриця коефіцієнтів парної кореляції, або кореляції нульового порядку:

Ознаки мультиколінеарності - student2.ru .

Але якщо в моделі фігурує більше двох незалежних змінних, вивчення питання про мультиколінеарність не може обмежуватись інформацією, що дає ця матриця. Явище мультиколінеарності ні в якому разі не зводиться тільки до існування парної кореляції між незалежними змінними.

Більш загальна перевірка передбачає визначення визначника (детермінанта) матриці r, який називається детермінантом кореляції і позначається Ознаки мультиколінеарності - student2.ru . Числові значення детермінанта кореляції знаходяться на множині: Ознаки мультиколінеарності - student2.ru .

2. Якщо Ознаки мультиколінеарності - student2.ru , то існує повна мультиколінеарність, якщо Ознаки мультиколінеарності - student2.ru — мультиколінеарність відсутня, чим ближче Ознаки мультиколінеарності - student2.ru до нуля, тим певніше можна стверджувати, що між незалежними змінними існує мультиколінеарність. Незважаючи на те, що на числове значення Ознаки мультиколінеарності - student2.ru впливає дисперсія незалежних змінних, цей показник можна вважати точковою мірою тісноти мультиколінеарності.

3. Якщо в економетричній моделі одержано мале значення параметра Ознаки мультиколінеарності - student2.ru при високому рівні коефіцієнта детермінації і при цьому F-критерій суттєво відрізняється від нуля, то це також свідчить про наявність мультиколінеарності.

4. Якщо коефіцієнт детермінації Ознаки мультиколінеарності - student2.ru , що розрахований для регресійних залежностей між однією незалежною змінною та іншими, має значення, яке близьке до одиниці, то можна говорити про наявність мультиколінеарності.

5. Якщо при побудові економетричної моделі на основі покрокової регресії включення нової незалежної змінної суттєво змінює оцінку параметрів моделі при незначному підвищенні (або зниженні) коефіцієнтів кореляції чи детермінації, то ця змінна, очевидно, знаходиться в лінійній залежності від інших, які введені в модель раніше.

Всі ці методи виявлення мультиколінеарності мають один загальний недолік: жоден із них не проводить чіткої межі між тим, що треба вважати «суттєвою» мультиколінеарністю, яку треба враховувати, і тим, коли мультиколінеарністю можна знехтувати.

Алгоритм Феррара—Глобера

Hайбільш повне дослідження мультиколінеарності можна здійснити на основі алгоритму Феррара—Глобера. Цей алгоритм включає три види статистичних критеріїв, на основі яких перевіряється мультиколінеарність всього масиву незалежних змінних ( Ознаки мультиколінеарності - student2.ru , хі-квадрат); кожної незалежної змінної зі всіма незалежними змінними (F-критерій) і мультиколінеарність кожної пари незалежних змінних (t-критерій).

Всі ці критерії при порівнянні з їх критичними значеннями дають можливість зробити конкретні висновки відносно наявності чи відсутності мультиколінеарності незалежних змінних.

Опишемо алгоритм Феррара—Глобера.

Крок 1. Стандартизація (нормалізація) змінних.

Позначимо вектори незалежних змінних економетричної моделі через Ознаки мультиколінеарності - student2.ru . Елементи стандартизованих векторів розрахуємо за формулою:

Ознаки мультиколінеарності - student2.ru

де n — число спостережень, Ознаки мультиколінеарності - student2.ru ;

m — число незалежних змінних, Ознаки мультиколінеарності - student2.ru ;

Ознаки мультиколінеарності - student2.ru — середня арифметична Ознаки мультиколінеарності - student2.ru — її незалежної змінної;

Ознаки мультиколінеарності - student2.ru — дисперсія Ознаки мультиколінеарності - student2.ru -ї незалежної змінної.

Крок 2. Знаходження кореляційної матриці (матриці моментів стандартизо-

ваної системи нормальних рівнянь):

Ознаки мультиколінеарності - student2.ru ,

де Ознаки мультиколінеарності - student2.ru — матриця стандартизованих незалежних змінних;

Ознаки мультиколінеарності - student2.ru — матриця, транспонована до матриці Ознаки мультиколінеарності - student2.ru .

Крок 3. Визначення критерію Ознаки мультиколінеарності - student2.ru (хі-квадрат):

Ознаки мультиколінеарності - student2.ru ,

де Ознаки мультиколінеарності - student2.ru — визначник кореляційної матриці Ознаки мультиколінеарності - student2.ru .

Значення цього критерію порівнюється з табличним при Ознаки мультиколінеарності - student2.ruступенях свободи і рівні значущості a.Якщо Ознаки мультиколінеарності - student2.ru факт Ознаки мультиколінеарності - student2.ru табл , в масиві незалежних змінних не існує мультиколінеарності.

Крок 4. Визначення оберненої матриці Ознаки мультиколінеарності - student2.ru (див.п.3):

Ознаки мультиколінеарності - student2.ru .

Крок 5. Розрахунок F- критеріїв:

Ознаки мультиколінеарності - student2.ru ,

де ckk — діагональні елементи матриці C. Фактичні значення критеріїв Fk порівнюються з табличними при Ознаки мультиколінеарності - student2.ru і Ознаки мультиколінеарності - student2.ru ступенях свободи і рівні значущості a. Якщо Fk факт > Fтабл , відповідна k-та незалежна змінна мультиколінеарна з іншими.

Коефіцієнт детермінації для кожної змінної розраховується таким чином:

Ознаки мультиколінеарності - student2.ru .

Крок 6. Знаходження часткових коефіцієнтів кореляції:

Ознаки мультиколінеарності - student2.ru ,

де ckj — елемент матриці C, що заходиться в k-му рядку і j-му стовпці, Ознаки мультиколінеарності - student2.ru , ckk і сjj — діагональні елементи матриці Ознаки мультиколінеарності - student2.ru .

Крок 7. Розрахунок t критеріїв:

Ознаки мультиколінеарності - student2.ru .

Фактичні значення критеріїв tkj порівнюються з табличними при Ознаки мультиколінеарності - student2.ru ступенях свободи і рівні значущості a. Якщо tkj факт > tтабл, між незалежними змінними Xk і Xj існує мультиколінеарність.

Наши рекомендации