Тема 7. Коэффициенты корреляции. Частная корреляция

Глава 2. Методы проверки статистических гипотез. Корреляции и методы

Сравнения.

Коэффициент корреляции- двумерная описательная статистика, количественная мера

взаимосвязи (совместной изменчивости) двух переменных.

К настоящему времени разработано великое множество различных коэффициентов корреляции.

Однако самые важные меры связи - Пирсона, Спирмена и Кендалла. Их общей особенностью

является то, что они отражают взаимосвязь двух признаков, измеренных в количественной

шкале - ранговой или метрической.

Вообще говоря, любое эмпирическое исследование сосредоточено на изучении взаимосвязей

двух или более переменных.

Если изменение одной переменной на одну единицу всегда приводит к изменению другой

переменной на одну и ту же величину, функция является линейной (график ее представляет

прямую линию); любая другая связь - нелинейная. Если увеличение одной переменной связано с

увеличением другой, то связь - положительная (прямая); если увеличение одной переменной

связано с уменьшением другой, то связь - отрицательная (обратная). Если направление

изменения одной переменной не меняется с возрастанием (убыванием) другой переменной, то

такая функция - монотонная; в противном случае функцию называют немонотонной.

Функциональные связи являются идеализациями. Их особенность заключается в том, что

одному значению одной переменной соответствует строго определенное значение другой

переменной. Например, такова взаимосвязь двух физических переменных - веса и длины тела

(линейная положительная). Однако даже в физических экспериментах эмпирическая

взаимосвязь будет отличаться от функциональной связи в силу неучтенных или неизвестных

причин: колебаний состава материала, погрешностей измерения и пр.

При изучении взаимосвязи признаков из поля зрения исследователя неизбежно выпадает

множество возможных причин изменчивости этих признаков. Результатом является то, что

даже существующая в реальности функциональная связь между переменными выступает

эмпирически как вероятностная (стохастическая): одному и тому же значению одной

переменной соответствует распределение различных значений другой переменной (и наоборот).

Простейшим примером является соотношение роста и веса людей. Эмпирические результаты

исследования этих двух признаков покажут, конечно, положительную их взаимосвязь. Но

несложно догадаться, что она будет отличаться от строгой, линейной, положительной -

идеальной математической функции, даже при всех ухищрениях исследователя по учету

стройности или полноты испытуемых. Вряд ли на этом основании кому-то придет в голову

отрицать факт наличия строгой функциональной связи между длиной и весом тела.

Итак, функциональная взаимосвязь явлений эмпирически может быть выявлена только как

вероятностная связь соответствующих признаков. Наглядное представление о характере

вероятностной связи дает диаграмма рассеивания - график, оси которого соответствуют

значениям двух переменных, а каждый испытуемый представляет собой точку. В качестве

числовой характеристики вероятностной связи используются коэффициенты корреляции.

Можно ввести три градации величин корреляции по силе связи:

r < 0,3 — слабая связь (менее 10% от общей доли дисперсии);

0,3 < r < 0,7 — умеренная связь (от 10 до 50% от общей доли дисперсии);

r > 0,7 — сильная связь (50% и более от общей доли дисперсии).

Частная корреляция

Часто бывает так, что две переменные коррелируют друг с другом только за счет того, что обе

они меняются под влиянием некоторой третьей переменной. То есть, на самом деле связь

между соответствующими свойствами этих двух переменных отсутствует, но проявляется в

статистической взаимосвязи, или корреляции, под влиянием общей причины третьей

переменной).

Таким образом, если корреляция между двумя переменными уменьшается, при фиксируемой

третьей случайной величине, то это означает, что их взаимозависимость возникает частично

через воздействие этой третьей переменной. Если же частная корреляция равна нулю или очень

мала, то можно сделать вывод о том, что их взаимозависимость целиком обусловлена

собственным воздействием и никак не связана с третьей переменной.

Также, если частная корреляция больше первоначальной корреляции между двумя

переменными, то можно сделать вывод о том, что другие переменные ослабили связь, или

"скрыли" корреляцию.

К тому же необходимо помнить о том, что корреляция не есть причинность. Исходя из этого,

мы не имеем права безапелляционно говорить о наличии причинной связи: некоторая

совершенно отличная от рассматриваемых в анализе переменная может быть источником этой

корреляции. Как при обычной корреляции, так и при частных корреляциях предположение о

причинности должно всегда иметь собственные внестатистические основания.

Наши рекомендации