Методы вычисления коэффициентов взаимосвязи
Величина коэффициента взаимосвязи рассчитывается с учетом шкалы, использованной для измерений.
Для оценки взаимосвязи, когда измерения производят в шкале отношений или интервалов и форма взаимосвязи линейная, используется коэффициент корреляции Бравэ-Пирсона (коэффициенты корреляции для других шкал измерения в данном пособии не рассматриваются). Обозначается он латинской буквой – r. Вычисление значения r чаще всего производят по формуле:
,
где и – средние арифметические значения показателей x и y, и – средние квадратические отклонения, n – число измерений (испытуемых).
В некоторых случаях тесноту взаимосвязи определяют на основании коэффициента детерминации D, который вычисляется по формуле:
.
Этот коэффициент определяет часть общей вариации одного показателя, которая объясняется вариацией другого показателя. Например, коэффициент корреляции r = –0,677 (между результатами в беге на 30 м с ходу и тройном прыжке с места). Коэффициент детерминации равен:
.
Следовательно, 45,8 % рассеяния спортивного результата в тройном прыжке объясняется изменением результатов в беге на 30 м. Иными словами, на оба исследуемых признака действуют общие факторы, вызывающие варьирование этих признаков, и доля общих факторов составляет 45,8%. Остальные 100% – 45,8% = 54,2% приходятся на долю факторов, действующих на исследуемые признаки избирательно.
15. Основы теории проверки
статистических гипотез
В физическом воспитании и спорте часто при анализе какого-либо явления приходится по некоторым изменениям показателя делать обобщающий вывод. Например, после тренировочного занятия 18 легкоатлетов у трёх наблюдается неполное восстановление. Можно ли на этом основании судить о трудности тренировочного процесса или это случайность?
Так как указанные выводы делаются на основании относительно небольшого числа результатов измерения показателя (n ≤ 30), необходима проверка достоверности (бесспорности) таких выводов.
Для этого применяются статистические гипотезы.
Статистической гипотезой называется предположение о свойстве генеральной совокупности, которое можно проверить, опираясь на данные выборки. Статистическую гипотезу обозначают символом H.
Обычно выдвигают и проверяют две противоречащие друг другу гипотезы:
1) нулевую (основную) H0;
2) конкурирующую (альтернативную) H1.
Примеры статистических гипотез:
1. Нулевая гипотеза H0: закон распределения результатов измерения является нормальным. Конкурирующая гипотеза H1: закон распределения результатов измерения отличен от нормального.
2. Нулевая гипотеза H0: среднее арифметическое значение генеральной совокупности результатов измерения показателя после цикла тренировок не изменилось. Конкурирующая гипотеза H1: среднее арифметическое значение увеличилось (эффективна или нет методика тренировок).
3. Нулевая гипотеза H0: генеральная дисперсия спортивных результатов спортсмена в результате проведения тренировок не изменилась. Конкурирующая гипотеза H1: генеральная дисперсия уменьшилась (изменилась или нет стабильность результатов спортсмена).
Проверка нулевых гипотез
Для проверки выдвинутых нулевых гипотез используют специальные статистические критерии, разработанные математиками (Колмогоровым, Смирновым, Стьюдентом, Фишером, Пирсоном и др.).
Статистическим критерием называют определённое правило, задающее условия, при которых проверяемую нулевую гипотезу следует либо отклонить, либо принять.
Критерии подразделяются на три типа:
1. Критерии значимости, которые служат для проверки гипотез о параметрах распределений генеральной совокупности (чаще всего нормального распределения). Эти критерии называются параметрическими (критерии Стьюдента, Фишера и др.).
2. Критерии, которые для проверки гипотез не используют предположений о распределении генеральной совокупности. Эти критерии не требуют знания параметров распределений, поэтому называются непараметрическими (критерии Уилкоксона, Ван дер Вардена, Манна-Уитни).
3. Критерии, служащие для проверки гипотез о согласии распределении генеральной совокупности, из которой получена выборка, с ранее принятой теоретической моделью (чаще всего нормальным распределением), называются критериями согласия (критерий Шапиро и Уилка, хи-квадрат критерий).
С помощью критериев (обозначим их буквой К) выбирают одну из гипотез: нулевую или конкурирующую. Значение критерия, вычисленное по данным выборки, называют наблюдаемым значением критерия (Кнабл). Совокупность значений критерия, при которых отвергают нулевую гипотезу, называют критической областью. Совокупность значений критерия, при которых нулевую гипотезу принимают, называют областью принятия гипотезы (областью допустимых значений). Указанные области разграничены критическим (граничным) значением критерия, который находится по соответствующей таблице.
Основной принцип проверки статистических гипотез заключается в том, что если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают и принимают конкурирующую. Если же оно принадлежит области принятия гипотезы – нулевую гипотезу принимают и отвергают конкурирующую.
15.2. Односторонние и двусторонние
критические области
1. Односторонняя критическая область используется, если, согласно конкурирующей гипотезе, одна рассматриваемая величина может быть только больше (или только меньше) другой величины. В зависимости от выбранного критерия односторонняя критическая область может быть правосторонней или левосторонней.
Схема правосторонней критической области:
Схема левосторонней критической области:
2. Двусторонняя критическая область используется, если, согласно конкурирующей гипотезе, одна рассматриваемая величина может быть как больше, так и меньше (не равна) другой.