Коэффициент корреляции рангов Спирмена г
Этот коэффициент рассчитывать проще, однако результаты получаются менее точными, чем при использовании г. Это связано с тем, что при вычислении коэффициента Спирмена используют порядок следования данных, а не их количественные характеристики и интервалы между классами.
Дело в том, что при использовании коэффициента корреляции рангов Спирмена (г,) проверяют только, будет ли ранжирование данных для какой-либо выборки таким же, как и в ряду других данных для этой выборки, попарно связанных с первыми (например, будут ли одинаково «ранжироваться» студенты при прохождении ими как психологии, так и математики, или даже при двух разных преподавателях психологии?). Если коэффициент близок к + 1, то это означает, что оба ряда практически совпадают, а если этот коэффициент близок к — 1, можно говорить о полной обратной зависимости.
Коэффициент ^ вычисляют по формуле
где (/-разность между рангами сопряженных значений признаков (независимо от ее знака), а и-число пар.
Обычно этот непараметрический тест используется в тех случаях, когда нужно сделать какие-то выводы не столько об интервалах между данными, сколько об их рангах, а также тогда, когда кривые распределения слишком асимметричны и не позволяют использовать такие параметрические критерии, как коэффициент г (в этих случаях бывает необходимо превратить количественные данные в порядковые).
Поскольку именно так обстоит дело с распределением значений эффективности и времени реакции в экспериментальной группе после воздействия, можно повторить расчеты, которые вы уже проделали для этой группы, только теперь не для коэффициента г, а для показателя г,. Это позволит посмотреть, насколько различаются эти два показателя.
Статистика и обработка данных 311
Испыту- Эффек- Время Ранги Ранги d d1 емые тивность реакции х* у* х У |
Д 8 8 17 , 12 5 7 49 Д 9 20 13 1 2 I 1 Д 10 6 20 15 11,5 3,5 12,25 Д 11 8 18 12 7,5 4,5 20,25 Д 12 17 21 2 13,5 11.5 132,25 Д 13 10 22 8,5 15 6,5 42,25 Д 14 10 19 8,5 9,5 1 1 Ю9 9 20 10 11,5 1,5 2,25 Ю 10 7 17 14 5 9 81 Д 11 8 19 12 9,5 2,5 6,25 Ю 12 14 14 4 3 1 1 Ю 13 13 12 5 1 4 16 Ю 14 16 18 3 7,5 4,5 20,25 Ю 15 11 21 7 13,5 6,5 42,25 Ю 16 12 17 6 5 1 1 |
* Следуетпомнить, что
1) для числа попаданий 1-й ранг соответствует самой высокой, а 15-й-самой низкой результативности, тогда как для времени реакции 1-й ранг соответствует самому короткому времени, а 15-и-самому долгому,
2) данным ex aequo придается средний ранг.
6-428
153- 15
== 1
= 0,24.
Таким образом, как и в случае коэффициента г, получен положительный, хотя и недостоверный, результат. Какой же из двух результатов правдоподобнее: г = —0,48 или г, = +0,24? Такой вопрос может встать лишь в том случае, если результаты достоверны.
Хотелось бы еще раз подчеркнуть, что сущность этих двух коэффициентов несколько различна. Отрицательный коэффициент г указывает на то, что эффективность чаще всего тем выше, чем время реакции меньше, тогда как при вычислении коэффициента г, требовалось проверить, всегда ли более быстрые испытуемые реагируют более точно, а более медленные - менее точно.
Поскольку в экспериментальной группе после воздействия был получен коэффициент г,, равный 0,24, подобная тенденция здесь, очевидно, не прослеживается. Попробуйте самостоятельно разобраться в данных для контрольной группы после воздействия, зная, что ^_d2 = 122,5:
г, = 1 — ——————— = I — ——————— == 1 — ; достоверно ли?
Каков ваш вывод?..........................................
Итак, мы рассмотрели различные параметрические и непараметрические статистические методы, используемые в психологии. Наш обзор
312 Приложение £
был весьма поверхностным, и главная задача его заключалась в том чтобы читатель понял, что статистика не так страшна, как кажется, и требует в основном здравого смысла. Напоминаем, что данные «опыта», с которыми мы здесь имели дело,-вымышленные и не могут служить основанием для каких-либо выводов. Впрочем, подобный эксперимент стоило бы действительно провести. Поскольку для этого опыта была выбрана сугубо классическая методика, такой же статистический анализ можно было бы использовать во множестве различных экспериментов. В любом случае нам кажется, что мы наметили какие-то главные направления, которые могут оказаться полезны тем, кто не знает, с чего начать статистический анализ полученных результатов.
Резюме
Существуют три главных раздела статистики: описательная статистика, индуктивная статистика и корреляционный анализ.
I. Описательная статистика
1. Задачи описательной статистики - классификация данных, построение распределения их частот, выявление центральных тенденций этого распределения и оценка разброса данных относительно средних.
2. Для классификации данных сначала располагают их в возрастающем порядке. Далее их разбивают на классы по величине, интервалы между которыми определяются в зависимости от того, что именно иследователь хочет выявить в данном распределении.
3. К наиболее часто используемым параметрам, с помощью которых можно описать распределение, относятся, с одной стороны, такие величины, как мода, медиана и средняя арифметическая, а с другой -показатели разброса, такие как варианса (дисперсия) и стандартное отклонение.
4. Мода соответствует значению, которое встречается чаще других или находится в середине класса, обладающего наибольшей частотой.
Медиана соответствует значению центрального данного, которое может быть получено после того, как все данные будут расположены в возрастающем порядке.
Средняя арифметическая равна частному от деления суммы всех данных на их число.
Распределение считается нормальным, если кривая распределения имеет колоколообразный вид, а все показатели центральной тенденции совпадают, что свидетельствует о симметричности распределения.
5. Диапазон распределения (размах вариаций) равен разности между наибольшим и наименьшим значениями результатов.
6. Среднее отклонение-это более точный показатель разброса, чем диапазон распределения. Для расчета среднего отклонения вычисляют среднюю разность между всеми значениями данных и средней арифме-
Cinciiniu тики и обработки дачных 313
тической, или, упрощенно,
Среднее отклонение =
7. Еще один показатель разброса, вычисляемый из среднего отклонения,-это варианса (дисперсия), равная среднему квадрату разностей между значениями всех данных и средней:
Yd2 Варианса = ——. п
8. Наиболее употребительным показателем разброса служит стандартное отклонение, равное квадратному корню из вариансы. Таким образом, это квадратный корень из суммы квадратов всех отклонений от средней:
Стандартное отклонение = или
п V п - 1
9. Важное свойство стандартного отклонения заключается в том. что независимо от его абсолютной величины в нормальном распределении оно всегда соответствует одинаковому проценту данных, располагающихся по обе стороны от средней: 68% результатов располагаются в пределах одного стандартного отклонения в обе стороны от средней, 95%-в пределах двух стандартных отклонений и 99,7%-в пределах трех стандартных отклонений.
10. С помощью перечисленных выше показателей можно осуществить оценку различий между двумя или несколькими распределениями, позволяющую проверить, насколько эти различия могут быть экстраполированы на популяцию, из которой взяты выборки. Для этого применяют методы индуктивной статистики.
II. Индуктивная статистика
1. Задача индуктивной статистики заключается в том, чтобы оце-' нить значимость тех различий, которые могут быть между двумя распределениями, с целью выяснить, можно ли распространить найденную закономерность на всю популяцию, из которой были взяты выборки.
2. Для того чтобы определить, достоверны ли различия между распределениями, следует выдвинуть гипотезу, которую нужно будет затем проверить статистическими методами. Нулевой гипотезой называют предположение, согласно которому различие между распределениями недостоверно, тогда как альтернативная гипотеза утверждает противоположное.
3. В том случае, если данных достаточно, если эти данные количественные и подчиняются нормальному распределению, для проверки гипотез используют параметрические критерии. Если же данных мало либо они
.44 Приложение Б
являются порядковыми или качественными (см.дополнение Б.1), используют непараметрические критерии.
4. Из параметрических критериев наиболее эффективен и чаще всего используется критерий t Стьюдента. Этот критерий позволяет сравнить средние и стандартные отклонения для двух распределений. В случае если эти показатели принадлежат независимым выборкам, используют формулу
Х,-Х,
Для сопряженных выборок используют иную формулу:
^-^ .
lny--(W
5. Если необходимо сравнить три или большее число распределений. используют иной параметрический метод-дисперсионный анализ. При этом с помощью метода Шеффе можно выявить пары выборок, различия между которыми достоверны либо недостоверны.
6. Критерий 72 (хи-квадрат)-это непараметрический критерий, позволяющий проверить, являются ли две переменные независимыми друг от друга. По этому методу сравнивают, как распределяются эмпирические частоты в зависимости от критериев для каждой переменной, с тем, как они распределились бы теоретически, если бы переменные были независимыми. Далее с помощью таблицы, в которую сводятся все частоты, вычисляют критерий у/. Для этого сначала находят разницу между каждой эмпирической (Э) и соответствующей теоретической (Т) частотой, а затем сумму этих разностей:
, у(Э-Т)2
X—— \ _____
t—i -у
7. Критерий знаков (биномиальный тест)-еще один непараметрический метод, позволяющий легко определить, оказала ли независимая переменная существенное влияние по сравнению с исходным уровнем (ф:'ном). Для этого сначала подсчитывают число «ухудшений» (-) или число «улучшений» (+), а затем сравнивают одно из этих двух чисел с тем. что могло бы получиться в результате чистой случайности (1 шанс из 2, или п/2). Для этого применяют формулу
(X ± 0.5) - ,
Z
/" V 2
Статистики и обработка дачных 315
8. Существуют и другие непараметрические тесты, которые приходится использовать для проверки гипотез тогда, когда нельзя применить параметрические критерии. К этим методам, в частности, относится критерий рангов, позволяющий определить, случайна или нет очередность событий в той или иной последовательности, а также критерий U и критерий Т. Последние два критерия используют в случае порядковых переменных соответственно для независимых и зависимых выборок.
9. Какой бы критерий ни использовался, его вычисленное значение следует сравнить с табличным для уровня значимости 0.05 с учетом числа степеней свободы. Если при этом вычисленный результат окажется выше, нулевая гипотеза может быть отвергнута и можно, следовательно, утверждать, что разница достоверна.
III. Корреляционный анализ
1. Задача корреляционного анализа заключается в том, чтобы установить возможную связь между двумя показателями, полученными на одной и той же или на двух различных выборках. При этом устанавливается. приводит ли увеличение какого-либо показателя к увеличению или уменьшению другого показателя.
2. Коэффициент корреляции колеблется в пределах от +1, что соответствует полной положительной корреляции, до — 1 в случае полной отрицательной корреляции. Если этот коэффициент равен 0, то никакой корреляции между двумя рядами данных нет.
3. Коэффициент корреляции Браве - Пирсона (г)-это параметрический показатель, для вычисления которого сравнивают средние и стандартные отклонения результатов двух измерений. При этом используют формулу
4. Коэффициент корреляции рангов Спирмена (г,) - это непараметрический показатель, с помощью которого пытаются выявить связь между рангами соответственных величин в двух рядах измерений.
5. Коэффициент корреляции может быть значимым лишь при достаточном числе пар данных, взятых в анализ. Это можно проверить с помощью таблицы пороговых значений г или г, для уровня значимости 0,05.