Тест по теоретической части (для тренировки).

Тест по теоретической части (для тренировки).

Классическая мера разброса – это

а) стандартное отклонение;

б) эксцесс;

в) среднее.

2. R=Xmax - Xmin - это формула

а) среднего;

б) размаха;

в) разброса.

График в форме последовательности столбцов, каждый из которых опирается на один разрядный интервал, а высота его отражает число случаев или частоту в этом разряде

а) полигон частот;

б) гистограмма;

в) график плотности распределения..

Неограниченно большая или вся мыслимая совокупность измерений объектов, о свойствах которых мы собираемся судить в результате эксперимента, - это

а) генеральная совокупность;

б) выборка;

в) таблица результатов.

5. V=(s/x)100% - это формула

а) среднего;

б) стандартного отклонения;x

в) коэффициента вариации.

6. Значение варианты, наиболее часто встречающееся в выборке, - это

а) среднее;

б) мода;

в) медиана.

При нормальном законе распределения коэффициенты асимметрии и эксцесса равны соответственно

а) 1, 0;

б) 0, 0;

в) 1, 1.

Медиана совпадает со средней арифметической только в случае распределения

а) нормального;

б) случайного;

в) равномерного.

9. Число, показывающее, сколько раз встречается в выборке каждая варианта xi, - это

а) частота;

б) среднее;

в) вероятность.

Шкала, измерение в которой предполагает приписывание объектам чисел в зависимости от степени выраженности измеряемого свойства, - это

а) номинативная,

б) ранговая,

в) интервальная,

в) шкала равных отношений.

График в форме последовательности точек, обозначающих середины своего разрядного интервала и соединенных отрезками прямых, - это

а) полигон частот;

б) гистограмма;

в) график плотности распределения..

Количественная мера плосковершинности или остроконечности симметричного распределения - это

а) медиана;

б) эксцесс;

в) асимметрия.

Шкала, измерение в которой числа отражают не только различия между объектами в уровне выраженности свойства, но и но и то, насколько больше или меньше выражено это свойство, - это

а) номинативная,

б) ранговая,

в) интервальная,

в) шкала равных отношений.

14. s=ÖD - это формула …

среднеквадратического отклонения

15. Статистические гипотезы подразделяют на …

основную и конкурирующую

непараметрические и параметрические

простые и сложные

Параметрические критерии - это критерии

а) основанные на ранжировании;

б) основанные на вычислении частот;

в) включающие в формулу расчета параметры распределения.

Самым высоким уровнем статистической значимости является уровень

а) р£0,05;

б) р£0,01;

в) р£0,001;

г) р£0,1;

К параметрическим критериям относится критерий

а) Манна - Уитни;

б) Стьюдента;

в) Вилкоксона;

г) Джонкира.

19. Корреляционная связь - это ... ... двух или более признаков.

статистическая взаимосвязь

По направлению корреляционная связь может быть

а) прямой и обратной;

б) прямолинейной и криволинейной;

в) сильной и слабой.

По форме корреляционная связь может быть

а) прямой и обратной;

б) прямолинейной и криволинейной;

в) сильной и слабой.

22. Коэффициент корреляции может принимать значения в пределах ...

[-1; 1]

Шкала, классифицирующая объекты пропорционально степени выраженности измеряемого свойства, - это

а) номинативная,

б) порядковая,

в) равных отношений;

г) интервальная.

Непараметрический критерий - это критерий, основанный на оперировании

а) частотами или рангами;

б) частотами или параметрами распределения;

в) рангами или параметрами распределения.

Мера изменчивости для метрических данных, равная сумме квадратов отклонений измеренных значений от их среднего арифметического называется

а) среднее;

б) дисперсия;

в) медиана.

Степень отклонения графика распределения частот от симметричного вида относительно среднего называют

а) медианой;

б) эксцессом;

в) асимметрией.

Сопоставление показателей, полученных по одним и тем же методикам, но в разных условиях измерения дает нам

а) умозрительный сдвиг;

б) временной сдвиг;

в) структурный сдвиг;

г) ситуационный сдвиг.

Выборка – это

а) множество испытуемых, объектов, событий, с помощью определённой процедуры выбранных из генеральной совокупности для участия в исследовании;

б) неограниченно большая или вся мыслимая совокупность измерений объектов, о свойствах которых мы собираемся судить в результате эксперимента;

в) множество испытуемых, объектов, событий.

Шкалы измерений.

Измерение - это приписывание числовых форм объектам или событиям в соответствии с определенными правилами. С.Стивенсом предложена классификация из 4 типов шкал измерения:

1) номинативная, или номинальная, или шкала наименований;

2) порядковая, или ординальная, шкала;

3) интервальная, или шкала равных интервалов;

4) шкала равных отношений

Номинативная шкала(неметрическая) - это шкала, в которой объекты группируются по различным классам так, чтобы чтобы внутри класса они были идентичны по измеряемому свойству; шкала, классифицирующая по названию. Название же не измеряется количественно, оно лишь позволяет отличить один объект от другого или одного субъекта от другого. Номинативная шкала - это способ классификации объектов или субъектов, распределения их по ячейкам классификации. Простейший случай номинативной шкалы - дихотомическая шкала, состоящая всего лишь из двух ячеек, например: "имеет братьев и сестер - единственный ребенок в семье" и т.п. Более сложный вариант номинативной шкалы - классификация из трех и более ячеек, например: "выбор кандидатуры А - кандидатуры Б -кандидатуры В - кандидатуры Г" или "старший - средний - младший -единственный ребенок в семье" и др.

Расклассифицировав все объекты, реакции или всех испытуемых по ячейкам классификации, мы получаем возможность от наименований перейти к числам, подсчитав количество наблюдений в каждой из ячеек. Теперь мы можем оперировать этими числами, представляющими собой частоты встречаемости разных наименований. Далее мы можем сопоставить полученное распределение частот с равномерным или каким-то иным распределением. Таким образом, номинативная шкала позволяет нам подсчитывать частоты встречаемости разных "наименований", или значений признака, и затем работать с этими частотами с помощью математических методов.

Ранговая или порядковая шкала(неметрическая) - это шкала, классифицирующая по принципу "больше - меньше". Измерение в шкале предполагает приписывание объектам чисел в зависимости от степени выраженности измеряемого свойства. Если в шкале наименований было безразлично, в каком порядке мы расположим классификационные ячейки, то в порядковой шкале они образуют последовательность.Чем больше классов в шкале, тем больше у нас возможностей для математической обработки полученных данных и проверки статистических гипотез. Все психологические методы, использующие ранжирование, построены на применении шкалы порядка.

Если испытуемому предлагается упорядочить 18 ценностей по степени их значимости для него, то испытуемый совершает так называемое принудительное ранжирование, при котором количество рангов соответствует количеству ранжируемых субъектов или объектов (ценностей, качеств и т.п.).

Независимо от того, приписываем ли мы каждому качеству или испытуемому один из 3-4 рангов или совершаем процедуру принудительного ранжирования, мы получаем в обоих случаях ряды значений, измеренные по порядковой шкале. Правда, если у нас всего 3 возможных класса и, следовательно, 3 ранга, и при этом, скажем, 20 ранжируемых испытуемых, то некоторые из них неизбежно получат одинаковые ранги. Все многообразие жизни не может уместиться в 3 градации, поэтому в один и тот же класс могут попасть люди, достаточно серьезно различающиеся между собой. С другой стороны, принудительное ранжирование, может искусственно преувеличивать различия. Единица измерения в шкале порядка - расстояние в 1 класс или в 1 ранг, при этом расстояние между классами и рангами может быть разным (оно нам неизвестно).

Интервальная шкала(метрическая) - это шкала, классифицирующая по принципу "больше на определенное количество единиц - меньше на определенное количество единиц"; такое измерение, при котором числа отражают не только различия между объектами в уровне выраженности свойства (как в порядковой шкале), но и то, насколько больше или меньше выражено свойство. Каждое из возможных значений признака отстоит от другого на равном расстоянии.

Шкала равных отношений - это шкала, классифицирующая объекты или субъектов пропорционально степени выраженности измеряемого свойства. В шкалах отношений классы обозначаются числами, которые пропорциональны друг другу: 2 так относится к 4, как 4 к 8. Это предполагает наличие абсолютной нулевой точки отсчета. В физике абсолютная нулевая точка отсчета встречается при измерении длин отрезков или физических объектов и при измерении температуры по шкале Кельвина с абсолютным нулем температур. Считается, что в психологии примерами шкал равных отношений являются шкалы порогов абсолютной чувствительности.

По отношению к показателям частот возможно применять все арифметические операции: сложение, вычитание, деление и умножение.

Статистические критерии.

Статистический критерий - это решающее правило, обеспечивающее надежное поведение, то есть принятие истинной и отклонение ложной гипотезы с высокой вероятностью. Статистические критерии обозначают также метод расчета определенного числа и само это число.

По соотношению эмпирического (рассчитанного по выборке) и критического значений критерия мы можем судить о том, подтверждается ли или опровергается нулевая гипотеза. В большинстве случаев для того, чтобы мы признали различия значимыми, необходимо, чтобы эмпирическое значение критерия превышало критическое, хотя есть критерии (например, критерий Манна-Уитни или критерий знаков), в которых мы должны придерживаться противоположного правила. Эти правила оговариваются в описании каждого из критериев.

В некоторых случаях расчетная формула критерия включает в себя количество наблюдений в исследуемой выборке, обозначаемое как n. В этом случае эмпирическое значение критерия одновременно является тестом для проверки статистических гипотез. По специальной таблице мы определяем, какому уровню статистической значимости различий соответствует данная эмпирическая величина.

В большинстве случаев, однако, одно и то же эмпирическое значение критерия может оказаться значимым или незначимым в зависимости от количества наблюдений в исследуемой выборке (n) или от так называемого количества степеней свободы, которое обозначается как v или как df. Число степеней свободы v равно числу классов вариационного ряда минус число условий, при которых он был сформирован. К числу таких условий относятся объем выборки (n), средние и дисперсии.

Критерии делятся на параметрические и непараметрические.

Параметрические и непараметрические критерии. Примеры.

Параметрические критерии- rкритерии, включающие в формулу расчета параметры распределения, то есть средние и дисперсии (t-критерий Стьюдента, критерий F и др.)

Сравнение двух выборок по признаку, измеренному в метрической шкале,обычно предполагает сравнение средних значений с использованием параметри­ческого критерия t-Стъюдента. Следует различать три ситуации по соотноше­нию выборок между собой: случай независимых и зависимых выборок (измере­ний признака) и дополнительно — случай сравнения одного среднего значенияс заданной величиной (критерий r-Стьюдента для одной выборки).К параметрическим методам относится и сравнение дисперсий двух выборокпо критерию F-Фишера. Иногда этот метод приводит к ценным содержатель­ным выводам, а в случае сравнения средних для независимых выборок срав­нение дисперсий является обязательной процедурой.При сравнении средних или дисперсии двух выборок проверяется нена­правленная статистическая гипотеза о равенстве средних (дисперсий) в гене­ральной совокупности. Соответственно, при ее отклонении допустимо при­нятие двусторонней альтернативы о конкретном направлении различий всоответствии с соотношением выборочных средних (дисперсий). Для приня­тия статистического решения в таких случаях применяются двусторонние кри­терии и, соответственно, критические значения для проверки ненаправлен­ных альтернатив.

Непараметрические критерии- критерии, не включающие в формулу расчета параметров распределения и основанные на оперировании частотами или рангами (критерий Q Розенбаума, критерий Т Вилкоксона и др.).Непараметрические методы сравнения выборок, являются аналогами параметрических методов сравнения средних зна­чений. И почти каждый параметрический метод сравнения средних можетбыть при необходимости заменен своим непараметрическим аналогом либосочетанием непараметрических методов.При выборе между параметрическими и непараметри­ческими методами следует исходить из свойств самих данных.Непараметрические аналоги параметрических методов сравнения выборокприменяются в случаях, когда не выполняются основные предположения, ле­жащие в основе параметрических методов сравнения средних значений.При решении вопроса о выборе параметрического или непараметрическо­го метода сравнения необходимо иметь в виду, что параметрические методыобладают заведомо большей чувствительностью, чем их непараметрическиеаналоги. Поэтому исходной ситуацией является выбор параметрического ме­тода. И решение о применении непараметрического метода становится оп­равданным, если не выполняются исходные предположения, лежащие в ос­нове применения параметрического метода.

Условия, когда применение непараметрических методов является оправданным:есть основания считать, что распределение значений признака в гене­ральной совокупности не соответствует нормальному закону;есть сомнения в нормальности распределения признака в генеральнойсовокупности, но выборка слишком мала, чтобы по выборочному рас­пределению судить о распределении в генеральной совокупности;не выполняется требование гомогенности дисперсии при сравнениисредних значений для независимых выборок.На практике преимущество непараметрических методов наиболее заметно,когда в данных имеются выбросы (экстремально большие или малые значения).Если размер выборки очень велик (больше 100), то непараметрические ме­тоды сравнения использовать нецелесообразно, даже если не выполняютсянекоторые исходные предположения применения параметрических методов.С другой стороны, если объемы сравниваемых выборок очень малы (10 и мень­ше), то результаты применения непараметрических методов можно рассмат­ривать лишь как предварительные.

При сравнении выборок с использованием непараметрических критериев,как и в случае параметрических критериев, обычно проверяются ненаправлен­ные статистические гипотезы. Основная (нулевая) статистическая гипотезапри этом содержит утверждение об идентичности генеральных совокупностей(из которых извлечены выборки) по уровню выраженности изучаемого при­знака. Соответственно, при ее отклонении допустимо принятие двусторон­ней альтернативы о конкретном направлении различий в соответствии с вы­борочными данными. Для принятия статистического решения в таких случаяхприменяются двусторонние критерии и, соответственно, критические значе­ния для проверки ненаправленных альтернатив.

Самым популярным и наиболее чувствительным (мощным) аналогом кри­терия t-Стьюдента для независимых выборок является критерий U-Манна-Уитни (Mann-Whitney U). Непараметрическим его аналогом является крите­рий серий, который еще проще в вычислительном отношении, нообладает заметно меньшей чувствительностью, чем критерий U.

Самым чувствительным (мощным) аналогом критерия t-Стьюдента для
зависимых выборок является критерий Т-Вилкоксона (Wilcoxonsigned-ranktest).Непараметрическим его аналогом является критерий знаков, который ещепроще в вычислительном отношении, но обладает меньшей чувствительно­стью, чем критерий Т-Вилкоксона. Критерий Т основан на упорядочиваниивеличин разностей (сдвигов) значений признака в каждой паре его измере­ний (критерий знаков основан на учете только знака этой разности). Соот­ветственно, критерий Т, будучи менее чувствительным аналогом t-Стьюдента,более чувствителен по сравнению с другими непараметрическими критерия­ми для повторных измерений (зависимых выборок).

Критерий HКраскала-Уоллеса (Kruskal-Wallis Н) является непараметрическпм аналогом однофакторного дисперсионного анализа (ANOVA) для неза­висимых выборок, поэтому другое его название — Однофакторный дисперси­онный анализ Краскала-Уоллеса (Kruskal-Wallisone-wayanalysis o f variance). Онпозволяет проверять гипотезы о различии более двух выборок по уровню вы­раженности изучаемого признака.

Критерий χ2-Фридмана (Friedmantest) является непараметрическим анало­гом однофакторного дисперсионного анализа (ANOVA) для повторных изме­рений. Он позволяет проверять гипотезы о различии более двух зависимыхвыборок (повторных измерений) по уровню выраженности изучаемого при­знака. Критерий χ2-Фридмана может быть более эффективен, чем его метри­ческий аналог ANOVA в случаях повторных измерений изучаемого признакана небольших выборках.

Статистические гипотезы

Обычно исследование проводится для проверки гипотезы, которая явля­ется следствием теоретических представлений.1 Эта гипотеза содержит утвер­ждение о связи абстрактных категорий, относящихся к свойствам более илименее широкой совокупности объектов — генеральной совокупности.Предположение, которое проверяется с применением научного метода,называютнаучной гипотезой. Следует отметить, что не всякая гипотеза, атолько та, которая допускает для своей проверки применение научного мето­да, может претендовать на научность.

Любое исследование сводится к выявлению связи между переменными.Связь эта мо­жет выражаться в величине и направлении различий между сравниваемымигруппами или в знаке и величине коэффициента корреляции. То есть связьхарактеризуется своей силой и направлением.

Еще одна не менееважная характеристика связи — ее надежность, «истинность».Надежность связи непосредственно связана с репрезентативностью выбор­ки, с тем, насколько уверенно статистики выборки позволяют судить о соот­ветствующих параметрах генеральной совокупности. Ведь связь, обнаруженнаяв выборке, интересует исследователя лишь в той мере, в какой она позволяетсудить о связи, которая существует в генеральной совокупности.

Надежность связи определяется тем, насколько вероятно, что обнаружен­ная в выборке связь будет вновь обнаружена (подтвердится) на другой анало­гичной выборке, извлеченной из той же генеральной совокупности.Очевидный способ проверки надежности обнаруженной в исследованиисвязи — это многократное проведение аналогичного исследования на разныхвыборках. Однако это и трудоемко и не всегда возможно. Но можно сформу­лировать вопрос по-другому. Если в генеральной совокупности связи нет, токакова вероятность случайного получения данного результата исследования?Иначе говоря, какова вероятность, что полученный результат является слу­чайным, а на самом деле связи в генеральной совокупности нет? Вопрос, сфор­мулированный таким образом, позволяет получить ответ с использованиемметодов статистики. Соответствующее проверяемое утверждение — об отсут­ствии связи — называется статистической гипотезой.

Статистическая гипотеза— это утверждение относительно неизвестногопараметра генеральной совокупности, которое формулируется для проверкинадежности связи и которое можно проверить по известным выборочнымстатистикам — результатам исследования. Обычно выделяют основную (ну­левую) и альтернативную статистические гипотезы. Основная (нулевая) гипо­теза (Н0)— содержит утверждение об отсутствии связи в генеральной сово­купности и доступна проверке методами статистического вывода. Альтернативнаягипотеза (Н1)— принимается при отклонении Н0 и содержит утверждение оналичии связи. При этом нулевая и альтернативная гипотезы представляютсобой, в терминах теории вероятности, «полную группу несовместных собы­тий»: если верна одна из них, то другая является ложной, и наоборот, откло­нение одной из них неизбежно влечет принятие другой.

Отметим, что статистическая проверка научной гипотезы следует Аристо­телевой логике доказательства «от противного». Исследователь обычно заин­тересован в установлении связи между изучаемыми явлениями, соответствен­но, его научная гипотеза обычно содержитутверждение о наличии такой связи. Носредствами статистики по результатам вы­борочного исследования проверяется гипо­теза об отсутствии различий. И научная ги­потеза подтверждается в той мере, в какойпо результатам выборочного исследованиявозможно отклонение основной статисти­ческой гипотезы.

Меры центральной тенденции.

Мера центральной тенденции (CentralTendency) — это число, характеризую­щее выборку по уровню выраженности измеренного признака.

Существуют три способа определения «центральной тенденции», каждо­му из которых соответствует своя мера: мода, медиана и выборочное среднее.

Мода (Mode) — это такое значение из множества измерений, которое встре­чается наиболее часто. Моде, или модальному интервалу признака, соответ­ствует наибольший подъем (вершина) графика распределения частот. Если график распределения частот имеет одну вершину, то такое распределение называется унимодальным.

Когда два соседних значения встречаются одинаково часто и чаще, чем любое другое значение, мода есть среднее этих двух значений.

Распределение может иметь и не одну моду. Когда все значения встреча­ются одинаково часто, принято считать, что такое распределение не имеет моды.

Бимодальное распределение имеет на графике распределения две вершины, даже если частоты для двух вершин не строго равны. В последнем случае вы­деляют большую и меньшую моду. Во всей группе может быть и несколько локальных вершин распределения частот. Тогда выделяют наибольшую моду и локальные моды.

Еще раз отметим, что мода — это значение признака, а не его частота.

Медиана (Median) — это такое значение признака, которое делит упорядо­ченное (ранжированное) множество данных пополам так, что одна половина всех значений оказывается меньше медианы, а другая — больше. Таким обра­зом, первым шагом при определении медианы является упорядочивание (ран­жирование) всех значений по возрастанию или убыванию. Далее медиана определяется следующим образом:

· если данные содержат нечетное число значений (8, 9, 10, 13, 15), то ме­диана есть центральное значение, т. е. Md= 10;

· если данные содержат четное число значений (5, 8, 9, 11), то медиана есть точка, лежащая посередине между двумя центральными значения­ми, т. е. Md= (8+9)/2 = 8,5.

Среднее (Mean) (Мх — выборочное среднее, среднее арифметическое) — определяется как сумма всех значений измеренного признака, деленная на количество суммированных значений.

Меры изменчивости.

Меры изменчивости(Dispersion) применяются в психологии для численного выраже­ния величины межиндивидуальной вариации признака.

Наиболее простой и очевидной мерой изменчивости является размах, ука­зывающий на диапазон изменчивости значений. Размах (Range)— это просто разность максимального и минимального значений:

Тест по теоретической части (для тренировки). - student2.ru

Ясно, что это очень неустойчивая мера изменчивости, на которую влияют любые возможные «выбросы». Более устойчивыми являются разновидности размаха: размах от 10 до 90-го процентиля (Р90 - Р10) или междуквартильный размах (Р75 — Р25). Последние две меры изменчивости находят свое применение для описания вариации в порядковых данных. А для метрических данных используется дисперсия.

Дисперсия (Variance) — мера изменчивости для метрических данных, про­порциональная сумме квадратов отклонений измеренных значений от их арифметического среднего:

Тест по теоретической части (для тренировки). - student2.ru

Чем больше изменчивость в данных, тем больше отклонения значений от среднего, тем больше величина дисперсии. Величина дисперсии получается при усреднении всех квадратов отклонений:

Тест по теоретической части (для тренировки). - student2.ru

Следует отличать теоретическую (генеральную) дисперсию — меру измен­чивости бесконечного числа измерений (в генеральной совокупности, попу­ляции в целом) и эмпирическую, или выборочную, дисперсию – для реально измеренного множества значений признака. Выборочное значение в стати­стике используется для оценки дисперсии в генеральной совокупности. Выше указана формула для генеральной (теоретической) дисперсии (Dx), которая, понятно, не вычисляется. Для вычислений используется формула выбороч­ной (эмпирической) дисперсии (Dx), отличающаяся знаменателем:

Тест по теоретической части (для тренировки). - student2.ru

Стандартное отклонение (Std. deviation)(сигма, среднеквадратическое от­клонение) — положительное значение квадратного корня из дисперсии:

Тест по теоретической части (для тренировки). - student2.ru

На практике чаще используется именно стандартное отклонение, а не дис­персия. Это связано с тем, что сигма выражает изменчивость в исходных еди­ницах измерения признака, а дисперсия — в квадратах исходных единиц.

Свойства дисперсии:

1. Если значения измеренного признака не отличаются друг от друга (рав­ны между собой) — дисперсия равна нулю. Это соответствует отсутствию из­менчивости в данных.

2. Прибавление одного и того же числа к каждому значению переменной не меняет дисперсию. Прибавление константы к каждому значению переменной сдвигает график распределения этой переменной на эту константу (меняется среднее), но из­менчивость (дисперсия) при этом остается неизменной.

3. Умножение каждого значения переменной на константу с изменяет дис­персию в с2 раз.

4. При объединении двух выборок с одинаковой дисперсией, но с разными средними значениями дисперсия увеличивается.

Тест по теоретической части (для тренировки).

Наши рекомендации