Справочник от Автор24
Поделись лекцией за скидку на Автор24

Проблема измерения в психологии

  • 👀 3674 просмотра
  • 📌 3630 загрузок
Выбери формат для чтения
Загружаем конспект в формате docx
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Проблема измерения в психологии» docx
Лекция 1. Проблема измерения в психологии Тема 1. Проблема измерения в психологии 1. Измерительные шкалы. 2. Понятие выборки. Репрезентативность выборки. 3.Представление результатов (таблицы, статистические ряды, гистограммы). Еще более 200 лет назад И.Кант говорил о несостоятельности психологии как науки, так как психические явления не поддаются измерению, и, следовательно, к ним не применимы математические методы. И.Гербарт, в противовес И.Канту, заявил о взаимосвязи психологии и математики. И.Гербарт считал, что к каждой теории необходимо применять количественные методы, иначе теория так и останется умозрительной. С тех пор необходимость применения в психологии математических методов не вызывает сомнений. Изучение математических методов у психологов-студентов вызывают обычно большие трудности. Студенты часто сомневаются в необходимости изучения математических методов и испытывают страх при мысли о неизбежной перспективе их применения. Вопрос о необходимости изучения студентами математических методов может быть разрешен признанием того, что психология – это одновременно и наука и искусство. Практическому консультированию как искусству может и не понадобиться применение математических методов. Но научное познание, которое лежит в основе практических приемов, невозможно без математического обеспечения. Здесь уже недостаточно обыденного понимания на уровне здравого смысла, необходим особый инструмент – научный метод, опирающийся на количественные измерения. Бытует мнение, что изучение математических методов необходимо только для академических научных исследований, а в практической работе они не находят применения. Да, практическая деятельность психолога – это прежде всего искусство применения практических методов. Но профессионал отличается тем, что может научно обосновать свою точку зрения, проверить эффективность того или иного практического метода. Научное познание предполагает получение результатов – обычно в виде чисел. Однако просто собрать данные недостаточно. Даже объективно и корректно собранные данные ничего не говорят. Исследователю необходимо умение организовать их, обработать и проинтерпретировать, что невозможно без применения  математических методов. Многие начинающие ученые-психологи ссылаются на наличие различных компьютерных программ. Но любая компьютерная программа только переводит один набор чисел в другой. Исследователь должен  уметь: 1) адекватно организовать исследование, чтобы его результаты были доступны математической обработке; 2) правильно выбрать математический метод для обработки результатов исследования; 3) развернуто интерпретировать обработанные результаты исследования. Таким образом, изучение математических методов становится неотъемлемой частью подготовки полноценного специалиста – психолога. 1. Измерительные шкалы. В своей работе психолог часто сталкивается с измерением индивидуально-психологических особенностей личности. С этой целью используются различные тесты, экспериментальные методы, модели исследования познавательных феноменов и т.д. Главное, чтобы получить количественное выражение психических процессов. Измерение определяется как приписывание чисел объектам или событиям по определенным правилам. Эти правила устанавливают соответствие между психическими свойствами и математическими числами. Измерение – это процедура, с помощью которой измеряемый объект сравнивается с некоторым эталоном и получает численное выражение в определенном масштабе или шкале. Обращение к числовой информации позволяет оперировать сложными понятиями в сокращенной форме, а также выявлять скрытую информацию. Любой вид измерения предполагает наличие единиц измерения. В естественных науках существуют стандартные единицы измерения: ампер, воль, градус и т.д. Психологические переменные не имеют собственных единиц измерения, поэтому психология использует специальные измерительные шкалы. Стивенс выделил 4 основные шкалы измерения: -         номинативная, номинальная или шкала наименований; -         порядковая, ординарная или ранговая шкала; -         интервальная или шкала равных интервалов; -         шкала равных отношений или шкала отношений. Процесс присвоения количественных или числовых значений психическим явлениям называется кодированием. Процесс присвоения количественных или числовых значений психическим явлениям кода. Каждая из перечисленных шкал имеет собственный, отличительный код. Измерения по первым двум шкалам считаются качественными, а по двум последним – количественные. Необходимо обязательно учитывать специфические особенности измерительных шкал, которые используются в исследовании и строго следовать приписанным правилам. Нестандартизированная процедура кодирования неизбежно приведет к искажению результатов исследования и к неправильным выводам. И самое важно о чем должен помнить исследователь, это то, что измерительная шкала должна соответствовать поставленной задаче исследования. Рассмотрим подробно все четыре шкалы. Номинативная шкала (от лат. Nomen – имя, название) состоит в присваивании какому-либо свойству или признаку названия. В данном случае процедура измерения сводится к классификации свойств, к объединению их в группы. Главное  правило здесь, что объекты, принадлежащие к одной группе должны быть идентичны между собой по определяющему признаку, и различаться от объектов другой группы. Таких непересекающихся групп может быть несколько. Классический пример измерения по номинативной шкале в психологии – разбиение людей по четырем темпераментам: сангвиник, холерик, флегматик, меланхолик. Номинальная шкала позволяет лишь определить свойства качественно отличающихся друг от друга объектов, но не подразумевает никаких количественных операций. Ведь название нельзя измерить. Для признаков измеренных по этой шкале нельзя сказать, что какой – то из них больше, какой-то меньше, лучше или хуже. Это и характеризует данную шкалу как качественную. Самая простая номинативная шкала называется дихотомической, по которой признаки кодируются только с помощью двух названий, например, буквами А и Б или цифрами 1 и 2, или ребенок из полной семьи или ребенок из неполной семьи. Признак, который измеряется по дихотомической шкале, называется альтернативным. Он может принимать только два значения. Психолог может быть заинтересован только в одном из признаков. При этом исследователь ставит вопрос о том, проявился ли интересующий его признак или не проявился. Например, признак «полная семья» проявился у 23 школьников из 30, участвующих в исследовании. Более сложный вариант номинативной шкалы – классификация из трех и более признаков. Например, социолог изучает вопрос о том, как люди любят проводить досуг: а) с приятелями; б) на лоне природы; в) в занятиях спортом; г) в кругу семьи. В номинативной шкале можно подсчитать частоту встречаемости признака, т.е. число объектов, попавших в данную группу и обладающих данным свойством. Например, мы хотим выяснить сколько мальчиков и девочек посещает спортивную секцию. Для этого мы кодируем мальчиков как класс А, а девочек как класс Б. После этого подсчитываем общее количество кодов А и Б. Единица измерения в номинативной шкале является количество наблюдений. Наблюдение – это одна зарегистрированная реакция, один совершенный выбор, результат одного участника. Общее число наблюдений принимается за 100%, и тогда можно вычислить процентное соотношение в каждой группе. Мы также можем найти группу, в которой число респондентов наибольшее, т.е. группу с наибольшей частотой измеренного признака. Эта группа будет называться мода.    Таким образом, номинативная шкала позволяет нам подсчитать частоты встречаемости разного признака и затем работать с этими частотами с помощью методов мат. статистики. В дальнейшем к признакам, измеренным по номинативной шкале, мы можем применять следующие методы математической обработки: критерий Макнамары, критерий c2, угловое преобразование Фишера «j» и коэффициент корреляции «j», а также биноминальный критерий m. Порядковая шкала – это шкала, классифицирующая признаки по принципу «больше - меньше», «выше - ниже», «слабее - сильнее».  Измерение в этой шкале предполагает приписывание объектам чисел в зависимости от степени выраженности признака. При измерении в порядковой шкале мы не можем сказать насколько или во сколько раз одно свойство больше или меньше выражено другого. Мы можем только констатировать, что измеряемые свойства разные, и что одно больше другого. Если в шкале наименований было несущественно, в каком порядке располагаются измеренные признаки, то в порядковой шкале все признаки располагаются по рангу – от самого большого до самого маленького и наоборот. Классический пример порядковой шкалы – школьные оценки от 1 до 5 баллов. А также судейства в различных видах спорта. Например, трем атлетам были присуждены три места в зависимости от того, в какой очередности они достигли финиша. При этом мы можем только определить порядок прихода к финишу, но не можем с уверенностью утверждать, насколько каждый из спортсменов прошел дистанцию быстрее или медленнее другого. В порядковой шкале   должно быть не меньше трех групп: например, низкий, средний, высокий. Мы не знаем истинного расстояния между группами. Мы знаем только, что они образуют последовательность. Например, за группой «низкий» следует группа «средний», а затем группа - «высокий».   От групп просто перейти к цифрам, если считать, что низший класс получает ранг (код или цифру) 1, средний – 2, высший – 3, или наоборот. Чем больше число групп, тем шире возможности статистической обработки полученных данных и проверки статистических гипотез.  При использовании порядковой шкалы признакам можно приписывать любые цифры, но в этих цифрах обязательно должен сохраняться порядок, т.е. каждая последующая цифра должна быть больше (или меньше) предыдущей. Например, нам необходимо проранжировать уровень тревожности по пяти градациям: градация код градация код градация код градация код Самый низкий 1 Самый низкий 14 Самый низкий 99 Самый низкий 1 Низкий 3 Низкий 23 Низкий 77 Низкий 2 Средний 6 Средний 34 Средний 55 Средний 3 Высокий 10 Высокий 56 Высокий 33 Высокий 4 Самый высокий 15 Самый высокий 199 Самый высокий 11 Самый высокий 5 Каждый из вариантов правильный, поскольку сохраняет порядок, просто последний вариант наиболее естественный. Этот пример хорошо иллюстрирует положение о том, что интервалы в ранговой шкале не равны между собой. Например, разность рангов в первом столбце равна: 3-1=2; 6-3=3; 10-6=4; 15-10=5. Во втором столбце: 23-14=9; 34-23=11; 56-34=22; 119-56=143. Именно поэтому числа в ранговых шкалах обозначают лишь порядок следования признаков. Виды ранжирования: 1. Простое ранжирование (ранжирование по столбцам), когда необходимо присвоить ранг небольшому количеству признаков в одной группе. Процедура ранжирования должна обязательно подвергаться проверке. Для этого применяется следующая формула: Сумма рангов = 1+2+3+…+N = N x (N + 1)                                                                                    2 где N – количество ранжируемых признаков. Совпадение итогов реального ранжирования с ранжированием по формуле подтверждает правильность ранжирования. Например, нам необходимо проранжировать качества личности с особенностями «Я реального» и «Я идеального» Я реальное Качества личности Я идеальное 7 Ответственность 1 1 Общительность 5 3 Настойчивость 7 2 Энергичность 6 5 Жизнерадостность 4 4 Терпеливость 3 6 решительность 2 Максимальный ранг приписывается качеству наиболее значимому в данный момент, а минимальный – наименее значимому. Проверим правильность ранжирования. Число ранжируемых признаков 7, поэтому сумма рангов должна равняться (7х8)/2=28. Сложим величины рангов отдельно для левого и правого столбца: 7+1+3+2+5+4+6=28 – для левого столбца 1+5+7+6+4+3+2= 28 – для правого столбца. Суммы рангов подсчитанные по формуле и в результате реального ранжирования совпали. Значит ранжирование проведено правильно. Подобную проверку следует проводить после каждого ранжирования. 2. Ранжирование двух групп, объединенных в одну. Например, мы тестировали две группы, объединили их в одну и получили следующие результаты:     № испытуемых Группа 1 Ранги Группа 2 Ранги 1 15 8 26 5 2 45 3 67 2 3 44 4 23 6 4 14 9 78 1 5 21 7 3 10 суммы   31   24 Проверим правильность ранжирования. Мы уже получили общую сумму рангов по столбцам: 31+24=55. Рассчитаем ранги по формуле: (10х11)/2=55. В том случае, если в таблице имеется большое число строк и столбцов, для расчета можно использовать модифицированную формулу: Сумма рангов = ((К х С + 1) х К х С)                                                                                2 где К – число строк, С – число столбцов. ((5 х 2 + 1) х 5 х 2) / 2 = 55 3. Ранжирование по строкам. Например, К-во испытуемых Группа 1 ранги Группа 2 ранги Группа 3 ранги 1 15 1 26 2 37 3 2 45 2 67 3 24 1 3 44 2 23 1 55 3 4 14 1 78 3 36 2 5 21 2 3 1 33 3 Сумма   8   10   12 Минимальному значению присваивается минимальный ранг. В случае такого ранжирования сумма в каждой строке должна быть равна 6. т.к. у нас ранжируется только три величины: 1+2+3=6. Сумма рангов определяется по формуле: = n x c x (c + 1)                                                                                                                             2 где n – количество участников в столбце, с – количество столбцов (групп, измерений). Реальная сумма рангов равна 8+10+12= 30, Сумма рангов по формуле равна 5 х 3 х (3 + 1)/2 = 30. 4. Одинаковые ранги. При ранжировании могут возникать ситуации, когда двум или более признакам присваивается одинаковый ранг. Например, Я реальное Качества личности Я идеальное 7 7 Ответственность 1 1 1 1 Общительность 5 (5) (3) 2,5 Настойчивость 7 7 (2) 2,5 Энергичность 5 (6) 5 5 Жизнерадостность 5 (4) 4 4 Терпеливость 3 3 6 6 Решительность 2 2 Если мы нескольким качествам присваиваем один ранг, то этим качествам необходимо проставить условные ранги, обязательно идущие по порядку друг за другом – и отметить эти ранги круглыми скобками (). Затем в другом столбце следует поместить среднее арифметическое рангов, проставленных в скобках. Проверим правильность ранжирования: 7+1+2,5+2,5+5+4+6=28 Также проверяется ранжирование во втором столбце «я идеального». Одинаковые ранги можно присваивать любому количеству величин. В таком случае им также приписывается величина среднего условного ранга. Основные правила ранжирования: 1. Единицей измерения в порядковой шкале является расстояние в 1 ранг, при этом расстояние между рангами может быть различным. 2. Наименьшему числовому значению приписывается ранг 1, а наибольшему числовому значению приписывается ранг, равный количеству ранжируемых величин, или наоборот. 1. Равным числовым значениям приписывается средний условный ранг. 4.   Общая сумма реальных рангов   должна совпадать с расчетной, определяемой по формуле. 5. Не рекомендуется ранжировать более чем 20 величин, поскольку в этом случае ранжирование оказывается малоустойчивым. 6. Ранжировать можно не только качественные, но и количественные характеристики, например, по тесту Векслера, Айзенка. 7. При ранжировании большого числа признаков их следует объединять в однородные группы, а затем уже ранжировать уже полученные классы. Но в данном случае возможны ошибки, из-за того, что в один класс могут попасть люди, достаточно различающиеся между собой. Принудительное ранжирование может искусственно преувеличить различия между людьми. Кроме того, данные, полученные в разных группах могут оказаться несопоставимыми, так как один испытуемый в своей группе может получить высший ранг, а в другой средний и т.д. Чтобы избежать изложенных недостатков, необходимо использовать большое количество градаций, например 10. В ранговой шкале применяется большое количество статистических методов. Наиболее часто используются коэффициент ранговой корреляции Спирмена, коэффициент Кэндалла, критерии различий. Шкала интервалов или интервальная шкала – это шкала, где каждое значение отстоит от ближайшего на равном расстоянии. При измерении в интервальной шкале мы можем судить насколько одно свойство более выражено, чем другое. Но интервальная шкала не дает ответ, во сколько раз различаются исследуемые свойства друг от друга. Интервал определяется как доля или часть измеряемого свойства между двумя соседними позициями на шкале. Интервал является постоянной величиной на всех участках. Важной особенностью шкалы интервалов является то, что у нее нет естественной точки отсчета (нуль условен и не указывает на отсутствие измеряемого свойства). Например, температура воздуха, измеряемая по шкале Цельсия. Нулевая точка на шкале не означает отсутствия температуры. И если сегодня +5, а вчера было +10, то можно сказать, что сегодня на пять градусов холоднее, чем вчера, но неверно утверждать, что сегодня холоднее в два раза. В психологии часто используется семантический дифференциал Ч.Осгуда: -3             -2              -1                  0              +1                +2                +3 абсолютно                                           не знаю                                     абсолютно не согласен                                                                                            согласен Очень часто психологические измерения в шкале интервалов оказываются по сущности измерениями по шкале порядков. Например, измерения в сантиметрах, миллиметрах, секундах и т.д., короче говоря, измерения в единицах времени и пространства. К экспериментальным данным, полученным по шкале интервалов, применяются многие статистические методы обработки. Шкала отношений или шкала равных отношений – это шкала, с наличием твердо фиксированного нуля, означающего полное отсутствие какого – либо признака или свойства. По этой шкале производятся измерения в точных науках: физике, математике, химии, в смежных с психологией науках психофизика, психофизиология, психогенетика. Шкала отношений является наиболее информативной, допускающей любые математические измерения. Шкала отношений близка к интервальной шкале, но когда можно четко фиксировать точку отсчета, то любая шкала превращается в шкалу отношений. При измерении в шкале отношений мы можем сказать не только насколько больше или меньше свойство выражено, но и во сколько раз больше или меньше оно выражено (на сколько процентов). Например, измерив, время решения задач у участников эксперимента, мы можем ответить на вопрос не только кто из испытуемых решил задачу быстрее, но и во сколько раз (на сколько процентов) быстрее. После знакомства с измерительными шкалами встает вопрос: какую шкалу эффективно применять? При ответе на этот вопрос можно обратиться к такому качеству измерительных шкал, как мощность. Мощность измерительной шкалы определяется как наибольшая чувствительность к индивидуальным различиям респондентов. В соответствии с данным критерием наиболее мощной является шкала отношений, затем интервальная шкала, далее ранговая и номинальная шкалы. Поэтому если у исследователя есть выбор, какую шкалу применять, то следует использовать более мощную шкалу. Но если такого выбора нет, то приходиться работать с доступной шкалой.   1. Понятие выборки. Репрезентативность выборки. Мы, психологи, работаем с группой людей являющимися представителями какой – то намного большей по количественному составу группой. Такая объемлющая группа называется генеральной совокупностью. Генеральная совокупность – это все множество объектов, в отношении которого формулируется исследовательская гипотеза. Например, мы можем предположить, что женщины более тревожны, чем мужчины.   В данном случае генеральной совокупностью будут выступать все мужчины и все женщины. Теоретически объем генеральной совокупности не ограничен. Но практически объем генеральной совокупности всегда зависит от предмета наблюдения и задач исследования и может иметь границы. Например, психолог изучает степень влияния шума на производительность труда в ткацком цехе. В таком случае генеральной совокупность являются ткачихи. Но невозможно исследовать всех представителей генеральной совокупности, поэтому исследователь, как правило, работает с относительно небольшой группой (выборкой) представителей этой совокупности. Выборкой называется любая подгруппа испытуемых, выделенная из генеральной совокупности. Отдельный индивид из выборки называется респондентом. Объем выборки обозначается буквой n, он может быть любым, начиная с одного респондента. Выделяют малую (n < 30), среднюю 30 < n < 100 и большую выборку (n > 100). Объем выборки зависит, прежде всего, от задач исследования. Можно изучать и единичные случаи, если представляют особый интерес для науки, например, исследование одаренных детей или исследование А.Р.Лурия пациента Ш (маленькая книжка о большой памяти). Предметом отдельного исследования могут служить редкие и уникальные случаи (исследование П.К.Анохина сиамских близнецов Маши и Даши). Но объем выборки зависит от однородности изучаемого явления. Чем однороднее явления, тем меньший объем выборки можно использовать. Например, исследование форм поведения африканского племени. Здесь будет уместна выборка из небольшого количества человек. Также объем выборки зависит от методов обработки. Некоторые непараметрические методы применяются на группе численностью 5-7 человек. А при проведении факторного анализа необходим объем выборки не менее 100 человек. Существуют некоторые рекомендации, которых необходимо придерживаться при формировании объема выборки респондентов, участвующих в исследовании: - для разработки диагностических методик объем выборки должен составлять от 200 до 1000 – 2500 человек; - при сравнении двух выборок. Их общая численность должна быть не менее 50 человек; численность сравниваемых выборок должна быть приблизительно одинаковой; - при определении взаимосвязи между признаками, объем выборки не должен быть менее 30-35 человек. Выделяют полное или сплошное и выборочное исследование. Полное исследование подразумевает изучение всех представителей генеральной совокупности. Оно позволяет получить исчерпывающую информацию об изучаемых явлениях. Однако, проведение полного исследования нереально и требует большого затрата времени, сил и средств. Такого исследования не было еще проведено. Выборочное исследование или частичное проводится на ограниченном количестве испытуемых, являющихся представителями генеральной совокупности. Такое исследование экономит силы, время и средства, а также позволяет получить информацию о группах, полное обследование которых невозможно или нецелесообразно. Выборки могут быть независимыми или несвязными или зависимыми или связными. Независимая выборка – это когда свойства одной группы испытуемых не оказывают влияние на свойства другой группы участников исследования. Зависимая выборка – это когда свойства одной группы респондентов оказывают влияние на свойства другой группы. Это исследование проводится на одной группе испытуемых, тестируемых два и более раз. Однородная выборка – состав участников исследования должен быть эквивалентным по основным критериям: возрасту, полу и других характеристик. Повторная или выборка с возвратом тестируется двукратно. Бесповторная или выборка без возврата тестируется один раз. Можно привести пример с шарами. Репрезентативная выборка – выводы, полученные на данной выборке, могут быть распространены на всю генеральную совокупность. В репрезентативной выборке представлены все основные признаки генеральной совокупности в той же пропорции и с той же частотой, с которой данный признак выступает в генеральной совокупности. Репрезентативная выборка представляет меньшую по размеру модель генеральной совокупности.  Репрезентативность выборки очень важна, но соблюдать ее крайне сложно. Психологию многие представители других наук называют наукой и студентах – психологах и белых крысах. Возникает вопрос, как сформировать репрезентативную выборку? Существует два метода формирования репрезентативной  выборки. Метод формирования простой случайной выборки. В данном случае выборка формируется по принципу, что каждый представитель генеральной совокупности имеет право участвовать в исследовании. В этом случае используют случайную стратегию отбора участников с помощью жеребьевки или таблицы случайных чисел. Метод стратифицированной случайной выборки. Для этого необходимо разбить представителей генеральной совокупности на страты (группы) в соответствии с некоторыми характеристиками. Например, по уровню дохода, месту жительства, уровню образования и т.д. Выборка составляется из равного количества представителей всех страт.   3.Представление результатов (таблицы, статистические ряды, гистограммы). Для наглядного представления экспериментальных данных используются различные приемы, облегчающие анализ полученных результатов. К таким приемам относятся таблицы, ряды распределения, графики и гистограммы. Статистические таблицы выделяют простые и сложные. Простые таблицы применяются при альтернативной группировке, когда одна группа испытуемых противопоставляется другой, например, здоровые – больным; высокие люди – низким и т.д. Простые таблицы применяются в номинативной и ранговой шкале. Например, результаты исследования мануальной асимметрии представлен в следующей таблице Классы праворукие леворукие сумма 3 и 4 43 6 49 5 и 6 44 17 61 сумма 87 23 110   Усложнения таблиц происходит за счет возрастания объема и степени дифференцированности представленной информации. Сложные таблицы используются при выяснении причинно – следственных связей между признаками. Например, в следующей таблице представлены классические данные Ф.Гальтона, иллюстрирующие наличие положительной зависимости между ростом родителей и их детей. Рост родителей Рост детей в дюймах Всего 60,7 62,7 64,7 66,7 68,7 70,7 72,7 74,7 74             4   4 72     1 4 11 17 20 6 62 70 1 2 21 48 83 66 22 8 251 68 1 15 56 130 148 69 11   430 66 1 15 19 56 41 11 1   144 64 2 7 10 14 4       37 Всего 5 39 107 255 387 163 58   928 Эта таблица показывает, что у высоких родителей, как правило. Дети имеют высокий рост, а у низких родителей чаще бывают дети невысоко роста. Данный пример показывает, что таблицы имеют не только иллюстративный, но и аналитический характер, позволяя обнаруживать связи между признаками. Статистические ряды или числовые значения признака, расположенные в определенном порядке. Выделяют следующие виды статистических рядов: -         атрибутивные; -         ряды динамики; -         ряды накопленных частот; -         вариационные ряды; -         ряды регрессии; -         ряды ранжированных значений. В психологии часто используют три последних вида статистических рядов. Вариационный ряд – это двойной ряд, показывающий, каким образом значения признака связаны с повторяемостью их в данной выборке. Например, психолог провел тестирование интеллекта по тесту Векслера у 25 школьников, и сырые баллы оказались следующими: 6, 9, 5, 7, 10, 8, 9, 10, 8, 11, 9, 12, 9, 8, 10, 11, 9, 10, 8, 10, 7, 9, 10, 9, 11. Как мы видим, некоторые цифры попадаются в данном ряду несколько раз. Составим вариационный ряд. Варианты              хi         6 9 5 7 10 8 11 12 Частоты вариант  fi          1 7 1 2  6   4  3  1 Частоты или весы вариант – это числа, показывающие сколько раз отдельные варианты встречаются в данной совокупности.  Общая сумма частот вариационного ряда равна объему выборки, т.е. n = S fi = 1 + 7 + 1 + 2 + 6 + 4 + 3 + 1 = 25 Частоты можно представлять и в процентах. При этом общая сумма частот или объем выборки принимается за 100%. ni % = fi / n x 100% Процентное представление используют при сравнивании различных по объему выборках. Ранжированный ряд. Предыдущий ряд можно представить в виде ранжированного ряда, например, Варианты           хi       5 6 7 8 9 10 11 12 Частоты              fi         1 1 2 4 7  6   3   1 В данном случае ранжированный ряд лучше демонстрирует результаты исследования. Частоты можно складывать и накапливать. Накопленные частоты складываются последовательно от первой до последней частоты. Накопленные частоты позволяют получить дополнительную информацию о том, сколько респондентов имеют выраженность признака не выше определенного значения. При работе с частотами можно вычислять относительные частоты признака – это доля выражения того или иного свойства. Относительные частоты вычисляются по формуле:             fo =   fi         n где fo – относительная частота, fi – частота проявления признака, n – количество респондентов. Так ряд относительных частот в вышеприведенном примере будет выглядеть следующим образом: Варианты           хi             5         6         7        8         9      10       11        12 Частоты              fi                1         1         2        4         7       6         3          1 Относительные частоты  0,04   0,04   0,08   0,16    0,28   0,24    0,12   0,04 Сумма всех относительных частот равна 1. Для сравнения групп разной численности следует использовать относительные частоты. Гистограмма включает в себя интервалы, которые могут быть как равными по величине, так и не равными. По оси абсцисс (ОХ) откладывают величины классовых интервалов, а по оси ординат (YO) – величины частот, попадающих в данный интервал. При этом над каждый классовым интервалом строится колонка или прямоугольник, площадь которого пропорциональна соответствующей частоте. Гистограмма представляет собой графическое изображение данного частотного распределения. Лекция 2. Модели первичного представления данных 1. Меры центральной тенденции (мода, медиана, среднее арифметическое). 2. Меры изменчивости (среднее отклонение, разброс выборки, степень свободы) 3. Понятие нормального и асимметричного распределения. 4. Статистические гипотезы. 5. Уровень статистической значимости. Этапы принятия статистического решения. 6. Статистические критерии. 1. Меры центральной тенденции Мера центральной тенденции – это число, характеризующее выборку по уровню выраженности измеренного признака: моду, медиану, среднюю арифметическую. Мода – это такое числовое значение, которое встречается в выборке наиболее часто. Мода не требует числовых вычислений и обозначается как Х. Так, например, в ряду значений (2, 6, 6, 8, 9, 9, 10) модой является число 9, т.к. оно встречается чаще любого другого числа. Мода – это часто встречающееся значение, а не частота. В данном примере частота 9 будет равна 3. Правила вычисления моды: 1. в том случае, если все значения в выборке встречаются наиболее часто, принято считать, что этот выборочный ряд не имеет моды. Например: 5, 5, 6, 6, 7, 7 – в этой выборке моды нет. 2. когда два соседних (смежных) значения имеют одинаковую частоту и их частота больше других значений, мода вычисляется как среднее арифметическое этих двух значений. Например, в ряду 1, 2, 2, 2, 5, 5, 5, 6 частоты 2 и 5 равны 3. эта частота больше, чем у 1 и 6. следовательно, мода будет равняться (2+5)/2=3,5 3. Если два несмежных (не соседних) значения в выборке имеют равные частоты, которые больше частот других значений, то выделяют две моды. Например, в ряду 10, 11, 11, 11, 12, 13, 14, 14, 14, 17. модами являются 11 и 14. Такой ряд называется бимодальным. Мультимодальные распределения имеют больше двух мод. 4. Если мода оценивается по множеству сгруппированных данных, то для нахождения моды необходимо определить группы с наибольшей частотой признака. Эта группа будет называться модальной группой. Медиана (Х с волной или Md) – соответствует центральному значению в последовательном ряду всех полученных значений. Или, медиана – это значение, которое делит упорядоченное множество пополам. Например, вычислим медиану ряда 9, 3, 5, 8, 4, 11, 13. Вначале необходимо этот ряд упорядочить 3, 4, 5, 8, 9, 11, 13. центральным значением ряда является число 8, следовательно, оно и будет медианой. Если мы имеем дело с нечетным рядом, то медианой будет являться среднее арифметическое двух центральных значений. Например, в ряду 1, 4, 9, 11, 13, 20 два значения 9 и 11 являются центральными. Следовательно, медиана будет равна (9+11)/2= 10. видно, что медиана не соответствует здесь ни одному значению. Среднее арифметическое (х или М) – это сумма всех значений деленная на число этих данных. Например, средняя арифметическая вычисляется по формуле: Х = М = (Х1 + Х2 + … + Хn) / n = ( Хi) / n; Где 1, 2, n – индексы, указывающие на порядковый номер данного значения признака; n – количество наблюдений;  - сумма всех значений Х; числа, стоящие над и под знаком  называются пределами суммирования и указывают наибольшее и наименьшее значение индекса суммирования, между которыми расположены его промежуточные значения. В данном случае суммирование начинается с 1, поэтому пишется i = 1, а заканчивается последним n. 6 Если же написать  Хi , i=4 то это означает, что мы будем суммировать Х4, Х5 и Х6. Можно использовать сокращение, когда производится суммирование всего ряда, где не пишутся верхний и нижний индексы. Если отдельные признаки повторяются, то среднюю вычисляют по формуле: Х = ( Хi  i) / n , где I – частота повторяющихся значений. При вычислении величины средней по таблице используют формулу: Х = ( Хj  Хi) / N, где Хij – все элементы таблицы, Индекс j –столбцы, р – число столбцов; Индекс I –испытуемые или число строки, n – число строк. N – общее число всех элементов в таблице или N = pn. Т.е. вначале суммируются все элементы по столбцам, а затем по строкам и делится на общее количество значений. Недостаток среднего значения состоит в том, что могут получиться неадекватные числа, например количество участников 30,7. А также большое различие в значениях может искажать представление о генеральной совокупности. Например, пусть доход 9 человек равен от 4500 до 5200, тогда средняя величина будет равняться 4900. Но если в эту группу попадает человек с доходом 20000, то средняя окажется 6410, хотя никто из всей выборки (кроме одного человека) не получит такой доход. 2. Меры изменчивости Разброс выборки или размах выборки (R) – разность между максимальной и минимальной величиной выборки, показывающая силу варьирования признака. Чем больше разброс, тем более разнородна выборка. Если разброс невелик, то выборка считается однородной. R= Xmax – Xmin Но может быть так, что размах и средняя двух выборок совпадают, но характер варьирования может быть различным, например Х = 10 15 20 25 30 35 40 45 50 Х= 30, R = 40; Y = 10 28 28 30 30 30 32 32 50 Y = 30, R = 40; В данном случае необходимо вычислить характер разброса выборок. Дисперсия – мера рассеяния случайной переменной, вычисляется как среднее арифметическое квадратов отклонений значений переменной от её среднего значения. D = ( (Xi - X)2)/ n; где n – объем выборки, Правила вычисления дисперсии: 1. Вычисляется средняя выборки. 2. Для каждого элемента выборки вычисляется его отклонение от средней. 3. Каждый полученный элемент вводят в квадрат. 4. Находится сумма этих квадратов. 5. Сумма делится на общее количество признаков. Если ряд представляет собой небольшую выборку, то деление осуществляется не на n, а на n – 1. Вычислим дисперсию следующего ряда 2 4 6 8 10. Средняя ряда равна 6. Теперь найдем отклонение каждого признака от средней, для этого из каждого признака вычитаем среднюю: (2-6)+(4-6)+(6-6)+(8-6)+(10-6). Сумма такого ряда всегда будет равна нулю. Для того, чтобы избавится от нуля каждое значение разности вводят в квадрат. Получается (-4)2+(-2)2+0+22+42=40. D= 40/6=6,8 Расчет дисперсии для таблицы вычисляется по формуле: D = ( (Xi - X)2+(Xj - X)2) / N – 1, где Х – средняя для всех элементов таблицы, N – общее число всех элементов таблицы, N= к-во столбцов множенное на к-во строк. Дисперсию для генеральной совокупности обозначают 2, а для выборки S2. Преимущество дисперсии: 1. Выборку можно разложить на компоненты, т.е. представить как сумму ряда чисел, и подробно охарактеризовать выборку. 2. Можно сравнивать выборки различные по объему. Недостатки дисперсии: Бывает, неудобна при интерпретации. Так, если мы измеряем рост в см., то при вычислении дисперсии мы работаем не с линейным рядом, а с площадью (поскольку рост вводиться в квадрат). Для лучшего понимания исследования применяют операцию извлечения квадратного корня из дисперсии – получают стандартное отклонение. Стандартное отклонение или средне квадратическое отклонение () – величина, извлеченная из квадратного корня дисперсии. = ( (Хi - X))2/ n. Стандартное отклонение приведенного в качестве примера ряда равно:  = 40/6=2,58. Степень свободы – это число свободно варьирующих единиц в составе выборки. Так, любой элемент выборки может быть получен как разность между произведением общего количества элементов (n) и среднего арифметического и суммой всех остальных элементов, кроме самого этого элемента. Например, рассмотрим ряд 4 5 6 8 10, средняя равна 6,6; общее количество элементов 5. Мы хотим узнать какое значение стоит на пятом месте. Получается 5*6,6 – 23 = 10. Предположим, мы хотим узнать первый элемент ряда: 33 – 29 = 4. Это означает, что число степеней свободы равно n – 1, т.е. один элемент выборки всегда можно вычислить через остальные элементы и среднее. Стандартизация или z-преобразование – это перевод изменений в стандартную или z-шкалу со средним =0 или стандартным отклонением = 1. В результате преобразования значения (z-значения) непосредственно выражаются в единицах стандартного отклонения от среднего. Если для одной выборки несколько признаков переведены в z-значения, появляется возможность сравнения уровня выраженности разных признаков у того или иного испытуемого. 3. Понятие нормального и асимметричного распределения. Понятие распределения признака играет важную роль в применении математических методов в психологии. Распределением признака называется закономерность встречаемости его значений, т.е. какие значения встречаются реже, а какие чаще; насколько выражена изменчивость признака. Равномерное распределение – когда все значения встречаются одинаково часто. Симметричное распределение – когда одинаково часто встречаются крайние значения признака. Нормальное распределение характеризуется тем, что крайние значения признака встречаются довольно редко, а средние значения довольно часто. В психологии чаще всего употребляют понятие нормального распределения. Нормальное распределение графически имеет вид колоколообразной кривой. Форма и положение графика нормального распределения зависит от средней и стандартного отклонения. Только эти два значения отличают друг от друга бесконечное множество нормальных кривых колокообразной формы. Среднее значение располагает кривую на оси ОХ. Стандартное отклонение задает ширину этой кривой. Если стандартное отклонение постоянно, а средняя меняется, то форма графика остается постоянной, а сам график может смещаться либо вправо (при увеличении средней), либо влево (при уменьшении средней) по оси абсцисс ОХ. Если же, наоборот, средняя остается постоянной, а стандартное отклонение изменяется, то меняется ширина графика. При уменьшении сигмы кривая делается более узкой, и поднимается вверх; при увеличении – наоборот, кривая расширяется и опускается вниз. Но во всех случаях кривая оказывается строго симметричной, сохраняя правильную колокообразную форму. Для нормального распределения характерно также совпадение величин средней, моды и медианы. Об асимметричном распределении говорят, когда чаще появляются значения выше или ниже среднего. При смещении графика вправо, чаще встречаются верхние значения, при смещении влево – низкие. Правая отрицательная Левая положительная Для проверки нормальности распределения пользуются значениями асимметрии и эксцесса. Показатели асимметрии и эксцесса вычисляются по формулам: А = ( (Хi - X)3) Е = ((Хi - X)4) (n  3) (n  4) – 3 Если встречаются чаще средние значения или близкие к среднему. То говорят о положительном эксцессе. Если же в распределении одновременно часто встречаются верхние и нижние значения относительно средней величины, то в график образуется впадина, и говорят об отрицательном эксцессе. Вычисление распределения важно для адекватного выбора методов математической статистики. При нормальном распределении значения асимметрии и эксцесса будут равны нулю. Еще одним способом проверки нормальности распределения могут служить графики распределения признака. Причинами отклонения от нормального распределения чаще всего является чувствительность используемой шкалы измерения к исследуемому свойству. Например, психолог определяет уровень способностей школьников при решении заданий. Если задания простые или время слишком велико, то большинство школьников выполнят задания, и лишь у части испытуемых могут возникнуть трудности. Таким образом, мы получил асимметричное распределение с правосторонним отклонением. Если же задания, наоборот, будут чрезмерно сложными, то мы получим обратную картину, когда большая часть школьников не сможет справиться с заданиями и асимметричное левостороннее распределение. К сожалению, нормальное распределение не часто встречается в практике исследования. В таком случае, возникает вопрос: каким образом приблизить эмпирическое распределение к нормальному? Ответом на этот вопрос является принцип Р.Фишера: «Отклонения от нормального вида можно обнаружить лишь для больших выборок; сами по себе они вносят мало отличие в статистические критерии и другие вопросы». Следовательно, на небольших выборках (объемом до 50 человек), наиболее часто используемых в психологических исследованиях, реже встречают асимметричные распределения. 3. Статистические гипотезы. Статистическая гипотеза - это предположение о выраженности тех или иных свойств в генеральной совокупности. Статистические гипотезы проверяются с помощью методов математической статистики. Выделяют нулевую и альтернативную гипотезы. Нулевая гипотеза (Н0) - эта гипотеза о сходстве признаков в контрольной и экспериментальной группе. Альтернативная гипотеза (Н1) – гипотеза о значимости различий, иногда ее называют экспериментальной гипотезой. Например, среднее контрольной группы равно Х1, а среднее экспериментальной группы равно Х2. При принятии нулевой гипотезы Х1 -Х2 = 0 (отсюда и название гипотезы - нулевая). При принятии альтернативной гипотезы Х1 -Х2  0. Пример принятия нулевой гипотезы – исследования об уровне интеллекта в полных и неполных семьях, исследования интеллекта у людей, принадлежащий к различным этническим группам. Нулевая и альтернативная гипотезы могут быть направленными и ненаправленными. Направленная гипотеза формулируется в том случае, если мы считаем, что признак в контрольной группе выражен больше (меньше), чем в экспериментальной группе, и наоборот, т.е. Н0 : Х1  Х2; Н1 : Х1  Х2. Ненаправленная гипотеза формулируется, если мы хотим доказать, что признаки в контрольной и экспериментальной группах различаются. Например, Н0 : Х1 = Х2; Н1 : Х1  Х2. При проверке статистических гипотез можно совершить ошибку. Чем меньше уровень значимости, тем с большей уверенностью можно отклонить Н0. Но, принимая статистическое решение, исследователь всегда допускает вероятность его ошибочности: ведь исследование проведено на выборке, а вывод делается в отношении всей генеральной совокупности. При отклонении нулевой гипотезы и принятии альтернативной гипотезы исследователь рискует, что связи в генеральной совокупности на самом деле нет. И наоборот, решение в пользу нулевой гипотезы не исключает наличие связи. Ошибки, совершенные при принятии статистического решения, могут быть двух родов: ошибка первого рода и ошибка второго рода. Ошибка первого рода произойдет, когда будет принято решение отклонить нулевую гипотезу, хотя в действительности она окажется верной. Ошибка второго рода произойдет, если нулевая гипотеза будет принята, хотя в действительности она неверна. Чтобы принять правильное решение при проверке статистических гипотез, необходимо увеличить объем выборки. 4. Уровень статистической значимости Для того чтобы решить опровергать или принимать нулевую гипотезу, необходимо определить уровень значимости найденного значения. Уровень значимости или р-уровень - это вероятность того, что обнаруженная связь носит случайный характер, а не является свойством генеральной совокупности, т.е. вероятность ошибочного отклонения нулевой гипотезы или вероятность ошибки первого рода при принятии решения. В отношении научной гипотезы уровень статистической значимости – это количественный показатель степени недоверия к выводу о наличии связи или различий. Чем меньше значение р- уровня, тем выше статистическая значимость результата исследования, подтверждающего научную гипотезу. Уровень значимости может быть трех уровней. Низший уровень статистической значимости – р  0,05 означает, что различия достоверные на 5% уровне значимости или, что допускается пять ошибок в выборке из ста испытуемых (или одна ошибка в выборке из 20 испытуемых). Иначе говоря, случайность появления выявленных различий составляет 5%. Достаточный уровень значимости Р  0,01 означает, что различия достоверны на 1% уровне значимости или, что допускается одна ошибка в выборке из ста человек. Высший уровень значимости р  0,001. До тех пор пока уровень статистической значимости не достигнет 5% порога, мы не имеем право отклонить нулевую гипотезу. Следовательно, мы не можем совершить шесть, семь, восемь и т.д. ошибок из ста. Условия, влияющие на уровень значимости, т.е. условия, при соблюдении которых значение р - уровня будет уменьшаться: - различия между группами или взаимосвязь между признаками велики; - малая изменчивость признака; • большой объем выборки. 5. Статистические критерии Статистический критерий – это метод расчета, с помощью которого мы принимаем решение отклонить или принять нулевую гипотезу с высокой вероятностью. Существует достаточно большое количество критериев. Каждый из них имеет свою специфику, различаясь между собой по следующим основаниям. 1. Тип измерительной шкалы, например, с помощью некоторых критериев можно обрабатывать данные, полученные только в порядковой, интервальной или шкале отношений. 2. Максимальный объем выборки, который может охватить критерий. А также количество выборок, которые можно сравнивать между собой. Так, существуют критерии позволяющие сравнивать три и более выборки. 3. Качество выборки: зависимая или независимая. Выборки также могут быть взяты из одной или нескольких генеральных совокупностей. 4. Мощность критерия – это способность выявлять различия или отклонять нулевую гипотезу, если она неверна. Может возникнуть ситуация, что один критерий выявил различия, а другой нет. Это означает, что первый критерий более мощный. Может возникнуть вопрос: зачем использовать менее мощные критерии? Дело в том, что более мощный критерий требует более трудоемких вычислений. А если менее мощный критерий уже выявил различия, то использование более мощного критерия теряет смысл, т.к. он все равно подтвердит эти различия. Также нельзя утверждать, что если менее мощный критерий не выявил различий, то их обязательно выявит более мощный. Все критерии разделяются на две большие группы: параметрические и непараметрические критерии. Параметрические критерии – критерии, включающие в формулу расчета параметры распределения (среднюю, дисперсию и т.д.). Непараметрические критерии или критерии, свободные от распределения – критерии, не включающие в формулу расчета параметры распределения. Параметрические критерии чаще всего используются при нормальном распределении генеральной совокупности, в данном случае они являются более мощными, т.е. наиболее достоверно способны отвергать нулевую гипотезу, чем непараметрические критерии. Но чаще всего психологи сталкиваются с ненормальным распределением, поэтому применение параметрических методов может привести к ошибкам. В таких случаях рекомендуется использовать непараметрические критерии. Непараметрические критерии также выявляют значимые различия и при нормальном распределении, и они являются менее трудоемкими, особенно при вычислении вручную. Еще одним преимуществом непараметрических критериев является не чувствительность к выбросам (экстремально большим или малым значениям признака). Е.Сидоренко была составлена таблица, в которой она указала различия в применении статистических критериев. Параметрические критерии Непараметрические критерии 1. оценивают различия средних двух выборок 1. Оценивают лишь средние тенденции, например, позволяют ответить на вопрос чаще ли в выборке А проявляются высокие значения признака, чем в выборке Б 2. Используются только при условии нормального распределения 2. Используются при любом распределении 3. Позволяют оценить взаимодействие двух и более факторов в их влиянии на признак 3. Эта возможность отсутствует 4. Экспериментальные данные должны отвечать следующим условиям (не менее 2): а) измерение по интервальной шкале; б) распределение должно быть нормальное; в) в дисперсионном анализе должно соблюдаться равенство дисперсий. 4. экспериментальные данные могут не отвечать ни одному из этих условий. 5. Математические расчеты довольно сложны Математические расчеты просты 6. Являются более мощными, но только в том случае, если признак измерен по интервальной шкале и нормально распределен 5. Менее мощные при таких условиях. Рекомендации к выбору статистического критерия. Во-первых, необходимо определить задачу вычисления и характер выборки. Установить зависимая или независимая выборка, однородная или неоднородная, объем выборки, тип измерительной шкалы. Начинать рекомендуется с выбора более легкого критерия. Если он не выявил различий, то рекомендуется применить более мощный критерий. При малом объеме выборки следует увеличить уровень значимости до 1%. Задачи Условия Критерии 1. Выявление различий А) 2 выборки испытуемых Б) 3 и более выборок t-критерий Стьюдента; Q-критерий Розенбаума; U-критерий Манна-Уитни; (фи)-критерий Фишера S-критерий Джонкира; Н-критерий Крускала-Уоллиса 2. Оценка сдвига значений исследуемого признака А) 2 замера на одной выборке Б) 3 замера на одной выборке T-критерий Вилкоксона; G-критерий знаков; (фи)-критерий Фишера Хr-критерий Фридмана; L-критерий тенденций Пейджа 3. Выявление различий при распределении признака А) при сопоставлении эмпирического распределения с теоретическим Б) при сопоставлении двух эмпирических распределений X2-критерий Пирсона; (ламбда)-критерий Колмогорова-Смирнова; m-биноминальный критерий X2-критерий Пирсона; (ламбда)-критерий Колмогорова-Смирнова; (фи)-критерий Фишера 4. Выявлении взаимосвязи признаков А) двух признаков rs-критерий Спирмена; r - критерий Пирсона; 5. Анализ изменения признака под влияем контролируемых условий А) под влиянием одного фактора Б) под влиянием двух факторов одновременно Однофакторный дисперсионный анализ Фишера; Двухфакторный дисперсионный анализ Фишера 5. Этапы принятия статистического решения При проверке научной гипотезы используют статистические критерии, основанные на теоретическом распределении, для условия, когда верна нулевая гипотеза. Статистический критерий включает в себя формулу, по которой вычисляется эмпирическое распределение и его соотношение с теоретическим распределением. Полученное эмпирическое значение позволяет определить уровень значимости, т.е. вероятность случайного отклонения нулевой гипотезы. Итак, на первоначальном этапе мы согласно статистическому критерию подсчитываем эмпирическое значение Чэмп. Затем, Чэмп сравнивается с двумя критическими величинами Чкр., которые соответствуют уровням значимости в 5% (Чкр.1) и 1% (Чкр.2). Эти величины указаны в таблице критических значений. Уровень значимости по вычисленному эмпирическому значению критерия при помощи таких таблиц определяется следующим образом. Определяем число степеней свободы (df) для данного объема выборки. Число степеней свободы – это количество возможных направлений изменчивости признака. Каждая формула для расчета эмпирического значения критерия содержит правило для определения числа степеней свободы. Для данного числа степеней свободы по таблице определяются ближайшие критические значения и уровень значимости, им соответствующий. Например, при сравнении двух групп испытуемых (n = 30) по t - критерию Стьюдента наше эмпирическое число равнялось 2,15. Определяем число степеней свободы по формуле df = n – 1, где n – объем выборки. Критические величины для данного числа степеней свободы и соответствующего уровня значимости равны р  0,05 – 2,045 и р  0,01 – 2,756. Сравнение удобно представлять в виде «оси значимости», на которой располагаются все три числа. «Ось значимости» представляет собой прямую, на левом конце которой располагается 0, хотя он, как правило, не отмечается, и слева направо идет увеличение числового ряда. По сути дела это привычная школьная ось абсцисс ОХ. На этой оси выделяются три зоны. Левая зона называется зоной незначимости - сюда попадают значения, которые ниже Чкр.1, а, следовательно, безусловно, незначимы. Правая зона – зоной значимости – сюда попадают значения превышающие Чкр.2, а, следовательно, безусловно, значимы. Промежуточная зона называется зоной неопределенности. Если эмпирическое число попадает в эту зону, мы уже можем отклонить нулевую гипотезу, но еще не можем принять альтернативную гипотезу. В зависимости от задач исследования психолог может принять альтернативную гипотезу на 5% уровне значимости или принять нулевую гипотезу на 1% уровне значимости. Это как раз тот случай, когда возможно совершение ошибок первого и второго рода. В данном случае рекомендуется увеличить объем выборки. Но чаще всего исследователи считают верной альтернативную гипотезу, если эмпирическое значение попадает в зону неопределенности, лучше всего в подобных случаях указывать точный уровень значимости, например, р=0,2. Также принимается решение, если эмпирическое значение совпадает с одним из критических. зона зона зона незначимости неопределенности значимости Этапы принятия статистического решения: 1. Формулирование нулевой и альтернативной гипотез. 2. Определение объема выборки. 3. Выбор соответствующего уровня значимости отклонения нулевой гипотезы в зависимости от важности исследования. 4. Выбор статистического метода в зависимости от типа задачи исследования. Виды задач: • установление сходства – различия признаков; • группировка и классификация данных; • анализ источников вариативности признаков; • прогноз проявления психологических признаков. 5. Вычисление эмпирического значения, согласно выбранному статистическому методу. 6. Нахождение по таблице критических значений уровней значимости 0,05 и 0,01. 7. Сравнение эмпирического значения с критическими значениями уровней значимости. 8. Принятие или отвержение нулевой гипотезы. Тема 3. Критерии различий 1. Параметрические критерии различий (t – критерий Стьюдента, F – критерий Фишера). 2. Непараметрические критерии различий для зависимых выборок. Критерий знаков G. Критерий T – Вилкоксона. Критерий Фридмана. Критерий тенденций Пейджа. Критерий Макнамары. 3. Непараметрические критерии различий для независимых выборок. Q – критерий Розенбаума. U – критерий Вилкоксона – Манна – Уитни. Н – критерий Крускала – Уоллиса. S – критерий тенденций Джонкира. 1. Параметрические критерии различий Параметрические критерии включают в формулу расчета параметры выборки, такие как среднее, дисперсию и др. Чаще всего применяются два параметрических критерия - t – критерий Стьюдента, который оценивает различия средних двух выборок, и F – критерий Фишера, оценивающий различия между двумя дисперсиями. t – критерий Стьюдента направлен на оценку различий средних двух выборок, которые распределены по нормальному закону. Этот критерий широкого применения, он используются при анализе зависимых и независимых выборок с различным численным объемом. В общем случае формула для расчета по t – критерию Стьюдента выглядит следующим образом для независимых выборок: t= |Xср – Yср| Sd где Sd – стандартное отклонение для двух выборок, оно вычисляется по следующей формуле: Sd = S2x + S2y=  (Xi - X)2 + (Yi - Y)2 (n - 1)  n эта формула подходит для равночисленных выборок, если выборки различны по объему, то применяется следующая формула: Sd = S2x + S2y =  (Xi – Xср)2 + (Yi – Yср)2  (n1 + n2) (n1 + n2 - 2) (n1  n2) Например, определим, достоверны ли различия в двух независимых выборка различных по объему: № Группы Отклонение от среднего Квадраты отклонений Х Y  (хi - х)  (yi - y)  (хi - х)2  (yi - y)2 1 2 3 4 5 6 7 8 9 Сумма Среднее 504 560 420 600 580 530 490 580 470 4734 526 580 692 700 621 640 561 680 630 - 5104 638 -22 34 -106 74 54 4 -36 54 -56 -58 54 62 -17 -2 -77 42 -8 - 484 1158 11236 5476 2916 16 1296 2916 3136 28632 3368 2916 3844 289 4 5929 1764 64 - 18174 Sd = 28632 + 18174  9 +8 = 27,37 9 + 8 – 2 9  8 t = | Xср – Yср| = 112 = 4,09 Sd 27,37 Теперь осталось найти в таблице значений t величину, соответствующую n – 2 степеням свободы, где n – общее число испытуемых в обеих выборках и сравнить эту величину с расчетами по формуле. В нашем примере число степеней свободы равно 15, по таблице находим уровни достоверности равные числу степеней свободы и отображаем это на оси значимости t = 2,13 для р  0, 05 t = 2,95 для р  0,01 t = 4,07 для р  0,001 зона зона зона незначимости неопределенности значимости 0,05 0,01 0,001 4,07 формула расчета t-критерия для зависимых выборок: t= dср ; где dср =  di =  (Xi - Yi) ; Sd =  d2i – ( di)2 / n Sd n n n  (n - 1) № Х Y di d2i 1 2 3 4 5 6 7 8 Сумма 4,0 3,5 4,1 5,5 4,6 6,0 5,1 4,3 37,1 3,0 3,0 3,8 2,1 4,9 5,3 3,1 2,7 27,9 1,0 0,5 0,3 3,4 -0,3 0,7 2,0 1,6 9,2 1,0 0,25 0,09 11,56 0,09 0,49 4,00 2,56 20,04 dср = 9,2 / 8 = 1,15 Sd = 20,04 – (9,2)2 / 8 = 0,41 8  (8 - 1) t = 1,15 = 2,80 0,41 для зависимых выборок по таблице находим уровни значимости для степеней свободы n – 1. t = 2,37 для р  0, 05 t = 3,50 для р  0,01 t = 5,41 для р  0,001 зона зона зона незначимости неопределенности значимости 0,05 2,80 0,01 0,001 Для применения t-критерия Стьюдента существуют следующие правила: 1. Измерение проводится в шкале интервалов и отношений. 2. Выборки распределены нормально. F – критерий Фишера сравнивает дисперсии двух выборок. F = S2x ; где S2x =  (Xi – Xср)2 , S2y =  (Yi – Yср)2 , S2y n1 n2 Величина числителя должна быть больше знаменателя, таким образом, F-критерий будет больше или равен 1. Число степеней свободы определяется для первой выборки df1 = n1 – 1, для второй выборки df2 = n2 – 1. В таблице значение критерия Фишера находят по величинам df1 (верхняя строчка таблицы) и df2 (левый столбец таблицы). №№ Х Y 1 2 3 4 5 6 7 8 9 10 Сумма Среднее 90 29 39 79 88 53 34 40 75 79 606 60,6 41 49 56 64 72 65 63 87 77 62 639 63,6 Средние двух групп значимо не различаются по критерию Стьюдента. Рассчитаем различия двух выборок по критерию Фишера. S2x = 572,83; S2y = 174,04 F = 572,83 = 3,29 174,04 По таблице находим значение F-критерия при степенях свободы в обоих случаях равных 9. F = 3,18 для р  0, 05 F = 5,35 для р  0,01 Строим ось значимости зона зона зона незначимости неопределенности значимости 0,05 3,29 0,01 0,001 Для применения F-критерия используются те же правила, что и для критерия Стьюдента. 2. Непараметрические критерии различий для зависимых выборок Нам бывает необходимо оценить достоверность сдвига или изменений, произошедших в результате экспериментального воздействия на группу испытуемых. Самым простым критерием, определяющим достоверность сдвига, является критерий знаков G. Сидоренко выделила следующие виды сдвигов, при которых можно использовать критерий знаков G. 1. Временные сдвиги, когда производятся замеры на одной группе испытуемых, но в разное время (лонгитюдные исследования). 2. Ситуационные сдвиги – произведение замеров по одним и тем же методикам, но в разных условиях измерения, например в состоянии покоя и состоянии стресса. 3. Умозрительные сдвиги – производятся замеры в обычных и воображаемых условиях. Например, испытуемого просят представить, что сейчас он является его отцом или матерью, то, как бы он заполнил опросник. 4. Измерительные сдвиги – производят замеры до экспериментального воздействия и после него. 5. Структурные сдвиги – сопоставление разных показателей одних и тех же испытуемых, измеренные в тех же единицах и по одной шкале. Например, перепад между вербальным и невербальным интеллектом. Критерий знаков G позволяет определить тенденцию изменения показателей после первого и второго замеров (в положительную или отрицательную сторону). Он применяется только для зависимых выборок. №№ До экспериментального воздействия (Х1) После экспериментального воздействия (Х2) Сдвиг (Х1 – Х2) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 30 39 35 34 40 35 22 22 32 23 16 34 33 34 34 39 26 33 34 40 25 23 33 24 15 27 35 37 +4 -9 -1 -6 +5 +3 +1 +1 +1 -1 -7 +2 +3 Сдвиг – это величина разности между первым замером и вторым замером. Величина сдвига обязательно должна вычисляться с учетом знака. На следующем этапе мы подсчитываем количество положительных и отрицательных сдвигов. Положительных сдвигов – 8, Отрицательных сдвигов – 5. У нас есть еще 1 нулевой сдвиг, когда показатели до и после экспериментального воздействия не изменяются. Нулевые сдвиги не участвуют в расчете критерия знаков G. Далее мы определяем типичные и нетипичные сдвиги. Типичным называется сдвиг, получивший наибольшее количество баллов и обозначается буквой n. Нетипичным называется сдвиг, получивший наименьшее количество баллов и обозначается как Gэмп. Эта величина располагается на оси значимости. Чем меньше Gэмп, тем значимее будет сдвиг. Если типичный сдвиг равен нетипичному, то критерий знаков G не применяется. Затем по таблице находим величины равные уровням значимости р  0,05 и р  0,01. В нашем примере типичный сдвиг или n равен 8, эти значения и ищем по таблице. Так, при р £ 0,05 не должно превышать 1, а при р £ 0,01 не должно быть больше 0. Строим ось значимости зона зона зона незначимости неопределенности значимости Gэмп = 5 0,05 0,01 р = 1 р = 0 Обратите внимание, что ось значимости при вычислении критерия знаков G направлена в противоположную сторону, не слева направо, а справа налево. Правила применения критерия знаков G: 1. Критерий знаков G является самым простым в вычислении, но и самым менее мощным критерием. Поэтому, если критерий знаков G выявил различия на высоком уровне достоверности, то и другие критерии более мощные тоже установят эти различия. Если же критерий знаков G не выявил статистических различий можно применять другие более мощные критерии, которые, возможно, установят эти различия. 2. Измерения должно быть произведено только в шкале порядка, интервальной или отношений. 3. Выборка должна быть зависимой. 4. Количество сравниваемых показателей должно быть одинаковым. 5. Критерий знаков G может применяться только на выборке, имеющей не меньше 5, но и не больше 300 типичных сдвигов. 6. Критерий эффективен при большом объеме выборки. 7. При равенстве типичных и нетипичных сдвигов не используется. Т-критерий Вилкоксона является более мощным, чем критерий знаков G и позволяет выявить не только направленность изменений, но и их выраженность, т.е. насколько сдвиг показателей, в каком – то направлении является более интенсивным, чем в другом. Критерий Т основан на ранжировании абсолютных величин разности между двумя замерами. Затем подсчитывается сумма рангов отрицательных и положительных сдвигов. Та величина, которая окажется больше называется типичным сдвигом, а которая окажется меньше – нетипичным сдвигом. Критерий Т вычисляется по величине нетипичного сдвига, который называется Тэмп. №№ До После Сдвиг Абсолютная величина Ранги абсолютных величин Символ нетипичного сдвига 1 2 3 4 5 6 7 1 2 3 4 5 6 7 Сумма 24 12 42 30 40 55 50 22 12 41 31 32 44 50 -2 -1 +1 -8 -11 2 1 1 8 11 5 (1) 1,5 (3) 3,5 (4) 3,5 6 7 (2) 1,5 28 * Проверим правильность ранжирования по формуле: 7*8 / 2 = 28. Любым символом обозначаем нетипичные сдвиги. Суммируем ранги нетипичных сдвигов. Это и будет Тэмп = 3,5 По таблице 2 Приложения определяют Ткр. В отличие от критерия знаков, Ткр определяется по общему числу испытуемых. Ткр 3 для р 0,05 0 для р0,01 Строим ось значимости зона зона зона незначимости неопределенности значимости Тэмп = 3,5 0,05 0,01 р = 3 р = 0 Правила применения Т-критерия Вилкоксона: 1. Измерение проводится во всех шкалах, кроме номинальной шкалы. 2. Выборка должна быть зависимой. 3. Число элементов в сравниваемых выборках должно быть равным 4. Объем выборки должен быть от 5 до 50 человек. 5. Ось значимости имеет противоположную направленность. 6. Если доля одинаковых рангов превышает 50%, то рекомендуется использовать критерий знаков. Критерий r2 Фридмана позволяет сравнивать показатели, измеренные от 3 до 100 раз, но не дает возможности выявить направление изменений. №№ 1 измерение ранг 2 измерение ранг 3 измерение ранг 1 2 3 4 5 6 Сумма 8 4 6 3 7 15 3 1 1 1 2 2 10 3 15 23 6 12 24 1 3 3 2,5 3 3 15,5 5 12 15 6 3 12 2 2 2 2,5 1 1 10,5 Ранжирование производим по строкам. Суммируем ранги по столбцам и проверяем правильность ранжирования по формуле. Вычисляем эмпирическое значение критерия Фридмана по формуле: 2эмп =  12  (R2i) -3n(c +1) = 12 *20+240,25+110,25- 3*6*4=3,08 nc(c+1) 6* 3 *4 где n – количество испытуемых или строчек, с – количество столбцов Ri – сумма рангов каждого столбца По таблице 3 Приложения определяем величину критических значений для числа испытуемых n =6. Следует подчеркнуть, что таблицы для поиска критических значений критерия Фридмана очень специфичны и отличаются от стандартных таблиц. Здесь уровни значимости даны нетрадиционно, и поэтому каждый раз следует выбирать наиболее близкие значения к 0,05 и 0,01. В нашем случае эти значения составляют 0,052 и 0,012. Строим ось значимости, которая имеет традиционный вид. Правила применения критерия Фридмана: 1. Критерий Фридмана используется при более 3 замерах и менее 100. 2. Измерение должно быть проведено по шкале интервалов или по шкале отношений. 3. Выборка должна быть зависимой. 4. Количество человек в выборке должно быть не менее 2, верхний предел выборки не определен. 5. В зависимости от числа измерений и количества испытуемых используются разные таблицы значимости. - при 3 измерениях и числе испытуемых от 2 до 9 критические значения определяются по таблице 3 Приложения. - при 4 измерениях и числе испытуемых от 2 до 4 критические значения определяются по таблице 4 Приложения. - при большем количестве измерений и испытуемых критические значения определяются по таблице 12 (для критерий хи - квадрат). В этом случае число степеней свободы определяется по формуле  = с – 1, где с – количество измерений. L - критерий тенденций Пейжда позволяет выявить не только различия, но и направление в изменении величин признака. Правила применения L- критерия: 1. Измерение производится в ранговой, интервальной и шкале отношений. 2. Выборка должна быть зависимой. 3. Объем выборки должен быть небольшой от 2 до 12 человек, количество измерений от 3 до 6, если это условие не выполняется, рекомендуется применять критерий Фридмана. Порядок вычисления следующий: 1. Ранжирование по строкам. Проверка ранжирования по формуле. 2. Ранжирование суммы рангов по столбцам. 3. Вычисление Lэмп. по формуле. 4. Определение Lкр по таблице 5 приложения. 5. Построение оси значимости (традиционно). №№ 1 измерение ранг 2 измерение ранг 3 измерение ранг 4 измерение ранг 1 2 3 4 5 6 Сумма 8 4 6 3 7 15 3 1 1 1 2 3 11 3 15 23 6 12 24 1 4 4 2.5 4 4 19,5 5 12 15 6 3 12 2 2 2 2.5 1 2 11,5 12 13 20 12 8 7 4 3 3 4 3 1 18 ранг 1 4 2 3 Lэмп =  (Ri  i), где Ri – сумма рангов каждого столбца, i – ранг столбца, с – число измерений. Строим ось значимости зона зона зона незначимости неопределенности значимости 0,05 Lэмп= 166 0,01 р = 163 р = 172 Критерий Макнамары. Правила применения: 1. Измерение проводится по дихотомической шкале. 2. Выборка зависимая. 3. Мэмп вычисляется по формуле с использованием таблицы биноминального распределения, а Мкр величины постоянные. При количестве испытуемых менее 20 Мкр для 5% уровня значимости равно 0,025, для 1% - 0,005. при количестве испытуемых более 20 Мкр равно для 5% - 3,841; 1% - 6,635. Способ вычисления для выборки менее 20 человек. 1. Находится величина m – минимальная величина из В и С. 2. n = В+С. 3. По таблице 6 Приложения определяем Мэмп. 4. Строим ось значимости (перевернутая). Второй опрос Сумма Нравится Не нравится Первый опрос Нравится А = 2 В = 2 7 Не нравится С = 11 D = 5 16 Сумма 13 7 20 m = 2, n = 13. Мэмп = 0,011 (к табличному значению 011 подставляем 0,) Строим ось значимости зона зона зона незначимости неопределенности значимости 0,05 Мэмп=0,011 0,01 р = 0,025 р = 0,005 Способ вычисления для выборки более 20 человек. 1. Мэмп = (В - С)2 В+С 2. Строим ось значимости (традиционная). 3. Непараметрические критерии различий для независимых выборок. Критерий U Вилкоксона – Манна – Уитни применяют для оценки различий по уровню выраженности какого-либо признака. Правила применения U-критерия: 1. Измерение производится в шкале интервалов и отношений. 2. Выборка независимая и объемом от 3 до 60 человек. Выборки могут быть различными по объему. Способ вычисления: 1. Полученные результаты представляем в виде общего упорядоченного ряда по возрастанию. Первую группу обозначаем символом «х», вторую группу – «у». Можно данные представить в таблице. х у х х х у у х х у у х х у у у у 2. Взяв за эталон идеальный ряд, вычисляем инверсии. Инверсия – это количество находящихся перед числом одной группы чисел второй группы. хххххххххххх ууууууууууууууу 3. Подсчитываем количество инверсий в каждой выборке. Uэмп = минимальное количество инверсий. 4. По таблице 7 Приложения определяем Uкр отдельно для каждого уровня значимости, а также для величин n1 и n2. 5. Строим ось значимости (перевернутая). Х У Инверсия Х/У Инверсия У/Х 6 - 25 25 30 - - 38 39 - - 43 44 - - - - сумма инверсий - 8 - - - 31 32 - - 41 41 - - 45 46 50 55 - 1 1 1 - - 3 3 - - 5 5 - - - - 19 - 1 - - - 4 4 - - 6 6 - - 8 8 8 8 53 Uэмп = 53; Uкр = 18 для 5% и 11 для 1%. 6. Если встречаются в двух выборках одинаковые показатели, то располагаем их по очереди. 7. Или ранжируем, затем суммируем ранги и проверяем правильность ранжирования. 8. Вычисляем Uэмп по формуле: Uэмп = (n1* n2)+nx * (nx + 1) - Rmax, 2 где n1 и n2 – количество испытуемых в каждой из выборок, Rmax – наибольшая по величине сумма рангов, nx – количество испытуемых в группе с большей суммой рангов. Критерий Q Розенбаума (критерий хвостов). Правила применения: 1. Измерение должно быть проведено в шкале порядка, интервалов или отношений. 2. Выборки независимы и могут быть различными по объему, но от 11 человек. 3. Верхний предел 26 человек. 4. Если количество испытуемых больше 26 человек, то используют постоянные величины Q для 5% - 8; для 1% - 10. 5. Обязательно наличие хвостов. Если они отсутствуют, то применяют критерий U. хххххххххххххххххххх ххххххххххххххх уууууууууууу уууууууууууууууу Порядок вычисления: 1. Располагают два ряда показателей один под другим, так, чтобы равные элементы находились один под другим. 2. Вычисляем величины Т и S. Т – количество элементов, которые находятся левее начала совпадающих элементов; S – количество элементов, находящихся правее начала совпадающих элементов. Т |хххххх|xxxxxxxxxx уууу|уууууу| S 3. Qэмп= T+S, Qкр определяем по количеству испытуемых в первой и второй выборках с помощью таблицы 8 Приложения. Если Qэмп велико, то различия считаются достоверными. 4. Строим ось значимости (традиционную). Т |96 100 104 104 120 120 120 120 | 126 130 134 76 82 82 84 88 |96 100 102 104 110 18 120 | S T = 5, S = 3, Qэмп = 8, по таблице для выборок n1=11 и n2= 12 Qкр равно 7 и 9. Н – критерий Крускала – Уоллиса выявляет степень изменения признака в нескольких выборках, но не указывает направление изменений. Правила применения Н-критерия: 1. Измерение должно быть проведено в шкале порядка, интервалов или отношений. 2. Выборки должны быть независимые и могут различаться по объему. 3. Если в исследовании участвовало 3 выборки с объемом не более пяти человек, то Н-критерий вычисляется по таблице 9 Приложения. 4. Если выборок более 3 с большим объемом, то пользуются таблицей 12 для критерия хи-квадрат. Степени свободы определяют по формуле = с-1, где с – количество выборок. Порядок вычисления: 1. Выборки объединяются в одну и ранжируются показатели. 2. Затем объединенная выборка разбивается на исходные и считаются суммы рангов по каждой выборке. Проверка правильности ранжирования. 3. Нэмп = 12 *  Ri2 – 3 (N + 1), N*(N+1) ni Где N – общее количество испытуемых в объединенной выборке, ni – число членов в каждой отдельной выборке, Ri – сумма рангов по каждой выборке. 4. Определяем Нкр по таблицам. 5. Строим ось значимости (традиционная). №№ 1 группа ранг 2 группа ранг 3 группа ранг 4 группа ранг 1 2 3 4 Сумма 23 20 34 35 6 3 12 14 35 45 12 34 11 16 2 12 1 31 34 24 25 40 12 7 8 15 42 21 22 26 27 4 5 9 10 31 Нэмп = 12 * (35*35) + (31*31) + (42*42) + (31*31) – 3*17 = 1,21 16*17 4 4 4 4 S – критерий тенденций Джонкира выявляет направление различий при сопоставлении от трех до шести выборок. Правила применения: 1. Измерение проводится по шкале порядка, интервалов или отношений. 2. Выборки должны быть независимые и одинаковыми по объему от 2 до 10 человек. Порядок вычисления: 1. Необходимо расположить выборки в порядке возрастания значений исследуемого признака. 2. Подсчитываем инверсии. Инверсия для данного элемента – это число элементов, которые превышают данный элемент по величине по всей выборке справа. Инверсия по отношению к собственной выборке не считается. Следовательно, в последней колонке справа инверсия не подсчитывается. 3. Подсчет общей суммы инверсий (А). 4. Подсчет Sэмп = 2*А – В, В= с*(с-1) * n2 2 5. Определяем Sкр по таблице 10 Приложения. 6. Строим ось значимости (традиционная). где n – количество элементов в столбце; с – количество столбцов. №№ 1 группа 2 группа 3 группа 4 группа 1 2 3 4 Сумма 23 20 34 35 112 45 12 34 11 102 34 24 25 40 123 21 22 26 27 96 Преобразуем таблицу так, чтобы столбцы располагались по возрастанию. №№ 1 группа 2 группа 3 группа 4 группа 1 2 3 4 Сумма Сумма инверсий 21(9) 22(9) 26(6) 27(6) 96 30 45(0) 12(8) 34(2) 11(8) 102 18 23(4) 20(4) 34(1) 35(1) 112 10 34 24 25 40 123 В скобках проставляем инверсии. Sэмп = 2*58 – (4*3) * (4*4) = 20 2 Лекция 4. Критерии связи. 1. Понятие корреляции. 2. Коэффициент корреляции Пирсона. 3. Ранговый коэффициент корреляции Спирмена. 4. Коэффициент корреляции «φ». 5. Коэффициент корреляции «τ» Кендалла. 6. Бисериальный коэффициент корреляции. 7. Рангово-бисериальный коэффициент корреляции. 8. Корреляционное отношение Пирсона ή. 9. Множественная и частная корреляции. 10. Проверка гипотез о различии корреляций. 1. Понятие корреляции. Термин «корреляция» означает взаимную связь. Наряду с термином корреляционная связь используют понятие корреляционная зависимость. Например, известно, что между ростом людей и весом существует прямая связь, т.е. чем выше рост, тем больше вес. Существуют, конечно же, исключения, например, люди невысокого роста, имеют избыточный вес или высокие люди характеризуются недостатком веса. Поэтому мы можем говорить о взаимной связи по выраженности признака в среднем. Корреляционная связь – это согласованное изменение двух признаков, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого признака. Корреляционные связи – это вероятностные изменения, они не могут рассматриваться как причинно – следственные связи, а лишь свидетельствуют о том, что при изменении одного признака, изменяется и другой. Причина изменения данных признаков неизвестна, ей может быть третий признак, воздействующий на первые два. Корреляционные связи различаются по форме, направлению и силе. По форме корреляционные связи могут быть - линейная или прямая, например, связь между умственным развитием и успеваемостью в школе; - нелинейная или криволинейная, например, закон Йоркса-Додсона (уровень мотивации и эффективность выполнения задачи) или зависимость заработной платы и производительности труда. По направлению, с учетом знака корреляционной связи: - положительная или прямо пропорциональная связь, например, при увеличении или уменьшении одного признака, другой также увеличивается или уменьшается; - отрицательная или обратно пропорциональная связь, т.е. при увеличении одного признака другой уменьшается и наоборот; - монотонная связь, если направление изменения одной переменной не меняется с возрастанием (убыванием) другой переменной; • немонотонная связь, если направление изменения одной переменной меняется с возрастанием (убыванием) другой переменной. Положительная связь Отрицательная связь Линейная Нелинейная монотонная Нелинейная немонотонная Сила корреляционной связи определяется по величине коэффициента корреляции. Максимально возможное значение коэффициента корреляции равно 1, минимальное равно 0. Существуют общая и частная классификации корреляционный связей по силе. Общая классификация корреляционных связей по силе: - сильная или тесная при r > 0,70 - средняя при 0,50 < r > 0,69; - умеренная при 0,30 < r > 0,49; - слабая при 0,20 < r > 0,29; - очень слабая при 0,19 < r. Частная классификация корреляционных связей по силе: - высокая значимая корреляция при р < 0,01; - значимая корреляция при р < 0,05; - тенденция достоверной связи при р < 0,10; - незначимая корреляция значения коэффициента не достигает уровня значимости Эти классификации не совпадают. Первая ориентирована на величину коэффициента корреляции, а вторая на уровень значимости коэффициента корреляции. С увеличением объема выборки увеличивается вероятность выявления сильной связи. В результате при малом объеме выборки сильная связь может быть признана недостоверной, а при большом объеме – слабая связь может быть значимой. Обычно принято ориентироваться, а вторую классификацию, поскольку она учитывает объем выборки. Основная гипотеза исследования в отношении коэффициентов корреляции является ненаправленной и содержит утверждение о равенстве корреляции нулю в генеральной совокупности Н0: rxy = 0. При её отклонении принимается альтернативная гипотеза Н1: rxy ≠ 0 о наличии положительной (отрицательной) корреляции. Наглядное представление о характере вероятностной связи дает диаграмма рассеивания – график, оси которого соответствуют значениям двух переменных, а каждый испытуемый представляет собой точку. Например, построим диаграмма рассеивания функциональной связи двух переменных. №№ Переменная Х Переменна Y 1 13 12 2 9 11 3 8 8 4 9 12 5 7 9 6 9 11 7 8 9 8 13 13 9 11 9 10 12 10 Y Х На графике видно, что существует взаимосвязь между двумя переменными. Преимущества корреляционного анализа состоит в том, что он позволяет произвести множественное сопоставление признаков. Например, успешность в деятельности может быть связана с уровнем интеллектуального развития, с уровнем эмпатии, с личностными характеристиками, с возрастом испытуемого или другими признаками. Представление результатов корреляционного анализа осуществляется с помощью корреляционной матрицы и корреляционных плеяд. Корреляционная матрица является квадратной: число строк и столбцов равно числу переменных. Она симметрична главной диагонали, так как корреляция Х с Y равна корреляции Y с Х. На ее главной диагонали располагаются единицы, так как корреляция признака с самим собой равна единице. Следовательно, интерпретации подлежат не все элементы корреляционной матрицы, а те, которые находятся выше или ниже главной диагонали. Х1 Х2 Х3 Х4 Х5 Y1 1 0,52 -0,11 -0,29 -0,38 Y2 0,52 1 0,28 0,32 -0,34 Y3 -0,11 0,28 1 0,48 0,42 Y4 -0,29 0,32 0,48 1 0,38 Y5 -0,38 -0,34 0,42 0,38 1 Корреляционная плеяда – это фигура, состоящая из вершин и соединяющих их линий. Вершины соответствуют признакам и обозначаются обычно цифрами – номерами переменных. Линии всегда соответствуют статистически достоверным связям и графически выражают знак, а иногда – и р-уровень значимости связи. Корреляционная плеяда, отражающая все значимые связи корреляционной матрицы, называется корреляционным графом. Построение корреляционной плеяды начинают с переменной, имеющей наибольшее количество значимых связей, добавляя в рисунок другие переменные – по мере убывания числа связей и связывая их линиями, соответствующими связями между ними. Корреляционные связи различного уровня достоверности рекомендуется обозначать разными цветами. r > 0 r< 0 p ≤0,05 4 p ≤0,01 Недостатком корреляционного анализа могут служить следующие условия: 1. Выявление среднегрупповых тенденций, которые не всегда можно распространить на отдельных индивидов. 2. Чувствительность к выбросам – экстремально большим или малым значениям признака, особенно коэффициент корреляции Пирсона, так как он прямо пропорционален отклонению значения переменной от среднего. Например, при сопоставлении показателей вербального и невербального интеллекта, измеренных у 20 учащихся (r = 0,517). Но если добавить еще одно наблюдение: X21 = 3, Y21 = 16. новое значение коэффициента корреляции будет равно r = -0,124. Этот пример демонстрирует, что даже одно наблюдение может изменить знак корреляции на противоположный. Существенно меньшему влиянию выбросов подвержены ранговые корреляции. Поэтому в случае выбросов рекомендуется использовать ранговые коэффициенты корреляции. Борьбу с выбросами можно осуществлять с помощью «чистки» данных. Можно для каждой переменной установить определенное ограничение на диапазон ее изменчивости. Например, исключать те наблюдения, которые выходят за пределы диапазона Х ± 2σ. 3. Влияние третьей переменной. Т.е. корреляция между двумя переменными обусловлена не их взаимосвязью, а влиянием третьей переменной, которая выпадает из поля зрения исследователя. Чтобы убедиться в истинной корреляции между двумя переменными, необходимо разделить выборку на две или несколько групп по номинативному признаку, например, полу или возрасту, и вычислить коэффициент корреляции не только для всей выборки, но и для каждой группы в отдельности. Например, была обнаружена сильная отрицательная корреляции между ростом и длиной волос. Но при разделении выборки на две группы по половому признаку. Коэффициент корреляции стал равен нулю, и вычислить коэффициент корреляции не только для всей выборки, но и для каждой группы в отдельности. Например, была обнаружена сильная отрицательная корреляции между ростом и длиной волос, но при разделении выборки на две группы по половому признаку, коэффициент корреляции стал равен нулю. Второй способ выявить влияние третьей переменной: вычисление частной корреляции. Если возникло предположение, что взаимосвязь между переменными Х и Y обусловлена переменной Z, вычисляют частную корреляцию с учетом третьей переменной. Если частная корреляция меньше, корреляции между Х и Y, то весьма вероятно, что именно Z является истинной причиной корреляции Х и Y. 4. Нелинейный характер взаимосвязи, который трудно выявить. Нелинейную корреляционную связь можно обнаружить, рассматривая диаграмму рассеивания. Это свидетельствует о важности визуального анализа связи с помощью таких графиков во всех случаях применения корреляций. Если нелинейная связь оказывается монотонной, то можно применять ранговые коэффициенты корреляции. Если наблюдается немонотонная нелинейная связь. То можно поступить двояко. В первом случае надо найти точку перегиба по диаграмме рассеивания и разделить выборку на две группы, различающиеся направлением связи между переменными. После этого можно вычислить коэффициент корреляции для каждой группы. Второй способ предполагает отказ от применения коэффициентов корреляции. Необходимо ввести дополнительную номинативную переменную, которая делит выборку на контрастные группы по одной из переменных. Далее изучать различия между этими группами по уровню выраженности другой переменной. 2. Коэффициент корреляции Пирсона. Коэффициент корреляции Пирсона является параметрическим критерием и поэтому имеет все преимущества и недостатки, свойственные всем параметрическим методам. Коэффициент корреляции Пирсона характеризует наличие только линейной связи между признаками, поэтому он еще называется коэффициентом линейной корреляции Пирсона. Если связь между признаками нелинейная, то рекомендуется использовать корреляционное отношение Пирсона ή. Величина коэффициента корреляции должна находиться в пределе от +1 до –1, если же она больше верхнего предела или меньше нижнего предела, то, следовательно, в расчетах произошла ошибка. Формула расчета коэффициента корреляции Пирсона такова: где хi – значения, принимаемые переменной Х; yi – значения, принимаемые переменной Y; х – средняя по Х; y – средняя по Y. Можно использовать модифицированную формулу, требующую меньших расчетов: ∑ (Xi * Yi) - ∑ Xi * ∑ Yi n rxy = Sx * Sy Где Sx = ∑ X2i – (∑ Xi)2 ; Sy = ∑ Y2i – (∑ Yi)2 ; n n или модификацию этой формулы: n * ∑(Xi * Yi) – (∑ Xi * ∑ Yi) ; rxy = (n * ∑ X2i – (∑ Xi)2)* (n *∑ Y2i – (∑ Yi)2) После расчета коэффициента корреляции находим критические значения по таблице критических значений коэффициента корреляции Пирсона для 5% и 1% уровней значимости. При нахождении критических значений число степеней свободы рассчитывается как k = n – 2, где n – объем выборки. Затем строим ось значимости. На ось значимости эмпирическое значение коэффициента корреляции наносим без учета знака. Знак необходим только при интерпретации результатов. Правила применения коэффициента корреляции Пирсона: 1.Измерение должно проводиться в интервальной или шкале отношений. 1. Распределение признака должно быть нормальным. 2. Число варьирующих признаков должно быть равным. 3. Ранговый коэффициент корреляции Спирмена. Коэффициент корреляции рангов Спирмена является непараметрическим критерием и поэтому не требует никаких предположений о характере распределения признака. Коэффициент Спирмена основан на сравнении рангов исследуемых признаков. Порядок вычисления ранговой корреляции: 1. Ранжируем значения переменной Х и переменной Y, правила ранжирования рассмотрены выше. 2. Находим разность между рангами по двум переменным для каждого испытуемого. Разность между рангами вводим в квадрат. 3. Вычисляем коэффициент корреляции по формуле: ρ = 1 – 6 * ∑ (D2) n * (n2 – 1) где n – количество испытуемых; D – разность между рангами по двум переменным для каждого испытуемого; ∑ (D2) – сумма квадратов разностей рангов. При наличии одинаковых рангов для расчета ранговой корреляции используется другая формула. В данном случае в формулу добавляются два новых члена, учитывающие одинаковые ранги. Они называются поправками на одинаковые ранги и добавляются в числитель расчетной формулы. D1 = n3 – n; D2 = k3 – k; 10. 12 где n – число одинаковых рангов переменной Х; k – число одинаковых рангов переменной Y. Если имеется две группы одинаковых рангов, то формула поправки усложняется: D3 = (n3 – n)+ ( k3 – k); 12 где n – число одинаковых рангов в первой группе ранжируемого признака; k – число одинаковых рангов во второй группе ранжируемого признака. Модификация формулы коэффициента ранговой корреляции в случае одинаковых рангов выглядит следующим образом: ρ = 1 – 6 * ∑ d2 + D1 +D2 + D3; n * (n2 – 1) 4. По таблице критических значений коэффициента ранговых корреляций находим критические величины при р < 0,05 и р < 0,01. 5. Строим ось значимости без учета знака коэффициента. Знак учитывается только при интерпретации результатов исследования. Правила применения коэффициента ранговой корреляции Спирмена: 1. Измерения проводится в любой шкале, кроме номинальной. 2. Характер распределения признака значения не имеет. 3. Число измеряемых признаков должно быть одинаковым. 4. Таблицы критических значений рассчитаны только на объем выборки от 5 до 40 человек. Если выборка включает большее количество испытуемых, рекомендуется пользоваться таблицей критических значений коэффициента корреляции Пирсона, где k = n. Лекция 5. Дисперсионный анализ 1. Назначение и общее представление о дисперсионном анализе 2. Однофакторный дисперсионный анализ (F – критерий Фишера). 3. Критерий Линка и Уоллеса. Критерий Немени. 4. Двухфакторный дисперсионный анализ. 1. Назначение и общее представление о дисперсионном анализе Общепринятое сокращенное обозначение дисперсионного анализа – АNOVA. АNOVA – это метод сравнения нескольких выборок по признаку, измеренному в метрической шкале. АNOVA, как и критерий Стьюдента, решает задачу сравнения средних значений, но не двух, а нескольких. Дисперсионный анализ был предложен Фишером и предназначен для выявления влияния ряда отдельных факторов на результаты эксперимента. Так, типичная схема эксперимента установить влияние независимой переменной на зависимую переменную. Независимая переменная (фактор) может иметь несколько градаций (например, 1 час, 2 часа, сутки, неделя). В дисперсионном анализе, возможно, изучить влияние нескольких независимых переменных (например, время и пол испытуемого). Для того чтобы установить, какая переменная оказала влияние на зависимую переменную и используют дисперсионный анализ. Различают два типа независимых переменных: - независимая переменная межгруппового фактора, когда измерение зависимой переменной происходит на независимых выборках; - независимая переменная внутригруппового фактора, когда используются повторные измерения зависимой переменной на одной и той же выборке. В зависимости от типа экспериментального плана выделяют четыре основных варианта АNOVA: - однофакторный АNOVA используется при изучении влияния одной независимой переменной на зависимую переменную. При этом проверяется одна гипотеза о влиянии независимой переменной на зависимую переменную. - многофакторный АNOVA используется при изучении влияния двух и более независимых переменных на зависимую переменную. Проверяются три гипотезы: а) о влиянии одного фактора; б) о влиянии другого фактора; в) о взаимодействии факторов. Например, изучается влияние на обучение различных временных перерывов и пола испытуемого. - АNOVA с повторными измерениями применяется, когда по крайней мере один фактор изменяется по внутригрупповому плану, т.е. различным градациям этого фактора соответствует одна и та же выборка объектов. Проверяются три гипотезы: а) о влиянии внутригруппового фактора; б) о влиянии межгруппового фактора; в) о взаимодействии внутригруппового и межгруппового факторов. - многомерный АNOVA применяется, когда зависимая переменная является многомерной, т.е. представляет собой множество измерений изучаемого явления. - модели АNOVA с постоянными эффектами, где уровни остаются фиксированными, постоянными. - модели АNOVA со случайными эффектами, когда уровни фактора представляют собой более или менее случайную выборку из множества других возможных уровней данного фактора. Например, сравнивалась эффективность учебной программы а различных, выбранных случайно школах. Таким образом, можно проверить гипотезу, как об эффективности программы, так и о различии эффективности в школах. Дисперсионный анализ основан на расчленении общей дисперсии изучаемого признака на отдельные компоненты. При подсчете дисперсионного анализа вычисляются три типа дисперсий: - общая дисперсия всех экспериментальных данных; - внутригрупповая дисперсия, характеризующая вариативность признака в каждой группе; - межгрупповая дисперсия, характеризующая вариативность групповых средних. Нулевая гипотеза содержит утверждение о равенстве межгрупповой и внутригрупповой составляющей. Нулевой гипотезе соответствует равенство средних значений зависимой переменной на всех уровнях фактора. Альтернативная гипотеза свидетельствует о различиях, по крайней мере, двух средних значений. Правила применения дисперсионного анализа: 1. Независимая переменная должна быть измерена в метрической шкале, зависимая переменная может быть измерена в номинативной шкале. 2. Не существуют требования к нормальному распределению. 3. Выборки для межгруппового анализа должны быть независимыми. 4. Дисперсии выборок, соответствующих разным градациям фактора должны быть равны межу собой. Если это условие не выполняется, то используют непараметрический аналог дисперсионного анализа. 2. Однофакторный дисперсионный анализ (F – критерий Фишера). Дисперсионный анализ основан на расчленении общей дисперсии изучаемого признака на отдельные компоненты. Дисперсионный анализ используется при исследовании трех и более выборок, различных по объему, зависимых и независимых. При подсчете однофакторного дисперсионного анализа вычисляются три типа дисперсий: - общая дисперсия всех экспериментальных данных; - внутригрупповая дисперсия, характеризующая вариативность признака в каждой группе; - межгрупповая дисперсия, характеризующая вариативность групповых средних. Fэмп = S 22 , S21 = Q1 и S22 = Q2 S21 N – p p – 1 S21 – остаточная дисперсия, характеризует рассеяние внутри групп. S22 – систематическая вариация, характеризует рассеяние групповых средний. Q1 – внутригрупповая дисперсия, Q2 – межгрупповая дисперсия, Q0 - общая дисперсия. Q0 =  х2ij – G2 , Q2 =  T2j - G2, Q1 = Q0 – Q2 или Q1= =  х2ij – T2J N nJ N nJ  х2ij – сумма квадратов всех показателей. G2 – ( хij)2 – квадрат суммы всех показателей. Т2J – сумма квадратов по каждому столбцу. р – количество условий. Правила применения дисперсионного анализа: 1. Измерение проводится в любой шкале, кроме номинальной. 2. Выборка может быть как зависимой, так и независимой, объем выборки может быть равномерным и неравномерным. 3. Необходимо не менее трех признаков и не менее двух испытуемых в каждом признаке. 4. Признак должен быть нормально распределен. Этапы вычисления дисперсионного анализа: 1. Рассчитываем суммы элементов по каждому столбцу. 2. Рассчитываем средние значения по каждому столбцу 3. Вычисляем общую сумму всех экспериментальных данных (G). Полученное значение вводим в квадрат (G2). Делим полученную величину на общее количество экспериментальных данных (G2 / N). 4. Общую сумму по столбцу вводим в квадрат и суммируем полученные квадраты (Т2J). Полученное значение делим на количество показателей в каждом столбце (Т2J/ nJ). 5. Вычисляем Q2, S22 по формулам. 6. Вычисляем сумму квадратов всех значений ( х2ij). Каждое значение вводим в квадрат и суммируем полученные значения. 7. Вычисляем Q0 и Q1, а также S21. 8. Подставляем полученные значения в формулу F-критерия. 9. Находим критические значения по таблице 14 для F-критерия. 10. Строим ось значимости (традиционная). 3. Критерий Линка и Уоллеса. Критерий Немени. Поскольку дисперсионный анализ очень трудоемок, как и все параметрические критерии, то можно воспользоваться «быстрыми» (непараметрическими) критериями дисперсионного анализа. Критерий Линка-Уоллиса построен на вычислении величины размаха между максимальными и минимальными значениями признака. №№ 1 группа 2 группа 3 группа 1 2 3 4 5 6 7 8 3 5 2 4 8 4 3 9 4 4 3 8 7 4 2 5 6 7 8 6 7 9 10 9 Кэмп = n * (max Xcрi - min XcрJ) сумма размахов Этапы вычисления критерия Линка-Уоллиса: 1. Вычисляем средние значения каждой группы. Хср1 = 4,75; Хср2 = 4,62; Хср3 = 7,75. Определяем разницу между максимальным и минимальным средним значением: 7,75 – 4,62 = 3,12 2. Вычисляем размах в каждом столбце – это разница между наибольшим и наименьшим значением. 1 группа 9 – 2 = 7 2 группа 8 – 2 = 6 3 группа 10 – 6 = 4 Суммируем размахи: 7+6+4= 17 3. Вычисляем Кэмп по формуле. 4. По таблице 18 находим критические значения. 5. Строим ось значимости. С помощью этого критерия можно статистически обоснованно высказать утверждение о равенстве или неравенстве средних значений. Проверка осуществляется по формуле: | разница средних|  Ккр * (сумма размахов) n сравним средние значения первой и второй группы: 4,75 – 4,62 = 0,12 0,12 1,18 * 17/8 = 2,507 неравенство не выполняется, значит можно заключить, что средние значения первой и второй групп статистически не различаются. если равенство выполняется, то можно говорить о статически достоверных различиях между средними значениями различных групп. Критерий Немени вычисляется посредством оценки диапазона разности рангов. 1 группа 2 группа 3 группа 4 группа баллы ранги баллы ранги баллы ранги баллы ранги 203 184 169 216 209 Сумма рангов 12 7,5 4 17 15 55,5 213 246 184 282 190 16 18 7,5 20 9 70,5 171 208 260 193 160 5 14 19 10 3 51 207 152 176 200 145 13 2 6 11 1 33 Этапы вычисления критерия Немени: 1. Формируем объединенную выборку и ранжируем её. 2. Вычисляем сумму рангов по каждой группе. 3. Проверка правильности ранжирования. 4. Вычисляем абсолютные разности между рангами (эмпирические значения). 1 и 2 группы - |55,5 – 70,5| = 15; 2 и 3 группы |70,5 - 51| = 19,5 1 и 3 группы - |55,5 - 51| = 4,5; 2 и 4 группы - |70,5 - 33| = 37,5 1 и 4 группы - |55,5 - 33| = 22,5; 3 и 4 группы - |51 - 33| = 18 5. Вычисляем критические значения по таблице 19. 6. Строим ось значимости. На ось значимости наносим абсолютные разности рангов. Если попадает в зону неопределенности или значимости, значит можно говорить о значимом влиянии на зависимую переменную данного признака (или уровня независимой переменной). Правила применения непараметрических методов дисперсионного анализа: 1. Измерение проводится в любой шкале, кроме номинальной. 2. Признак должен быть распределен нормально. 3. Группы испытуемых должны быть равными по объему. 4. Количество групп должно быть не меньше трех, а при использовании критерии Немени не более 10. Лекция 6. Многофункциональные статистические критерии 1. Критерий 2 Пирсона. 2. Критерий Колмогорова – Смирнова. 3. Критерий  - угловое преобразование Фишера. 1. Критерий 2 Пирсона. Многофункциональные критерии могут использоваться при наличии разнообразных данных, выборок и задач. Данные могут измеряться по любой шкале, в том числе и номинальной. Объем выборки может быть различен. Выборки могут быть зависимыми и независимыми. Критерий хи – квадрат один из наиболее часто используемых многофункциональных критериев в психологических исследованиях. Критерий хи-квадрат используется при решении следующих задач: 1. Выявление различий между эмпирическим распределением и теоретическим. 2. Выявление различий между двумя эмпирическими распределениями в одной выборке и двух независимых выборках. Правила применения критерия хи-квадрат: 1. Измерение проводятся в любой шкале. 2. Выборки могут быть зависимыми и независимыми. 3. Объем выборки должен превышать 20 человек. С увеличением объема выборки точность критерия повышается. 4. Таблица критических значений учитывает степени свободы, при  = с – 1, где с – признаков. Для сравнения эмпирического и теоретического распределения хи-квадрат вычисляется по формуле: 2эмп. =  (fэ – fт)2 fт где fэ - эмпирическая частота; fт – теоретическая частота. Эмпирическое распределение мы получаем в результате исследования. Теоретическая частота определяется по формуле: fтеор = n/r, где n – количество наблюдений; r – количество возможных альтернатив. В качестве теоретического распределения чаще всего выступает ожидаемое равномерное распределение частот между признаками. Для сравнения двух эмпирических распределений применяется другая формула хи-квадрат: 2эмп. = 1   (N * xi – M * yi)2 N*M xi + yi 1. Сравнение эмпирического распределения с теоретическим Например, в эксперименте испытуемый должен произвести выбор левого или правого стола с заданиями. Из 150 участников эксперимента 98 человек выбрали правый стол, а 52 человека – левый. Возникла гипотеза, равновероятный ли выбор правого и левого стола. Альтернативы выбора стола fэ fт fэ - fт (fэ - fт)2 (fэ - fт)2 fт Правый 98 75 23 529 7,05 Левый 52 75 -23 529 7,05 суммы 150 150 14,1 Порядок вычисления 2: 1. Подсчитываем эмпирические частоты. 2. Подсчитываем теоретические частоты (среднее значение эмпирических частот). Суммы эмпирических и теоретических частот должны быть равны. 3. Находим разницу между теоретическими и эмпирическими частотами, её сумма всегда должна быть равна нулю. Только в этом случае мы правильно выполнили расчеты. 4. По формуле определяем 2эмп. 5. По таблице 12 (критические значения 2) находим 2кр., число степеней свободы вычисляется по формуле  = к – 1, где к – количество строк. 4. Строим ось значимости (традиционную). В качестве теоретического распределения может выступать не обязательно равномерное распределение. Тогда соотношение теоретических частот будет не 1:1, как в рассмотренном примере, а, например, 1:4. В остальном весь ход решения остается прежним. Например, можно проверять гипотезу о том, что этнические индейцы составляют 20% всего населения США. Для проверки данной гипотезы была сформирована репрезентативная выборка объемом 135 человек, которая включала 40 этнических индейцев. Составляем таблицу эмпирических и теоретических частот и вычисляем эмпирическое значение критерия. fэ fт fэ - fт (fэ - fт)2 (fэ - fт)2 fт Этнические индейцы 40 27 13 169 6,26 Остальное население 95 108 -13 169 1,56 суммы 135 135 7,82 Обратите внимание, что в отличие от предыдущего примера, в данном случае теоретические частоты распределены не равномерно. По таблице критических значений найдем 2кр с учетом степеней свободы. Так, 2кр1 = 3,84; а 2кр2 = 6,63. Строим ось значимости. Эмпирическое значение критерия попадает в зону значимости, следовательно, мы можем сделать правомерный вывод о том, что этнические индейцы составляют 20% всего населения США. 2. Сравнение двух эмпирических распределений Пример: в двух школах проверялась успешность знаний по алгебре учащихся. Для этого в случайном порядке было выбрано по 50 учащихся в каждой из школ. Гипотеза: различий в уровне знаний учащихся первой и второй школы не наблюдается. школы оценки суммы 2 3 4 5 Школа 1 3 19 18 10 50 Школа 2 9 24 12 5 50 суммы 12 43 30 15 100 Вычисляем 2эмп. по выше предложенной формуле: 2эмп= 1 (N*xi –M*yi)2=1*(50*3–50 9)2+(50*19-50*24)2+(50*18-50*)2+(50*10-50*5)2=6,45 N*M xi + yi 50*50 50+50 По таблице находим критические значения для степеней свободы 3. Строим ось значимости. 2. Критерий Колмогорова – Смирнова. Этот критерий используется для решения тех же задач, что и предыдущий критерий. Однако хи-квадрат сравнивает теоретические и эмпирические частоты, а критерий Колмогорова – Смирнова – накопленные частоты. Чем больше разница в накопленных частотах. Тем существеннее различия между признаками. Правила применения критерия Колмогорова – Смирнова: 1. Измерение проводится по шкале интервалов и отношений. 2. Выборки должны быть случайными и независимыми. 3. Объем двух выборок желательно был больше 50 человек. 4. Эмпирические данные должны допускать возможность упорядочения по возрастанию или убыванию признака и обязательно отражать однонаправленное изменение. Порядок вычисления критерия Колмогорова – Смирнова: 1. Располагаем эмпирические частоты по возрастанию. 2. Вычисляем накопленные теоретические и эмпирические частоты. С этой целью с каждой последующей частоте прибавляется предыдущая. 3. Вычисляются абсолютные величины разности между эмпирическими и накопленными теоретическими частотами. 4. По формуле вычисляем эмпирическое значение критерия: Dэмп.= max | FE – FB| n 5. По таблице 13 Приложения находим критические значения. 6. Строим ось значимости. Например, в эксперименте нам необходимо использовать шестигранный кубик с цифрами на гранях от 1 до 6. Для чистоты эксперимента необходимо получить «чистый» кубик. Задача состоит в том, будет ли наш кубик близок к идеальному. Грани 1 2 3 4 5 6 В – эмпирические частоты 15 18 18 21 23 25 Е – теоретические частоты 20 20 20 20 20 20 Накопленные эмпирические (FE) 15 33 51 72 95 120 Накопленные теоретические (FB) 20 40 40 80 100 120 Абсолютная разница | FE - FB | 5 7 9 8 5 D = 9 = 0,075 120 3.Критерий  - угловое преобразование Фишера. Критерий Фишера применяется для оценки различий в двух выборках. Привила применения: 1. Измерение проводится по любой школе. 2. Выборки могут быть зависимые и независимые, различные по объему. 3. Нижняя граница в одной выборке может быть 2 показателя, но в таком случае в другой выборке нижняя граница должна быть не менее 30. 4. Нижние границы двух выборок должны быть не менее 5 показателей. Верхняя граница не определена. Порядок вычисления  - критерия: 1. Переводим полученные показатели в проценты. 2. По таблице 14 (величина угла ) находим величины 1 и 2. 3. Подсчитываем эмпирическое значение по формуле: эмп. = (1 - 2) * n1 * n2 n1 + n2 4. По таблице 15 (уровень статистической значимости критерия Фишера) определяем уровень значимости для эмпирического значения. Критические значения для критерия Фишера постоянны и равны для 5% уровня значимости – 1,64; для 1% - 2,31. 4. Строим ось значимости (традиционная). Пример. Психолог провел эксперимент. В котором выяснилось. Что в одном классе с заданием справились 23 учащихся из 15, а во втором классе 11 человек из 28. Гипотеза: различий между успешностью учеников двух классов нет. Переведем в проценты: 15/23 * 100 = 65,2 11/28 * 100 = 39,3 По таблице находим величины 1 = 1,880 и 2 = 1,355. Вычисляем эмп. = (1,880 – 1,355) * 23*28 = 1,86 23+28 Определяем уровень значимости для значения 1,86.
«Проблема измерения в психологии» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 938 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot