Справочник от Автор24
Поделись лекцией за скидку на Автор24

Элементы комбинаторики

  • 👀 663 просмотра
  • 📌 617 загрузок
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Элементы комбинаторики» pdf
КРАТКИЙ КУРС ЛЕКЦИЙ Тема 1.ЭЛЕМЕНТЫ КОМБИНАТОРИКИ Для успешного решения задач с использованием классического определения вероятности необходимо знать основные правила и формулы комбинаторики. Комбинаторика происходит от латинского слова ”combinatio” соединение. Группы, составленные из каких-либо предметов, (безразлично каких, например, букв, цветных шаров, кубиков, чисел и т.п.), называются соединениями (комбинациями). Предметы, из которых состоят соединения, называются элементами. Различают три типа соединений: перестановки, размещения и сочетания. 1.1. Размещения Размещениями из n элементов по m в каждом называются такие соединения, каждое из которых содержит m элементов, взятых из числа данных n элементов, и которые отличаются друг от друга либо самими элементами (хотя бы одним), либо лишь порядком их расположения. Число размещений из n элементов по m в каждом обычно обозначается символом по формуле (1.1) 1: Am n = n ( n − 1)( n − 2 )...( n − m + 1) . Anm и вычисляется (1.1) 1.2. Понятие факториала Произведение n натуральных чисел от 1 ⋅ 2 ⋅ 3 ⋅ ... ⋅ ( n − 1) ⋅ n = n! (читается: n факториал). Например, 5! = 1 ⋅ 2 ⋅ 3 ⋅ 4 ⋅ 5 = 120 . 1 до n обозначается сокращенно n!, то есть Считается, что 0! = 1. Используя понятие факториала, формулу (1.1) можно представить так: A nm = где 0 ≤ m ≤ n . Очевидно, что n! , (n − m)! (1.2) An1 = n (при m=1) и An0 = 1 (при m=0). 1.3. Размещения с повторениями Размещение с повторениями из n элементов по m(m ⋅ n) элементов может содержать любой элемент сколько угодно раз от 1 до m включительно, или не содержать его совсем, то есть каждое размещение с повторениями из n элементов по m элементов может состоять не только из различных элементов, но из m каких угодно и как угодно повторяющихся элементов. Соединения, отличающиеся друг от друга хотя бы порядком расположения элементов, считаются различными размещениями. Число размещений с повторениями из n элементов по m элементов будем обозначать символом повт.) A mn (c Можно доказать, что оно равно nm. (1.3) A nm(с повт.) = n m 1.4. Сочетания Сочетаниями из n элементов по m в каждом называются такие соединения, каждое из которых содержит m элементов, взятых из числа данных n элементов, и которые отличаются друг от друга по крайней мере одним элементом. 1 Выводы формул для числа размещений, а в последующем изложении - для числа сочетаний, - опускаются. Их можно найти в курсе элементарной алгебры. 1 Число сочетаний из n элементов по m в каждом обозначается символом A mn C = , Pm m n где 0 ≤ m ≤ n, (1.4) или n! m! ( n − m )! C mn = где 0 ≤ m ≤ n . Anm и вычисляется так: (1.5) Свойства сочетаний: 1) Сn0 = C00 = 1; 2) С 1n = n; n -m 3) Cm (m > n 2) - удобно применять при m > n = Cn n ; 2 4) Cn0 + C1n + Cn2 + ... + Cnn = 2n ; +1 m +1 = Cm 5) Cm n + Cn n +1 , где 0 ≤ m ≤ n. 1.5. Сочетания с повторениями Сочетание с повторениями из n элементов по m(m  n) элементов может содержать любой элемент сколько угодно раз от 1 до m включительно, или не содержать его совсем, то есть каждое сочетание из n элементов по m элементов может состоять не только из m различных элементов, но из m каких угодно и как угодно повторяющихся элементов. Следует отметить, что если, например, два соединения по m элементов отличаются друг от друга только порядком расположения элементов, то они не считаются различными сочетаниями. Число сочетаний с повторениями из n элементов по m будем обозначать символом для вычисления числа сочетаний с повторениями: Cmn (с повт.) = Cmn +m −1 = (n + m − 1)! m! (n − 1)! (C ) m n с повт. Формула (1.6) Замечание: m может быть и больше n. 1.6. Перестановки Перестановками из n элементов называются такие соединения, каждое из которых содержит все n элементов, и которые отличаются друг от друга лишь порядком расположения элементов. Число перестановок их n элементов обозначается символом Рn, это то же самое, что число размещений из n элементов по n в каждом, поэтому Pn = A nn = n ⋅ (n − 1) ⋅ (n − 2) ⋅ ... ⋅ (n − 1) ⋅ n = n! (1.7) 1.7. Перестановки с повторениями Число перестановок с повторениями выражается при помощи формулы: Pповт. = где n! , α!⋅β ! ⋅ γ ! (1.8) α , β ,.... γ − числа повторений. 1.8. Правила комбинаторики 2 Правило суммы (принцип логического сложения) Правило произведения (принцип логического умножения) Если объект а может быть выбран m способами, а объект b может быть выбран другими n способами (не такими как а), то выбор элемента а или b из объединенной совокупности может быть осуществлен m+n способами. Если объект а может быть выбран m способами и после каждого такого выбора объект b может быть выбран n способами, то выбор пары объектов а и b в указанном порядке может быть осуществлен m∙n способами. Тема 2.ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 2.1. Определение вероятности и свойства, вытекающие из её определения. Классификация событий. Диаграммы Венна Под вероятностью, в широком смысле, понимают количественную меру неопределенности. Это - число, которое выражает степень уверенности в наступлении того или иного случайного события. Например, нас может интересовать вероятность того, что объем продаж некоторого продукта не упадет, если цены вырастут, или вероятность того, что строительство нового дома завершится в срок. Случайным называется событие, которое может произойти или не произойти в результате некоторого испытания. В дальнейшем для простоты мы будем опускать термин “случайный”. Мы определим испытание (опыт, эксперимент) как процесс, включающий определенные условия, который приводит к одному из нескольких возможных исходов. Исходом опыта может быть результат наблюдения или измерения. Приведем несколько примеров испытаний и их исходов: Испытание Подбрасывание монеты Контроль качества деталей Продажа квартиры Результат футбольного матча Исход испытания Цифра, герб Годная, бракованная Продана, не продана Победа, проигрыш, ничья Единичный, отдельный исход испытания называется элементарным событием. Случайное событие может состоять из нескольких элементарных событий. Достоверное событие - это событие, которое обязательно произойдет в результате испытания. Например, если в урне содержатся только белые шары, то извлечение из нее белого шара есть событие достоверное; другой пример, если мы подбросим вверх камень, то он обязательно упадет на Землю в силу действия закона притяжения, то есть результат этого опыта заведомо известен. Достоверные события условимся обозначать символом Ω . Невозможное событие - это событие, которое не может произойти в результате данного опыта (испытания). Извлечение черного шара из урны с белыми шарами есть событие невозможное; выпадение выигрыша на все номера облигаций в каком-либо тираже выигрышного займа так же невозможное событие. Невозможное событие обозначим ∅. Достоверные и невозможные события, вообще говоря, не являются случайными. Совместные события. Несколько событий называются совместными, если в результате эксперимента наступление одного из них не исключает появления других. Например, при бросании трех монет выпадение цифры на одной не исключает появления цифр на других монетах. В магазин вошел покупатель. События “в магазин вошел покупатель старше 60 лет” и “в магазин вошла женщина” - совместные, так как в магазин может войти женщина старше 60 лет. Несовместные события. Несколько событий называются несовместными в данном опыте, если появление одного из них исключает появления других. Например, выигрыш, ничейный исход и проигрыш при игре в шахматы (одной партии) - три несовместных события. Единственно возможные события. События называются единственно возможными, если в результате испытания хотя бы одно из них обязательно произойдет (или одно, или два, или ... или все события из рассматриваемой совокупности событий произойдут; одно точно произойдет). Например, некоторая фирма рекламирует свой товар по радио и в газете. Обязательно произойдет одно и только одно из следующих событий: “потребитель услышал о товаре по радио”, “потребитель прочитал о товаре в газете”, “потребитель получил информацию о товаре по радио и из газеты”, “потребитель не слышал о товаре по радио и не читал газеты”. Эти четыре события единственно возможные. Равновозможные события. Несколько событий называются равновозможными, если в результате испытания ни одно из них не имеет объективно большую возможность появления, чем другие. При бросании игральной кости появление каждой из её граней - события равновозможные. 3 Противоположные события. Два единственно возможных и несовместных события называются противоположными. Купля и продажа определенного вида товара есть события противоположные. Полная группа событий. Совокупность всех единственно возможных и несовместных событий называется полной группой событий. Различные события и действия с ними удобно рассматривать с помощью, так называемых, диаграмм Венна (по имени английского математика-логика Джона Венна (1834 -1932)). Изобразим полную группу событий в виде квадрата, тогда круг внутри квадрата будет обозначать некоторое событие, скажем А, а точка – элементарное событие – Е. − A А •Е а Рис. 2.1 Рисунок 2.1 демонстрирует два противоположных события А и не А, которые дополняют друг друга до полной группы событий. Противоположное событие обозначается - А − A В AB Рис.2.2 Пересечение А и В (обозначается как A  B) есть набор, содержащий все элементы, которые являются членами и А и В. Объединение А и В (обозначается A  B) есть набор, содержащий все элементы, которые являются членами или А, или В, или А и В вместе.(рис. 2.2) Полную группу можно определить так: если n  = Ω и А i  A j = ∅ для любой пары (i ≠ j), тогда {A1, A2, … , An} - полная группа событий. i =1 Вероятностью появления события А называют отношение числа исходов, благоприятствующих наступлению этого события, к общему числу всех единственно возможных и несовместных элементарных исходов. Обозначим число благоприятствующих событию А исходов через М, а число всех исходов - N. P(A) = M , N (2.1) где M - целое неотрицательное число, 0 ≤ M ≤ N 4 Другой тип объективной вероятности определяется исходя из относительной частоты (частости) появления события. Если, к примеру, некоторая фирма в течение времени провела опрос 1000 покупателей нового сорта напитка и 20 из них оценили его как вкусный, то мы можем оценить вероятность того, что потребителям понравится новый напиток как 20/1000=0,02. В этом примере 20 - это частота наступления события, а 20/1000=0,02 - это относительная частота. Относительной частотой события называется отношение числа испытаний m, при которых событие появилось, к общему числу проведенных испытаний n. W(A) = m , n (2.2) где m - целое неотрицательное число, 0 ≤ m ≤ n Статистической вероятностью события А называется относительная частота (частость) этого события, вычисленная по результатам большого числа испытаний. Будем обозначать её Р*(А). Следовательно, P * (A) = W(A) = m/n . При очень большом числе испытаний статистическая вероятность при n →∞ при n →∞ приближенно равна классической вероятности, т.е. Р* (A)  Р(A) Для определения вероятности выпадения 1 или 2 при подбрасывании кости нам необходимо только знать “модель игры “, в данном случае - кость с 6 гранями. Мы можем определить наши шансы теоретически, без подбрасывания кости, это - априорная (доопытная) вероятность. Во втором примере мы можем определить вероятность только по результатам опыта, это - апостериорная (послеопытная) вероятность. То есть классическая вероятность - априорная, а статистическая - апостериорная. Какой бы вид вероятности не был выбран для их вычисления и анализа используется один и тот же набор математических правил. Свойства вероятности, вытекающие из классического определения. 1. Вероятность достоверного события равна 1, то есть Р( Ω ) = 1. Действительно, если событие А = Ω , то M = N, значит Р( Ω ) = N/N = 1. 2.Если событие невозможное, то его вероятность равна 0, то есть Р()= 0. Если А = , то оно не осуществится ни при одном испытании, то есть M = 0 и Р() = 0/N = 0. 3.Вероятность случайного события есть положительное число, заключенное между 0 и 1. В самом деле, та к как 0 ≤ M ≤ N , то 0 ≤ M/ N ≤ 1, то есть 0 ≤ Р(А) ≤ 1. 4. Сумма вероятностей противоположных событий равна 1, то есть − P(A) + P(A) = 1 . В самом деле, − P( A) = (N − M)/N = 1 − M/N = 1 − P(A) А отсюда: − P(A) + P( A ) = 1 (2.3) 2.2. Правила сложения и умножения вероятностей. Зависимые и независимые события Вероятность суммы двух событий равна сумме вероятностей этих событий без вероятности их совместного наступления, то есть: или Р (А+В) = Р(А) + Р(В) - Р(АВ) (2.4) Р(А  В) = Р(А) + Р(В) − Р(А  В) Для несовместных событий их совместное наступление есть невозможное событие , а вероятность его равна нулю. Следовательно, для несовместных событий правило сложения вероятностей принимает следующий вид: Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий. Для несовместных событий A, B: или P(A + B ) = P(A ) + P(B ), (2.5) Р(А  В) = Р(А) + Р(В) 5 то есть: Правило сложения вероятностей справедливо и для конечного числа n попарно несовместных событий, P(A1+A2+A3+...+An)=P(A1)+P(A2)+P(A3)+...P(An) или n n i =1 i =1 P ∑ (Ai) = ∑ P(Ai) (2.6) В случае нескольких совместных событий необходимо по аналогии с рассуждениями о пересечении двух совместных событий исключить повторный учет областей пересечения событий. Рассмотрим три совместных события. A AB AC B ABC CB C Рис. 2.3 Для случая трех совместных событий можно записать: Р(А + В + С) = Р(А) + Р(В) + Р(С) - Р(АВ) - Р(АС) - Р(ВС) + Р(АВС). Сумма вероятностей событий А1, А2, А3, ... , Аn, образующих полную группу, равна 1, то есть: P(A1) + P(A2) + P(A3) + ... + P(An) = 1 или n ∑ P(A ) = 1 (2.7) i i =1 Вероятность произведения двух независимых событий А и В равна произведению их вероятностей: P(AB) = P(A) ⋅ P(B), или P(A (2.8)  B) = P(A) ⋅ P(B) События А1, А2, ..., An (n > 2) называются независимыми в совокупности, если вероятность каждого из них не зависит от того, произошли или нет любые события из числа остальных. Распространим теоремы умножения на случаи n независимых и зависимых в совокупности событий. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий. (2.9) P(A1 ⋅A2⋅A3⋅…⋅An) = P(A1) ⋅P(A2) ⋅ P(A3) ⋅…⋅ P(An) Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность другого: 6 Р(АВ) = P(B) ⋅ Р(А/В) Р(А  В) = P(B) ⋅ Р(А/В) (2.10) или Р(АВ) = P(A)⋅Р(В/А) Р(А  В) = Р(A)⋅(В/А) Вероятность события В при условии появления события А: P(B/A) = P(A  B) P(A) или P(B/A) = P(AB) P(A) (2.11) P(A) ≠ 0 . Вероятность совместного наступления конечного числа n зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем условная вероятность каждого последующего события вычисляется в предположении, что все предыдущие уже наступили, т.е. P(A1 ⋅ A2 ⋅ A3 ⋅... ⋅Аn) = Р(A1) ⋅ P(A2 / A1) ⋅P(A3 / A1 ⋅ A2).⋅ . . . ⋅P(An / A1 ⋅ A2 ⋅ A3 ⋅…⋅ An-1) ( 2.12) Если события А1, А2, ... An - зависимые в совокупности, то вероятность наступления хотя бы одного из них соответственно равна: P(A) = 1 − P(A1 ) ⋅ P(A 2 /A1 ) ⋅ ... ⋅ P(A n /A1 ⋅ A 2 ⋅ ... ⋅ A n − 2 ⋅ A n −1 ) (2.13) Вероятность появления хотя бы одного события из n независимых в совокупности, равна разности между 1 и произведением вероятностей событий, противоположных данным, то есть: P ( A ) = 1 − P ( A 1 ) ⋅ P ( A 2 ) ⋅ P ( A 3 )⋅...⋅P ( A n − 1 ) ⋅ P(A ) n (2.14) Тема 3. ФОРМУЛЫ ПОЛНОЙ ВЕРОЯТНОСТИ И БАЙЕСА Часто мы начинаем анализ вероятностей имея предварительные, априорные значения вероятностей интересующих нас событий. Затем из источников информации, таких как выборка, отчет, опыт и т.д. мы получаем дополнительную информацию об интересующем нас событии. Имея эту новую информацию, мы можем уточнить, пересчитать значения априорных вероятностей. Новые значения вероятностей для тех же интересующих нас событий будут уже апостериорными (послеопытными) вероятностями. Теорема Байеса дает нам правило для вычисления таких вероятностей. Последовательность процесса переоценки вероятностей можно схематично изобразить так: Априорные вероятности Новая информация из каких-либо источников Байесовский анализ Апостериорные вероятности Пусть событие А может осуществиться лишь вместе с одним из событий Н1, Н2, Н3, ..., Нn, образующих полную группу. Пусть известны вероятности P(H1), P(H2),…P(Hi),…P(Hn). Так как события Hi образуют полную группу, то n ∑ P(H i =1 i ) = 1 .Так же известны и условные вероятности события А: P(A/H1), P(A/H2), …P(A/Hi)…, P(A/Hn), i=1, 2, …, n. Так как заранее неизвестно с каким из событий Hi произойдет событие А, то события Hi называют гипотезами. 7 Необходимо определить вероятность события А и переоценить вероятности событий Hi с учетом полной информации о событии А. Вероятность события А определяется как: n P(A) = ∑ P(H i ) ⋅ P(A/H i ). (3.1) i =1 Эта вероятность называется полной вероятностью. Если событие А может наступить только вместе с одним из событий Н1, Н2, Н3, ..., Нn, образующих полную группу несовместных событий и называемых гипотезами, то вероятность события А равна сумме произведений вероятностей каждого из событий Н1, Н2, ..., Нn на соответствующую условную вероятность события А. Условные вероятности гипотез вычисляются по формуле: P(H i /A) = или P(H i /A) = P(H i ) ⋅ P(A/H i ) P(A) (3.2) P(H i ) ⋅ P(A/H i ) n ∑ P(H ) ⋅ P(A/H ) i i =1 i Это - формулы Байеса, (по имени английского математика Т.Байеса, опубликовавшего их в 1764 году) выражение в знаменателе - формула полной вероятности. Тема 4. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. 4.1. Определение дискретной случайной величины. Величина, которая в результате испытания может принять то или иное значение, заранее неизвестно, какое именно, называется случайной величиной. Дискретной случайной величиной называется такая переменная величина, которая может принимать конечную или бесконечную совокупность значений, причем принятие ею каждого из значений есть случайное событие с определенной вероятностью. Соотношение, устанавливающее связь между отдельными возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения дискретной случайной величины. Если обозначить возможные числовые значения случайной величины Х через х 1 , х 2 , ... x n ..., а через р j = P( X = x i ) − вероятность появления значения x i , то дискретная случайная величина полностью определяется следующей таблицей 4.1: xi рj x1 x2 р2 p1 xn рn ... ... Таблица 4.1 где значения х 1 , х 2 ,..., x n ,записываются, как правило, в порядке возрастания. Таблица называется законом или рядом распределения дискретной случайной величины Х. Поскольку в верхней строчке ряда распределения записаны все значения случайной величины Х, то нижняя строчка обладает тем свойством, что n р 1 + р 2 + ... + р n = ∑ р i = 1 (4.1) i =1 Графическое изображение ряда распределения называется многоугольником распределения (полигоном распределения) (рис. 4.1): Рi р1 р2 р4 р3 8 x1 x 2 x3 x4 xi Рис.4.1. Для этого по оси абсцисс откладывают значения случайной величины, по оси ординат - вероятности значений. Полученные точки соединяют отрезками прямой. Построенная фигура и называется многоугольником распределения вероятностей. Дискретная случайная величина может быть задана функцией распределения . Функцией распределения случайной величины Х называется функция F (x), выражающая вероятность того, что Х примет значение, меньшее чем х: F ( x) = P ( X < x) = ∑p x1 < x (4.2) i x i , которые лежат левее точки х. Функция F (x) есть неубывающая функция; F ( −∞) = 0, F(+∞) = 1. - здесь для каждого значения х суммируются вероятности тех значений Для дискретных случайных величин функция распределения F(x) есть разрывная ступенчатая функция, непрерывная слева (рис. 4.2): F(x) p3 p2 p1 x1 x2 0 х3 xj Рис.4.2. Вероятность попадания случайной величины Х в промежуток от формулой: P (α ≤ X < β) = F (β) − F (α ) α до β (включая α ) выражается (4.3) 4.2.Числовые характеристики. Математическим ожиданием дискретной случайной величины называется: n M(X) = x 1 p 1 + x 2 p 2 + ... + x n p n = ∑ хi * pi ( 4.4) i =1 В случае бесконечного множества значений x i в правой части (4.4) находится ряд, и мы будем рассматривать только те значения Х, для которых этот ряд абсолютно сходится. М(Х) представляет собой среднее ожидаемое значение случайной величины. Оно обладает следующими свойствами: 1) М(С)=С, где С=const 2) M (CX)=CM (X) 3) M (X+Y)=M(X)+M(Y), для любых Х и Y. 4) M (XY)=M (X)M(Y), если Х и Y независимы. (4.5) Для оценки степени рассеяния значений случайной величины около ее среднего значения M(X)=а вводятся понятия дисперсии D(X) и среднего квадратического (стандартного) отклонения σ ( x ) . Дисперсией называется математическое ожидание квадрата разности (X- a ), т.е. : D(X)=M(X- a )2= где n (xi − a ) ∑ i 2 pi, =1 a =М(X); σ(x ) определяется как квадратный корень из дисперсии, т.е. 9 σ(x ) = D (X) . Для вычисления дисперсии пользуются формулой: (4.6) D (X) = M (X 2 ) − M 2 (X) Свойства дисперсии и среднего квадратического отклонения: 1) D(C)=0, где С=сonst 2) D(CX)=C2D(X), σ (CX)= C σ (X) 3) D(X+Y) =D(X)+D(Y), σ(X + Y) = (4.7) (σ(X )) + (σ(Y )) 2 2 , если Х и У независимы. Размерность величин M ( X ) и σ ( X ) совпадает с размерностью самой случайной величины Х, а размерность D(X) равна квадрату размерности случайной величины Х. 4.3. Математические операции над случайными величинами. Пусть случайная величина P ( X = x i ) = р i ( i = 1, 2,... n ), а Х принимает случайная величина xi значения Y- значения с yj вероятностями с вероятностями P ( Y = y j ) = р j , ( j = 1, 2,... n ). Произведение КX случайной величины Х на постоянную величину К - это новая случайная величина, которая с теми же вероятностями , что и случайная величина Х, принимает значения, равные произведениям на К значений случайной величины Х. Следовательно, ее закон распределения имеет вид таблица 4.2: Таблица 4.2 ... kx i kx1 kx 2 kx n р1 рi р2 рn ... 2 Квадрат случайной величины Х, т.е. X , - это новая случайная величина ,которая с теми же вероятностями, что и случайная величина Х, принимает значения, равные квадратам ее значений. Сумма случайных величин Х и У - это новая случайная величина, которая принимает все значения вида x i + y j , ( i = 1, 2,... n; j = 1, 2,... m ) с вероятностями р ij , выражающими вероятность того, что случайная величина Х примет значение x i , а У - значение y j , то есть р ij = P ( X = x i ; Y = y j ) = P ( X = x i ) P X = x i ( Y = y j ) Если случайные величины Х и У независимы, то: p ij = P ( X = x i ; Y = y j ) = P ( X = x i )P ( Y = y j ) = p i p j (4.8) ′ (4.9) Аналогично определяются разность и произведение случайных величин Х и У. Разность случайных величин Х и У - это новая случайная величина, которая принимает все значения вида x i − y j , а произведение - все значения вида x i y j с вероятностями, определяемыми по формуле (4.8), а если случайные величины Х и У независимы, то по формуле (4.9). 4.4. Распределения Бернулли и Пуассона. Рассмотрим последовательность n идентичных повторных испытаний, удовлетворяющих следующим условиям: 1. Каждое испытание имеет два исхода, называемые успех и неуспех. Эти два исхода - взаимно несовместные и противоположные события. 2. Вероятность успеха, обозначаемая p, остается постоянной от испытания к испытанию. Вероятность неуспеха обозначается q. 3. Все n испытаний - независимы . Это значит, что вероятность наступления события в любом из n повторных испытаний не зависит от результатов других испытаний. Вероятность того, что в n независимых повторных испытаниях, в каждом из которых вероятность появления события равна р(0 < р < 1) , событие наступит ровно m раз ( в любой последовательности), равна P n , m = C mn p m q k − m , (4.10) 10 где q=1-р. Выражение (4.10) называется формулой Бернулли. Вероятности того, что событие наступит: а) менее m раз, б) более m раз, в) не менее m раз, г) не более m раз - находятся соответственно по формулам: а)Pn;0 + Pn;1 + ... + Pn;m −1 б)Pn;m +1 + Pn;m + 2 + ... + Pn;n в)Pn;m + Pn;m +1 + ... + Pn;n г)Pn;0 + Pn;1 + ... + Pn;m Биномиальным называют закон распределения дискретной случайной величины Х - числа появлений события в n независимых испытаниях, в каждом из которых вероятность наступления события равна р; вероятности возможных значений Х = 0,1,2,..., m,...,n вычисляются по формуле Бернулли (таблица 4.3). Таблица 4.3 Число успехов Х=m 1 2 ... m ... n Вероятность ... ... Cn0 p 0 q n = Cnm p m q n − m = Cnn p n q 0 = Cn1 p1q n −1 = Cn2 p 2 q n − 2 = Р = Pn;0 n; m = Pn; 2 = Pn ,1 = Pn; m = Pn; n n Так как правая часть формулы (4.10) представляет общий член биноминального разложения ( q + р) , то этот закон распределения называют биномиальным. Для случайной величины Х, распределенной по биноминальному закону, имеем: M(X)=nр (4.11) D(X)=nрq (4.12) Если число испытаний велико, а вероятность появления события р в каждом испытании очень мала, то вместо формулы (4.10) пользуются приближенной формулой: P n ;m ≈ λm e − λ , m! (4.13) где m - число появлений события в n независимых испытаниях, λ = nр ( среднее число появлений события в n испытаниях). Выражение (4.13) называется формулой Пуассона. Придавая m целые неотрицательные значения m=0,1,2,...,n, можно записать ряд распределения вероятностей, вычисленных по формуле (4.13), который называется законом распределения Пуассона (таблица 4.4): Таблица 4.4 M Pn;m e −λ 1 λe −λ 2 λe 2 −λ ... ... m λ e m −λ m! 2! ... ... n λ e −λ n n! Распределение Пуассона часто используется, когда мы имеем дело с числом событий, появляющихся в промежутке времени или пространства. Например, число машин, прибывших на автомойку в течении часа, число дефектов на новом отрезке шоссе длиной в 10 километров, число мест утечки воды на 100 километров водопровода, число остановок станков в неделю, число дорожных происшествий. Если распределение Пуассона применяется вместо биномиального распределения, то n должно иметь порядок не менее нескольких десятков, лучше нескольких сотен, а nр< 10. Математическое ожидание к дисперсии случайной величины, распределенной по закону Пуассона, совпадают и равны параметру λ , которая определяет этот закон, т.е. M(X)=D(X)=n⋅p= λ . (4.14) 11 4.5. Гипергеометрическое распределение. Пусть имеется множество N элементов, из которых М элементов обладают некоторым признаком A. Извлекается случайным образом без возвращения n элементов. Требуется найти вероятность того, что из них m элементов обладают признаком A. Искомая вероятность (зависящая от N, M, n, m) определяется по формуле: Pn; m = C nm C Nn −−mM (4.15) C Nn Если по формуле (4.15) вычислить вероятности для всех возможных значений m, то полученный ряд распределения называется гипергеометрическим законом распределения (таблица 4.5): Таблица 4.5 M 1 2 ... n P(X=m) ... C0 Cn CmC0 C 1 C n −1 C 2 C n−2 M C N −M n N M C N −M n N M C M N −M n N C Математическое ожидание и дисперсия случайной гипергеометрическому закону, определяются формулами: M (m) = n M N D (m) = n M M n−1 (1 − )(1 − ) N N N −1 величины m, N −M n N распределенной по (4.16) (4.17) 4.6. Геометрическое распределение Геометрическое распределение представляет собой распределение случайной величины X - число независимых экспериментов, которые нужно выполнить до первого появления события A . Ряд распределения случайной величины X имеет вид. m 1 2 3 … … x i p pi qp … q2 p Этот ряд называется законом геометрического распределения, где … q m −1 p p и q , как и в биномиальном эксперименте, есть вероятности двух исходов: успеха и неуспеха. Вероятности геометрического распределения вычисляются по формуле P( X = m ) = pq m −1 . Математическое ожидание геометрического распределения M (X ) = 1 , p Д (X ) = q а дисперсия p2 (4.18) (4.19) (4.20) . 4.7. Производящая функция При определении вероятностей Pn;m в вероятность события A во всех n независимых испытаниях одна и та же. Но на практике приходится встречаться с такими случаями, когда вероятность наступления события A от испытания к испытанию меняется. Тогда можно применить так называемую производящую функцию n n ϕ n (Z ) = ∏ (q i + p i Z )n = ∑ Pn;m Z m , m =0 i =1 12 (4.21) где Z n - произвольный параметр, а символ ϕ n (Z ) по степени Z Разложение производящей функции Pn;m . Вероятность того, что событие коэффициенту Z m означает произведение биномов i =1 i = 1,2,..., n . вероятности ∏ A в n (qi + pi Z ) , дает в качестве коэффициентов при независимых испытаниях появится ровно m Zm раз, равна в выражении производящей функции. 5. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. 5.1. Функция распределения и плотность распределения непрерывной случайной величины. Случайная величина Х называется непрерывной, если ее функция распределения непрерывна и имеет производную. Как уже было показано в разделе 4 (формула 4.2), функцией распределения случайной величины Х называется функция F(X), выражающая вероятность выполнения условия X < x : F (X) = P (X < x ) (5.1) Функция распределения обладает следующими свойствами: 1.Вероятность попадания случайной величины в промежуток от распределения на концах этого промежутка: P (α < x < β) = F (β) − F (α ), α до β равна приращению функции (5.2), так как вероятность любого отдельного значения случайной величины равна нулю, если функция распределения непрерывна при этом значении, т. е. : P(X = x1 ) = 0 , когда F(X) - непрерывна в точке x = x1 2.Функция распределения удовлетворяет условиям: F ( −∞ ) = 0. F ( +∞ ) = 1 ( 5.3) Плотностью распределения (дифференциальной функцией) непрерывной случайной величины называется функция f(x) = F ′ (x). (5.4) Плотность распределения любой случайной величины неотрицательна: f(x) ≥ 0 Несобственный интеграл от дифференциальной функции в пределах от - ∞ до + ∞ равен 1: +∞ ∫ f (x )dx = 1 (5.5) −∞ График функции y = f(x) называется кривой распределения или графиком плотности распределения. Кривая y = f (x) располагается над осью абсцисс. Вероятность попадания случайной величины в промежуток от α до β может быть вычислена по формуле: β P (α < x < β) = ∫ f ( x )dx α (5.6) Подинтегральное выражение f(x)dx называется элементом вероятности. Оно выражает вероятность попадания случайной точки в промежуток между точками х и x + ∆x , где Δx бесконечно малая величина. Функция распределения F(x) выражается через плотность f(x) формулой : 13 F (x ) = x ∫ f ( x )dx (5.7) −∞ Математическое ожидание непрерывной случайной величины Х вычисляется по формуле: M (X) = +∞ ∫ xf ( x )dx (5.8), −∞ дисперсия D (X) = +∞ ∫ (x − M (X)) 2 f ( x )dx (5.9) −∞ 5.2. Нормальное распределение Если плотность распределения (дифференциальная функция) выражением: f (x ) = 1 σ 2π e − ( x −a )2 случайной переменной определяется (5.10) 2σ 2 то говорят, что Х имеет нормальное распределение с параметрами а и σ . Вероятностный смысл 2 a =М(X), а σ 2 = D(X) .Обозначение: X ~ N(a; σ 2 ) параметров: Нормальное распределение иногда называют законом К. Гаусса - А. Лапласа, иногда просто «гауссианой». В 1773г. Де-Муавр вывел закон нормального распределения вероятностей. В разработку этого закона, основные идеи которого впервые были использованы в теории ошибок, в XIX в. внесли существенный вклад К. Гаусс и А. Лаплас. А уже затем А. М. Ляпунов установил общие условия возникновения закона нормального распределения. График нормального распределения называется нормальной кривой или кривой Гаусса. График нормального распределения называется нормальной кривой или кривой Гаусса. Если а=0 и σ=1, функция принимает вид: y= x2 1 e2, 2π а нормальную кривую называют нормированной кривой. Свойства функции f ( x) = 1 e σ 2π −( x − a ) 2 2σ 2 1) Функция f(x) существует при любых действительных значениях х и принимает только положительные значения. Следовательно, нормальная кривая распределения расположена выше оси абсцисс. 2) При стремлении х к ± ∞ , т.е. при x—>± ∞ функция f{x)—>0. Значит, ось абсцисс служит горизонтальной асимптотой нормального распределения. 3) Максимальное значение функция f(x) принимает в точке, соответствующее математическому ожиданию СВ х и равно 1 σ 2π т.е. mах ( a; 1 σ Доказательство: f'’(x)= , − 2( x − a ) e σ 3 2π 14 2π ) −( x − a ) 2 2σ 2 =0 при х=а. f'(x)>0 при х<а f’(x)<0, при х>а т.е. при переходе через точку х=-а f’(x} меняет знак с + на -, что свидетельствует о максимуме в точке х=а. 4) Кривая нормального распределения имеет две точки перегиба, симметрично расположенные относительно прямой х=а: f’'(x)=0, 1   a −σ;  σ 2πe   Доказательство. У ' ' = f ' ' ( x) = − 1- ( x − a)2 σ 2 1 σ3 и 2 ( x−a)  ( x − a)2  − ≠0 2 1 −  e ← 2σ = 0 2 σ 2π   σ 2 − ( x − a)2 = 0 =0 x1 = a − σ ; ( x − a)2 = σ 2 x2 = a + σ f"(х) в этих точках обращается в О, а точки перегиба'. f ( x1 ) = Итак, имеем две точки перегиба 1   a +σ;  σ 2πe   при переходе через них меняет знак. Найдем ординату 1 e σ 2π − 1   П1  a − σ ;  σ 2πe   ( a −σ − a ) 2 2σ 2 и = 1 σ 2πe 1   П2  a + σ ;  σ 2πe   Перечисленные свойства позволяют изобразить график функции f(x) для нормально распределённой СВ Х(так тоже говорят!). Рис.5.1. 5) Площадь S, заключенная между кривой распределения и осью абсцисс, равна 1. Доказательство. s= +∞ ∫ f ( x)dx = −∞ x−a ; 2σ x = a + tσ 2 t= dx = σ 2dt 1 σ 2π +∞ − ( x−a) 2 e 2σ ∫ 2 dx = −∞ 1 = σ 2π +∞ ∫e −t 2 −∞ 1σ 2 σ 2dt = σ 2π пределы интегрирования остаются те же самые 15 = +∞ ∫e −t 2 dt = −∞ 1 π x π =1 от Для расчета вероятности попадания нормально распределенной случайной величины Х в промежуток α до β используется формула: β−a  α−a  P (α < X < β ) = Φ 0   − Φ0    σ   σ  где Ф0 (x) = 1 x ∫ 2π z2 2 e dz (5.11) (интеграл Лапласа) Формула (5.11) иногда в литературе называется интегральной теоремой Лапласа. Функция Ф0 (x) обладает свойствами: 1) Ф0 (0) = 0 2) lim Ф0 (x) = ±0,5 x → ±∞ 3) Ф0 ( − x) = −Ф0 (x) (см. таблицу приложения 2). Функция Ф0 (x) табулирована. В частности для симметричного (a − Δ; a + Δ) имеем:  ∆  σ P ( X − a < ∆ ) ≈ 2Φ 0   относительно а промежутка (5.12) Формула (5.12) применима и к частоте m, поскольку ее закон распределения при достаточно большом числе испытаний практически совпадает с нормальным. Применительно к случайной величине m, с учетом ее числовых характеристик M(m) = np и формула (5.12) примет вид : σ 2 (m) = npq (5.13)  ∆   P ( m − np 〈 ∆ ) ≈ 2Ф 0   npq  Формула (5.12) может быть применена и к относительной частоте  m  pq (5.15) σ2  =  n n      n  m  ∆  P  − p < ∆  ≈ 2Φ 0  = 2Φ 0  ∆   pq   n  pq      n   m M  = p  n Помня, что Обозначим σ Тогда ∆ = σZ т.е. m с числовыми характеристиками n и P (|XH ∆ (5.14) (5.16) ∆   –a|<Δ)=2 Ф0 σ   =Z. и P (|XH –a| 10 . Теорема Ляпунова имеет важное практическое значение уже потому, что в жизни многие СВ можно рассматривать, как сумму независимых слагаемых. Например, ошибки различных измерений, отклонения размеров деталей, рост, вес животных и растений могут рассматриваться, как результат большого числа слагаемых. 5.4. Равномерное распределение Непрерывная случайная величина вероятности Х распределена равномерно на отрезке [a; b], если ее плотность f ( x ) постоянна на этом отрезке и равна нулю вне его, т.е.  1 при a ≤ x ≤ b  f (x ) =  b − a 0 при x < a; x > b (5.19) Функция распределения случайной величины, распределенной по равномерному закону, имеет вид при x ≤ a 0  x − a F (x ) =  при a < x ≤ b b − a при x > b 1 f (x ) Графики (5.20) f ( x ) и F ( x ) приведены на рис.5.3, 5.4. F (x ) 1 b−a 1 a b x a 18 b x Рис.5.3. Рис.5.4. Математическое ожидание и дисперсии равномерной случайной величины a+b 2 2 ( b − a) D( X ) = 12 М (X ) = (5.21) (5.22) Пример. Интервал движения автобуса равен 15 минутам. Какова вероятность того, что пассажир на остановке будет ждать автобус более 5 минут? Пусть случайная величина X - это время ожидания автобуса. Она имеет равномерное распределение на отрезке [0,15]. Ее функция распределения имеет вид 0, x ≤ 0  x F ( x ) =  , 0 < x ≤ 15 15 1, x > 15 Тогда по формуле (4.5) P(0 ≤ X ≤ 5) = F (5) − F (0 ) = 5 1 −0= . 15 3 5.5. Показательное распределение Рассмотрим функцию График которой представлен на рис.5.5 λe − λx , если x > 0 y = f (x ) =  0, если x ≤ 0 (5.23) y λ y = f (x ) Так как f (x ) ≥ 0 Рис.5.5 x и +∞ +∞ +∞ −∞ −∞ −∞ ∫ f (x )dx = ∫ f (x )dx + ∫ f (x )dx = ∫ 0dx + ∫ λe = e − λx то функция f (x ) +∞ − λx = −(0 − 1) = 1, является плотностью распределения некоторой случайной величины этой случайной величины называется показательным распределением с параметром Используя формулу (4.11), вычислим функцию распределения Если x ≤ 0 , то F (x ) = Если dx = 0 < x < +∞ , то x x −∞ −∞ . Распределение F ( x ) случайной величины X ∫ f (t )dt = ∫ 0dt = 0 19 λ. X . F (x ) = Таким образом: x x ∫ f (t )dt + ∫ f (t )dt = 0 + ∫ λe −∞ − λt x = 1 − e − λt 0, если x ≤ 0 F (x ) =  − λx 1 − λe , если x > 0 Смотри график этой функции на рис.5.6. (5.24) y 1 y = F (x ) Рис.5.6. x 6. ВАРИАЦИОННЫЕ РЯДЫ И ИХ ХАРАКТЕРИСТИКИ 6.1.Понятие вариационного ряда. Виды вариационных рядов. Совокупность предметов или явлений, объединенных каким-либо общим признаком или свойством качественного или количественного характера, называется объектом наблюдения. Всякий объект статистического наблюдения состоит из отдельных элементов - единиц наблюдения. Результаты статистического наблюдения представляют собой числовую информацию - данные. Статистические данные - это сведения о том, какие значения принял интересующий исследователя признак в статистической совокупности. Если значения признака выражаются числами, то признак называется количественным. Если признак характеризует некоторое свойство или состояние элементов совокупности, то признак называется качественным. Если исследованию подлежат все элементы совокупности (сплошное наблюдение), то статистическую совокупность называют генеральной. Если исследованию подлежит часть элементов генеральной совокупности, то статистическую совокупность называют выборочной (выборкой). Выборка из генеральной совокупности извлекается случайно, так чтобы каждый из n элементов выборки имел равные шансы быть отобранным. Значения признака при переходе от одного элемента совокупности к другому изменяются (варьируют), поэтому в статистике различные значения признака также называют вариантами. Варианты обычно обозначаются малыми латинскими буквами x, y, z. Порядковый номер варианта (значения признака) называется рангом. x1 - 1-й вариант (1-е значение признака), x2 - 2-й вариант (2-е значение признака), xi - i-й вариант (i-е значение признака). Упорядоченный в порядке возрастания или убывания ряд значений признака (вариантов) с соответствующими им весами называется вариационным рядом (рядом распределения). В качестве весов выступают частоты или частости. Частота (mi) показывает сколько раз встречается тот или иной вариант (значение признака) в статистической совокупности. Частость или относительная частота (wi) показывает, какая часть единиц совокупности имеет тот или иной вариант. Частость рассчитывается как отношение частоты того или иного варианта к сумме всех частот ряда. wi = mi ∑m i =1 Сумма всех частостей равна 1. n ∑w i =1 i (6.1) . k i = 1. (6.2) Вариационные ряды бывают дискретными и интервальными. Дискретные вариационные ряды строят обычно в том случае, если значения изучаемого признака могут отличаться друг от друга не менее чем на некоторую конечную величину. 20 В дискретных вариационных рядах задаются точечные значения признака. Общий вид дискретного вариационного ряда указан в таблице 6.1. Таблица 6.1 Значения признака (xi) x1 x2 … xk Частоты (mi) m1 m2 … mk где i = 1, 2, … , k. Интервальные вариационные ряды строят обычно в том случае, если значения изучаемого признака могут отличаться друг от друга на сколь угодно малую величину. В интервальных вариационных рядах значения признака задаются в виде интервалов. Общий вид интервального вариационного ряда показан в таблице 6.2. Таблица 6.2 Значения признака а1 - а2 а2 - а3 … аl-1 – аl Частоты (mi) m1 m2 … ml где i = 1, 2, … , l. В интервальных вариационных рядах в каждом интервале выделяют верхнюю и нижнюю границы интервала. Разность между верхней и нижней границами интервала называют интервальной разностью или длиной (величиной) интервала. Величина первого интервала k1 определяется по формуле: k1 = а2 - а1; второго: k2 = а3 - а2; … последнего: kl = al - al-1. В общем виде интервальная разность ki рассчитывается по формуле: ki = xi (max) - xi (min). (6.3) Если интервал имеет обе границы, то его называют закрытым. Первый и последний интервалы могут быть открытыми, т.е. иметь только одну границу. Например, первый интервал может быть задан как "до 100", второй - "100-110", … , предпоследний "190-200", последний - "200 и более". Очевидно, что первый интервал не имеет нижней границы, а последний верхней, оба они - открытые. Часто открытые интервалы приходится условно закрывать. Для этого обычно величину первого интервала принимают равной величине второго, а величину последнего - величине предпоследнего. В нашем примере величина второго интервала равна 110-100=10, следовательно, нижняя граница первого интервала условно составит 100-10=90; величина предпоследнего интервала равна 200-190=10, следовательно, верхняя граница последнего интервала условно составит 200+10=210. Кроме этого, в интервальном вариационном ряде могут встречаются интервалы разной длины. Если интервалы в вариационном ряде имеют одинаковую длину (интервальную разность), их называют равновеликими, в противном случае - неравновеликими. При построении интервального вариационного ряда часто встает проблема выбора величины интервалов (интервальной разности). Для определения оптимальной величины интервалов (в том случае, если строится ряд с равными интервалами) применяют формулу Стэрджесса: k= x (max) − x (min) 1 + 3,322 lg n , (6.4) где n - число единиц совокупности, x(max) и x(min) - наибольшее и наименьшее значения вариантов ряда. Для характеристики вариационного ряда наряду с частотами и частостями используются накопленные частоты и частости. Накопленные частоты (частости) показывают сколько единиц совокупности (какая их часть) не превышают заданного значения (варианта) х. Накопленные частоты (vi) по данным дискретного ряда можно рассчитать по следующей формуле: ν i = m i + m i −1 + ... + m 1 . (6.5) Для интервального вариационного ряда - это сумма частот (частостей) всех интервалов, не превышающих данный. Дискретный вариационный ряд графически можно представить с помощью полигона распределения частот или частостей. При построении полигона распределения по оси абсцисс откладываются значения признака (варианты), а по оси ординат - частоты или частости. На пересечении значений признака и соответствующих им частот 21 (частостей) откладываются точки, которые, в свою очередь, соединяются отрезками. Получающаяся таким образом ломаная называется полигоном распределения частот (частостей). Полигон распределения частот mi xi x1 x2 xk Рис. 6.1. Интервальные вариационные ряды графически можно представить с помощью гистограммы, т.е. столбчатой диаграммы. При построении гистограммы по оси абсцисс откладываются значения изучаемого признака (границы интервалов). В том случае, если интервалы - одинаковой величины, по оси ординат можно откладывать частоты или частости. Если же интервалы имеют разную величину, по оси ординат необходимо откладывать значения абсолютной или относительной плотности распределения. Абсолютная плотность - отношение частоты интервала к величине интервала: f (a ) i = mi ki ; wi ki ; (6.6) где: f(a)i - абсолютная плотность i-го интервала; mi - частота i-го интервала; ki - величина i-го интервала (интервальная разность). Абсолютная плотность показывает, сколько единиц совокупности приходится на единицу интервала. Относительная плотность - отношение частости интервала к величине интервала: f (o ) i = (6.7) где: f(о)i - относительная плотность i-го интервала; wi - частость i-го интервала. Относительная плотность показывает, какая часть единиц совокупности приходится на единицу интервала. 22 a1 a2 al Рис. 6.2. огивы. И дискретные и интервальные вариационные ряды графически можно представить в виде кумуляты и При построении кумуляты по данным дискретного ряда по оси абсцисс откладываются значения признака (варианты), а по оси ординат - накопленные частоты или частости. На пересечении значений признака (вариантов) и соответствующих им накопленных частот (частостей) строятся точки, которые, в свою очередь, соединяются отрезками или кривой. Получающаяся таким образом ломаная (кривая) называется кумулятой (кумулятивной кривой). При построении кумуляты по данным интервального ряда по оси абсцисс откладываются границы интервалов. Абсциссами точек являются верхние границы интервалов. Ординаты образуют накопленные частоты (частости) соответствующих интервалов. Часто добавляют еще одну точку, абсциссой которой является нижняя граница первого интервала, а ордината равна нулю. Соединяя точки отрезками или кривой, получим кумуляту. Огива строится аналогично кумуляте с той лишь разницей, что на оси абсцисс наносятся точки, соответствующие накопленным частотам (частостям), а по оси ординат - значения признака (варианты). 6.2. Числовые характеристики вариационного ряда Одной из основных числовых характеристик ряда распределения (вариационного ряда) является средняя арифметическая. Существует две формулы расчета средней арифметической: простая и взвешенная. Простую среднюю арифметическую обычно используют, когда данные наблюдения не сведены в вариационный ряд либо все частоты равны единице или одинаковы. n x= ∑x i =1 n i (6.8) ; где xi - i-е значение признака; n - объем ряда (число наблюдений; число значений признака). В том случае, если частоты отличны друг от друга, расчет производится по формуле средней арифметической взвешенной: k x= ∑x i =1 i ⋅ mi k ∑m i =1 ; (6.9) i где xi - i-е значение признака; mi - частота i-го значения признака; k - число значений признака (вариантов). При расчете средней арифметической в качестве весов могут выступать и частости. Тогда формула расчета средней арифметической взвешенной примет следующий вид: 23 k x = ∑ xi ⋅ w i (6.10) i =1 где xi - i-е значение признака; wi - частость i-го значения признака; k - число значений признака (вариантов). Колеблемость изучаемого признака можно охарактеризовать с помощью различных показателей вариации. К числу основных показателей вариации относятся: дисперсия, среднее квадратическое отклонение, коэффициент вариации. Дисперсию можно рассчитать по простой и взвешенной формуле. Простая имеет вид: n ∑ (x D( X) = А взвешенная: i =1 D(X) = i =1 − x) 2 n k ∑ (x i . (6.11) . (6.12) − x) 2 ⋅ m i i k ∑m i =1 i Среднее квадратическое отклонение рассчитывается по формуле: σ( X) = D( X) (6.13) Коэффициент вариации рассчитывается по формуле: V( X) = σ( X ) x ⋅ 100% . (6.14) Свойства дисперсии 1. σ2(С) = 0, где С – const. 2. Если все значения вариантов признака Х уменьшить на постоянную величину, то дисперсия не изменится. 3. Если все значения вариантов признака Х увеличить в k раз, то дисперсия увеличится в k2 раз. 4. Вычисление дисперсии методом отсчёта от условного нуля (методом моментов). 2  xi − x0    ⋅ mi ∑ 2 k  2  σ = k 2 − ( X − x0 ) ∑m (8.15) Частные средние и частные дисперсии Пусть вся совокупность разбита на l групп. Для каждой группы вариантов вариационного ряда можно вычислить средние, которые называются частными средними и дисперсии, которые называются частными дисперсиями или внутригрупповыми дисперсиями. Пусть l групп: n1 + n2 ++ n j ∑ Xj = xi mi i = n1 + n2 ++ n j −1 +1 n1 + n2 ++ n j ∑ mi i = n1 + n2 ++ n j −1 +1 j=1, 2, …, l; Σmi = Nj – объём j-ой группы X j – частная средняя j-ой группы 24 (8.16) n1 + n2 ++ n j σ 2j = 2 ∑ (xi − X j ) mi i = n1 + n2 ++ n j −1 +1 (8.17) n1 + n2 ++ n j ∑ mi i = n1 + n2 ++ n j −1 +1 Частные средние могут не совпадать с общей средней X . Убедимся в этом: n1 = 3 n2 = 5 n3 = 2 x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 m1 m2 m3 m4 m5 m6 m7 m8 m9 m10 Разбили на три группы. l=3. Группы не пересекаются n1 + n2 + … + nl = k k = 10 n1, n2, n3 – число вариантов в группе 3 + 5 + 2 = 10 m1 + m2 + m3 = N1 – объём 1ой группы (сумма частот в 1ой группе) m4 + m5 + … + m8 = N2 – объём 2ой группы – объём 3ей группы m9 + m10 = N3 l ∑ N j = N1 + N 2 + ... + Nl = n j =1 Nj – объём j группы j = 1, 2, … , l той n1 + n2 + n3 10 X3 = ∑ xi mi i =9 10 ∑ mi = ∑ xi mi i = n1 + n2 + n3 ∑ mi 9 i = n1 + n{2}(меньше X {3} на 1) + 1 Итак или i = n1 + n2 =3−1 + 1 i=3+5+1=8+1=9 n1 + n2 + n3 ∑ Xj = x i mi i = n1 + n3−1 +1 n1 + n2 + n3 , ∑ mi i = n1 + n3−1 +1 где j = 1, 2, …, l Отсюда видно, как получается формула (8.16). Средняя из частных дисперсий Из частных, то есть внутригрупповых дисперсий может быть найдена средняя, которая обозначается σ 2j . l σ 2j = ∑σ 2j N j j =1 j = 1, 2, …, l; Nj – объём непересекающихся групп (количество вариантов в группе) 25 n (8.18) l n = ∑Nj j =1 групп. Средняя из частных дисперсий служит для характеристики среднего рассеяния признака внутри Средняя внутригрупповых дисперсий характеризует случайную вариацию в каждой отдельной группе. Она возникает под влиянием других, не учитываемых факторов, и не зависит от условий (или признака — фактора), положенного в основу группировки. 26 Межгрупповая дисперсия (X j ) могут не совпадать с общей средней (X ). Мерой колеблемости (X j ) вокруг общей средней (X ) является межгрупповая дисперсия (δ 2 ), которая Частные средние по группам частных средних вычисляется по формуле: 2 l δ2 = ∑ (X j − X ) N j j =1 (8.19) n j = 1, 2, …, l; Nj – объём j -ой группы. Правило сложения дисперсий Между общей дисперсией, средней из частных дисперсий и межгрупповой дисперсией существует такая связь: σ 2 = σ 2j + δ 2 (8.20) Общая дисперсия = =Средняя из частных дисперсий + Межгрупповая дисперсия Замечания: Общая дисперсия характеризует вариацию признака, которая зависит от всех условий в данной совокупности. Это правило имеет большую практическую значимость, так как позволяет выявить зависимость результатов от определяющих факторов соотношением межгрупповой и общей дисперсии (коэффициент детерминации). η= δ2 σ2 (8.21) 7. ВЫБОРОЧНЫЙ МЕТОД И СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ 7.1. Основные понятия и определения выборочного метода Одно из популярных определений статистики говорит, что это – наука, позволяющая распространять выводы, сделанные на основе изучения части совокупности (случайной выборки), на всю совокупность (генеральную совокупность). В этом определении заключена сущность выборочного метода и его ведущая роль в статистике. Все единицы совокупности, обладающие интересующими исследователя признаками, составляют генеральную совокупность. 27 Часть совокупности, случайным образом отобранная из генеральной совокупности – выборочная совокупность – выборка. 2 Число единиц (элементов) статистической совокупности называется её объёмом. Объем генеральной совокупности обозначается N, а объем выборочной совокупности n. Если объем совокупности велик, то его полагают равным бесконечности. Различают 4 вида отбора: 1) собственнослучайный, 2) механический, 3) типический и 4) серийный (гнездовой). Собственно-случайный отбор: наблюдению подвергается часть совокупности, отобранная из всей совокупности в случайном порядке, непреднамеренно. Пример: Метод жеребьёвки, при котором на каждую единицу заготавливается жетон, билет с порядковым номером. Механический отбор: Вся совокупность разбивается на равные по объёму группы по случайному признаку. Из каждой группы выбирается одна единица. Пример: Если надо провести 10% механическую выборку студентов, то составляется список фамилий по алфавиту и механически отбирается каждый 10"" студент (1, 11, 21, 31 или 7, 17, 27, 37 и т.д.) если выборка 5%, то отбирается каждый 20"" студент. Интервал зависит от объёма выборки. Чем меньше выборка, тем больше интервал. Типический отбор: изучаемая совокупность расчленяется по существенному, типичному признаку на качественно однородные, однотипные группы, а затем из каждой группы случайным или механическим способом отбирают необходимое количество единиц. Пример: Допустим, необходимо провести типический отбор 1500 (n) студентов из 10 000 (N), обучающихся в 4х институтах академии. Такой отбор называется пропорциональным типическим отбором с механической выборкой. Он даёт более точные результаты, чем предыдущие. В учебниках по математической статистике вместо термина “статистическая совокупность” используется термин “набор данных”, а вместо термина “единица совокупности” используется термин “элемент выборки”. 2 28 № института Число студентов Удельный вес студентов общей численности (в %) I институт 1800 18 II институт 2400 24 III институт 3200 32 IV институт 2600 26 Всего по академии 10000 10 в Отобрано студентов для выборки 1500 ⋅ 18 = 270 100 1500 ⋅ 24 = 360 100 1500 ⋅ 32 = 480 100 1500 ⋅ 26 = 390 100 1 500 Серийный (гнездовой) отбор: отбору подлежат целые группы, гнёзда, отобранные собственнослучайным или механическим способом. И в каждой группе, серии проводится сплошное наблюдение. Пример: 10 000 студентов института занимаются группами по 25 человек. Для проведения 15% (1500100/10000) выборочного наблюдения серийным способом необходимо в случайном порядке отобрать 60 групп (1500 : 25 = 60) из 400 (10000 : 25 = 400) и результаты наблюдения перенести на всю совокупность. Серийный отбор организовать легче (+), но нарушается равномерность распределения отобранных единиц совокупности, что влечёт за собой более значительную ошибку выборки (-). Чтобы избежать этого, следует увеличить численность выборки Серийный отбор: Объекты выбираются из генеральной совокупности не по одному, а сериями. Например: таможенная служба выборочно вскрывает каждый сотый контейнер из прибывающих в порт, а в нём проверяется полностью весь груз. Точность выбора зависит от схемы отбора. Повторный отбор: (схема возвращённого шара) Бесповторный отбор: (схема невозвращённого шара) (механический — всегда бесповторный, т.к. отбирается только 1 единица). Комбинированный отбор: рассмотренные виды могут применяться и в комбинации. Моментное наблюдение — при котором наблюдению подвергаются все элементы совокупности (сплошное наблюдение), но на определённые моменты времени (выборочное наблюдение). Пример: Контрольные проверки посещаемости студентов в институте охватывают всех студентов, но проводятся на определённый момент времени и поэтому по времени является выборочными. Выбор схемы отбора зависит от характера изучаемого объекта. Напомним, что при повторном отборе единица наблюдения после извлечения из генеральной совокупности регистрируется и вновь возвращается в генеральную совокупность, откуда опять может быть извлечена случайным образом. При бесповторном отборе отобранный элемент в выборку обратно не возвращается. Необходимо заметить, что независимо от способа организации выборки она должна представлять собой уменьшенную копию генеральной совокупности, то есть быть представительной (репрезентативной). 7.2. Статистическое оценивание Пусть из генеральной совокупности извлекается выборка объема n, причем значение признака х1 наблюдается m1 раз, х2 m2 раз,..., хk наблюдается mk раз, k ∑m i =1 i = n - объем выборки. Мы можем сопоставить каждому значению xi относительную частоту mi/n. Статистическим распределением выборки называют перечень возможных значений признака xi и соответствующих ему частот или относительных частот (частостей) mi (wi). Числовые характеристики генеральной совокупности, как правило неизвестные, (средняя, дисперсия и др.) называют параметрами генеральной совокупности (обозначают, например, X или X ген .. , σ ген. ). Доля единиц, обладающих тем или иным признаком в генеральной совокупности, называется генеральной долей и обозначается р. По данным выборки рассчитывают числовые характеристики, которые называют статистиками 2 29 ~ ~ X , или X выб . , σ 2 выб . , выборочная доля обозначается w). Статистики, получаемые по различным (обозначают выборкам, как правило, отличаются друг от друга. Поэтому статистика, полученная из выборки, является только оценкой неизвестного параметра генеральной совокупности. Оценка параметра - определенная числовая характеристика, полученная из выборки. Когда оценка определяется одним числом, ее называют точечной оценкой. В качестве точечных оценок параметров генеральной совокупности используются соответствующие выборочные характеристики. Теоретическое обоснование возможности использования этих выборочных оценок для суждений о характеристиках и свойствах генеральной совокупности дают закон больших чисел и центральная предельная теорема Ляпунова. Выборочная средняя является точечной оценкой генеральной средней, т.е. Генеральная дисперсия имеет 2 точечные оценки: выборочная дисперсия 3. - σ выб . исчисляется при 2 2 σ выб . ~ X выб. ≈ X ген. выборочная дисперсия; S 2 - исправленная n ≥ 30 , а S 2 - при n < 30 . Причем в математической статистике доказывается, что k S2 = ∑ (X i =1 i ~ )2 ⋅ n −X выб . i или n −1 При больших объемах выборки 2 σ выб . и S2 = n ⋅ σ 2 выб . n −1 (7.1) S 2 практически совпадают. Генеральное среднее квадратическое отклонение σ ген. так же имеет 2 точечные оценки: σ выб . - S - исправленное выборочное среднее квадратическое используется для оценивания σ ген. при n ≥ 30 , а S для оценивания σ ген. , при n < 30 ; выборочное среднее квадратическое отклонение и отклонение. при этом σ выб . 2 σ выб. = σ выб. , оценки. Θ Пусть характеристика). а S = S 2 . Рассмотрим свойства, которыми должны обладать точечные - характеристика генеральной совокупности (это или М(х) или любая другая Θ* = f ( X , X 1 2 ,...., X) n - характеристика выборочной совокупности (1) X 1, X 2 ,..., X n - результаты наблюдений СВХ. Если подставим их в (1), то получим приближённое * значение Θ ; если X 1, X 2 ,..., X n - не конкретные числа, а лишь обозначения тех значений, которые * мы могли бы получить, то X 1, X 2 ,..., X n - случайные величины и Θ - случайная величина, и можно где говорить о М( * * Θ ) и Д( Θ ) и законе распределения. Выборочная характеристика используемая в качестве приближённого значения неизвестной генеральной характеристики, называется её точечной статистической оценкой. "Точечная" означает, что оценка представлена одним числом или точкой на числовой оси. Чтобы * Θ была хорошим приближением Θ , она должна обладать следующими свойствами: быть несмещённой, эффективной и состоятельной. Статистическую оценку оцениваемому параметру * Θ называют несмещенной, если математическое ожидание её равно Θ , т.е. М( В противном случае, т.е. если * Θ )= Θ ; M (Θ*) ≠ Θ , - смещённый. Статистическая оценка Θ называется несмещенной эффективной, если она среди всех несмещённых оценок той же самой характеристики обладает Для того, чтобы любые статистики служили хорошими оценками параметров генеральной совокупности, они должны обладать рядом свойств: несмещённости, эффективности, состоятельности, достаточности. Всем указанным свойствам отвечает выборочная средняя. σ2выб. -смещённая оценка. Для устранения смещения при малых выборках вводится поправка n⁄ n−1 (cм. 7.1.). 3 30 наименьшей дисперсией. Это надо понимать так: * * M (Θ1∗ ) = Θ, M (Θ∗2 ) = Θ . Какая оценка лучше, наименьшая дисперсия. Θ1 или Θ2 ? — лучше та, у которой * Статистическую оценку Θ называют состоятельной, если для любого ξ > 0 выполняется равенство lim P(| Θ * −Θ |< ξ ) =1 n →∞ т.е. если она при т.е. 9.6. n → ∞ стремится по вероятности к оцениваемому параметру P(Θ* → Θ) → 1 сходит сяпо вероят ност и Θ *    → Θ ~ X как точечная оценка математического ожидания a n ~ X= ∑ xi i =1 n 1) Несмещённость (проверим это свойство)  ∑n  n 1 1 n 1 ~  i =1 x i  ( ) = × = = M (X ) = M  M M ∑ ∑ xi n i=1 xi n × na = a  n  n i =1   Итак, ~ M (X ) = a ≈ 2) Эффективность. Xг D σ2 ~ D( X ) = = n n 3) Состоятельность. Пусть X1, X2, ... Хn - наблюдения СВ Х (независимые и одинаково распределённые), т.е. M(X1)= M(X2)= ... =М(Хn)=a, а D(X1), D(X2)..., D(Xn) - конечны. Тогда по теореме Чебышева (частный случай): для любого ξ > 0 P(| X − a |< ξ ) = 1, т.е. (Здесь Итак, ~ X →a ~ X - это Θ * ,а a - это Θ n →∞ ) ~ X - состоятельная оценка М(Х)=а Точечная оценка генеральной дисперсии Пусть из генеральной совокупности с количественным признаком Х извлечена выборка объёмом n: x1, x2,..........xk m1, m2,.......mk (n1),(n2),.........(nk) при этом n1+n2+……….+nk=n 1) Несмещённость (проверим это свойство) Дв не является несмещённой оценкой, так как 31 М(Дв) ≠ (Дг); M ( Дв ) = n −1 Дг n Легко исправить положение, умножив правую и левую часть последнего равенства на n −1 М ( Дв ) = Дг ; n k    x ) 2 ni  ( xi − ~ ∑ n ; × i =1 Дг = М   n −1  n      n  M Дв  = Дг;  n −1   k   ∑ ( xi −~ x ) 2 ni   Дг = М  i =1  n −1    S k S2 = n n −1 2 ∑ (xi − ~x )ni i =1 - «исправленная дисперсия»; n −1 M ( S 2 ) = Дг , т.е. S 2 является несмещённой оценкой; ∑ (xi − xв )ni не является несмещённой оценкой, но будем его просто называть S= n −1 «исправленное С.К.О.» Если n ≥ 30, то Можно доказать, что 2) Дв и S2 n −1 1 = 1 − → 1, n n и M ( Дв ) ≈ Дг S 2 являются состоятельными оценками: 3) хотя и является несмещённой оценкой, но не является эффективной оценкой (эти положения примем без доказательства) Частость как точечная оценка вероятности события (генеральной доли) 1) Несмещенность: m M = = p n т.е. частость 2) Эффективность: m   n является несмещенной оценкой р.  m  pq D( Xi) D  = = n n n 3) Состоятельность: По теореме Бернулли из ЗБЧ следует: pq m  P − p < ξ  ≥ 1 − , 2 n   nξ или m  lim P − p < ξ  = 1 . n →∞  n  32 m n - сходится по вероятности p , т.е. является самостоятельной оценкой. 7.3. Ошибки выборки Поскольку выборочная совокупность представляет собой лишь часть генеральной совокупности, то вполне естественно, что выборочные характеристики не будут точно совпадать с соответствующими генеральными. Ошибка репрезентативности может быть представлена как разность между генеральными и ~ выборочными характеристиками изучаемой совокупности: ε = X − X , либо ε = p − w . Применительно к выборочному методу из теоремы Чебышева следует, что с вероятностью сколь угодно близкой к единице можно утверждать, что при достаточно большом объеме выборки и ограниченной дисперсии генеральной совокупности разность между выборочной средней и генеральной средней будет сколь угодно мала. t ⋅ σ ген .  1 ~ P X −X <  >1− 2 t n   где (7.2) ~ X - средняя по совокупности выбранных единиц, X - средняя по генеральной совокупности, σ ген. - среднее квадратическое отклонение в генеральной совокупности. Запись показывает, ∆= что о величине расхождения t⋅σ = t ⋅ µ , можно судить лишь с определенной вероятностью, n между параметром и статистикой от которой зависит величина t. Формула (7.2) устанавливает связь между пределом ошибки вероятностью Р, величиной t и средней ошибкой выборки µ= σ ген. n Δ , гарантируемым с некоторой . Cогласно центральной предельной теореме Ляпунова выборочные распределения статистик (при n ≥ 30) будут иметь нормальное распределение независимо от того, какое распределение имеет генеральная совокупность. Следовательно: ) ( ~ − X < t ⋅ µ ≈ 2Φ ( t ) P X (7.3) где Ф0(t) - функция Лапласа. Значения вероятностей, соответствующие различным t, содержатся в специальных таблицах: при n ≥ 30 - в таблице значений Ф0(t), а при n < 30 в таблице распределения t-Стьюдента. Неизвестное значение σ ген. при расчете ошибки выборки заменяется σ выб . В зависимости от способа отбора средняя ошибка выборки определяется по разному: Формулы расчёта ошибки выборки для собственно-случайного отбора Собственно-случайный повторный отбор µ Для средней Для доли Здесь σ2 Собственно-случайный Бесповторный отбор σ2  n 1 −  n  N σ2 n w(1 − w)  n 1 −  n  N w(1− w) n - выборочная дисперсия значений признака; w(1− w) - выборочная дисперсия доли значений признака; n - объем выборки; N - объем генеральной совокупности; 33 Таблица 7.1 n - доля обследованной совокупности; N n  1 −  - поправка на конечность совокупности 4.  N 7.4. Определение численности (объема) выборки Одной из важнейших проблем выборочного метода является определение необходимого объема выборки. От объема выборки зависит размер средней ошибки (μ ) и экономичность проводимого выборочного наблюдения, т.к. чем больше объем выборки, тем больше затраты на изучение элементов выборки, но тем меньше при этом ошибка выборки. Из формулы предельной ошибки Δ = t ⋅ μ и формул средних ошибок выборки определяются формулы необходимой численности выборки для различных способов отбора. Таблица 7.2 Формулы расчёта необходимой численности выборки для собственно-случайного отбора n Для средней Для доли Собственно-случайный повторный отбор Собственно-случайный Бесповторный отбор t 2σ 2 ∆2 t 2 w(1 − w) ∆2 t 2σ 2 N N∆2 + t 2σ 2 t 2 Nw(1 − w) N∆2 + t 2 w(1 − w) 7.5. Интервальное оценивание ~ . Если Δ представляет собой предел, которым ограничена сверху ~ абсолютная величина ε < ∆ , то X − X < ∆ . Следовательно, Мы уже знаем, что ε=X−X ~ −∆ а0, то и критическая область правосторонняя (рис 1). При правосторонней конкурирующей гипотезе критическая точка (Ккр. правосторонняя)принимает положительные значения. Если конкурирующая гипотеза - левосторонняя, например, Н1: а < а0, то и критическая область левосторонняя (рис 2). При левосторонней конкурирующей гипотезе критическая точка принимает отрицательные значения (Ккр. левосторонняя). Если конкурирующая гипотеза - двусторонняя, например, Н1: а ≠ а0, то и критическая область двусторонняя (рис 3). При двусторонней конкурирующей гипотезе определяются две критические точки (Ккр. левосторонняя и Ккр. правосторонняя). 38 Область допустимых значений Критическая область К Ккр. Рис 8.1. Правосторонняя критическая область. Критическая область Область допустимых значений К -Ккр. Рис 8.2. Левосторонняя критическая область. Критическая область Область допустимых значений Критическая область К -Ккр. Ккр. Рис 8.3. Двусторонняя критическая область. Основной принцип проверки статистических гипотез состоит в следующем: - если наблюдаемое значение критерия (Кнабл.) принадлежит критической области, то нулевая гипотеза Н0 отклоняется в пользу конкурирующей Н1; - если наблюдаемое значение критерия (Кнабл.) принадлежит области допустимых значений, то нулевую гипотезу Н0 нельзя отклонить. Можно принять решение относительно нулевой гипотезы Н0 путем сравнения наблюдаемого (Кнабл.) и критического значений критерия (Ккр.). При правосторонней конкурирующей гипотезе: Если Кнабл. ≤ Ккр., то нулевую гипотезу Н0 нельзя отклонить; если Кнабл. > Ккр., то нулевая гипотеза Н0 отклоняется в пользу конкурирующей Н1. При левосторонней конкурирующей гипотезе: Если Кнабл. ≥ - Ккр., то нулевую гипотезу Н0 нельзя отклонить; если Кнабл. < - Ккр., то нулевая гипотеза Н0 отклоняется в пользу конкурирующей Н1. При двусторонней конкурирующей гипотезе: Если - Ккр. ≤ Кнабл. ≤ Ккр., то нулевую гипотезу Н0 нельзя отклонить; если Кнабл. > Ккр. или Кнабл. < - Ккр., то нулевая гипотеза Н0 отклоняется в пользу конкурирующей Н1. Алгоритм проверки статистических гипотез сводится к следующему: 1. Сформулировать нулевую Н0 и альтернативную Н1 гипотезы; 2. Выбрать уровень значимости α; 3. В соответствии с видом выдвигаемой нулевой гипотезы Н0 выбрать статистический критерий для ее проверки, т.е. - специально подобранную случайную величину К, точное или приближенное распределение которой заранее известно; 4. По таблицам распределения случайной величины К, выбранной в качестве статистического критерия, найти его критическое значение Ккр. (критическую точку или точки); 5. На основании выборочных данных по специальному алгоритму вычислить наблюдаемое значение критерия Кнабл.; 6. По виду конкурирующей гипотезы Н1 определить тип критической области; 39 7. Определить, в какую область (допустимых значений или критическую) попадает наблюдаемое значение критерия Кнабл., и в зависимости от этого - принять решение относительно нулевой гипотезы Н0. Следует заметить, что даже в том случае, если нулевую гипотезу Н0 нельзя отклонить, это не означает, что высказанное предположение о генеральной совокупности является единственно подходящим: просто ему не противоречат имеющиеся выборочные данные, однако таким же свойством наряду с высказанной могут обладать и другие гипотезы. Можно интерпретировать результаты проверки нулевой гипотезы следующим образом: - если в результате проверки нулевую гипотезу Н0 нельзя отклонить, то это означает, что имеющиеся выборочные данные не позволяют с достаточной уверенностью отклонить нулевую гипотезу Н0, вероятность нулевой гипотезы Н0 больше α, а конкурирующей Н1 - меньше 1 - α; - если в результате проверки нулевая гипотеза Н0 отклоняется в пользу конкурирующей Н1, то это означает, что имеющиеся выборочные данные не позволяют с достаточной уверенностью принять нулевую гипотезу Н0, вероятность нулевой гипотезы Н0 меньше α, а конкурирующей Н1 - больше 1 - α. Проверка гипотезы о нормальном распределении генеральной совокупности. Критерий согласия Пирсона. Расчет теоретических частот нормального распределения Во многих практических задачах точный закон распределения исследуемой случайной величины не известен, т.е. является гипотезой, которую следует проверить статистически. Проверка этой гипотезы, как уже отмечалось, производится с помощью специально подобранной случайной величины – критерия согласия. Имеется несколько критериев согласия: Романовского и др. Критерий χ2 χ2 («хи-квадрат») Пирсона, Колмогорова, Смирнова, Пирсона – наиболее часто употребляемый критерий для проверки гипотезы о законе распределения. Рассмотрим его применение для проверки гипотезы о нормальном распределении генеральной совокупности. Пусть дана генеральная совокупность X (случайная величина X ), закон распределения которой не известен. Но есть основания выдвинуть нулевую гипотезу распределение. Проверим выдвинутую гипотезу H0 по критерию H 0 : генеральная совокупность имеет нормальное χ2 Пирсона при заданном уровне значимости Для проверки гипотезы проведем выборку объемом (выборочное) распределение … x x x 1 i mi где m1 xi 2 m2 … n, в результате получим эмпирическое xi mi … … xs ms - варианта; mi s - эмпирические частоты, ∑ mi = n . i =1 Предполагая, что данное распределение нормальное, можно рассчитать теоретические частоты по формуле: где α. pi - теоретическая вероятность; n - объем выборки. (mi′ ) mi′ = n ⋅ pi , Если эмпирическое распределение получено в виде последовательности равноотстоящих вариант и соответствующих им частот (как указано выше), то теоретическая вероятность рассчитывается по формуле pi = где Zi = h h σв ϕ (Z i ) , - шаг (разность между двумя соседними вариантами); xi − X в σв ; − 1 ϕ (Z u ) = ⋅e 2π Z2 2 - дифференциальная функция нормированного нормального распределения. 40 Тогда mi′ = nh σв ϕ (Z i ) . Если же эмпирическое распределение получено в виде последовательности интервалов одинаковой длины и соответствующих им частот, т.е. … … x −x x −x x −x x −x 1 2 2 m1 3 i +1 i m2 mi то теоретическая вероятность попадания случайной величины X s +1 s … ms … в интервал формуле (xi , xi+1 ) - рассчитывается по  x − Xв   x − Xв   − Ф 0  i  , pi = P( xi < X < xi +1 ) = Ф 0  i +1 σ σ     в в Z x2 − 1 2 dx - функция Лапласа. где Ф 0 (Z ) = e ∫ 2π 0 Следовательно, mi′ = nP ( xi < X < xi +1 ) . Итак, нашли теоретические частоты данного распределения, предполагая, что оно подчиняется нормальному закону. Как правило, между эмпирическими и теоретическими частотами распределения имеются определенные расхождения. В некоторых случаях эти расхождения не являются существенными и могут быть объяснены либо малым числом наблюдений, либо способом их группировки, либо иными причинами. В других случаях расхождения частот неслучайно (существенно) и объясняется тем, что теоретические частоты вычислены исходя из неверной гипотезы о нормальном распределении генеральной совокупности. Для того чтобы дать обоснованный ответ о причинах расхождения эмпирических и теоретических частот, используются различные критерии согласия, например, критерий Пирсона s χ2 =∑ (m э i i =1 miэ и где интервале. − miт miт ), (χ ): 2 miт - соответственно эмпирические и теоретические частоты распределения в определенном Доказано, что закон распределения случайной величины χ2 при n→∞ независимо о того, какому закону распределения подчинена генеральная совокупность, стремится к закону распределения χ2 («хи- квадрат») с K степенями свободы. Число степеней свободы распределения находят из равенства K = s − r − 1 , где s - число групп выборки; r - число параметров предполагаемого распределения, которые оцениваются по данным выборки. В нашем случае нормальное распределение оценивается двумя параметрами (математическое ожидание и среднее квадратическое отклонение), поэтому K = s − 2 − 1 = s − 3 . При проверке нулевой гипотезы о законе распределения генеральной совокупности строится правосторонняя критическая область исходя из требования где α [ ] 2 2 (α,K ) = α , P χ набл > χ кр - заданный уровень значимости. ( ) f χ2 область Область Критическая принятия гипотезы H 0 41 2 2 H0 H1 2 χ кр 2 χ набл Рис.8.4. Итак, чтобы проверить гипотезу о нормальном распределении генеральной совокупности при заданном значении α , необходимо: 1) по данным выборки объема n найти теоретические частоты 2) найти наблюдаемое значение критерия χ χ (α , K ) ; 4) сравнить а) если э i ) 2 − miт ; =∑ т m i =1 i α и K = s − 3 степенях свободы найти критическую точку 2 набл 3) по заданному уровню значимости 2 кр (m miт ; s 2 2 с χ кр (α , K ) и сделать вывод: χ набл 2 2 > χ кр (наблюдаемое значение критерия попало в критическую область, ст. рис.10.1), то χ набл нулевая гипотеза отклоняется, совокупность X имеет закон распределения, отличный от нормального; расхождение между эмпирическими и теоретическими частотами значимо (существенно); б) Если 2 2 < χ кр (наблюдаемое значение критерия попало в область принятия гипотезы), то нет χ набл основания отклонить нулевую гипотезу, по данным наблюдения совокупность X имеет нормальный закон распределения; расхождения между эмпирическими и теоретическими частотами незначимо (несущественно), это вызвано случайными колебаниями выборочных данных. . Проверка гипотез о математических ожиданиях нескольких случайных величин, распределенных по нормальному закону методом однофакторного дисперсионного анализа Критерий дисперсионного анализа является одним из основных понятий одной бурно развивающейся ветви математической статистики – «теории планирования эксперимента». Метод дисперсного анализа позволяет проверить, оказывают ли влияние на математические ожидания случайных величин определенные факторы, которые можно произвольно изменять в ходе эксперимента, выбрать наиболее важные факторы и оценить степень их влияния. Если на математические ожидания оказывает влияние только один фактор, то соответствующий критерий называется однофакторным дисперсионным анализом, если несколько – многофакторным дисперсионным анализом. Метод сравнения средних основан на сравнении дисперсий и поэтому назван дисперсионным анализом. Сущность однофакторного дисперсионного анализа заключается в разбиении общей дисперсии случайной величины X на два независимых слагаемых: «факторную» дисперсию, порождаемую воздействием исследуемого фактора, и «остаточную» дисперсию, обусловленную различными другими неслучайными и 2 случайными факторами, т.е. S общ 2 2 . = S факт + S ост Замечание: В процессе применения однофакторного дисперсионного анализа результаты измерений случайной величины X разбиваются (в зависимости от степени действия фактора А ) на группы. И поэтому факторную дисперсию называют иногда «межгрупповой», а остаточную – «внутригрупповой» (внутри групп фактор А не действует). В результате сравнения факторной и остаточной дисперсий по критерию Фишера приходят к выводу о значимости расхождения средних значений в группах. Итак, выбирается статистика F, имеющая F -распределение степенями свободы. 42 с ν1 = K −1 и F= 2 S факт 2 S ост ν2 = n− K Для вычисления Fα ;ν1 ;ν 2 , Fнабл составляется таблица дисперсионного анализа с критическим значением найденным по таблицам квантилей F -распределения по заданному уровню значимости α и числам степеней свободы ν 1 и ν 2 . Если Если Fнабл ≥ Fα ;ν1 ;ν 2 - H 0 отклоняется в пользу H 1 . Fнабл < Fα ;ν1 ;ν 2 - нет оснований для отклонения H0 H0. H1 Fкр Отклонение H0 является статистическим доказательством влияния фактора А на математические ожидания исследуемых случайных величин X . Задача 1. Группа социологов исследовала влияние стажа работы по профессии на производительность труда рабочих механического цеха одного завода. Получены следующие результаты: Стаж работы рабочих до 10 лет от 10 до 15 лет от 15 до 25 лет Количество деталей, 135 176 155 вырабатываемых за смену 156 196 160 одним рабочим (шт) 165 204 149 180 171 140 Предполагая, что производительность труда рабочих, имеющих различный стаж работы, подчиняется нормальному закону дисперсионного анализа H 0 : a1 = a 2 = a3 X i → N (ai ; σ i ) , σ 12 = σ 22 = σ 32 , α = 0,05 (имеем K =3 групп, по ni H 0 : a1 = a 2 = a3 ; (производительность труда не H 1 : a1 ≠ a 2 ≠ a3 (производительность труда зависит от стажа работы). 1. анализа. 2. 1) 2) требуется проверить методом (средняя производительность труда не зависит от стажа работы) Уровень значимости принять равным 3, 4 и 5). Решение. причем зависит данных в каждой группе: от стажа работы) Вычислим вспомогательные величины, необходимые для составления таблицы дисперсионного n = n1 + n2 + n3 = 3 + 4 + 5 = 12 756 456 775 = 189 ; X 3 = X1 = = 152 ; X 2 = = 155 4 3 5 ni    X i = 1 ∑ xij   ni j =1     1 K ni  X = ∑∑ xij  n i =1 j =1   1987 Общая средняя арифметическая X = = 165,58  . k 12    где n = ∑ ni  i =1   43 3 3) ∑ (xij − X 1 ) 2 = 474 j =1 (т.е. (135 − 152)2 + (156 − 152)2 + (165 − 152)2 = 474 ) 4 ∑ (xij − X 2 ) 2 = 524 j =1 (т.е. (176 − 169)2 + (196 − 169)2 + (204 − 169)2 + (180 − 169)2 = 524 ) 5 ∑ (xij − X 3 ) 2 = 542 j =1 (т.е. (155 − 155)2 + (100 − 155)2 + (149 − 155)2 + (171 − 155)2 + (140 − 155)2 = 542 ) 4) 2 ni 3 ∑∑ (xij − X i ) i =1 j =1 ( 474 + 524 + 542 = 1540 = 1540 ) (X − X ) n = (152 − 165,58) ⋅ 3 = 553,68 (X − X ) n = (169 − 165,58) ⋅ 4 = 1508,25 (X − X ) n = (155 − 165,58) ⋅ 5 = 559,68 ∑ (x − X ) n =2621,18 5) 2 2 2 3 3 2 1 2 1 2 2 6) i =1 ; 2 3 ; . 2 i i 3. Составим таблицу дисперсионного анализа Источник Сумма квадратов Число степеней изменчивости отклонений свободы Стаж работы K K −1 = между группами X −X n ∑( i =1 Остаточная (внутригрупповая) i ) = (3 − 1 = 2 ) 2 i 2621,18 (факторная) K ni ∑∑ (xij − X i ) 2 i =1 j =1 1540 (остаточная) Полная изменчивость ∑∑ (xij − X ) K ni 2 9 (3 + 4 + 5 − −3= 9 = = n − K) (n − 1 = 12 − 1) 11 i =1 j =1 Дисперсии 1310,59 (факторная) Наблюдаемое значение критерия Fнабл = = 1310,59 = 7,71 171 171 (остаточная) 1481,59 (полная) 4161,18 (полная) 4. Найдем по таблицам квантилей уровню значимости α =0,05 и F -распределения критическое значение Fα ;ν1 ;ν 2 , соответствующее числам степеней ν 2 = n − K = 12 − 3 = 9 F0,05; 2;9 = 4,26 44 свободы ν1 = K −1 = 3 −1 = 2 и 5. H0 Fкр =4,26 H1 Fнабл =7,71 H 0 отвергается в пользу H 1 , т.е. считается статистически доказанным, что производительность труда зависит от стажа работы. Далее приводится справочная таблица критериев проверки статистических гипотез. 45 Статистическая проверка гипотез Нулевая гипотеза H 0 x = a0 H0 : ~ H0 : ~ x = a0 H 0 : x1 = x 2 H 0 : x1 = x 2 2 H 0 : σ ген = σ 02 Дополнительные условия Критерий проверки (критериальная статистика) σг U набл = известно σг неизвестно Tнабл x1 → N (a1 ; σ 12 ) x 2 → N (a 2 ; σ 22 ) σ 12г = σ 22г x → N ( a; σ 2 ) σ n Нормальный закон Функция Лапласа k св = n − 1 n −1 степенями свободы ~ x1 − ~ x2 σ 2 1 n1 Tнабл = Используемое распределение Стьюдента с ~ x − a0 = S z набл = n ≥ 30 ~ x − a0 Н0 + σ Нормальный закон Функция Лапласа 2 2 n2 ~ x1 − ~ x2 n1 S12 + n2 S 22 n1 + n2 − 2 2 = χ набл 1 1  +  n1 n2 (n − 1) S σ 02 Стьюдента с 2    k св = n1 + n2 − 2 степенями свободы χ 2 распред. с k св = n − 1 степенями свободы Конкур гип. H1 Критическая область и формулы для нахождения её границ отвергается, если ~ x > a0 ~ x a0 ~ x −t прав.кр ДКО t двуст.кр (α ; k ) Tнабл < t двуст.кр x1 > x 2 ПКО x1 < x 2 ЛКО x1 ≠ x 2 ДКО x1 > x 2 ПКО 1−α 2 t прав.кр (α ; k ) x1 < x 2 ЛКО t лев.кр = −t прав.кр Tнабл > −t прав.кр x1 ≠ x 2 ДКО t двуст.кр (α ; k ) Tнабл < t двуст.кр 2 σ ген > σ 02 ПКО χ кр2 (α ; k ) 2 χ набл < χ кр2 2 σ ген < σ 02 ЛКО χ кр2 (1 − α ; k ) 2 χ набл > χ кр2 2 σ ген ≠ σ 02 ДКО 2 α χ прав .кр ( 2 ; k ) Ф0 ( z кр ) = 1 − 2α 2 Ф0 ( z кр ) = 2 α χ лев .кр (1 − 2 ; k ) 46 Гипотеза H 0 не U набл < u кр z набл < z кр z набл > − z кр z набл < z кр Tнабл < t прав.кр 2 2 χ л2.кр < χ набл < χ пр .кр SEf K=(-xa 9544 9973 0мера < > σ 0Нормальна −−2σ )a,06826 яразброса кривая a − 3aσ+ σ f(x) вокруг своего ax + 2σ математич Нулевая гипотеза H 0 H 0 : σ 12 = σ 22 H 0 : p = p0 Дополнительные условия x1 → N (a1 ; σ ) x 2 → N (a 2 ; σ ) 2 1 2 2 n→∞ (n > 30) p неизвестна Критерий проверки (критериальная статистика) Fнабл H 0 : p1 = p 2 (n > 30) 2 1 2 2 S (наиб ) = S (наим) m −p U набл = n p0 q0 n q0 = 1 − p0 U набл = n→∞ Н0 Используемое распределение F распред. с k1 = n1 − 1 k 2 = n2 − 1 степенями свободы Нормальный закон Функция Лапласа m1 m2 − n1 n2 pq n m + m2 p= 1 n1 + n2 q = 1− p nn n= 1 2 n1 + n2 Нормальный закон Функция Лапласа 47 Конкур гип. H1 Критическая область и формулы для нахождения её границ Гипотеза H 0 не отвергается, если σ 12 > σ 22 ПКО Fкр (α ; k1 ; k 2 ) Fнабл < Fкр σ 12 ≠ σ 22 ДКО Fкр (α 2 ; k1 ; k 2 ) Fнабл < Fкр p > p0 ПКО Ф0 (u кр ) = U набл < u кр p < p0 ЛКО p ≠ p0 ДКО p > p0 ПКО p < p0 ЛКО p ≠ p0 ДКО 1 − 2α 2 1−α Ф0 (u кр ) = 2 Ф0 (u кр ) = 1 − 2α 2 Ф0 (u кр ) = 1−α 2 U набл > −u кр U набл < u кр U набл < u кр U набл > −u кр U набл < u кр
«Элементы комбинаторики» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot