Справочник от Автор24
Поделись лекцией за скидку на Автор24

Основные понятия и теоремы теории вероятностей. Понятие случайного события

  • 👀 697 просмотров
  • 📌 645 загрузок
  • 🏢️ МЭБИК
Выбери формат для чтения
Статья: Основные понятия и теоремы теории вероятностей. Понятие случайного события
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Основные понятия и теоремы теории вероятностей. Понятие случайного события» pdf
Теория вероятностей и математическая статистика Курс лекций рекомендован в качестве основного учебного материала студентам, получающим высшее образование в Курском институте менеджмента, экономики и бизнеса Теория вероятностей– Курск: типография МЭБИК. – 76с. Идентификатор публикации: MB-K-001-20-302 3 Теория вероятностей Теория вероятностей Тема 1. Основные понятия и теоремы теориивероятностей 1.1. Понятие случайного события Испытанием мы будем называть тип опыта (эксперимента). Например, извлечение наудачу карты из колоды – испытание. Бросание наудачу игральной кости (монеты) – испытание. Существенно, что испытания в приведенных примерах (как и все испытания в данном курсе) выполняются наудачу, т.е. субъективный фактор здесь предполагается исключенным. Определение. Случайным событием называется выделенный исход некоторого испытания. Очевидно, что в конкретном испытании рассматриваемое случайное событие может наступить, а может и не наступить. (Отметим также, что сам эпитет “случайное” перед термином “событие“ в дальнейшем для краткости мы обычно будем опускать.) Всюду ниже для обозначения событий мы будем использовать заглавные буквы фавита (возможно, с индексами). Например, ∫ ,B,C,… или A1, B 2 ,C 3 , латинского ал- . Пример. Пусть испытание – извлечение карты из колоды. Тогда событиями являются: A– извлечена карты красной масти, B – извлечена “ картинка“, C – извлечен туз и т.п. Если в результате конкретного испытания из колоды достали, например, семерку бубен, то событие Aнаступило, события B и C – нет. Пример. Пусть испытание – бросание игральной кости. Тогда событиями являются, например, A– число выпавших очков – четно, B – число выпавших очков – больше 4, C– на верхней грани игральной кости выпала “5”. Удобным обозначением для событий, относящихся к рассматриваемому испытанию (бросание игральной кости), служит перечисление всех исходов благоприятствующих наступлению события. Например, здесь A ={2,4,6}, √ ={5,6}, Ⅳ ={5}. 1.2. Статистическое определение вероятности Пусть проведено Nиспытаний, в которых некоторое событие Aнаступает N ношение NA N A раз. Тогда от- называется частостью (долей) наступления события A в Nиспытаниях. Определение. Пусть условия проведения некоторого испытания можно в точности воспроизвести неограниченное число раз. Тогда вероятностью Ⅲ(A ) наступления события A (в одном испытании) называется такое число, около которого группируются значения частости ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» NA при неограниченном увеличении числа испытаний N . N Символически это определение можно записать в виде NA . N →∞ N P ( A ) = lim Отметим практическое следствие данного определения: если нас интересует значение вероятности наступления некоторого события ∫ , то производят достаточно большое число испытаний N, по их результатам определяют значение частости NA N и затем полагают P (A ) ≅ NA . N (Более подробно обоснование такого подхода будет рассмотрено ниже: см. Закон больших чисел, теорему Бернулли.) Также статистическое определение вероятности имеет следующее важное Следствие (область возможных значений вероятности события). Значение вероятности произвольного события ∫ заключено в границах от 0 до 1, т.е. 0 ≤ Ⅲ( ∫ ) ≤ 1. Доказательство. Очевидно, что 0≤N A ≤N . Выполняя почленное деление последнего неравенства на N , получаем 0≤ NA ≤ 1. N Переходя теперь к пределу при N → ∞ , имеем NA ≤ lim 1. →∞ N N →∞ lim 0 ≤ lim N →∞ N 1.3. Классификация случайных событий 1. Определение. Два события называются равными, если одно из них наступает тогда и только тогда, когда наступает другое. Пример. Будут произведены 3 выстрела в мишень. А – число попаданий в мишень равно 0, В – число попаданий в мишень меньше, чем 0,5. Очевидно, что ∫ = √ . 2. Определение. Два события называются равновозможными, если вероятности их 4 5 Теория вероятностей наступления равны (в смысле статистического определения вероятности). На практике равновозможность событий обычно усматривается из симметрии ситуации. Пример. Пусть испытание – бросание монеты. Тогда события ∫ выпадение “решки” являются равновозможными. – выпадение “орла” и √ – 3. Определение. Событие называется достоверным, если оно наступает в каждом из испытаний. Достоверное событие будем обозначать через ǀ . Такое событие определено однозначно для каждого вида испытания. Пример. Пусть испытание – бросание игральной кости. Тогда ǀ = {1,2,3,4,5, 6} = ( m < 10) = ( m > 0) = ..., где m – число выпавших очков. Т.к. N E NE = lim 1 = 1, т.е. N →∞ N N →∞ = N , то P (E ) = lim P (E ) = 1. 4. Определение. Событие называется невозможным, если оно не наступает ни в одном из испытаний. Невозможное событие будем обозначать символом ∅. Это событие определено однозначно для каждого вида испытания. Пример. Пусть измеряется рост наудачу взятого человека. Тогда ∅ = (значение роста – отрицательное число) = (рост – более 100 км) =…. Т.к. N ∅ N∅ = lim 0 = 0, т.е. N →∞ N N →∞ = 0, то P (∅) = lim P (∅) = 0. 5. Определение. Два события называются несовместными (несовместимыми), если они не могут наступить одновременно. Пример. Испытание – извлечение карты из колоды. Если событиеА – извлечена карта красной масти, событие В – извлечена карта черной масти, то А и В – несовместны. Пример. Пусть по мишени производится 3 выстрела и m– число попаданий в мишень. Тогда события, например, ( m = 3) и ( m ≤ 1) – несовместны. ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» 6. Определение. События ∫ 1 , A 2 ,..., A k называются единственно возможными для некоторого испытания, если в результате испытания хотя бы оно из них обязательно наступает. Пример. Пусть испытание – бросание игральной кости. A = {1,2, 3}, B = {3,4,5, 6}, C = {3,4, 5}. Тогда событияАи В – единственно возможны (т.к. не существует такого исхода бросания игральной кости, при котором ни А, ни В не наступило). Напротив, А иСне являются единственно возможными (т.к. при выпадении “6” ни А, ни С не наступают). 7. Определение. Говорят, что события ∫ 1 , A 2 ,..., A k образуют полную систему (группу), если эти события попарно несовместимы и единственно возможны. Пример. ∫ 1 Пусть испытание – бросание игральной кости. Тогда события = {} 1 , A 2 = {2},..., A 6 = {6} образуют полную систему. Пример. Пусть по мишени производится 3 выстрела и m– число попаданий в мишень. Тогда события, например, ( m = 0), (1 ≤ m ≤ 2), ( m = 3) образуют полную систему. Заметим, что при заданном типе испытания полная система событий определена, вообще говоря, неоднозначно. Определение. Если два события образуют полную систему, то они называются парой взаимно противоположных событий. Если одно из событий такой пары обозначено, скажем, через ∫ , другое будет обозначено ∫ . Пример. Пусть испытание – бросание монеты. Тогда события А – выпадение “орла” и В – выпадение “решки” являются взаимно противоположными ( √ = ∫ ). Пример. Пусть по мишени производится 3 выстрела, и m– число попаданий в мишень. Тогда события, например, ( m < 2) = ( m = 0 ⅺⅽⅺ m = 1) и ( m ≥ 2) = ( m = 2 ⅺⅽⅺ m = 3) – взаимно противоположны. 1.4. Операции над событиями Определение. Суммой событий А и В называется такое событие Ⅳ = ∫ + √ , которое считается наступившим тогда и только тогда, когда наступило или событие А, или событие В, или оба эти события вместе. Пример. Пусть испытание – извлечение карты из колоды, а следующие события состоят в извлечении: А – карты красной масти, В – картинки, D – числовой карты. Если в результате конкретного испытания из колоды достали, например, “семерку” крестей то событиеА+В не наступило, а события ∫ + D и B + D наступили. Пример. Пусть по мишени производится 3 выстрела, m– число попаданий в мишень ∫ = ( m < 2), B = ( m > 0) , C = A + B . Тогда C = {m = 1}. Замечание 1. Условие единственной возможности событий ∫ 1 , A 2 ,..., A k равносильно тому, что ∫ 1 +∫ 2 + ... + ∫ k = E . В частности, если события ∫ 1 , A 2 ,..., A k образуют полную систему, то 6 7 Теория вероятностей ∫ 1 +∫ 2 + ... + ∫ k = E , и при k = 2 имеем A +A =E. Определение. Произведением событий А и В называется такое событие Ⅳ = ∫ √ , которое считается наступившим тогда и только тогда, когда события А и В наступили одновременно. Пример. Пусть испытание состоит в бросании игральной кости. ∫ = {1,2,3}, B = {3,4}. Тогда AB = {3} и A + B = {1,2,3,4}. Замечание 2. Произвольные событияАи В являются несовместимыми тогда и только тогда, когда ∫ √ = ∅. 1.5. Классическое определение вероятности Определение. Пусть некоторое испытание имеет n исходов, причем эти исходы а) попарно несовместимы; б) единственно возможны; в) равновозможны и наступлению события А благоприятствует m исходов из n . Тогда вероятность Ⅲ(∫ ) наступления события А (в одном испытании) определяется по формуле Ⅲ( ∫ ) = m . n Пример. В коробкеимеется 10 хороших деталей и 5 бракованных. Наудачу из коробки извлекается одна деталь. Найти вероятность наступления событияА – извлеченная деталь – хорошая. Решение. Общее число исходов n = 15 равно полному числу деталей в коробке. Извлечению хорошей детали благоприятствует m = 10 исходов из общего числа (число хороших деталей). Тогда Ⅲ( ∫ ) = 10 2 = . 15 3 Пример. Одновременно бросаются три монеты. Найти вероятность того, что на двух из них выпадет “орел”. Решение. Для удобства будем предполагать, что монеты некоторым образом занумерованы.Единичным исходом здесь является совокупный результат по трем монетам (другими словами, для того, чтобы задать единичный исход, надо сказать, что выпало на первой монете, на второй и на третьей). Перечислим возможные исходы (см. Таблицу 1, в которой выпадение “орла” на соответствующей монете обозначено буквой “О”, “решки” – “Р”). Видно, что общее число n исходов равно 8. Число m благоприятствующих исходов равно 3 – это исходы с номерами 2, 3, 5 Таблицы 1. Тогда ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Таблица 1. Номер Ⅲ( ∫ ) = Номер монеты исхода m 3 = . n 8 Пример. В коробке 6 белых шаров и 8 красных. Наудачу одновременно извлекаются 3 шара. Найти вероятность, того, что среди них будут: 1 2 3 О О О 2 О Р О 3 О О Р О Р Р Р О О {124}, …, {12,13,14}. 6 Р Р О проверку того, что данные исходы удовлетворяют всем условиям классического определения вероятностей.) 7 Р О Р 8 Р Р Р 1 4 5 а) два белых шара; б) не менее одного белого. Решение. а) Для удобства будем предполагать, что имеющиеся шары некоторым образом перенумерованы. Пусть, например, белые шары имеют номера 1, 2, … ,6 красные – 7, 8 , … ,14. Тогда единичным исходом является произвольная тройка номеров: {123}, ( Оставляем читателю в качестве упражнения Тогда общее число nисходов равно числу способов, которыми можно выбрать 3 номера из имеющихся 14-ти номеров. Напомним, что такое число равно соответствующему числу сочетаний: 3 . n = C 14 (В общем случае, C ks = k! s !( k − s )! равно числу способов, которыми можно выбрать s объектов из k имеющихся объектов.) Таким образом, 3 = n = C 14 14! 1 ⋅ 2 ⋅ ... ⋅ 10 ⋅ 11 ⋅ 12 ⋅ 13 ⋅ 14 = = 2 ⋅ 13 ⋅ 14 = 364. 3! 11! 1 ⋅ 2 ⋅ 3 ⋅ 1 ⋅ 2 ⋅ ... ⋅ 10 ⋅ 11 Найдем теперь число m исходов, благоприятствующих появлению двух белых шаров среди трех извлеченных. Число способов, которыми можно выбрать 2 шара из имеющихся 6-ти белых шаров, равно Ⅳ62 . Но число благоприятствующих исходов с фиксированной парой белых шаров равно числу способов, которыми можно выбрать оставшийся красный шар в тройку, т.е. равно Ⅳ81. Поэтому 8 9 Теория вероятностей m = C 62 ⋅ C 81 = 6! 8! ⋅ = 5 ⋅ 3 ⋅ 8 = 120. 2!⋅4! 1!⋅7! Окончательно имеем Ⅲ( ∫ ) = m 120 30 = = , n 364 91 гдеА– событие состоящее в том, что среди трех отобранных шаров ровно 2 белых шара. б) Полное число n исходов найдено в п. а). Число троек, в которых не менее 2-х белых шаров, равно сумме троек с двумя белыми шарами и троек с тремя белыми шарами: m = C 62 ⋅ C 81 + C 83 = 120 + 56 = 176. Окончательно имеем Ⅲ(√ ) = m 176 44 = = , n 364 91 гдеВ– событие состоящее в том, что среди трех отобранных шаров не менее 2-х белых шаров. 1.6. Основные теоремы теории вероятностей Теорема сложения вероятностей. Ⅲ( ∫ + √ ) = Ⅲ( ∫ ) + Ⅲ(√ ) Ⅲ( ∫ √ ). Важным частным случаем этой теоремы является Теорема сложения вероятностей для несовместных событий. Вероятность суммы двух несовместных событий равна сумме их вероятностей, т.е. Ⅲ( ∫ + √ ) = Ⅲ( ∫ ) + Ⅲ(√ ). Доказательство. Так как событияАи В несовместны, то их произведение равно невозможному событию, т.е. АВ = ∅. Поскольку вероятность невозможного события равна нулю (см. § 1.3),то из теоремы сложения вероятностей следует требуемое утверждение. Отметим, что аналогичное утверждение справедливо для любого числа попарно несовместных событий: вероятность суммы попарно несовместных событий равна сумме их вероятностей. Следствие. Пусть события ∫ 1 , ∫ ятностей равна 1 т.е. 2 ,..., ∫ k образуют полную систему, тогда сумма их веро- ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Ⅲ(∫ 1 ) + Ⅲ(∫ 2 ) + ... + Ⅲ(∫ k ) = 1. Доказательство. Из определения полной системы следует, что события ∫ 1 , ∫ частности, являются единственно возможными, поэтому ∫ Ⅲ(∫ 1 + ∫ 2 + ... + ∫ k 1 +∫ 2 + ... + ∫ k 2 ,..., ∫ k , в = E (см. § 1.4).Тогда ) = Ⅲ(ǀ ). Вероятность достоверного события равна 1 (см. § 1.3).События ∫ 1 , ∫ 2 ,..., ∫ k , в частности, являются попарно несовместными. Тогда из теоремы сложения вероятностей для несовместных событий следует требуемое утверждение. Данное следствие при k = 2 представляет важное свойство противоположных событий: сумма вероятностей взаимно противоположных событий равна 1, т.е. Ⅲ(∫ ) + Ⅲ(∫ ) = 1. Определение. Условной вероятностью Ⅲ√ (∫ ) называется вероятность наступления события А в предположении наступления события В. Определение. Два события называются независимыми, если вероятность наступления одного из них не зависит от того, считается ли другое событие наступившим или нет. Данное определение равносильно следующему: ⎧Ⅲ√ ( ∫ ) = Ⅲ√ ( ∫ ), ⎩Ⅲ∫ (√ ) = Ⅲ∫ (√ ). событияАи В независимы ⇔ ⎨ Пример. Пусть испытание состоит в извлечении карты из колоды. СобытиеА – извлечена “ картинка”, событие В – извлечена “7”. Выяснить, являются ли событияАи В независимыми. Решение. Так как среди “ картинок” нет “семерок”, то Ⅲ∫ (√ ) = картинок” – 4 “семерки”, то Ⅲ∫ (√ ) = = 0 . Так как среди “не 16 4 4 1 = = . Таким образом, 36 − 16 20 5 Ⅲ∫ (√ ) ≠ Ⅲ∫ (√ ) , поэтому событияАи В зависимы. Аналогично, в общем случае произвольные (неравные) несовместные события – зависимы. Теорема (необходимое и достаточное условие независимости событий). События А и В независимы тогда и только тогда, когда Ⅲ( ∫ ) = Ⅲ√ (∫ ). Пример. Пусть испытание состоит в бросании игральной кости, ∫ = {3, 4, 5}, √ = {2, 3, 4, 6}. 10 11 Теория вероятностей Выяснить, являются ли событияАи В независимыми. Решение. Очевидно, что Ⅲ( ∫ ) = 3 1 = . В предположении обязательного наступления собы6 2 тия В, полноечисло возможных исходов равно 4, из которых 2 исхода благоприятствуют наступлению события А, поэтому Ⅲ√ ( ∫ ) = 2 1 = . Так как Ⅲ(∫ ) = Ⅲ√ (∫ ), то события А и В – независимы. 4 2 Теорема умножения вероятностей. Ⅲ(∫ √ ) = Ⅲ(∫ )Ⅲ∫ (√ ), Ⅲ(∫ √C ) = Ⅲ(∫ )Ⅲ∫ (√ )Ⅲ∫ √ (Ⅳ), Ⅲ(∫ √CD ) = Ⅲ(∫ )Ⅲ∫ (√ )Ⅲ∫ √ (Ⅳ)PABC (D ), ……………………………………….. Теорема умножения вероятностей для независимых событий. Вероятность произведения двух независимых событий равна произведению их вероятностей, т.е. Ⅲ( ∫ √ ) = Ⅲ( ∫ )Ⅲ(√ ) . Аналогичное утверждение справедливо для любого числа независимых событий. Пример. Два стрелка одновременно выстреливают в мишень. Вероятность попадания для первого стрелка равна 0,6, для второго – 0,8. Найти вероятность того, что в мишени будет: а) одна пробоина; б) хотя бы одна пробоина. Решение. а) Прежде всего, укажем, когда может наступать интересующее нас событие, перебирая все возможные варианты. В мишени будет одна пробоина тогда и только тогда, когда первый стрелок попал и второй стрелок промахнулся или ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» первый стрелок промахнулся и второй стрелок попал. Пусть событиеА – в мишени будет одна пробоина, событие √ 1 – первый стрелок попал, событие √ 2 – второй стрелок попал. Тогда √ 1 – первый стрелок промахнулся, √ 2 – второй стрелок промахнулся. “Тогда и только тогда, когда” соответствует отношению равенства событий. Соединительный союз “или” соответствует операции сложения событий. Соединительный союз “и” соответствует умножению событий. Тогда фраза русского языка, в которой мы перечислили все возможности для наступления событияА, равносильна следующему символическому равенству ∫ = √ 1√ 2 + √ 1√ 2 . Откуда следует равенство вероятностей Ⅲ( ∫ ) = Ⅲ(√ 1√ 2 + √ 1√ 2 ). Так как события √ 1√ 2 и √ 1√ 2 несовместны, то, применяя теорему сложения вероятностей для несовместных событий, приходим к равенству Ⅲ( ∫ ) = Ⅲ(√ 1√ 2 ) + Ⅲ(√ 1√ 2 ). События √ 1 , √ 2 и √ 1 , √ 2 попарно независимы, поэтому, применяя теорему умножения вероятностей для независимых событий, получаем Ⅲ( ∫ ) = Ⅲ(√ 1 )Ⅲ(√ 2 ) + Ⅲ(√ 1 )Ⅲ(√ 2 ). По условию, Ⅲ(√ 1 ) = 0,6 и P (B 2 ) = 0,8. Тогда, по свойству взаимно противоположных событий (см. следствие из теоремы сложения вероятностей для несовместных событий, k = 2 ), Ⅲ(√ 1 ) = 1 − P (B 1 ) = 1 − 0,6 = 0,4 и Ⅲ(√ 2 ) = 1 − P (B 2 ) = 1 − 0,8 = 0,2. Окончательно имеем Ⅲ( ∫ ) = 0,6 ⋅ 0,2 + 0,4 ⋅ 0,8 = 0,44. б) Пусть m – число попаданий в мишень, тогда искомой является вероятность Ⅲ( m ≥ 1) (заметим, что слова “хотя бы один”, “не менее чем один”, “по-крайней мере один” являются синонимами). Событие ( m ≥ 1) равносильно тому, что число попаданий в мишень будет равно 1 или 2, т.е. ( m ≥ 1) = ( m = 1) + ( m = 2). Тогда, учитывая несовместность событий ( m = 1) и ( m = 2) , получаем Ⅲ( m ≥ 1) = Ⅲ( m = 1) + Ⅲ( m = 2). 12 13 Теория вероятностей Ⅲ( m = 1) = P ( A ) = 0,44 (см. п. а) данного примера). Событие ( m = 2) (два попадания в мишень) наступает тогда и только тогда, когда первый стрелок попадет в мишень и второй стрелок попадет, т.е. ( m = 2) = B 1B 2 . Поэтому Ⅲ( m = 2) = Ⅲ(B 1 )Ⅲ(B 2 ) = 0,6 ⋅ 0,8 = 0,48 (см. теорему умножения вероятностей для независимых событий). Окончательно имеем Ⅲ( m ≥ 1) = Ⅲ( m = 1) + Ⅲ( m = 2) = 0,44 + 0,48 = 0,92. Отметим, что эта задача допускает и другое решение. Так как события ( m ≥ 1) и ( m = 0) взаимно противоположны, то P ( m ≥ 1) = 1 − P ( m = 0) . Но P ( m = 0) = P (B 1 )P (B 2 ) = 0,4 ⋅ 0,2 = 0,08. Следовательно Ⅲ( m ≥ 1) = 1 − P ( m = 0) = 1 − 0,08 = 0,92. Пример. В коробке лежат4 белых шара и 6 красных. Наудачу, один за другим из коробки извлекается 2 шара. Найти вероятность того, что среди них будет: а) один красный шар; б) менее 2-х красных шаров. Решение. а) Пусть событиеА– среди двух извлеченных шаров – ровно один красный. Это событие наступает тогда и только тогда, когда первый из извлеченных шаров – красный, а второй – белый или первый шар – белый, а второй – красный. Напомним, что соединительный союз “или” соответствует сложению событий, союзы “и”, “а” соответствуют умножению событий. Тогда описание всех возможностей наступления событияАравносильно следующему формальному равенству ∫ =‍ где ‍ ‍ 1 1√ 2 (‍ 2) и √ 1‍ 1√ 2 + √ 1‍ 2, – первый (второй) шар – красный, √ 1 ( √ 2 ) – первый (второй) шар – белый. События 2 – несовместны, поэтому, используя теорему сложения вероятностей для несовмест- ных событий, получаем Ⅲ(∫ ) = Ⅲ(‍ 1√ 2 ) + Ⅲ(√ 1‍ 2). Применяя теперь теорему умножения вероятностей, приходим к равенству ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Ⅲ(∫ ) = Ⅲ(‍ 1 )Ⅲ‍ 1 (√ 2 ) + Ⅲ(√ 1 )Ⅲ√ 1 (‍ 2). Для вычисления вероятностей из правой части последнего равенства используем классическое определение вероятности. Тогда Ⅲ( ∫ ) = 6 4 4 6 8 ⋅ + ⋅ = . 10 9 10 9 15 б) Пусть m – число красных шаров среди двух извлеченных. Тогда искомой является вероятность Ⅲ( m < 2). Очевидно, что ( m < 2) = ( m = 0) + ( m = 1) , и P ( m = 1) = P ( A ) (см. п. а) данного примера). Вместе с тем, событие ( m = 0) – среди извлеченных шаров нет красных – равносильно тому, что первый шар окажется белым и второй – также белым, т.е. ( m = 0) = √ 1√ 2 , поэтому P ( m = 0) = Ⅲ(√ 1√ 2 ) = Ⅲ(√ 1 )Ⅲ√ 1 (√ 2 ) = 4 3 2 ⋅ = . 10 9 15 Окончательно имеем Ⅲ( m < 2) = P ( m = 0) + P ( m = 1) = 2 8 10 2 + = = . 15 15 15 3 Заметим, что вероятность Ⅲ( m < 2) может быть также найдена по-другому. События ( m < 2) и ( m = 2) взаимно противоположны, поэтому Ⅲ( m < 2) = 1 − Ⅲ( m = 2). Но Ⅲ( m = 2) = P ( ‍ 1 ‍ 2 ) = Ⅲ( ‍ 1 )Ⅲ‍ 1 ( ‍ 2 )= 6 5 1 ⋅ = . 10 9 3 Тогда Ⅲ( m < 2) = 1 − 1 2 = . 3 3 Домашнее задание (здесь и далее номера задач указаны по учебнику Н.Ш. Кремера “Теория вероятностей и математическая статистика”): 1.54, 1.58, 1.60, 1.61, 1.64, 1.69. 1.7. Формула полной вероятности. Формула Байеса (гипотез) Теорема. Пусть события ∫ 1 , A 2 ,..., A k образуют полную систему и F– некоторое собы- 14 15 Теория вероятностей тие. Тогда справедлива формула P (F ) = P ( A 1 )PA 1 (F ) + P ( A 2 )PA 2 (F ) + ... + P ( A k )PA k (F ) , которая и называется формулой полной вероятности. Пусть событие F отлично от невозможного, тогда PF ( A i ) = Ⅲ( ∫ i )PA i (F ) P (F ) , где i = 1,2,..., k . Данная формула называется формулой Байеса (гипотез). Пример. Объемы продукции, изготавливаемой двумя рабочими, относятся как 3:2. Вероятности брака для деталей первого и второго рабочих равны соответственно 0,02 и 0,01. Найти вероятность того, что деталь, извлеченная наудачу из не рассортированной продукции, а) является бракованной; б) изготовлена первым рабочим, если известно, что она бракована. Решение. а) Введем в рассмотрение события: ∫ 1 – деталь изготовлена первым рабочим, ∫ 2– деталь изготовлена вторым рабочим, F – деталь бракована. Из условия следует, что всю продукцию можно предполагать состоящей из 5-ти частей (3+2=5), причем на долю первого рабочего приходится 3 части из этих 5-ти, на долю второго – 2 части. Тогда, по классическому определению вероятности, Ⅲ( ∫ 1 ) = 3 5 , Ⅲ(∫ 2 ) = 2 5 . По условию, Ⅲ∫ 1 (F ) = 0,02, Ⅲ∫ 2 (F ) = 0,01, и по формуле полной вероятности получаем 3 2 P (F ) = P ( A 1 )PA1 (F ) + P ( A 2 )PA 2 (F ) = ⋅ 0,02 + ⋅ 0,01 = 0,016. , 5 5 б) PF ( A 1 ) = Ⅲ( ∫ 1 )PA1 (F ) P (F ) = 3 5 ⋅ 0,02 = 0,75. 0,016 Домашнее задание: 1.72, 1.75. Тема 2. Повторные независимые испытания 2.1. Формула Бернулли Сначала рассмотрим задачу – частный случай задач предыдущей темы. Наблюдение над решением позволит нам получить формулу, существенно упрощающую вычисления в аналогичных случаях. Пример. Предполагается произвести 4 выстрела по мишени. Вероятность попадания при каждом выстреле считается известной и равной 0,7. Найти вероятность того, что число попаданий в мишень будет: а) равно 2; ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» б) не менее 2-х; в) менее 4-х. Решение. а) Принципиально эта задача не отличается от задачи о двух стрелках из § 1.6 (повторные испытания и здесь независимы) и может быть решена тем же способом. Введем обозначения, которые ниже будем использовать в подобных случаях. Число выстрелов по мишени обозначим через n (здесь n = 4 ), p = 0,7 – вероятность попадания в мишень при каждом выстреле, q = 1 − p = 1 − 0,7 = 0,3 – вероятность промаха при каждом выстреле, m – число попаданий. Требуется найти P ( m = 2) , эту же вероятность обозначим через P2, 4 . Перебирая все случаи, в которых число попаданий в мишень будет равно 2, получаем P2, 4 = ppqq + pqpq + pqqp + qppq + qpqp + qqpp = = 6 p 2q 2 = 6 ⋅ 0,72 ⋅ 0,32 = 0,2646 . В общем случае справедлива Теорема. Пусть произведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вероятностью p. Тогда вероятность Ⅲm , n того, что в этих n испытаниях событие А наступит m раз, вычисляется по формуле Pm ,n = C nm p m q n −m , где C nm – число сочетаний изnпо m , q = 1 − p . Полученная формула носит название формулы Бернулли. Завершим рассмотрение нашего примера. б) Так как ( m ≥ 2) = ( m = 2) + ( m = 3) + ( m = 4), то, применяя теорему сложения вероятностей для несовместных событий, получаем P ( m ≥ 2) = P ( m = 2) + P ( m = 3) + P ( m = 4) = P2, 4 + P3, 4 + P4, 4 . Первое слагаемое последней суммы найдено в п. а) данного примера. Аналогично для остальных: P3, 4 = C 43 p 3q 1 = 4! ⋅ 0,7 3 ⋅ 0,3 = 4 ⋅ 0,7 3 ⋅ 0,3 = 0,4116, 3!⋅1! P4, 4 = C 44 p 4q 0 = Окончательно имеем 4! ⋅ 0,7 4 ⋅ 0,3 0 = 1 ⋅ 0,7 4 ⋅ 1 = 0,2401. 4!⋅0! 16 17 Теория вероятностей P ( m ≥ 2) = 0,2646 + 0,4116 + 0,2401 = 0,9163. в) По аналогии с предыдущим пунктом задания, P ( m < 4) = P0, 4 + P1, 4 + P2, 4 + P3, 4 , т.е. решение требует, вообще говоря, четырех применений формулы Бернулли. Однако возможно и более короткое решение. Действительно, события ( m < 4) и ( m = 4) – взаимно противоположны, следовательно P ( m < 4) = 1 − P ( m = 4). Вероятность P ( m = 4) = P 4, 4 найдена в п. б) примера. Таким образом, получаем P ( m < 4) = 1 − P4, 4 = 1 − 0,2401 = 0,7599. Домашнее задание:2.15, 2.16, 2.18. 2.2. Формула Пуассона (редких событий) Теорема. Пусть произведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вероятностью p, причем а) число испытаний достаточно велико ( n ≥ 100) ; б) λ = np ≤ 10. Тогда вероятность Ⅲm , n того, что в этих n испытаниях событие А наступит m раз, вычисляется по следующей приближенной формуле Pm ,n = λm m! e −λ . Эта формула и называется формулой Пуассона (редких событий). Пример. По каналу связи передано 1000 сигналов. Вероятность ошибки при передаче каждого из сигналов равна 0,005. Найти вероятность того, что неверно передано: а) 7 сигналов; б) не менее 4-х сигналов. Решение. а) Воспользуемся формулой Пуассона, т.к. условия ее применимости в данном слу- 18 ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» чае выполнены: число испытаний достаточно велико ( n = 1000 ≥ 100) и λ = np = 1000 ⋅ 0,005 = 5 ≤ 10. Искомое значение P7,1000 найдем по таблице функции Пуассона при m = 7 и λ = 5 (см. учебник Н.Ш. Кремера, с.556): P7,1000 = 0,1045. б) Требуется найти P ( m ≥ 4) , где m– число неверно принятых сигналов. Так как ( m ≥ 4) = ( m = 4) + ( m = 5) + ... + ( m = 1000), то P ( m ≥ 4) = P4,1000 + P5,1000 + ... + P1000 ,1000 . Искать каждое из слагаемых этой суммы и затем выполнять суммирование – такое решение не представляется рациональным из-за большого числа слагаемых и потому, что таблица функции Пуассона не дает искомых значений с требуемой в данном случае точностью. Воспользуемся переходом к противоположному событию: P ( m ≥ 4) = 1 − P ( m < 4) = 1 − ( P0,1000 + P1,1000 + P2,1000 + P3,1000 ). Находя вероятности из правой части последнего равенства по таблице функции Пуассона, окончательно получаем P ( m ≥ 4) = 1 − (0,0067 + 0,0337 + 0,0842 + 0,1404) = 0,735. Домашнее задание:2.20, 2.22б. 2.3. Локальная теорема Муавра-Лапласа Теорема. Пусть произведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вероятностью p, причем число испытаний достаточно велико ( n ≥ 100) .Тогда вероятность Ⅲm , n того, что в этих n испытаниях событие А наступит m раз, вычисляется по следующей приближенной формуле Ⅲm ,n = где f ( x ) = 1 2π ⋅ e −x 2 2 – функция Гаусса, x = f (x ) npq m − np npq , , q = 1− p. Пример. Имеется партия деталей, состоящая из 1000 штук. В среднем среди деталей такого вида стандартные детали составляют 90%. Найти вероятность того, что число стандартных деталей в данной партии окажется равным 890. Решение. Число испытаний в данном случае достаточно велико ( n = 1000 ≥ 10 ) , поэтому локальная теорема Муавра-Лапласа применима. Из условия следует, что вероятность быть стандартной для произвольной детали данной партии равна p= 90 = 0,9 , q = 1 − p = 1 − 0,9 = 0,1, m = 890 . Тогда 100 19 Теория вероятностей y x = m − np npq = 890 − 1000 ⋅ 0,9 1000 ⋅ 0,9 ⋅ 0,1 = −1,05. y = По локальной теореме Муавра-Лапласа, Ⅲ890,1000 = f (−1,05) 1000 ⋅ 0,9 ⋅ 0,1 1 2π e −x . 2 2 x Рис.1 Учитывая, что функция Гаусса четная, используя таблицу этой функции (см. учебник Н.Ш. Кремера, с. 553-554), находим f ( −1,05) = f (1,05) = 0,2299. Окончательно, получаем Ⅲ890,1000 = 0,2299 1000 ⋅ 0,9 ⋅ 0,1 = 0,0242. Свойства функции Гаусса. 1) Функция Гаусса четна: f ( −x ) = f ( x ) , поэтому ее график симметричен относительно оси O y ; 2) f ( x ) > 0 при всех x , т.е. график y = f (x ) расположен строго выше оси O x ; 3) lim f (x ) = lim f (x ) = 0 , т.е. ось O x явn →+∞ n →−∞ ляется горизонтальной асимптотой графика этой функции; на практике полагаем f (x ) ≈ 0 ĭ ǃ ⅺ x > 5 . Схематично график функции Гаусса изображен на рис. 1. Домашнее задание. 2.21а, 2.25, 2.27а. 2.4. Интегральная теорема Муавра-Лапласа Теорема. Пусть произведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вероятностью p, причем число испытаний достаточно велико ( n ≥ 100) .Тогда вероятность того, что число m наступлений события А в этих n испытаниях будет заключено в границах от m 1 до m 2 , вычисляется по следующей приближенной формуле P (m 1 ≤ m ≤ m 2 ) = 1 ⎛⎜ ⎛⎜ m 2 − np Φ 2 ⎜ ⎜⎝ npq ⎝ ⎞ ⎛ ⎟ − Φ⎜ m 1 − np ⎟ ⎜ npq ⎠ ⎝ ⎞⎞ ⎟ ⎟, ⎟⎟ ⎠⎠ y 1 где Φ( x ) = 2 2π ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» y = Φ(x ) +∞ ∫e −x 2 2 dx – функция Лапласа, x q = 1− p . Пример. Каждая из 1000 деталей партии стандартна с вероятностью 0,9. Найти вероятность -1 того, что число стандартных деталей этой партии будет не меньше 880. Решение. Число nповторных независимых испытаний в данном случае равно числу деталей в Рис. 2 партии (каждая из деталей партии будет проверяться на предмет качества, а в этой проверке и состоит испытание). n = 1000 ≥ 100, поэтому интегральная теорема Муавра-Лапласа применима; неравенство ( m ≥ 880) , где (880 ≤ m ≤ 1000), m – число стандартных деталей в партии, здесь равносильно поэтому m 1 = 880, m 2 = 1000; p = 0,9, q = 1 − p = 1 − 0,9 = 0,1; np = 1000 ⋅ 0,9 = 900; npq = 1000 ⋅ 0,9 ⋅ 0,1 = 90. Тогда ⎛ 880 − 900 ⎞ ⎞ 1 ⎛ ⎛ 1000 − 900 ⎞ ⎟⎟ − Φ⎜⎜ ⎟⎟ ⎟⎟ = P (880 ≤ m ≤ 1000) = ⎜⎜ Φ⎜⎜ 2⎝ ⎝ 90 90 ⎠ ⎝ ⎠⎠ = 1 (Φ(10,5) − Φ(− 2,11)). 2 По свойствам функции Лапласа (см. ниже), Φ(10,5) = 1 , Φ( −2,11) = −Φ(2,11). По таблице функции Лапласа (см. учебник Н.Ш. Кремера, с. 555) находим Φ(2,11) = 0,9651. Тогда окончательно имеем 1 1 P (880 ≤ m ≤ 1000) = (1 + Φ(2,11)) = (1 + 0,9651) = 0,9826. 2 2 Свойства функции Лапласа 1. Функция Лапласа нечетна: Φ( −x ) = −Φ( x ). 2. Функция Лапласа – монотонно возрастающая; 3. lim Φ( x ) = 1, lim Φ(x ) = −1, т.е. n →+∞ n →−∞ прямые y = 1 и y = −1 являются горизонтальными асимптотами (правой и левой соответственно) графика y = Φ(x ) ; на практике полагаем Φ( x ) ≈ 1 при x ≥ 4. График функции Лапласа схематично изображен на рис. 2. Следствия из интегральной теоремы Муавра-Лапласа 20 21 Теория вероятностей Пусть выполнены условия применимости интегральной теоремы Муавра-Лапласа. Следствие 1. Вероятность того, что число m наступлений события А в n повторных независимых испытаниях будет отличаться от величины np не более чем на ε (по абсолютной величине), вычисляется по формуле ⎛ ε ⎞ ⎟. P ( m − np ≤ ε ) = Φ⎜ ⎜ npq ⎟ ⎝ ⎠ Следствие 2. Вероятность того, что доля m n наступлений события А в n повторных независимых испытаниях будет отличаться от вероятности p наступления этого события в одном испытании не более чем на Δ (по абсолютной величине), вычисляется по формуле ⎛Δ n ⎛m ⎞ P ⎜⎜ − p ≤ Δ ⎟⎟ = Φ⎜ ⎜ pq ⎝ n ⎠ ⎝ ⎞ ⎟. ⎟ ⎠ Пример. Подлежат исследованию 1000 проб руды. Вероятность промышленного содержания металла в каждой пробе равна 0,15. Найти границы, в которых с вероятностью 0,9973 будет заключено число проб руды с промышленным содержанием металла. Решение. Искомые границы для числа m проб руды с промышленным содержанием металла (из данных 1000 проб) определяются величинами m 1 и m 2 (см. интегральную теорему МуавраЛапласа). Будем предполагать, что искомые границы симметричны относительно величины np , где n = 1000 и p = 0,15 . Тогда m 1 = np − ε , m 2 = np + ε для некоторого ε ≥ 0 , и, тем самым, единственной определяющей неизвестной данной задачи становится величина ε . Из следствия 1 и условия задачи следует, что ⎛ ε ⎞ ⎟ = 0,9973. Φ⎜ ⎜ npq ⎟ ⎝ ⎠ По таблице значений функции Лапласа найдем такое t , что Φ(t ) = 0,9973 : t = 3. Тогда npq = 3 и ε = 3 ⋅ npq = 3 ⋅ 1000 ⋅ 0,15 ⋅ 0,85 ≅ 33,8748 ≅ 34 . Окончательно получаем искомые границы: np − ε = 1000 ⋅ 0,15 − 34 = 150 − 34 = 116, np + ε = 150 + 34 = 184, т.е. с веро- ε ятностью 0,9973 число проб руды с промышленным содержанием металла (из данных 1000 проб) попадет в интервал (116; 184). Пример. В лесхозе приживается в среднем 80% саженцев. Сколько саженцев надо посадить, чтобы с вероятностью 0,9981 можно было утверждать, что доля прижившихся саженцев будет находиться в границах от 0,75 до 0,85. Решение. p = 80 100 = 0,8 – вероятность прижиться для каждого из саженцев, q = 1 − p = 1 − 0,8 = 0,2 . Пусть n – необходимое число саженцев (искомая величина данной задачи) ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» и m – число прижившихся из них, тогда m n – доля прижившихся саженцев. По условию, m ⎛ ⎞ P ⎜ 0,75 ≤ ≤ 0,85 ⎟ = 0,9981. n ⎝ ⎠ Данные границы для доли m n симметричны относительно величины p = 0,8 , поэтому неравенство 0,75 ≤ m n ≤ 0,85 равносильно неравенству m n − 0,8 ≤ 0,05. Следовательно, вероятность 0,9981 – это та самая вероятность, которая вычисляется по следствию 2 из интегральной теоремы Муавра-Лапласа при Δ = 0,05 , p = 0,8, q = 0,2 : ⎛ 0,05 n ⎞ ⎛m ⎞ ⎟ = 0,9981. P ⎜⎜ − 0,8 ≤ 0,05 ⎟⎟ = Φ⎜ ⎜ ⎟ n ⎝ ⎠ ⎝ 0,8 ⋅ 0,2 ⎠ По таблице функции Лапласа найдем такое значение t , что Φ(t ) = 0,9981. Это значение: t = 3,1. Тогда 0,05 n 0,8 ⋅ 0,2 = 3,1, n = 3,1 ⋅ 0,8 ⋅ 0,2 0,05 и n= 3,12 ⋅ 0,8 ⋅ 0,2 = 615,04 ≅ 616. 0,05 2 Заметим, что значение n округлено до целых в большую сторону, чтобы обеспечить, как говорят, “запас по вероятности”. Кроме того, видно, что полученное значение n достаточно велико (более 100), поэтому применение интегральной теоремы Муавра-Лапласа для решения данной задачи было возможно. Тема 3. Дискретная случайная величина 3.1. Закон распределения дискретной случайной величины Определение. Случайной величиной называется переменная, которая в результате испытания принимает то или иное числовое значение. Пример. Число попаданий в мишень при n выстрелах – случайная величина. Пример. Рост наудачу взятого человека – случайная величина. Определение. Случайная величина называется дискретной, если число ее возможных значений конечно или счетно. (Напомним, что множество называется счетным, если его элементы можно перенумеровать натуральными числами.) В этом смысле, число попаданий в мишень – пример дискретной случайной величины. Рост челове- 22 23 Теория вероятностей ка – непрерывная случайная величина (такие случайные величины будут рассмотрены ниже). Для обозначения случайных величин будем использовать заглавные буквы латинского алфавита (возможно с индексами), например, X ,Y , Z ,..., X 1 ,Y 2 , Z 3 ,... и т.п. Определение. Законом распределения дискретнойслучайной величины называется такая таблица, в которой перечислены все возможные значения этой случайной величины (без повторений) с соответствующими им вероятностями. В общем виде закон распределения для случайной величины, например, X : X : ( xi x1 x2 … xk pi p2 p2 … pk ) где p i = P X = x i , i = 1, 2, ..., k . Из определения закона распределения следует, что события ( X = x 1 ), ( X = x 2 ), … , ( X = x k ) образуют полную систему, поэтому (см. следствие из теоремы сложения вероятностей для несовместных событий в §1.6): P (X = x 1 ) + P (X = x 2 ) + ... + P (X = x k ) = 1, т.е. p 1 + p 2 + ... + p k = 1. Данное равенство называется основным свойством закона распределения. Пример. Два стрелка одновременно выстреливают в мишень. Вероятность попадания для первого равна 0,6, для второго – 0,8. Составить закон распределения случайной величины Z – общего числа попаданий в мишень. Решение. Возможные значения данной случайной величины: 0, 1, 2. Так же как в примере из §1.6, через B 1 и B 2 обозначим события, состоящие в попадании в мишень первого и второго стрелков (соответственно). Тогда аналогично упомянутому примеру получаем P ( Z = 0) = P (B 1 )P (B 2 ) = (1 − 0,6) ⋅ (1 − 0,8) = 0,4 ⋅ 0,2 = 0,08, ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» P ( Z = 1) = P (B 1 )P (B 2 ) + P (B 1 )P (B 2 ) = 0,6 ⋅ 0,2 + 0,4 ⋅ 0,8 = 0,44, P (Z = 2) = P (B 1 )P (B 2 ) = 0,6 ⋅ 0,8 = 0,48. Окончательно, закон распределения случайной величины Z имеет вид: Z : zi 1 2 ∑ pi 0,08 0,44 0,48 1 Упражнение. В коробке 3 белых шара и 2 красных. Составить закон распределения случайной величины X – числа белых шаров среди 2-х извлеченных шаров. Ответ. X : xi 1 2 ∑ pi 0,1 0,6 0,3 1 Пример. В коробке – 3 белых шара и 2 красных. Шары извлекаются последовательно до появления белого шара. Составить закон распределения случайной величины Х – числа извлеченных шаров. Решение. Возможные значения данной случайной величины: 1, 2, 3. Событие ( X = 1) (из коробки будет извлечен один единственный шар) наступает тогда и только тогда, когда первый из шаров оказывается белым, т.к. появление именно белого шара является сигналом к прекращению последующих извлечений (см. условие). Поэтому 3 Ⅲ( Ⅷ= 1) = Ⅲ(√ 1 ) = , 5 где событие √ 1 – первый из извлеченных шаров – белый. Событие ( X = 2) (из коробки будет извлечено ровно 2 шара) наступает тогда и только тогда, когда первый из извлеченных шаров оказывается красным, а второй – белым. Поэтому Ⅲ( Ⅷ= 2) = Ⅲ( ‍ где событие ‍ 1 1 √ 2 ) = Ⅲ( ‍ 1 )Ⅲ‍ 1 (√ 2 ) = 2 3 3 ⋅ = , 5 4 10 – первый из извлеченных шаров – красный, √ 2 – второй шар – белый. Наконец событие ( X = 3) (из коробки будет извлечено 3 шара) наступает тогда и только тогда, когда первый шар – красный, второй – красный и третий – белый. Поэтому 24 25 Теория вероятностей Ⅲ( Ⅷ= 3) = Ⅲ( ‍ 1 ‍ 2 √ 3 ) = Ⅲ( ‍ 1 )Ⅲ‍ 1 ( ‍ 2 )Ⅲ‍ 1‍ 2 (√ 3 ) = 2 1 3 1 ⋅ ⋅ = . 5 4 3 10 Окончательно искомый закон распределения имеет вид: Х: xi 1 2 3 ∑ pi 0,6 0,3 0,1 1 Упражнение. Имея 3 патрона, стрелок стреляет по мишени до первого попадания (или до израсходования патронов). Вероятность попадания при каждом выстреле равна 0,8. Составить закон распределения случайной величины Х – числа произведенных выстрелов. Ответ. Х: xi 1 2 3 ∑ pi 0,8 0,16 0,04 1 Пример. Стрелок стреляет в мишень 3 раза. Вероятность попадания при каждом выстреле равна 0,8. Составить закон распределения случайной величины Х – числа попаданий в мишень. Решение. Возможные значения для числа попаданий: 0, 1, 2, 3. Вероятности того, что случайная величина Х примет эти значения вычисляются по формуле Бернулли при n = 3, p = 0,8, q = 0,2 : P (X = 0) = P0,3 = C 30 p 0q 3 = 1 ⋅ 1 ⋅ 0,23 = 0,008, P (X = 1) = P1,3 = C 31 p 1q 2 = 3 ⋅ 0,8 ⋅ 0,2 2 = 0,096, P (X = 2) = P2,3 = C 32 p 2q 1 = 3 ⋅ 0,82 ⋅ 0,21 = 0,384, P (X = 3) = P3,3 = C 33 p 3q 0 = 1 ⋅ 0,83 ⋅ 0,2 0 = 0,512. Окончательно искомый закон распределения имеет вид: Х: xi 1 2 3 ∑ pi 0,008 0,096 0,384 0,512 1 ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Полученный закон распределения является частным случаем так называемого биномиального закона распределения (при n = 3, p = 0,8 ). Определение. Случайная величина Х имеет биномиальный закон распределения с параметрами n и p , если ее закон распределения имеет вид: Х: xi 1 2 … n , pi P 0,n P1,n P 2,n P n ,n … где вероятности P m , n вычисляются по формуле Бернулли: Pm ,n = C nm p m q n −m , n – положительное целое число, m = 0,1, 2, ..., n , 0 < p < 1. В пределе при n → ∞ и λ = np = const биномиальное распределение переходит в так называемое распределение Пуассона. Определение. Говорят, что случайная величина Х имеет распределение Пуассона с параметром λ , если ее закон распределения имеет вид: Х: xi 1 2 … , pi P1 P0 P2 … где Pm = λm m! e −λ , m = 0,1, 2,!, λ – положительное число. Убедимся в том, что для распределения Пуассона выполняется основное свойство закона ∞ распределения: ∑ Pm = 1 . Действительно, имеем m =0 26 27 Теория вероятностей ∞ ∑ Pm = m =0 λ0 0! e −λ + λ1 1! e −λ + λ2 2! e −λ + λ3 ⎛ ⎞ λ2 λ3 e −λ + ... = ⎜⎜1 + λ + + + ... ⎟⎟ ⋅ e −λ = e λ ⋅ e −λ = 1 3! 2! 3! ⎝ ⎠ (см. курс математического анализа, разложение функции y = e x в ряд Маклорена). Домашнее задание. 3.25, 3.31, 3.36, 3.40, 3.45. 3.2. Арифметические операции над случайными величинами Определение. Случайные величины Х и Y называются равными, если их законы распределения точно совпадают, и для произвольного числа α справедливо равенство: ( X = α ) = (Y = α ). Пример. Пусть законы распределения случайных величин Х и Yимеют вид: X: xi Y: 1 yi 1 . pi 0,5 0,5 0,5 pi 0,5 Эти случайные величины равны, если дополнительно справедливы равенства ( X = 0) = (Y = 0) и ( X = 1) = (Y = 1) , т.е. случайная величина Х принимает значение 0 тогда и только тогда, когда случайная величина Y принимает значение 0, и аналогично со значением 1. Произвольная случайная величина допускает умножение на число. Действительно, пусть закон распределения случайной величины Х имеет вид: X : xi x1 x2 … xk pi p2 p2 … pk и α – некоторое число. Определение. Случайной величиной Y = α ⋅ X называется такая случайная величина, закон распределения которой имеет вид : Y : yi α ⋅x1 α ⋅x 2 … α ⋅xk ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» pi p2 … p2 pk Пример. Пусть закон распределения случайной величины Х имеет вид: Х: xi pi 1 2 0,16 0,48 0,36 5 10 0,16 0,48 0,36 и α = 5 , Y = α ⋅ X . Тогда закон распределения Y : Y : yi pi Можно придумать, например, следующую интерпретацию данному примеру. Заметим, что Х – биномиально распределена с параметрами n = 2, p = 0,6 . Пусть Х – число попаданий в мишень при 2-х выстрелах, при каждом из которых попадание случается с вероятностью 0,6, и дополнительно известно, что за каждое попадание стрелку выплачивается вознаграждение в размере 5 ден. ед. Тогда Y– заработок стрелка. Определение. Случайные величины Х и Y называются независимыми, если для любых i и j события ( X = x i ) и (Y = y j ) – независимы. Пример. Пусть из коробки, в которой – 6 белых и 8 красных шаров, извлекается 1 шар. Рассмотрим случайные величины Х – число белых шаров, Y– число красных шаров из извлеченных. События, например, ( X = 1) и (Y = 1) – несовместны, а поэтому – зависимы (см. § 1.6). Следовательно, и случайные величины Х и Y зависимы. Определение. Суммой (разностью, произведением) случайных величин Х и Y называется такая случайная величина Z = X + Y ( Z = X −Y , Z = X ⋅Y ), которая принимает значение z k в некотором испытании, если значения x i и y j случайных величин Х и Y в этом испытании таковы, что z k = x i + y j ( z k = x i − y j , z k = x i ⋅ y j ). Пример. Пусть заданы законы распределения независимых случайных величин Х и Y: 28 29 Теория вероятностей Х: xi 1 pi 0,4 0,6 Y: y j pj 1 0,2 0,8 Составить закон распределения случайной величины U = X −Y . Решение. Удобно использовать вспомогательную таблицу вида: y j xi 1 1 1 –1 в каждой из центральных клеток которой записаны соответствующие произведения случайных величин XиY. Такая таблица показывает, какие значения принимает случайная величина Uи когда она принимает эти значения. Так U = 0 тогда и только тогда, когда X = 0 и Y = 0 или X = 1 и Y = 1 . Поэтому P (U = 0) = P ((X = 0)(Y = 0) + ( X = 1)(Y = 1)) . Применяя теорему сложения вероятностей для несовместных событий, теорему умножения вероятностей – для независимых событий (по условию, случайные величины X и Y – независимы), получаем P (U = 0) = P ( X = 0)P (Y = 0) + P ( X = 1)P (Y = 1) = 0,4 ⋅ 0,2 + 0,6 ⋅ 0,8 = 0,56. Для наступления каждого из двух оставшихся значений случайной величины U (-1 и 1) имеется по одной возможности. Например,U = 1 тогда и только тогда, когда X = 1 и Y = 0 . Тогда получаем: P (U = 1) = P ((X = 1)(Y = 0)) = P ( X = 1)P (Y = 0) = 0,6 ⋅ 0,2 = 0,12. Аналогично, P (U = −1) = P ((X = 0)(Y = 1)) = P ( X = 0)P (Y = 1) = 0,4 ⋅ 0,8 = 0,32. Окончательно, закон распределения случайной величины Uимеет вид: U: ui pi –1 1 0,32 0,56 0,12 ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Упражнение. Составить законы распределения случайных величин Z = X +Y ,V = X ⋅Y , W = X 2 , R = (X −Y ) 2 . Ответ. Z: V: zi 1 2 pi 0,08 0,44 0,48 W: wi 1 pi 0,4 0,6 R: vi 1 pi 0,52 0,48 ri 1 pi 0,56 0,44 Заметим, что закон распределения случайной величины Z фактически найден в примере § 3.1 о двух стрелках. Действительно, исходные независимые случайные величины XиYданной задачи могут быть интерпретированы как числа попаданий в мишень первого и второго стрелка из § 3.1. Тогда Z = X +Y – общее число попаданий, и закон распределения этой случайной величины и найден в упомянутом примере. 3.3. Параметры распределения дискретной случайной величины Пусть закон распределения дискретной случайной величины Х имеет вид X : xi x1 x2 … xk pi p2 p2 … pk Определение. Математическим ожиданием дискретной случайной величины Х называется число М(Х),вычисляемое по формуле k M ( X ) = ∑ x i p i = x 1 p 1 + x 2 p 2 + ... + x k p k . i =1 Математическое ожидание случайной величиныесть число около которого группируются значения этой случайной величины. 30 31 Теория вероятностей Механическим аналогом математического ожидания дискретной случайной величины является центр масс (центр тяжести) системы точечных масс: если в точках числовой оси с абсциссами x 1 , x 2 , ..., x k расположены точечные массы p 1 , p 2 , ..., p k , то абсцисса их центра масс находится точно по формуле для M (X ) , приведенной выше. Пример. Пусть случайная величина Х биномиально распределена с параметрами n = 3 и p = 0,8 (см. пример из § 3.1): Х: xi 1 2 3 pi 0,008 0,096 0,384 0,512 Тогда M ( X ) = 0 ⋅ 0,008 + 1 ⋅ 0,096 + 2 ⋅ 0,384 + 3 ⋅ 0,512 = 2,4. Свойства математического ожидания 1. Математическое ожидание постоянной случайной величины равно самой постоянной, т.е. М(С)=С, где С– некоторое число. (Постоянной случайной величинойС называется такая случайная величина, которая принимает единственное значение равное С с вероятностью 1.) 2. Постоянный множитель можно выносить за знак математического ожидания, т.е. M (αX ) = αM ( X ), где α – произвольное число. 3. Математическое ожидание суммы (разности) случайных величин равно сумме (разности) математических ожиданий этих случайных величин, т.е. M ( X ±Y ) = M ( X ) ± M (Y ). 4. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий, т.е. M ( XY ) = M ( X )M (Y ). 5. Пусть X 1 , X 2 , ..., X n – такие случайные величины, математические ожидания которых ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» равны между собой, т.е. M ( X i ) = a, где i = 1, 2, ..., n , и а – некоторое число. Тогда среднее арифметическое этих случайных величин равно их общему математическому ожиданию, т.е. ⎛ X + X 2 + ... + X M⎜ 1 n ⎝ n ⎞ ⎟ = a. ⎠ Заметим, что свойства 2 – 5 математического ожидания остаются справедливыми также для непрерывных случайных величин. Пусть закон распределения случайной величины Х тот же, что и выше (см. начало параграфа). Определение. Дисперсией дискретной случайной величины Х называется число D (X ), определяемое равенством k D (X ) = ∑ (x i − M (X ))2 p i = ( x 1 − M ( X ))2 p 1 + (x 2 − M (X ))2 p 2 + ... + i =1 + ( x k − M ( X )) 2 p k . Число D (X ) является мерой разброса значений случайной величины Х около ее математического ожидания. Пример. Пусть случайная величина Х биномиально распределена с параметрами n = 3 и p = 0,8 . Найдем дисперсию этой случайной величины. В предыдущем примере найдено, что М(Х) = 2,4. Тогда D (X ) = (0 − 2,4) 2 ⋅ 0,008 + (1 − 2,4) 2 ⋅ 0,096 + (2 − 2,4) 2 ⋅ 0,384 + (3 − 2,4) 2 ⋅ 0,512 = 0,48. Свойства дисперсии 1. Дисперсия постоянной случайной величины равна нулю, т.е. D (C ) = 0. 2. Постоянный множитель можно выносить за знак дисперсии, возводя его при этом в квадрат, т.е. D (αX ) = α 2 D (X ), 32 33 Теория вероятностей где α – произвольное число. 3. Справедливо равенство: D (X ) = M (X 2 ) − M 2 (X ). 4. Дисперсия суммы (разности) двух независимых случайных величин равна сумме дисперсий этих случайных величин, т.е. D ( X ±Y ) = D ( X ) + D (Y ), где случайные величины Х и Y– независимы. 5. Пусть случайные величины X 1 , X 2 , ... , X n – независимы и D ( X i ) = σ 2 , где i = 1, 2, ... , n . Тогда ⎛ X + X 2 + ... + X D⎜ 1 n ⎝ n ⎞ σ2 . ⎟= ⎠ n Замечание. D (X ) называется средним квадратическим отклонением случайной величины Х и обычно обозначается через σ . Отметим также, что свойство 3 дисперсии более удобно для ее вычисления по сравнению с исходным определением дисперсии. Пример. Пусть закон распределения случайной величины Х имеет вид X: xi 1 2 pi 0,6 0,4 Найти D (X ), используя свойство 3 дисперсии. Решение. M (X ) = 1 ⋅ 0,6 + 2 ⋅ 0,4 = 1,4, M (X 2 ) = 12 ⋅ 0,6 + 2 2 ⋅ 0,4 = 2,2, D (X ) = M (X 2 ) − M 2 (X ) = 2,2 − 1,4 2 = 0,24. Математическое ожидание и дисперсия случайной величины называются параметрами распределения этой случайной величины. ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Теорема. Пусть случайная величина X ≡ m – биномиально распределена с параметрами n и p, тогда параметры ее распределения могут быть найдены по формулам: M ( m ) = np , D ( m ) = npq . ⎛m ⎞ M ⎜ ⎟ = p, ⎝n ⎠ ⎛ m ⎞ pq D⎜ ⎟= . ⎝n ⎠ n Также справедливы равенства Пример. Пусть случайная величина Х биномиально распределена с параметрам n = 3 и p = 0,8 . Тогда M ( X ) = np = 3 ⋅ 0,8 = 2,4, D ( m ) = npq = 3 ⋅ 0,8 ⋅ 0,2 = 0,48. Очевидно, что использование формул последней теоремы упрощает и ускоряет вычисление математического ожидания и дисперсии биномиально распределенной случайной величины по сравнению с применением исходных определений для М(Х) и D (X ). 3.4. Функция распределения дискретной случайной величины Определение. Функцией распределения случайной величины Х называется такая функция F (x ), значение которой в точке x численно равно вероятности того, что в произвольном испытании значение случайной величиныХ окажется меньше чем х, т.е. F ( x ) = P ( X < x ). Данное определение задает функцию распределения не только для дискретных, но и для непрерывных случайных величин. Пример. Пусть закон распределения случайной величины Х имеет вид X: xi 1 2 pi 0,3 0,7 Найти функцию распределения этой случайной величины. Решение. Найдем сначала F(x) для некоторых значений переменной х. Например, F (0) = P ( X < 0) = P (∅) = 0, так как данная случайная величина не имеет значений меньших нуля, а потому событие (Х < 0) для нее является невозможным. Аналогично, при любом значении переменной х, которое менее или 34 35 F(x) 1 Теория вероятностей равно 1,будем иметь F ( x ) = 0. Далее имеем: F (1,5) = P ( X < 1,5) = P ( X = 1) = 0,3. 0,7 0,3 Аналогично, при любом значении переменной х таком, что 1 < x ≤ 2 ,будем иметь F ( x ) = 0,3. F (2,5) = P ( X < 2,5) = P ( X = 1) + P ( X = 2) = 0,3 + 0,7 = 1. 0,3 x (Или, другими словами, так как все значения данной случайной величины менее 2,5, то событие (Х< 1 2 2,5) является достоверным, а потому его вероятность равна 1.) Аналогично, при любом значении пеРис. 3 ременной х, которое более или равно 2,будем иметь F ( x ) = 1. Окончательно имеем: ⎧0 ĭ ǃ ⅺ x ≤ 1; ⎪ F ( x ) = ⎨0,3 ĭ ǃ ⅺ 1 < x ≤ 2; ⎪1 ĭ ǃ ⅺ x > 2. ⎩ График найденной функции распределения изображен на рис. 3. Свойства функции распределения 1. Функция распределения является неубывающей функцией. 2. Область значений: 0 ≤ F ( x ) ≤ 1. 3. Асимптотические свойства: lim F (x ) = 0, lim F (x ) = 1 (другими словаx →−∞ x →+∞ ми, прямые у =0 и у =1 являются асимптотами (левой и правой соответственно) графика y=F(x) ). 4. Вероятность того, что в произвольном испытании значение случайной величины Х будет принадлежать полуинтервалу α , β ), где α и β – произвольные числа, вычисляется по формуле P (α ≤ X < β ) = F ( β ) − F (α ) . [ Доказательство. Значение функции распределения равна вероятности соответствующего собы- [ ] тия, но область значений вероятности есть отрезок 0,1 – тем самым доказано свойство 2. Используя определение функции распределения, получаем lim F (x ) = lim P (X < x ) = P (X < −∞) . Но произвольное значение случайной величины при- x →−∞ x →−∞ надлежит числовой прямой, поэтому событие ( X < −∞) является невозможным. Вероятность не- ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» y возможного события равна нулю (см. § 1.3), поэтому lim F (x ) = 0. x →−∞ y = ϕ (x ) Аналогично, учитывая, что событие ( Ⅷ< +∞) является достоверным, а вероятность такого события равна lim F (x ) = 1. S ( ,1, получаем ) x →+∞ x α β α Нетрудно видеть, β что Рис. 4 ( Ⅷ< β ) = ( X < α ) + (α ≤ X < β ), причем события правой части этого равенства несовместны. Принимая во внимание определение функции распределения и теорему сложении вероятностей для несовместных событий, получаем F ( β ) = P ( X < β ) = P ( X < α ) + P (α ≤ X < β ) = F (α ) + P (α ≤ X < β ), что равносильно свойству 4. Доказательство свойства 1 мы оставляем читателю в качестве упражнения (указание: используйте рассуждении от противного и свойство 4). Тема 4. Непрерывная случайная величина 4.1. Плотность распределения непрерывной случайной величины Неформально говоря, случайная величина непрерывна, если ее значения полностью заполняют некоторый интервал. Более точно, справедливо Определение. Случайная величина называется непрерывной,если ее функция распределения непрерывна на всей числовой прямой и дифференцируема при всех х за исключением,быть может, отдельных значений. Определение. Плотностью распределения непрерывной случайной величины Х называется такая функция ϕ = ϕ (Lj), что вероятность того, что в произвольном испытании значение случайной величины Х окажется принадлежащим некоторому отрезку [α , β ], вычисляется по фор- муле β P (α ≤ X ≤ β ) = ∫ ϕ ( x ) dx . α Принимая во внимание геометрический смысл определенного интеграла, получаем Геометрический смысл плотности распределения. Вероятность того, что в произвольном испытании значение случайной величины Х окажется принадлежащим некоторому отрезку [α, β ], численно равна площади S (α , β ) под кривой плотности распределения на данном отрезке (см. рис. 4). Пример. Пусть плотность распределения случайной величины Х имеет 36 37 у Теория вероятностей вид: 12 ⎧1 2 ĭ ǃ ⅺ x ∈ [− 1, 1]; Dž ⅲⅽǏ ⅿǎ Lj DŽ ⅽdžNJ ⅲǒLj. ⎩0 ⅴ Ĭ DŽ ϕ ( Lj) = ⎨ -2 Найти вероятности:-1 х 1 -0,4 а) P ( −2 ≤ X ≤ −0,4) ; б) P ( X ≤ Рис. −3) ; 5в) P ( X ≥ −2). Решение. а)По определению плотности распределения, −0, 4 P ( −2 ≤ X ≤ −0,4) = ∫ ϕ (x )dx . −2 Вместе с тем, данная плотность распределения задана аналитически по-разному на промежутках [− 2, − 1) и [− 1;− 0,4] отрезка интегрирования. Соответственно, используя свойства определенного интеграла, получаем −0 , 4 P ( −2 ≤ X ≤ −0,4) = ∫ −2 −1 −0 , 4 1 ϕ ( x )dx = ∫ 0 dx + ∫ 1 2 dx = x 2 −2 −1 −0 , 4 −1 1 = ( −0,4 − ( −1)) = 0,3. 2 По геометрическому смыслу плотности распределения, полученная вероятность численно [ ] равна площади под кривой плотности распределения (см. рис. 5) на отрезке − 2; − 0,4 , т.е. равна площади фигуры, составленной из отрезка длины 1 и прямоугольника со сторонами 1 2 и 0,6. ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» б) Неравенство ( X ≤ −3) равносильно тому, что ( −∞ < X ≤ −3) . Учитывая, что на промежутке ( −∞; − 3) данная плотность распределения равна 0, получаем −3 P ( X ≤ −3) = P ( −∞ < X ≤ −3) = ∫ 0 dx = 0. −∞ в) Аналогично предыдущим пунктам задачи, имеем −1 +∞ 1 +∞ 1 P ( −2 ≤ X < +∞) = ∫ ϕ ( x )dx = ∫ 0 dx + ∫ 1 2 dx + ∫ 0 dx = x 2 −2 −2 −1 1 1 −1 1 = (1 − ( −1)) = 1. 2 Рассмотрение геометрического смысла результатов последних двух пунктов данного примера мы оставляем читателю в качестве упражнения. ▶ Свойства плотности распределения 1. Плотность распределения неотрицательна, т.е. ϕ ( x ) ≥ 0 при всех х. 2. Интеграл от плотности распределения на всей числовой прямой равен 1, т.е. +∞ ∫ ϕ (x )dx = 1. −∞ (Данное свойство называется условием нормировки плотности распределения.) Доказательство. Предположим противное: пусть найдется такой отрезок [α , β ], что плотность распределения ϕ (Lj) отрицательна на этом отрезке. Тогда (см. свойства определенного интеграла) имеем β ∫ ϕ (x ) dx < 0. α Но, по определению плотности распределения, интеграл, стоящий в левой части последнего неравенства равен P (α ≤ X ≤ β ) . Так как вероятность события не может быть отрицательной, приходим к противоречию, что доказывает справедливость свойства 1. По определению плотности распределения, +∞ ∫ ϕ (x ) dx −∞ = P ( −∞ ≤ X ≤ +∞ ). 38 39 Теория вероятностей Но событие ( −∞ < X < +∞) является достоверным, поэтому его вероятность равна 1. Тем самым доказано свойство 2. Парадокс нулевой вероятности Теорема. Для непрерывной случайной величины вероятность принять произвольное числовое значение равно нулю. Доказательство. Пусть α – произвольное число. События ( X = α ) и (α ≤ X ≤ α ) – равны, поэтому, по определению плотности распределения, получаем α P ( X = α ) = ∫ ϕ ( x ) dx = 0 α (см. свойства определенного интеграла). Из парадокса нулевой вероятности вытекает, что для любой непрерывной случайной величины вероятности попадания в произвольный отрезок числовой оси или в соответствующий полуинтервал (интервал) равны между собой, т.е. справедливо Следствие.Пусть Х непрерывная случайная величина и α , β – произвольные числа. Тогда верно следующее равенство P (α ≤ X ≤ β ) = P (α ≤ X < β ) = P (α < X ≤ β ) = P (α < X < β ). Доказательство. Очевидно, что (α ≤ Ⅷ≤ β ) = (α ≤ Ⅷ< β ) + ( X = β ), причем события (α ≤ X < β ) и ( X = β ) – несовместны. Используя последнее равенство и теорему сложения вероятностей для несовместных событий, получаем P (α ≤ Ⅷ≤ β ) = P ((α ≤ Ⅷ< β ) + ( X = β )) = P (α ≤ Ⅷ< β ) + P ( X = β ). Но, согласно парадоксу нулевой вероятности, P ( X = β ) = 0 .Тем самым доказано первое из трех равенств Следствия. Доказательство оставшихся двух равенств мы оставляем читателю в качестве упражнения. Функция распределения непрерывной случайной величины Пусть Х – непрерывная случайная величина и ϕ = ϕ (Lj) − ее плотность распределения. Используя определения функции распределения (см. § 3.4) и плотности распределения, получаем x F ( x ) = ∫ ϕ ( x )dx . −∞ ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Обратно, если задана функция распределения непрерывной случайной величины, то (см. теорему об интеграле с переменным верхним пределом) плотность распределения этой случайной величины будет определяться равенством ϕ ( x ) = F ʹ( x ). Таким образом, имеется два равноправных способа задания непрерывной случайной величины: с помощью или плотности распределения, или функции распределения. Пример. Пусть плотность распределения непрерывной случайной величины Х имеет вид: ⎧1 ⎪ [ ] ϕ ( x ) = ⎨ 2 ĭ ǃ ⅺ x ∈ 0;2 , ⎪ Dž ⅲⅽǏ ⅿǎ Lj DŽ ⅽdžNJ ⅲǒLj. ⎩0 ⅴ Ĭ DŽ Найти функцию распределения. Решение. Пусть x < 0 . Тогда x x F ( x ) = ∫ ϕ ( x )dx = ∫ 0 dx = 0. −∞ −∞ [ ] Если x ∈ 0; 2 , то x x 1 1 F ( x ) = ∫ ϕ ( x ) dx = ∫ 0dx + ∫ dx = 0 + x 2 2 −∞ −∞ x = 1 x. 2 Если x > 2 , то x 2 x 1 1 F ( x ) = ∫ ϕ ( x ) dx = ∫ 0dx + ∫ dx + ∫ 0 dx = 0 + x 2 2 −∞ −∞ 2 2 1 + 0 = (2 − 0) = 1. 2 Таким образом, окончательно, искомая функция распределения имеет вид ⎧0 ĭ ǃ ⅺ x < 0, ⎪1 F ( x ) = ⎨ x ĭ ǃ ⅺ x ∈ [0; 2], ⎪2 ⎩1 ĭ ǃ ⅺ x > 2 (см. рис. 6). Математическое ожидание и дисперсия непрерывной случайной величины 40 41 1 Теория вероятностей Формулы математического персии непрерывРис. 6 личины аналогичщим формулам для чайной величины тельно, рассмоттаблицу. для вычисления ожидания и дисной случайной вены соответствуюдискретной слу(см. § 3.3). Действирим следующую х 2 Способ описания Дискретная случайная величина Непрерывная случайная величина Закон распределения Плотность распределения +∞ k M (X ) M (X ) = ∑ x i p i M (X ) = i =1 +∞ k D (X ) ∫ x ϕ (x )dx −∞ D ( X ) = ∑ ( x i − M ( X )) 2 p i i =1 D ( X ) = ∫ ( x − M ( X )) 2 ϕ ( x )dx −∞ Таким образом, переходя при записи этих формул от дискретной к непрерывной случайной величине, суммирование заменяется интегрированием по всей числовой оси, а вместо вероятности p i используется плотность распределения ϕ (x ) . Пример. Функция распределения непрерывной случайной величины Х имеет вид: ⎧0 ĭ ǃ ⅺ x < 0, ⎪ F ( x ) = ⎨x 2 9 ĭ ǃ ⅺ x ∈ [0, 3], ⎪1 ĭ ǃ ⅺ x > 3. ⎩ Найти математическое ожидание и дисперсию этой случайной величины. Решение. Для нахождения M (X ) и D (X ) нам потребуется плотность распределения данной случайной величины (см. приведенные выше формулы). Получаем: ⎧0ʹ = 0 ĭ ǃ ⅺ x < 0, ⎪ ʹ 2 ϕ ( x ) = F ʹ( x ) = ⎨ x 2 9 = x ĭ ǃ ⅺ x ∈ [0, 3], 9 ⎪ ʹ 1 = ĭ ǃ ⅺ x > 3, ⎩ ( или ) ϕ (Lj) ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» ⎧2 ⎪ ϕ (x ) = ⎨ 9 x ĭ ǃ ⅺ x ∈ [0, 3], ⎪⎩0 ⅴ Ĭ DŽ Dž ⅲⅽǏ ⅿǎ LjАDŽ ⅽdžNJ ⅲǒLj. 2 3 Тогда имеем +∞ 3 +∞ 2 2 x3 M ( X ) = ∫ x ϕ ( x )dx = ∫ x ⋅ 0 dx + ∫ x ⋅ x dx + ∫ x ⋅ 0 dx = ⋅ 9 9 3 −∞ −∞ 3 3 = 2. Геометрически, полученное значение математического ожидания есть абсциссахцентра тяжести фиО В гуры под графиком плотности распределения, т.е. абсцисса прямоугольного треугольника ОАВ (см. 1,5 2 3 рис. 7; напомним, что центр1тяжести треугольника есть точка пересечения медиан этого треугольника, а медианы в точке пересечения делятся в отношении 2:1, считая от вершины). Рис. 7 Завершая решение, найдем дисперсию рассматриваемой случайной величины. +∞ 3 +∞ 2 2 x4 2 M ( X ) = ∫ x ϕ ( x )dx = ∫ x ⋅ 0 dx + ∫ x ⋅ x dx + ∫ x ⋅ 0 dx = ⋅ 9 9 4 −∞ −∞ 3 2 2 2 3 2 = 4,5 , D (X ) = M (X 2 ) − M 2 (X ) = 2 2 − 4,5 = 0,5. Нормальный закон распределения Определение. Непрерывная случайная величина имеет нормальный закон распределения с 42 43 Теория вероятностей параметрами ⅲ и σ , если ее плотность распределения имеет вид ϕ N (x ) = 1 σ 2π e −( x −a ) 2 2σ 2 . Параметры а и σнормального закона тесно связаны с параметрами распределения рассматриваемой случайной величины. Справедлива следующая теорема. Теорема. Пусть случайная величина Х имеет нормальный закон распределения с параметрами а и σ . Тогда M ( X ) = a, D ( X ) = σ 2 . Отметим, что график ϕ N (x ) – результат деформации Гауссовой кривой y = f (x ) (см. § 2.3). Рассмотрим, как изменяется этот график при изменении параметров а и σ нормального закона. На рис. 8 изображены графики ϕ N (x ) при одинаковом значении параметра σ : изменение параметраа нормального закона приводит к параллельному переносу графика плотности распределения вдоль оси абсцисс. На рис. 9 изображены графики ϕ N (x ) при одинаковом значении параметра а : изменение параметра σ нормального закона приводит к “растяжению” графика вдоль оси ординат при сохранении площади под кривой равной 1 (заметим, что на рис. 9 σ 2 < σ 1). Теорема. Пусть случайная величина Х имеет нормальный закон распределения с параметрами а и σ . Тогда справедливы формулы: P (α ≤ X ≤ β ) = 1⎛ ⎛ β −a ⎞ ⎛ α − a ⎞⎞ ⎜⎜ Φ⎜ ⎟ − Φ⎜ ⎟ ⎟⎟, 2⎝ ⎝ σ ⎠ ⎝ σ ⎠⎠ ⎛ε ⎞ P ( X − a ≤ ε ) = Φ⎜ ⎟, ⎝σ ⎠ F (x ) = 1 1 ⎛x −a ⎞ + Φ⎜ ⎟, 2 2 ⎝ σ ⎠ где Φ(x ) – функция Лапласа, F (x ) – функция распределения случайной величины Х. (1) (2) ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Заметим, что график функции распределения F (x ) нормально распределенной случайной величины получается в результате деформации из графика функции Лапласа Φ(x ) (см. рис. 10 и 2). Пример. Случайная величина Х – ошибка измерительного прибора распределена по нормальному закону с дисперсией равной 16 мк2. Систематическая ошибка отсутствует. Найти вероятность того, что при одном измерении ошибка: а) превзойдет по модулю 6 мк; б) окажется в промежутке от 0,5 до 3,5 мк. Решение. а) Отсутствие систематической ошибки означает, что значения случайной величины Х группируются около нуля, поэтому a = M ( X ) = 0 (см. § 3.3). Искомой является вероятность P ( X > 6) . Воспользуемся переходом к противоположному событию: P ( X > 6) = 1 − P ( X ≤ 6) . Так как a = 0 , то P ( X ≤ 6) = P ( X − a ≤ 6) , т.е. последняя вероятность точно того вида, что может быть вычислена по формуле (2). Используя формулу (2) при ε = 6 , σ = 4 , получаем P ( X ≤ 6) = Φ(6 4) = Φ(1,5) = 0,8664. Окончательно имеем P ( X > 6) = 1 − P ( X ≤ 6) = 1 − 0,8664 = 0,1336. б) Искомая вероятность вычисляется по формуле (1) при α = 0,5, β = 3,5, a = 0, σ = 4 : 1 ⎛ ⎛ 3,5 − 0 ⎞ ⎛ 0,5 − 0 ⎞ ⎞ 1 P (0,5 ≤ X ≤ 3,5) = ⎜⎜ Φ⎜ ⎟ − Φ⎜ ⎟ ⎟⎟ = (Φ(0,875) − Φ(0,125) ) = 2⎝ ⎝ 4 ⎠ ⎝ 4 ⎠⎠ 2 1 = (0,6211 − 0,1034) = 0,2589. 2 Упражнение. Пусть случайная величина Х нормально распределена с параметрами а и σ . Проверить, что P ( X > a ) = 0,5. Дать геометрическую интерпретацию этому результату. Домашнее задание. 3.62, 3.63, 3.65, 3.66. 4.3. Центральная предельная теорема 44 45 Теория вероятностей и теоремы Муавра-Лапласа как следствия из нее Центральная предельная теорема. Пусть случайные величины X 1 , X 2 , !, X n – независимы и одинаково распределены. Тогда закон распределения их суммы X = X 1 + X 2 + ! + X n неогра- ниченно приближается к нормальному при неограниченном увеличении числа n эти х случайных величин. Отметим, что центральная предельная теорема является частным случаем более общего утверждения – теоремы Ляпунова (подробнее см. учебник Н.Ш. Кремера). Следствие. Биномиальный закон распределения неограниченно приближается к нормальному при неограниченном увеличении параметра n этого закона. Доказательство. Пусть случайная величина Х – биномиально распределена с параметрами nиp. Рассмотрим сначала тот конкретный пример, когда Х – число наступлений некоторого событияА в nповторных независимых испытаниях, в каждом из которых это событие наступает с вероятностью p. Введем в рассмотрение случайные величины X 1 , X 2 , !, X n такие, что X i – число наступлений событияАв i–ом испытании, где i = 1, 2, !, n . Случайная величина X i принимает значение 1, если в i–ом испытании событие А наступило и значение 0 – в противном случае. Сумма случайных величин X i принимает значение mтогда и только тогда, когда число Х наступлений событияАв nиспытаниях равно m., т.е. X = X 1 + X 2 +!+ X n . Тогда по центральной предельной теореме для случайной величины Х получаем требуемое утверждение. Аналогично данное Следствие доказывается и в общем случае. Данное Следствие при работе с биномиально распределенными случайными величинами (при достаточно больших n) позволяет использовать формулы, известные для нормально распределенных случайных величин. Именно это и происходит при применении теорем Муавра-Лапласа. Так, заменяя в формуле (1) из § 4.2 а и σ математическим ожиданием и средне квадратическим отклонением биномиально распределенной случайной величины ( a = np , σ = чая также X = m , npq см. § 3.3), обозна- α = m 1 , β = m 2 , приходим к интегральной теореме Муавра-Лапласа. Геометрически приближение биномиального распределения к нормальному означает, что с ростом nточки плоскости с координатами (m , P ) неограниченно приближаются к кривой ϕ m ,n N (x ) плотности нормального закона (здесь m –неотрицательное целое, не превосходящее n, значение P m ,n вычисляется по формуле Бернулли; см. рис. 11). Рис.11 ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Тогда справедливо приближенное равенство P m ,n ≈ ϕ N ( m ), где a = np , σ = npq , которое, записанное явно, и есть локальная теорема Муавра-Лапласа. Тема 5. Двумерные случайные величины 5.1. Совместные распределения и их параметры Определение. Вектор Z = ( X ,Y ) , компоненты Х и Y которого являются случайными величинами, называется случайным вектором или двумерной случайной величиной. Пример. Пусть Х – рост человека, Y– вес человека. Тогда Z = ( X ,Y ) – (непрерывная) двумерная случайная величина. Пример. Пусть Х и Y– числа попаданий в мишень первого и второго стрелков (соответственно). Тогда Z = ( X ,Y ) – (дискретная) двумерная случайная величина. Сравнивая между собой одномерную (см. выше темы 3, 4) и двумерную случайные величины, заметим, что, если результат измерения первой – точка на прямой, то результат измерения второй – точка плоскости. Определение. Закон распределения одной из переменных при фиксированном значении другой называется условным распределением. Определение. Связь между переменными называется статистической, если каждому зна- 46 47 Теория вероятностей чению одной переменной ставится в соответствие условное распределение другой переменной. Отметим, что задание двумерной случайной величины равносильно заданию статистической связи между переменными. Рассмотрим сначала двумерную дискретную случайную величину. По аналогии с одномерным случаем, закон распределения двумерной дискретной случайной величины задается с помощью таблицы вида: y j xi y1 … y j … ym x1 p 11 … p 1j … p 1m … … … … … … xi p i1 … p ij … p im … … … … … … xn p n1 … p nj … p nm где p ij = P (( X = x i ) ⋅ (Y = y j )), 1 ≤ i ≤ n, 1 ≤ j ≤ m . По аналогии с основным свойством закона распределения одномерной случайной величины, справедливо равенство n m ∑∑ p ij = 1. i =1 j =1 Приведенная таблица называется совместным законом распределения случайных величин Х и Y. Пример #. Совместный закон распределения случайных величин Х и Y имеет вид: y j xi 1 1 0,1 0,2 2 0,3 0,4 Найти математическое ожидание случайной величины Х. Решение. Прежде всего найдем закон распределения случайной величины Х. Так как P ( X = 1) = P ((X = 1) ⋅ (Y = 0) + ( X = 1) ⋅ (Y = 1)) = 0,1 + 0,2 = 0,3, P ( X = 2) = P ((X = 2) ⋅ (Y = 0) + ( X = 2) ⋅ (Y = 1)) = 0,3 + 0,4 = 0,7, то закон распределения Х имеет вид: X: xi 1 2 pi 0,3 0,7 Тогда M ( X ) = 1 ⋅ 0,3 + 2 ⋅ 0,7 = 1,7. Оставляем читателю в качестве упражнения проверку того, что закон распределения случайной ве- ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» личины Y имеет вид: Y: y j pj и M (Y ) = 0,6. 1 0,6 0,4 Определение. Связь между переменными называется функциональной, если каждому значению из области определения одной переменной поставлено в соответствие однозначно определенное значение другой переменной. Примерами такого вида связи изобилует курс математического анализа: y = 2 x + 3, y = 1 − x , y = ln x , y = 2 x и т.д. и т.д. Определение. Функциональная связь между значениями одной переменной и условными математическими ожиданиями другой переменной называется корреляционной. Определение. График корреляционной зависимости называется линией регрессии. Корреляционные зависимости бывают двух видов ( y по x и x по y ) в зависимости от того, которая из переменных выполняет роль аргумента: x или y . Соответственно, ( x i , M точки корреляционной зависимости y по x и (M yj xi (Y )) – (X ), y j ) – точки корреляционной зависимо- сти x по y . Пример. По совместному закону распределения из предыдущего примера (Пример #) найти корреляционную зависимость y по x . Решение. Применяя теорему умножения вероятностей, получаем PX =1 (Y = 0) = PX =1 (Y = 1) = P ((X = 1) ⋅ (Y = 0)) 0,1 1 = = , P ( X = 1) 0,3 3 P ((X = 1) ⋅ (Y = 1)) 0,2 2 = = , P ( X = 1) 0,3 3 где вероятности, стоящие в числителях последних дробей, берутся из таблицы совместного закона распределения Примера #, вероятность P ( X = 1) найдена в том же примере. Таким образом, 48 49 Теория вероятностей условное распределение случайной величины Yпри X = 1 имеет вид: Y X =1 : y j pj 1 13 23 По этому закону распределения находим условное математическое ожидание: M X =1(Y ) = 0 ⋅1 3 + 1⋅ 2 3 = 2 3 . Аналогично получаем: Y X =2 : y j pj 1 37 47 M X =2 (Y ) = 0 ⋅ 3 7 + 1 ⋅ 4 7 = 4 7 . Собирая вместе полученные результаты, запишем корреляционную зависимость y по x в виде следующей таблицы: xi M xi (Y ) 1 2 23 47 Упражнение. По совместному распределения Примера # убедиться, что корреляционная зависимость x по y имеет вид: M yj y (X ) j 74 53 1 Рассмотрим теперь непрерывную двумерную случайную величину. Определение. Функция ϕ ( x , y ) называется плотностью распределения непрерывной двумерной случайной величины Z = ( X ,Y ) , если для произвольных чисел α , β , γ , δ (α < β, γ < δ ) вероятность того, что в произвольном испытаниизначение случайной величины Zпопадает в прямоугольник α ≤ X ≤ β , γ ≤Y ≤ δ вычисляется по формуле βδ P ((α ≤ X ≤ β ) ⋅ (γ ≤ Y ≤ δ )) = ∫ ∫ ϕ ( x , y ) dy dx . α γ Условные плотности распределения определяются формулами: ϕx (y ) = ϕ (x , y ) +∞ ∫ ϕ (x , y ) dy −∞ , ϕ y (x ) = ϕ (x , y ) +∞ ∫ ϕ (x , y ) dx −∞ . ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Соответственно, условные математические ожидания тогда вычисляются по формулам: +∞ M x (Y ) = +∞ ∫ yϕ x ( y ) dy , M y ( X ) = −∞ ∫ xϕ y ( x ) dx . −∞ Коэффициент корреляции и его свойства Определение. Коэффициентом корреляции ρ случайных величин Х и Y называется число, определяемое равенством ρ= где M ( XY ) − M ( X )M (Y ) σ X σY , σ X = D (X ) , σY = D (Y ) . Коэффициент корреляции является мерой тесноты линейной связи между переменными. Величина M ( XY ) − M ( X )M (Y ) называется ковариацией и обозначается K XY . Замечание. Из свойства математического ожидания (см. § 3.3) следует, что, если случайные величины Х и Y независимы, то коэффициент корреляции ρ равен нулю. Существенно, что обратное утверждение неверно, т.е. в общем случае из условия равенства коэффициента корреляции нулю не следует, что данные случайные величины независимы. Упражнение. Совместное распределение случайных величин X иY имеет вид: y j xi 1 0,2 0,2 1 0,3 0,3 Убедиться, что ρ = 0 и данные случайные величины независи- мы. Упражнение. По совместному распределению Примера # вычислить коэффициент корреляции. (Ответ. ρ ≈ −0,0891) Упражнение. Совместное распределение величин X иY имеет вид: y j xi 1 -1 0,2 0,6 1 0,2 Убедиться, что ρ = 0 , но данные случайные величины – зависи- мы (более того, можно заметить, что в данном случае X иY связаны наиболее “жесткой” из всех возможных связей – функциональной: Y = 1 − X 2 ). Теорема (Область возможных значений коэффициента корреляции). Модуль коэффициента 50 51 Теория вероятностей корреляции не превосходит1, т.е. −1 ≤ ρ ≤ 1. Теорема. Если модуль коэффициента корреляции двух случайных величин равен 1, то между этими случайными величинами существует линейная функциональная зависимость. Пример. Пусть совместный закон распределения случайных величин X иY имеет вид: y j xi 1 2 0,4 1 0,6 ТогдаY = X + 1. Оставляем читателю в качестве упражнения проверку того, что в данном случае ρ = 1. Из определения ковариации следует, что M (X Y ) = M ( X )M (Y ) + K X Y . Другими словами, ковариация является мерой неравенства между математическим ожиданием произведения двух случайных величин и произведением их математических ожиданий. Аналогично, применительно к дисперсии, справедливо равенство D (X +Y ) = D (X ) + D (Y ) + 2K X Y . Двумерный нормальный закон распределения Определение. Случайная величина Z = ( X ,Y ) называется распределенной по двумерному нормальному закону с параметрами aX , aY , σ X , σY , ρ (σ X > 0, σY > 0) , если ее плотность распределения имеет вид: ϕN ( x ) = 1 2πσ X σY 1 − ρ 2 e −L ( x ,y ) , где 2 ⎛ ⎛ x − a ⎞2 ⎛ x − aX ⎞⎛ y − aY ⎞ ⎛ y − aY ⎞ ⎞ 1 X ⎜⎜ L (x , y ) = ⎟ − 2ρ ⎜ ⎟⎜ ⎟+⎜ ⎟ ⎟. 2(1 − ρ 2 ) ⎜ ⎝ σ X ⎠ σ X ⎠⎝ σY ⎠ ⎝ σY ⎠ ⎟ ⎝ ⎝ ⎠ Теорема. Пустьдвумерная случайная величина Z = ( X ,Y ) имеет двумерный нормальный закон распределения. Тогда корреляционные зависимости между Xи Y – линейны: x y − aX = ρ σX ( y − aY ), σY ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» y x − aY = ρ σY ( x − aX ), σX где x y ≡ M y ( X ), y x ≡ M x (Y ). Это важное свойство двумерного нормального закона будет использовано нами позже при рассмотрении теории корреляции. Тема 6. Закон больших чисел 6.1. Неравенство Чебышёва Лемма Чебышёва. Пусть среди значений случайной величины Z нет отрицательных. Тогда вероятность того, что в некотором испытании значение этой случайной величины превысит число A , оценивается по формуле P (Z > A ) ≤ Так как события и (Z > A ) M (Z ) . A (Z ≤ A ) взаимно противоположны, то P ( Z > A ) = 1 − P ( Z ≤ A ), и лемма Чебышёва может быть также представлена в виде P (Z ≤ A ) ≥ 1 − M (Z ) . A Пример. В среднем в течение часа на вокзал прибывает 400 пассажиров. Оценить: а) вероятность того, что число пассажиров, прибывших на вокзал в течение часа, будет более 420; б) верхнюю границу для числа прибывших пассажиров, которую можно гарантировать с вероятностью не меньшей 0,9. Решение. Пусть Z – число пассажиров, прибывающих на вокзал в течение наудачу выбранного часа. По условию, значения этой случайной величины группируются около 400. Тем самым, имеем M ( Z ) = 400. Полагая в неравенстве Чебышёва A = 420, получаем P ( Z > 420) ≤ M ( Z ) 400 = = 0, 9524. 420 420 Из условия и второй формы записи неравенства Чебышёва следует, что P (Z ≤ A ) ≥ 1 − M (Z ) = 0, 9, A где A – искомая верхняя граница для числа пассажиров. Таким образом, имеем равенство 1− 400 = 0, 9. A Решая это уравнение относительно A , получаем: A = 4000. 52 53 Теория вероятностей НеравенствоЧебышёва. Для произвольной случайной величины Y вероятность того, что в некотором испытании значение этой случайной величины будет отличаться от математического ожидания M (Y ) не более чем на ε (по абсолютной величине), оценивается по формуле P (Y − M (Y ) ≤ ε ) ≥ 1 − D (Y ) ε2 , где ε – произвольное положительное число. Рассмотрим следствия из неравенства Чебышёва. Следствие 1. Пусть случайные величины X 1 , X 2 , , X n – независимы, M ( X i ) = ai , D (X i ) ≤ C , где i = 1, 2, , n , C – некоторое число. Тогда вероятность того, что среднее арифметическое этих случайных величин отличается от среднего арифметического их математических ожиданий не более чем на ε (по абсолютной величине), оценивается по формуле ⎛ X +X 2 + P⎜ 1 n ⎝ +X n − a1 + a2 + n + an ⎞ C ≤ ε ⎟ ≥ 1− 2 . nε ⎠ Следствие 2. Пусть случайные величины X 1 , X 2 , , X n – независимы, M (X i ) = a , D ( X i ) = σ 2 , где i = 1, 2, , n . Тогда вероятность того, что среднее арифметическое этих случайных величин отличается от их общего математического ожидания не более чем на ε (по абсолютной величине), оценивается по формуле ⎛ X +X 2 + P⎜ 1 n ⎝ +X n ⎞ σ2 − a ≤ ε ⎟ ≥ 1− 2 . nε ⎠ Следствие 3. Пусть X ≡ m – число наступлений некоторого события A в n повторных независимых испытаниях, в каждом из которых это событие наступает с вероятностью p . Тогда вероятность того, что число m наступлений события A отличается от np не более чем на ε (по абсолютной величине), оценивается по формуле P ( m − np ≤ ε ) ≥ 1 − npq ε2 . Следствие 4. Пусть X ≡ m – число наступлений некоторого события A в n повторных независимых испытаниях, в каждом из которых это событие наступает с вероятностью p . Тогда вероятность того, что частость m n наступлений события A отличается от вероятности p не более чем на ε (по абсолютной величине), оценивается по формуле ⎛m ⎞ pq P⎜ − p ≤ ε ⎟ ≥ 1− 2 . nε ⎝ n ⎠ Последнее следствие называется также неравенством Бернулли. Пример. Вероятность сделать покупку для каждого из покупателей магазина равна 0,7. Поче- ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» му нельзя применить неравенство Чебышёва для оценки вероятности того, что из 1000 покупателей доля таких, которые приобретут в магазине товар, будет заключена в границах от 0,67 до 0,72? Как следует изменить левую границу, чтобы применение неравенства Чебышёва стало возможным? Решить задачу при соответствующем изменении левой границы. Найти эту же вероятность по интегральной теореме Муавра-Лапласа. Объяснить различие в полученных результатах. Сколько покупателей надо обследовать, чтобы те же границы для рассматриваемой доли можно было гарантировать с вероятностью не меньшей 0,9? Решение. Неравенство Чебышёва позволяет оценивать вероятности попадания значения случайной величины только в границы, которые симметричны относительно математического ожидания этой случайной величины. Но в данном случае интервал (0,67; 0,72) несимметричен относительно M (m n ) = p = 0,7 , где m n – доля покупателей, которые приобретут в магазине товар, p – вероятность приобретения товара. Соответственно, для того, чтобы применение неравенства Чебышёва стало возможным, левая граница интервала должна отстоять от p = 0, 7 ровно настолько, насколько отстоит правая, т.е. на ε = 0, 72 − 0, 7 = 0, 02. Неравенства 0,68 ≤ m n ≤ 0,72 и m n − 0,7 ≤ 0,02 – равносильны, а вероятность P ( m n − 0,7 ≤ 0,02) оценивается по следствию 4 (неравенству Бернулли) при p = 0, 7 , ε = 0, 02 , n = 1000, q = 1 − p = 1 − 0, 7 = 0,3 : ⎛m ⎞ 0, 7 ⋅ 0,3 P⎜ − 0, 7 ≤ 0, 02 ⎟ ≥ 1 − = 0, 475. 1000 ⋅ 0, 022 ⎝ n ⎠ Точно такая же вероятность может быть найдена по следствию 2 изинтегральной теореме Муавра-Лапласа: ⎛ 0,02 1000 ⎞ ⎛m ⎞ P ⎜ − 0,7 ≤ 0,02 ⎟ = Φ ⎜ = Φ (1,38) = 0,8324. ⎜ 0,7 ⋅ 0,3 ⎟⎟ ⎝ n ⎠ ⎝ ⎠ Очевидно, что полученные результаты не противоречат друг другу. Поясним, почему для одной и той же вероятности неравенство Чебышёва дает лишь оценку, в то время как теорема МуавраЛапласа – точное значение. Дело в том, что неравенство Чебышёва получено без каких бы то ни было предположений о законе распределения рассматриваемой случайной величины. В результате область его применений широка, но получение точных результатов с его помощью оказывается невозможным. В свою очередь, теорема Муавра-Лапласа опирается на свойство биномиального распределения: по центральной предельной теореме, это распределение неограниченно приближается к нормальному при неограниченном увеличении числа испытаний. Использование закона распределения рассматриваемой случайной величины и позволяет уточнить окончательный результат. Перейдем теперь к последнему заданию данной задачи. По условию и неравенству Бернулли, имеем ⎛m ⎞ pq P⎜ − p ≤ ε ⎟ ≥ 1 − 2 = 0, 9, nε ⎝ n ⎠ причем p = 0, 7, q = 0,3, ε = 0, 02 . Тогда полученное равенство 54 55 Теория вероятностей 1− 0, 7 ⋅ 0,3 = 0, 9 n ⋅ 0, 022 содержит единственную неизвестную: n . Решая это уравнение относительно этой неизвестной, получаем: n= 0, 7 ⋅ 0,3 = 5250. 0, 022 ⋅ 0,1 6.2. Теоремы Бернулли и Чебышёва Теорема Бернулли. Пусть m n – частость наступления событияА в n повторных независимых испытаниях, в каждом из которых это событие наступает с вероятностью p .Тогда для произвольного ε > 0 вероятность того, что частость m n будет отличаться от вероятности p не более чем на ε (по абсолютной величине) неограниченно приближается к 1 при неограниченном увеличении значения n , т.е. ⎛m ⎞ lim P ⎜ − p ≤ ε ⎟ = 1. n →∞ ⎝ n ⎠ Другими словами, теорема Бернулли утверждает, что частость рого события сходится по вероятности к вероятности m n наступления некото- p наступления этого события. Доказательство. Учитывая, что вероятность произвольного события не превосходит 1, из неравенства Бернулли следует 1− ⎛m ⎞ pq ≤P⎜ − p ≤ ε ⎟ ≤ 1. 2 nε ⎝ n ⎠ Переходя к пределу при n → ∞ , получаем ⎛m ⎞ pq ⎞ ⎛ lim ⎜ 1 − 2 ⎟ ≤ lim P ⎜ − p ≤ ε ⎟ ≤ lim 1. n →∞ ⎝ n ε ⎠ n →∞ ⎝ n ⎠ n →∞ Крайние левый и правый пределы этого двойного неравенства равны 1. Таким образом, имеем ⎛m ⎞ 1 ≤ lim P ⎜ − p ≤ ε ⎟ ≤ 1, n →∞ ⎝ n ⎠ что равносильно утверждению теоремы Бернулли. Теорема Бернулли утверждает, что, если за значение вероятности p некоторого события ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» взять значение частости m n наступления этого события, найденную по результатам n ис- пытаний, то вероятность погрешности (даже сколь угодно малой) приближенного равенства p ≈ m n будет стремиться к нулю с увеличением числа испытаний n . Теорема Чебышёва. Пусть случайные величины X 1 , X 2 , пределены и a = M ( X 1 ) = , X n независимы, одинаково рас- = M (X n ). Тогда для произвольного ε > 0 вероятность того, что среднее арифметическое этих случайных величин отличается от их общего математического ожидания не более чем на ε (по абсолютной величине) , неограниченно приближается к 1 при неограниченном увеличении числа n этих случайных величин т.е. ⎛ X +X 2 + lim P ⎜ 1 n →∞ n ⎝ +X n ⎞ − a ≤ ε ⎟ = 1. ⎠ Другими словами, теорема Чебышёва утверждает, что среднее арифметическое некоторого числа случайных величин, имеющих одинаковое математическое ожидание, сходится по вероятности к их общему математическому ожиданию. Говоря о приложениях теоремы Чебышёва, отметим, в первую очередь, следующую возможность. Если за значение некоторого неизвестного параметра а взять среднее арифметическое результатов X 1 , X 2 , , X n независимых измерений этого параметра, то вероятность погрешX +X 2 + +X n ности (даже сколь угодно малой) приближенного равенства a ≈ 1 будет стреn миться к нулю при неограниченном увеличении числа n этих измерений. Теоремы Бернулли и Чебышёва являются явными реализациями так называемого закона больших чисел, утверждающего, что при проведении достаточно большого числа испытаний погрешности отдельных испытаний взаимно погашают друг друга (тем самым среднее арифметическое независимых случайных величин – результатов этих испытаний – стремится к постоянной величине при неограниченном увеличении числа испытаний). Домашнее задание:6.10, 6.11, 6.17, 6.19, 6.22. Математическая статистика Тема 7. Выборочный метод 7.1. Оценка неизвестного параметра. Свойства оценок Определение. Случайная величина H n называется оценкой неизвестного параметра h , если значение этой случайной величины, найденное по результатам серии из n измерений, может быть принято за приближенное значение этого параметра т.е. если справедливо равенство 56 57 Теория вероятностей h ≈H n. Пример. Если в качестве неизвестного параметра рассматривается вероятность p = P ( A ) m наступлений n наступления некоторого события A , то оценкой этого параметра служит частость события A в n независимых испытаниях (см. статистическое определение вероятности и теорему Бернулли). Пример. Пусть случайные величины X 1 , X 2 , , X n имеют одинаковое математическое ожидание, т.е. a ≡ M ( X 1 ) = M ( X 2 ) = = M (X n ) . Тогда оценкой значения a общего математиX 1+X 2 + +X n ческого ожидания таких случайных величин служит среднее арифметическое n этих случайных величин. Важным частным случаем рассмотренной ситуации является следующий Пример. X 1+X 2 + n +X n Оценкой некоторого результатов X 1 , X 2 , параметра a служит среднее арифметическое , X n независимых измерений этого параметра (см. тео- рему Чебышёва). При непосредственном использовании приближенного равенства h ≈ H n говорят о точечном оценивании неизвестного параметра. Возможно также интервальное оценивание неизвестного параметра. Для того, чтобы объяснить, в чем оно состоит, введем в рассмотрение следующие понятия. Определение. Для произвольного ε > 0 интервал ( H n − ε , H n + ε ) называется довери- тельным интервалом;сама величина ε называется в этом случае предельной ошибкой выборки. Определение. Вероятность того, что неизвестное значение оцениваемого параметра накрывается доверительным интервалом, называется доверительной вероятностью. Таким образом, если H n – оценкапараметра h , то P (H n − ε < h < H + ε ) = P ( H n − h < ε ) = P ( H n − h ≤ ε ) – доверительная вероятность (мы предполагаем, что оценка H n является непрерывной случайной величиной). Интервальное оценивание состоит, например, в вычислении доверительной вероятности для заданной предельной ошибки выборки. Решение задачи интервального оценивания связано с определением характера закона распределения используемой оценки H n . ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Рассмотрим теперь некоторые свойства оценок. Определение. Оценка H n параметра h называется несмещенной, если математическое ожидание этой оценки равно оцениваемому параметру, т.е. M (H n ) = h . Определение. Оценка H n параметра h называется состоятельной, если для произвольного ε > 0 выполняется следующее предельное соотношение lim P ( H n − h < ε ) = 1. n →∞ Другими словами, оценка H n параметра h состоятельна, если эта оценка сходится по вероятности к данному параметру. (Напомним, что примеры сходимости такого рода дают теоремы Бернулли и Чебышёва, см. § 6.2.) Определение. Несмещенная оценка некоторого параметра называется эффективной, если она обладает наименьшей дисперсией среди всех несмещенных оценок, найденных по выборке заданного объема. Пример. Частость m n наступления некоторого события является несмещенной, состоятельной и эффективной оценкой вероятности p этого события. Заметим, что свойства несмещенности и состоятельности частости были фактически рассмотрены нами ранее в несколько ином контексте. Действительно, несмещенность частости – равенство M ( m n ) = p – является одним из свойств биномиально распределенной случайной величины (см. § 3.3). Состоятельность частости утверждается теоремой Бернулли (см. § 6.2). Пример. Среднее арифметическое некоторого числа независимых и одинаково распределенных случайных величин является несмещенной и состоятельной оценкой общего математического ожидания этих случайных величин. Действительно, несмещенность – есть свойство 5 математического ожидания (см. § 3.3). Состоятельность утверждается теоремой Чебышёва (см. § 6.2). 7.2. Первичная обработка результатов эксперимента. Характеристики вариационных рядов Пусть произведено n независимых измерений некоторой случайной величины X : X 1 – результат первого измерения, X 2 – результат второго измерения, … , X n – результат n -го измерения. Тогда через X обозначимсреднее арифметическое результатов n измерений рассматриваемой случайной величины X , то есть X = Заметим, что, поскольку X 1 , X 2 , X 1+X 2 + n +X n . , X n – случайные величины, то X также является случайной ве- 58 59 Теория вероятностей личиной. Пример. Детали некоторого вида расфасованы по ящикам. Результаты обследования шести из этих ящиков (на предмет наличия в них бракованных деталей) представлены в таблице: i X i 1 2 3 4 5 6 1 1 2 1 где i – номер ящика, X i – число бракованных деталей в i -ом ящике. Тогда X = X 1+X 2 + n +X n = 0 + 1 + 0 + 1 + 2 + 1 0 ⋅ 2 + 1⋅ 3 + 2 ⋅1 5 = = . 6 6 6 Приведенное вычисление подсказывает возможность более компактного представления результатов обследования, а именно – использование таблицы следующего вида: xi 1 2 Σ ni 2 3 1 6 где x i – число бракованных деталей в ящике; n i – число ящиков. Такая таблица называется вариационным рядом. Аналогично, в общем случае имеем Определение. Вариационным рядом признака X называется таблица вида xi x1 x2 … xm Σ ni n1 n2 … nm n где x i – возможные значения данного признака, n i – числа объектов, i = 1, 2,..., m , n m – число обследованных объектов ( ∑n i =n i =1 ). Отметим, что величины n i , значения которых заполняют нижнюю строку вариационного ряда, называются эмпирическими частотами. Очевидно, что признак X , для которого строится вариационный ряд, есть случайная величина. В том случае, когда результаты обследования представлены вариационным рядом, формула для вычисления X имеет вид 60 ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» m X = ∑x i i =1 n ⋅ ni (1) . Сама величина X в этом случае называется средней вариационного ряда или выборочной средней. Появление в данном случае дополнительного эпитета выборочныйсвязано с тем, что обследованные объекты выбираются из некоторой объемлющей (так называемой генеральной)совокупности объектов. Напомним, что X есть случайная величина. В тех случаях, когда данные эксперимента пред- ставлены вариационным рядом, а X вычисляется по формуле (1), случайными являются эмпирические частоты n i . Вариационный ряд является оценкой закона распределения случайной величины (признака) X . Поясним, почему это так. По вариационному ряду построим равнозначную ему таблицу, заменяя строку эмпирических частот n i частостями n i n . В результате имеем: xi x1 x2 … xm Σ ni n n1 n n2 n … nm n 1 Учитывая, что частости n i n являются оценками вероятностей p i = P ( X = x i ) ( p i ≈ n i n , см. § 7.1), приходим к требуемому утверждению. Принимая во внимание последнее замечание, получаем m X = ∑xi ⋅ i =1 m ni ≈ ∑ x i ⋅ p i = M (X ) . n i =1 Таким образом, средняя вариационного ряда (выборочная средняя) X является оценкой математического ожидания M ( X ) той случайной величины (признака) X , для которой построен данный вариационный ряд. Можно доказать, что эта оценка является несмещенной и состоятельной. Учитывая полученные результаты, аналогично построим оценку для дисперсии D ( X ) случайной величины X : m m i =1 i =1 D ( X ) = ∑ ( x i − M ( X ))2 ⋅ p i ≈ ∑ ( x i − X )2 ⋅ ni . n Выражение, стоящее в правой части последнего равенства называется выборочной дисперсией и обозначается s 2 , то есть s2 = 1 m ⋅ ∑ ( x i − X )2 ⋅ n i . n i =1 61 Теория вероятностей Выборочная дисперсия s 2 – оценка для дисперсии D ( X ) случайной величины X . Можно доказать, что выборочная дисперсия s 2 является смещенной оценкойдля D ( X ) , то есть M (s 2 ) ≠ D (X ). Несмещенная оценка ŝ 2 для D( X ) определяется равенством ˆs 2 = n ⋅ s2 . n −1 Заметим, что для вычисления выборочной дисперсии удобно использовать формулу – аналог свойства 3 дисперсии (см. § 3.3): s 2 = X 2 − ( X )2 . Определение. Вариационный ряд называется дискретным, если число возможных значений признака– конечно, и непрерывным (интервальным), если возможные значения признака полностью заполняют некоторый интервал. Вариационные ряды, которые встречались нам до сих пор в данном параграфе, являются дискретными. Рассмотрим пример интервального вариационного ряда. Пример. По результатам обследования некоторого малого предприятия получены следующие данные о ежемесячной заработной плате его сотрудников: [x i −1, x i ] ni 5 – 15 3 15 – 25 5 25 – 35 2 Σ 10 где x i – размер заработной платы (ден. ед.), n i – число сотрудников. Для нахождения параметров непрерывного вариационного ряда – выборочной средней, выборочной дисперсии – этот вариационный ряд сначала сводится к дискретному (в результате выбора середины для каждого из рассматриваемых интервалов), после чего X и s 2 денным выше формулам. вычисляются по приве- Например, данный интервальный вариационный ряд сводится к следующему дискретному: xi 10 20 30 Σ ni 3 5 2 10 X = Тогда 1 m 1 ⋅ ∑ x i ⋅ n i = ⋅ (10 ⋅ 3 + 20 ⋅ 5 + 30 ⋅ 2) = 19. n i =1 10 ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» s2 = 1 m 1 ⋅ ∑ ( x i − X )2 ⋅ n i = ((10 − 19)2 ⋅ 3 + (20 − 19)2 ⋅ 5 + (30 − 19)2 ⋅ 2) = 49 n i =1 10 или X 2 = 1 m 2 1 ⋅ ∑ x i ⋅ n i = ⋅ (102 ⋅ 3 + 202 ⋅ 5 + 302 ⋅ 2) = 410, n i =1 10 s 2 = X 2 − ( X )2 = 410 − 192 = 49. 7.3. Сплошное и выборочное наблюдения Пусть дана некоторая (генеральная) совокупность объектов и требуется оценить значение некоторого параметра этой совокупности (например, среднее значение прибыли для малых предприятий некоторого региона или долю выборщиков, проголосовавших за данного кандидата на выборах). Предположим, что от полного обследования всей генеральной совокупности решили отказаться. Среди возможных причин здесь можно указать разрушение объекта в результате обследования (в том случае, когда, например, требуется узнать средний срок службы лампочек в партии, изготовленной на некотором заводе, полное обследование, конечно, даст исчерпывающую информацию, но сама совокупность перестанет существовать). Другая возможная причина – высокая стоимость полного обследования или его чрезмерная продолжительность (например, выводы экспресс-анализа результатов голосования на некоторых выборах требуется получить в кротчайшие сроки, что невозможно при тотальном обследовании). Наконец, генеральная совокупность может обладать таким свойством как «необозримость» (например, рыба некоторого вида в данном море). Тогда из генеральной совокупности выделяют часть (выборку). Обследуя ее, находят значение исследуемого параметра в выборке. На основании этих результатов делают вывод о значении этого параметра во всей генеральной совокупности (см. ниже §§ 7.4, 7.5). Среди основных принципов выборочного метода следует отметить случайность и массовость. В самом деле, объекты в выборку следует отбирать случайным образом, в противном случае объективных данных о генеральной совокупности не получить. Также, следует постараться взять в выборку так много объектов как возможно, поскольку малая выборка будет плохо отражать свойства всей генеральной совокупности. Определение. Ошибкой репрезентативности называется ошибка, связанная с тем, что не все объекты генеральной совокупности попадут в выборку (и, тем самым, будут обследованы). Заметим, что ошибка репрезентативности выборочного метода принципиально неустранима. В зависимости от способа формирования, выборки бывают собственно-случайные, механические, типические, серийные (подробнее см. учебник Н.Ш. Кремера). В дальнейшем мы будем рассматривать лишь собственно-случайные выборки, которые составляются следующим образом: Предположим, что объекты генеральной совокупности некоторым образом перенумерованы. 62 63 Теория вероятностей Из полной совокупности номеров случайным образом отбирают столько номеров, сколько элементов должно быть в выборке. Элементы генеральной совокупности с такими номерами и подвергаются обследованию. Выборка называется повторной, если перед отбором очередного номера из полной совокупности номеров предыдущий номер возвращается назад в совокупность; в противном случае – бесповторной. В данном курсе мы рассмотрим следующие из задач выборочного метода: – оценка неизвестного значения генерального среднего (см. § 7.4); – оценка неизвестного значения генеральной доли (см. § 7.5). 7.4. Оценка генеральной средней Пусть задана генеральная совокупность объектов, для которой фиксирован некоторой числовой признак X . Требуется оценить среднее значение признака X в генеральной совокупности – генеральную среднюю X 0 . Для этого из генеральной совокупности выделяют часть (выборку), и по результатам ее обследования находят среднее значение признака X в выборке – выборочную среднюю X , с помощью которой и выполняют оценивание неизвестного значения X 0 . Другими словами, выборочная средняя X является оценкой генерального среднего X 0 . Пример. Пусть некоторая совокупность деталей обследуется на предмет их длины. Тогда X – средняя длина деталей в генеральной совокупности, X – средняя длина деталей в выборке, X – длина детали, взятой наудачу из генеральной совокупности. В том случае, когда оценивание сводится к использованию приближенного равенства X 0 ≈ X , говорят о точечном оцениваниигенеральной средней (см. § 7.1). Возможно также интервальное оценивание генеральной средней (см. § 7.1). Для того чтобы объяснить, в чем оно состоит, введем в рассмотрение следующие понятия. Определение. Для произвольного ε > 0 интервал ( X − ε , X + ε ) называется доверительным интервалом; величина ε называется в этом случае предельной ошибкой выборки. Определение. Вероятность того, что неизвестное значение генеральной средней X накрывается доверительным интервалом, называется доверительной вероятностью. Таким образом, P ( X −X 0 ≤ ε) – доверительная вероятность. ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» Интервальное оценивание состоит, например, в вычислении доверительной вероятности для заданной предельной ошибке выборки. Как и всякая оценка, выборочная средняя X является случайной величиной. Действительно, элементы выборки отбираются из генеральной совокупности случайным образом, а значение X зависит от того, какие именно элементы попали в выборку. Рассмотрим свойства выборочной средней X как случайной величины. Теорема 1.Математическое ожидание выборочной средней X равно генеральной средней X 0 , то есть M ( X ) = X0 . Среднее квадратическое отклонение σ X (σ ' X ) выборочной средней вычисляется по фор- мулам σX = σ2 n – в случае повторной выборки и σ 'X = σ2 ⎛ n⎞ ⋅⎜1− ⎟ n ⎝ N⎠ – в случае бесповторной, где n – объем выборки, N – объем генеральной совокупности, σ 2 = D( X ) – дисперсия признака X для рассматриваемой генеральной совокупности (генеральная дисперсия). Напомним, что, по определению среднего квадратического отклонения, σ X равно корню квадратному из дисперсии выборочной средней, то есть σ X = D( X ) (аналогично в случае бесповторной выборки). Замечание. При применении на практике формул Теоремы 1 полагают, что σ 2 ≈ s X2 . Теорема 2. Закон распределения выборочной средней неограниченно приближается к нормальному при неограниченном увеличении объёма выборки. 64 65 Теория вероятностей Согласно результатам § 4.3, для произвольной нормально распределенной случайной величины Z справедлива формула ⎛ ε ⎞ ⎟. P Z − M (Z ) ≤ ε = Φ ⎜ ⎜ D (Z ) ⎟ ⎝ ⎠ ( ) Учитывая Теорему 2, в последнем равенстве положим Z = X . Тогда, по Теореме 1, M ( Z ) = M ( X ) = X 0 и D ( Z ) = D ( X ) = σ X2 , и приведенная формула – свойство нормального закона распределения принимает вид: ⎛ ε P X − X0 ≤ ε = Φ ⎜ ⎝σX ( ) ⎞ ⎟. ⎠ Вероятность, стоящая в левой части последнего равенства называется доверительной вероятностью (см. выше), поэтому сама эта формула называется формулой доверительной вероятности. Теорема 3. Выборочная средняя X является несмещенной и состоятельной оценкой генеральной средней X 0 . Пример. Для обследования средней заработной платы трехсот рабочих была образована выборка, состоящая из пятидесяти рабочих. Результаты выборочного обследования представлены в таблице: Заработная плата в месяц, ден. ед. 100-120 120-140 140-160 160-180 180-200 200-220 Σ Число рабочих 5 10 19 10 4 2 50 1. Найти вероятность того, что средняя заработная плата всех рабочих отличается от средней выборочной не более чем на 5 ден. ед. (по абсолютной величине) в случае повторной и бесповторной выборок. 2. Найти границы, в которых с вероятностью 0,9545 заключена средняя заработная плата всех рабочих. 3. Сколько рабочих надо взять в выборку, чтобы полученные в п. 2 доверительные границы можно было гарантировать с вероятностью 0,9973. Решение. Исходный вариационный ряд является интервальным. Для нахождения его характеристик, прежде всего, сведем этот вариационный ряд к дискретному: ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» xi 110 130 150 170 190 210 Σ ni 5 10 19 10 4 2 50 где xi – возможное значение заработной платы – середина i - го интервала исходного вариационного ряда (ден. ед.); ni – число рабочих; n = 50 . X= = 1 (110 ⋅ 5 + 130 ⋅10 + 150 ⋅19 + 170 ⋅10 + 190 ⋅ 4 + 210 ⋅ 2 ) = 151,6 . 50 X2 = = 1 6 ∑ xi ni = n i =1 1 6 2 ∑ xi ni = n i =1 1 (1102 ⋅ 5 + 1302 ⋅10 + 1502 ⋅19 + 1702 ⋅10 + 1902 ⋅ 4 + 2102 ⋅ 2 ) = 23572 . 50 2 sx2 = X 2 − ( X ) = 23572 − 151,6 2 = 589 , 44. Для нахождения доверительной вероятности (см. п. 1 задания) воспользуемся одноименной формулой при ε = 5 . Но сначала вычислим средние квадратические отклонения выборочной средней для каждого из рассматриваемых типов выборок. а) Повторная выборка. s X2 589, 44 σX = = = 3, 433. n 50 ⎛ 5 P X − X0 ≤ 5 = Φ⎜ ⎝σX ( ) ⎞ ⎛ 5 ⎞ ⎟ = Φ⎜ ⎟ = Φ (1, 46 ) = 0 ,8557. 3 , 433 ⎝ ⎠ ⎠ б) Бесповторная выборка, N = 300 . σ 'X = sX2 n n⎞ 589, 44 ⎛ 50 ⎞ ⎛ ⎜1 − ⎟ = ⎜1 − ⎟ = 3,134 . 50 ⎝ 300 ⎠ ⎝ N⎠ ⎛ 5 ⎞ ⎛ 5 ⎞ P X − X0 ≤ 5 = Φ⎜ ⎟ = Φ⎜ ⎟ = Φ (1,60 ) = 0 ,89 . σ ' 3 , 134 ⎝ ⎠ ⎝ X⎠ ( ) ( ) Доверительный интервал в данном случае: X − ε , X + ε = (151,6 − 5; 151,6 + 5 ) = (146,6; 156,6 ) . 66 67 Теория вероятностей Тем самым получаем, что: неизвестное значение средней заработной платы всех рабочих накрывается интервалом (146,6;156,6) с вероятностью 0,8557 в случае повторной выборки и с вероятностью 0,89 в случае бесповторной выборки. В п. 2 задания искомым является доверительный интервал, для нахождения которого следует вычислить предельную ошибку выборки ε . Из условия и формулы доверительной вероятности в случае повторной выборки следует, что ⎛ ε Φ⎜ ⎜σ ⎝ X ⎞ ⎟⎟ = 0 ,9545 . ⎠ По таблице значений функции Лапласа найдем такое значение t , что Φ (t ) = 0,9545 . Имеем t = 2 . Поскольку ε = t, σX то ε = tσ X = 2 ⋅ 3, 433 = 6,866 . Соответствующий доверительный интервал: ( X − ε , X + ε ) = (151,6 − 6,866;151,6 + 6,866 ) ≈ (144,73;158,47). Аналогично, в случае бесповторной выборки имеем ε = tσ ' X = 2 ⋅ 3,134 = 6,268 . Соответствующий доверительный интервал: ( X − ε , X + ε ) = (151,6 − 6,268;151,6 + 6,268) ≈ (145,33;157,87). Таким образом, неизвестное значение средней заработной платы всех рабочих с вероятностью 0,9545 накрывается доверительным интервалом (144,73; 158,47) в случае повторной выборки и доверительным интервалом (145,33; 157,87) в случае бесповторной выборки. При решении п. 3 задания будем считать известными приближенные значения выборочной средней X и выборочной дисперсии s X2 . Также используем предельные ошибки выборки ε , найденные в п. 2. Рассмотрим сначала случай повторной выборки. Из условия и формулы доверительной вероятности следует, что ⎛ ε Φ⎜ ⎝σX ⎞ ⎟ = 0 ,9973 . ⎠ По таблице значений функции Лапласа найдем такое значение аргумента t , что Φ (t ) = 0,9973 : ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» t = 3 . Тогда ε = t и ε = tσ X . σX Используя известную формулу для σ X (см. Теорему 2 данного параграфа), имеем равенство: s X2 , ε =t n в котором единственной неизвестной является искомый объем выборки n . Решая получившееся уравнение относительно n , получаем n= t 2 s X2 ε2 . Подставляя в правую часть последнего равенства известные величины, получаем ε= 32 ⋅ 589, 44 = 112 ,7 ≈ 113 6 ,866 2 (заметим, что округление в данном случае, по смыслу искомой величины, следует произвести до целых, причем в большую сторону, чтобы обеспечить, как говорят, запас по вероятности). Повторяя проведенные рассуждения для случая бесповторной выборки, имеем: ε = tσ ' X , ε =t s X2 n n⎞ ⎛ ⎜1 − ⎟ . ⎝ N⎠ Решая полученное уравнение относительно n , получаем ⎛1 ⎝n ε 2 = t 2 s X2 ⎜ − 1⎞ ⎟, N⎠ откуда 1 ε2 1 = 2 2 + , n t sX N n= ε 2 N + t 2 s X2 t 2 s X2 6 ,2682 ⋅ 300 + 32 ⋅ 589, 44 = = 93, 4 ≈ 94 32 ⋅ 589, 44 (также как и выше округление здесь произведено в большую сторону). Таким образом, для того, чтобы с вероятностью 0,9973 неизвестное значение средней заработной платы всех рабочих накрывалось доверительным интервалом (144,73; 158,47) в случае 68 69 Теория вероятностей повторной выборки, в эту выборку следует взять 113 рабочих. Аналогично, для того, чтобы с вероятностью 0,9973 неизвестное значение средней заработной платы всех рабочих накрывалось доверительным интервалом (145,33; 157,87) в случае бесповторной выборки, в выборку следует взять 94 рабочих. Замечание. Если в задаче на выборочный метод объем генеральной совокупности много больше объема выборки (в ряде случаев это предполагается по умолчанию, а объем генеральной совокупности просто не указан), естественно считать, что n ≈ 0 . Как следует из формул ТеоN ремы 1, случаи повторной и бесповторной выборок дают тогда совпадающие результаты. 7.5 Оценкагенеральнойдоли Пусть требуется оценить долю тех объектов заданной генеральной совокупности, которые удовлетворяют некоторому условию A – генеральную долю p . Для этого из генеральной совокупности выделяют выборку, и по результатам её обследования находят долю тех объектов, которые удовлетворяют условию A – выборочную долю ω . Очевидно, что ω = m n , где n – объем выборки, m – число тех её объектов, которые удовлетворяют условию A . Выборочная доля в данном случае является той величиной, с помощью которой мы получим информацию о неизвестном значении генеральной доли. Таким образом, выборочная доля ω является оценкой генеральной доли p . Пример. p – доля бракованных деталей генеральной совокупности, ω – доля бракованных деталей в выборке. Условие (событие) A – деталь, взятая наудачу из генеральной совокупности – бракована. Простейший способ оценивания – точечное оценивание – подразумевает использование приближенного равенства p ≈ ω . Как и всякая оценка, выборочная доля ω является случайной величиной. Действительно, выборка из генеральной совокупности выделяется случайным образом. Соответственно то значение, которое примет выборочная доля, будет случайным. Следующие теоремы характеризуют выборочную долю как случайную величину. Теорема 1. Математическое ожидание выборочной доли равно генеральной доле: M (ω ) = p . Среднее квадратическое отклонение σ ω ( σ 'ω ) выборочной доли вычисляется по формулам ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» p (1 − p ) n σω = – в случае повторной выборки и σ 'ω = p (1 − p ) ⎛ n⎞ ⎜1 − ⎟ n ⎝ N⎠ – в случае бесповторной выборки, где N – объем генеральной совокупности. Напомним, что по определению среднего квадратического отклонения в случае повторной выборки имеем σ ω = D (ω ) (аналогично в случае бесповторной выборки). Замечание.При применении формул Теоремы 1 полагают p ≈ω . Теорема 2. Закон распределения выборочной доли неограниченно приближается к нормальному закону при неограниченном увеличении объема выборки. Подобно тому, как мы это сделали в предыдущем параграфе, как следствие Теоремы 2, получаем формулу доверительной вероятности: ⎛ ε ⎞ P( ω − p ≤ ε ) = Φ⎜ ⎟ ⎝ σω ⎠ – в случае повторной выборки. Заменяя в последнем равенстве σ ω на σ 'ω , получаем формулу дове- рительной вероятности в случае бесповторной выборки. По определению, величина ε , фигурирующая в формуле доверительной вероятности, называется предельной ошибкой выборки. Интервал (ω − ε ; ω + ε ) называется доверительным интер- валом. Выше было указано, в чем состоит точечная оценка генеральной доли. Интервальное оценивание сводится, например, к вычислению значения доверительной вероятности при заданной предельной ошибке выборки. Теорема 3. В случае повторной выборки выборочная доля является несмещенной и состоятельной оценкой генеральной доли. 70 71 Теория вероятностей Пример. Выборочные данные о надое молока для 100 коров из 1000 представлены таблицей: Надой молока, ц 10-20 20-30 30-40 40-50 50-60 Σ Число коров 2 18 46 30 4 100 1. Найти вероятность того, что доля всех коров с надоем молока более 40 ц отличается от такой доли в выборке не более чем на 0,05 (по абсолютной величине), для случая повторной и бесповторной выборок. 2. Найти границы, в которых с вероятностью 0,9596 заключена доля всех коров с надоем более 40 ц. 3. Сколько коров надо обследовать, чтобы с вероятностью 0,9786 для генеральной доли коров с надоем более 40 ц можно было гарантировать те же границы что и в п.2. Решение. Число m коров с надоем более 40 ц равно 34 ( m = 30 + 4 , см. заданный вариационный ряд). Тогда ω = m 34 = = 0 ,34 . n 100 Для нахождения доверительной вероятности п. 1 задания воспользуемся одноименной формулой при ε = 0,05 . Пусть рассматриваемая выборка – повторная. Тогда по формуле Теоремы 1, учитывая Замечание, получаем σω = ω (1 − ω ) n = 0 ,34 ⋅ 0 ,66 = 0 ,04737 . 100 Следовательно ⎛ ε P( ω − p ≤ ε ) = Φ⎜ ⎝ σω ⎞ ⎛ 0 ,05 ⎞ ⎟ = Φ⎜ ⎟ = Φ (1,06 ) = 0 ,7109 . ⎝ 0 ,04737 ⎠ ⎠ Аналогично, в случае бесповторной выборки: σ 'ω = ω (1 − ω ) ⎛ n n⎞ 0 ,34 ⋅ 0 ,66 ⎛ 100 ⎞ ⎜1 − ⎟ = ⎜1 − ⎟ = 0 ,04494 , 100 ⎝ 1000 ⎠ ⎝ N⎠ ⎛ ε P( ω − p ≤ ε ) = Φ⎜ ⎝ σ 'ω Доверительным в ⎞ ⎛ 0 ,05 ⎞ ⎟ = Φ⎜ ⎟ = Φ (1,11) = 0 ,733 . ⎝ 0 ,04494 ⎠ ⎠ данном случае является интервал ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» (ω − ε ; ω + ε ) = (0,34 − 0,05; 0,34 + 0,05) = (0,29; 0,39) . Таким образом, неизвестное значение доли всех коров с надоем более 40 ц накрывается доверительным интервалом (0,29;0,39) с вероятностью 0,7109 в случае повторной выборки и с вероятностью 0,733 в случае бесповторной выборки. В п. 2 задания при заданном значении доверительной вероятности искомым является доверительный интервал. Поскольку значение выборочной доли известно, остается найти предельную ошибку выборки ε . Пусть выборка – повторная. По условию, принимая во внимание формулу доверительной вероятности, имеем ⎛ ε P( ω − p ≤ ε ) = Φ⎜ ⎝ σω ⎞ ⎟ = 0 ,9596 . ⎠ По таблице значений функции Лапласа найдем такое t , что Φ (t ) = 0,9596 : t = 2,05 . Тогда и, используя найденное выше значение ε σω = t σ ω , получаем ε = tσ ω = 2,05 ⋅ 0,04737 = 0,097 . Соответственно, доверительным будет интервал: (ω − ε ; ω + ε ) = (0,34 − 0,097; 0,34 + 0,097) = (0,243; 0,437 ) . Пусть выборка – бесповторная. Аналогично предыдущему, получаем предельную ошибку выборки ε = tσ 'ω = 2,05 ⋅ 0,04494 = 0,092 и доверительный интервал: (ω − ε ; ω + ε ) = (0,34 − 0,092; 0,34 + 0,092 ) = (0,248; 0,432 ) . Таким образом, доля всех коров с надоем молока более 40 ц с вероятностью 0,9596 накрывается доверительным интервалом (0,243; 0,437) в случае повторной выборки и интервалом (0,248; 0,432) в случае бесповторной выборки. В п. 3 по заданным значениям доверительной вероятности и предельной ошибки выборки найдем необходимый объем выборки. Из начла решения заимствуем значение выборочной доли ω , найденное по исходному вариационному ряду. Пусть выборка – повторная. По условию, принимая во внимание формулу доверительной вероятности, имеем: 72 73 Теория вероятностей ⎛ ε P( ω − p ≤ ε ) = Φ⎜ ⎝ σω ⎞ ⎟ = 0 ,9786 . ⎠ По таблице значений функции Лапласа найдем такое t , что Φ (t ) = 0,9786 : t = 2 ,3 . Тогда и, ε = tσ ω . ε σω = t Подставляя вместо σ ω выражение из Теоремы 1, приходим к уравнению относительно неизвестной величины n : ε =t ω (1 − ω ) n . Решая это уравнение относительно n , подставляя в полученную формулу известные величины, завершаем решение n= t 2ω (1 − ω ) ε2 = 2 ,32 ⋅ 0 ,34 ⋅ 0 ,66 = 126,16 ≈ 127 0 ,0972 (заметим, что, как и ранее, округление здесь произведено в большую сторону). Аналогично, в случае бесповторной выборки из условия и формулы доверительной вероятности следует равенство ε = tσ 'ω или, принимая во внимание известное выражение для ε =t σ 'ω (см. Теорему 1): ω (1 − ω ) ⎛ n n⎞ ⎜1 − ⎟ . ⎝ N⎠ Решая это уравнение относительно n , получаем n= t 2ω (1 − ω ) N . ε 2 N + t 2ω (1 − ω ) Подставляя в правую часть последнего равенства известные значения, окончательно имеем: 2 ,32 ⋅ 0 ,34 ⋅ 0 ,66 ⋅1000 n= = 122 ,9993 ≈ 123 . 0 ,0922 ⋅1000 + 2 ,32 ⋅ 0 ,34⋅,66 Таким образом, в повторную выборку надо взять 127 коров, чтобы с вероятностью 0,9786 можно было утверждать, чтодоля всех коров с надоем молока более 40 ц накрывается доверительным интервалом (0,243; 0,437). Аналогично, в бесповторную выборку надо взять 123 коровы, чтобы с вероятностью 0,9786 можно было утверждать, чтодоля всех коров с надоем молока более 40 ц накрывается доверительным интервалом (0,248; 0,432). ЧОУ ВО «Курский институт менеджмента, экономики и бизнеса» 6. Ссылки и на информационные источники а) основная литература1 1. Кремер Н.Ш. Теория вероятностей и математическая статистика: учебник. Издательство: ЮнитиДана, 2012 г. – ЭБС «КНИГАФОНД» 2. Макаров Е.В., Лунгу К.Н. Высшая математика. Руководство к решению задач: учебное пособие. Издательство: ФИЗМАТЛИТ, 2010 г. – ЭБС «КНИГАФОНД» б) дополнительная литература 1. Пугачев В.С. Теория вероятностей и математическая статистика: учебник. Издательство: ФИЗМАТЛИТ, 2011 г. – ЭБС «КНИГАФОНД» 2. Солодовников А.С., Бабайцев В.А., Браилов А.В. Математика в экономике: учебник: Ч. 3. Теория вероятностей и математическая статистика. Издательство: Финансы и статистика, 2008 г. – ЭБС «КНИГАФОНД» 3. Красс М.С., Чупрынов Б.П. Математика в экономике. Математические методы и модели: учебник. Издательство: Финансы и статистика, 2007 г. – ЭБС «КНИГАФОНД» 4. Ермаков В.И. Общий курс высшей математики. – М.: ИНФРА, 2003. 5. Лихолетов И.И., Мацкевич И.П. Руководство к решению задач по высшей математике, теории вероятностей и математической статистике. – Минск, 1976. 6. Баврин И.И. Высшая математика. – М.: Владос, 2004. в) Интернет-ресурсы: 1. Электронная библиотечная система «КНИГАФОНД» http://www.knigafund.ru 2. Общероссийский математический портал http://www.mathnet.ru 3. Математический портал http://www.allmath.ru 4. Математический портал http://www.math24.ru/ 5. Московский центр непрерывного математического образования http://www.mccme.ru 1 библиографический список оформляется в соответствии с ГОСТ 7.1 и ГОСТ 7.80 74 75 Теория вероятностей
«Основные понятия и теоремы теории вероятностей. Понятие случайного события» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти
Найди решение своей задачи среди 1 000 000 ответов
Крупнейшая русскоязычная библиотека студенческих решенных задач

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot