Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Симонов Е.Н.
Курс теории вероятности
и математической статистики
Учебное пособие
НИУ ЮУрГУ- 2016
г. Озерск
ВВЕДЕНИЕ
Теория вероятностей есть математическая наука, изучающая
закономерности в случайных явлениях.
При научном исследовании различных задач часто приходится встречаться с особого типа явлениями, которые принято называть случайными. Случайное явление – это такое явление, которое
при неоднократном воспроизведении одного И того же опыта протекает каждый раз несколько по-иному.
Совершенно очевидно, что в природе нет ни одного физического явления, в котором не присутствовали бы в той или иной
мере элементы случайности. Как бы точно и подробно ни были
фиксированы условия опыта, невозможно достигнуть того, чтобы
при повторении опыта результаты полностью и в точности совпадали.
Случайные отклонения неизбежно сопутствуют любому закономерному явлению.
Практика показывает, что, наблюдая в совокупности массы
однородных случайных явлений, мы обычно обнаруживаем в них
вполне определенные закономерности, своего рода устойчивости,
свойственные именно массовым случайным явлениям.
Например, если много раз подряд бросать монету, частота появления герба (отношение числа появившихся гербов к общему
числу бросаний) постепенно стабилизируется, приближаясь к вполне определенному числу, именно к 1/2. Такое же свойство «устойчивости частот» обнаруживается и при многократном повторении
любого другого опыта, исход которого представляется заранее неопределенным, случайным.
3
Подобные специфические, так называемые «статистически закономерности наблюдаются всегда, когда мы имеем дело с однородных случайных явлений. Закономерности, проявляясь в этой
массе, оказываются практически независимыми от индивидуальных особенностей отдельных случайных явлений. Эти отдельные
особенности в массе как бы взаимно погашаются, и средний результат массы случайных явлений оказывается практически уже не
случайным. Именно эта многократно подтвержденная опытом устойчивость массовых случайных явлений и служит базой для применения вероятностных (статистических) методов исследования.
Методы теории вероятностей приспособлены только для исследования массовых случайных явлений, они не дают возможности
предсказать исход отдельного случайного явления, но дают возможность предсказать средний суммарный результат массы однородных случайных явлений, предсказать средний исход массы аналогичных опытов, конкретный исход каждого из которых остается
неопределенным, случайным.
Характерным для современного этапа развития науки является весьма широкое и плодотворное применение статистических методов во всех областях знания. Это вполне естественно, так как при
углубленном изучении любого круга явлений неизбежно наступает
этап, когда требуется не только выявление основных закономерностей, но и анализ возможных отклонений от них.
Математические законы теории вероятностей – отражение реальных статистических законов, объективно существующих в массовых случайных явлениях природы. К изучению этих явлений
теория вероятностей применяет математический метод и по своему
методу является одним из разделов математики, столь же логически точным И строгим, как другие математические науки.
4
Тема 1
СЛУЧАЙНЫЕ СОБЫТИЯ:
ОСНОВНЫЕ ПОНЯТИЯ И ОПРЕДЕЛЕНИЯ
Каждая наука, развивающая общую теорию какого-либо круга
явлений, содержит ряд основных понятий, на которых она базируется. Таковы, например, в геометрии понятия точки, прямой, линии; в механике – понятия силы, массы, скорости, ускорения и т.д.
Естественно, что не все основные понятия могут быть строго определены, так как определить понятие – это значит свести его к другим, более известным.
Такие основные понятия существуют и в теории вероятностей. В качестве первого из них введем понятие события.
Под «событием» в теории вероятностей понимается всякий
факт, который в результате опыта может произойти или не произойти.
Приведем несколько примеров событий:
А – появление герба при бросании монеты;
В – появление трех гербов при трехкратном бросании монеты;
С – попадание в цель при выстреле;
D–появление туза при вынимании карты из колоды.
Рассматривая вышеперечисленные события, мы видим, что
каждое из них обладает какой-то степенью возможности: одни –
большей, другие – меньшей, причем для некоторых из этих событий мы сразу же можем решить, какое из них более, а какое менее
5
возможно. Например, сразу видно, что событие А более возможно,
чем В и D. Каждое из таких событий обладает той или иной степенью возможности. Чтобы количественно сравнивать между собой события по степени их возможности, очевидно, нужно с каждым событием связать определенное число, которое тем больше,
чем более возможно событие. Такое число называется вероятностью события.
Вероятность события есть численная мера степени объективной возможности этого события.
Заметим, что уже при самом введении понятия вероятности
события мы связываем с этим понятием определенный практический смысл, а именно: на основании опыта мы считаем более вероятными те события, которые происходят чаще; менее вероятными –
те события, которые происходят реже; мало вероятными–те, которые почти никогда не происходят. Таким образом, понятие вероятности события в самой своей основе связано с опытным, практическим понятием частоты события.
Сравнивая между собой различные события по степени их
возможности, установим единицу измерения. В качестве такой единицы измерения естественно принять вероятность достоверного
события, т.е. такого события, которое в результате опыта непременно должно произойти. Пример достоверного события – выпадение не более 6 очков при бросании одной игральной кости.
Если приписать достоверному событию вероятность, равную
единице, то все другие события – возможные, но не достоверные –
будут характеризоваться вероятностями, меньшими единицы, составляющими какую-то долю единицы.
Противоположностью по отношению к достоверному событию является невозможное событие, т.е. такое событие, которое
в данном опыте не может произойти. Пример невозможного события – появление 12 очков при бросании одной игральной кости.
Естественно приписать невозможному событию вероятность, равную нулю.
6
Таким образом, установлены единица измерения вероятностей –
вероятность достоверного события – и диапазон изменения вероятностей любых событий – числа от 0 до 1.
Существует целый класс опытов, для которых вероятности их
возможных исходов легко оценить непосредственно из условий
самого опыта. Для этого нужно, чтобы различные исходы опыта
обладали симметрией и в силу этого были объективно одинаково
возможными.
Рассмотрим, например, опыт, состоящий в бросании игральной кости, т.е. симметричного кубика, на гранях которого нанесено
различное число очков: от 1 до 6.
В силу симметрии кубика есть основания считать все шесть
возможных исходов опыта одинаково возможными. Именно это
дает нам право предполагать, что при многократном бросании кости все шесть граней будут выпадать примерно одинаково часто.
Это предположение для правильно выполненной кости действительно оправдывается на опыте; при многократном бросании кости
каждая ее грань появляется примерно в одной шестой доле всех
случаев бросания, причем отклонение этой доли от 1/6 тем меньше,
чем большее число опытов произведено. Имея в виду, что вероятность достоверного события принята равной единице, естественно
приписать выпадению каждой отдельной грани вероятность, равную 1/6. Это число характеризует некоторые объективные свойства
данного случайного явления, а именно свойство симметрии шести
возможных исходов опыта.
Для всякого опыта, в котором возможные исходы симметричны
и одинаково возможны, можно применить аналогичный прием, который называется непосредственным подсчетом вероятностей.
Введем ряд вспомогательных понятий.
1. Полная группа событий.
Говорят, что несколько событий в данном опыте образуют полную группу событий, если в результате опыта непременно должно
появиться хотя бы одно из них.
7
Примеры событий, образующих полную группу:
1) выпадение герба и выпадение цифры при бросании монеты;
2) попадание и промах при выстреле;
3) появление 1,2, 3, 4, 5, 6 очков при бросании игральной кости;
2. Несовместные события.
Несколько событий называются несовместными в данном
опыте, если никакие два из них не могут появиться вместе. Примеры несовместных событий:
1) выпадение герба и выпадение цифры при бросании монеты;
2) попадание и промах при одном выстреле;
3) появление 1.3,4 очков при одном бросании игральной кости;
3. Равновозможные события.
Несколько событий в данном опыте называются равновозможными, если по условиям симметрии есть основание считать,
что ни одно из этих событий не является объективно более возможным, чем другое.
Примеры равновозможных событий:
1) выпадение герба и выпадение цифры при бросании монеты;
2) появление 1, 3, 4, 5 очков при бросании игральной кости;
3) появление карты бубновой, червонной, трефовой масти при
вынимании карты из колоды;
Существуют группы событий, обладающие всеми тремя свойствами: они образуют полную группу, несовместны и равновозможны; например: появление герба и цифры при бросании монеты;
появление 1, 2, 3, 4, 5, 6 очков при бросании игральной кости. События, образующие такую группу, называются случаями (иначе
«исходами»).
Если какой-либо опыт по своей структуре обладает симметрией возможных исходов, то случаи представляют собой исчерпывающую систему равновозможных и исключающих друг друга исходов опыта. Про такой опыт говорят, что он «сводится к схеме
случаев».
8
Схема случаев по преимуществу имеет место в искусственно
организованных опытах, в которых заранее и сознательно обеспечена одинаковая возможность исходов опыта (как, например, в
азартных играх). Для таких опытов возможен непосредственный
подсчет вероятностей, основанный на оценке доли так называемых
«благоприятных» случаев в общем числе случаев.
Случай называется благоприятным (или «благоприятствующим») некоторому событию, если появление этого случая влечет за
собой появление данного события.
Например, при бросании игральной кости возможны шесть случаев: появление 1, 2, 3, 4, 5, 6 очков. Из них событию А – появлению
четного числа очков – благоприятны три случая: 2, 4, 6 и не благоприятны остальные три.
Если опыт сводится к схеме случаев, то вероятность события А
в данном опыте можно оценить по относительной доле благоприятных случаев. Вероятность события А вычисляется как отношение
числа благоприятных случаев к общему числу случаев:
P( A) =
m
,
n
(1.1)
где Р (А) – вероятность события А; п – общее число случаев; т –
число случаев, благоприятных событию А.
Так как число благоприятных случаев всегда заключено между 0 и п (0–для невозможного и п–для достоверного события), то
вероятность события, вычисленная по формуле (1.1), всегда есть
рациональная правильная дробь:
0 ≤ P ( A) ≤ 1 .
Формула (1.1), так называемая «классическая формула» для
вычисления вероятностей.
9
Запись события С в виде суммы A1 + A2 + L + An или произведения A1 ⋅ A2 ⋅ L ⋅ An событий становится более понятной, если пользоваться логическим определением этих формально алгебраических операций над событиями: событие A1 + A2 + L + An означает
наступление или A1 , или A2 , ..., или An ; событие A1 ⋅ A2 ⋅ L ⋅ An означает наступление и A1 , и A2 , ..., и An .
Рассмотрим решение типовых задач:
Задание 1
Бросают две игральные кости. Найти вероятность того, что на
верхних гранях:
а) сумма числа очков не превосходит 5;
б) произведение числа очков не превосходит 13;
в) произведение числа очков делится на 6.
Решение. В данной задаче испытанием является бросание
двух игральных костей. Результатом испытания является одно из
сочетаний очков 1, 2, 3, 4, 5, 6 на верхних гранях двух костей.
Решение: а) Рассмотрим событие А – сумма числа очков на
двух костях не превосходит 5, т.е. указанная сумма меньше или
равна 5.
Вероятность события А вычислим с помощью классического
определения вероятности
P( A) =
m
,
n
где n – общее число равновозможных элементарных исходов испытания; m – число элементарных исходов, благоприятствующих появлению события A.
10
Составим таблицу всевозможных элементарных исходов данного испытания (в первом столбце по вертикали укажем число очков,
которое может появиться на одной кости, в первой строке по горизонтали – число очков, которое может появиться на второй кости,
внутри таблицы запишем сумму числа очков на двух костях)
Таблица 1
«+»
1
2
3
4
5
6
1
2
3
4
5
6
7
2
3
4
5
6
7
8
3
4
5
6
7
8
9
4
5
6
7
8
9
10
5
6
7
8
9
10
11
6
7
8
9
10
11
12
Тогда из таблицы 1 несложно найти общее число равновозможных элементарных исходов испытания: n = 36 (число клеток в
таблице 1, имеющих светлую штриховку и не имеющих штриховки); и число элементарных исходов, благоприятствующих появлению события A: m = 10 (число клеток в таблице 1, имеющих светлую штриховку).
В результате получаем:
P ( A) =
10
≈ 0,278 .
36
Таким образом, искомая вероятность равна 0,278.
Решение: б) Рассмотрим событие В – произведение числа
очков не превосходит 13, т.е. указанное произведение меньше или
равно 13.
Вероятность события В вычислим с помощью классического
определения вероятности:
P( B) =
m
.
n
11
Составим таблицу всевозможных элементарных исходов данного испытания (в первом столбце по вертикали укажем число очков, которое может появиться на одной кости, а в первой строке по
горизонтали – число очков, которое может появиться на второй
кости, внутри таблицы запишем произведение числа очков на двух
костях)
Таблица 2
«х»
1
2
3
4
5
6
1
1
2
3
4
5
6
2
2
4
6
8
10
12
3
3
6
9
12
15
18
4
4
8
12
16
20
24
5
5
10
15
20
25
30
6
6
12
18
24
30
36
Из таблицы 2 находим: n = 36 (число клеток в таблице 2,
имеющих светлую штриховку и не имеющих штриховки); m = 23
(число клеток в таблице 2, имеющих светлую штриховку).
В результате получаем:
P( B) =
23
≈ 0,639 .
36
Таким образом, искомая вероятность равна 0,639.
Решение: в) Рассмотрим событие С – произведение числа
очков делится на 6.
Вероятность события С вычислим с помощью классического
определения вероятности:
P(C ) =
12
m
n.
Используя таблицу 2, произведений числа очков, выпавших на
двух костях, из задания 1 б), несложно подсчитать число случаев,
благоприятствующих наступлению события C. Для удобства рекомендуется таблицу переписать еще раз, отметив в ней исходы, благоприятствующие наступлению события C.
Таблица 3
«х»
1
2
3
4
5
6
1
1
2
3
4
5
6
2
2
4
6
8
10
12
3
3
6
9
12
15
18
4
4
8
12
16
20
24
5
5
10
15
20
25
30
6
6
12
18
24
30
36
Из таблицы 3 находим: n = 36 (число клеток в таблице 3,
имеющих светлую штриховку и не имеющих штриховки); m = 15
(число клеток в таблице 3, имеющих светлую штриховку).
В результате получаем
P(C ) =
15
≈ 0,417 .
36
Таким образом, искомая вероятность равна 0,417.
Ответ: P( A) ≈ 0,278 ; P ( B ) ≈ 0,639 ; P (C ) ≈ 0,417 .
Числа m и n в формуле вероятности можно определять, используя основные правила и понятия комбинаторики.
13
Тема 2
ОСНОВНЫЕ ФОРМУЛЫ КОМБИНАТОРИКИ
И ИХ ИСПОЛЬЗОВАНИЕ ДЛЯ ВЫЧИСЛЕНИЯ
ВЕРОЯТНОСТИ СОБЫТИЯ
Человеку часто приходится иметь дело с задачами, в которых
требуется найти число всех способов расположения некоторых объектов или число способов выполнения каких-либо действий. Сколько существует различных автомобильных номеров, состоящих из
4 цифр, за которыми следуют 3 буквы? Сколькими способами могут
распределиться призовые места на чемпионате мира по футболу? Задачи такого типа называют комбинаторными, а раздел математики,
изучающий способы их решения – комбинаторикой.
С комбинаторными вычислениями приходится иметь дело
представителям многих специальностей.
Особую роль играет комбинаторика в классической теории
вероятностей, являясь мощным инструментом для подсчёта количества различных исходов испытаний.
К различным соединениям, которые изучает комбинаторика,
относятся перестановки, сочетания, и размещения.
Множество М из п элементов называется упорядоченным,
если установлено взаимно-однозначное соответствие (биекция)
между множеством М и множеством {1,2,3, K, n }. Другими словами, множество М является упорядоченным, если его элементы занумерованы в каком-либо определенном порядке.
14
Различные упорядочения множества М из n различных элементов называются перестановками из n элементов (без повторений).
Количество таких перестановок обозначают символом Pn и вычисляют по формуле
Pn = n!
Таким образом, общее количество перестановок из
равно
(2.1)
n
объектов
n!= n(n −1)(n − 2) ⋅K⋅ 3 ⋅ 2 ⋅1.
Символ n! читается как «n факториал» и обозначает произведение всех натуральных чисел от 1 до n. По определению считается
0! = 1.
ПРИМЕР. Сколькими способами можно расставить на полке
в ряд пять различных книг?
По формуле (2.1) числа перестановок имеем Р5 = 120.
Следовательно, существует 120 различных комбинаций расстановки в ряд на книжной полке пяти различных книг.
Теперь рассмотрим перестановки, составленные из п элементов среди которых есть одинаковые. Пусть дана совокупность из п
элементов, в которой n1 , элементов принадлежит к первому типу,
n2 элементов – ко второму типу и так далее до nk элементов k-го
типа, причем элементы одного и того же типа неразличимы между
~
собой ( n1 + n2 + K + nk = n ). Тогда Pn общее число перестановок с
повторениями из п данных элементов вычисляется по формуле
~
Pn =
n!
n1!⋅n2!Knk ! .
(2.2)
15
Таким образом, из определений следует, что различные перестановки любого множества отличаются друг от друга только порядком его элементов (но не элементами).
ПРИМЕР. Сколько различных «слов» можно составить из
всех букв" слова УДОБРЕНИЯ, если порядок следования гласных
(У,0,Е,И, Я) должен сохраниться?
Так как гласные нельзя переставлять между собой, то их можно считать неразличимыми или одинаковыми. Тогда задача сводится к определению числа перестановок из 9 букв с повторениями
(2.2), что дает:
~
P9 =
9!
5!⋅1!⋅1!⋅1!⋅1! .
Сочетанием называется набор элементов, рассматриваемых без
учета порядка их следования. Пусть рассматривается множество из п
элементов. Сочетанием из п элементов по k называется его произвольное неупорядоченное подмножество, содержащее k элементов.
Итак, сочетанием называется k-элементное подмножество
множества М из п различных элементов, короче, просто сочетанием из п по k (k < п).
k
Количество таких сочетаний обозначают символом Cn (чита-
ется: це из эн по ка) и вычисляют по формуле
Сnk =
n!
k!(n − k )! ,
k
где Cn – число сочетаний из п элементов по k.
16
(2.3)
Замечания 1. Сочетание из п по k иногда называют выборкой
из п по k, т.к. число способов, которыми можно выбрать k предмеk
тов из п, в точности равно Cn .
k
2. Cn часто называют биномиальными коэффициентами,
поскольку
n
(x + y ) = ∑ Cnk xk y n−k
n
k =0
Если множество М содержит элементы п типов по k штук каждого, то k-элементное подмножество множества М называют сочетанием из п по k с повторениями.
~
k
Количество таких сочетаний будем обозначать символом Cn ;
его можно вычислить по формуле:
~
Cnk = Cnk+k −1 .
(2.4)
Из этих определений следует, что различные сочетания отличаются друг от друга только самими элементами (хотя бы одним),
но не порядком элементов.
ПРИМЕР В почтовом отделении продаются открытки 8 типов. Сколькими способами а) можно купить 6 разных открыток?
б) можно купить 6 открыток?
а) Так как порядок покупки открыток не существен, т.е. наборы отличаются только самими открытками, то имеем дело с сочетаниями, причем без повторений (ибо покупаются разные открытки).
Тогда искомое количество способов вычисляем по формуле (2.3)
17
С86 =
8!
= 28 .
6!(8 − 6)!
б) Вновь порядок открыток не существен, однако открытки
могут повторяться, поэтому всякий набор открыток представляет
собой сочетание с повторениями (2.4) из 8 по 6. Искомое число
13!
~6
6
C
=
C
=
= 1716 .
8+ 6−1
способов равно 8
6!7!
Рассмотрим теперь случай, когда перестановка образуется не
из всего множества объектов, а только из его части. Упорядоченное
k-элементное подмножество множества М из n, различных элементов называется размещением из п. по k (без повторений). Количеk
ство таких размещении обозначается символом An и вычисляется
по формуле:
Ank =
n!
(n − k )! .
(2.5)
ПРИМЕР Студенту необходимо сдать четыре экзамена в течение семи дней. Сколькими способами можно составив расписание экзаменов, если учитывать, что в один день он может сдавать
только один экзамен?
Каждый отдельный вариант расписания представляет собой
размещение из 7 объектов (дней) по 4. По формуле (2.5) числа размещений вычислим общее число вариантов:
A74 =
7!
= 840 .
(7 − 4)!
Замечание: При n = k размещение является перестановкой из
n элементов.
Пусть рассматриваются упорядоченные последовательности
(размещения) из п различных видов элементов по k, причем среди
18
k выбранных элементов некоторые (или все) могут быть одинаковыми. Такие размещения называются размещениями с повторе-
~k
A
ниями. Обозначим их общее число n . Тогда
~
Ank = n k .
(2.6)
Отметим, что в случае размещений с повторениями число
элементов k может быть произвольным, т.е. превышать количество
видов элементов из которых осуществляется выбор, отметим, что
количество элементов одного вида должно быть не меньше k.
ПРИМЕР. Четыре студента сдают экзамен. Сколькими способами им могут быть выставлены положительные оценки?
Каждый из четырех студентов получает одну из трех оценок –
3, 4, 5, причем отметки могут совпадать. Результат экзамена можно
представить в виде последовательности из 4-х оценок, каждая из
которых взята из множества {3, 4, 5}, причем порядок оценок в последовательности важен (последовательность (4,3,3,5) отличается
от последовательности (4,5,3,3)). Таким образом, мы имеем дело с
размещениями из 3 по 4 с повторениями (2.6), поэтому число воз-
~k
k
4
A
можных результатов экзамена равно n = n = 3 = 81 .
Выбор с возвращением. Пусть имеется некоторая совокуп-
ность n различных предметов a1 , a2 , K , an , из неё последовательно извлекается r предметов таким образов, что каждый выбранный предмет фиксируется и возвращается обратно. Выборки
a i1 , a i 2 , K , a ir и a j1, a j 2 , K, a jr считаются различными, если на каком-либо шаге выбраны различные предметы, т.е. aik ≠ a jk хотя бы
~r
A
при одном k. Тогда число различных выборок равно n .
19
Выбор без возвращения. Пусть из той же совокупности n
предметов выбирается r предметов либо одновременно с последующим расположением в определенном порядке, либо последоваr
тельно один за другим без возврата. Всего существует An различ-
ных выборок ( ai1 , ai 2 , K, air ) по r предметов, выбираемых без возвращения из совокупности объема n.
Пусть n-элементное множество М разбивается на фиксированное число k подмножеств (групп), причем фиксировано и число
элементов каждого подмножества (скажем, в подмножестве с номером i ровно ni элементов). Такое выделение подмножеств называют разбиением на группы.
Количество различных разбиений из n элементов по
n1, n2 ,K, nk элементов ( n1 + n2 + K+ nk = n ) будем обозначать символом P(n; n1 , n2 ,K, nk ) ; его можно вычислить по формуле
P(n; n1, n2 ,K, nk ) =
n!
n1!n2!Knk ! .
При классическом подходе к определению вероятности требуется найти общее количество случаев (равновероятных и взаимоисключающих исходов испытания), а также число случаев, благоприятствующих данному событию.
20
Тема 3
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
Для дальнейшего решения задач контрольной работы ознакомимся с основными теоремами теории вероятностей.
Основными теоремами теории вероятностей являются две:
теорема сложения вероятностей и теорема умножения вероятностей. Строго говоря, оба эти положения являются теоремами и могут быть доказаны только для событий, сводящихся к схеме случаев. Для событий, не сводящихся к схеме случаев, они принимаются
аксиоматически, как принципы или постулаты. Перед тем как формулировать и доказывать основные теоремы, введем некоторые
вспомогательные понятия, а именно понятия о сумме событий и
произведении событий.
Суммой двух событий А и В называется событие С, состоящее в выполнении события А или события В, или обоих вместе.
Например, если событие А – попадание в цель при первом выстреле, событие В – попадание в цель при втором выстреле, то событие С=А+В есть попадание в цель вообще, безразлично при каком выстреле – при первом, при втором или при обоих вместе.
Если события А и В несовместны, то естественно, что появление обоих этих событий вместе отпадает, и сумма событий А и В
сводится к появлению или события А, или события В. Например,
если событие А – появление карты червонной масти при вынимании карты из колоды, событие В – появление карты бубновой мас21
ти, то С=А+В есть появление карты красной масти, безразлично –
червонной или бубновой.
Суммой двух событий А и В называется событие С, состоящее в появлении хотя бы одного из событий А и В.
Суммой нескольких событий называется событие, состоящее
в появлении хотя бы одного из этих событий.
Произведением двух событий А и В называется событие С,
состоящее в совместном выполнении события А и события В.
Например, если событие А – появление туза при вынимании
карты из колоды, событие В – появление карты бубновой масти, то
событие С=АВ есть появление бубнового туза. Если производится
два выстрела по мишени и событие А – попадание при первом выстреле, событие В – попадание при втором выстреле, то С = АВ
есть попадание при обоих выстрелах.
Произведением нескольких событий называется событие,
состоящее в совместном появлении всех этих событий.
При определении вероятностей часто приходится представлять сложные события в виде комбинаций более простых событий,
применяя и операцию сложения, и операцию умножения событий.
Например, пусть по мишени производится три выстрела и
рассматриваются следующие элементарные события: А1 – попадание при первом выстреле, А1 – промах при первом выстреле, А2 –
попадание при втором выстреле, А2 – промах при втором, выстреле, А3 – попадание при третьем выстреле, А3 – промах при третьем выстреле.
Рассмотрим более сложное событие В, состоящее в том, что в
результате данных трех выстрелов будет ровно одно попадание в
мишень. Событие В можно представить в виде следующей комбинации элементарных событий:
В = А1 A2 A3 + A1 A2 A3 + A1 A2 A3
22
Событие С, состоящее в том, что в мишень будет не менее
двух попаданий, может быть представлено в виде:
C = А1 A2 A3 + A1 A2 A3 + A1 A2 A3 + A1 A2 A3 .
Теорема сложения вероятностей. Вероятность суммы двух несовместных событий равна сумме вероятностей этих
событий:
P ( А + B ) = P ( A ) + P (B ) .
(3.1)
Теорема сложения вероятностей применима к любому числу
несовместных событий. Ее удобно записать в виде:
n
⎛ n
⎞
P ⎜ ∑ Ai ⎟ = ∑ P ( Ai ) .
⎝ i =1 ⎠ i =1
(3.2)
Следствие 1. Если события А1 , A2 , K , An образуют полную
группу несовместных событий, то сумма их вероятностей равна
единице:
n
∑ P(A ) = 1 .
i =1
i
(3.3)
Доказательство. Так как события А1 , A2 ,K , An образуют полную группу, то появление хотя бы одного из них – достоверное событие:
P ( А1 + A2 + K + An ) = 1 .
23
Так как А1 , A2 , K , An – несовместные события, то к ним приn
⎛ n
⎞
менима теорема сложения вероятностей P ⎜ ∑ Ai ⎟ = ∑ P ( Ai ) , от⎝ i =1 ⎠ i =1
n
куда
∑ P ( A ) = 1 что и требовалось доказать.
i =1
i
Перед тем как вывести второе следствие теоремы сложения,
определим понятие о «противоположных событиях».
Противоположными событиями называются два несовместных события, образующих полную группу.
Событие, противоположное событию А, принято обозначать А .
Примеры противоположных событий.
1) А – попадание при выстреле, А – промах при выстреле;
2) В– выпадение герба при бросании монеты, В – выпадение
цифры при бросании монеты;
3) С– безотказная работа всех элементов технической системы,
С – отказ хотя бы одного элемента;
4) D – обнаружение не менее двух бракованных изделий в контрольной партии, D – обнаружение не более одного бракованного
изделия.
Следствие 2. Сумма вероятностей противоположных событий
равна единице:
P ( А ) + P (A ) = 1 .
(3.4)
Это следствие есть частный случай следствия 1. Оно выделено
особо ввиду его большой важности в практическом применении теории вероятностей. На практике весьма часто оказывается легче вычислить вероятность противоположного события А , чем вероятность прямого события А. В этих случаях вычисляют P (A ) и находят
P ( А ) = 1 − P (A ) .
24
(3.5)
Теорема сложения вероятностей справедлива только для несовместных событий. В случае, когда события А и В совместны, вероятность суммы этих событий выражается формулой
P ( А + В ) = P ( A) + P (B ) − P ( AB ).
(3.6)
Аналогично вероятность суммы трех совместных событий
вычисляется по формуле
P ( А + В + C ) = P ( A) + P (B ) + P (C ) − P ( AB ). − P (BC ) − P ( AC ) + P ( ABC ).
Общая формула для вероятности суммы любого числа совместных событий имеет вид:
⎛ n
⎞ n
n
P ⎜ ∑ Ai ⎟ = ∑ P ( Ai ) − ∑ P (Ai A j ) + K + (− 1) P ( A1 A2 K An ),
i, j
⎝ i =1 ⎠ i =1
где суммы распространяются на различные значения индексов i,j,n,
и т.д.
Приведенная формула выражает вероятность суммы любого
числа событий через вероятности произведений этих событий, взятых по одному, по два, по три и т.д.
Аналогичную формулу можно написать для произведения событий. Действительно, ясно, что
P ( АВ ) = P ( A ) + P (B ) − P ( A + B ).
Исходя из изложенного теоретического материала перейдем к
решению заданий контрольной работы.
25
Задание 2
В урне содержится 5 черных и 6 белых шаров. Случайным образом вынимают 4 шара. Найти вероятность того, что среди них
имеется:
а) 2 белых шара;
б) меньше, чем 2. белых шара;
в) хотя бы один белый шар.
Решение. В данной задаче испытанием является случайное
вынимание четырех шаров. Элементарными событиями являются
всевозможные сочетания (2.3) по 4 (число вынутых случайным образом из урны шаров) из 11 шаров (5 черных + 6 белых = 11 шаров,
имеющихся в урне). Их число можно определить по формуле числа
сочетаний из n по k:
C nk =
n!
,
k !⋅ (n − k ) !
где k ≤ n .
В нашем случае n = 11, k = 4 . Тогда общее число исходов
C114 =
11!
11! 11⋅10 ⋅ 9 ⋅ 8
=
=
= 330
4!⋅(11 − 4)! 4!⋅7! 1⋅ 2 ⋅ 3 ⋅ 4
Решение: а) Рассмотрим событие А – среди четырех вынутых
шаров 2 белых, то есть среди вынутых четырех шаров 2 белых и
2 черных.
Вероятность события А вычислим с помощью классического
определения вероятности
26
P ( A) =
m
,
n
где n – общее число равновозможных элементарных исходов испытания (в нашем случае n = 330 ); m – число элементарных исходов,
благоприятствующих появлению события A.
В нашем случае требуется выбрать из 6 белых шаров 2 шара и
из 5 черных шаров еще 2 шара. Из 6 шаров выбрать 2 шара можно
C 62 способами, из 5 шаров выбрать 2 шара можно C 52 способами.
Тогда число способов, благоприятствующих событию A, определяется следующим выражением:
m = C 62 ⋅ C 52 =
6!
5!
6⋅5 5⋅ 4
⋅
=
⋅
= 15 ⋅10 = 150.
2!⋅(6 − 2 )! 2!⋅(5 − 2)! 1 ⋅ 2 1 ⋅ 2
В результате получаем:
P ( A) =
150
= 0,454.
330
Таким образом, искомая вероятность равна 0,454.
Решение: б) Рассмотрим событие B – среди четырех вынутых
шаров меньше чем 2 белых, то есть среди вынутых шаров или ни
одного белого шара, а все четыре черные, или среди них один белый, а остальные три черные. Таким образом, событие B состоит из
двух несовместных событий:
B1 – среди вынутых шаров только один белый и 3 черных шара,
B 2 – среди вынутых шаров нет ни одного белого, все 4 шара
черные, то есть
B = B1 + B 2 .
27
Так как события B1 , B 2 несовместны, то есть при осуществлении одного из событий другое произойти не может, то для нахождения вероятности события B можно воспользоваться или теоремой сложения для несовместных событий, или классическим определением вероятности, используя правило сложения.
Проиллюстрируем оба метода.
Первый способ. Используем теорему сложения для несовместных событий, то есть если события А и B несовместные, то вероятность суммы этих событий
A + B определяется формулой (3.1):
P( A + B) = P( A) + P( B) .
В нашем случае имеем: события B1 , B 2 несовместны, тогда
P ( B1 + B 2 ) = P ( B1 ) + P ( B 2 ) .
Вероятности событий P( B1 ) и P( B2 ) определим, используя
классическое определение вероятностей.
Для события B1 имеем
P ( B1 ) =
m1
,
n
1
3
1
5−3
1
2
где n = 330 , m1 = C 6 ⋅ C 5 = C 6 ⋅ C 5 = C 6 ⋅ C 5 = 6 ⋅
5⋅ 4
= 60 (при вычис1⋅ 2
лении m1 использовали правило умножения, т.к. нам необходимо
было определить число способов, которым можно выбрать из 6 белых один шар и из 5 черных 3 шара, и свойство числа сочетаний
Ckm = Ckk − m ).
Тогда
P( B1 ) =
28
60
2
= ≈ 0,182 .
330 11
Для события B 2 имеем
P( B2 ) =
m2
n ,
5− 4
где n = 330 , m2 = C6 ⋅ C5 = C6 ⋅ C5 = C6 ⋅ C5 = 1 ⋅ 5 = 5 (при вычислении m 2 использовали правило умножения, т.к. нам необходимо
было определить число способов, которым можно выбрать из 6 белых ноль шаров и из 5 черных 4 шара).
4
1
Тогда
P( B2 ) =
5
1
=
≈ 0,015 .
330 66
В результате получим:
P( B1 + B2 ) = P( B1 ) + P( B2 ) = 0,182 + 0,015 = 0,197
Таким образом, искомая вероятность равна 0,197.
Второй способ. Для определения вероятности события B
воспользуемся классическим определением вероятности
P( B) =
m
,
n
где n = 330 ; а m можно определить, используя правило сложения,
которое состоит в следующем: если объект A может быть выбран
m1 способами, а объект B – m 2 способами, причем выборы объектов A и B несовместны (взаимно исключают друг друга), то выбор
«либо A либо B» может быть осуществлен m1 + m 2 способами.
29
Таким образом, число исходов, благоприятствующих наступлению события B, является суммой m1 и m 2 , где m1 и m 2 определим, используя правило умножения (правило умножения сформулировано в решении задачи 2 (а)).
m = m1 + m 2 = C 61 ⋅ C 53 + C 60 ⋅ C 54 = 60 + 5 = 65 .
В результате получим:
P( B) =
65
= 0,197 .
330
Таким образом, искомая вероятность равна 0,197.
Решение: в) Рассмотрим событие С – среди четырех вынутых
шаров хотя бы один белый. Этому событию удовлетворяют следующие сочетания шаров: 1 белый и 3 черных (событие С1 ), 2 белых и 2 черных (событие С 2 ), 3 белых и 1 черный (событие С 3 ),
4 белых и ни одного черного (событие С 4 ). Тогда
C = C1 + C 2 + C 3 + C 4 .
Здесь событие C определяется словами «хотя бы один» и прямое решение приводит обычно к сложным (громоздким) вычислениям. В таких задачах удобнее вначале рассмотреть противоположное событие C и найти его вероятность P(C ) , а затем воспользоваться формулой (3.5)
P (C ) = 1 − P (C ) .
30
Рассмотрим противоположное событие C – среди четырех
вынутых шаров нет ни одного белого шара. Вероятность этого события вычислим, используя классическое определение вероятности
P(C ) =
m
,
n
4
где n = 330 , m = C 6 ⋅ C 5 = 5 .
Следовательно, вероятность противоположного события
P(С ) =
5
= 0,015 .
330
В результате получим:
P(C ) = 1 − P(C ) = 1 − 0,015 = 0,985 .
Таким образом, искомая вероятность равна 0,985.
Ответ: P(A) = 0,454; P ( B ) = 0,197 ; P (C ) = 0,985 .
Перед решением третьего задания введем еще одно важное
понятие: понятие о независимых и зависимых событиях и сформулируем теорему умножения вероятностей.
Событие А называется независимым от события В, если вероятность события А не зависит от того, произошло событие В или нет
Событие А называется зависимым от события В, если вероятность события А меняется в зависимости от того, произошло событие В или нет.
Рассмотрим примеры.
1. Опыт состоит в бросании двух монет; рассматриваются
события: А – появление герба на первой монете, В – появление герба на второй монете. В данном случае вероятность события А не
31
зависит от того, произошло событие В или нет; событие А независимо от события В.
2. В урне два белых шара и один черный; два лица вынимают
из урны по одному шару; рассматриваются события: А – появление
белого шара у 1-го лица, В – появление белого шара у 2-го лица.
Вероятность события А до того, как известно что-либо о событии
В, равна 2/3. Если стало известно, что событие В произошло, то вероятность события А становится равной 1/2, из чего заключаем, что
событие А зависит от события В.
Вероятность события А, вычисленная при условии, что имело
место другое событие В, называется условной вероятностью события А и обозначается P( А / В ).
Условие независимости события А от события В можно записать в виде:
P ( А / В ) = P ( A) ,
а условие зависимости – в виде:
P ( А / В ) ≠ P ( A). .
Теорема умножения вероятностей формулируется следующим образом.
Вероятность произведения двух событий равна произведению
вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое имело место:
P ( АВ ) = P ( A )P (B / А ) .
(3.7)
Очевидно, при применении теоремы умножения безразлично,
какое из событий А и В считать первым, а какое вторым, и теорему
умножения можно записать и в таком виде:
32
P( АВ ) = P(B )P( A / B ).
(3.8)
Отметим следствия, вытекающие из теоремы умножения.
Следствие 1. Если событие А не зависит от события В, то и
событие В не зависит от события А.
Зависимость или независимость событий всегда взаимны. В
связи с этим можно дать следующее новое определение независимых событий.
Два события называются независимыми, если появление одного из них не изменяет вероятности появления другого.
Понятие независимости событий может быть распространено
на случай произвольного числа событий. Несколько событий называются независимыми, если любое из них не зависит от любой совокупности остальных.
Следствие 2. Вероятность произведения двух независимых
событий равна произведению вероятностей этих событий.
P ( АВ ) = P ( A)P (B ).
Следствие непосредственно вытекает из определения независимых событий.
Теорема умножения вероятностей может быть обобщена на
случай произвольного числа событий.
Вероятность произведения нескольких событий равна произведению вероятностей этих событий, причем вероятность каждого
следующего по порядку события вычисляется при условии, что все
предыдущие имели место:
P ( А1 A2 K A n ) = P ( A1 )P ( A2 / A1 )P ( A3 / A1 A2 )K P ( A n / A1 A 2 K An −1 ) .
(3.9)
В случае независимых событий теорема упрощается и принимает вид:
33
P ( А1 A2 K An ) = P ( A1 )P ( A 2 )P ( A3 )K P ( An ) .
(3.10)
т.е. вероятность произведения независимых событий равна произведению вероятностей этих событий.
Задание 3
Слово «ЭКОНОМИКА» составлено из карточек, на каждой из
которых написана одна буква. Затем карточки смешивают и вынимают 5 карточек без возврата по одной. Найти вероятность того,
что буквы вынимаются в порядке слова «МОНО».
Решение. Испытание состоит в вынимании карточек с буквами в случайном порядке без возврата по одной. Элементарным событием является полученная последовательность букв.
Рассмотрим событие F, которое состоит в том, что появилось
слово «МОНО».
Предложенную задачу можно решить, используя основные
теоремы теории вероятностей (в частности, теорему умножения
для зависимых событий) или, используя классическое определение
вероятности и формулы комбинаторики. Рассмотрим оба способа
решения.
Первый способ (используя основные теоремы теории вероятностей).
Рассмотрим событие F – появилось слово «МОНО».
Рассмотрим элементарные события:
событие A – первая вынутая карточка содержит букву «М»;
событие B – вторая вынутая карточка содержит букву «О»;
событие C – третья вынутая карточка содержит букву «Н»;
событие D – четвертая вынутая карточка содержит букву «О».
Событие F , используя алгебру событий, можно выразить через события A, B, C, D следующим образом:
34
F = A⋅ B ⋅C ⋅ D .
Переходя к вероятностям, получим
P (F ) = P ( A ⋅ B ⋅ C ⋅ D ) .
События A, B, C, D являются зависимыми. Это следует из того, что вероятность каждого последующего события зависит от вероятности предыдущего события. Действительно, вероятность того, что вторая вынутая карточка будет содержать букву «О», то
есть вероятность события B, зависит от того, с какой буквой была
вынута первая карточка, то есть, зависит от вероятности события
A. Вероятность того, что третья карточка будет содержать букву
«Н», то есть вероятность события C, зависит от того, с какими буквами были вынуты первая и вторая карточки, то есть зависит от вероятностей событий A и B, и т.д. Применяя теорему умножения для
зависимых событий (3.9), получим:
P (F ) = P ( A) ⋅ P (B / А) ⋅ P (C / AB ) ⋅ P (D | ABC ) ,
где P ( A) – вероятность события A;
P(B | A) – вероятность события B при условии, что произошло
событие A, то есть условная вероятность события B;
P (C | AB ) – вероятность события C при условии, что произошли события A и B, то есть условная вероятность события C;
P(D | ABC ) – вероятность события D при условии, что про-
изошли события A, B и C, то есть условная вероятность события D.
Вероятность события A, то есть P ( A) и условные вероятности
P (B | A) , P(C | AB ) , P(D | ABC ) найдем, используя классическое
определение вероятности
35
P( E ) =
m
n ,
где E – искомое событие, n – общее число равновозможных элементарных исходов испытания; m – число элементарных исходов,
благоприятствующих появлению события E.
Для события A имеем: n = 9 – число карточек, содержащих
буквы слова «ЭКОНОМИКА»; m = 1 – число карточек, содержащих букву «М». Тогда вероятность события A:
P ( A) =
1
.
9
Для события B при условии, что событие A произошло, имеем:
n = 8 – число карточек, оставшихся после того, как одну карточку
вынули; m = 2 – число карточек, содержащих букву «О». Тогда –
вероятность события B при условии, что произошло событие A:
P( В | A) =
2
8.
Для события C, при условии, что события A и B произошли, имеем: n = 7 – число карточек, оставшихся после того, как две карточки
вынули; m = 1 – число карточек, содержащих букву «Н». Тогда, вероятность события C при условии, что произошли события A и B:
P (C | AB ) =
1
.
7
Для события D при условии, что события A, B и C произошли,
имеем: n = 6 – число карточек, оставшихся после того, как три кар36
точки вынули; m = 1 – число карточек, содержащих букву «О» (одну из двух имеющихся первоначально карточек, содержащих букву
«О» уже вынули, а обратно карточки не возвращают). Тогда вероятность события D при условии, что произошли событие A, B и C:
P( D | ABC ) =
1
.
6
Таким образом, подставляя найденные вероятности, получим
вероятность искомого события F – появилось слово «МОНО»
1 2 1 1
1
1
=
≈ 0,00066 .
P (F ) = ⋅ ⋅ ⋅ =
9 8 7 6 9 ⋅ 4 ⋅ 7 ⋅ 6 1512
Второй способ (используя элементы комбинаторики).
Рассмотрим событие F – появилось слово «МОНО».
Вероятность события F найдем, используя классическое определение вероятности
P( F ) =
m
n,
где n – общее число равновозможных элементарных исходов испытания; m – число элементарных исходов, благоприятствующих появлению события F.
Общее число равновозможных элементарных исходов испытания является размещение без повторений из 9 объектов по 4 объекта, то есть
n = A94 = 9 ⋅ 8 ⋅ 7 ⋅ 6 = 3024
Так как в слове «МОНО» повторяется буква «О» два раза, то
возможны перестановки, при которых слово не изменяется, то есть
37
число элементарных исходов, благоприятствующих наступлению
события F, определим по формуле:
m = 2!= 2
Таким образом, искомая вероятность равна
P (F ) =
2
1
=
≈ 0,00066 .
3024 1512
Ответ: искомая вероятность P ( F ) = 0,00066 .
Следствием основных теорем – теоремы сложения вероятностей и теоремы умножения вероятностей – является так называемая
формула полной вероятности.
Пусть требуется определить вероятность некоторого события
А, которое может произойти вместе с одним из событий:
H 1 , H 2 ,K, H n ,
образующих полную группу несовместных событий. Будем эти события называть гипотезами. Сумма вероятностей гипотез
Hi
должна быть равна единице, то есть
n
∑P(H ) = P(H ) + P(H ) +K+ P(H ) = 1.
i =1
1
i
2
n
(3.11)
Докажем, что в этом случае:
n
P ( A) = ∑ P (H i ) ⋅ P ( A | H i ) ,
i =1
38
(3.12)
т.е. вероятность события А вычисляется как сумма произведений
вероятности каждой гипотезы на вероятность события при этой гипотезе.
Формула носит название формулы полной вероятности.
Доказательство. Так как гипотезы H 1 , H 2 , K , H n образуют
полную группу, то событие А может появиться только в комбинации с какой-либо из этих гипотез:
A = AH 1 + AH 2 + K + AH n /.
Так как гипотезы H 1 , H 2 , K , H n несовместны, то и комбинации AH 1 , AH 2 , K , AH n также несовместны; применяя к ним
теорему сложения (3.2), получим:
P( A) = P( AH 1 ) + P( AH 2 ) + K + P( AH n ) .
Применяя к событию AH 1 , AH 2 , K , AH n теорему умножения зависимых событий, получим:
n
P ( A) = ∑ P (H i ) ⋅ P ( A | H i ) ,
i =1
что и требовалось доказать.
Следствием теоремы умножения и формулы полной вероятности является так называемая теорема гипотез, или формула Байеса.
Если выполняются все условия, имеющие место для формулы
полной вероятности и известно, что событие A уже наступило, т.е.
произведен опыт, в результате которого наблюдено появление некоторого события А. Спрашивается, как следует изменить вероятности гипотез в связи с появлением этого события? То есть, необ39
ходимо вычислить условную вероятность того, что вместе с событием A осуществилась гипотеза H i по формуле Байеса:
P (H i | A) =
P (H i ) ⋅ P ( A | H i )
,
P ( A)
(3.13)
где P( A) – полная вероятность события A.
С помощью формулы Байеса можно после испытания уточнить вероятность происхождения гипотезы
Hi .
Задание № 4 связано с применением формулы полной вероятности.
Задание 4
В магазин поступили три партии ламп, насчитывающих соответственно 20, 30 и 50 штук. Вероятности того, что лампа проработает заданное время, равна соответственно для этих партий 0,7, 0,8
и 0,9. Какова вероятность того, что наудачу извлеченная лампа из
этих партий проработает заданное время?
Решение. Испытание состоит в том, что наудачу извлекается одна лампочка из 100 (20+30+50=100) имеющихся ламп.
Рассмотрим событие F – извлеченная лампа проработает заданное время.
Рассмотрим гипотезы:
событие Н 1 – наудачу выбранная лампа принадлежит первой
партии;
событие Н 2 – наудачу выбранная лампа принадлежит второй
партии;
40
событие Н 3 – наудачу выбранная лампа принадлежит третьей
партии.
Так как события H1 , H 2 , H 3 образуют полную группу событий и событие F может наступить с одним из этих событийгипотез, то для нахождения вероятности события F можно воспользоваться формулой полной вероятности (3.12).
3
P (F ) = ∑ P (H i ) ⋅ P (F | H i )
i =1
Найдем вероятности гипотез H 1 , H 2 , H 3 , то есть P (H 1 ) ,
P(H 2 ) , P(H 3 ) , используя классическое определение вероятности
P( H i ) =
mi
,
n
где n – общее число равновозможных элементарных исходов испытания; mi – число элементарных исходов, благоприятствующих
появлению события H i .
Общее число равновозможных элементарных исходов испытания n = 20 + 30 + 50 = 100 . Число элементарных исходов, благоприятствующих появлению события H 1 (то есть события, состоящего в том, что выбранная наудачу лампа из первой партии) равно
m1 = 20 .
Тогда вероятность события H 1 :
P( H 1 ) =
m1
20
20
=
=
= 0,2 .
n
20 + 30 + 50 100
Аналогично находим вероятности событий H 2 и H 3 .
41
Для события H 2 имеем: n = 100 и m 2 = 30 . Тогда
P( H 2 ) =
30
30
m2
=
=
= 0,3 .
n
20 + 30 + 50 100
Для события H 3 имеем: n = 100 и m3 = 50 . Тогда
P( H 3 ) =
m3
50
50
=
=
= 0,5 .
n
20 + 30 + 50 100
Таким образом, по условию, вероятности гипотез:
P(H1 ) = 0,2 ,
P(H 2 ) = 0,3 ,
P(H 3 ) = 0,5 .
Найдем условные вероятности события F при условии, что
события H 1 , H 2 , H 3 соответственно наступили, то есть вероятности
P(F | H1 ) , P(F | H2 ) , P(F | H3 ) . В предложенной задаче эти веро-
ятности даны в условии задачи.
P(F | H1 ) = 0,7 ,
P(F | H2 ) = 0,8 ,
P(F | H3 ) = 0,9 .
Тогда, подставляя найденные вероятности в формулу полной
вероятности, найдем вероятность события F:
42
P(F ) = P(H1 ) ⋅ P(F | H1 ) + P(H2 ) ⋅ P(F | H2 ) + P(H3 ) ⋅ P(F | H3 ) =
= 0,2 ⋅ 0,7 + 0,3 ⋅ 0,8 + 0,5 ⋅ 0,9 = 0,14 + 0,24 + 0,45 = 0,83.
Ответ: искомая вероятность P( F ) = 0,83 .
Задание № 5 связано с применением формулы Байеса (3.13).
Задание 5
В больницу поступили пациенты трех социальных групп. 30%
пациентов принадлежат первой социальной группе, 20% – второй и
50% – третьей. Вероятность заболевания туберкулезом для представителей каждой социальной группы соответственно равна 0,02,
0,03 и 0,01. Проведенные анализы случайно выбранного пациента
показали наличие туберкулеза. Найти вероятность того, что это
представитель третьей группы.
Решение. Испытание состоит в том, что наудачу берут анализ у одного пациента из 100% (30%+20%+50%=100%) поступивших в больницу.
Рассмотрим событие F – выбранный пациент болен туберкулезом.
Рассмотрим гипотезы:
событие Н 1 – наудачу выбранный пациент принадлежит к
первой социальной группе;
событие Н 2 – наудачу выбранный пациент принадлежит ко
второй социальной группе;
событие Н 3 – наудачу выбранный пациент принадлежит к
третьей социальной группе.
По условию задачи необходимо найти вероятность события
H 3 F (условную вероятность события Н 3 при условии, что собы43
тие F наступило, то есть вероятность P (H 3 F ) или P(H 3 | F ) ), то
есть события состоящего в том, что наудачу выбранный пациент
принадлежит к третьей социальной группе, если известно, что он
болен туберкулезом.
Так как события H 1 , H 2 , H 3 образуют полную группу событий, и событие F произошло вместе с одним из этих событий-
гипотез, то для нахождения вероятности PF (H 3 ) (или P(H 3 F ) )
воспользуемся формулой Байеса (3.13):
P (H 3 | F ) =
P (H 3 ) ⋅ P (F | H 3 )
,
P (F )
где P(F ) – полная вероятность события F, которая может быть
определена по формуле полной вероятности (3.12):
3
P (F ) = ∑ P (H i ) ⋅ P (F | H i ) .
i =1
Для применения формулы Байеса и формулы полной вероятности необходимо найти вероятности гипотез H 1 , H 2 , H 3 , то есть
P (H 1 ) , P (H 2 ) , P (H 3 ) . Это можно осуществить, используя классическое определение вероятности:
P( H i ) =
mi
,
n
где n – общее число равновозможных элементарных исходов испытания; mi – число элементарных исходов, благоприятствующих
появлению события H i .
44
В нашем случае общее число равновозможных элементарных
исходов испытания n = 100% ( 30% + 20% + 50% = 100% ). Число
элементарных исходов, благоприятствующих появлению события
H 1 , то есть события, состоящего в том, что наудачу выбранный
пациент принадлежит к первой социальной группе, равно
m1 = 30% .
Тогда вероятность события H 1 :
P( H 1 ) =
m1 30%
=
= 0,3 .
n 100%
Аналогично находим вероятности событий H 2 и H 3 :
P( H 2 ) =
m2
20%
=
= 0,2 ;
n 100%
P( H 3 ) =
m3
50%
=
= 0,5 .
n 100%
Таким образом, по условию вероятности гипотез: P(H 1 ) = 0,3 ,
P(H 2 ) = 0,2 , P(H 3 ) = 0,5 .
Найдем условные вероятности события A при условии, что
события H 1 , H 2 , H 3 соответственно наступили, то есть вероятно-
сти P(F | H1 ) , P(F | H2 ) , P(F | H3 ) . В предложенной задаче эти вероятности даны в условии задачи.
P(F | H1 ) = 0,02,
P(F | H2 ) = 0,03,
P(F | H3 ) = 0,01.
45
Тогда, подставляя найденные вероятности в формулу полной
вероятности, найдем вероятность события F:
P(F ) = P(H1 ) ⋅ P(F | H1 ) + P(H2 ) ⋅ P(F | H2 ) + P(H3 ) ⋅ P(F | H3 ) =
= 0,3 ⋅ 0,02 + 0,2 ⋅ 0,03 + 0,5 ⋅ 0,01 = 0,006+ 0,006+ 0,005 = 0,017.
Подставляя найденные вероятности в формулу Байеса, получим вероятность искомого события:
P (H 3 | F ) =
0,5 ⋅ 0,01 0,005
=
≈ 0,294 .
0,017
0,017
Ответ: искомая вероятность P(H 3 | F ) ≈ 0,294 .
46
Тема 4.
ПОВТОРНЫЕ НЕЗАВИСИМЫЕ ИСПЫТАНИЯ
В этой теме изучается так называемая схема повторных независимых испытаний или схема Бернулли. Схема Бернулли подразумевает выполнение четырех основных условий: а) количество
повторных испытаний конечно, б) они являются независимыми;
в) исходом каждого испытания является либо «успех» либо «неудача»; г) в каждом испытании вероятность «успеха» постоянна.
В этой теме рассматриваются п последовательных независимых
испытаний, в каждом из которых событие А может наступить с постоянной вероятностью p = P( A) . Результат испытаний – появление k раз события А, которое чередуется в любом порядке с n − k
раз не появлением события А, то есть появлением события A – события противоположного событию A.
Перечислим основные формулы и вычислительные схемы.
1. Для нахождения вероятности того, что событие A наступит
ровно k раз при проведении n независимых испытаний, проводимых по схеме Бернулли, применяется формула Бернулли1:
Pn (k ) = C nk p k q n − k ,
(4.1)
где p – вероятность наступления события A в каждом испытании; q = 1 − p – вероятность события, противоположного событию
A, то есть q = P( A) = 1 − P( A) = 1 − p ;
1
Я. Бернулли (1654–1705) – швейцарский математик.
47
Cnk =
n!
n ( n − 1 )K(n − (k − 1)) n ( n − 1 )K(n − (k − 1))
=
=
k ! (n − k )!
k!
1 ⋅ 2 ⋅K⋅ k
.
Из формулы Бернулли следует, что
n
n
∑ P (k ) = ∑ C
k =0
(k ) ,
n
k =0
k
n
p k q n−k = 1
.
2. Иногда необходимо бывает найти наивероятнейшее число
то есть число испытаний, при котором достигается максимальная вероятность в n независимых испытаниях. Наивероятней0
шее значение k 0 числа наступления события A при проведении n
повторных независимых испытаний, удовлетворяющих схеме Бернулли, является целым числом и находится в интервале, который
можно найти по формуле
np − q ≤ k 0 ≤ np + p .
(4.2)
Длина указанного интервала равна единице, поэтому если
границы интервала – целые числа, то имеются два наивероятнейших числа, которые совпадают с граничными значениями интервала, определяемого формулой (4.2), в противном случае – только
одно, которое определяется по формуле (4.2) и выбирается из условия того, что наивероятнейшее число k 0 – целое.
3. Вероятность того, что событие A наступит не менее
k1 раз и
не более k 2 раз при проведении n независимых испытаний, удовлетворяющих схеме Бернулли можно найти по формуле:
k2
Pn (k1 ≤ k ≤ k2 ) = Pn (k1 ) + Pn (k1 + 1) + K+ Pn (k2 ) = ∑ Pn (k ) .
k =k1
48
(4.3)
4. Вероятность Pn (1 ≤ k ≤ n) того, что событие A наступит хотя
бы один раз при проведении n независимых испытаний, можно
найти по формуле:
Pn (1 ≤ k ≤ n) = 1 − q n .
(4.4)
5. Вероятность того, что событие A при проведении n независимых испытаний наступит:
а) менее k1 раз, определяется по формуле
Pn (k < k1 ) = Pn (0 ≤ k ≤ k1 −1) = Pn (0) + Pn (1) + Pn (2) + K+ Pn (k1 −1) ; (4.5)
б) более k1 раз, определяется по формуле
Pn (k > k1 ) = Pn (k1 + 1 ≤ k ≤ n) = Pn (k1 + 1) + Pn (k1 + 2) + K+ Pn (n) ; (4.6)
в) не менее k1 раз, определяется по формуле
Pn (k ≥ k1 ) = Pn (k1 ≤ k ≤ n) = Pn (k1 ) + Pn (k1 +1) + K+ Pn (n) ;
(4.7)
г) не более k1 раз, определяется по формуле
Pn (k ≤ k1 ) = Pn (0 ≤ k ≤ k1 ) = Pn (0) + Pn (1) + Pn (2) + K+ Pn (k1 ) . (4.8)
Формулы (4.5) – (4.8) являются следствием формулы (4.3).
6. Если число независимых испытаний велико, то для нахождения вероятности того, что событие A наступит ровно k раз при
проведении n независимых испытаний, проводимых по схеме Бернулли, формулу Бернулли применять (чисто технически) достаточно сложно. В этих случаях применяют асимптотические (локаль49
ную и интегральную) формулы Муавра – Лапласа и асимптотическую формулу Пуассона.
а). Локальная формула Муавра – Лапласа2:
Pn (k ) ≈
ϕ ( x)
npq
,
(4.9)
k − np
1 −x 2
e , x=
(таблица значений функции ϕ( x )
npq
2π
приведена в приложении 1 в настоящих методических указаниях).
где ϕ ( x) =
2
Функция ϕ (x) обладает следующими свойствами:
1) функция ϕ (x) является четной, то есть ϕ (− x) = ϕ ( x) ;
2) функции ϕ (x) монотонно убывает при положительных значениях аргумента;
3) lim ϕ ( x ) = 0 ;
x →∞
4) для всех значений x > 5 значение функции ϕ ( x) ≈ 0 .
б). Интегральная формула Муавра – Лапласа:
Pn (a ≤ k ≤ b) ≈ Φ ( x 2 ) − Φ ( x1 ) ,
(4.10)
b − np
a − np
1 x −z 2
=
x
x
=
где Φ ( x) =
–
функция
Лапласа,
,
e
dz
2
1
∫
npq
npq
2π 0
2
(таблица функции Лапласа приведена в приложении 2 в настоящих
методических указаниях).
Функция Φ (x ) обладает следующими свойствами:
1) функция Φ (x) является нечетной, то есть Φ (− x) = −Φ( x) ;
2
А. Муавр (1667–1754) – английский математик; П. Лаплас (1749–1827) – французский
математик и астроном.
50
2) функции Φ (x) – монотонно возрастающая;
Φ ( x ) = 0,5 ;
3) lim
x→∞
4) для всех значений x > 5 значение функции Φ ( x) ≈ 0,5 .
в). Формула Пуассона:
Pn (k ) ≈
λk
k!
e −λ ,
где λ = np . Значение функции P(Χ = k ) =
(4.11)
λk
k!
e −λ для различных
значений λ и k приведены в приложении 3 настоящих методических указаниях. Часто правую часть формулы Пуассона для удобства обозначают Pk (λ ) , то есть
Pn (k ) ≈
λk
k!
e −λ = Pk (λ ) .
Замечание. Выбор формул (4.1), (4.3) (и ее следствий (4.5) –
(4.8)), (4.9), (4.10) и (4.11) осуществляется исходя из количества испытаний n и вероятности наступления события в каждом испытании
p. Используемые понятия «мало», «не очень мало», «велико» являются относительными и могут признаваться таковыми в зависимости
от конкретных условий задачи. Как правило, если n ≥ 20 , то можно
говорить, что n – велико; если p < 0,01 , то p – не очень мало.
В замечаниях 1–7 перечислим соответствующие условия и рекомендуемые формулы для применения.
Замечание 1. Если число независимых испытаний п мало, то
для вычисления вероятности появления события k раз пользуются
формулой Бернулли (4.1). В этом случае не возникает вычислительных трудностей для подсчета вероятности Pn ( k ) .
51
Замечание 2. Если число независимых испытаний п достаточно велико, а вероятность появления события в каждом испытании
отлична от 0 и 1 и не очень мала, так что npq ≥ 10 , то для вычисления вероятности появления события k раз Pn ( k ) применяют локальную формулу Муавра-Лапласа (4.9).
Замечание 3. Если число независимых испытаний п достаточно
велико, а вероятность появления события в каждом испытании отлична от 0 и 1 и мала, так что np ≤ 10 , то для вычисления вероятности
появления события k раз Pn ( k ) применяют формулу Пуассона (4.11).
Замечание 4. Если число независимых испытаний п мало и
требуется найти вероятность появления события от k1 до k 2 раз, то
для вычисления искомой вероятности Pn (k1 ≤ k ≤ k2 ) применяют
формулу (4.3). При этом вероятности входящие в каждое слагаемое
формулы (4.3) вычисляются используя формулу Бернулли (4.1).
Замечание 5. Если число независимых испытаний п достаточk2
но велико, число слагаемых в сумме
∑ P (k ) формулы (4.3) мало
k =k1
n
и вероятность появления события в каждом испытании отлична от 0
и 1 и не очень мала, так что npq ≥ 10 , то для вычисления вероятности
появления события от k1 до k 2 раз применяют формулу (4.3). При
этом вероятности входящие в каждое слагаемое формулы (4.3) вычисляются используя локальную формулу Муавра – Лапласа (4.9).
Замечание 6. Если число независимых испытаний п достаточk2
но велико, число слагаемых в сумме
∑ P (k ) формулы (4.3) мало
k =k1
n
и вероятность появления события в каждом испытании отлична от
0 и 1 и очень мала, так что np ≤ 10 , то для вычисления вероятности
появления события от k 1 до k 2 раз применяют формулу (4.3). При
этом вероятности входящие в каждое слагаемое формулы (4.3) вычисляются используя формулу Пуассона (4.11).
52
Замечание 7. Если число независимых испытаний п достаточk2
но велико, число слагаемых в сумме
∑ P (k ) формулы (4.3) вели-
k =k1
n
ко и вероятность появления события в каждом испытании отлична
от 0 и 1 и не очень мала, так что npq ≥ 10 , то для вычисления вероятности появления события от k1 до k 2 раз применяют интегральную формулу Муавра – Лапласа (4.10).
Рассмотрим примеры выполнения заданий № 1, 2, 3 контрольной работы, связанных с повторными независимыми испытаниями.
Задание 1
Вероятность того, что стрелок при одном выстреле попадет в
мишень равна 0,8. Стрелок произвел 7 выстрелов. Найти:
а) наивероятнейшее число попаданий в мишень;
б) вероятность наивероятнейшего числа попаданий в мишень.
Решение: Эксперимент состоит в том, что стрелок последовательно производит 7 выстрелов по мишени, т.е. проводится
7 повторных независимых испытаний (количество испытаний конечно). Каждое испытание имеет два исхода: стрелок попал в мишень и стрелок не попал в мишень. Вероятность попадания в мишень в каждом испытании постоянно. Каждое испытание является
независимым, так как по условию задачи вероятность попасть в
мишень при одном выстреле (испытании) является величиной постоянной и не зависит от других испытаний. Следовательно указанный эксперимент удовлетворяет схеме Бернулли (схема Бернулли выполняется).
Решение: a). По условию имеем:
n = 7 – число выстрелов (число испытаний в эксперименте);
53
p = 0,8 – вероятность попасть в мишень при одном выстреле
(вероятность «успеха»);
q = 1 − p = 1 − 0,8 = 0,2 – вероятность не попасть в мишень при
одном выстреле (вероятность «неудачи»).
Найдем наивероятнейшее число k 0 числа попаданий в мишень
по формуле (4.2):
np − q ≤ k 0 ≤ np + p .
Тогда,
7 ⋅ 0,8 − 0,2 ≤ k 0 ≤ 7 ⋅ 0,8 + 0,8
или
5,4 ≤ k 0 ≤ 6,4 .
Так как наивероятнейшее число есть целое число, то наивероятнейшее число попаданий в мишень равно 6, то есть k 0 = 6 .
Решение: б). Рассмотрим событие F – из 7 выстрелов стрелок
попадет в мишень ровно 6 раз.
По условию имеем:
n = 7 – число выстрелов (число испытаний в эксперименте);
p = 0,8 – вероятность попасть в мишень при одном выстреле
(вероятность «успеха»);
q = 1 − p = 1 − 0,8 = 0,2 – вероятность не попасть в мишень при
одном выстреле (вероятность «неудачи»);
k = 6 – число попаданий в мишень.
Найдем вероятность события F, то есть P(F ) используя формулу Бернулли (4.1), так как эксперимент проводится по схеме
Бернулли:
54
Pn (k ) = C nk p k q n − k .
Тогда, подставляя исходные данные, получим искомую вероятность
P(F ) = P7 (6) = C76 ⋅ 0,86 ⋅ 0,2 7 −6 = C77 −6 ⋅ 0,86 ⋅ 0,21 = C71 ⋅ 0,86 ⋅ 0,2 =
= 7 ⋅ 0,262144 ⋅ 0,2 = 0,3670016 ≈ 0,367.
6
При вычислении числа сочетаний C 7 воспользовались свой-
ством числа сочетаний C n = C n .
k
n−k
Ответ: а) k 0 = 6 ; б) P(F ) ≈ 0,367.
Задание 2
В каждом из 700 независимых испытаний событие А происходит с постоянной вероятностью 0,35. Найти вероятность того, что
событие А происходит:
а) точно 270 раз;
б) меньше чем 270 и больше чем 230 раз;
в) больше чем 270 раз.
Решение: Так как количество испытаний n = 700 > 20 довольно велико, а вероятность p = 0,35 не очень мала, причем
npq = 700 ⋅ 0,35 ⋅ 0,65 = 159,25 > 10 ,
то для вычисления искомых вероятностей можно использовать локальную и интегральную формулы Муавра – Лапласа (9) и (10).
55
Решение: a) Дано: n = 700 , p = 0,35 , k = 270 . Найти вероятность P700 (270) .
Так как количество испытаний n = 700 – велико, а вероятность p = 0,35 не очень мала, причем npq = 159,25 > 10 , то воспользуемся локальной формулой Муавра – Лапласа (9)
Pn (k ) ≈
где x =
ϕ ( x)
npq
,
k − np
.
npq
Подставляя исходные данные, получим
npq = 700 ⋅ 0,35 ⋅ 0,65 = 159,25 ≈ 12,6 ,
x=
270 − 700 ⋅ 0,35 25
=
= 1,98 .
12,6
12,6
Значение функции ϕ ( x ) найдем по таблице приложения 1
ϕ ( x) = ϕ (1,98) = 0,0562 .
Тогда искомая вероятность
P700 ( 270 ) =
0 ,0562
≈ 0 ,0045 .
12 ,6
Решение: б) Дано: n = 700 , p = 0,35 , a = 230 и b = 270 . Найти вероятность P700 (230 < k < 270) . Для нахождения указанной вероятности можно было бы воспользоваться формулой (4.3)
56
k2
Pn (k1 ≤ k ≤ k2 ) = Pn (k1 ) + Pn (k1 + 1) + K+ Pn (k2 ) = ∑ Pn (k ) ,
k =k1
но так как количество испытаний n = 700 – велико и число слагаемых в формуле (4.3) так же достаточно велико (38 слагаемых), а
вероятность p = 0,35 не очень мала, причем npq = 159 ,25 > 10 , то
согласно замечанию 7 для нахождения искомой вероятности
P700 ( 230 < k < 270 ) = P700 ( 231 ≤ k ≤ 269 )
воспользуемся интегральной формулой Муавра – Лапласа (4.10)
Pn ( a ≤ k ≤ b ) ≈ Φ ( x2 ) − Φ ( x1 ) ,
где x1 =
a − np
b − np
, x2 =
.
npq
npq
Подставляя исходные данные, найдем
npq = 700 ⋅ 0 ,35 ⋅ 0 ,65 = 159 ,25 ≈ 12 ,6 ,
x1 =
231 − 700 ⋅ 0,35 − 14
=
= −1,11 ,
12,6
12,6
x2 =
269 − 700 ⋅ 0,35 24
=
= 1,90 .
12,6
12,6
Значение функции Φ(x) определим по таблице приложения 2
Φ ( x1 ) = Φ (−1,11) = −Φ (1,11) = −0,3665 ,
Φ ( x 2 ) = Φ (1,90) = 0,4713 .
57
Тогда искомая вероятность
P700 (230 < k < 270) = Φ (1,90) − Φ (−1,11) ≈ 0,4713 − (−0,3665) =
= 0,4713 + 0,3665 = 0,8378.
Решение: в) Дано: n = 700 , p = 0,35 , a = 270 и b = 700 . Найти вероятность P700 (k > 270) .
Для нахождения указанной вероятности можно было бы воспользоваться формулой (4.6), являющейся следствием формулы
(4.3)
Pn (k > k1 ) = Pn (k1 + 1 ≤ k ≤ n) = Pn (k1 + 1) + Pn (k1 + 2) + K+ Pn (n) ,
но так как количество испытаний n = 700 – велико и число слагаемых в формуле (4.6) так же достаточно велико (429 слагаемых), а
вероятность p = 0,35 не очень мала, причем npq = 159,25 > 10 , то
согласно замечанию 7 (в котором сказано не только об условиях
применения формулы (4.3), но и об условиях применения следствий из формулы (4.3), то есть формул (4.5) – (4.8)) для нахождения
искомой вероятности
P700 (k > 270) = P700 (270 < k ≤ 700) = P700 (271 ≤ k ≤ 700)
воспользуемся интегральной формулой Муавра – Лапласа (4.10)
Pn (a ≤ k ≤ b) ≈ Φ ( x2 ) − Φ ( x1 ) ,
где x1 =
b − np
a − np
, x2 =
.
npq
npq
Подставляя исходные данные, найдем
58
npq ≈ 12,6 ,
x1 =
271 − 700 ⋅ 0,35 26
=
= 2,06 ,
12,6
12,6
x2 =
700 − 700 ⋅ 0,35 455
=
= 36,1 .
12,6
12,6
Значение функции Φ ( x ) определим по таблице приложения 2
Φ ( x1 ) = Φ (2,06) = 0,4803 ,
Φ( x2 ) = Φ(36,1) = 0,5 .
Тогда искомая вероятность
P700 (k > 270) = P700 (270 < k ≤ 700) = Φ (36,1) − Φ (2,06) ≈
≈ 0,5 − 0,4803 = 0,0197.
Ответ:
а) P700 (270) ≈ 0,0045 ;
б) P700 (230 < k < 270) = 0,8378 ;
в) P700 (k > 270) = 0,0197 .
Задание 3
Телефонный коммутатор обслуживает 2000 абонентов. Для
каждого абонента вероятность позвонить в течение часа равна
0,0025. Найти вероятность того, что в течение часа позвонят на
коммутатор:
а) три абонента;
б) не менее четырех абонентов.
59
Решение: Так как количество испытаний n = 2000 > 20 – велико, а вероятность p = 0,0025 очень мала, причем
λ = np = 2000 ⋅ 0,0025 = 5 < 10 ,
то для нахождения искомых вероятностей можно использовать
формулу Пуассона (4.11)
Pn (k ) ≈
λk
k!
e −λ = Pk (λ ) .
Решение: a) Дано: n = 2000 , p = 0,0025 , k = 3 . Найти вероятность P2000 (3) .
Так как количество испытаний n = 2000 – велико, а вероятность p = 0,0025 очень мала, причем λ = np = 5 < 10 , то воспользуемся формулой Пуассона (4.11).
Подставим исходные данные в формулу (4.11) и, используя
таблицу значений функции Пуассона приложения 3, найдем искомую вероятность при k = 3 и λ = 5 :
5 3 −5
P2000 (3) ≈ e = P3 (5) ≈ 0,1404 .
3!
Решение: б) Рассмотрим событие F – в течение часа позвонят
на коммутатор не менее четырех абонентов. По условию имеем:
n = 2000 , p = 0,0025 , k1 = 4 .
Найти вероятность P ( F ) = P2000 ( k ≥ 4) .
Искомую вероятность можно найти, используя формулу (4.7)
Pn (k ≥ k1 ) = Pn (k1 ≤ k ≤ n) = Pn (k1 ) + Pn (k1 +1) + K+ Pn (n) .
60
Однако число слагаемых в формуле (4.7) достаточно велико
(1996 слагаемых) и поэтому применять указанную формулу практически невозможно. Рассмотрим противоположное событие, то
есть событие F – в течение часа позвонят на коммутатор менее четырех абонентов. Тогда вероятность искомого события можно определить по формуле
P( F ) = 1 − P( F ) .
Для события F имеем: n = 2000 , p = 0,0025 , k1 = 4 . Найти вероятность
P( F ) = P2000 (k < 4) = P2000 (0 ≤ k < 4) = P2000 (0 ≤ k ≤ 3) .
Так как количество испытаний n = 2000 – велико, число слагаемых в формуле (4.3) не велико (четыре слагаемых) и вероятность появления события в каждом испытании очень мала
( p = 0,0025 ), так что λ = np = 2000 ⋅ 0,0025 = 5 < 10 , то для вычисления вероятности события
F , то есть
P( F ) = P2000 (k < 4) =
= P2000 (0 ≤ k ≤ 3) , применим формулу (4.3)
P( F ) = P2000 (k < 4) = P2000 (0 ≤ k ≤ 3) =
= P2000 (0) + P2000 (1) + P2000 (2) + P2000 (3).
Тогда искомую вероятность найдем по формуле
P( F ) = P2000 (k ≥ 4) = 1 − P( F ) =
= 1 − (P2000 (0) + P2000 (1) + P2000 (2) + P2000 (3) ).
61
Вероятности входящие в каждое слагаемое формулы (4.3) вычисляются используя формулу Пуассона (4.11)
Pn (k ) ≈
λk
k!
e −λ = Pk (λ ) .
5 0 −5
P2000 (0) = e = P0 (5) ≈ 0,0067 ;
0!
51 −5
P2000 (1) = e = P1 (5) ≈ 0,0337 ;
1!
5 2 −5
P2000 (2) = e = P2 (5) ≈ 0,0842 ;
2!
5 3 −5
P2000 (3) = e = P3 (5) ≈ 0,1404 .
3!
Значение указанных функций Пуассона можно найти, либо
используя инженерный калькулятор, либо по таблице приложения
3 при λ = 5 и соответствующих значениях k.
Тогда искомая вероятность
P ( F ) = P2000 (k ≥ 4 ) ≈ 1 − P (0,0067 + 0,0337 + 0,0842 + 0,1404) =
= 1 − 0,265 = 0,735.
Ответ:
а) P2000 (3) ≈ 0,1404 ;
б) P2000 (k ≥ 4 ) ≈ 0,735.
62
Тема 5
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ, ИХ РАСПРЕДЕЛЕНИЕ
И ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ
Понятие случайной величины – одно из фундаментальных в
теории вероятностей. Оно тесно связано с понятием случайного
события, являясь в некотором смысле его обобщением. Здесь также
первичным служит испытание, но результат теперь характеризуется не альтернативным исходом (появляется или нет событие), а некоторым числом (например, число k появлений события в п повторных независимых испытаниях; число очков, выбиваемых
стрелком; размер вклада на случайно выбранном в сберкассе счете
и т.д.). Случайная величина, как и случайное событие, подлежит
четкому определению по условию задачи. Связь со случайным событием заключается в том, что принятие ею некоторого числового
значения (то есть выполнение равенства X = xi ) есть случайное
событие, характеризуемое вероятностью P( X = xi ) = pi .
В данной теме рассматриваются дискретные случайные величины, характеризуемые конечным или счетным множеством
возможных значений xi и соответствующими им вероятностями
p i = P ( X = xi ) .
Понятие непрерывной случайной величины является непосредственным обобщением понятия дискретной случайной величины. Оно приводит к новому понятию плотности вероятности и к
новым определениям математического ожидания и дисперсии.
63
5.1. Дискретные и непрерывные
случайные величины. Закон распределения
дискретной случайной величины
Случайной величиной называют переменную величину, которая в зависимости от исходов испытания принимает значения,
зависящие от случая.
Случайная величина, принимающая различные значения, которые можно записать в виде конечной или бесконечной последовательности, называется дискретной случайной величиной.
Случайная величина, которая может принимать все значения
из некоторого промежутка, называется непрерывной случайной
величиной. (Более точное определение непрерывной случайной
величины формулируется используя понятия функции распределения вероятностей или плотности распределения вероятностей).
Случайные величины обозначаются заглавными буквами латинского алфавита X, Y, Z..., а их значения – строчными буквами с
индексами, например, x1 , x2 , x3 ,K .
Дискретная случайная величина определена, если известны
все ее значения и соответствующие им вероятности.
Законом распределения дискретной случайной величины называется соответствие между возможными значениями
x1 , x2 , x3 ,K этой случайной величины и соответствующими им
вероятностями p1 , p 2 , p3 ,K .
Закон распределения дискретной случайной величины может
быть задан таблично или аналитически, то есть с помощью формул.
Если дискретная случайная величина Х принимает конечное
множество значений x1 , x 2 ,..., x n соответственно с вероятностями
p1 , p 2 ,..., p n , то закон распределения можно задать в виде таблицы 1.
Таблица 1
xi
pi
64
x1
x2
x3
p1
p2
p3
…
…
xn
pn
Так как события ( X = xk , k = 1, 2,K, n ) образуют полную группу событий, то в таблице 1 сумма вероятностей равна единице, то
n
есть p1 + p2 + p3 + K + pn = ∑ pi = 1 .
i =1
Для наглядности закон распределения дискретной случайной
величины изображают графически, для чего в прямоугольной декартовой системе координат строят точки ( xi , pi ) и соединяют их
последовательно отрезками прямых. Получающаяся при этом ломаная линия называется многоугольником распределения случайной величины X.
Если дискретная случайная величина Х принимает бесконечную последовательность значений x1 , x 2 , x3 ,K соответственно с
вероятностями p1 , p 2 , p3 ,K , то ее закон распределения задается в
виде таблицы 2.
xi
pi
x1
x2
p1
p2
x3
p3
…
xn
Таблица 2
…
…
pn
…
Ряд, составленный из чисел p1 , p 2 , p3 ,K таблицы 2 сходится
и его сумма равна единице.
Первый тип задач связан с построением для заданной случайной величины закона распределения.
Решение подобных задач требует прежде всего четких определений случайной величины и испытания, количественный результат которого характеризуется значениями x1 , x2 ,K, xi ,K, xn .
Затем можно перейти к построению закона распределения
случайной величины, а точнее – к вычислению вероятностей pi
как вероятностей событий X = xi . Здесь могут быть использованы приемы и методы, рассмотренные при решении предыдущих
задач.
65
Общая схема решения задач на построение законов распределения:
1) введение и четкое описание случайной величины, о которой
идет речь в задаче;
2)
описание
множества
ее
возможных
значений
x1 , x2 ,K, xi ,K, xn .
3) рассмотрение выполнения каждого из равенств X = xi как
случайного события;
4) вычисление вероятностей этих событий с помощью основных теорем и формул;
5) проверка правильности составленного распределения с помощью равенства ∑ pi = 1 .
В некоторых случаях распределение дискретной случайной
величины может приводить к бесконечным последовательностям.
Мы ввели в рассмотрение ряд распределения как исчерпывающую характеристику (закон распределения) прерывной случайной величины. Однако эта характеристика не является универсальной; она существует только для прерывных случайных величин. Нетрудно убедиться, что для непрерывной случайной величины такой характеристики построить нельзя. Действительно, непрерывная случайная величина имеет бесчисленное множество возможных значений, сплошь заполняющих некоторый промежуток
(так называемое «несчетное множество»). Составить таблицу, в которой были бы перечислены все возможные значения такой случайной величин невозможно.
Кроме того, каждое отдельное значение непрерывной случайной величины обычно не обладает никакой отличной от нуля вероятностью. Следовательно, для непрерывной случайной величины
не существует ряда распределения в том смысле, в каком он существует для прерывной величины. Однако различные области возможных значений случайной величины все же не являются одинаково вероятными, и для непрерывной величины существует «рас66
пределение вероятностей», хотя и не в том смысле, как для прерывной.
Для количественной характеристики этого распределения вероятностей удобно воспользоваться не вероятностью события
X = x , а вероятностью события X < x , где х – некоторая текущая
переменная. Вероятность этого события, очевидно, зависит от х,
есть некоторая функция от х. Эта функция называется функцией
распределения случайной величины X и обозначается F(х):
F ( x) = P( X < x ) .
Функцию распределения F(x) иногда называют также интегральной функцией распределения или интегральным законом распределения.
Функция распределения – самая универсальная характеристика случайной величины. Она существует для всех случайных величин: как прерывных, так и непрерывных. Функция распределения
полностью характеризует случайную величину с вероятностной
точки зрения, т.е. является одной из форм закона распределения.
Сформулируем некоторые общие свойства функции распределения.
1. Функция распределения F( x ) есть неубывающая функция
своего аргумента, т.е. при x2 > x1 F( x2 ) ≥ F ( x1 ) .
2. На минус бесконечности функция распределения равна нулю:
F(− ∞ ) = 0 .
3. На плюс бесконечности функция распределения равна единице:
F(+ ∞ ) = 1 .
Зная ряд распределения прерывной случайной величины,
можно легко построить функцию распределения этой величины.
67
Функцию распределения F (x) дискретной случайной величины X найдем по формуле
F ( x ) = ∑ pi ,
xi < x
которая может быть записана в виде
⎧
x ≤ x1 ,
⎪0,
⎪
x1 < x ≤ x 2 ,
⎪ p1 ,
⎪ p1 + p 2 ,
x 2 < x ≤ x3 ,
⎪
F ( x) = ⎨ p1 + p 2 + p 3 ,
x3 < x ≤ x 4 ,
⎪K
⎪
⎪ n −1 p ,
x n −1 < x ≤ x n ,
i
⎪∑
i =1
⎪
x > xn ,
⎩1,
где закон распределения случайной величины X задан в виде таблицы:
xi
pi
x1
p1
x2
p2
x3
p3
K
K
xn
pn
Когда текущая переменная х проходит через какое-нибудь из
возможных значений прерывной величины X, функция распределения меняется скачкообразно, причем величина скачка равна вероятности этого значения. Сумма всех скачков функции F ( x ) равна
единице.
По мере увеличения числа возможных значений случайной
величины и уменьшения интервалов между ними число скачков
становится больше, а сами скачки – меньше: ступенчатая кривая
68
становится более плавной, случайная величина приближается к непрерывной величине, а ее функция распределения – к непрерывной
функции.
На практике функция распределения непрерывной случайной величины представляет собой функцию, непрерывную во
всех точках.
Пусть имеется непрерывная случайная величина X с функци/
ей распределения F ( x ) . Тогда, функция f ( x ) = F ( x ) – производная функции распределения – характеризует плотность, с которой
распределяются значения случайной величины в данной точке. Эта
функция называется плотностью распределения непрерывной
случайной величины X . Плотность распределения, так же как и
функция распределения есть одна из форм закона распределения. В
противоположность функции распределения эта форма не является
универсальной: она существует только для непрерывных случайных величин.
Основные свойства плотности распределения.
1. Плотность распределения есть неотрицательная функция:
f (x ) ≥ 0 .
Это свойство непосредственно вытекает из того, что функция
распределения F( x ) есть неубывающая функция.
2. Интеграл в бесконечных пределах от плотности распределения равен единице:
+∞
∫ f ( x )dx = 1
-∞
.
69
5.2. Числовые характеристики
случайных величин
Каждый закон распределения представляет собой некоторую
функцию, и указание этой функции полностью описывает случайную величину с вероятностной точки зрения.
Однако во многих вопросах практики нет необходимости характеризовать случайную величину полностью, исчерпывающим
образом. Зачастую достаточно бывает указать только отдельные
числовые параметры, до некоторой степени характеризующие существенные черты распределения случайной величины: например,
какое-то среднее значение, около которого группируются возможные значения случайной величины; какое-либо число, характеризующее степень разбросанности этих значений относительно среднего, и т.д. Пользуясь такими характеристиками, мы хотим все существенные сведения относительно случайной величины, которыми мы располагаем, выразить наиболее компактно с помощью минимального числа числовых параметров. Такие характеристики,
назначение которых – выразить в сжатой форме наиболее существенные особенности распределения, называются числовыми характеристиками случайной величины.
В теории вероятностей числовые характеристики и операции с
ними играют огромную роль. С помощью числовых характеристик
существенно облегчается решение многих вероятностных задач.
Очень часто удается решить задачу до конца, оставляя в стороне
законы распределения и оперируя одними числовыми характеристиками. При этом весьма важную роль играет то обстоятельство,
что когда в задаче фигурирует большое количество случайных величин, каждая из которых оказывает известное влияние на численный результат опыта, то закон распределения этого результата в
значительной мере можно считать независимым от законов распределения отдельных случайных величин (возникает так называемый нормальный закон распределения). В этих случаях по су70
ществу задачи для исчерпывающего суждения о результирующем
законе распределения не требуется знать законов распределения отдельных случайных величин, фигурирующих в задаче; достаточно
знать лишь некоторые числовые характеристики этих величин.
В теории вероятностей и математической статистике применяется большое количество различных числовых характеристик,
имеющих различное назначение и различные области применения.
Из них в настоящем курсе мы введем только некоторые, наиболее
часто применяемые.
Среди числовых характеристик случайных величин надо прежде всего отметить те, которые характеризуют положение случайной величины на числовой оси, т.е. указывают некоторое среднее,
ориентировочное значение, около которого группируются все возможные значения случайной величины.
Математическое ожидание
Рассмотрим смысл понятия математического ожидания для
случайной величины. Пусть монету подбрасывают три раза подряд
и фиксируют, сколько раз выпал герб, т.е. значение величины X.
Затем этот опыт повторяют и опять записывают число выпадения
герба. Предположим, что опыт был повторен 10 раз и результаты
подсчетов выпадений герба в каждом опыте были следующие: 2, 1,
1,0, 2, 3, 2, 1, 1,3.
Найдем среднюю арифметическую данных значений:
x=
2 +1+1+ 0 + 2 + 3 + 2 +1+1+ 3
= 1,6
10
Можно сказать, что в результате проведения 10 опытов герб в
среднем выпадал 1,6 раз.
Значение 1,6 можно получить и как среднюю взвешенную величину, используя в качестве весов относительные частоты значений:
71
x=
0 ⋅1 + 1⋅ 4 + 2 ⋅ 3 + 3 ⋅ 2
1
4
3
2
= 0 ⋅ + 1 ⋅ + 2 ⋅ + 3 ⋅ = 1,6
10
10
10
10
10
Как видно, относительная частота представляет собой долю
общего числа опытов, когда случайная величина принимает соответствующее возможное значение.
Путь число опытов бесконечно возрастает. Тогда по закону
больших чисел относительные частоты будут стремиться к вероятностям соответствующих значений случайной величины.
Пусть задан закон распределения дискретной случайной величины
xi
x1
pi
p1
x2
p2
x3
…
xn
p3
…
pn
То есть она принимает значения x1 , x 2 ,K, x n с вероятностями
p1 = P( X = x1 ), p 2 = P( X = x 2 ),K, p n = P( X = x n ) .
Тогда среднее значение случайной величины X вычисляется
по формуле
M [ X ] = ∑ xi pi .
n
(5.1)
i =1
В теории вероятностей среднее значение случайной величины
называют ее математическим ожиданием.
Из формулы (5.1) видно, что математическое ожидание дискретной случайной величины определяется как сумма произведений всех ее возможных значений на соответствующие им вероятности.
72
Если дискретная случайная величина X принимает бесконечное счетное число значений x1 , x 2 ,K, x n ,K , то ее математическое
ожидание вычисляется по формуле
∞
M [ X ] = ∑ xi p i .
i =1
Если ряд сходится, то случайная величина Х имеет конечное
математическое ожидание, если расходится, то математическое
ожидание для Х не существует. В дальнейшем будем рассматривать случайные величины с конечным математическим ожиданием.
Для непрерывной случайной величины X математическое
ожидание, естественно, выражается уже не суммой, а интегралом:
M [X ] =
+∞
∫ f (x )xdx ,
(5.2)
−∞
где f (x ) – плотность распределения величины X .
Рассмотрим основные свойства математического ожидания
дискретной случайной величины.
1. Математическое ожидание постоянной величины С равно
этой величине.
M (C ) = C .
Константу С условно можно рассматривать как случайную
величину, принимающую единственно возможное значение, равное
С вероятностью 1. Отсюда
M (C ) = C ⋅ 1 + C ⋅ 0 = C
73
2. Постоянный множитель можно выносить за знак математического ожидания случайной величины X.
M ( CX ) = CM [ X ].
3. Математическое ожидание алгебраической суммы конечного числа п случайных величин X 1 , X 2 ,K, X n равно алгебраической
сумме их математических ожиданий.
M [X 1 + X 2 + K + X n ] = M [X 1 ] + M [X 2 ] + K + M [X n ]
Можно доказать, что это свойство будет верно как для независимых, так и для зависимых случайных величин.
4. Математическое ожидание произведения конечного числа п
независимых случайных величин X 1 , X 2 ,K, X n равно произведению их математических ожиданий.
M [ X 1 ⋅ X 2 ⋅ K ⋅ X n ] = M [ X 1 ] ⋅ M [ X 2 ] ⋅ K ⋅ M [ X n ].
Это свойство выполняется только для независимых случайных величин.
5. Если все возможные значения случайной величины X увеличить (уменьшить) на одно и то же число С, то ее математическое
ожидание увеличится (уменьшится) на то же число.
M (C + X ) = M [ X ] + C .
Это свойство является следствием свойств 1 и 3.
6. Математическое ожидание отклонения случайной величины
Х ОТ ее математического ожидания равно нулю.
M ( X − M [ X ]) = M [ X ] − M [M [ X ]] = 0
74
Поскольку M [ X ] константа, данное свойство является следствием свойства 5.
Кроме важнейшей из характеристик положения–математического ожидания, – на практике иногда применяются и другие характеристики положения, в частности мода и медиана случайной
величины.
Модой дискретной случайной величины называется ее наиболее вероятное значение.
Модой непрерывной случайной величины является то значение, в котором плотность вероятности максимальна. Мода обозначается буквой М.
В общем случае мода и математическое ожидание случайной
вели чины не совпадают. В частном случае, когда распределение
являете: симметричным и модальным (т.е. имеет моду) и существует математическое ожидание, то оно совпадает с модой и центром симметрии распределения.
Часто применяется еще одна характеристика положения – так
называемая медиана случайной величины. Этой характеристикой
пользуются обычно только для непрерывных случайных величин,
хотя формально можно ее определить и для прерывной величины.
Медианой случайной величины X называется такое ее значение Me , для которого
P( X < Me) = P( X > Me) ,
т.е. одинаково вероятно, окажется ли случайная величина меньше или
больше Me . Геометрическая медиана – это абсцисса точки, в которой
площадь, ограниченная кривой распределения, делится пополам.
В случае симметричного модального распределения медиана
совпадает с математическим ожиданием и модой.
Кроме характеристик положения – средних, типичных значений случайной величины, употребляется еще ряд характеристик,
каждая из которых описывает то или иное свойство распределения.
75
Дисперсия и среднее квадратическое отклонение
Для измерения степени разброса значений случайной величины относительно математического ожидания используют специальные характеристики – дисперсию и среднее квадратическое отклонение, которое еще называют стандартным отклонением.
Дисперсией случайной величины X называется математическое
ожидание квадрата отклонения X от ее математического ожидания.
Введем специальное обозначение σ 2 [X ] дисперсии случайной
величины X (иногда дисперсию обозначают D[X ] ).
Согласно определению
[
]
D[ X ] = M (X - M[X]) .
2
(5.3)
Можно показать, что для непосредственного вычисления дисперсии дискретной случайной величины X с конечным числом
значений формула (5.3) преобразуется к виду
D[ X ] = ∑ ( xi − M [ X ]) pi .
n
2
(5.4)
i =1
Когда дискретная случайная величина X имеет бесконечное
счетное число значений, дисперсия вычисляется как сумма ряда
∞
D[ X ] = ∑ ( xi − M [ X ]) pi .
2
(5.5)
i =1
Случайная величина X будет иметь конечную дисперсию, если
ряд (5.5) сходится.
Формулу (5.4) можно записать в более удобном для вычислений виде:
D[ X ] = ∑ ( xi ) pi − M 2 [ X ]
n
i =1
76
2
(5.6)
Для непрерывной случайной величины X дисперсия, выражается уже не суммой, а интегралом
D[ X ] =
+∞
∫ (x − M [X ]) f (x )dx ,
2
(5.7)
−∞
или в более удобном для вычислений виде:
2
⎛ +∞
⎞
D[ X ] = ∫ f ( x )x dx − ⎜ ∫ xf ( x )dx ⎟ .
−∞
⎝ −∞
⎠
+∞
2
(5.8)
Среднее квадратическое отклонение, или стандартное отклонение, случайной величины X вычисляется как корень квадратный из дисперсии и имеет соответственно обозначение σ [ X ]:
σ [ X ] = D[ X ] .
(5.9)
Для практического анализа стандартное отклонение более
удобная характеристика, чем дисперсия. Это связано с тем, что вели-
чина σ [ X ] выражается в тех же единицах, что и значения случайной
величины X, в то время как размерность дисперсии D[X ] представляет собой значение X в квадрате. Ясно, что разброс значений относительно математического ожидания удобнее интерпретировать в
масштабе изменения значений самой случайной величины X.
Рассмотрим основные свойства дисперсии дискретной случайной величины.
1. Дисперсия постоянной величины С равно нулю.
D[C] = 0 .
По определению D (C ) = M [C − M (C )] = M [C − C ] = 0 .
2
77
2. Постоянный множитель можно выносить за знак дисперсии
случайной величины X., возведя его в квадрат.
D(CX ) = C 2 D[ X ].
3. Дисперсия алгебраической суммы конечного числа п случайных величин X 1 , X 2 ,K, X n равно алгебраической сумме их
дисперсий.
D[ X 1 + X 2 + K + X n ] = D[ X 1 ] + D[ X 2 ] + K + D[ X n ].
Замечание. Дисперсия разности двух независимых случайных
величин равна сумме дисперсий.
D[ X 1 − X 2 ] = D[ X 1 + (− X 2 )] = D[ X 1 ] + D[(− 1) ⋅ X 2 ] =
= D[ X 1 ] + (− 1) D[ X 2 ] = D[ X 1 ] + D[ X 2 ].
2
.
Задание № 4 и № 5 связано со случайными величинами дискретного типа и их числовыми характеристиками.
Задание 4 [пример 1]
Из 25 контрольных работ, среди которых 5 оценены на отлично, наугад извлекают 3 работы. Составить закон распределения
числа работ, оцененных на «отлично» (случайная величина X) среди отобранных. Найти функцию распределения F(x) случайной величины X и построить ее график. Найти для X ее среднее значение
(математическое ожидание M(X)), дисперсию D(X) и моду M 0 .
Решение: Пусть случайная величина X – число работ, оцененных на «отлично». Так как из 25 контрольных работ 5 оценены
78
на отлично и выбирается из них 3 работы, то случайная величина X
может принимать следующие значения: x1 = 0, x2 = 1, x3 = 2, x4 = 3 .
Найдем вероятности того, что случайная величина X примет
соответствующие значения. Заметим, что решение задачи о нахождении вероятности события ( X = 0) , то есть P ( X = 0) , как впрочем
и решение задач о нахождении следующих вероятностей P ( X = 1) ,
P( X = 2) , P ( X = 3) , эквивалентно решению задачи № 2 (а) из кон-
трольной работы № 8. Поэтому приведем только соответствующие
вычисления без объяснений.
Предварительно вычислим число сочетаний из 25 по 3 (число
способов которыми можно из 25 контрольных работ извлечь 3)
С 253 =
25!
25 ⋅ 24 ⋅ 23
=
= 2300 .
3!⋅ (25 − 3)!
1⋅ 2 ⋅ 3
Тогда
C50 ⋅ C 203 1 ⋅1140 114
=
=
≈ 0,496 .
p1 = P( X = 0) =
2300 230
C 253
C51 ⋅ C 202 5 ⋅190 950
95
=
=
=
≈ 0,413 .
p 2 = P( X = 1) =
3
2300 2300 230
C 25
C52 ⋅ C 201 10 ⋅ 20 200
20
p3 = P ( X = 2) =
=
=
=
≈ 0,087 .
3
C 25
2300 2300 230
C53 ⋅ C 200 10 ⋅1
10
1
p 4 = P( X = 3) =
=
=
=
≈ 0,004 .
C 253
2300 2300 230
Тогда искомый закон распределения примет вид
79
X
p
1
2
3
114
230
95
230
20
230
1
230
Убедимся, что сумма вероятностей равна единице:
4
∑p
i =1
i
=
114 95
20
1
230
+
+
+
=
= 1.
230 230 230 230 230
Пример нахождения функции распределения F(x) случайной
величины X, ее среднего значения (математического ожидания
M(X)), дисперсии D(X) и моды M 0 рассмотрен в задании 4.
Замечание. Указанную задачу можно было решить, заметив,
что случайная величина X имеет гипергеометрическое распределение с параметрами n = 25, s = 5, k = 3, m = 0,1, 2, 3. Поэтому соответствующие вероятности можно было найти по формуле
C sm ⋅ C nk−−sm
Pn ( X = m ) =
.
C nk
Задание 4 [пример 2]
Стрелок производит три выстрела в цель. Вероятность попадания в цель при каждом выстреле равна 0,2. Составить закон распределения числа попаданий в цель (случайная величина X). Найти
функцию распределения F(x) случайной величины X и построить
ее график. Найти для X ее среднее значение (математическое ожидание M(X)), дисперсию D(X) и моду M 0 .
Решение: Пусть случайная величина X – число попаданий в
цель при трех выстрелах. Случайная величина X может принимать
80
следующие значения: x1 = 0 , x2 = 1, x3 = 2 , x4 = 3 . По условию имеем p1 = p2 = p3 = 0,2 – вероятность попасть при каждом выстреле
и соответственно q1 = q2 = q3 = 0,8 – вероятность промахнуться при
каждом выстреле.
Для составления закона распределения случайной величины X
найдем вероятности того, что случайная величина X примет соответствующие значения. Заметим, что решение задачи о нахождении вероятности события ( X = 0) , то есть P ( X = 0) , как впрочем и
решение задач о нахождении следующих вероятностей P ( X = 1) ,
P( X = 2) , P( X = 3) , эквивалентно решению задачи № 3.
В данной задаче можно заметить, что испытания проводятся
по схеме Бернулли. Действительно, число испытаний конечно. Каждое испытание является независимым. В каждом испытании наблюдается либо «успех» (попал в цель), либо «неуспех» (не попал в
цель или промахнулся). Вероятность удачи в каждом испытании
постоянна. Так как испытания проводятся по схеме Бернулли, то
можно утверждать что случайная величина X имеет биномиальное
распределение и соответствующие вероятности вычисляются по
формуле Бернулли:
p k = Pn ( X = k ) = C nk p k q n − k
Найдем соответствующие вероятности для данного примера:
p0 = P3 ( X = 0) = C30 ⋅ 0,2 0 ⋅ 0,83−0 = 0,8 3 = 0,512 ,
p1 = P3 ( X = 1) = C31 ⋅ 0,21 ⋅ 0,83−1 = 3 ⋅ 0,2 ⋅ 0,82 = 0,384 ,
p 2 = P3 ( X = 2) = C32 ⋅ 0,2 2 ⋅ 0,83− 2 = 3 ⋅ 0,2 2 ⋅ 0,8 = 0,096 ,
p3 = P3 ( X = 3) = C33 ⋅ 0,2 3 ⋅ 0,83−3 = 0,2 3 = 0,008 .
81
Тогда искомый закон распределения примет вид
X
p
0,512
1
0,384
2
0,096
3
0,008
Убедимся, что сумма вероятностей равна единице:
3
∑p
i =0
i
= 0,512 + 0,384 + 0,096 + 0,008 = 1
Пример нахождения функции распределения F(x) случайной
величины X, ее среднего значения (математического ожидания M(X)),
дисперсии D(X) и моды M 0 рассмотрен в задании 4 [пример 3].
Заметим, что в случае биномиального распределения математическое ожидание и дисперсию легко посчитать используя следующие
формулы: математическое ожидание M ( X ) = np = 3 ⋅ 0,2 = 0,6 ; дисперсия D( X ) = npq = 3 ⋅ 0,2 ⋅ 0,8 = 0,48 .
Задание 4 [пример 3]
Пусть закон распределения случайной величины X, полученный при решении задач 4, задан следующим рядом распределения.
X
p
3
0,14
5
0,20
7
0,49
11
0,17
Найти функцию распределения F(x) случайной величины X.
Найти для случайной величины X математическое ожидание
M(X), дисперсию D(X), среднеквадратическое отклонение σ ( X ) и
моду M 0 .
82
Решение: а).
В нашем примере функция распределения:
x ≤ 3,
⎧0,
⎪0,14,
3 < x ≤ 5,
⎪⎪
5 < x ≤ 7,
F ( x) = ⎨0,14 + 0,20,
⎪0,14 + 0,20 + 0,49, 7 < x ≤ 11,
⎪
⎪⎩0,14 + 0,20 + 0,49 + 0,17, x > 11.
Таким образом, функция распределения примет вид
x ≤ 3,
3 < x ≤ 5,
5 < x ≤ 7,
7 < x ≤ 11,
x > 11.
⎧0,
⎪0,14,
⎪⎪
F ( x) = ⎨0,34,
⎪0,83,
⎪
⎪⎩1,
Решение: б). Математическое ожидание (среднее значение)
дискретной случайной величины X найдем по формуле
n
M ( X ) = ∑ xi p i .
i =1
Тогда математическое ожидание
M ( X ) = 3 ⋅ 0,14 + 5 ⋅ 0,20 + 7 ⋅ 0,49 + 11 ⋅ 0,17 = 6,72 .
Решение: в). Дисперсию дискретной случайной величины X
найдем по формуле
D( X ) = M ( X 2 ) − ( M ( X )) 2
83
где математическое ожидание квадрата дискретной случайной величины X
M (X
2
)= ∑x
n
i =1
2
i
pi .
Найдем
M ( X 2 ) = 3 2 ⋅ 0,14 + 5 2 ⋅ 0,20 + 7 2 ⋅ 0,49 + 112 ⋅ 0,17 = 50,84 .
Тогда дисперсия
D ( X ) = 50,84 − 6,72 2 = 5,6816
Решение: г). Среднеквадратическое отклонение
σ ( X ) = D ( X ) = 5,6816 ≈ 2,38 .
Решение: д). Моду M 0 найдем по максимальной вероятности в ряде распределения:
M0 = 7 .
Ответ: а) функция распределения
⎧0,
⎪0,14,
⎪⎪
F ( x) = ⎨0,34,
⎪0,83,
⎪
⎪⎩1,
84
x ≤ 3,
3 < x ≤ 5,
5 < x ≤ 7,
7 < x ≤ 11,
x > 11.
б) математическое ожидание M ( X ) = 6,72 ;
в) дисперсия D( X ) = 5,6816 ;
г) среднеквадратическое отклонение σ ( X ) ≈ 2,38 ;
д) мода M 0 = 7 .
5.3. Система двух случайных величин
До сих пор мы рассматривали дискретные случайные величины, которые называют одномерными: их возможные значения определялись одним числом. Кроме одномерных величин рассматривают также величины, возможные значения которых определяются
несколькими числами. Двумерную случайную величину обозначают через (X, Y); каждая из величин X и Y называется компонентой
(составляющей). Обе величины X и Y, рассматриваемые одновременно, образуют систему двух случайных величин. Например, при
штамповке пластинок их длина и ширина представляют собой
двумерную случайную величину.
Определение. Законом распределения двумерной случайной
( X ,Y ) называют множество возможных пар чисел (xi , y j ) их веро-
(
)
ятностей p xi , y j . Двумерную случайную можно трактовать как
случайную точку A( X ,Y ) на координатной плоскости.
Закон распределения двумерной случайной величины обычно
задается в виде таблицы, в строках которой указаны возможные
значения xi случайной величины Х , а в столбцах – возможные значения yi случайной величины Y, на пересечениях столбцов указаны соответствующие вероятности pij . Пусть случайная величина X
может принимать n значений, а случайная величина Y – m значений. Тогда закон распределения двумерной случайной величины
(X, Y) имеет вид
85
Y/X
x1
y1
p11
y2
p 21
x2
p12
p 22
K
K
K
xi
K
K
p1i
K
xn
p1n
K
p 2i
K
p 2n
K
K
K
K
K
K
K
K
K
K
K
K
yj
p j1
p j2
K
K
K
yn
pm1
pm2
p ji
pmi
p jn
K
pmn
Из этой таблицы можно найти законы распределения каждой
из случайных компонент. Например, вероятность того, что случайная величина X примет значение xk , равна, согласно теореме сложения вероятностей независимых событий,
P( X = xk ) = p1k + p2 k + K + pmk , k = 1,2,K ,n.
Иными словами, для нахождения вероятности P( xk ) нужно
просуммировать все m вероятностей по к-му столбцу. Аналогично получается вероятность того, что случайная величина Y примет возможное значение y r : P( y r ) получается суммированием
всех n вероятностей r-й строки таблицы ( r = 1,2,K,m.) Отсюда
следует, что сумма всех вероятностей в законе распределения
равна единице.
m
n
i =1
j =1
∑ ∑
pij = 1 .
В случае системы двух случайных величин используются
кроме математических ожиданий и дисперсий компонентов, составляющих систему, еще и другие числовые характеристики, описывающие их взаимосвязь.
86
Корреляционный момент.
Корреляционным моментом случайных величин X и Y называется математическое ожидание произведений их отклонений:
K ( X ,Y ) = M [( X − M ( X ))(Y − M (Y ))] .
Корреляционный момент служит для описания связи между
случайными величинами X и Y . Из свойств математического ожидания формулу для нахождения корреляционного момента можно
записать в следующем виде:
K ( X ,Y ) = M [ XY ] − M [ X ]M [Y ] .
Для непосредственного вычисления корреляционного момента системы дискретных случайных величин используется формула
K ( X ,Y ) = ∑∑ xi y j pij − M [ X ]M [Y ] .
n
m
i =1 j =1
Корреляционный момент двух независимых случайных X и Y
равен нулю.
Если корреляционный момента не равен нулю, то величины
X и Y являются зависимыми.
Коэффициент корреляции
Из определения корреляционного момента следует, что его
размерность равна произведению размерностей величин X и Y ;
например, если X и Y измерены в сантиметрах, то K ( X ,Y ) име2
ет размерность см .
Это обстоятельство затрудняет сравнение корреляционных
моментов различных систем случайных величин. Для устранения
этого недостатка вводят безразмерную числовую характеристику –
87
коэффициент корреляции, величина которого не зависит от выбора
системы измерения случайных величин.
Коэффициентом корреляции случайных величин X и Y называется отношение их корреляционного момента к произведению
средних квадратических отклонений
r ( X,Y ) =
K ( X ,Y )
K ( X ,Y )
=
.
D( X )D(Y ) σ ( X )σ (Y )
Из определения и свойств математического ожидания и дисперсии следует важный вывод, что абсолютная коэффициента корреляции не превосходит единицы:
r ( X,Y ) ≤ 1.
Две случайные величины X и Y называются коррелированными, если их корреляционный момент (коэффициент корреляции) отличен от нуля; если же их корреляционный момент равен
нулю, то X и Y называются некоррелированными.
Таким образом, две коррелированные случайные являются
также и зависимыми. Обратное утверждение неверно, т.е. две зависимые величины могут быть как коррелированными, так и некоррелированными.
Задание 5
Даны законы распределения независимых случайных величин
Xi
pi
88
5
?
6
0,6
Yj
pj
7
0,8
8
0,2
Необходимо:
а) найти вероятность того, что случайная величина X примет
значение 5;
б) составить закон распределения случайной величины
Z = X +Y ;
в) найти математическое ожидание случайной величины Z
двумя способами: непосредственно и используя свойство математического ожидания M ( X + Y ) = M ( X ) + M (Y ) ;
г) найти дисперсию случайной величины Z двумя способами: непосредственно и используя свойство дисперсии
D( X + Y ) = D( X ) + D(Y ) .
Решение: a). Так как в условии задачи задан закон распределения (в виде таблицы) дискретной случайной величины X, то имеет место следующее равенство
n
∑p
i =1
i
= 1.
В нашем случае имеем
P ( X = 5) + P ( X = 6) = 1 .
Тогда
P ( X = 5) + 0,6 = 1
P( X = 5) = 1 − 0,6 = 0,4
Таким образом, закон распределения случайной величины X
имеет вид
Xi
pi
5
0,4
6
0,6
89
Решение: б). Для составления закона распределения случайной величины Z = X + Y необходимо перечислить все возможные
значения случайной величины Z , которые легко получить составив
таблицу суммы случайных величин X и Y.
X
5
6
12
13
13
14
Y
7
8
Таким образом, случайная величина Z принимает три различных значения: 12, 13 и 14. Соответствующие вероятности вычислим используя теоремы сложения и умножения для случайных
событий, рассмотренные в [8] и таблицу 1, составленную выше.
P( Z = 12) = P( X = 5) ⋅ P(Y = 7) = 0,4 ⋅ 0,8 = 0,32
Событие, состоящие в том, что случайная величина Z примет
значение равное 12 ( Z = 12) наступит в том случае, если случайная
величина X примет значение равное 5 ( X = 5) и случайная величина Y примет значение равное 7 (Y = 7) .
Для нахождения соответствующей вероятности P ( Z = 12)
воспользуемся теоремой умножения для независимых событий, так
как указанные выше события являются независимыми, в силу независимости самих случайных величин.
Аналогично вычисляем вероятности того, что случайная величина Z примет значения 13 и 14.
P( Z = 13) = P( X = 6) ⋅ P(Y = 7) + P( X = 5) ⋅ P(Y = 8) =
= 0,6 ⋅ 0,8 + 0,4 ⋅ 0,2 = 0,48 + 0,08 = 0,56
При вычислении вероятности P( Z = 13) воспользовались теоремой сложения для двух несовместных событий и теоремой умножения для независимых событий).
90
P( Z = 14) = P( X = 6) ⋅ P(Y = 8) = 0,6 ⋅ 0,2 = 0,12
Таким образом, закон распределения случайной величины
Z = X + Y имеет вид
12
0,32
Zi
pi
13
0,56
14
0,12
Убедимся, что сумма вероятностей равна единице:
3
∑p
i =1
i
= 0,32 + 0,56 + 0,12 = 1
Решение: в). Вычислим математическое ожидание случайной
величины Z двумя способами.
1) Найдем математическое ожидание случайной величины Z
непосредственно, то есть используя определение
3
M (Z ) = ∑ z i p i .
i =1
Тогда математическое ожидание
M (Z ) = 12 ⋅ 0,32 + 13 ⋅ 0,56 + 14 ⋅ 0,12 = 12,8 .
2) Найдем математическое ожидание случайной величины Z,
используя свойство математического ожидания
M ( X + Y ) = M ( X ) + M (Y ) .
Для этого вычислим математические ожидания случайных величин X и Y:
91
2
M ( X ) = ∑ xi pi = 5 ⋅ 0,4 + 6 ⋅ 0,6 = 2 + 3,6 = 5,6.
i =1
2
M (Y ) = ∑ yi pi = 7 ⋅ 0 ,8 + 8 ⋅ 0 ,2 = 5 ,6 + 1,6 = 7 ,2.
i =1
Тогда
M ( Z ) = M ( X + Y ) = M ( X ) + M (Y ) = 5,6 + 7,2 = 12,8 .
Решение: г). Вычислим дисперсию случайной величины Z
двумя способами.
1) Найдем дисперсию случайной величины Z непосредственно, то есть используя определение
D ( Z ) = M (Z 2 ) − ( M (Z )) 2 .
При решении в пункте в) было найдено математическое ожи-
дание случайной величины Z: M (Z ) = 12,8 . Найдем математическое ожидание квадрата дискретной случайной величины Z
M (Z
2
)= ∑z
n
i =1
2
i
pi .
В результате применение формулы, получим
M (Z 2 ) = 12 2 ⋅ 0,32 + 13 2 ⋅ 0,56 + 14 2 ⋅ 0,12 = 164,24 .
Тогда дисперсия
D(Z ) = 164,24 − 12,8 2 = 0,4 .
92
2) Найдем дисперсию случайной величины Z, используя свойство дисперсии
D ( X + Y ) = D ( X ) + D (Y ) .
Для этого вычислим дисперсии случайных величин X и Y:
D( X ) = M ( X 2 ) − ( M ( X )) 2
D (Y ) = M (Y 2 ) − ( M (Y )) 2
При решении в пункте в) были найдены математические ожидания случайны величин X и Y: M ( X ) = 5,6 M (Y ) = 7,2 . Найдем
математические ожидания квадратов дискретных случайных величин X и Y.
В результате применение формул, получим
M ( X 2 ) = ∑ xi2 pi = 5 2 ⋅ 0,4 + 6 2 ⋅ 0,6 = 10 + 21,6 = 31,6,
2
i =1
M (Y
2
)= ∑ y
2
i =1
2
i
pi = 7 2 ⋅ 0,8 + 8 2 ⋅ 0,2 = 39,2 + 12,8 = 52.
2
2
Тогда D( X ) = 31,6 − 5,6 = 0,24 , D(Y ) = 52 − 7,2 = 0,16 .
Тогда применяя свойство, получим
D ( Z ) = D ( X + Y ) = D ( X ) + D (Y ) = 0,24 + 0,16 = 0,4 .
Ответ:
а). P( X = 5) = 0,4 .
б). Закон распределения случайной величины Z = X + Y имеет вид
93
Zi
pi
12
0,32
13
0,56
14
0,12
в). M (Z ) = 12,8 .
г). D(Z ) = 0,4 .
Задание № 6 связано со случайными величинами непрерывного типа и их числовыми характеристиками.
Задание 6
Случайная величина X задана функцией плотности вероятностей
x≤0
⎧0,
⎪⎪ x
f ( x) = ⎨ ,
⎪2
⎪⎩0,
0< x≤2
x>2
Найти функцию распределения F ( x ) случайной величины X.
Построить графики функций f ( x ) и F ( x ) . Вычислить для X ее
математическое ожидание M(X), дисперсию D(X), моду M 0 и медиану M e
Решение: а). Функцию распределения F ( x ) непрерывной
случайной величины найдем по формуле
F ( x) =
x
∫ f (t )dt ,
−∞
где f ( x ) ≥ 0 – функция плотности распределения вероятностей.
94
Так как функция плотности распределения вероятностей представлена на трех интервалах разными аналитическими выражениями, то вычислять значение функции распределения вероятностей
также будем на трех интервалах.
x
x
−∞
−∞
1). При x ≤ 0 имеем F ( x) =
∫ f (t )dt = ∫ 0dt = 0 .
Так как по-
дынтегральная функция равна нулю, то и несобственный интеграл
с переменным верхнем пределом равен нулю, как впрочем и любой
определенный интеграл, у которого подынтегральная функция
равна нулю.
2). При 0 < x ≤ 2 исходный интеграл разобьем на два интеграла:
x
t
1x
1 t2
F ( x) = ∫ f (t )dt = ∫ 0dt + ∫ dt = ∫ tdt = ⋅
=
2
2
2
2
−∞
−∞
x
x
x2
1 2
2
= (x − 0 ) = .
4
4
3). При x > 2 исходный интеграл разобьем на три интеграла:
2
x
12
1 t2
t
F ( x) = ∫ f (t )dt = ∫ 0dt + ∫ dt + ∫ 0dt = ∫ tdt = ⋅
=
20
2 20
−∞
−∞
0 2
2
x
=
2
1 2
(2 − 0 2 ) = 1.
4
Таким образом функция распределения F ( x) примет вид
⎧0,
⎪ 2
⎪x
F ( x) = ⎨ ,
⎪4
⎪⎩1,
x≤0
0< x≤2
x>2
95
Решение: б). Построим графики функций f (x) и F (x) , учитывая, что они являются неэлементарными и на разных интервалах
((− ∞;0], (0;2] и (2;+∞ )) представляются различными аналитическим
выражениями
Решение: в). Найдем математическое ожидание случайной
величины X. Так как случайная величина X является непрерывной,
то ее математическое ожидание найдем по формуле
∞
M ( X ) = ∫ x ⋅ f ( x) dx .
−∞
Применяя формулу найдем
∞
∞
x
M ( X ) = ∫ x ⋅ f ( x) dx = ∫ x ⋅ 0 dx + ∫ x ⋅ dx + ∫ x ⋅ 0 dx =
2
−∞
−∞
2
2
2
2
12 2
1 x 2+1
1 x3
1
8 4
= ∫ x dx = ⋅
= ⋅
= (2 3 − 0 3 ) = = .
20
2 2 +1 0 2 3 0 6
6 3 .
Решение: г). Найдем дисперсию случайной величины X.
D ( X ) = M ( X 2 ) − ( M ( X )) 2 .
При решении в пункте в) было найдено математическое ожи4
дание случайной величины X: M ( X ) = . Найдем математическое
3
ожидание квадрата дискретной случайной величины X. Так как
случайная величина X является непрерывной, то математическое
ожидание квадрата случайной величины найдем по формуле
∞
M ( X ) = ∫ x 2 ⋅ f ( x) dx .
2
−∞
96
Применяя формулу, найдем
∞
∞
x
M ( X ) = ∫ x ⋅ f ( x) dx = ∫ x ⋅ 0 dx + ∫ x ⋅ dx + ∫ x 2 ⋅ 0 dx =
2
2
−∞
−∞
2
2
2
2
2
2
2
12 3
1 x 3+1
1 x4
1
16
= ∫ x dx = ⋅
= ⋅
= (2 4 − 0 4 ) = = 2.
20
2 3 +1 0 2 4 0 8
8
.
Тогда дисперсия
2
16 2
⎛4⎞
D( X ) = 2 − ⎜ ⎟ = 2 − =
9 9
⎝3⎠
Решение: д). Найдем моду M 0 случайной величины X. Модой называется значение случайной величины, которое встречается
чаще всего, то есть для непрерывной случайной величины это есть
максимум функции плотности распределения вероятностей. Функция f (x) достигает максимума в точке x = 2 и, следовательно, мода M 0 = 2 .
Решение: е). Найдем медиану M e случайной величины X.
Медианой называет 1 2 -квантиль. Напомним, что p-квантилем
( x p ) называется корень уравнения F ( x) = p , где F (x) – функ-
ция распределения и 0 < p < 1 . Учитывая определение функции
распределения, можно записать следующее соотношение
P( X < M e ) = P( X > M e ) = 1 2 , то есть медиана делить область значений случайной величины на две равные по вероятности части.
Медиана будет лежать на интервале (0;2 ) и ее можно найти из
x2
решения уравнения (на интервале (0;2 ) имеем F ( x) = ):
4
97
x2 1 ,
=
4 2
x2 = 2 ,
x = 2 ≈ ±1,414 .
Учитывая, что медиана лежит в интервале
(0;2)
получим
M e = 2 ≈ 1,414 .
Ответ:
а). Функция распределения F (x) имеет вид
⎧0,
⎪ 2
⎪x
F ( x) = ⎨ ,
⎪4
⎪⎩1,
x ≤ 0,
0 < x ≤ 2,
x > 2.
б). Искомые графики представлены на рис. – график функции
плотности распределения вероятностей f ( x) и рис. – график функции распределения F ( x) .
4
3
в). Математическое ожидание M ( X ) = .
г). Дисперсия D( X ) =
2
.
9
д). Мода M 0 = 2 .
е). Медиана M e = 2 ≈ 1,414 .
98
ЛИТЕРАТУРА
1. Гмурман В.Е. Руководство к решению задач по теории ве-
роятностей и математической статистике: Учеб. пособие для студентов вузов. Изд 4-е, стер. – М.: Высш. шк., 1998. – 400 с.
2. Высшая математика для экономистов: Учебник для вузов/Кремер Н.Ш., Путко Б.А., Тришин И.М., Фридман М.Н. Под ред.
проф. Кремера Н.Ш. – М.: Банки и биржи, ЮНИТИ, 1999. – 471 с.
3. Красс, М.С. Математика для экономистов/ Красс М.С., Чупрынов Б.П.: Учеб. пособие. – СПб.: Питер, 2008. – 464 с.
4. Красс, М.С. Математика для экономического бакалавриата/
М.С. Красс, Б.П.Чупрынов / Учебник. – М.: Дело, 2005. – 576 с.
5. Вентцель, Е.С. Теория вероятностей. Учеб. Для вузов. – 4-е
изд., стер. – М.: Наука. 1969. – 575 с.
6. Практикум по высшей математике для экономистов: Учеб.
Пособие для вузов/ Н.Ш. Кремер, Б.А. Путко, И.М. Тришин и др.
Под ред. проф. Н.Ш. Кремера–М.: ЮНИТИ-ДАНА, 2005. – 423 с.
7. Данко, П. Е. Высшая математика в упражнениях и задачах.
В 2-х ч. Ч.2. / П. Е. Данко, А. Г. Попов, Т.Я. Кожевникова. – М.:
Высш. шк., 1986. – 304с.
8. Гмурман В.Е. Теории вероятностей и математическая статистика: Учеб. пособие для вузов. Изд 6-е, стер. – М.: Высш. шк.,
1998. – 479 с.
9. Письменный, Д.Т. Конспект лекций по теории вероятностей
и математической статистики Ч.3/ Д.Т. Письменный. – 4-е изд. –
М.: Айрис-пресс, 2006. – 256 с.
99
ПРИЛОЖЕНИЯ
Приложение 1
Таблица значений функции ϕ ( x) =
100
1
2π
e− x
2
2
0,1
0,3989
0,3970
1
0,3989
0,3965
2
0,3989
0,3961
3
0,3988
0,3956
4
0,3986
0,3951
5
0,3984
0,3945
6
0,3982
0,3939
7
0,3980
0,3932
8
0,3977
0,3925
9
0,3973
0,3918
0,2
0,3910
0,3902
0,3894
0,3885
0,3876
0,3867
0,3857
0,3847
0,3836
0,3825
0,3
0,3814
0,3802
0,3790
0,3778
0,3765
0,3752
0,3739
0,3725
0,3712
0,3697
0,4
0,3683
0,3668
0,3653
0,3637
0,3621
0,3605
0,3589
0,3572
0,3555
0,3538
0,5
0,3521
0,3503
0,3485
0,3467
0,3448
0,3429
0,3410
0,3391
0,3372
0,3352
0,6
0,3332
0,3312
0,3292
0,3271
0,3251
0,3230
0,3209
0,3187
0,3166
0,3144
0,7
0,3123
0,3101
0,3079
0,3056
0,3034
0,3011
0,2989
0,2966
0,2943
0,2920
0,8
0,2897
0,2874
0,2850
0,2827
0,2803
0,2780
0,2756
0,2732
0,2709
0,2685
0,9
0,2661
0,2637
0,2613
0,2589
0,2565
0,2541
0,2516
0,2492
0,2468
0,2444
1
0,2420
0,2396
0,2371
0,2347
0,2323
0,2299
0,2275
0,2251
0,2227
0,2203
1,1
0,2179
0,2155
0,2131
0,2107
0,2083
0,2059
0,2036
0,2012
0,1989
0,1965
1,2
0,1942
0,1919
0,1895
0,1872
0,1849
0,1826
0,1804
0,1781
0,1758
0,1736
1,3
0,1714
0,1691
0,1669
0,1647
0,1626
0,1604
0,1582
0,1561
0,1539
0,1518
1,4
0,1497
0,1476
0,1456
0,1435
0,1415
0,1394
0,1374
0,1354
0,1334
0,1315
1,5
0,1295
0,1276
0,1257
0,1238
0,1219
0,1200
0,1182
0,1163
0,1145
0,1127
1,6
0,1109
0,1092
0,1074
0,1057
0,1040
0,1023
0,1006
0,0989
0,0973
0,0957
1,7
0,0940
0,0925
0,0909
0,0893
0,0878
0,0863
0,0848
0,0833
0,0818
0,0804
1,8
0,0790
0,0775
0,0761
0,0748
0,0734
0,0721
0,0707
0,0694
0,0681
0,0669
1,9
0,0656
0,0644
0,0632
0,0620
0,0608
0,0596
0,0584
0,0573
0,0562
0,0551
2
0,0540
0,0529
0,0519
0,0508
0,0498
0,0488
0,0478
0,0468
0,0459
0,0449
2,1
0,0440
0,0431
0,0422
0,0413
0,0404
0,0396
0,0387
0,0379
0,0371
0,0363
2,2
0,0355
0,0347
0,0339
0,0332
0,0325
0,0317
0,0310
0,0303
0,0297
0,0290
2,3
0,0283
0,0277
0,0270
0,0264
0,0258
0,0252
0,0246
0,0241
0,0235
0,0229
2,4
0,0224
0,0219
0,0213
0,0208
0,0203
0,0198
0,0194
0,0189
0,0184
0,0180
2,5
0,0175
0,0171
0,0167
0,0163
0,0158
0,0154
0,0151
0,0147
0,0143
0,0139
2,6
0,0136
0,0132
0,0129
0,0126
0,0122
0,0119
0,0116
0,0113
0,0110
0,0107
2,7
0,0104
0,0101
0,0099
0,0096
0,0093
0,0091
0,0088
0,0086
0,0084
0,0081
2,8
0,0079
0,0077
0,0075
0,0073
0,0071
0,0069
0,0067
0,0065
0,0063
0,0061
2,9
0,0060
0,0058
0,0056
0,0055
0,0053
0,0051
0,0050
0,0048
0,0047
0,0046
Продолжение приложения 1
3
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
4
4,1
4,2
4,3
4,4
4,5
4,6
4,7
4,8
4,9
5
0,0044
0,0033
0,0024
0,0017
0,0012
0,0009
0,0006
0,0004
0,0003
0,0002
0,0001
0,00009
0,00006
0,00004
0,00002
0,00002
0,00001
1
0,0043
0,0032
0,0023
0,0017
0,0012
0,0008
0,0006
0,0004
0,0003
0,0002
0,0001
0,00009
0,00006
0,00004
0,00002
0,00002
0,00001
2
0,0042
0,0031
0,0022
0,0016
0,0012
0,0008
0,0006
0,0004
0,0003
0,0002
0,0001
0,00008
0,00005
0,00004
0,00002
0,00001
0,00001
3
0,0040
0,0030
0,0022
0,0016
0,0011
0,0008
0,0005
0,0004
0,0003
0,0002
0,0001
0,00008
0,00005
0,00003
0,00002
0,00001
0,00001
4
0,0039
0,0029
0,0021
0,0015
0,0011
0,0008
0,0005
0,0004
0,0003
0,0002
0,0001
0,00008
0,00005
0,00003
0,00002
0,00001
0,00001
5
0,0038
0,0028
0,0020
0,0015
0,0010
0,0007
0,0005
0,0004
0,0002
0,0002
0,0001
0,00007
0,00005
0,00003
0,00002
0,00001
0,00001
6
0,0037
0,0027
0,0020
0,0014
0,0010
0,0007
0,0005
0,0003
0,0002
0,0002
0,0001
0,00007
0,00005
0,00003
0,00002
0,00001
0,00001
7
0,0036
0,0026
0,0019
0,0014
0,0010
0,0007
0,0005
0,0003
0,0002
0,0002
0,0001
0,00007
0,00004
0,00003
0,00002
0,00001
0,00001
8
0,0035
0,0025
0,0018
0,0013
0,0009
0,0007
0,0005
0,0003
0,0002
0,0001
0,0001
0,00006
0,00004
0,00003
0,00002
0,00001
0,00001
9
0,0034
0,0025
0,0018
0,0013
0,0009
0,0006
0,0004
0,0003
0,0002
0,0001
0,0001
0,00006
0,00004
0,00003
0,00002
0,00001
0,00001
0,000006
0,000004
0,000002
0,00000
Приложение 2
Таблица значений функции Φ ( x) =
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
0,0000
0,0398
0,0793
0,1179
0,1554
0,1915
0,2257
0,2580
0,2881
0,3159
0,3413
1
0,0040
0,0438
0,0832
0,1217
0,1591
0,1950
0,2291
0,2611
0,2910
0,3186
0,3438
2
0,0080
0,0478
0,0871
0,1255
0,1628
0,1985
0,2324
0,2642
0,2939
0,3212
0,3461
3
0,0120
0,0517
0,0910
0,1293
0,1664
0,2019
0,2357
0,2673
0,2967
0,3238
0,3485
4
0,0160
0,0557
0,0948
0,1331
0,1700
0,2054
0,2389
0,2704
0,2995
0,3264
0,3508
5
0,0199
0,0596
0,0987
0,1368
0,1736
0,2088
0,2422
0,2734
0,3023
0,3289
0,3531
6
0,0239
0,0636
0,1026
0,1406
0,1772
0,2123
0,2454
0,2764
0,3051
0,3315
0,3554
1
2π
x
−z
e
∫
2
2
dz
7
0,0279
0,0675
0,1064
0,1443
0,1808
0,2157
0,2486
0,2794
0,3078
0,3340
0,3577
8
0,0319
0,0714
0,1103
0,1480
0,1844
0,2190
0,2517
0,2823
0,3106
0,3365
0,3599
9
0,0359
0,0753
0,1141
0,1517
0,1879
0,2224
0,2549
0,2852
0,3133
0,3389
0,3621
101
Продолжение приложения 2
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
4
4,1
4,2
4,3
4,4
4,5
4,6
4,7
4,8
4,9
5
102
0,3643
0,3849
0,4032
0,4192
0,4332
0,4452
0,4554
0,4641
0,4713
0,4772
0,4821
0,4861
0,4893
0,4918
0,4938
0,4953
0,4965
0,4974
0,4981
0,4987
0,4990
0,4993
0,4995
0,4997
1
0,3665
0,3869
0,4049
0,4207
0,4345
0,4463
0,4564
0,4649
0,4719
0,4778
0,4826
0,4864
0,4896
0,4920
0,4940
0,4955
0,4966
0,4975
0,4982
0,4987
0,4991
0,4993
0,4995
0,4997
2
0,3686
0,3888
0,4066
0,4222
0,4357
0,4474
0,4573
0,4656
0,4726
0,4783
0,4830
0,4868
0,4898
0,4922
0,4941
0,4956
0,4967
0,4976
0,4982
0,4987
0,4991
0,4994
0,4995
0,4997
3
0,3708
0,3907
0,4082
0,4236
0,4370
0,4484
0,4582
0,4664
0,4732
0,4788
0,4834
0,4871
0,4901
0,4925
0,4943
0,4957
0,4968
0,4977
0,4983
0,4988
0,4991
0,4994
0,4996
0,4997
4
0,3729
0,3925
0,4099
0,4251
0,4382
0,4495
0,4591
0,4671
0,4738
0,4793
0,4838
0,4875
0,4904
0,4927
0,4945
0,4959
0,4969
0,4977
0,4984
0,4988
0,4992
0,4994
0,4996
0,4997
5
0,3749
0,3944
0,4115
0,4265
0,4394
0,4505
0,4599
0,4678
0,4744
0,4798
0,4842
0,4878
0,4906
0,4929
0,4946
0,4960
0,4970
0,4978
0,4984
0,4989
0,4992
0,4994
0,4996
0,4997
6
0,3770
0,3962
0,4131
0,4279
0,4406
0,4515
0,4608
0,4686
0,4750
0,4803
0,4846
0,4881
0,4909
0,4931
0,4948
0,4961
0,4971
0,4979
0,4985
0,4989
0,4992
0,4994
0,4996
0,4997
8
0,3810
0,3997
0,4162
0,4306
0,4429
0,4535
0,4625
0,4699
0,4761
0,4812
0,4854
0,4887
0,4913
0,4934
0,4951
0,4963
0,4973
0,4980
0,4986
0,4990
0,4993
0,4995
0,4996
0,4997
9
0,3830
0,4015
0,4177
0,4319
0,4441
0,4545
0,4633
0,4706
0,4767
0,4817
0,4857
0,4890
0,4916
0,4936
0,4952
0,4964
0,4974
0,4981
0,4986
0,4990
0,4993
0,4995
0,4997
0,4998
0,49977 0,49978 0,49978 0,49979 0,49980 0,49981 0,49981 0,49982 0,49983
0,49983
0,49984 0,49985 0,49985 0,49986 0,49986 0,49987 0,49987 0,49988 0,49988
0,49989
0,49989 0,49990 0,49990 0,49990 0,49991 0,49991 0,49992 0,49992 0,49992
0,49992
0,49993 0,49993 0,49993 0,49994 0,49994 0,49994 0,49994 0,49995 0,49995
0,49995
0,49995 0,49995 0,49996 0,49996 0,49996 0,49996 0,49996 0,49996 0,49997
0,49997
0,49997 0,49997 0,49997 0,49997 0,49997 0,49997 0,49998 0,49998 0,49998
0,49998
0,499986
0,499985
0,499990
0,499991
0,499994
0,499996
0,49998 0,49998 0,49998 0,49998 0,49998 0,49998 0,49998
0,499987
0,499988
0,499991
0,499992
0,499995
0,499997
0,499998
0,499999
0,499999
0,4999995
0,500000
0,499989
0,499993
7
0,3790
0,3980
0,4147
0,4292
0,4418
0,4525
0,4616
0,4693
0,4756
0,4808
0,4850
0,4884
0,4911
0,4932
0,4949
0,4962
0,4972
0,4979
0,4985
0,4989
0,4992
0,4995
0,4996
0,4997
Приложение 3
Значение функции Пуассона P(Χ = k ) =
λk
k!
e−λ
λ
k
1
2
3
4
5
6
7
0,1
0,9048
0,0905
0,0045
0,0002
0,0000
0,0000
0,0000
0,0000
0,2
0,8187
0,1637
0,0164
0,0011
0,0001
0,0000
0,0000
0,0000
0,3
0,7408
0,2222
0,0333
0,0033
0,0003
0,0000
0,0000
0,0000
0,4
0,6703
0,2681
0,0536
0,0072
0,0007
0,0001
0,0000
0,0000
0,5
0,6065
0,3033
0,0758
0,0126
0,0016
0,0002
0,0000
0,0000
0,6
0,5488
0,3293
0,0988
0,0198
0,0030
0,0004
0,0000
0,0000
0,7
0,4966
0,3476
0,1217
0,0284
0,0050
0,0007
0,0001
0,0000
0,8
0,4493
0,3595
0,1438
0,0383
0,0077
0,0012
0,0002
0,0000
0,9
0,4066
0,3659
0,1647
0,0494
0,0111
0,0020
0,0003
0,0000
1
0,3679
0,3679
0,1839
0,0613
0,0153
0,0031
0,0005
0,0001
λ
k
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
2
0,1353
0,2707
0,2707
0,1804
0,0902
0,0361
0,0120
0,0034
0,0009
0,0002
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
3
0,0498
0,1494
0,2240
0,2240
0,1680
0,1008
0,0504
0,0216
0,0081
0,0027
0,0008
0,0002
0,0001
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
4
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0298
0,0132
0,0053
0,0019
0,0006
0,0002
0,0001
0,0000
0,0000
0,0000
0,0000
5
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1044
0,0653
0,0363
0,0181
0,0082
0,0034
0,0013
0,0005
0,0002
0,0000
0,0000
0,0000
6
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0,1033
0,0688
0,0413
0,0225
0,0113
0,0052
0,0022
0,0009
0,0003
0,0001
0,0000
7
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0,1304
0,1014
0,0710
0,0452
0,0263
0,0142
0,0071
0,0033
0,0014
0,0006
0,0002
8
0,0003
0,0027
0,0107
0,0286
0,0573
0,0916
0,1221
0,1396
0,1396
0,1241
0,0993
0,0722
0,0481
0,0296
0,0169
0,0090
0,0045
0,0021
0,0009
9
0,0001
0,0011
0,0050
0,0150
0,0337
0,0607
0,0911
0,1171
0,1318
0,1318
0,1186
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058
0,0029
10
0,0000
0,0005
0,0023
0,0076
0,0189
0,0378
0,0631
0,0901
0,1126
0,1251
0,1251
0,1137
0,0948
0,0729
0,0521
0,0347
0,0217
0,0128
0,0071
k
19
20
21
22
23
24
25
2
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
3
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
4
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
5
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
6
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
7
0,0001
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
8
0,0004
0,0002
0,0001
0,0000
0,0000
0,0000
0,0000
9
0,0014
0,0006
0,0003
0,0001
0,0000
0,0000
0,0000
10
0,0037
0,0019
0,0009
0,0004
0,0002
0,0001
0,0000
103
СОДЕРЖАНИЕ
Введение....................................................................................... 3
Тема 1 Случайные события: основные понятия и определения............................................................................................. 5
Задание 1(Контрольная работа № 8).................................. 10
Тема 2 Основные формулы комбинаторики и их использование для вычисления вероятности события ................ 14
Тема 3 Основные теоремы теории вероятностей .............. 21
Задание 2 (Контрольная работа № 8).................................. 26
Задание 3(Контрольная работа № 8).................................. 34
Задание 4 (Контрольная работа № 8)................................. 40
Задание 5 (Контрольная работа № 8)................................. 43
Тема 4. Повторные независимые испытания ...................
Задание 1 (Контрольная работа № 9) ................................
Задание 2 (Контрольная работа № 9) ................................
Задание 3 (Контрольная работа № 9) ................................
Тема 5 Случайные величины, их распределение и числовые характеристики .................................................................
5.1. Дискретные и непрерывные случайные величины.
Закон распределения дискретной случайной величины ...............
5.2 Числовые характеристики случайных величин................
Задание 4 [пример 1] (Контрольная работа № 9)..............
Задание 4 [пример 2] (Контрольная работа № 9)..............
Задание 4 [пример 3] (Контрольная работа № 9)..............
5.3 Система двух случайных величин ....................................
Задание 5 (Контрольная работа № 9).................................
Задание 6 (Контрольная работа № 9).................................
47
53
55
59
63
64
70
78
80
82
85
88
94
Литература ................................................................................. 99
Приложения ............................................................................. 100
104