Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
ЛЕКЦИЯ 3
УСЛОВНАЯ ВЕРОЯТНОСТЬ. ТЕОРЕМА УМНОЖЕНИЯ.
ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ, ФОРМУЛА БАЙЕСА,
ПОВТОРНЫЕ НЕЗАВИСИМЫЕ ИСПЫТАНИЯ.
Определение. Условная вероятность - это вероятность
события А если известно, что произошло событие В . Обозначается
( Β)
РΑ
и определяется формулой
( В ) = РР( А(В⋅ В) ) , Р(В ) ≠ 0 .
РА
Проверим аксиомы:
1. Р(Ω В ) = Р(Ω ⋅ В ) = Р(В ) =1
Р (В )
Р (В )
2. при любых А и В, (Р(В ) ≠ 0 ) имеем:
Р( А ⋅ В )
Р (А ) =
≥0
В
Р (В )
Р ( А ⋅ В ) Р (В )
Р (А ) =
≤
=1
В
Р (В )
Р (В )
Действительно, так как А ⋅ В ⊆ В , то по следствию 2) лекции 1 имеем:
Р(В \ ( А ⋅ В )) = Р(В ) − Р( А ⋅ В ) ≥ 0 ,
то есть:
Р (В ) ≥ Р ( А ⋅ В ) .
3. Рассмотрим А1 ⋅ А2 = ∅, тогда:
А + А2 Р (( А1 + А2 ) ⋅ В ) Р (( А1 ⋅ В ) + ( А2 ⋅ В ))
Р 1
=
=
=
В
Р (В )
Р(В )
Р ( А1 ⋅ В ) + Р ( А2 ⋅ В )
,
=
Р (В )
так как
( А1 ⋅ В ) ⋅ ( А2 ⋅ В ) = ∅.
Поделив последнее соотношение почленно на Р(В ) , получим
Р
А1 + А2
= Р А1 + Р А2 .
В
В
В
То есть третья аксиома вероятности выполнена.
Теорема умножения вероятностей.
Из определения условной вероятности
Р( А ⋅ В )
, Р(В ) ≠ 0
Р (А ) =
В
Р (В )
получим:
Р ( А ⋅ В ) = Р (В )Р (А )
В
- это соотношение называется теоремой умножения.
Определение.События А и В называются независимыми, если
вероятность события А не зависит от осуществления события В, то
есть если
( В ) = Р( А)
РА
Для независимых событий теорема умножения приобретает
наиболее простую форму
Р( А ⋅ В ) = Р( А)Р(В ) .
Определение. Система событий А1 , А2 ,..., Аn называется
независимой в совокупности, если ∀Ae1 ,..., Aei ∈ {A1 , A2 ,..., An }
выполнено условие:
P
(A e 1
⋅ A
e 2
.....
⋅ A
i
ei
)= ∏
Ρ (Α
ek
).
k =1
Заметим, что из попарной независимости не следует независимость
в совокупности. Рассмотрим пример:
Пример 1. Пусть Ω = {ω1 , ω2 , ω3 , ω4 }.
Вероятность задана по классической схеме
1
P (ωi ) = .
4
Рассмотрим события:
A = (ω1 , ω2 ) , B = (ω1 , ω3 ) . C = (ω1 , ω4 ) .
Имеем:
P ( A ⋅ B ) = P (ω1 ) =
1
= P ( A)P (B ) .
4
Аналогично:
P( A ⋅ C ) = P( A)P(C ) , P(B ⋅ C ) = P(B )P(C ) ,
то есть А , В , С попарно независимы.
Найдем:
P ( A ⋅ B ⋅ C ) = P (ω1 ) =
1
1
≠ P ( A)P (B )P (C ) = ,
4
8
то есть система А , В , С не будет независимой в совокупности.
В общем случае для событий А1, А2 ,..., Аn теорема умножения
имеет вид:
Аn
А2 А3
Р ∏ Ai = Р ( А1 )Р
Р А ⋅ А ...Р
n −1
А
1
1
2
i =1
Ai
∏
i =1
n
Доказывается по индукции.
Если А1 ,..., Аn - независимы в совокупности, то теорема умножения
существенного упрощается:
n
n
Р ∏ Ai = ∏ Р ( Аi )
i −1 i =1
Заметим, что если
А =
n
∑
i =1
Ai ,
то есть событие А состоит в том, что происходит хотя бы одно из
Аi , то
А=
n
∏
i =1
Ai ,
то есть А состоит в том, что ни одно из Аi не происходит. Поэтому
при вычислении вероятности суммы большого числа совместных
независимых в совокупности слагаемых удобно воспользоваться
равенством
Р ( А ) = 1 − Р (А )
то есть
n
n
n
P ∑ Ai = 1 − P ∏ Ai = 1 − ∏ P ( Ai )
i =1
i =1
i =1
Пример 2. Пусть имеется схема (рис. 4),
где параллельно соединены n элементов: А1 , А2 ,..., Аn ,
работающих независимо друг от друга в совокупности. Требуется
найти надежность схемы, то есть вероятность ее исправной работы.
Пусть - А -событие: ток идет по схеме, Аi : ток идет по i -му
элементу, тогда:
( ),
n
n
n
n
A = ∑ Ai , A = ∏ Ai , P ( A) = 1 − P ∏ Ai = 1 − ∏ P A i
i =1
i =1
i =1
i =1
так как по условию А1 ,..., Аn независимы в совокупности, а
следовательно
и А1 ,..., Аn - также независимы (доказать
самостоятельно).
Вообще переход к противоположному событию следует
использовать там, где требуется найти вероятность суммы
большого числа совместных событий. В примере 2 при заданной
вероятности P( Ai ) = pi , получим:
n
P( A) = 1 − ∏ (1 − pi ) .
i =1
Пример 3. Четыре стрелка стреляют по мишени, события Ai попал i - ый стрелок - совместны, но независимы в совокупности,
P( Ai ) = pi . Найти вероятность того, что:
а) попал хотя бы один стрелок - событие A
б) попал ровно один стрелок - событие B .
Решение:
а)
4
A = ∑ Ai ,
i =1
б)
n
P( A) = 1 − P(A) = 1 − ∏ (1 − pi ).
i =1
B = A1 ⋅ A2 ⋅ A3 ⋅ A4 + A1 ⋅ A 2 ⋅ A3 ⋅ A4 + A1 ⋅ A2 ⋅ A 3 ⋅ A4 + A1 ⋅ A2 ⋅ A3 ⋅ A 4
(
) (
) (
) (
).
- все слагаемые несовместны, а события, содержащиеся в каждом,
независимы в совокупности, поэтому:
P(B ) = q1 p2 p3 p4 + p1q2 p3 p4 + p1 p2 q3 p4 + p1 p2 p3q4 ,
где qi = 1 − pi .
В случае совместных событий следует использовать теорему
умножения в общем виде.
Пример 4. В каждой из трех урн содержится по 4 белых и 6
черных шаров. Из 1-ой урны вынимаем 1 шар и перекладываем во 2
-ую, затем из 2 -ой вынимаем один шар и перекладываем в
3 -ю. После этого из 3 -ей вынимаем 1 шар. Найти вероятность
того, что всякий раз был вынут белый шар ( событие А).
Обозначим:
A1 - из первой урны вынут белый шар
A2 - из второй урны вынут белый шар
A3 - из третьей урны вынут белый шар.
Тогда
А = А1 ⋅ А2 ⋅ А3 .
Так как A1 , A2 , A3 - зависимы
A
A
= 4 ⋅ 5 ⋅ 5 = 10 .
P( A) = P( A1 )P 2 P 3
A1 A1 ⋅ A2 10 11 11 121
Формула полной вероятности.
n
Пусть имеется набор несовместных событий Н1...Н n , ∑ H i
= Ω,
i =1
тогда любое событие A ∈
можно записать в виде:
n
A = ∑(A⋅ Hi ) .
i =1
Так как при i ≠ j
( А ⋅ Н i ) ⋅ (A ⋅ H j ) = ∅,
то:
n
P ( A) = ∑ P ( A ⋅ H i )
i =1
и используя теорему умножения, получим:
n
Р( А) = ∑ P(H i )P A ;
Hi
i =1
полученная формула называется формулой полной вероятности и
широко используется при решении задач. События H1 , H 2 ,…, H n
называются при этом гипотезами, а сама схема решений - схемой
гипотез.
Пример 5. Рассмотрим три урны с составом шаров из примера
4 лекции 3. Найдем вероятность того, что из третьей урны вынут
белый шар, независимо от того, какие шары были переложены во
вторую и третью урны.
Решение: Рассмотрим гипотезы Н1 , Н 2 , Н 3 , Н 4 :
Н1 - из первой урны вынут белый, и из второй - белый шар.
Н 2 - из первой урны вынут черный, а из второй - белый шар.
Н 3 - из первой урны вынут белый, а из второй - черный.
Н 4 - из первой урны вынут черный, и из второй - черный.
А - из третьей урны вынут белый шар.
Имеем:
5
4 5
Р(Н1 ) = ⋅ , Р А =
10 11 Н1 11
6 4
Р(Н 2 ) = ⋅ , Р А Н = 5
10 11 2 11
4 6
Р(Н 3 ) = ⋅ , Р А Н = 4
10 11 3 11
6 7
= 4 .
Р(Н 4 ) = ⋅ , Р А
10 11 Н 4 11
При этом:
4
∑ H i = Ω ; H i ⋅ H j = ∅, i ≠ j
i =1
Проверка:
4
1
∑ P(H i ) = 10 ⋅11 ⋅ (4 ⋅ 5 + 4 ⋅ 6 + 6 ⋅ 4 + 6 ⋅ 7 ) =
i =1
1
10 ⋅ 11
⋅ (4 ⋅ 11 + 6 ⋅ 11) =
= 1.
10 ⋅11
10 ⋅ 11
Находим вероятность события А по формуле полной вероятности
=
4
P( A) = ∑ P(H i )P A =
Hi
i =1
=
1
⋅ (4 ⋅ 5 ⋅ 5 + 6 ⋅ 4 ⋅ 5 + 6 ⋅ 4 ⋅ 4 + 6 ⋅ 4 ⋅ 7 ) =
10 ⋅11 ⋅11
1
⋅ (4 ⋅ 5 ⋅11 + 6 ⋅ 4 ⋅11) =
10 ⋅11 ⋅11
1
4 ⋅ 11 ⋅ 11
= 0,4 .
=
⋅ 11 ⋅ (4 ⋅11) =
10 ⋅11 ⋅11
10 ⋅ 11 ⋅ 11
=
Пример 6. Студент из 25 билетов выучил всего пять билетов.
Когда вероятнее вытащить «хороший» билет: когда он берет билет
первым, или когда он берет билет вторым.
Решение:
Пусть А1 - студент вытащил «хороший» билет, когда выбирал
первым,
5 1
Р( А1 ) =
= .
25 5
А2 - студент вытащил «хороший» билет, когда выбирал вторым.
А2 может происходить при следующих событиях Н1 и Н 2 :
Н1 - первый студент взял «хороший» билет,
Н 2 - первый студент взял «плохой» билет.
Имеем:
4
5
А
Р(Н1 ) = , Р 2 =
25 Н1 24
20
А
= 5
Р(Н 2 ) = , Р 2
⇒
25 Н 2 24
По формуле полной вероятности
5 4 20 5 1
Р( А2 ) =
⋅
+
⋅
=
25 24
25 24
5
Таким образом
Р( А2 ) = Р( А1 ) ,
то есть вероятность сдачи экзамена зависит только от количества
выученных билетов.
Формула Байеса.
Заметим, что с помощью формулы полной вероятности можно
вычислить условную вероятность того, что имела место гипотеза
Н k , при условии, что A произошло.
Имеем по теореме умножения:
= P ( A )P H k
P (H k ⋅ A ) = P (H k )P A
H
A ,
k
следовательно:
P(H k )P A
H k
Hk
=
- формула Байеса.
P
A
P ( A)
Пример 7. Известно, что в условиях примера 2 экзамен
студент сдал, при этом брал билет вторым. Найти вероятность того,
что тот, кто брал билет первым, вытащил «плохой» билет.
Решение:
A
P(H 2 )P 2
H
H2
2 5
P
=
=
A2
P( A2 )
6
Задача о повторении независимых испытаний
(задача Бернулли). Теорема Пуассона
Пусть опыт S происходит n раз, пусть Ak - успех в k - ом опыте
Опыты независимы, то есть А1,А2,….,Аn - независимы в
совокупности. Пусть р - вероятность успеха в каждом опыте,
q = 1 − p - соответственно вероятность неудачи.
Найти вероятность того, что в n независимых опытах будет ровно
k успехов (задача Бернулли).
Обозначим Ank - k успехов в n опытах, Ank можно записать в
виде:
(
A nk = A 1 ⋅ A 2 ⋅ A 3 ... A k A k + 1 ⋅ ... ⋅ A n
(
)
... ⋅ A ) .
)
+ A1 ⋅ A 3 ⋅ A 4 ... ⋅ A k + 1 ⋅ A 2 ⋅ A k + 2 ... ⋅ A n + ...
(
... + A 1 ⋅ A 2 ⋅ ... A n − k ⋅ A n − k + 1
n
Так как слагаемые несовместны, а каждое слагаемое представляет
собой произведение независимых событий, то по теоремам
сложения и умножения получаем:
P( Ank ) = p k ⋅ q n − k + p k ⋅ q n − k + ... p k ⋅ q n − k ,
причем число слагаемых будет равно числу способов, которыми
можно выбрать k элементов из n или n − k элементов из n , то есть
оно равно числу сочетаний Cnk . Обозначим Pn (k ) - вероятность
того, что при n испытаниях будет ровно k успехов. Окончательно
получим:
Pn (k ) = P( Ank ) = Cnk p k ⋅ q n − k .
Пример 8. Игральная кость бросается три раза. Найти
вероятность того, что «6» выпадает хотя бы один раз.
Искомая вероятность равна:
5
P3 (k ≥ 1) = 1 − P3 (k < 1) = 1 − P3 (0) = 1 − q 3 , где q = ;
6
Если n >> 1 (много больше 1), то вычисления по формуле:
Pn (k ) = Cnk p k q n − k
будут очень громоздкими. Но при значении р около 0 можно
найти приблизительное значение Pn (k ) с помощью теоремы
Пуассона.
Теорема Пуассона
Если последовательность рn такова,что
pn ⋅ n = λ ≠ 0 ,
предел: lim
n→ ∞
существует конечный
то:
k
n
k
n
lim C p q
n→ ∞
n−k
n
= e
−λ
λk
k!
лn
. Получим:
n
n−k
лkn лn
n!
=
⋅ k 1 − .
(n − k )!k! n n
Доказательство: обозначим npn = лn , pn =
Cnk pnk qnn − k
Преобразуем:
лkn n(n − 1)...(n − k + 1) лn лn
= ⋅
⋅ 1 − ⋅ 1 −
k
k!
n
n
n
n
−k
лkn n n − 1
n − k + 1 лn лn
= ⋅ ⋅
⋅ ... ⋅
1 − 1 − ,
k! n n
n
n
n
при n → ∞ , λn → λ , получим:
Cnk pnk qnn − k
n
−k
=
k
n
k
n
lim C p q
n→ ∞
n−k
n
=
λk
k!
e −λ
,
так как все сомножители в предыдущей формуле стремятся к
единице, кроме двух:
λ kn
λ
λ n
− λ
lim
=
lim
1
−
=
e
.
n→ ∞ k !
k! , n→ ∞
n
Отсюда следует, что:
e − np
Pn (k ) ≈
⋅ (np )k
k!
при n >> 1, p ≈ 0 (близком к 0). Причем, чем более точно
выполняются эти условия, тем лучше приближение.
Пример 9. Проведено 1000 независимых испытаний с
вероятностью успеха p = 0,01. Найти P1000 (3) .
Решение. Используя теорему Пуассона, получим:
3
−10 10
np = 10 , P1000 (3) ≈ e ⋅
≅ 0,0075 .
3!
Точное значение
3
P1000 (3) = C1000
⋅ (0,01)3 ⋅ (0,99)0,97 ≅ 0,0074
(с точностью до четвертого знака).
Ошибка: ∆ = 0,0001 .
Пример 10. Проведено 10 испытаний с вероятностью успеха
1
p = . Найти P10 (3) . Имеем:
5
7
3 1 4
P10 (3) = C10 ⋅ 3 ⋅ ≅ 0,2013
5 5
(с точностью до 4-ого знака). По теореме Пуассона получим:
1
23 − 2
np = 10 ⋅ = 2 , P10 (3) ≈ e ≅ 0,1804 .
5
3!
Ошибка: ∆ = 0,0211 .
Пример 11. Проведено 3 независимых испытания с вероятностью
1
успеха в каждом p = . Найти P3 (2 ) .
2
1 1 3! 2 3
P3 (2 ) = C32 ⋅ 2 ⋅ = ⋅ 3 = .
8
2 2 2! 2
По теореме Пуассона:
2
3
3
−
2
2
P3 (2 ) ≈ e 2 ⋅ ≈ .
2!
8
Ошибка:
∆=
1
= 0,125 .
8
Примеры 9-11 показывают, что погрешность вычислений
незначительна при больших n и малых p , но сильно возрастает,
если эти условия не выполнены.