Справочник от Автор24
Поделись лекцией за скидку на Автор24

Случайные величины и распределение Пуассона

  • 👀 374 просмотра
  • 📌 322 загрузки
Выбери формат для чтения
Статья: Случайные величины и распределение Пуассона
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Случайные величины и распределение Пуассона» pdf
ЛЕКЦИЯ 2 (продолжение). Случайные величины. Выше рассматривались случайные события, являющиеся качественной характеристикой случайного результата опыта. Для получения количественной характеристики вводится понятие случайной величины. Определение. Случайной величиной называется величина, которая в результате опыта может принимать то или иное значение, причем заранее известно какое именно. Случайные величины можно разделить на две категории. Определение. Дискретной случайной величиной называется такая величина, которая в результате опыта может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Это множество может быть как конечным, так и бесконечным. Например, количество выстрелов до первого попадания в цель является дискретной случайной величиной, т.к. эта величина может принимать и бесконечное, хотя и счетное количество значений. Определение. Непрерывной случайной величиной называется такая величина, которая может принимать любые значения из некоторого конечного или бесконечного промежутка. Очевидно, что число возможных значений непрерывной случайной величины бесконечно. Для задания случайной величины недостаточно просто указать ее значение, необходимо также указать вероятность этого значения. Закон распределения дискретной случайной величины. Определение. Соотношение между возможными значениями случайной величины и их вероятностями называется законом распределения дискретной случайной величины. Закон распределения может быть задан аналитически, в виде таблицы или графически. Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения. Графическое представление этой таблицы называется многоугольником распределения. При этом сумма все ординат многоугольника распределения представляет собой вероятность всех возможных значений случайной величины, а, следовательно, равна единице. Пример. По цели производится 5 выстрелов. Вероятность попадания для каждого выстрела равна 0,4. Найти вероятности числа попаданий и построить многоугольник распределения. Вероятности пяти попаданий из пяти возможных, четырех из пяти и трех из пяти были найдены выше по формуле Бернулли и равны соответственно: P5,5 0,01024 , P4,5 0,0768 , P3,5 0,2304 Аналогично найдем: P2,5 P1,5 P0,5 5! 0,4 2 0,6 3 2! 3! 5! 0,41 0,6 4 1! 4! 5! 0,4 0 0,6 5 0! 5! 0,3456 0,2592 0,6 5 0,0778 Пример. Вероятность хотя бы одного попадания в мишень стрелком при трех выстрелах равна 0,875. Найти вероятность попадания в мишень при одном выстреле. Если обозначить р – вероятность попадания стрелком в мишень при одном выстреле, то вероятность промаха при одном выстреле, очевидно, равна (1 – р). Вероятность трех промахов из трех выстрелов равна (1 – р)3. Эта вероятность равна 1 – 0,875 = 0,125, т.е. в цель не попадают ни одного раза. 1 p 0,5; p 0,5. Получаем: (1 p) 3 0,125 ; Пример. В первой коробке содержится 10 шаров, из них 8 белых; во второй коробке 20 шаров, из них 4 белых. Из каждой коробки наугад извлекли по одному шару, а затем из этих двух шаров наугад берут один шар. Найти вероятность того, что этот шар белый. Вероятность того, что взятый из первой коробки шар белый - P1 ( Б ) 0,8, что не белый - Р1 ( НБ ) 0,2 . Вероятность того, что взятый из второй коробки шар белый - Р2 ( Б ) 0,2, что не белый - Р2 ( НБ ) 0,8. Вероятность того, что повторно выбран шар, извлеченный из первой коробки и вероятность того, что повторно выбран шар, извлеченный из второй коробки, равны 0,5. Вероятность того, что повторно выбран шар, извлеченный из первой коробки, и он белый - p1 0,5 Р1 ( Б ) 0,5 0,8 0,4. Вероятность того, что повторно выбран шар, извлеченный из второй коробки, и он белый - p2 0,5 Р2 ( Б ) 0,5 0,2 0,1. Вероятность того, что повторно будет выбран белый шар, равна P p1 p2 0,4 0,1 0,5. Пример. Имеется пять винтовок, три из которых снабжены оптическим прицелом. Вероятность того, что стрелок поразит цель при выстреле из винтовки с оптическим прицелом, равна 0,95, для винтовки без оптического прицела эта вероятность равна 0,7. Найти вероятность того, что цель будет поражена, если стрелок произведет один выстрел из наугад выбранной винтовки. 2 Вероятность того, что выбрана винтовка с оптическим прицелом, обозначим 3 , а вероятность того, что выбрана винтовка без оптического прицела, обозначим 5 2 . PБО 5 Вероятность того, что выбрали винтовку с оптическим прицелом, и при этом цель была поражена P1 P0 P( ПЦ / О) , где Р(ПЦ/O) – вероятность поражения цели из винтовки с оптическим прицелом. Аналогично, вероятность того, что выбрали винтовку без оптического прицела, и при этом цель была поражена P1 PБО P( ПЦ / БО) , где Р(ПЦ/БO) – вероятность поражения цели из винтовки без оптического прицела. Окончательная вероятность поражения цели равна сумме вероятностей Р1 и Р2, т.к. для поражения цели достаточно, чтобы произошло одно из этих несовместных событий. P0 P P1 P2 0,95 0,6 0,7 0,4 0,57 0,28 0,85 Пример. Трое охотников одновременно выстрелили по медведю, который был убит одной пулей. Определить вероятность того, что медведь был убит первым стрелком, если вероятности попадания для этих стрелков равны соответственно 0,3, 0,4, 0,5. В этой задаче требуется определить вероятность гипотезы уже после того, как событие уже совершилось. Для определения искомой вероятности надо воспользоваться формулой Бейеса. В нашем случае она имеет вид: P ( H 1 / A) P( H 1 ) P( A / H 1 ) P( H 1 ) P( A / H 1 ) P( H 2 ) P( A / H 2 ) P( H 3 ) P( A / H 3 ) В этой формуле Н1, Н2, Н3 – гипотезы, что медведя убьет первый, второй и третий стрелок соответственно. До произведения выстрелов эти гипотезы 1 равновероятны и их вероятность равна . 3 P(H1/A) – вероятность того, что медведя убил первый стрелок при условии, что выстрелы уже произведены (событие А). Вероятности того, что медведя убьет первый, второй или третий стрелок, вычисленные до выстрелов, равны соответственно: P( A / H 1 ) p1 q 2 q3 0,3 0,6 0,5 0,09 P( A / H 2 ) q1 p 2 q3 0,7 0,4 0,5 0,14 P( A / H 3 ) q1 q 2 p3 0,7 0,6 0,5 0,21 Здесь q1 = 0,7; q2 = 0,6; q3 = 0,5 – вероятности промаха для каждого из стрелков, рассчитаны как q = 1 – p, где р – вероятности попадания для каждого из стрелков. Подставим эти значения в формулу Бейеса: 0,09 0,44 P( H 1 / A) 3 9 . 44 Пример. Последовательно послано четыре радиосигнала. Вероятности приема каждого из них не зависят от того, приняты ли остальные сигналы, или нет. Вероятности приема сигналов равны соответственно 0,2, 0,3, 0,4, 0,5. Определить вероятность приема трех радиосигналов. Событие приема трех сигналов из четырех возможно в четырех случаях: PA p1 p 2 p3 q 4 0,2 0,3 0,4 0,5 0,012 PB p1 p 2 q3 p 4 0,2 0,3 0,6 0,5 0,018 PC p1 q 2 p3 p 4 0,2 0,7 0,4 0,5 0,028 PD q1 p 2 p3 p 4 0,8 0,3 0,4 0,5 0,048 Для приема трех сигналов необходимо совершение одного из событий А, В, С или D. Таким образом, находим искомую вероятность: P 0,012 0,018 0,028 0,048 0,106. Пример. Двадцать экзаменационных билетов содержат по два вопроса, которые не повторяются. Экзаменующийся знает ответы только на 35 вопросов. Определить вероятность того, что экзамен будет сдан, если для этого достаточно ответить на два вопроса одного билета или на один вопрос одного билета и на указанный дополнительный вопрос из другого билета. В общей сложности имеется 40 вопросов (по 2 в каждом из 20 билетов). Вероятность того, что выпадает вопрос, на который ответ известен, очевидно, равна 35 . 40 Для того, чтобы сдать экзамен, требуется совершение одного из трех событий: 35 1) Событие A – ответили на первый вопрос (вероятность ) и ответили на 40 34 второй вопрос (вероятность ). Т.к. после успешного ответа на первый вопрос 39 остается еще 39 вопросов, на 34 из которых ответы известны. P(A) 35 34 40 39 0,7628 2) Событие В – на первый вопрос ответили (вероятность (вероятность 5 34 ), на третий – ответили (вероятность ). 39 38 P(B) 35 5 34 40 39 38 4 0,1004 35 ), на второй – нет 40 3) Событие С – на первый вопрос не ответили (вероятность ответили (вероятность 5 ), на второй – 40 35 34 ), на третий – ответили (вероятность ). 39 38 P(C ) 5 35 34 40 39 38 0,1004 Вероятность того, что при заданных условиях экзамен будет сдан равна: P P( A) P( B ) P(C ) 0,9636 Пример. Имеются две партии однородных деталей. Первая партия состоит из 12 деталей, 3 из которых - бракованные. Вторая партия состоит из 15 деталей, 4 из которых – бракованные. Из первой и второй партий извлекают по две детали. Какова вероятность того, что среди них нет бракованных деталей. Вероятность оказаться не бракованной для первой детали, извлеченной из 9 первой партии, равна p1 , для второй детали, извлеченной из первой партии при 12 8 условии, что первая деталь была не бракованной - p 2 . 11 Вероятность оказаться не бракованной для первой детали, извлеченной из 11 второй партии, равна p3 , для второй детали, извлеченной из второй партии при 15 10 условии, что первая деталь была не бракованной - p 4 . 14 Вероятность того, что среди четырех извлеченных деталей нет бракованных, равна: P . 9 8 11 10 12 11 15 14 0,2857 Рассмотрим тот же пример, но несколько с другим условием. Пример. Имеются две партии однородных деталей. Первая партия состоит из 12 деталей, 3 из которых - бракованные. Вторая партия состоит из 15 деталей, 4 из которых – бракованные. Из первой партии извлекаются наугад 5 деталей, а из второй – 7 деталей. Эти детали образуют новую партию. Какова вероятность достать из них бракованную деталь? Для того, чтобы выбранная наугад деталь была бы бракованной, необходимо выполнение одного из двух несовместных условий: 5 1) Выбранная деталь была из первой партии (вероятность ) и при этом она – 12 3 бракованная (вероятность ). Окончательно: 12 5 p1 5 3 12 12 0,1041; 2) Выбранная деталь была из второй партии (вероятность бракованная (вероятность - 7 ) и при этом она – 12 4 ). Окончательно: 15 p2 Окончательно, получаем: p 7 4 0,1556; 12 15 p1 p 2 0,2597 . Пример. В урне 3 белых и 5 черных шаров. Из урны вынимают наугад два шара. Найти вероятность того, что эти шары не одного цвета. Событие, состоящее в том, что выбранные шары разного цвета произойдет в одном из двух случаев: 3 5 1) Первый шар белый (вероятность - ), а второй – черный (вероятность - ). 8 7 5 3 2) Первый шар черный (вероятность - ), а второй – белый (вероятность - ). 8 7 Окончательно получаем: p 3 5 8 7 5 3 8 7 15 . 28 Биноминальное распределение. Если производится п независимых испытаний, в каждом из которых событие А может появиться с одинаковой вероятностью р в каждом из испытаний, то вероятность того, что событие не появится, равна q = 1 – p. Примем число появлений события в каждом из испытаний за некоторую случайную величину Х. Чтобы найти закон распределения этой случайной величины, необходимо определить значения этой величины и их вероятности. Значения найти достаточно просто. Очевидно, что в результате п испытаний событие может не появиться вовсе, появиться один раз, два раза, три и т.д. до п раз. Вероятность каждого значения этой случайной величины можно найти по формуле Бернулли. Pn (k ) C nk p k q n k , k 0,1,2,... Эта формула аналитически выражает искомый закон распределения. Этот закон распределения называется биноминальным. 6 Пример. В партии 10% нестандартных деталей. Наугад отобраны 4 детали. Написать биноминальный закон распределения дискретной случайной величины Х – числа нестандартных деталей среди четырех отобранных и построить многоугольник полученного распределения. Вероятность появления нестандартной детали в каждом случае равна 0,1. Найдем вероятности того, что среди отобранных деталей: 1) Вообще нет нестандартных. P4 (0) 4! 0,10 0,9 4 0! 4! 0,6561 P4 (1) 4! 1 0,1 0,9 3 1! 3! 0,2916 P4 (2) 4! 0,12 0,9 2 2! 2! 0,0486 4! 0,13 0,91 3! 1! 0,0036 2) Одна нестандартная. 3) Две нестандартные детали. 4) Три нестандартные детали. P4 (3) 5) Четыре нестандартных детали. 4! 0,14 0,9 0 4! 0! Построим многоугольник распределения. P4 (4) 0,0001 0,7 0,6 0,5 0,4 0,3 0,2 0,1 1 2 3 4 Пример. Две игральные кости одновременно бросают 2 раза. Написать биноминальный закон распределения дискретной случайной величины Х – числа выпадений четного числа очков на двух игральных костях. 7 Каждая игральная кость имеет три варианта четных очков – 2, 4 и 6 из шести возможных, таким образом, вероятность выпадения четного числа очков на одной кости равна 0,5. Вероятность одновременного выпадения четных очков на двух костях равна 0,25. Вероятность того, что при двух испытаниях оба раза выпали четные очки на обеих костях, равна: 2! P2 (2) 0,25 2 0,750 0,0625 0! 2! Вероятность того, что при двух испытаниях один раз выпали четные очки на обеих костях: 2! P2 (1) 0,251 0,751 0,375 1! 1! Вероятность того, что при двух испытаниях ни одного раза не выпаде четного числа очков на обеих костях: 2! P2 (0) 0,250 0,75 2 0,5625 0! 2! 8 ЛЕКЦИЯ 3. Распределение Пуассона. (Симеон Дени Пуассон (1781 – 1840) – французский математик) Пусть производится п независимых испытаний, в которых появление события А имеет вероятность р. Если число испытаний п достаточно велико, а вероятность появления события А в каждом испытании мало (p 0,1), то для нахождения вероятности появления события А k раз находится следующим образом. Сделаем важное допущение – произведение пр сохраняет постоянное значение: np Практически это допущение означает, что среднее число появления события в различных сериях испытаний (при разном п) остается неизменным. По формуле Бернулли получаем: n(n 1)(n 2)...(n (k 1)) k Pn (k ) p (1 p) n k! k n(n 1)(n 2)...(n (k 1)) Pn (k ) 1 k! n n Найдем предел этой вероятности при п Pn (k ) k n k . n(n 1)(n 2)...(n (k 1)) k lim 1 n k! n nk 1 2 k 1 lim 1 1 ... 1 1 n k! n n n n k n k k lim 1 k! n n n k n k lim 1 n n k k! e Получаем формулу распределения Пуассона: k Pn (k ) e k! Если известны числа и k, то значения вероятности можно найти по соответствующим таблицам распределения Пуассона. Числовые характеристики дискретных случайных величин. Закон распределения полностью характеризует случайную величину. Однако, когда невозможно найти закон распределения, или этого не требуется, можно ограничиться нахождением значений, называемых числовыми характеристиками случайной величины. Эти величины определяют некоторое среднее значение, вокруг 9 которого группируются значения случайной величины, и степень их разбросанности вокруг этого среднего значения. Определение. Математическим ожиданием дискретной случайной величины называется сумма произведений всех возможных значений случайной величины на их вероятности. mx M (X ) x1 p1 x2 p2 ... xn pn n xi p i i 1 Математическое ожидание существует, если ряд, стоящий в правой части равенства, сходится абсолютно. С точки зрения вероятности можно сказать, что математическое ожидание приближенно равно среднему арифметическому наблюдаемых значений случайной величины. Свойства математического ожидания. 1) Математическое ожидание постоянной величины равно самой постоянной. М (С ) С 2) Постоянный множитель можно выносить за знак математического ожидания. M (Cx) CM ( x) 3) Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий. M ( XY ) M ( X ) M (Y ) Это свойство справедливо для произвольного числа случайных величин. 4) Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых. M ( X Y ) M ( X ) M (Y ) Это свойство также справедливо для произвольного числа случайных величин. Пусть производится п независимых испытаний, вероятность появления события А в которых равна р. Теорема. Математическое ожидание М(Х) числа появления события А в п независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании. M (X ) np Однако, математическое ожидание не может полностью характеризовать случайный процесс. Кроме математического ожидания надо ввести величину, которая характеризует отклонение значений случайной величины от математического ожидания. 10 Это отклонение равно разности между случайной величиной и ее математическим ожиданием. При этом математическое ожидание отклонения равно нулю. Это объясняется тем, что одни возможные отклонения положительны, другие отрицательны, и в результате их взаимного погашения получается ноль. Определение. Дисперсией (рассеиванием) дискретной случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания. D( X ) M X M (X ) 2 Пример. Для рассмотренного выше примера закон распределения случайной величины имеет вид: X 1 2 p 0,0625 0,375 0,5625 Найти математическое ожидание и дисперсию случайной величины. Математическое ожидание случайной величины равно: M (X ) 0 0,0625 1 0,375 2 0,5625 1,5 Возможные значения квадрата отклонения: 2 x1 M ( X ) (0 1,5) 2 x2 x3 M (X ) 2 M(X ) 2 (1 1,5) 2,25 2 0,25 2 0,25 (2 1,5) Тогда [X-M(X)]2 p 2,25 0,0625 0,25 0,375 0,25 0,5625 Дисперсия равна: D(X ) 2,25 0,0625 0,25 0,375 0,25 0,5625 0,375 Однако, на практике подобный способ вычисления дисперсии неудобен, т.к. приводит при большом количестве значений случайной величины к громоздким вычислениям. Поэтому применяется другой способ. Вычисление дисперсии. Теорема. Дисперсия равна разности между математическим ожиданием квадрата случайной величины Х и квадратом ее математического ожидания. 2 D( X ) M ( X 2 ) M ( X ) Доказательство. С учетом того, что математическое ожидание М(Х) и квадрат математического ожидания М2(Х) – величины постоянные, можно записать: D( X ) M X M (X ) 2 M X2 11 2 XM ( X ) M 2 (X ) M ( X 2 ) 2M ( X ) M ( X ) M 2 ( X ) M (X 2 ) D( X ) M ( X 2 ) M 2 ( X ). M (X ) 2 Применим эту формулу для рассмотренного выше примера: X X2 p M (X 2 ) 0,0625 0 0,0625 D( X ) 1 1 0,375 1 0,375 2,625 1,5 4 0,5625 2 2 4 0,5625 2,625 0,375 Свойства дисперсии. 1) Дисперсия постоянной величины равна нулю. D(C ) 0 2) Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат. D(CX ) C 2 D( X ) 3) Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин. D( X Y ) D( X ) D(Y ) 4) Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин. D( X Y ) D( X ) D(Y ) Справедливость этого равенства вытекает из свойства 2. Теорема. Дисперсия числа появления события А в п независимых испытаний, в каждом из которых вероятность р появления события постоянна, равна произведению числа испытаний на вероятности появления и непоявления события в каждом испытании. D( X ) npq Среднее квадратическое отклонение. Определение. Средним квадратическим отклонением случайной величины Х называется квадратный корень из дисперсии. 12 (X ) D( X ) Теорема. Среднее квадратичное отклонение суммы конечного числа взаимно независимых случайных величин равно квадратному корню из суммы квадратов средних квадратических отклонений этих величин. ( X1 X2 2 ... X n ) ( X1 ) 2 ( X 2 ) ... 2 (X n ) Пример. Завод выпускает 96% изделий первого сорта и 4% изделий второго сорта. Наугад выбирают 1000 изделий. Пусть Х – число изделий первого сорта в данной выборке. Найти закон распределения, математическое ожидание и дисперсию случайной величины Х. Выбор каждого из 1000 изделий можно считать независимым испытанием, в котором вероятность появления изделия первого сорта одинакова и равна р = 0,96. Таким образом, закон распределения может считаться биноминальным. mx Dx pn 1000 0,96 960 ; npq 1000 0,96 0,04 38,4; Пример. Найти дисперсию дискретной случайной величины Х – числа появлений события А в двух независимых испытаниях, если вероятности появления этого события в каждом испытании равны и известно, что М(Х) = 0,9. Т.к. случайная величина Х распределена по биноминальному закону, то M ( X ) np 2 p 0,9; p 0,45; D( X ) npq 2 p(1 p) 2 0,45 0,55 0,495. Пример. Производятся независимые испытания с одинаковой вероятностью появления события А в каждом испытании. Найти вероятность появления события А, если дисперсия числа появлений события в трех независимых испытаниях равна 0,63. По формуле дисперсии биноминального закона получаем: D( X ) npq 3p2 3 p(1 p) 3 p 0,63 0,63; p 2 p 0,21 0; p1 0,7; p 2 0,3; Пример. Испытывается устройство, состоящее из четырех независимо работающих приборов. Вероятности отказа каждого из приборов равны соответственно р1=0,3; p2=0,4; p3=0,5; p4=0,6. Найти математическое ожидание и дисперсию числа отказавших приборов. 13 Принимая за случайную величину число отказавших приборов, видим что эта случайная величина может принимать значения 0, 1, 2, 3 или 4. Для составления закона распределения этой случайной величины необходимо определить соответствующие вероятности. Примем qi 1 pi . 1) Не отказал ни один прибор. p(0) q1 q 2 q3 q 4 0,7 0,4 0,5 0,4 2) Отказал один из приборов. p(1) p1 q 2 q3 q 4 q1 p 2 q3 q 4 q1 q 2 p3 q 4 0,084 . q1 q 2 q3 p 4 0,302. 3) Отказали два прибора. p(2) p1 p 2 q3 q 4 p1 q 2 p3 q 4 p1 q 2 q3 p 4 q1 p 2 p3 q 4 q1 p 2 q3 p 4 q1 q 2 p3 p 4 4) Отказали три прибора. p(3) p1 p 2 p3 q 4 p1 p 2 q3 p 4 p1 q 2 p3 p 4 q1 p 2 p3 p 4 0,198 . 5) Отказали все приборы. p(4) p1 p 2 p3 p 4 0,38 . 0,036 . Получаем закон распределения: x x2 p 0,084 1 1 0,302 2 4 0,38 3 9 0,198 4 16 0,036 Математическое ожидание: M (X ) 0,302 2 0,38 3 0,198 4 0,036 1,8. M (X 2 ) 0,302 4 0,38 9 0,198 16 0,036 4,18 . Дисперсия: D( X ) M (X 2 ) M (X ) 2 4,18 3,24 0,94 . Функция распределения. Во всех рассмотренных выше случаях случайная величина определялась путем задания значений самой величины и вероятностей этих значений. Однако, такой метод применим далеко не всегда. Например, в случае непрерывной случайной величины, ее значения могут заполнять некоторый произвольный интервал. Очевидно, что в этом случае задать все значения случайной величины просто нереально. Даже в случае, когда это сделать можно, зачастую задача решается чрезвычайно сложно. Рассмотренный только что пример даже при относительно простом условии (приборов только четыре) приводит к достаточно неудобным вычислениям, а если в задаче будет несколько сотен приборов? Поэтому встает задача по возможности отказаться от индивидуального подхода к каждой задаче и найти по возможности наиболее общий способ задания любых типов случайных величин. 14 Пусть х – действительное число. Вероятность события, состоящего в том, что Х примет значение, меньшее х, т.е. Х < x, обозначим через F(x). Определение. Функцией распределения называют функцию F(x), определяющую вероятность того, что случайная величина Х в результате испытания примет значение, меньшее х. F ( x ) P( X x ) Функцию распределения также называют интегральной функцией. Функция распределения существует как для непрерывных, так и для дискретных случайных величин. Она полностью характеризует случайную величину и является одной из форм закона распределения. Для дискретной случайной величины функция распределения имеет вид: F ( x) P ( X xi ) xi x Знак неравенства под знаком суммы показывает, что суммирование распространяется на те возможные значения случайной величины, которые меньше аргумента х. Функция распределения дискретной случайной величины Х разрывна и возрастает скачками при переходе через каждое значение хi. Так для примера, рассмотренного выше примера, функция распределения будет иметь вид: 1 0,8 0,6 0,4 0,2 0,084 Функция распре де ле ния 1 2 3 4 0,386 0,766 0,964 1 Свойства функции распределения.. 1) значения функции распределения принадлежат отрезку [0, 1]. 0 F ( x) 1 2) F(x) – неубывающая функция. F ( x2 ) F ( x1 ) при x 2 x1 3) Вероятность того, что случайная величина примет значение, заключенное в интервале (a, b) , равна приращению функции распределения на этом интервале. P(a X b) F (b) F (a) 15 4) На минус бесконечности функция распределения равна нулю, на плюс бесконечности функция распределения равна единице. 5) Вероятность того, что непрерывная случайная величина Х примет одно определенное значение, равна нулю. Таким образом, не имеет смысла говорить о каком – либо конкретном значении случайной величины. Интерес представляет только вероятность попадания случайной величины в какой – либо интервал, что соответствует большинству практических задач. Плотность распределения. Функция распределения полностью характеризует случайную величину, однако, имеет один недостаток. По функции распределения трудно судить о характере распределения случайной величины в небольшой окрестности той или иной точки числовой оси. Определение. Плотностью распределения вероятностей непрерывной случайной величины Х называется функция f(x) – первая производная от функции распределения F(x). f ( x) F ( x). Плотность распределения также называют дифференциальной функцией. Для описания дискретной случайной величины плотность распределения неприемлема. Смысл плотности распределения состоит в том, что она показывает как часто появляется случайная величина Х в некоторой окрестности точки х при повторении опытов. После введения функций распределения и плотности распределения можно дать следующее определение непрерывной случайной величины. Определение. Случайная величина Х называется непрерывной, если ее функция распределения F(x) непрерывна на всей оси ОХ, а плотность распределения f(x) существует везде, за исключением( может быть, конечного числа точек. Зная плотность распределения, можно вычислить вероятность того, что некоторая случайная величина Х примет значение, принадлежащее заданному интервалу. Теорема. Вероятность того, что непрерывная случайная величина Х примет значение, принадлежащее интервалу (a, b), равна определенному интегралу от плотности распределения, взятому в пределах от a до b. b P(a X b) f ( x)dx a Доказательство этой теоремы основано на определении плотности распределения и третьем свойстве функции распределения, записанном выше. Геометрически это означает, что вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (a, b), равна площади 16 криволинейной трапеции, ограниченной осью ОХ, кривой распределения f(x) и прямыми x=a и x=b. Функция распределения может быть легко найдена, если известна плотность распределения, по формуле: x F ( x) f ( x)dx Свойства плотности распределения. 1) Плотность распределения – неотрицательная функция. f (x) 0 2) Несобственный интеграл от плотности распределения в пределах от равен единице. до f ( x)dx 1. Пример. Случайная величина подчинена закону распределения с плотностью: a sin x, при 0 x f ( x) 0, при x 0 или x Требуется найти коэффициент а, построить график функции плотности распределения, определить вероятность того, что случайная величина попадет в интервал от 0 до 4 . Построим график плотности распределения: 0. 5 1 1. 5 2 2. 5 3 0. 1 0. 2 0. 3 0. 4 0. 5 Для нахождения коэффициента а воспользуемся свойством f ( x)dx 1 . f ( x)dx 0dx a sin xdx 0dx a sin xdx 17 a cos x 2a 1; 1 . 2 Находим вероятность попадания случайной величины в заданный интервал. a Пример. Задана распределения f(x). непрерывная случайная A cos 2 x, при при x 4 f ( x) 0, величина х своей функцией 4 x 4 Требуется определить коэффициент А, найти функцию распределения, построить графики функции распределения и плотности распределения, определить вероятность того, что случайная величина х попадет в интервал 6 ;2 . Найдем коэффициент А. /4 f ( x)dx /4 0dx A cos 2 xdx A sin 2 x 2 0dx /4 /4 /4 A 1. /4 Найдем функцию распределения: x 1) На участке x 4 x : F ( x) f ( x)dx 0dx /4 2) На участке x 4 4 : F ( x) 4 : x 0dx cos 2 xdx /4 /4 3) На участке x F ( x) /4 0dx cos 2 xdx 4 Итого: f ( x) 0, при x 4; F ( x) 4 0dx /4 0, x sin 2 x 2 x /4 cos 2 x, при 0. /4 sin 2 x 2 при x при x /4 4 4 1 0. 8 0. 6 0. 4 0. 2 - 0. 5 - 0. 25 0. 25 18 0. 5 1. /4 Построим график плотности распределения: f(x) - 0. 75 1 . 2 4 sin 2 x 1 , при 2 1, sin 2 x 2 x 0. 75 x 4 ; ЛЕКЦИЯ 4. Построим график функции распределения: F(x) 1 0. 8 0. 6 0. 4 0. 2 - 0. 75 - 0. 5 - 0. 25 0. 25 0. 5 0. 75 Найдем вероятность попадания случайной величины в интервал 2 P x 6 2 /4 f ( x)dx /6 2 cos 2 xdx /6 0dx /4 sin 2 x 2 /4 /6 1 2 6 3 4 ;2 . 0,067; Ту же самую вероятность можно искать и другим способом: P 6 x 2 F (2) F ( / 6) 1 sin( / 3) 1 2 1 2 3 4 0,067. Числовые характеристики непрерывных случайных величин. Пусть непрерывная случайная величина Х задана функцией распределения f(x). Допустим, что все возможные значения случайной величины принадлежат отрезку [a,b]. Определение. Математическим ожиданием непрерывной случайной величины Х, возможные значения которой принадлежат отрезку [a,b], называется определенный интеграл b M (X ) xf ( x)dx a Если возможные значения случайной величины рассматриваются на всей числовой оси, то математическое ожидание находится по формуле: M (X ) xf ( x)dx При этом, конечно, предполагается, что несобственный интеграл сходится. 19 Определение. Дисперсией непрерывной случайной величины называется математическое ожидание квадрата ее отклонения. D( X ) [ x M ( X )]2 f ( x)dx По аналогии с дисперсией дискретной случайной величины, для практического вычисления дисперсии используется формула: D( X ) x 2 f ( x)dx [ M ( X )]2 Определение. Средним квадратичным отклонением называется квадратный корень из дисперсии. (X ) D( X ) Определение. Модой М0 дискретной случайной величины называется ее наиболее вероятное значение. Для непрерывной случайной величины мода – такое значение случайной величины, при которой плотность распределения имеет максимум. f ( M 0 ) max . Если многоугольник распределения для дискретной случайной величины или кривая распределения для непрерывной случайной величины имеет два или несколько максимумов, то такое распределение называется двухмодальным или многомодальным. Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальным. Определение. Медианой MD случайной величины Х называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины. P( X M D ) P( X M D ) Геометрически медиана – абсцисса точки, в которой площадь, ограниченная кривой распределения делится пополам. Отметим, что если распределение одномодальное, то мода и медиана совпадают с математическим ожиданием. Определение. Начальным моментом порядка k случайной величины Х называется математическое ожидание величины Хk. k M [ X k ]. Для дискретной случайной величины: n k i 1 20 xik p i . Для непрерывной случайной величины: x k f ( x)dx . k Начальный момент первого порядка равен математическому ожиданию. Определение. Центральным моментом порядка k случайной величины Х называется математическое ожидание величины ( X m x ) k . mx ) k ] M [( X k n Для дискретной случайной величины: k ( xi m x ) k pi . i 1 Для непрерывной случайной величины: k ( x mx ) k f ( x)dx . Центральный момент первого порядка всегда равен нулю, а центральный момент второго порядка равен дисперсии. Центральный момент третьего порядка характеризует асимметрию распределения. Определение. Отношение центрального момента третьего порядка к среднему квадратическому отклонению в третьей степени называется коэффициентом асимметрии. 3 3 x ax Определение. Для характеристики островершинности и плосковершинности распределения используется величина, называемая эксцессом. 4 4 x Cx 3 Кроме рассмотренных величин используются абсолютные моменты: k Абсолютный начальный момент: k M [ X ] . также так называемые k Абсолютный центральный момент: k M [ X mx ] . Абсолютный центральный момент первого порядка арифметическим отклонением. называется средним Пример. Для рассмотренного выше примера определить математическое ожидание и дисперсию случайной величины Х. u x; dv cos 2 xdx; /4 /4 /4 M (X ) xf ( x)dx 0dx x cos 2 xdx 0dx x cos 2 xdx sin 2 x du dx; v ; /4 /4 /4 2 x sin 2 x 2 /4 /4 /4 sin 2 x dx 2 /4 cos 2 x 4 /4 0. /4 21 /4 M (X 2 ) x 2 f ( x)dx /4 /4 x 2 cos 2 xdx 0dx /4 u du 2 x ; dv cos 2 xdx; sin 2 x 2 xdx; v ; 2 x cos 2 x 2 D( X ) /4 /4 M (X 2 ) /4 cos 2 x dx 2 /4 M (X ) 2 /4 x 2 sin 2 x 2 2 16 0,1163 x 2 cos 2 xdx 0dx u /4 /4 x sin 2 xdx /4 sin 2 x 4 /4 du /4 2 /4 /4 1 2 16 x; sin 2 xdx dx; v dv; cos 2 x ; 2 2 16 0,1163. 0,1163 . Пример. В урне 6 белых и 4 черных шара. Из нее пять раз подряд извлекают шар, причем каждый раз вынутый шар возвращают обратно и шары перемешивают. Приняв за случайную величину Х число извлеченных белых шаров, составить закон распределения этой величины, определить ее математическое ожидание и дисперсию. Т.к. шары в каждом опыте возвращаются обратно и перемешиваются, то испытания можно считать независимыми (результат предыдущего опыта не влияет на вероятность появления или непоявления события в другом опыте). Таким образом, вероятность появления белого шара в каждом опыте постоянна 6 и равна PБ 0,6. 10 Таким образом, в результате пяти последовательных испытаний белый шар может не появиться вовсе, появиться один раз, два, три, четыре или пять раз. Для составления закона распределения надо найти вероятности каждого из этих событий. 1) Белый шар не появился вовсе: РБ (0) (1 РБ ) 5 2) Белый шар появился один раз: РБ (1) С51 РБ1 (1 РБ ) 4 0,0102 . 5! 0,6 0,4 4 1! 4! 3) Белый шар появиться два раза: PБ (2) 5! 0,62 0,43 2! 3! 0,2304 . 4) Белый шар появиться три раза: РБ (3) 5! 0,6 3 0,4 2 3! 2! 0,3456. 5) Белый шар появиться четыре раза: РБ (4) 6) Белый шар появился пять раз: РБ (5) 0,6 5 5! 0,6 4 0,41 4! 1! 0,2592. 0,0778 . Получаем следующий закон распределения случайной величины Х. 22 0,0768 х х2 р(х) M (X ) M (X 2 ) D( X ) 0,0102 1 1 0,0768 2 4 0,2304 3 9 0,3456 4 16 0,2592 5 25 0,0778 0,0768 2 0,2304 3 0,3456 4 0,2592 5 0,0778 3,0002. 0,0768 4 0,2304 M ( X 2 ) [ M ( X )] 2 9 0,3456 16 0,2592 10 ,201 9,0012 25 0,0778 10 ,201 . 1,1998 . При решении практических задач зачастую точно найти закон распределения случайной величины довольно сложно. Однако, все происходящие процессы, связанные со случайными величинами, можно разделить на несколько типов, каждому из которых можно поставить в соответствие какой – либо закон распределения. Выше были рассмотрены некоторые типы распределений дискретной случайной величины такие как биноминальное распределение и распределение Пуассона. Рассмотрим теперь некоторые типы законов распределения для непрерывной случайной величины. Равномерное распределение. Определение. Непрерывная случайная величина имеет равномерное распределение на отрезке [a, b], если на этом отрезке плотность распределения случайной величины постоянна, а вне его равна нулю. f ( x) 0, x a C, a x 0, x b b Постоянная величина С может быть определена из условия равенства единице площади, ограниченной кривой распределения. f(x) C 1 b a Получаем C 1 b a a b . 23 x Найдем функцию распределения F(x) на отрезке [a,b]. x x F ( x) f ( x)dx a 1 b a dx x x b a a 0, при x a x a , при a x b a 1, при x b F ( x) x a . b a b F(x) 1 a b x Для того, чтобы случайная величина подчинялась закону равномерного распределения необходимо, чтобы ее значения лежали внутри некоторого определенного интервала, и внутри этого интервала значения этой случайной величины были бы равновероятны. Определим математическое ожидание и дисперсию случайной величины, подчиненной равномерному закону распределения. b mx b xf ( x)dx a b b x 2 f ( x)dx mx2 a Dx mx2 a a m x2 b2 x2 x b a x3 3(b a) dx b a ab a 2 3 x x2 2(b a) dx a2 a b a 2 3 a b3 a3 3(b a) b 2ab b 2 4 Dx a b . 2 b b2 b2 2ab a 2 12 ab a 2 . 3 (b a) 2 . 12 . Вероятность попадания случайной величины в заданный интервал: P( X dx b a ) 24 b a . Показательное распределение. Определение. Показательным (экспоненциальным) распределение вероятностей непрерывной случайной величины описывается плотностью 0, при x 0 f ( x) e x , при x 0 где - положительное число. называется Х, которое Найдем закон распределения. x F ( x) f ( x)dx x 0dx x e dx 1 e x . 0, F ( x) при x x 1 e при x Графики функции распределения и плотности распределения: f(x) F(x) 1 x Найдем математическое показательному распределению. ожидание u mx xf ( x)dx x x e e x dx e x 1 dx du x; e dx; x случайной x dx e dv; величины, xe x v; x e . Результат получен с использованием того факта, что По правилу x xe x lim x 0 x Лопиталя e lim x Для нахождения дисперсии найдем величину М(Х2). 25 1 e x подчиненной 0. x dx M (X 2 ) x 2 f ( x)dx x 2e x dx Дважды интегрируя по частям, аналогично рассмотренному случаю, получим: 2 M (X 2 ) ; 2 Тогда D( X ) Итого: M ( X ) M (X 2 ) 1 M (X ) ; D( X ) 1 2 2 1 2 ; . 1 x . Видно, что в случае показательного распределения математическое ожидание и среднее квадратическое отклонение равны. Также легко определить и вероятность попадания случайной величины, подчиненной показательному закону распределения, в заданный интервал. P(a x b) F (b) F (a) e a e b . Показательное распределение широко используется в теории надежности. Допустим, некоторое устройство начинает работать в момент времени t0=0, а через какое– то время t происходит отказ устройства. Обозначим Т непрерывную случайную величину – длительность безотказной работы устройства. Таким образом, функция распределения F(t) = P(Tt) = 1 – F(t). Определение. Функцией надежности R(t) называют функцию, определяющую вероятность безотказной работы устройства в течение времени t. Часто на практике длительность безотказной работы подчиняется показательному закону распределению. Вообще говоря, если рассматривать новое устройство, то вероятность отказа в начале его функционирования будет больше, затем количество отказов снизится и будет некоторое время иметь практически одно и то же значение. Затем (когда устройство выработает свой ресурс) количество отказов будет возрастать. Другими словами, можно сказать, что функционирование устройства на протяжении всего существования (в смысле количества отказов) можно описать комбинацией двух показательных законов (в начале и конце функционирования) и равномерного закона распределения. Функция надежности для какого- либо устройства при показательном законе распределения равна: R(t ) 1 F (t ) e t . Данное соотношение называют показательным законом надежности. 26 Важным свойством, позволяющим значительно упростить решение задач теории надежности, является то, что вероятность безотказной работы устройства на интервале времени t не зависит от времени предшествующей работы до начала рассматриваемого интервала, а зависит только от длительности времени t. Таким образом, безотказная работа устройства зависит только от интенсивности отказов и не зависит от безотказной работы устройства в прошлом. Так как подобным свойством обладает только показательный закон распределения, то этот факт позволяет определить, является ли закон распределения случайной величины показательным или нет. Нормальный закон распределения. Определение. Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности ( x mx ) 2 1 f ( x) e 2 x 2 2 x ; Нормальный закон распределения также называется законом Гаусса. Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения. Можно легко показать, что параметры m x и x , входящие в плотность распределения являются соответственно математическим ожиданием и средним квадратическим отклонением случайной величины Х. Найдем функцию распределения F(x). F ( x) x ( x mx ) 2 x 1 2 e 2 2 x dx График плотности нормального распределения называется нормальной кривой или кривой Гаусса. Нормальная кривая обладает следующими свойствами: 1) Функция определена на всей числовой оси. 2) При всех х функция распределения принимает только положительные значения. 3) Ось ОХ является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х, значение функции стремится к нулю. 4) Найдем экстремум функции. 27 y x m ( x m)2 e 2 0; x m; 2 Т.к. при y’ > 0 при x < m и y’ < 0 при x > m , то в точке х = т функция имеет 1 максимум, равный . 2 3 2 5) Функция является симметричной относительно прямой х = а, т.к. разность (х – а) входит в функцию плотности распределения в квадрате. 6) Для нахождения точек перегиба графика найдем вторую производную функции плотности. ( x m)2 1 y ( x m) 2 2 e 1 2 2 При x = m + и x = m - вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб. 1 В этих точках значение функции равно . e 2 2 3 Построим график функции плотности распределения. 0. 4 0. 3 0. 2 0. 1 -6 -4 -2 2 4 6 Построены графики при т =0 и трех возможных значениях среднего квадратичного отклонения = 1, = 2 и = 7. Как видно, при увеличении значения среднего квадратичного отклонения график становится более пологим, а максимальное значение уменьшается.. Если а > 0, то график сместится в положительном направлении, если а < 0 – в отрицательном. При а = 0 и нормированной кривой: = 1 кривая называется нормированной. Уравнение ( x) 1 2 28 e x2 2 . ЛЕКЦИЯ 5 (начало). Функция Лапласа. Найдем вероятность попадания случайной величины, распределенной по нормальному закону, в заданный интервал. b P(a X b) f ( x)dx Обозначим x m 2 Тогда P(a Т.к. интеграл e t; X t2 b) a m ; 2 1 2 e b m 2dt 2 2 dx a ; 2 t2 e 2 a ( x m)2 b 1 1 2 e t dt 1 2 ( ) ( ) dt не выражается через элементарные функции, то вводится в рассмотрение функция 2 ( x) x 2 e t dt , которая называется функцией Лапласа или интегралом вероятностей. Значения этой функции при различных значениях х посчитаны и приводятся в специальных таблицах. Ниже показан график функции Лапласа. 1 0. 75 0. 5 0. 25 -3 -2 -1 1 2 3 - 0. 25 - 0. 5 - 0. 75 -1 Функция Лапласа обладает следующими свойствами: 1) Ф(0) = 0; 2) Ф(-х) = - Ф(х); 3) Ф( ) = 1. Функцию Лапласа также называют функцией ошибок и обозначают erf x. 29 Еще используется нормированная функция Лапласа, которая связана с функцией Лапласа соотношением: x 2 1 x 1 ( x) e t / 2 dt; 2 2 2 0 Ниже показан график нормированной функции Лапласа. 1 0. 75 0. 5 0. 25 -3 -2 -1 1 2 3 - 0. 25 - 0. 5 - 0. 75 -1 При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм. Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины : m m m m P( X m ) 2 Если принять Лапласа: = 3 , то получаем с использованием таблиц значений функции P( X m 3 ) 2 (3) 2 0,49865 0,9973 Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю. Это правило называется правилом трех сигм. Не практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение. Пример. Поезд состоит из 100 вагонов. Масса каждого вагона – случайная величина, распределенная по нормальному закону с математическим ожидание а = 65 т и средним квадратичным отклонением = 0,9 т. Локомотив может везти состав массой не более 6600 т, в противном случае необходимо прицеплять второй локомотив. Найти вероятность того, что второй локомотив не потребуется. Второй локомотив не потребуется, если отклонение массы состава от ожидаемого (100 65 = 6500) не превосходит 6600 – 6500 = 100 т. Т.к. масса каждого вагона имеет нормальное распределение, то и масса всего состава тоже будет распределена нормально. Получаем: 30 P( X M (X ) 100 100 100 2 2 1,111 2 0,3665 0,733 Пример. Нормально распределенная случайная величина Х задана своими параметрами – а =2 – математическое ожидание и = 1 – среднее квадратическое отклонение. Требуется написать плотность вероятности и построить ее график, найти вероятность того, Х примет значение из интервала (1; 3), найти вероятность того, что Х отклонится (по модулю) от математического ожидания не более чем на 2. Плотность распределения имеет вид: 1 f ( x) e 2 ( x 2)2 2 ; Построим график: 0. 4 0. 3 0. 2 0. 1 1 2 3 4 Найдем вероятность попадания случайной величины в интервал (1; 3). P(1 X 3) 1 1 2 2 e t dt 3 2 1 2 2 1 2 2 (0,7071) (0,7071) 0,6778. Найдем вероятность отклонение случайной величины от математического ожидания на величину, не большую чем 2. P( X 2 2 2) 2 2 ( 2) 0,95. Тот же результат может быть получен с использованием нормированной функции Лапласа. P( X 2 2) 2 2 2 2 0,4772 0,95 . Центральная предельная теорема Ляпунова. Теорема. Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному. На практике для большинства случайных величин выполняются условия теоремы Ляпунова. 31 Система случайных величин. Рассмотренные выше случайные величины были одномерными, т.е. определялись одним числом, однако, существуют также случайные величины, которые определяются двумя, тремя и т.д. числами. Такие случайные величины называются двумерными, трехмерными и т.д. В зависимости от типа, входящих в систему случайных величин, системы могут быть дискретными, непрерывными или смешанными, если в систему входят различные типы случайных величин. Более подробно рассмотрим системы двух случайных величин. Определение. Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях. Определение. Функцией распределения системы двух случайных величин называется функция двух аргументов F(x, y), равная вероятности совместного выполнения двух неравенств X
«Случайные величины и распределение Пуассона» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти
Найди решение своей задачи среди 1 000 000 ответов
Крупнейшая русскоязычная библиотека студенческих решенных задач

Тебе могут подойти лекции

Автор(ы) Гурьянова И.Э.
Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot