Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Теория вероятностей
§ 1. Предмет теории вероятностей
Теория вероятностей – математическая наука, изучающая закономерности в случайных явлениях.
Определение 1. Случайное явление – это такое явление, которое при неоднократном
воспроизведении одного и того же опыта протекает каждый раз несколько по-иному.
Примеры случайных явлений.
1) Вес тела, узнаваемый с помощью весов (одно и то же тело взвешивают на одних и тех же весах
несколько раз). Результаты различны вследствие влияния второстепенных факторов:
положение тела на чаше весов, вибрации аппаратуры, ошибки отсчета показаний прибора…
2) Попадание в цель бомбы, сброшенной с самолета (сброс несколько раз с одного положения в
одну и ту же цель). Результаты различны вследствие влияния второстепенных факторов: сила
ветра, человеческий фактор…
Из примеров видно, что случайные явления неопределенны и многопричинны. Основные условия
опыта – неизменны, а второстепенные изменяются от опыта к опыту и вносят случайные различия в
результаты.
В классической схеме исследования (математике, физике, механике, технике) этими случайными
элементами пренебрегают, рассматривая вместо реального события его упрощенную «модель». Но
существуют задачи, в которых второстепенные факторы играют заметную роль (например, точечное
попадание в цель). Для решения таких задач существуют вероятностные или статистические методы
исследования, базой которых служит устойчивость массовых случайных явлений. Действительно, если
наблюдать в совокупности массы однородных случайных явлений (чем больше – тем лучше), то
обнаруживается закономерность, устойчивость, свойственная именно массовым случайным явлениям.
Эти методы являются дополнением к классическим.
Определение 2. Любой наблюдаемый результат опыта, то есть всякий факт, который в результате
опыта может произойти или не произойти, называется случайным событием или случайным исходом.
Обозначение: А = {…}.
Примеры случайных событий. 1) Опыт состоит в бросании монеты. Событие А ={появление
орла}. 2) Событие В = {обрыв нити в течение часа работы швейной машины}. 3) Событие С =
{попадание в цель при выстреле}.
Определение 3. Предметом теории вероятностей являются модели неоднократно повторяемых
при неизменном комплексе условий экспериментов со случайными исходами.
§ 2. Случайные события или исходы. Множество элементарных событий.
Основные понятия
Случайное событие может быть разложено на более простые, например, выпадение орла при
бросании монеты, попадание в определенную точку при стрельбе, выпадение определенной грани при
бросании кубика.
Определение 4. Неразложимые события или взаимно исключающие друг друга исходы
называются элементарными событиями или элементарными исходами и обозначаются ω.
События отождествляются с множествами.
Определение 5. Совокупность всех элементарных событий называется пространством
элементарных событий или множеством элементарных событий и обозначается Ω.
Ω = { ω1, ω2,…, ωn }.
У опыта может быть n исходов: ω1, или ω2 и т.д., или ωn. Результатом опыта является один и
только один исход.
Событие А – множество всех элементарных событий из множества Ω, в результате которых и
может наступить событие А. Например, А = {ω1, ω4}. Событие А наступает тогда и только тогда, когда
наступает один из исходов.
Любое подмножество множества Ω - событие, даже и ненаблюдаемое.
Множество Ω может быть 1) дискретным (конечное или счетное множество), 2) непрерывным
(множества типа континуума: любой конечный или бесконечный интервал на числовой прямой), 3)
иметь более сложную структуру.
1
Примеры на построение множества Ω.
Задание. Построить множество элементарных событий Ω опыта и заданное множество А.
Пример 1. Опыт состоит в однократном подбрасывании монеты. Событие А = {выпадение орла}.
Решение. Элементарные исходы: ω1 ={выпадение орла}, ω2 ={выпадение решки}. Множество
элементарных событий опыта Ω = {ω1, ω2}. Событие А = {ω1}.
Пример 2. Опыт состоит в троекратном подбрасывании монеты. Событие А = {не более одного
раза выпала решка}.
Решение. Обозначим О – выпадение орла, Р – выпадение решки. Элементарные исходы опыта:
ω1 ={ООО}, ω2 ={ООР}, ω3 ={ОРО}, ω4 ={РОО}, ω5 ={РОР}, ω6 ={ОРР}, ω7 ={РРО}, ω8 ={РРР}.
Множество элементарных событий опыта Ω = {ω1, ω2, ω3, ω4, ω5, ω6, ω7, ω8}. Событие А = {ω1, ω2, ω3,
ω4}.
Пример 3. Опыт состоит в стрельбе по плоской мишени. Событие А = {попадание в определенную
точку}.
Решение. Введем в плоскости мишени прямоугольную декартовую систему координат. Каждому
исходу – попаданию в определенную точку - поставим в соответствие координаты (х, у) точки. Тогда
множество элементарных событий опыта {( x, y) : x , y } , событие А = {(х1, у1)}.
Пример 4. Опыт состоит в оценивании студентов на экзамене. Событие А = {студент сдал
экзамен}.
Решение. Множество элементарных событий Ω = {2, 3, 4, 5}. Событие А = {3, 4, 5}.
Пример 5. Опыт состоит в работе телефонной станции. Событие А = {поступило 3 звонка}.
Решение. Множество все элементарных событий {n : n N}, A {3}.
Алгебраические операции над событиями
Так как события отождествляются с множествами, то над событиями можно совершать все
операции, выполняемые над множествами.
Множества
Множество
А
является
подмножеством множества В:
A B
Множества А и В эквивалентны:
A B
События
Событие А влечет за собой событие В, то есть В происходит всякий
раз, как происходит А.
Обозначение: A B
Событие А тождественно или равносильно событию В. Это возможно
тогда и только тогда, когда A B и B A (оба наступают или нет).
Обозначение:
А=В
Объединение множеств: A B
Сумма событий, то есть событие, состоящее в наступлении хотя бы
одного из них.
Обозначение: А + В
(знак«+» - логическое «или»)
Пересечение множеств: A B
Произведение событий, то есть событие, состоящее в совместном
наступлении обоих событий А и В.
Обозначение: A B
( знак « » - логическое «и»)
Разность событий, то есть событие, состоящее в том, что А
Разность множеств: A \ B
произошло, а В нет.
Обозначение: A B .
Дополнение множества А до Противоположное событие, то есть событие А не происходит.
множества Ω: A
Обозначение: A , где A A .
Примеры.
1. Диаграмма Венна.
Внутри квадрата, в котором две пересекающихся окружности разных радиусов, выбирается
наудачу точка.
2
Событие А = {точка лежит внутри левой окружности}, В = {точка лежит внутри правой
окружности}.
Изобразить с помощью диаграмм Венна основные алгебраические операции над событиями.
Решение.
А
А+В
В
B
A B
A
A B
2. Опыт состоит в двукратной стрельбе по мишени. События: А = {попадание при первом
выстреле}, В = {попадание при втором выстреле}. Записать в алгебре событий следующие события:
1) С = {попадание при обоих выстрелах}. Решение: С = A B ,
2) С1 = {попадание в цель вообще, безразлично при каком выстреле или обоих вместе}. Решение:
С1 = А + В.
3) D1 = {промах при первом выстреле}. Решение: D1 = A .
4) D2 = {промах при втором выстреле}. Решение: D2 = B .
5) Е = {в результате двух выстрелов будет ровно одно попадание}. Решение: Е = A B A B .
6) H = {все промахи}. Решение: Н = A B .
3. Опыт состоит в вынимании карт из колоды. События: А = {появление карты червонной масти},
В = {появление карты бубновой масти}. Записать в алгебре событий событие С ={появление карты
красной масти}.
Решение. С = А + В.
Свойства операций
1.
А + В = В + А, 2. A B B A - свойства коммутативности,
3. (А + В) + С = А + (В + С), 4. ( A B) C A ( B C ) - свойства ассоциативности,
5. ( A B) C A C B C - свойство дистрибутивности.
Определение 6 (первое определение поля). Совокупность всех наблюдаемых событий составляет
поле событий данного опыта.
Определение 7. Событие А, которое неизбежно происходит при каждой реализации комплекса
условий, называется достоверным. А = Ω (А совпадает с множеством всех элементарных событий).
Определение 8. Если событие А заведомо не может произойти при осуществлении комплекса
условий, то оно называется невозможным. A (А совпадает с пустым множеством).
Примеры: 1) {При бросании двух игральных костей сумма очков будет не меньше двух} достоверное событие, 2) {При бросании двух игральных костей сумма очков будет равна 13} невозможное событие.
Определение 9. Полной группой событий называется несколько событий в данном опыте, в
результате которого должно появиться хотя бы одно их них.
Примеры группы: 1) выпадение орла и выпадение решки при бросании монеты, 2) попадание и
промах при стрельбе.
Определение 10. События называются несовместными в данном опыте, если никакие два из них
не могут появиться вместе (одновременно) и совместными, если возможно их совместное
осуществление.
3
Замечание. Если два события совместны, то это не значит, что они происходят в одном и том же
месте и в одно и то же время, а означает, что при одних и тех же условиях задачи возможно
осуществление того и другого.
Примеры: 1) попадание и промах при стрельбе – несовместные события, 2) появление на данном
участке неба А – самолета, В – птицы – совместные события.
Определение 11. Противоположными называются два несовместных события, образующих
полную группу.
Примеры: 1) А = {попадание} и A = {промах}, 2) В ={орел} и B ={решка}.
Определение 12. Сложное событие, состоящее в том, что происходит событие А и событие В,
называется совмещением событий А и В. Обозначение: A B .
Пример: А = {появление «6» на первой кости}, В ={появление «6» на второй кости}, тогда
событие A B = {появление «6» на обеих костях}.
Замечание. Если A B , то А и В – несовместные события.
Определение 13. События называются равновозможными, если по условиям симметрии опыта (то
есть комплекс условий для опыта – неизменен) нет оснований считать какое-либо из них более
возможным, чем любое другое.
Пример: выпадение орла и решки при бросании монеты.
Определение 14. Если несколько событий образуют полную группу, несовместные и
равновозможные, то они называются случаями или шансами.
Определение 15. Случай называется благоприятным событию, если появление этого случая
влечет за собой появление события.
Определение 16 (второе определение поля событий). Пусть F – система событий,
удовлетворяющая допущениям: а) если F принадлежат события А и В, то ей принадлежат также и
A B , А + В, А - В, b) система F содержит достоверное и невозможное события, тогда такая система F
называется полем событий.
§ 3. История науки, ее приложение, различные подходы к определению
вероятности
Каждое из событий обладает какой-то степенью возможности: одни – большей, другие – меньшей,
третьи – невозможны вообще. Чтобы количественно сравнить событие по степени их возможности, с
каждым событием свяжем определенное число, которое тем больше, чем более возможно событие. Это
число и называется вероятностью.
Первые работы, в которых зарождались понятия теории вероятностей, были связаны с
исследованием правил азартных игр. Отцом современной теории вероятностей по праву считается
Джероламо Кардано. Закон, им сформулированный и примененный к различным азартным играм,
гласит: «Вероятность события — это число случаев благоприятного исхода данного события в
сравнении с общим количеством возможных случаев при условии, что вероятность наступления любого
из них абсолютно одинакова».
Вопрос о возможности измерения степени достоверности наступления какого-либо события
задавали себе еще в XVII веке французские ученые Б. Паскаль, П. Ферма, Х. Гюйгенс.
Наблюдая за игрой в кости, Паскаль высказал идею измерения степени уверенности в выигрыше
(шансы выигрыша) некоторым числом. В 1654 году шевалье де Мере, французский писатель и
математик, задал Паскалю два вопроса, касающихся азартных игр. На первый вопрос, сколько раз надо
бросить две игральные кости, чтобы вероятность выпадения двух шестерок была больше половины,
Мере ответил сам, и Паскаль, обсуждая его решение, признал его правильным. Вторая задача звучала
следующим образом. Два игрока играют в азартную игру до n выигрышей. Как следует разделить
между ними ставку, если игра прервана, когда первый игрок выиграл a партий, а второй – b партий (a, b
< n)? Для решения этой задачи Паскаль ввел основные понятия теории вероятностей. Хотя отправным
пунктом для его исследования явились задачи, связанные с азартными играми, он отчетливо сознавал
важность новых понятий и писал: «Это учение, объединяющее точность математических доказательств
4
с неопределенностью случая и примиряющее эти, казалось бы, противоречивые элементы, с полным
правом может претендовать на титул – математика случайного, или теория вероятностей».
Долю успеха того или иного события математики стали называть вероятностью этого события и
обозначать буквой Р (по первой букве латинского слова probabilltas — вероятность
Определение 17. Вероятность события – есть численная мера степени объективной возможности
этого события.
Обозначение - Р(А).
Первая книга, посвященная теории вероятностей, была написана в 1656 году Христианом
Гюйгенсом «Рассуждение о приложении теории вероятностей к азартным играм».
В XVIII веке Якоб Бернулли написал книгу « Искусство предположений», в которой изложил
закон больших чисел, утверждающий, что статистические характеристики, вычисленные на больших
совокупностях, являются устойчивыми.
Дальнейшее развитие теории вероятностей связано с именами Я. Бернулли, А. де Муавра, П.С.
Лапласа, К.Ф. Гаусса, С.Д. Пуассона, Т. Байеса, Ж. Бюффона.
В XIХ веке вопросами теории вероятностей стали заниматься выдающиеся русские ученые П.Л.
Чебышев, А.А. Марков, А.М. Ляпунов. Профессор Петербургского университета П.Л. Чебышев
совершил в теории вероятностей переворот, выдвинув требование абсолютной строгости
формулировок и доказательств теорем и получения точных оценок отклонений от предельных
закономерностей. Трудами русских ученых теория вероятностей стала достаточно строгой и
разработанной областью науки.
Но еще в начале ХХ века большинство ученых не признавало ее равной ветвью математики,
утверждая, что теория вероятностей – нечто среднее между математикой, физикой и шаманством.
Причиной этому было отсутствие аксиоматического обоснования. Аксиоматическая теория
вероятности была создана русским ученым А.Н. Колмогоровым в 1933 году.
Советская школа теории вероятностей занимает в мировой науке ведущее место. Среди многих
ученых, кроме А.Н. Колмогорова, необходимо отметить С.Н. Бернштейна, А.Я. Хинчина, В.И.
Романовского, Б.В. Гнеденко, В.С. Пугачева.
В настоящее время методы теории вероятностей широко применяются в различных отраслях
естествознания и техники: в теории надежности, теории массового обслуживания, в теоретической
физике, астрономии, геодезии, в общей теории связи. Автоматическое управление производственными
процессами , создание автоматических радиолокационных станций и автоматических машин, проблема
автоматического управления полетом самолетов и другие технические проблемы автоматики и
телемеханики вызвали бурное развитие теории автоматического регулирования, которая не могла
обойтись без использования вероятностных методов (особенно теории случайных функций).
Теория вероятностей служит также для обоснования математической и прикладной статистики,
которая, в свою очередь, используется при планировании и организации производства, при анализе
технологических процессов, при оценке качества продукции и для многих других целей.
Существует три различных подхода к определению вероятности, и, как следствие, три различных
определения: 1) аксиоматическое, 2) классическое, 3) статистическое.
П. 1. Аксиоматическое определение вероятности
Данное определение дано на основе аксиом вероятности. Аксиоматическая теория вероятности
создана русским ученым А.Н.Колмогоровым в 1933 году.
Пусть F – система событий для данного эксперимента. Каждому событию поставим в
соответствие некоторое неотрицательное число Р(А) – специальную числовую функцию для
количественного описания степени объективной возможности наступления того или иного
наблюдаемого в эксперименте события.
Определение 18. Вероятностью события А называется числовая функция Р(А), определенная для
всех A F и удовлетворяющая трем аксиомам вероятностей:
1 аксиома: P() 1 - вероятность достоверного события. (Принята в качестве единицы
измерения; если вероятность достоверного события равна 1, то другие события, возможные, будут
характеризоваться вероятностями меньшими 1, а вероятность невозможного события P() =0).
5
2 аксиома: P( A) 0 .
Следствие: 0 P( A) 1 .
3 аксиома: если события А1, А2,…, Аn попарно несовместны, то есть Ai Aj при i j , то
Р(А1 + А2 +…+ Аn) = Р(А1) + Р(А2) +…+ Р(Аn) или P Ak P( Ak ).
k 1 k 1
Следствия из аксиом.
1.
P( A ) 1 P( A) - вероятность противоположного события.
2.
Если А влечет за собой В, то есть A B , то P( A) P( B) .
3.
Если А1, А2,…, Аn - произвольные события, то P Ak P( Ak ).
k 1 k 1
А.Н. Колмогоров исходил из того, что события – это множества, и вероятность также является
функцией множества.
Аксиомы позволяют вычислить вероятность любых событий с помощью вероятностей
элементарных событий, которые определяются либо из соображений, связанных с симметрией опыта
или же на основе опытных данных (частоте появления события).
Система аксиом непротиворечива, так как существуют реальные объекты, которые всем аксиомам
удовлетворяют. Но система аксиом неполна: даже для одного и того же множества Ω вероятности в
множестве F можно выбирать различными способами.
П. 2. Классическое определение вероятности
Это определение сводит понятие вероятности к понятию равновероятности или
равновозможности событий.
Пусть исходы опыта равноправны по отношению к условиям опыта, то есть эти исходы или
события равновозможны или равновероятны, и соответствующее опыту множество Ω - множество
равновероятных исходов. Такой опыт называется классической схемой или схемой урн.
В этой схеме вероятность события А можно оценить по относительной доле благоприятных
случаев.
Пусть множество всех элементарных исходов опыта Ω = { ω1, ω2,…, ωn }.
Пусть А = { ω1, ω2,…, ωm } - событие или исход в эксперименте.
Обозначим n N () число всех исходов эксперимента (или число событий множества Ω);
m N (A) число всех благоприятствующих событию А исходов (или число элементов множества А)
Определение 19. Вероятность события А – доля тех исходов, в результате которых это событие
осуществляется:
N ( A) m
P( A)
формула классической вероятности.
N () n
Пример. В урне находится 2 белых и 3 синих шара. Из урны наугад вынимается 1 шар. Найти
вероятность того, что этот шар – белый.
Решение.
Пусть событие А = {появился белый шар}. Общее число исходов n = 2 + 3 = 5 (всего шаров);
m 2
число исходов, благоприятствующих событию А, m = 2 (всего 2 белых шара). Тогда P( A) .
n 5
Пп. 1. Комбинаторный метод вычисления вероятностей в классической схеме
При вычислении вероятностей по формуле P( A)
N ( A) m
часто используют основные правила
N () n
и аппарат комбинаторики.
Правила.
6
1. Правило суммы.
Если элемент А1 может быть выбран n1 способами, элемент А2 – n2 способами и т.д., Аk может быть
выбран nk способами, то выбор одного из элементов: или А1 или А2 или …, или Аk может быть
осуществлен n = n1 + n2 +…+ nk способами.
Пример. Сколько различных трехзначных цифр можно составить из цифр 0, 1, 2, 3, 4, 5, чтобы
каждое число содержало цифру 1 ровно 2 раза.
Решение.
Две единицы содержат трехзначные цифры вида: A1 11a, A2 1b1, A3 c11. Числа вида А1
могут быть составлены n1 = 5 способами, вида А2 могут быть составлены n2 = 5 способами, вида А3
могут быть составлены n3 = 4 способами.
По правилу суммы всего таких чисел можно составить n = n1 + n2 +n3 = 5 + 5 + 4 = 14.
2. Правило умножения.
Если элемент А1 может быть выбран n1 способами, после каждого такого выбора элемент А2 может
быть выбран n2 способами и т.д., после каждого (k-1) выбора элемент Аk может быть выбран nk
способами, то выбор всех элементов А1 и А2 и …, и Аk , то есть А1 ∙ А2 ∙ …∙ Аk в указанном порядке
может быть осуществлен n = n1 ∙ n2 ∙…∙ nk способами.
Пример. Сколько различных трехзначных чисел, делящихся на 5, можно составить из цифр 0, 1, 2,
3, 4, 5.
Решение.
Трехзначное число – это комбинация вида (a, b, c), где на месте а могут быть числа 1, 2, 3, 4, 5, то
есть n1 = 5; на месте b могут быть числа 0, 1, 2, 3, 4, 5, то есть n2 = 6; на месте с могут быть числа 0, 5,
то есть n3 = 2. По правилу умножения всего таких чисел можно составить n = n1 ∙ n2 ∙ n3 = 5 ∙ 6 ∙ 2 = 60.
Замечание. Подсчет числа элементов тех или иных подмножеств множества Ω можно
осуществить благодаря следующей формуле: число элементов прямого произведения множеств равно
произведению
числа
элементов
составляющих
множеств,
то
есть
N (1 2 ... n ) N (1 ) N (2 ) ... N (n ) .
Пример. Мальчик записал двузначное число. Какова вероятность, что оно четное?
Решение.
На первом месте мальчик может записать 9 цифр (0 быть не может), на втором месте – 10 цифр,
следовательно, общее число исходов n = N () 9 10 90 .
Найдем число исходов, благоприятствующих событию А = {мальчик записал четное число}. На
первом месте может быть записано 9 цифр, а вот на втором месте, чтобы число было четным, могут
быть поставлены цифры 0, 2, 4, 6, 8, то есть 5 цифр. Тогда число исходов, благоприятствующих
событию А, равно m N ( A) 9 5 45.
m 45 1
.
Тогда вероятность P( A)
n 90 2
Комбинаторика.
Определение 20. Комбинаторика – математический аппарат для вычисления числа различных
комбинаций элементов множества.
Теорема. Из m элементов а1, а2,…, аm и n элементов b1, b2,…, bn можно образовать ровно
(m n) различных пар (ai, bj), содержащих по одному элементу из каждой группы.
Теорема. Пусть даны k групп элементов: m элементов первой группы а1, а2,…, аm; n элементов
второй группы b1, b2,…, bn ;…..; s элементов k- ой группы с1, с2,…, сs. Тогда можно образовать ровно
(m n ... s) различных комбинаций (ai1 , bi2 ,... cik ) , содержащих по одному элементу из каждой
группы.
Пусть дано конечное множество A a1, a2 ,..., an , состоящее из n элементов. Его называют
генеральной совокупностью.
7
Определение 21. Произвольное упорядоченное множество ai1 , ai2 ,..., ai m , состоящее из m (m < n)
элементов, входящих в генеральную совокупность, называется набором или выборкой объема m из А.
Определение 22. Объем выборки – это количество элементов в выборке.
В некоторых наборах порядок элементов не важен, в некоторых – элементы могут повторяться
(выбор с возвращением), а могут быть все различными (выбор без возвращения).
Определение 23. Комбинаторная конфигурация – это расположение конечного множества
элементов, удовлетворяющих ряду специальных свойств.
К основным комбинаторным конфигурациям относятся сочетания, размещения и перестановки.
Определение 24. Неупорядоченные наборы элементов называются сочетаниями, упорядоченные
– размещениями, упорядоченные без повторений – перестановкой.
Определение 25. Комбинаторные формулы – формулы пересчета числа комбинаторных
конфигураций.
Рассмотрим подробно каждый выбор элементов из конечного множества A a1, a2 ,..., an ,
состоящего из n элементов.
Сочетания
Сочетания из n элементов множества по m элементов – неупорядоченные наборы различных m
элементов из n. Это подмножества множества А.
Пример.
А = {1, 2, 3}, тогда сочетания из 3 элементов по 2 – это наборы (1, 2), (1, 3), (2, 3). Всего 3 набора,
при этом надо помнить, что (1, 2) = (2, 1) и т.п., так как при образовании сочетаний порядок
элементов не учитывается.
Определение 26. Число сочетаний, которые можно образовывать, выбирая различными
способами m элементов из n, обозначают Cnm и называют биномиальными коэффициентами (они
совпадают с биномиальными коэффициентами формулы бинома Ньютона для степени n).
Теорема. Число различных выборок объема m из совокупности A a1, a2 ,..., an объема n, если
выбор производится без возвращения и без учета порядка выбираемых элементов, то есть число
n!
сочетаний, равно Cnm
.
m!(n m)!
Свойства сочетаний:
1) Cnm Cnn m , 2) Cn0 1 , 3) Cnn 1 , 4) Cn1 Cnn 1 n , 5) Cnm Cnm11 Cnm1 , 6) Cnm 0 , если m > n.
3!
3 . (3 набора)
В приведенном выше примере C32
2!1!
Размещения
Размещения из n элементов множества по m элементов – упорядоченные цепочки (ai1, ai 2 ,..., aim )
различных m элементов из n. Это подмножества множества А.
Пример.
А = {1, 2, 3}, тогда размещения из 3 элементов по 2 – это наборы (1, 2), (2, 1), (1, 3), (3, 1), (2, 3),
(3, 2). Всего 6 наборов.
Определение 27. Число размещений, образованных выбором различных упорядоченных цепочек
длины m из n элементов множества А, обозначают Anm .
Теорема. Число различных выборок объема m из совокупности A a1, a2 ,..., an объема n, если
выбор производится без возвращения, но с учетом порядка выбираемых элементов, то есть число
n!
размещений, равно Anm n (n 1) ... (n m 1)
.
(n m)!
8
Свойства размещений:
n!
n , 3) Ann 1 n! , 4) Ann n!
(n 1)!
Замечание. На одно место претендует один элемент.
3!
6
В приведенном выше примере A32
6 . (6 наборов).
(3 2)! 1
1) Anm Cnm m! , 2) An1
Перестановки
Определение 28. Размещения из n элементов множества А по n называют перестановками и
обозначают Ann Pn .
Различные перестановки содержат одни и те же элементы, расположенные в разном порядке.
Следствие из теоремы. Число различных перестановок, образованных выбором различных
упорядоченных цепочек длины n из n элементов множества А равно Pn Ann n! .
Замечание. На одно место претендует один элемент.
Перестановки с повторениями
Пусть дано конечное множество A a1, a2 ,..., an , состоящее из n элементов, и неотрицательные
целые числа m1, m2, …, mn : m1 + m2 +… +mn = m.
Определение 28/. Всевозможные конечные последовательности, состоящие из элементов
множества А, в которых а1 повторяется m1 раз, a2 повторяется m2 раза, …, an повторяется mn раз,
называются перестановками с повторениями из элементов множества А с кратностями m1, m2, …, mn и
m!
~
обозначаются P
m1!m2!...mn !
Размещения с повторениями
Теорема. Число различных выборок объема m из совокупности A a1, a2 ,..., an объема n, если
выбор производится с возвращением и с учетом порядка выбираемых элементов, равно nm.
Замечание. На одно место претендует несколько элементов.
Примеры.
Пример 1. В коробке находятся карточки с цифрами от 1 до 9. Вытаскивают подряд 3 карточки и
записывают цифры в ряд согласно поступлению. Чему равно количество всевозможных трехзначных
чисел?
Решение.
9!
9!
Это размещения из 9 по 3. Их количество равно: A93
7 8 9 504 .
(9 3)! 6!
Пример 2. Из группы в 25 человек выбирают 3-х человек для участия в конференции. Чему равно
количество всевозможных троек?
Решение.
25!
23 24 25
3
23 100 2300 .
Это сочетания из 25 по 3. Их количество равно: C25
3!(25 3)!
6
Пример 3. Имеется 6 билетов спортлото. Сколькими способами можно выбрать два билета?
Решение.
6! 5 6
15 .
Это сочетания из 6 по 2. Их количество равно: C62
2!4!
2
Пример 4. Имеется 6 билетов спортлото и 10 билетов автолотереи. Сколькими способами можно
выбрать один билет спортлото и один билет автолотереи?
Решение.
1
1
Это сочетания. «И» - умножение. C6 C10 6 10 60 или по теореме 3 сразу 6 10 60 .
9
Пример 5. Сколькими способами можно рассадить 1) 15 человек на 15 стульев, 2) 10 человек на
15 стульев?
Решение.
На одно место претендует один человек. 1) Это перестановки из 15 по 15. Их количество равно:
15
2)
Это
размещения
из
15
по
10.
Их
количество
равно:
P15 A15
15!
15!
15!
10
Или
по
свойству
A15
6 7 8 9 10 11 12 13 14 15 10897286400 .
(15 10)! 5!
15!10!
15!
10
C15
10!
10897286400
10!(15 10)! 5!
Пример 6. Сколькими способами можно разложить 15 шариков по 10 корзинам?
Решение.
Это размещения с повторениями, так как в одну корзину можно положить несколько мячей.
Количество способов равно: 1015.
Пример 7. Электрическая лампа с несколькими способами включения содержит три обычные
лампочки и светящую арматуру, которая может работать в трех положениях или может быть
выключена. Найти количество способов включения лампы.
Решение.
Каждая из этих возможностей комбинируется с 0, 1, 2, 3 включенными лампочками.
Следовательно, всего имеется 4 4 16 возможных комбинаций, из которых одна (0, 0) означает, что
лампа не светит. Остается 15 способов включения лампы.
Пример 8. Сколько можно составить различных слов из букв слова «пепел»?
Решение.
Это перестановки с повторениями. Всего букв в слове – пять. Букв «п» в слове две, «е» - две и «л»
5!
120
~
- одна. Тогда P
30 .
2!2!1!
4
Пример 9. Решить уравнение An4 Pn 4 42Pn 2
Решение.
n!
(n 4)! 42(n 2)!
(n 4)!
(n 1)n 42
n2 n 42 0 D 169 n1 6, n2 7 . Так как n 0 , то n 7 .
Итак, каждая из комбинаторных формул определяет общее число исходов в опыте: выборке
наудачу m элементов из n различных элементов исходного множества, при этом выбор может
осуществляться: 1) последовательно по одному либо сразу всех элементов с исключением отобранных
из исходного множества, 2) поэлементно с обязательным возвращением отобранного элемента на
каждом шаге и перемешиванием исходного множества перед следующим выбором. После любой из
двух выборок отобранные элементы либо упорядочиваются, либо нет.
Рассмотрим 4 различные схемы выбора.
1) Схема выбора, приводящая к сочетаниям
Пусть опыт состоит в выборке m неразличимых элементов из n наудачу без возвращения и без
упорядочивания. Полученные исходы – сочетания из n элементов по m. Их общее число находится по
n!
комбинаторной формуле: N () Cnm
.
m!(n m)!
10
Замечание.
Формула Стирлинга для вычисления факториала: n! 2n nn e n .
Пример 1. В урне 10 красных и 9 синих шаров. Из урны вынимаются наудачу 2 шара. Найти
вероятность, что оба шара будут синими.
Решение.
Событие А = {появление 2 синих шаров}. Всего шаров 10 + 9 = 19.
19!
19! 18 19
Общее число исходов n = N () C192
9 19 171 .
2!(19 2)! 2!17!
2
Синих шаров – 9. Тогда число исходов, благоприятствующих событию А, равно
9!
9! 8 9
m N ( A) C92
4 9 36 .
2!(9 2)! 2!7!
2
m 36
Вероятность события А: P( A)
.
n 171
Пример 2. В партии из 10 деталей – 3 бракованных. Определить вероятность того, что в
выбранных наудачу 4 изделиях 1) не будет ни одного бракованного, 2) будет ровно одно бракованное.
Решение.
Общее число исходов опыта, выборке наудачу 4 изделий из 10, равно n = N () C104 .
В партии 3 бракованных и 7 не бракованных деталей.
1) Событие А = {в выборке не будет ни одного бракованного изделия}, то есть все 4 детали
возьмут из 7. Число исходов, благоприятствующих событию А, равно m N ( A) C74 .
Тогда вероятность события А равна:
7!
4
m C
2 1
4! 3! 7! 4! 6! 4 5 6
P( A) 74
.
n C10 10! 4! 3!10! 8 9 10 12 6
4! 6!
2)
Событие В = {в выборке будет ровно одно бракованное изделие}. Ему благоприятствуют
только такие исходы, когда 1 элемент выборки принадлежит браку (3 детали), а (и) остальные 3 детали
– хорошим не бракованным деталям (их 7 штук). Тогда число исходов, благоприятствующих событию
В, равно m N ( A) C31 C73 3 C73. Общее число исходов осталось прежним: N () C104 .
Вероятность события В равна:
7!
3
3
m 3C
3! 4! 3 7! 4! 6! 1
P( B) 4 7
.
10!
n
C10
3! 4!10! 2
4! 6!
2) Схема выбора, приводящая к размещениям без возвращения
Пусть опыт состоит в выборке m различимых элементов из n наудачу без возвращения, но с
упорядочиванием их по мере выбора в последовательную цепочку. Иначе, размещаем m элементов из n
на m мест. На одно место – один элемент. Различными исходами опыта будут комбинации элементов,
отличающиеся либо набором элементов, либо порядком их следования.
Полученные исходы – размещения из n элементов по m. Их общее число находится по
n!
комбинаторной формуле: N () Anm n (n 1) ... (n m 1)
.
(n m)!
Если число размещений совпадает с числом перестановок, то есть m = n, то полученные исходы
опыта - размещения из n элементов множества А по n называют перестановками и их общее число
находится по комбинаторной формуле N () Ann Pn n!
11
Пример 1. Из 10 первых букв русского алфавита выбирали без возвращения 4 буквы и
записывали их в порядке поступления. Какова вероятность того, что наудачу составленное слово будет
оканчиваться буквой «а»?
Решение.
Общее число исходов опыта – число всех 4-ех буквенных слов в данном опыте, а именно:
10!
10!
n N () A104
7 8 9 10 5040 .
(10 4)! 6!
Событие А = {наудачу составленное слово из 4-х букв оканчивается на букву «а»}. Место буквы
«а» - четвертое, оно занято, то есть число элементов множества А равно числу способов разместить на
3 оставшиеся первые места по одной букве из оставшихся 9. Следовательно, число исходов,
благоприятствующих событию А, равно
9!
m N ( A) A93 7 8 9 504.
6!
m A3
504
1
Тогда вероятность события А равна P( A) 39
.
n A10 5040 10
Пример 2. Из ящика, содержащего 10 перенумерованных изделий, наугад вынимают одно за
другим все находящиеся в нем изделия. Найти вероятность того, что номера вынутых изделий будут
идти по порядку: 1, 2,…, 10.
Решение.
Общее число исходов опыта – вариантов расставить 10 изделий на 10 мест- равно перестановке
10
n N () A10
P10 10!
Число исходов, благоприятствующих событию В = {номера вынутых изделий будут идти по
порядку}, равно m N ( A) 1.
m 1
Тогда вероятность события В равна P( B) .
n 10!
Пример 3 (на 1 и 2 схему). Из колоды из 36 карт вытащили наудачу 3 карты. Какова вероятность
того, что они все будут тузы а) без учета порядка, б) с учетом порядка?
Решение.
а) Событие А = {вытащили 3 туза без учета порядка}. Общее число исходов опыта равно
3
n = N () C36
. Число исходов, благоприятствующих событию А, равно m N ( A) C43. Вероятность
m C43
1
1
3
.
n C36 35 17 3 1785
б) Событие В = {вытащили 3 туза с учетом порядка}. Общее число исходов опыта равно
3
n = N () A36
. Число исходов, благоприятствующих событию В, равно m N ( B) A43. Вероятность
события P( A)
события P( B)
m A43
4 3 2
1
3
.
n A36 36 35 34 1785
3) Схема выбора, приводящая к сочетаниям с повторениями
Пусть опыт состоит в выборке m неразличимых элементов из n наудачу с возвращением, но без
последующего упорядочивания. Различными исходами опыта будут всевозможные m – элементные
наборы, отличающиеся составом. При этом отдельные наборы могут содержать повторяющиеся
элементы. Например, если m =4, то наборы ω1 = {l1, l2, l1, l1} и ω2 = {l2, l1, l1, l1} для эксперимента
неразличимы, а набор ω3 = {l1, l3, l1, l1}- отличен от предыдущих.
Комбинации, получающиеся в результате опыта, называются сочетаниями с повторениями. Их
(n m 1)!
общее число определяется по комбинаторной формуле N () Cnm m 1
.
m!(n 1)!
Пример. В библиотеке имеются книги по 16 разделам науки. Поступили 4 заказа на литературу.
Считая, что любой состав литературы равновозможен, найти вероятности событий: а) А = {заказаны
книги из разных разделов науки}, б) В = {заказаны книги из одного и того же раздела}.
12
Решение.
Число всех исходов равно числу сочетаний с повторениями из 16 элементов по 4:
n N () C164 4 1 C194 .
а) Число исходов, благоприятствующих событию А, равно числу способов отобрать без
возвращения 4 элемента из 16:
m N ( A) C164 . Тогда вероятность события А равна
m C164 455
0,47.
n C194 969
б) Число исходов, благоприятствующих событию В, равно числу способов отобрать без
1
возвращения 1 элемент из 16:
m N ( A) C16
16. Тогда вероятность события В равна
P( A)
P( B)
1
m C16
4
4
0,004.
n C19 969
4) Схема выбора, приводящая к размещениям с повторениями
Пусть опыт состоит в выборке m элементов из n наудачу с возвращением и с упорядочиванием их
в последовательную цепочку. Различными исходами будут всевозможные m – элементные наборы с
повторениями, отличающиеся либо составом элементов, либо порядком их следования. Например, если
m =4, то наборы ω1 = {l1, l2, l1, l1} и ω2 = {l2, l1, l1, l1} для эксперимента различимы. На одно место может
претендовать несколько элементов.
Получаемые комбинации называются размещениями с повторениями.
Их общее число
m
определяется по комбинаторной формуле N () n .
Замечание.
а) Эту схему называют размещением по ячейкам: m различных элементов размещаются по n
различным ячейкам.
б) Если в ячейку с номером i попадают ровно mi элементов, где i = 1, 2,…, n; m1 + m2 +… +mn = m,
m!
~
то число всех размещений равно N ()
Рm – перестановки с повторениями.
m1!m2 !...mn !
в) Бывают комбинации элементов из различных групп. Пусть имеется m групп элементов. Первая
группа содержит n1 различных элементов, вторая - n2 элементов, …., последняя m-ая - nm элементов.
Составляются комбинации из m элементов таким образом, что в каждую комбинацию входит лишь по
одному элементу из каждой группы. Число всех комбинаций такого типа равно N () n1 n2 ... nm .
Если все группы содержат одинаковое количество различных элементов, то есть
n1 n2 ... nm n , то N () n m .
Пример 1. Из ящика, содержащего 10 перенумерованных изделий, наугад вынимают одно за
другим все находящиеся в нем изделия, записывают его номер, а затем выкладывают обратно и
перемешивают с другими. Найти вероятность того, что записанные номера будут идти по порядку.
Решение.
Число всех исходов опыта равно n N () 1010 . Число исходов, благоприятствующих событию
А = {записанные номера будут идти по порядку} равно m N ( A) 1. Тогда вероятность события А
m
1
равна P( A) 10 .
n 10
Пример 2. 10 мячей размещают по 20 корзинам. Найти вероятности следующих событий:
а) А ={в определенных 10 корзинах окажется по мячу}, б) B = {в каких-то 10 корзинах окажется по
мячу}, в) C = {все 10 мячей поместятся в 3 корзины}.
Решение.
Это схема – размещение по ячейкам. Число всех исходов опыта равно n N () 2010 .
а) В определенных 10 корзинах окажется ровно по одному мячу. Это вторая схема – размещения
без возвращения, а именно перестановки (число шаров равно числу корзин). Число исходов,
13
10
благоприятствующих событию А, равно m N ( A) A10
P10 10! Тогда вероятность события А равна
m 10!
P( A) 10 .
n 20
б) В каких-то 10 корзинах окажется ровно по одному мячу. Это вторая схема – размещения без
10
возвращения. Число исходов, благоприятствующих событию В, равно m N ( B) A20
. Тогда
10
С 1010!
m A20
10 или, что одно и то же P( B) 20 10
20
n 20
с) Все 10 мячей поместятся в 3 корзины. Корзины не указаны, значит, мы должны выбрать три
корзины из 20 (это первая схема – сочетания) и положить в них все 10 мячей, следовательно, в одной
корзине может оказаться несколько мячей (это четвертая схема – размещения с повторениями). Тогда
3
число исходов, благоприятствующих событию С, равно m N (C ) C20
310. Вероятность события С:
вероятность события В равна P( B)
P(C )
3
m C20
310
.
n
2010
Пример 3. Два раза бросается игральная кость. Найти вероятность того, что оба раза не выпадут
«6»-ки?
Решение.
По замечанию в), при однократном бросании кости – 6 исходов. То есть при первом бросании – 6
исходов и при втором бросании – 6 исходов (могут оба раза выпасть одинаковые цифры).
Следовательно, число всех исходов опыта равно n N () 6 6 62. Шестерки не выпали, значит
осталось 5 вариантов на первое и второе бросание. Число исходов, благоприятствующих событию А,
m 52 25
равно m N ( A) 5 5 52. Тогда вероятность события А равна P( A) 2 .
n 6
36
Замечание. В теории вероятностей многие задачи посвящены азартным играм. Возможно,
возникает вопрос, стоит ли вообще тратить время на изучение карточных игр? По этому поводу
напомним, что именно изучение азартных игр дало толчок для первоначального развития
комбинаторики и теории вероятностей. Такие первоклассные математики, как Паскаль, Бернулли,
Эйлер, Чебышев, оттачивали идеи и методы комбинаторики и теории вероятностей на задачах об играх
в орел и решку, кости и карты. Многие идеи теории игр (раздел математики, широко применяемый в
экономике и военном деле) первоначально оформились на изучении простейших моделей карточных
игр.
Пп. 2. Геометрические вероятности в классической схеме
Классическая теория вероятностей основана на рассмотрении конечной группы равновероятных
событий. Теория недостаточна, когда получается бесконечное множество исходов. Поэтому
классическое определение несколько видоизменили для опытов с бесконечным множеством исходов,
хотя при этом по-прежнему основную роль играет понятие «равновероятности» некоторых событий.
Формулировка общей задачи геометрической вероятности:
Пусть в пространстве (одномерном, двумерном, трехмерном) имеется некоторая область D и в ней
содержится другая область d с квадрируемой границей. В область D наудачу бросается точка.
Брошенная точка может попасть в любую точку области D. Вероятность попасть при бросании в
какую-либо часть области D пропорциональна мере (mes) этой части (длине, площади, объему в
зависимости от рассматриваемого пространства) и не зависит от ее расположения и формы.
Вероятность попадания в область d при бросании наудачу точки в область D находится по формуле:
mes d
P( A)
формула геометрической вероятности.
mes D
Частные случаи.
1)
Пусть отрезок l составляет часть отрезка L. Вероятность попадания на отрезок l при
длина l
бросании наудачу точки на отрезок L находится по формуле P( A)
.
длина L
14
Пусть плоская фигура s составляет часть плоской фигуры S. Вероятность попадания на
площадь s
фигуру s при бросании наудачу точки в область S находится по формуле P( A)
.
площадь S
3)
Пусть объемная фигура v составляет часть объемной фигуры V. Вероятность попадания в
объем v
фигуру v при бросании наудачу точки в область V находится по формуле P( A)
.
объем V
2)
Пример 1 (задача о встрече). Два лица А и В условились встретиться в определенном месте
между 12 часами и часом. Пришедший первым ждет другого в течение 20 минут, после чего уходит.
Чему равна вероятность встречи лиц А и В, если приход каждого из них в течение указанного часа
может произойти наудачу, и моменты прихода независимы.
Решение.
Обозначим моменты прихода лица А через х, а лица В через у, причем 0 x 60, 0 y 60 .
Для того, чтобы встреча произошла, необходимо и достаточно, чтобы х и у удовлетворяли
неравенству x y 20 или, что то же самое, y x 20 (это неравенство означает: пришедший первым
ждет другого в течение 20 минут).
Раскроем модуль: y x 20 20 y x 20 x 20 y x 20 .
Изобразим х и у как декартовые координаты на плоскости. За единицу масштаба примем минуту.
Всевозможные исходы – точки квадрата со сторонами 60. Благоприятствующие встрече исходы – точки
области между прямыми y x 20 и y x 20 .
у
60
Вероятность встречи лиц А и В равна отношению площади заштрихованной
у=х+20
фигуры к площади всего квадрата:
у=х-20
602 402 5
20
P
(
A
)
.
х
602
9
О 20
60
Пример 2 (Задача Бюффона).
Плоскость разграфлена параллельными прямыми, отстоящими друг от друга на расстоянии 2а. На
плоскость наудачу бросается игла длины 2l (l < a), то есть 1) центр иглы наудачу падает на отрезок
длины 2а, перпендикулярный к проведенным прямым, 2) вероятность того, что угол φ, составленный
иглой и проведенными прямыми, будет заключаться между φ1 и φ1+Δφ, пропорциональна Δφ, 3)
величины х и φ независимы. Найти вероятность того, что игла пересечет какую-нибудь прямую.
Решение.
По условию задачи, центр иглы может лежать между параллельными прямыми или на одной из
прямых. То есть игла может выглядывать из-за прямой ровно наполовину.
х – расстояние от центра иглы до ближайшей параллели, φ – угол, составленный иглой с
параллелью (рис. 1). Причем 0 x a, 0 . (*)
Величины х и φ полностью определяют положение иглы.
Середина иглы С – точка пересечения иглы с пунктирной линией.
φ
Всевозможные положения середины иглы определяются точками
х
прямоугольника
со сторонами а и π (рис. 2). Это следует из (*).
С
2а
Из рисунка 1 видно, что для пересечения иглы с параллелью
2l
необходимо и достаточно, чтобы выполнялось неравенство:
Рис. 1
x l sin .
х
Пусть событие А = {пересечение иглы и параллели}.
а х=lsinφ
Вероятность пересечения иглы и параллели равна отношению
площади фигуры под синусоидой (рис. 2) к площади прямоугольника:
О
π φ
Рис. 2
P( A)
l sin d
a
l cos 0
a
l (1 1) 2l
.
a
a
15
Замечание. Существует ряд задач на геометрическую вероятность, в которых результат зависит
от метода решения. Одна из таких задач – парадокс Бертрана: найти вероятность того, что длина
наудачу взятой хорды в круге превосходит длину стороны вписанного в этот круг равностороннего
треугольника. В условии задачи не определено понятие проведения хорды наудачу, что и привело к 3-м
различным решениям.
П. 3. Статистическое определение вероятности
Определение вероятности, отправляющееся от частоты появления события в большом количестве
испытаний.
Не всякий опыт может быть сведен к схеме случаев. Например, вероятность выпадения
1
определенной грани у неправильной несимметричной игральной кости не будет равна
, то есть
6
исходы не равновозможны (нельзя применить классическую теорию вероятностей). Но все же
выпадение этой грани обладает некоторой вероятностью, указывающей, насколько часто в среднем
должна появляться данная грань при многократном бросании. Примеры подобных случаев: 1) выход из
строя радиолампы в течение одного часа работы, 2) попадание в цель при выстреле, 3) пробивание
брони танка осколком снаряда.
Каждое из перечисленных событий обладает определенной степенью объективной возможности,
которую можно измерить численно, и которая при повторении подобных опытов будет отражаться в
относительной частоте соответствующих событий.
Пусть опыт может быть воспроизведен многократно, в каждом из которых по воле случая
происходит или не происходит событие А. Обозначим за
n – число всех опытов в серии одинаковых и независимых друг от друга испытаний,
m – число опытов, в которых осуществляется событие А.
Определение 29. Отношение
m
называется частотой события А в данной серии одинаковых и
n
независимых друг от друга опытов.
При небольшом числе опытов частота события носит случайный характер и может заметно
изменяться. Если количество опытов бесконечно много, то применима теорема Бернулли.
Теорема Бернулли (закон больших чисел). При неограниченном увеличении числа однородных
независимых опытов с практической достоверностью можно утверждать, что частота события будет
сколь угодно мало отличаться от некоторого постоянного значения – вероятности события в отдельном
m
опыте: P( A) lim .
n n
m
Если n , то P( A) формула статистической вероятности.
n
Частоты удовлетворяют всем аксиомам Колмогорова.
Примеры.
1.
Устойчивость частот доказана на явлениях демографического характера: а) в древнем Китае
за 2238 лет до нашей эры было посчитано, что отношение числа рождений мальчиков к числу всех
1
22
рождений равно , б) в настоящее время это цифра равна
.
2
43
2.
Устойчивость частот доказана на примере бросания монеты:
Фамилия бросавшего ученого Число бросаний Частота выпадения орла
1. Бюффон
4040
0,5080
2. Пирсон К.
12000
0,5016
3. Пирсон К.
24000
0,5005
16
§ 4. Основные теоремы теории вероятностей
П.1. Теоремы сложения вероятностей
Теорема 1. Вероятность суммы двух несовместных событий равна сумме вероятностей этих
событий: Р(А+В)=Р(А)+Р(В).
Доказательство.
Докажем теорему для схемы случаев. Пусть всевозможные исходы опыта сводятся к совокупности
случаев, которые можно наглядно изобразить в виде n точек, из них m случаев благоприятствуют
событию А, и k случаев благоприятствуют событию В. Тогда по
m
k
m
k
определению вероятности P( A) , P( B) , так как А и В
…………………………………..
n
n
несовместны, то нет таких случаев, которые благоприятны А и В
n
вместе. Следовательно, событию (А + В) благоприятны (m + k)
mk
mk m
k
случаев и P( A B)
. То есть P( A B)
+
P( A) P( B) , что и треб. доказать.
n
n
n
n
Теорема 1/ (Обобщенная теорема сложения несовместных событий) Вероятность суммы n
n
n
несовместных событий равна сумме вероятностей этих событий: P Ai P( Ai ) .
i 1 i 1
Доказательство (методом математической индукции).
Предположим, что теорема справедлива для (n-1) несовместного события: А1, А2,…, Аn-1, т.е.
справедливо равенство: Р(А1+ А2+…+Аn-1)=Р(А1)+Р(А1) +…+ Р(Аn-1) . Докажем, что теорема будет
справедлива для n несовместных событий.
Обозначим А1 + А2 +…+Аn-1 = С.
Имеем Р(А1 + А2+…+ Аn-1 + Аn) = Р(С + Аn) = (по теореме 1) = Р(С)+Р(Аn) = (а для (n-1)
несовместного события теорема доказана) = Р(А1)+Р(А2) +…+ Р(Аn-1)+ Р(Аn).
(что и треб. доказать)
Следствие 1. Если события А1, А2,…, Аn-1, Аn образуют полную группу несовместных событий, то
сумма их вероятностей равна единице:
n
P( A ) 1 .
i 1
i
Доказательство.
Т.к. события А1, А2,…, Аn-1, Аn образуют полную группу несовместных событий, то, по
определению, появление хотя бы одного из них – достоверное событие:
P() = Р(А1 + А2 +…+Аn-1+ Аn ) = 1.
Т.к. события несовместные, то к ним применима обобщенная теорема сложения:
Р(А1 + А2 +…+Аn-1+ Аn )=Р(А1)+Р(А2) +…+ Р(Аn-1)+ Р(Аn) =
n
P( A ) =1,
i 1
i
(что и треб. доказать).
Следствие 2. Сумма вероятностей противоположных событий равна единице: P( A) P( A ) 1
Доказательство.
События A, A – противоположные, т.е. по определению образуют полную группу несовместных
событий, тогда по следствию 1, P( A) P( A ) 1 .
Замечание. Следствие 2 – частный случай следствия 1. На практике весьма часто оказывается
легче вычислить вероятность противоположного события, чем прямого.
P( A) 1 P( A ) .
В формулировке таких задач встречаются слова «хотя бы», «не менее», «по крайней мере» и др.
Пример. Из колоды карт (36) наудачу вынимают 3 карты. Найти вероятность того, что среди них
окажется хотя бы один туз.
Решение.
17
1 способ (по теореме 1 ).
Событие А = {из 3 карт окажется хотя бы один туз}.
Хотя бы один – это либо один, либо два, либо три, т.е. событие А может быть представлено в виде
суммы трех событий: А1 = {из 3 карт окажется один туз}, А2 = {из 3 карт окажется два туза}, А3 = {из 3
карт окажется три туза}.
А = А1 + А2 +А3.
Т.к. события несовместны, то по теореме 1 : Р(А) = Р(А1+ А2+А3)=Р(А1)+Р(А2) +Р(А3).
Найдем отдельно вероятности событий.
C 1C 2
C 2C 1
C3
P( A1 ) 4 3 32 0,2778 , P( A2 ) 4 3 32 0,0269 , P( A3 ) 34 0,0006 .
C36
C36
C36
Р(А) 0,2778 + 0,0269 + 0,0006 = 0,3053.
2 способ (по следствию 2).
Событие A = {из 3 вынутых карт не окажется ни одного туза}.
3
C32
P( A ) 3 0,6947 .
C36
P( A) 1 P( A ) 1 0,6947 0,3053 .
Теорема 2. Вероятность суммы двух совместных событий равна сумме вероятностей этих
событий
без
вероятности
их
произведения
(совместного
осуществления):
Р(А+В)=Р(А)+Р(В) – Р(АВ).
Доказательство (геометрическое)
А
АВ
В
События отождествляют с множествами. Два раза накладываем
«лепесток» друг на друга, поэтому и отнимаем его.
(что и треб. доказать)
Теорема 2/ ( Обобщенная теорема сложения совместных событий).
Вероятность
суммы
n
совместных
событий
равна
n
P Ai P( Ai ) P( Ai A j ) P( Ai A j Ak ) ... (1) n1 P( A1 A2 ... An ) , где суммы распространяются
i, j
i , j ,k
i 1 i 1
на различные значения индексов.
Для трех совместных событий теорема запишется в виде:
Р(А1+ А2+А3)=Р(А1)+Р(А2) +Р(А3) – Р(А1А2) – Р(А1А3) – Р(А2А3) + Р(А1А2А3)
Доказательство для трех событий (геометрическое):
События отождествляют с множествами (см. рис.).
(что и треб. доказать)
А1
А1А3
Замечание. Аналогичную формулу можно написать для
произведения совместных событий:
Р(АВ) = Р(А)+Р(В) – Р(А+В)
А1А2
А1А2А3
А2
А2А3
А3
Р(А1А2А3) = Р(А1)+Р(А2) +Р(А3) – Р(А1+А2) – Р(А1 +А3) – Р(А2 +А3) + Р(А1+ А2+А3)
Пример. Для поражения самолета необходимо, чтобы были поражены оба двигателя (события А1
и А2) или была поражена кабина пилота (событие А3). Требуется выразить вероятность поражения
самолета (событие А) через вероятности событий А1, А2, А3.
Решение.
А = А1 А2+А3. Т.к. события совместны, то по теореме 2 следует, что
Р(А) = Р(А1 А2)+Р(А3) – Р(А1А2А3) = (по замечанию) = Р(А1)+Р(А2) – Р(А1+А2) – Р(А1) –Р(А2) –
Р(А3) + Р(А1+А2) + Р(А1 +А3) + Р(А2 +А3) – Р(А1+ А2+А3) = – Р(А3) + Р(А1 +А3) + Р(А2 +А3) – Р(А1+ А2+А3) .
18
П.2. Теоремы умножения вероятностей
Определение 30. Событие А называется независимым от события В, если вероятность события А
не зависит от того, произошло событие В или нет.
Определение 31. Событие А называется зависимым от события В, если вероятность события А
меняется в зависимости от того, произошло событие В или нет.
Примеры: 1) А = {появление решки на первой монете}, В = {появление решки на второй монете}.
А и В – независимы.
2)
А = {рождение мальчика у Тани}, В = {рождение мальчика у Лены}. А и В –
независимы.
3)
В урне 2 белых и 1 черный шар. Двое Таня и Ваня вынимают из урны по одному шару.
Зависимы или независимы события: А = {появление белого шара у Тани}, В = {появление белого шара
у Вани}?
Решение.
2
Найдем вероятности событий. Р(А) = до известия о событии В. После известия о событии В
3
1
данная вероятность Р(А) = . Следовательно, А и В зависимые.
2
Определение 32. Два события называются независимыми, если появление одного из них не
изменяет вероятности появления другого.
Определение 33. Несколько событий называются независимыми, если любое из них не зависит
от любой совокупности остальных.
Определение 34. Вероятность события А, вычисленная при условии, что имело место другое
событие В, называется условной вероятностью события А и обозначается P( A B) .
2
1
3
2
Условие независимости события А от события В: P( A B) P( A) .
В примере 3): Р(А) = , P( A B) .
Условие зависимости события А от события В: P( A B) P( A) .
Теорема 3. Вероятность произведения двух зависимых событий равна произведению вероятности
одного из них на условную вероятность другого, вычисленную при условии, что первое имело место.
P( AB) P( A) P( B A)
Доказательство.
Докажем для схемы урн истинность тождества формулы.
Пусть всевозможные исходы опыта сводятся к n случаям, которые изобразим в виде точек:
Пусть событию А благоприятствует m случаев, событию В – k случаев, а т.к. события А и В
совместны (мы не предполагали их несовместность), то
k
событиям А и В одновременно благоприятствует l случаев.
m
l
Тогда, вероятности данных событий равны: P( AB ) ,
…………………………………..
n
m
l
P( A) .
n
n
Вычислим условную вероятность P( B A) , т.е. условную вероятность события В в предположении,
что А имело место. Если известно, что А произошло, то из ранее возможных n случаев остаются
возможными только те, которые благоприятствовали событию А. Из них l случаев благоприятны
l
событию В, следовательно, P( B A) , т.е.
m
l m l
P( AB) P( A) P( B A) – истинно, т.к.
– истинное тождество.
(что и треб. доказать).
n n m
19
Замечание 1. При применении теоремы вполне безразлично, какое из событий А или В считать
первым, а какое вторым, т.е. теорему можно записать в виде:
P( AB) P( B) P( A B)
Замечание 2. В общем случае при Р(А) > 0, Р(В) > 0 условная вероятность выражается формулой:
P( AB )
P( AB )
, P( B A)
.
P( A B)
P( B)
P( A)
Следствие 1. Если событие А не зависит от события В, то и событие В не зависит от события А.
Замечание 3. Зависимость и независимость событий всегда взаимны.
Замечание 4. Условные вероятности обладают всеми свойствами, присущими обычным
вероятностям:
1. 0 P( A B) 1 ,
2. если наступление события В исключает возможность осуществления А, т.е. AB , то
P( A B) 0 , если событие В ведет к обязательному осуществлению А, т.е. B A , то P( A B) 1 .
n
n
3. Если Ak – несовместные события, т.е. А = А1 + А2 +…+Аn, то P Ak B P( Ak B) .
k 1
k 1
4. P( A B) P( A B) 1.
Замечание 5. Если А и В независимы, то независимы также события А и B , A и В, A и B .
Теорема 3/. ( Обобщенная теорема умножения зависимых событий).
Вероятность произведения нескольких зависимых событий равна произведению вероятностей
этих событий, причем вероятность каждого следующего по порядку события вычисляется при условии,
что все предыдущие имели место:
Р(А1 ∙ А2 ∙ А3 ∙….∙Аn) = Р(А1)∙ P( A2 A1 ) ∙ P( A3 A1 A2 ) ∙…∙ P( An A1 A2 ... An1 ) .
Теорема 4. (теорема умножения независимых событий).
Вероятность произведения двух независимых событий равна произведению вероятностей этих
событий: P( AB) P( A) P( B) .
Теорема 4/. ( Обобщенная теорема умножения независимых событий).
Вероятность произведения нескольких независимых событий равна произведению вероятностей
этих событий:
Р(А1 ∙ А2 ∙ А3 ∙….∙Аn) = Р(А1)∙ P( A2 ) ∙ P( A3 ) ∙…∙ P( An ) .
Пример 1. Из колоды карт последовательно вынуты две карты. Найти: а) вероятность того, что
вторая карта окажется тузом (неизвестно, какая карта была вынута вначале), б) вероятность того, что
вторая карта будет тузом, если первоначально тоже был вынут туз.
Решение.
Обозначим А = {появление туза вторым}, В = {появление туза первым}.
а) A AB AB , где B = {появление первым не туза}.
События AB и AB – несовместны, тогда по теореме 1 следует, что
P( A) P( AB AB ) P( AB) P( AB ) (события А и В, А и B – зависимые, применим теорему 3) =
1
C 41 1
C 41 C31 C32
.
1
1
1
1
C36
9
C36
C35
C35
б) Если вынутая первая карта – туз , то в колоде осталось 35 карт и среди них только три туза,
3
следовательно, P( A B) .
35
Или можно было найти эту вероятность, используя формулу условной вероятности:
P( B) P( A B) P ( B ) P ( A B )
20
C 41C31
1
1
C35
P( AB ) C36
3
P( A B)
.
1
P( B)
35
C4
1
C36
Пример 2. В урне 2 белых и 3 черных шара. Из урны вынимают подряд 2 шара. Найти
вероятность того, что а) оба белые, б) оба белые, если после первого вынимания шар возвращают
обратно в урну, и шары перемешиваются.
Решение.
Обозначим: А = {появление двух белых шаров}, В = {появление белого шара при первом
вынимании}, С = {появление белого шара при втором вынимании}.
а) А = В∙С. События В и С – зависимы, тогда по теореме 3 следует, что
2 1 1
P( A) P( B C ) P( B) P(C B) .
5 4 10
б) А = В∙С. События В и С – независимы, тогда по теореме 4 следует, что
2 2 4
P( A) P( B C ) P( B) P(C ) .
5 5 25
Теорема 5. Вероятность наступления события А, состоящего в появлении хотя бы одного из
событий А1, А2, А3,…, Аn , независимых в совокупности, равна разности между единицей и
произведением вероятностей противоположных событий:
P( A) 1 P( A1 ) P( A2 ) ... P( An ) .
Если все P( A1 ) P( A2 ) ... P( An ) , то P( A) 1 [ P( A1 )]n .
Пример. Производится три выстрела по одной и той же мишени. Вероятности попадания при
первом, втором и третьем выстрелах равны соответственно р1 = 0,4; р2 = 0,5; р3 = 0,7. Найти
вероятность того, что в результате этих трех выстрелов в мишени будет хотя бы одна пробоина.
Решение.
Обозначим А = {хотя бы одно попадание в цель}.
А1 = {попадание в цель при первом выстреле}, А2 = {попадание в цель при втором выстреле},
А3 = {попадание в цель при третьем выстреле}.
Р(А1) = р1, Р(А2) = р2, Р(А3) = р3.
Можно расписать в алгебре событий данное событие в виде суммы произведений:
P( A) A1 A2 A3 A1 A2 A3 A1 A2 A3 A1 A2 A3 A1 A2 A3 A1 A2 A3 A1 A2 A3
и найти вероятности
слагаемых, где множители – независимые события. Но это нецелесообразно.
Перейдем от прямого события к противоположному: A = { ни одного попадания в цель}:
A A1 A2 A3 ,
где P( A1 ) = 1– р1 =0,6, P( A2 ) = 1 – р2 = 0,5, P( A3 ) = 1 – р3 =0,3.
Тогда по теореме 5:
P( A) 1 P( A ) 1 P( A1 A2 A3 ) (т.к.
события независимые,
то
по
теореме
4)
=
= 1 P( A1 ) P( A2 ) P( A3 ) 1 0,6 0,5 0,3 1 0,09 0,91 .
§ 5. Формулы полной вероятности и формула Байеса
П. 1. Формула полной вероятности
(следствие обеих основных теорем сложения и умножения)
Пусть событие А еще не произошло, но вскоре должно произойти. Событие А может протекать в
различных условиях, относительно характера которых сделано n гипотез Н1, Н2, …, Нn, образующих
полную группу несовместных событий. Вероятности гипотез известны. Тогда вероятность события А
равна сумме произведений вероятности каждой гипотезы на вероятность события при этой гипотезе:
21
n
P( A) P( H i ) P( A H i ) – формула полной вероятности.
i 1
Доказательство.
По условию теоремы гипотезы Н1, Н2, …, Нn образуют полную группу несовместных событий,
следовательно, событие А может произойти с одной и только с одной гипотезой:
n
A H1 A H 2 A ... H n A H i A .
i 1
Т.к. гипотезы несовместны, то и комбинации
теорему 1:
Н1А, Н2А, …, НnА – несовместны. Применим
n
P( A) P( H1 A H 2 A ... H n A) P( H1 A) P( H 2 A) ... P( H n A) P( H i A) (события А и Нi –
i 1
зависимы, т.е. надо применить теорему 3) =
n
P( H ) P( A H ) .
i 1
i
(что и треб. доказать)
i
Пример. Имеется пять урн:
2 урны состава Н1 – по 2 белых шара и 1 черному,
1 урна состава Н2 – 10 черных шаров,
2 урны состава Н3 – по 3 белых и 1 черному шару.
Наудачу выбирается урна, и из нее наудачу выбирается шар. Чему равна вероятность события
А = {будет вынут белый шар}?
Решение.
Событие А еще не произошло. Шар может быть вынут из урн разных составов, следовательно, в
алгебре событий событие А запишется в виде: A H1 A H 2 A H 3 A . Тогда по формуле полной
вероятности:
3
P( A) P( H1 ) P( A H1 ) P( H 2 ) P( A H 2 ) P( H 3 ) P( A H 3 ) P( H i ) P( A H i ) (*).
i 1
Найдем отдельно вероятности событий:
2
1
2
(две урны состава Н1 из пяти), P( H 2 ) , P( H 3 ) ,
P( H 1 )
5
5
5
2
P( A H1 ) (в каждой урне состава Н1 2 белых шара из трех),
3
P( A H 2 ) 0 ( в урне состава Н2 белых шаров нет),
P( A H 3 )
3
.
4
Подставим найденные вероятности в формулу (*): P( A)
2 2 1
2 3 17
0
.
5 3 5
5 4 30
П. 2. Формула Байеса (Бейеса)
(следствие теоремы умножения и формулы полной вероятности)
Пусть событие А произошло, причем А могло протекать в различных условиях, относительно
характера которых было сделано n гипотез Н1, Н2, …, Нn, образующих полную группу несовместных
событий. Вероятности гипотез известны. Требуется узнать, как изменятся вероятности гипотез в связи с
появлением события А. Т.е. надо найти условную вероятность P( H i A) .
Решение.
По условию теоремы гипотезы Н1, Н2, …, Нn образуют полную группу несовместных событий,
следовательно событие .А произошло с одной и только с одной гипотезой:
n
A H1 A H 2 A ... H n A H i A , причем события А и Нi – зависимы, поэтому найдем
i 1
вероятность произведения НiА, воспользовавшись теоремой 3:
P( H i A) P( A) P( H i A) (или, что то же самое) = P( H i ) P( A H i ) , i = 1,2,…,n, отсюда
22
P( H i A)
P( H i ) P( A H i )
.
P( A)
Выразим Р(А) с помощью формулы полной вероятности:
P( H i ) P( A H i )
– формула Байеса.
P( H i A) n
P( H i ) P( A H i )
i 1
Пример. Имеется пять урн:
2 урны состава Н1 – по 2 белых шара и 3 черных шара,
2 урны состава Н2 – по 1 белому и 4 черных шара,
1 урна состава Н3 – 4 белых и 1 черный шар.
Из одной наудачу выбранной урны взят шар. Он оказался белым (событие А). Чему равна после
опыта вероятность события, что шар вынут из урны третьего состава.
Решение.
Событие А произошло. Шар мог быть вынут из урн разных составов, следовательно, в алгебре
событий событие А запишется в виде: A H1 A H 2 A H 3 A .
Найдем вероятности событий:
2
2
1
(две урны состава Н1 из пяти), P( H 2 ) , P( H 3 ) ,
P( H 1 )
5
5
5
2
1
4
P( A H1 ) (в каждой урне состава Н1 2 белых шара из пяти), P( A H 2 ) , P( A H 3 ) .
5
5
5
По формуле Байеса найдем условную вероятность P( H 3 A) :
1 4
4 2
5 5
P( H 3 A) 3
.
2 2 2 1 1 4 10 5
P( H i ) P( A H i )
5 5 5 5 5 5
i 1
P( H 3 ) P( A H 3 )
§ 6. Последовательность независимых испытаний
П. 1. Независимые испытания
Под испытанием станем понимать осуществление определенного комплекса условий, в результате
которого может произойти то или иное элементарное событие пространства элементарных событий.
Определение 35. Если производятся испытания, при которых вероятность появления события А в
каждом испытании не зависит от исходов других испытаний, то такие испытания называются
независимыми относительно события А.
В каждом испытании вероятность появления события А одинакова.
Ряд задач связан с экспериментом, в котором проводятся последовательные независимые
испытания, и наблюдается результат совместного осуществления тех или иных исходов каждого
испытания.
Рассматривается последовательность n независимых испытаний, под которой будем понимать
дискретное новое пространство n элементарных исходов, состоящее из точек (е1, е2, …, еs,…, еn), где
еs – произвольная точка пространства, отвечающая испытанию с номером s. В
каждом
s
s
s
испытании может произойти один из k исходов: e1 или e2 или …. ek .
eis – i –тый исход в s-том испытании, где i = 1, 2,…, k; s = 1, 2,…, n.
Пример. Пусть испытание состоит в подбрасывании игральной кости. Пространство
элементарных событий 1 состоит из шести точек: 1 (e1 ) (1, 2, 3, 4, 5, 6), т.е. шесть исходов. Если
провести три испытания, то пространство 3 состоит из 216 точек.
23
Обычно исходы обозначали большими заглавными буквами. Переобозначим!
Пусть происходит n независимых испытаний: 1, 2,…, s,…, n. В каждом испытании может
произойти k исходов: 1-ый, 2, 3,…, i,…, k-ый.
Обозначим событие Ais – i –тый исход в s-том испытании, где i = 1,2,…,k; s = 1, 2,…, n.
Эти k исходов – несовместные случайные события. Тогда для s-ого испытания можем записать:
s
A1 A2s ... Aks , причем Ais Asj Ø.
Обозначим вероятность i –ого исхода при s-том испытании через P( Ais ) pis .
Пусть при первом испытании произошло событие под номером i1, при 2-ом – событие под
номером i2, …, при n-ом – событие под номером in. Результат сразу n испытаний – событие, которое
обозначим через произведение событий ( Ai11 Ai22 ... Ainn ) – цепочка результатов отдельных испытаний.
1 i1 i2 ... in k . Данное событие – цепочка состоит из всех точек (е1, е2, …, еs,…, еn) пространства
n , для которых е1 Ai11 , е2 Ai22 , …, еn Ainn .
Испытания – независимые, следовательно, по теореме 4, имеет место равенство:
P( Ai11 Ai22 ... Ainn ) pi11 pi22 ... pinn
В случае, когда вероятности событий Ais не зависят от номера испытаний, P( Ais ) pi , i 1,2,..., k.
В силу несовместности и единственной возможности исходов, очевидно, что
k
p
i 1
i
1 , так как
P() 1.
Теорема. Если данные n испытаний независимы, то любые m из них также независимы.
Теорема. Для того, чтобы n испытаний были независимы, необходимо и достаточно выполнения
условия:
P( Ais Ais11 Ais22 ... Aismm ) P( Ais ) ,
для любой группы чисел s, s1, s2,…,sm (1 < s, s1, s2,…,sm < n) и любых m, i, i1, i2,…, im, 1 m n,
1 i, i1,..., im k .
П. 2. Формулы Бернулли.
Пусть проводятся последовательные независимые испытания, и наблюдается результат
совместного осуществления тех или иных исходов каждого испытания.
Схема независимых испытаний является математической моделью серии испытаний,
повторяющихся при неизменных условиях. Такая схема называется полиномиальной.
Простейшим классом повторяющихся независимых испытаний является последовательность
независимых испытаний с двумя исходами (k = 2): «успех», «неудача» и с неизменными вероятностями
успеха – р и неудачи – q, где q = 1 – p, в каждом испытании. Такая схема называется биномиальной.
Определение 36. Независимые испытания при двух исходах называются испытаниями Бернулли.
Рассмотрим задачу. Определить вероятность того, что в результате проведения n независимых
испытаний некоторое событие А – успех (У) наступит ровно m раз, если в каждом из этих испытаний
данное событие наступает с постоянной вероятностью Р(А) = Р(У) = р.
Решение.
Искомую вероятность обозначим Pm,n или Pn(m).
Событие А в данных испытаниях может появиться ровно m раз, причем, в разных
последовательностях или комбинациях. Следовательно, остальные (n–m) раз наступает
противоположное событие A – неудача (Н), вероятность которого Р( A ) = Р(Н) = q, (q = 1 – p).
Сначала найдем вероятность того, что события У наступают при определенных m испытаниях.
Элементарные события в этом случае естественно обозначать цепочками вида:
УУУННУНН…УН
(где У – m штук, Н – (n-m) штук).
По условию данные события – независимые, следовательно, по теореме 4 для произведения
независимых событий можем записать, что
24
Р(УУУННУНН…УН) = Р(У)Р(У)Р(У)Р(Н)Р(Н)….Р(У)Р(Н) = рmqn-m.
Число успехов и неудач задано. Можно менять только их расположения в цепочках, которое
однозначно определяется выбором из n мест m мест для успехов. Это можно сделать Cnm способами.
Следовательно,
Pn(m) = Cnm рmqn-m.
В данной задаче мы доказали теорему Бернулли.
Теорема Бернулли. Если m – число успехов в n независимых испытаниях Бернулли, то
вероятность того, что в результате проведения этих испытаний некоторое событие А наступит ровно m
раз, находится по формуле: Pn(m) = Cnm рmqn-m, которая называется формулой Бернулли.
Следствие.
n
p (m) 1 , так как события, состоящие в различном числе появления события А в
m0
n
серии n испытаний несовместны и образуют полную группу. Или можно было данное равенство
объяснить так:
n
p (m) ( p q)
m0
n
n
1n 1 .
Пример. Пусть монета брошена 5 раз. Требуется найти вероятность того, что выпало ровно 3
орла.
Решение.
В каждом из 5 независимых испытаниях (n = 5) – бросании монеты – два исхода (k = 2: орел,
решка), следовательно, это схема Бернулли с вероятностью успеха (выпал орел) и неудачи (выпала
1
решка) p q . Количество успехов: m = 3.
2
По формуле Бернулли Pn(m) = Cnm рmqn-m найдем искомую вероятность:
3
2
5
1 1
P5(3) = C .
2 2 16
3
5
Замечания.
Замечание 1. Вероятность Pn(m) равна коэффициенту при xm в разложении бинома (q+px)n по
степеням x. В силу этого свойства совокупность вероятностей Pn(m) называют биномиальным законом
распределения вероятностей. (будем изучать позднее)
Замечание 2. Рассмотрим схему испытаний с произвольным количеством исходов. Пусть каждое
из n независимых испытаний имеет k взаимно исключающих друг друга исходов, т.е. в каждом
испытании может появиться одно из k несовместных событий: A1 , A2 ,..., Ak с вероятностями
p1 , p2 ,..., pk , не меняющимися от испытания к испытанию. Найдем вероятность появления в течении
этих n испытаний m1 раз события А1, m2 раза события А2,…, mk раз события Аk. (m1 + m2 + …+ mk = m).
Данная вероятность находится по формуле:
n!
Pn (m1 , m2 ,..., mk )
p1m1 p2m2 ... pkmk .
m1!m2!... mk !
Эта совокупность вероятностей является коэффициентом при x1m1 x2m2 ... xkmk в разложении
полинома ( p1x1 p2 x2 ... pk xk )n по степеням x. Поэтому эту схему называют полиномиальной.
Например. При n подбрасываниях игральной кости получается полиномиальная схема с шестью
1
исходами ( k = 6) и вероятностями p1 p2 ... p6 .
6
Если различать только «6» и «не 6», то получим схему Бернулли с двумя исходами (k = 2) и
5
1
вероятностями успеха p
и неудачи q .
6
6
25
Замечание 3. При вычислении вероятности события, состоящего в том, что число успехов m
лежит, например, между а и b, приходится находить числовые значения сумм вероятностей вида:
P(a m b) Pn (m) .
a mb
Например, вероятность того, что событие наступит а) менее k раз, b) более k раз, c) не менее k раз,
d) не более k раз находятся соответственно по формулам:
а) Pn (m k ) Pn (0) Pn (1) ... Pn (k 1).
b) Pn (m k ) Pn (k 1) Pn (k 2) ... Pn (n).
с) Pn (m k ) Pn (k ) Pn (k 1) ... Pn (n).
d) Pn (m k ) Pn (0) Pn (1) ... Pn (k 1) P(k ).
В некоторых случаях удобнее перейти
Pn (m k ) 1 Pn (m k ) .
к
противоположному
событию,
например,
Пример. Пусть монета брошена 5 раз. Требуется найти вероятность того, что 1) менее двух раз
выпал орел, 2) не менее двух раз выпал орел.
Решение.
Два исхода (k = 2: орел, решка) при 5 независимых испытаниях (n = 5) – схема Бернулли с
1
вероятностью успеха и неудачи p q .
2
1) Орел выпал менее двух раз, значит, не выпал или выпал раз.
P5 (m 2) P5 (0) P5 (1) (вероятности
найдем
по
формуле
Бернулли)
=
1
C
2
5
1
4
3
1
1 1 1
C5 .
2
2 2 16
2) Орел выпал не менее двух раз, т.е. выпал два раза или три или четыре или пять:
P5 (m 2) P5 (2) P5 (3) P5 (4) P5 (5) (удобнее перейти к противоположному событию, т.е. «не
менее двух», значит, противоположное событие: меньше двух, т.е. орел не выпал совсем или выпал
3 13
один раз) = 1 P5 (m 2) 1 [ P5 (0) P5 (1)] 1 .
16 16
5
Замечание 4. В примере на формулу Бернулли вычисления проводятся очень легко, однако часто
приходится вычислять вероятности при очень больших значениях n и m, например, при n = 1000, m =
500. Также затруднения при вычислении возникают при малых значениях p или q.
В этих случаях удается заменить формулу Бернулли какой-нибудь приближенной
асимптотической формулой. Существуют три предельные теоремы, содержащие такие формулы.
П. 3. Предельные теоремы в схеме Бернулли
1. Теорема Пуассона (асимптотическая формула для случая малых значений р)
Если вероятность наступления некоторого события А в n независимых испытаниях постоянна и
равна р, причем p 0 при n так, что n p n , где n – среднее число появления события А в n
испытаниях, 0 n , то вероятность Pn(m) того, что в этих испытаниях событие А наступит ровно
m раз, удовлетворяет при n соотношению (или приближенно равна):
Pn(m) = Cnm p m q n m
n m
e n .
m!
Замечания.
1. Часто формула Пуассона записывается в виде равенства, но надо помнить при этом, что оно
верно при n :
26
Pn(m) =
n m
e n , при этом n n p .
m!
2. Формулой пользуются при больших n и малых р. Например, при n > 100, n p 30 .
3. Теорема имеет место и в том случае, когда вероятность события А в каждом испытании равна
нулю. В этом случае n = 0.
4. Существуют таблицы значений данной вероятности (стр. 410, 411 в задачнике Ефимова –
Демидовича).
Пример. Вероятность попадания в цель при каждом выстреле равна 0,001. Найти вероятность
попадания в цель двумя и более пулями, если число выстрелов равно 5000.
Решение.
Считаем каждый выстрел за испытание и попадание в цель за событие. Количество испытаний n =
5000 (велико), р = 0,001 (мало). По формуле Бернулли считать сложно. Поэтому применим формулу
Пуассона.
Найдем среднее число попаданий: n n p 5000 0,001 5 . Найдем заданную вероятность:
5000
P5000(m 2) Pn (m) (перейдем
к
противоположному
событию:
m
<
2)
=
m2
50
51
1 [ P5000(0) P5000(1)] 1 e5 e 5 1 6e5 0,9596 .
1!
0!
По точной формуле (формуле Бернулли) P5000(m 2) 0,9597 , т.е. ошибка невелика.
2. Локальная предельная теорема Муавра - Лапласа (асимптотическая формула для случая
больших значений n и m)
Если вероятность наступления некоторого события А в n независимых испытаниях постоянна и
равна р, (0 < p < 1), то вероятность Pn(m) того, что в этих испытаниях событие А наступит ровно m раз,
удовлетворяет при n соотношению (или приближенно равна):
1
f ( x) ,
Pn(m) = Cnm p m q n m
npq
x2
m np
1 2
где f ( x)
.
e , x
npq
2
Замечания.
1. Часто формула Муавра-Лапласа записывается в виде равенства, но надо помнить при этом, что
оно верно при n :
1
f ( x) .
Pn(m) =
npq
2. Формулой пользуются при больших n и m. Например, при n > 100, n p q 20 .
3. Из того, что n следует, что m . Это означает, что n и m должны отличаться друг от
друга не очень сильно. Например, для случая m = 0, теорема дает плохое приближение.
4. Существуют таблицы значений функции f(x) для положительных значений x (стр. 408 в
задачнике Ефимова – Демидовича). Для отрицательных значений x используется та же таблица, так как
f(x) – четная функция: f(–x) = f(x). Функцию f(x) называют плотностью нормального распределения.
Пример. Найти вероятность того, что событие А наступит ровно 70 раз в 243 испытаниях, если
вероятность появления этого события в каждом испытании равна 0,25.
Решение.
Количество испытаний n = 243, количество успехов m = 70, вероятность успеха р = 0,25,
вероятность неудачи q = 1 – 0,25 = 0,75.
По формуле Бернулли считать сложно. Так как n и m велики, поэтому применим формулу Муавра
- Лапласа.
Найдем сначала x и f(x):
27
m np
70 243 0,25
x
1,37 ,
npq
243 0,25 0,75
тогда
1
f (1,37)
e
2
1, 372
2
0,1561.
Можно было не считать значение f(1,37) напрямую, а обратиться к таблице в учебнике.
Подставим найденное значение f(1,37) в формулу:
1
P243(70) =
0,1561 0,0231 .
243 0,25 0,75
3. Предельная интегральная теорема Муавра - Лапласа (асимптотическая формула для
случая, когда число успехов m лежит в некоторых пределах)
Теорема 1. Если m – число наступлений события А в n независимых испытаниях, в каждом из
которых вероятность этого события равна р (0 < p < 1), то равномерно относительно
a и b
( a b ) при n имеет место соотношение:
x2
m np
1
2
P(a
b)
e
dx .
npq
2 a
m np
m np
b) или P(a
b) .
В некоторых источниках P(a
npq
npq
b
Ранее вывели, что
e
x2
2
dx 2 . Численное значение нашего интеграла можно найти с
помощью таблиц (стр. 406 в задачнике Ефимова – Демидовича) для функции Лапласа Ф(x):
x
u2
1
(x)
e 2 du ,
2
x 3,5 , Ф(x) = 1.
где Ф(–x) = 1 – Ф(x). Для тех значений x, которых нет в таблице, т.е для
x
u2
1
e 2 du , где Ф(–x) = – Ф(x), для тех
Либо, функция Лапласа может быть в виде: (x)
2 0
1
значений x, которых нет в таблице, т.е. для x 5 , Ф(x) = .
2
Теорема 2. (Теорема Муавра-Лапласа) Вероятность того, что в n независимых испытаниях, в
каждом из которых вероятность появления события равна р (0 < p < 1), событие А наступит не менее
m1 раза и не более m2 раз приближенно равна:
P(a m b) Pn (m1, m2 ) Φ(x) - Φ( x) ,
m np
m np
где Ф(x) – функция Лапласа, значения x 1
, x 2
.
npq
npq
Теорема 3. (Закон больших чисел или теорема Бернулли).
При неограниченном увеличении числа однородных независимых опытов частота события будет
сколь угодно мало отличаться от вероятности события в отдельном опыте.
m
Иначе, вероятность того, что отклонение относительной частоты наступления события А ( ) от
n
m
постоянной вероятности события А (р) очень мало при n стремится к 1. P p 1
n
n
Доказательство.
m
m np
m np
P p P
P
P n m np n (разделим все части
n
n
n
n
m np
n
неравенства на положительное число npq ) = P
npq
npq
npq
28
P
n
m np
pq
npq
1
n
(по теор. 1)
n
n
pq
2
e
x2
2
dx
1
2 1 . (что и т.д.)
2
Пример. Вероятность появления события А в каждом из 100 независимых испытаний постоянна и
равна 0,8. Найти вероятность того, что событие появиться не менее 75 раз и не более 90 раз.
Решение.
Количество испытаний n = 100, вероятность успеха р = 0,8, вероятность неудачи q = 1 – 0,8 = 0,2 ,
m1 = 75, m2 = 90.
Найдем x, x :
m np
75 100 0,8
m np
90 100 0,8
x 1
1,25 ,
x 2
2,5 .
npq
100 0,8 0,2
npq
100 0.8 0,2
По теореме 2:
P(75 m 90) P100(75,90) (2,5) - (1,25) (2,5) - 1 (1,25) (по таблице для функции
Лапласа) = 0,9938 – 1+0,8944 = 0,8882.
П. 4. Наивероятнейшее число появления события в независимых испытаниях
Определение 37. Число наступления события в независимых испытаниях, в каждом из
которых вероятность появления события А равна р, называется наивероятнейшим, если вероятность
того, что событие наступит в этих испытаниях раз превышает или, по крайней мере, не меньше
вероятности остальных возможных исходов испытаний.
Наивероятнейшее число определяется из двойного неравенства:
np q np p ,
причем 1) если (np q) дробное, то существует одно , 2) если (np q) целое, то существует два
наивероятнейших числа, 3) если np целое, то np .
Пример. Испытывается каждый из 15 элементов некоторого устройства. Вероятность того, что
элемент выдержит испытание, равна 0,9. Найти наивероятнейшее число элементов, которые выдержат
испытание и вероятность этого числа.
Решение.
Количество испытаний n = 15, вероятность успеха р = 0,9, вероятность неудачи q = 0,1.
15 0,9 0,1 15 0,9 0,9 ,
13,4 14,4 .
Т.к. – целое число, то 14 – наивероятнейшее число элементов, выдержавших испытание.
Вероятность этого числа найдем по формуле Бернулли:
14
0,9140,11 1,5 0,914 . (Удобнее было по локальной формуле Муавра – Лапласа).
P15(14) = C15
§ 7. Случайные величины
П. 1. Основные определения
Новый путь к развитию теории вероятностей – всестороннее изучение последовательностей
независимых случайных величин – предложили П.Л. Чебышев и его ученики А.А. Марков и А.М.
Ляпунов.
Определение 38. Случайной величиной называется величина, которая в результате опыта может
принять то или иное значение, причем неизвестно заранее, какое именно.
Случайные величины (СВ) обозначаются большими буквами X, Y…
Примеры СВ: X – число попаданий при трех выстрелах, Y – абсцисса точки попадания при
выстреле.
29
Случайные величины характеризуются своими возможными значениями, которые обозначаются
маленькими буквами, соответствующими случайной величине: x, y…
Например, случайная величина X – число попаданий при трех выстрелах характеризуется
следующими возможными значениями: x1 = 0, x2 = 1, x3 = 2, x4 = 3.
Определение 39. Случайные величины, принимающие только отдаленные друг от друга
возможные значения, которые можно заранее перечислить, называются дискретными случайными
величинами (ДСВ).
Примеры ДСВ. 1) В приведенном выше примере СВ X. 2) Случайная величина Z – число вызовов
скорой помощи за сутки. Ее возможные значения z1 = 0, z2 = 1, z3 = 2,…, zn-1 = n.
Определение 40. Случайные величины, возможные значения которых непрерывно заполняют
некоторый промежуток (который иногда имеет резко выраженные границы, а чаще – расплывчатые,
неопределенные), называются непрерывными случайными величинами (НСВ).
Примеры НСВ. 1) В приведенном выше примере НСВ Y – абсцисса точки попадания при
выстреле. Ее возможные значения заполняют некоторый промежуток [y1, y2]. 2) НСВ В – ошибка
взвешивания тела на весах. Ее возможные значения заполняют некоторый промежуток [b1, b2].
Замечание. В классической теории вероятностей рассматриваются события, в современной
теории вероятностей – случайные величины.
Определение 41. Случайная величина X называется характеристической случайной величиной
события А.
Примеры перехода от событий к случайным величинам.
1). Рассмотрим событие А, которое в результате опыта происходит или нет. Введем в
рассмотрение случайную величину X такую, что если А происходит, то X = 1, если А не происходит, то
X = 0. Следовательно, X – дискретная случайная величина с возможными значениями x1 = 0, x2 = 1.
Если происходит ряд таких опытов, то общее число появлений события А равно сумме
характеристических случайных величин X события А во всех опытах.
2). Пусть в действительности точка М совпадает с началом координат – точкой О. При измерении
координат точки М были допущены ошибки. Событие А = {Ошибка в положении точки М не
превзойдет заданного значения r}. Пусть X, Y – случайные ошибки при измерении координат точки.
Это непрерывные случайные величины, так как их возможные значения непрерывно заполняют
некоторые промежутки. Событие А равносильно попаданию точки М(X,Y) в пределы круга радиуса r с
центром в точке О. Т.е. для выполнения события А случайные величины должны удовлетворять
неравенству: X 2 Y 2 r 2 . Вероятность события А равна вероятности выполнения неравенства, которая
может быть определена, если известны свойства X, Y.
П. 2. Законы распределения случайных величин. Законы распределения дискретных
случайных величин. Функция распределения
Для описания случайной величины (т.е. для возможности сказать, как часто следует ожидать
появления тех или других возможных значений случайной величины в результате повторения опыта в
одних и тех же условиях) необходимо знать закон распределения вероятностей случайной величины.
Определение 42. Законом распределения случайной величины называется всякое соотношение,
устанавливающее связь между возможными значениями случайной величины и соответствующими им
вероятностями.
30
Рассмотрим дискретную случайную величину (ДСВ) X с возможными значениями x1, x2, x3,…, xn.
Каждое из этих значений возможно, но не достоверно, и X может принять каждое из них с некоторой
вероятностью.
В результате опыта величина X примет одно из этих значений, т.е. произойдет одно из полной
группы несовместных событий: X = х1 или X = х2 или … X = хn.
Обозначим Р(X = х1) = р1 , Р(X = х2) = р2 , …, Р( X = хn) = рn . Т.к. несовместные события образуют
полную группу, то
n
p
i 1
i
1 – сумма вероятностей всех возможных значений ДСВ.
Эта суммарная вероятность каким-то образом распределена между отдельными значениями ДСВ.
Задать это распределение, т.е. указать, какой вероятностью обладает каждое из событий, значит
установить закон распределения СВ.
Говорят, что СВ подчинена данному закону распределения.
Формы закона распределения ДСВ.
1. Простейшей формой задания закона распределения является таблица, называемая рядом
распределения ДСВ.
x1
р1
xi
pi
…
…
x2
p2
Для элементов нижней строки должно выполняться условие:
n
p
i 1
i
xn
pn
1.
2. Формой задания закона распределения является многоугольник распределения – фигура,
получаемая при графическом изображении ряда распределения.
Возможные значения откладываются по оси (Ох).
Вероятности возможных значений откладываются по оси (Oy).
pi
p5
Механическая интерпретация ряда распределения ДСВ:
Распределение единичной массы в нескольких изолированных
точках по оси (Ох). (В отдельных точках х1 , х2, …,хn
сосредоточены соответственно массы р1, р2 , …, рn , сумма
которых равна 1.)
p4
p3
p2
p1
О
xi
x1
x2
x3 x4 x5
Пример 1. Рассмотрим опыт, в котором может появиться или не появиться событие А. Р(А) = 0,3.
Рассмотрим случайную величину Х – число появлений события А в данном опыте, т.е. возможные
значения данной величины: х1 = 0 (А не появится), х2 = 1 (А появится). Построить ряд распределения и
многоугольник распределения случайной величины Х.
Решение.
Р(X = х1 = 0) = р1 =1 – 0,3 = 0,7,
Р(X = х2 = 1) = р2 = 0,3.
pi
1
xi 0
pi 0,7 0,3
1
0,7
0,3
О
xi
Проверка:
2
p
i 1
i
0,7 0,3 1 .
1
31
Пример 2. Стрелок производит 3 выстрела по мишени. Вероятность попадания в мишень при
каждом выстреле равна 0,4. За каждое попадание стрелку засчитывается 5 очков. Построить ряд и
многоугольник распределения числа выбитых очков.
Решение.
ДСВ Х – число выбитых очков. Вероятность попадания (успеха) равна р = 0,4, вероятность
промаха (неудачи) равна q = 1 – 0,4 = 0,6. Количество испытаний n = 3.
Возможные значения Х: х1 = 0 (0 очков), х2 = 1 (5 очков), х3 = 2 (10 очков), х4 = 3 (15 очков).
По формуле Бернулли Pn(m) = Cnm p m q n m найдем вероятности этих возможных значений:
р1 =P3(0) = C30 0,400,63 0,63 0,216 ,
р2 =P3(1) = C31 0,410,62 0,432 ,
р3 =P3(2) = C32 0,420,61 0,288 ,
р4 =P3(3) = C33 0,430,60 0,43 0,064 .
Ряд распределения имеет вид:
1 (5) 2 (10) 3 (15)
xi 0
pi 0,216 0,432 0,288 0,064
Проверка:
n
p
i 1
i
0,216 0,432 0,288 0,064 1 .
Многоугольник распределения:
0,432
pi
0,288
0,216
хi
0,064
О
5
10
15
Замечание. Ряд распределения является удобной формой представления закона распределения
для ДСВ с конечным числом возможных значений. Однако эта характеристика не универсальна, так как
ряд или многоугольник нельзя построить для непрерывной случайной величины (НСВ). Действительно,
НСВ имеет бесчисленное множество возможных значений, которые сплошь заполняют некоторый
промежуток, и перечислить их в какой-нибудь таблице нельзя.
Кроме того (это будет доказано позднее) каждое отдельное значение НСВ обычно не обладает
никакой отличной от нуля вероятностью. Следовательно, для НСВ не существует ряда распределения в
том смысле, в каком он существует для ДСВ.
Однако различные области возможных значений НСВ все же не являются одинаково вероятными,
и для НСВ существует «распределение вероятностей», хотя и не в том смысле, как для ДСВ.
В силу этого, желательно иметь такую характеристику распределения вероятностей, которая была
бы применима для самых разнообразных случайных величин.
3. Функция распределения – универсальный закон распределения (для ДСВ и НСВ).
Для количественной характеристики распределения вероятностей любой случайной величины
удобнее пользоваться не вероятностью события X = х, а вероятностью X < х, где х – некоторая текущая
переменная.
Определение 43. Задание вероятности выполнения неравенства X < х , рассматриваемой как
функции аргумента х, называется функцией распределения (или интегральным законом распределения,
или интегральной функцией распределения) случайной величины Х:
F(x) = P(X < x).
F(x) – универсальная характеристика: существует как для ДСВ, так и для НСВ. Она полностью
характеризует СВ с вероятностной точки зрения, т.е. является одной из форм закона распределения.
32
Геометрическая интерпретация F(x): если рассматривать СВ как случайную точку Х оси (Ох),
которая в результате опыта может занять то или иное положение, то функция распределения F(x) есть
вероятность того, что эта случайная точка Х в результате опыта попадет левее точки х.
О
Х
х
х
Для ДСВ Х, которая может принимать возможные значения x1,
распределения будет иметь вид:
F(x) = P(X < x) = P( X xi ) ,
x2,
x3,…, xn, функция
xi x
где символ хi < x под знаком суммы обозначает, что суммирование распространяется на все возможные
значения СВ, которые по своей величине меньше аргумента х.
Свойства F(x).
1. F(x) – неотрицательная функция, заключенная между 0 и 1: 0 F ( x) 1 .
Пояснение: справедливость свойства вытекает из того, что F(x) определена как вероятность
события X < x.
2. F(x) – неубывающая функция своего аргумента, т.е. при x2 > x1, F ( x2 ) F ( x1 ) .
Пояснение (см. рис. выше): будем увеличивать х, т.е. перемещать точку х вправо по оси (Ох).
Очевидно, что при этом вероятность того, что точка Х попадет левее точки х не может уменьшаться,
следовательно, функция F(x) с возрастанием х убывать не может.
3. F () 0 .
Пояснение (см. рис. выше): будем неограниченно перемещать точку х влево по оси (Ох). При этом
попадание случайной точки Х левее точки х в пределе становится невозможным событием. Поэтому
естественно полагать, что вероятность этого события стремится к нулю.
4. F () 1.
Пояснение (см. рис. выше): будем неограниченно перемещать точку х вправо по оси (Ох). При
этом попадание случайной точки Х левее точки х в пределе становится достоверным событием.
Вероятность достоверного события по определению равна 1.
5. F(x) – непрерывна слева, т.е. lim F ( x) F ( x0 ) .
x x0 0
6. Вероятность появления случайной величины в интервале [α; β) равна разности значений
функции распределения в концах интервала:
P( X ) F ( ) F ( ) .
Доказательство.
Рассмотрим три события: A X , B X , C X , причем события В и С –
несовместные.
Очевидно, что А = В + С. По теореме сложения вероятностей несовместных событий имеем:
P( X ) P( X ) P( X ) .
Перепишем данное равенство, воспользовавшись определением функции распределения:
F ( ) F ( ) P( X ) , отсюда:
P( X ) F ( ) F ( ) .
(что и требовалось доказать)
Замечание. Если F(x) возрастает в каждой точке интервала (a; b), то возможные значения
случайной величины непрерывно заполняют этот интервал, т.к. согласно свойству № 6, вероятность
того, что СВ примет значение, заключенное в сколь угодно малой части ( , ) этого интервала отлична
от нуля. Таким образом, монотонно возрастающей функции F(x) на интервале (a; b) соответствует
непрерывная случайная величина, возможные значения которой непрерывно заполняют этот интервал.
Отсюда следует другое определение НСВ:
33
Определение 44. Непрерывной случайной величиной называется случайная величина, функция
распределения которой непрерывна.
Будем неограниченно уменьшать участок [α; β), полагая, что . В пределе вместо
вероятности попадания случайной величины Х в интервал [α; β) получим вероятность того, что эта
величина примет отдельно взятое значение α:
lim P(α X β ) P( X α) lim[ F ( β ) F (α)] (из свойства 6)
β α
β α
Значение этого предела зависит от того, непрерывна ли функция F(x) в точке х = α или же терпит
разрыв.
Если в точке х = α функция F(x) имеет разрыв, то lim[ F ( β ) F (α)] skF( x) – значению скачка в
β α
точке в х = α.
Если в точке х = α функция F(x) непрерывна, то lim[ F ( β ) F (α)] 0 .
β α
Вывод: т.к. непрерывная случайная величина Х имеет непрерывную функцию распределения F(x),
то из равенства нулю предела для непрерывной функции в точке х = α следует, что и вероятность
любого отдельного значения непрерывной случайной величины равна нулю:
P( X ) 0 .
Таким образом, нулевой вероятностью могут обладать не только невозможные, но и возможные
события, т.е. событие A X – возможно, а Р(А) = 0. P( A ) 1 , но A – не достоверно. Говорят, что
А происходит почти всегда.
Вывод парадоксален, но он вполне согласуется со статистическим определением вероятности.
Равенство нулю вероятности события характеризует тенденцию частоты этого события неограниченно
убывать при увеличении числа опытов, т.е. частота только приближается к вероятности, и ни в коей
мере не означает, что данное событие равно нулю.
Например: 1.) Тело имеет определенную массу, а ни одна из точек внутри тела определенной
массой не обладает. Сколь угодно малый объем, выделенный из тела, обладает конечной массой, но она
стремится к нулю по мере его уменьшения и равна нулю для точки.
2.) При непрерывном
распределении вероятностей вероятность попадания на сколь угодно малый участок может быть
отлична от нуля, тогда как вероятность попадания в строго определенную точку равна нулю.
Механическая интерпретация непрерывной случайной величины: распределение единичной
массы непрерывно по оси абсцисс, причем ни одна точка не обладает конечной массой.
Следствия из свойства 6:
1. Если все возможные значения Х принимает интервал (a; b), F(x) = 0 при x a ; F(x) = 1 при
x b.
2. P( X ) P( X ) P( X ) F ( ) F ( ) , т.е для НСВ граничные точки
могут как включаться, так и не включаться в промежуток (а; b).
Графики функции распределения.
1. Для ДСВ функция распределения F(x) =
F(x)
1
р4
р3
р2
p1
x
О
P( X x ) .
xi x
x1
x2
x3
x4
i
Когда текущая переменная х проходит через какоенибудь из возможных значений ДСВ Х, функция
распределения F(x) меняется скачкообразно, причем величина
скачка равна вероятности этого значения. Таким образом, F(x)
любой ДСВ – разрывная ступенчатая функция, скачки которой
происходят в точках, соответствующих возможным значениям
СВ и равны вероятностям этих значений. Сумма всех скачков
равна 1.
34
2. Для НСВ функция распределения – непрерывная функция во всех точках и заключенная между
нулем и единицей (следует из свойств).
F(x)
1
О
x
Замечание.
F(x)
Если для ДСВ увеличить число возможных значений и
уменьшить интервалы между ними, то число скачков будет
больше, а сами скачки меньше, следовательно, ступенчатая
кривая становится более плавной, ДСВ постепенно
приближается к НСВ, а ее функция распределения – к
непрерывной функции распределения.
1
x
О
3. Можно построить примеры СВ, возможные значения которых непрерывно заполняют
некоторый промежуток, но для которых F(x) не везде является непрерывной, а в отдельных точках
терпит разрыв. Такие СВ называются смешанными.
График F(x) в общем случае представляет собой график неубывающей функции, значения
которой начинаются от 0 и доходят до 1, причем в отдельных точках функция может иметь скачки.
F(x)
1
О
x
Пример 1. (Ранее рассматривали задачу, п.2, пример 2)
Стрелок производит 3 выстрела по мишени. Вероятность попадания в мишень при каждом
выстреле равна 0,4. Построить функцию распределения числа попаданий. Найти вероятность того, что
будет а) меньше 2 попаданий, b) не больше двух попаданий, с) больше одного попадания, d) число
попаданий будет либо 1, либо 2.
Решение.
Ранее мы построили ряд распределения числа попаданий. Ряд распределения имеет вид:
1
2
3
xi 0
0,216
0,432
0,288
0,064
pi
Это
ДСВ,
F(x) = P( X xi ) .
следовательно,
xi x
1) при x 0 ,
F(x) =
распределения
находится
по
формуле:
P( X x ) 0 .
xi 0
2) при 0 x 1 F(x) =
функция
i
P( X x ) P( X 0) 0,216 .
xi 1
i
35
3) при 1 x 2 F(x) =
P( X x ) P( X 0) P( X 1) 0,216 0,432 0,648 .
i
xi 2
4) при 2 x 3 F(x) =
P( X x ) P( X 0) P( X 1) P( X 2) 0,216 0,432 0,288 0,936 .
xi 3
5) при x 3
i
F(x) = P( X 0) P( X 1) P( X 2) P( X 3) 0,216 0,432 0,288 0,064 1 .
0; x 0
0,216; 0 x 1
F ( x) 0,648; 1 x 2
0,936; 2 x 3
1; x 3
O
F(x)
1
0,648
В
0,216
О
x
1
2
3
Найдем вероятность того, что будет а) меньше 2 попаданий, b) не больше двух попаданий, с)
больше одного попадания, d) число попаданий будет либо 1, либо 2.
а) P(X 2) (по определению функции распределения) = F (2) 0,648
b) P( X 2) P( X 2) P( X 2) F (2) P( X 2) 0,648 0,288 0,936
с) P( X 1) 1 P( X 1) 1 [ P( X 1) P( X 1)] 1 [ F (1) P( X 1)] 1 [0,216 0,432] 0,352
d) P(1 X 2) P(1 X 2) P( X 2) F (2) F (1) P( X 2) 0,648 0,216 0,288 0,72
Пример 2. Функция распределения непрерывной случайной величины задана выражением:
0; x 1
Найти коэффициент а. Определить вероятность того, что СВ Х в
F ( x) a( x 1) 2 ;1 x 3
1; x 3
результате опыта примет значение на участке а) (1; 2), b)[1; 2].
Решение.
Т. к. Х – НСВ, то F(x) – непрерывная функция, следовательно, при х = 3
должно выполняться
1
равенство, что F(x) = 1, т. е.
а(х – 1)2 = 1 а(3 – 1)2 = 1 4а = 1 a .
4
Найдем вероятность того, что Х в результате опыта примет значение на участке (1; 2):
1
1
P(1 X 2) F (2) F (1) (2 1)2 0 .
4
4
Найдем вероятность того, что Х в результате опыта примет значение на участке [1; 2]:
1
P(1 X 2) (т.к. СВ – непрерывная, то) P(1 X 2) .
4
Замечание. Функция распределения F(x) случайной величины является ее исчерпывающей
вероятностной характеристикой. Но она имеет недостаток, заключающийся в том, что по ней трудно
судить о характере распределения СВ в небольшой окрестности той или другой точки числовой оси.
Более наглядное представление о характере распределения НСВ в окрестностях различных точек дается
другой функцией – плотностью распределения вероятности.
П. 3. Плотность распределения вероятностей НСВ
Пусть Х – непрерывная случайная величина, ее функция распределения F(x) – непрерывная и
дифференцируемая функция.
Рассмотрим участок [x; x+∆x), где ∆x – длина участка. Тогда вероятность попадания СВ Х на
данный участок можно найти по формуле (по свойству 6):
36
P( x X x x) F ( x x) F ( x) .
Рассмотрим предел отношения приращения функции F(x) на участке к длине этого участка (или
среднюю вероятность, приходящуюся на единицу длины участка) при условии, что длина стягивается в
точку:
F ( x x) F ( x)
lim
F ( x) – по определению производной.
x 0
x
Определение 45. Предел отношения вероятности попадания НСВ на элементарный участок от х
до x + ∆x к длине этого участка, когда ∆x стремится к нулю или производная функции распределения
F (x) НСВ называется плотностью распределения НСВ Х в точке х и обозначается f(x):
F (x) = f(x).
Другие названия плотности: плотность вероятности, дифференциальная функция распределения,
дифференциальный закон распределения.
f(x) существует только для непрерывных СВ. Она является одной из форм закона
распределения.
f(x) характеризует плотность, с которой распределяются значения СВ в данной точке.
Механическая интерпретация: f(x) характеризует плотность распределения масс по оси абсцисс.
f(х)
Определение 46. Кривая, изображающая плотность
распределения f(x) СВ, называется кривой распределения.
х
О
Замечание. Если возможные значения СВ заполняют некоторый конечный промежуток, то f(x) =
0 вне этого промежутка.
Геометрическая интерпретация f(x) .
F ( x x) F ( x)
P( x X x x)
lim
F ( x) f ( x) .
x 0
x 0
x
x
Из
данного
равенства
следует,
что
f(х)
P( x X x x)
lim
f ( x) , причем, т. к. х – независимая
f(х)
x 0
x
S
х переменная, то ∆x = dx.
О
х dх x+dx
Отсюда следует, что
P( x X x x) f ( x)dx S ,
где
S
–
площадь
элементарного
прямоугольника,
опирающегося на участок dx. (см. рис.)
При dx 0 площадь прямоугольника приближается к площади криволинейной трапеции,
Перепишем определение:
lim
x x
которую можно найти с помощью определенного интеграла: S
f ( x)dx .
x
Величина f(x)dx называется элементом вероятности.
Рассмотрим большой участок (α; β) , тогда:
f(х)
P( X ) f ( x)dx .
f(х)
(1)
х
O α
В
β
Вероятность
того,
что
НСВ
примет
значение,
принадлежащее интервалу (α; β), равна площади криволинейной
трапеции, опирающейся на интервал (α; β) оси (Ох) :
P( X ) S .
37
Замечание. Для НСВ непринципиально, какие знаки в неравенстве брать < или
:
P( X ), P( X ), P( X ) , т. е. включать или не включать крайние точки интервала,
потому что в них вероятность все равно равна нулю.
Связь F(x) и f(x) .
Нам известно, что F (x) = f(x).
Выразим
функцию
(2)
распределения
F(x)
через
плотность.
По
определению
F ( x) P( X x) P( X x) . Из формулы (1) следует, что
x
F ( x)
f(х)
f ( x)dx .
(3)
х
Геометрически, это площадь
лежащая левее точки х.
О
кривой
распределения,
Замечания.
1. Формулу (3) можно доказать по-другому: по определению дифференциала функции имеем, что
dF ( x) F ( x)dx f ( x)dx , следовательно,
x
x
f ( x)dx dF ( x) F ( x) F () F ( x) 0 F ( x) .
2. Формулу (1) можно доказать на основании свойства функции распределения:
P( X ) F ( ) F ( ) ,
Но согласно равенству (3) F ( )
f ( x)dx ,
F ( )
P( X )
f ( x)dx , поэтому
β
β
α
α
f ( x)dx f ( x)dx f ( x)dx f ( x)dx f ( x)dx .
3. Функция распределения F (x) – безразмерная величина, размерность плотности f(x) обратна
размерности случайной величины.
Свойства плотности распределения
1. f(x) – неотрицательная функция, т. е. f ( x) 0 .
Пояснение: это следует из того, плотность распределения есть производная от неубывающей
функции F (x) . Геометрически: вся кривая распределения лежит не ниже оси абсцисс.
2. Условие нормировки:
интеграл в бесконечных пределах от плотности распределения равен 1:
f ( x)dx 1 .
(4)
Доказательство
Подставим в равенство (3) x , учитывая, что F () 1: F ()
f ( x)dx 1 . (что и т.д.)
Геометрически данное свойство означает следующее: полная площадь, ограниченная кривой
распределения и осью абсцисс равна единице.
38
0; x 0
Пример 1. Дана функция распределения НСВ Х: F ( x) ax 2 ; 0 x 1 .
1; x 1
Найти 1) коэффициент а,
2) плотность распределения
f(x),
3) P(0,25 X 0,5) ,
P(0,25 X 1,5) , 4) построить графики функций F (x) и f(x).
Решение.
1) Т. к. F (x) – непрерывная функция, то при х = 1 должно выполняться равенство, что ах2 =1.
То есть а12 =1. Отсюда, а = 1.
0; x 0
2) f(x) = F (x) , тогда f ( x) 2 x; 0 x 1 .
0; x 1
3) 1 способ: (0,25; 0,5) входит в интервал (0; 1). По свойству 6 функции распределения:
P(0,25 X 0,5) F (0,5) F (0,25) 0,52 0,252 0,1875 .
2 способ. Можно было найти по формуле (1) с помощью плотности распределения:
0,5
0,5
P(0,25 X 0,5)
2 xdx x
0, 25
0,52 0,252 0,1875 .
2
0 , 25
4)
P(0,25 X 1,5)
0,5
1, 5
1
2 xdx 0dx x
0 , 25
1
0,52 0,252 0,1875
2
0, 25
5)
F(x)
1
2
1
O
Пример
2.
Пусть
0; x 2 ,
f ( x) a cos x; x ,
2
2
0; x 2
Найти 1) коэффициент а,
x
O
НСВ
Х
f(x)
1
x
подчинена
закону
распределения
2) функцию распределения F(x), 3) P(0 X
с
4
плотностью
) , 4) построить
графики функций F (x) и f(x).
Решение.
1) Для нахождения коэффициента а воспользуемся условием нормировки (4):
2
f ( x)dx 1 a cos xdx a sin x
2
2
2a 1 a
1
.
2
2
x
2) Найдем функцию распределения по формуле (3): F ( x)
f ( x)dx .
Если x
2
x
, то f ( x) 0 , следовательно F ( x) 0dx 0 .
39
Если
2
Если x
x
2
2
2
, то F ( x) 0dx
2
2
, то F ( x) 0dx
x
x
1
1
1
1 1
cos xdx 0 sin x sin x (sin x 1) .
2
2
2
2 2
2
2
2
1
1
1
1 1 1
cos xdx 0dx 0 sin x 0 sin sin 1 .
2
2
2
2 2
2 2 2
x
2
2
2
0; x 2 ,
1
Итак, F ( x) (sin x 1); x ,
2
2
2
1; x 2
π
π π
) можно найти двумя способами. Интервал (0; ) ( ; ) .
4
4
2 2
1 способ: По свойству 6 функции распределения:
1
1
2
P(0 X ) F ( ) F (0) (sin 1) (sin 0 1)
.
4
4
2
4
2
4
3) P(0 X
2 способ. Можно было найти по формуле (1) с помощью плотности распределения:
4
1
1
1
2
P(0 X ) cos xdx sin x sin 0
.
4
2
2
2
4
4
4
f(x)
F(x)
1
2
1
2
O
2
x
–
2
2
O
x
Вывод:
Законы распределения
ДСВ
1. Ряд распределения (графически –
многоугольник распределения).
2. Функция распределения F(x).
НСВ
1. Функция распределения F(x).
2. Плотность распределения f(x) (графически –
кривая распределения).
П. 4. Числовые характеристики случайных величин, их роль и назначение
Определение 47. Характеристики, назначение которых – выразить в сжатой форме наиболее
существенные особенности распределения, называются числовыми характеристиками СВ.
Они не характеризуют СВ полностью, а указывают только отдельные числовые параметры,
например, какое-то среднее значение, около которого группируются возможные значения СВ; какоелибо число, характеризующее степень разбросанности этих значений относительно среднего и т. д.
Пп 1. Характеристики положения
(математическое ожидание, мода, медиана)
40
Данные характеристики характеризуют положение СВ на числовой оси, т. е. указывают некоторое
среднее, ориентировочное значение, около которого группируются все возможные значения случайной
величины.
Например, 1) среднее время работы, 2) средняя точка попадания смещена относительно цели на
0,3 м вправо…
Разберем эти характеристики подробнее.
1. Математическое ожидание или среднее значение случайной величины
а) Для дискретных случайных величин.
Рассмотрим ДСВ Х, имеющую возможные значения х1 , х2, …, хn с вероятностями р1, р2 , …, рn .
Охарактеризуем каким-нибудь числом положение значений СВ на оси абсцисс с учетом того, что эти
значения имеют различные вероятности, т. е. рассмотрим «среднее взвешенное» из хi, причем каждое хi,
при осреднении учитывается с «весом», пропорциональным вероятности хi:
n
x1 p1 x2 p2 ... xn pn
p1 p2 ... pn
xi pi
i 1
n
p
i 1
n
x p
i
i 1
i
1
n
xi pi M [ X ] .
i 1
i
Определение 48. Сумма произведений всех возможных значений случайной величины на
вероятности этих значений называется математическим ожиданием случайной величины
n
x p
i 1
i
i
M[X ] .
(1)
Замечания. 1. M [X ] существует тогда и только тогда, когда ряд
n
x p сходится.
i 1
i
i
2. Когда M [X ] входит в формулы как определенное число, то ее обозначают M [ X ] mX .
Механическая интерпретация M [X ] для ДСВ: пусть на оси (Ох) расположены точки с
абсциссами х1 , х2, …,хn , в которых сосредоточены соответственно массы р1, р2 , …, рn , причем сумма
n
всех масс равна 1 ( pi 1 ), тогда M [X ] – абсцисса центра тяжести данной системы материальных
i 1
точек.
Связь между M [X ] и средним арифметическим числа наблюдаемых значений СВ при
большом числе опытов: при увеличении числа опытов среднее арифметическое наблюдаемых значений
СВ будет приближаться (сходиться по вероятности) к ее математическому ожиданию. Эта связь – одна
из форм закона больших чисел.
b) Для непрерывных случайных величин.
Рассмотрим НСВ. Заменим в формуле (1) отдельные значения хi непрерывно изменяющимся
параметром х, соответствующие вероятности рi – элементом вероятности f(x)dx, конечную сумму –
интегралом, тогда
M[X ]
xf ( x)dx .
(2)
Механическая интерпретация M [X ] для НСВ: M [X ] – абсцисса центра тяжести в случае,
когда единичная масса распределена по оси (Ох) непрерывно с плотностью f(x).
Свойства M [X ] .
1. M [C ] C , где С – постоянная.
2. M [C X ] C M [ X ] .
3. M [ X1 X 2 ... X n] M [ X1 ] M [ X 2 ] ... M [ X n ] .
41
4. M [ X1 X 2 ... X n] M [ X1 ] M [ X 2 ] ... M [ X n ] .
5. M [aX b] aM [ X ] b , a, b – постоянные.
с) Для смешанных случайных величин.
M [X ] xi pi xF ( x)dx , причем сумма распространяется на те точки хi, где функция терпит
i
разрыв, а интеграл берется по тем участкам, где функция непрерывна.
2. Мода случайной величины
Определение 49. Мода – наиболее вероятное значение случайной величины.
Иначе, мода – точка максимума многоугольника распределения для ДСВ
или кривой
распределения для НСВ.
Мода обозначается М; когда мода входит в формулы как определенное число, то ее обозначают
dX.
а) Для дискретных случайных величин.
Мода
М
–
такое
значение
хm,
PX xm M max PX xi , где i = 1,…, n. M = xm.
pi
что
i
хi
О
М
b) Для непрерывных случайных величин.
Мода – действительное число М (dX), определяемое, как
точка максимума плотности распределения f(x).
f(х)
х
О
М
Замечание. Мода может не существовать, может иметь единственное значение или иметь
бесконечное множество значений.
Определение 50. Распределения, обладающие посередине не максимумом, а минимумом
называются антимодальными.
Замечание. Мода и математическое ожидание СВ не совпадают, но если распределение является
симметричным и модальным и существует мат. ожидание, то оно совпадает с модой и центром
симметрии распределения.
3. Медиана случайной величины
Вводится лишь для НСВ, хотя формально ее можно определить и для ДСВ.
Определение 51. Медианой непрерывной случайной величины называется такое ее значение
х = Ме, относительно которого равновероятно получение большего или меньшего значения случайной
величины, т. е. для которого справедливо равенство:
P( X Me) P( X Me) ,
42
( для НСВ безразлично < или )
1
1
(по определению функции
P( X Me)
F ( Me)
2
2
P( X Me) P( X Me) 1 P( X Me)
2P( X Me) 1
распределения).
1
1
: F ( Me) .
(3)
2
2
Геометрически: медиана – это абсцисса точки, в
которой площадь, ограниченная кривой распределения,
делится пополам.
Таким образом, медиана – это корень уравнения F ( x)
f(х)
S1 = S2
S1
О
Замечание. В случае симметричного модального
распределения медиана совпадает с мат. ожиданием и
модой.
S2
х
Ме
Когда медиана входит в формулы как определенное число, то ее обозначают hX.
Пп 2. Моменты
Данные характеристики описывают некоторые свойства распределения СВ. В механике,
например, для описания распределения масс существуют статические моменты, моменты инерции…
Определение 52. Начальным моментом s – того порядка для ДСВ и НСВ называется
математическое ожидание s – той степени этой случайной величины:
s[ X ] M [ X s ] .
Замечание. При s = 1 1[ X ] M [ X ] , т. е. математическое ожидание – это первый начальный
момент.
n
s [ X ] xi s pi .
а) Для дискретных случайных величин:
(4)
i 1
Замечание. Определение совпадает с определением начального момента порядка s в механике,
если на оси (Ох) в точках х1 , х2, …,хn сосредоточены соответственно массы р1, р2 , …, рn.
s [ X ] x s f ( x)dx .
b) Для непрерывных случайных величин:
(5)
Определение 53. Центрированной случайной величиной, соответствующей величине Х,
называется отклонение случайной величины Х от ее математического ожидания:
o
X X mX .
Рассмотрим математическое ожидание центрированной ДСВ:
o
n
n
n
i 1
i 1
M [ X ] M [ X mX ] ( xi mX ) pi xi pi mX pi mX mX 0 .
i 1
o
Аналогично, для НСВ M [ X ] 0 .
Центрирование СВ равносильно переносу начала координат в среднюю, центральную точку,
абсцисса которой равна математическому ожиданию.
Определение 54. Моменты центрированной случайной величины называются центральными
моментами.
43
Определение 55. Центральным моментом s – того порядка для ДСВ и НСВ называется
математическое ожидание s – той степени соответствующей центрированной случайной величины:
o
s [ X ] M [ X s ] M [( X mX ) s ] .
n
s [ X ] ( xi mX ) s pi .
а) Для дискретных случайных величин:
(6)
i 1
b) Для непрерывных случайных величин:
s [ X ] ( x mX ) s f ( x)dx .
(7)
Замечание.
Для
любой
СВ
центральный
момент
1-го
порядка
1 равен
0:
o
1[ X ] M [ X ] M [( X mX )] 0 , так как мат. ожидание центрированной СВ равно 0.
Рассмотрим подробнее центральные моменты 2, 3, 4 порядков и выведем соотношения,
связывающие начальные и центральные моменты.
2 – дисперсия
Определение 56. Дисперсией случайной величины Х D[X] называется мат ожидание квадрата
соответствующей центрированной случайной величины: 2[ X ] M [( X mX )2 ]
а) Для дискретных случайных величин:
n
D[X] = 2 [ X ] ( xi mX ) 2 pi .
(8)
i 1
b) Для непрерывных случайных величин:
D[X] = 2 [ X ] ( x mX )2 f ( x)dx .
(9)
Дисперсия случайной величины – характеристика рассеивания, разбросанности значений
случайной величины около ее мат. ожидания.
Когда дисперсия входит в формулы как определенное число, то ее обозначают DX.
Механическая интерпретация D[X]: Дисперсия – момент инерции заданного распределения
масс относительно центра тяжести (мат. ожидания).
Рассмотрим ДСВ. (Для НСВ получаем аналогично)
n
n
n
D[ X ] 2 [ X ] ( xi mX )2 pi xi pi 2mX xi pi mX
i 1
2
X
DX μ2 α2 m
i 1
2
2
i 1
n
p
i 1
i
2 2m X m X 2 m X .
2
2
2
– связь между начальным и центральным моментом 2-го порядка. (10)
Свойства D[X ] .
1. D[C ] 0 , где С – постоянная.
2. D[C X ] C 2 D[ X ] .
3.
4.
5.
6.
D[ X ] M [ X 2 ] mX .
D[ X1 X 2 ... X n] D[ X1 ] D[ X 2 ] ... D[ X n ] для независимых СВ.
D[ X1 X 2 ] D[ X1 ] D[ X 2 ] для независимых СВ.
D[aX b] a 2 D[ X ] , a, b – постоянные.
2
Замечание. D[X] имеет размерность квадрата случайной величины. Для более наглядной
характеристики рассеивания удобнее пользоваться величиной, размерность которой совпадает с
размерностью случайной величины. Для этого из D[X] извлекают корень:
[ X ] D[ X ] ,
(11)
где [X ] – среднее квадратическое отклонение или стандарт случайной величины Х.
44
Когда среднее квадратическое входит в формулы как определенное число, то его обозначают X .
Замечание. Математическое ожидание и дисперсия характеризуют наиболее важные черты
распределения: его положение и степень разбросанности. Для более подробного описания применяются
моменты высших порядков.
3 – асимметрия
Асимметрия случайной величины – характеристика асимметрии или скошенности распределения
значений случайной величины.
Теорема. Если распределение симметрично относительно мат. ожидания (т. е. масса распределена
симметрично относительно центра тяжести), то все моменты нечетного порядка (если они существуют)
равны нулю.
Доказательство.
n
Действительно, для ДСВ в сумме s [ X ] ( xi mX ) s pi
при симметричном относительно mX
i 1
законе распределения и нечетном s каждому положительному слагаемому соответствует равное ему по
абсолютной величине отрицательное слагаемое так, что вся сумма равна 0. Аналогично. Для НСВ
s [ X ] ( x mX ) s f ( x)dx 0 как интеграл в симметричных пределах от нечетной функции.
(что и требовалось доказать).
В связи с этим, в качестве характеристики асимметрии и выбирают простейший нечетный момент
– третий 3 . Он имеет размерность куба СВ, для получения безразмерной характеристики
рассматривают отношение 3 к среднему квадратическому X в третьей степени:
Определение 57. Коэффициентом асимметрии Sk случайной величины Х называется величина
Sk
3
.
X3
(12)
Sk>0
f(x)
Sk<0
f(x)
О
О
mx
mx
x
x
n
n
n
n
n
i 1
i 1
i 1
i 1
i 1
3[ X ] ( xi mX )3 pi xi 3 pi 3mX xi 2 pi 3mX 2 xi pi mX 3 pi 3 3 2 mX 2mX 3 .
3[ X ] 3 3 2 mX 2mX 3 связь между начальными и центральным моментом 3-го порядка.
4 и эксцесс
Четвертый центральный момент 4 служит для
островершинности или плосковершинности распределения.
Это свойство описывается с помощью эксцесса.
характеристики
«крутости»,
Определение 58. Эксцессом случайной величины Х называется величина Ex
т.
е.
4
3 . (13)
X4
45
Число 3 вычитается из соотношения
f(х)
Ex>0
4
потому, что для
X4
наиболее распространенного нормального закона распределения
Ex=0
НСВ (с которым познакомимся позднее) Ex 0 , то есть
Ex<0
х
О
4
3.
X4
Кривая нормального распределения, для которого эксцесс
равен нулю, принята как бы за эталон, с которым сравниваются
другие распределения. Кривые более островершинные имеют
положительный
эксцесс,
более
плосковершинные
–
отрицательный.
Абсолютные моменты
s [ X ] M [ X ] – начальный абсолютный момент.
s
o s
s [ X ] M [ X ] – центральный абсолютный момент.
Абсолютные моменты четных порядков совпадают с обычными моментами. Из абсолютных
моментов нечетного порядка чаще всего применяется первый абсолютный центральный момент:
o
1[ X ] M [ X ] M [ X mX ] – среднее арифметическое отклонение.
а) Для дискретных случайных величин:
n
1[ X ] xi mX pi ,
(14)
i 1
b) Для непрерывных случайных величин: 1[ X ]
xm
X
f ( x)dx
(15)
1[ X ] применяется как характеристика рассеивания (как и DX и X ).
Замечания.
1. Моменты могут рассматриваться не только относительно начала координат (начальные) или
математического ожидания (центральные), но и относительно произвольной точки а:
s [ X ] M [( X a)s ] .
2.
Во многих задачах полная характеристика случайной величины (закон распределения) не
нужна или не может быть получена, поэтому ограничиваются приблизительным описанием СВ с
помощью числовых характеристик, каждая из которых выражает какое-либо характерное свойство
распределения. Иногда характеристиками пользуются для приближенной замены одного распределения
другим.
Пример 1. Дан ряд распределения ДСВ:
xi –1 0
1
pi 0,4 0,2 a
Найти: 1) величину а, 2) математическое ожидание и дисперсию M [X ] и D[X] , 3) M [3 X 2] ,
D[2 X 3] .
Решение.
1) Величину а найдем из условия:
n
p
i 1
i
1 , тогда
0,4 + 0,2 + а = 1, отсюда а = 0,4.
2) Найдем математическое ожидание и дисперсию:
46
n
По формуле (1) M [X ] xi pi (1) 0,4 0 0,2 1 0,4 0 .
i 1
n
По формуле (8) D[X] = 2 [ X ] ( xi mX )2 pi (1 0)2 0,4 (0 0)2 0,2 (1 0)2 0,4 0,8 .
i 1
Дисперсию можно было найти, используя формулу (10) и (4):
3
D[ X ] 2 2 mX xi pi mX [(1)2 0,4 (0)2 0,2 (1)2 0,4] 02 0,8
2
2
2
i 1
3) M [3 X 2] = (по 5 свойству мат. ожидания) = 3M [ X ] M [2] 3M [ X ] 2 3 0 2 2 ,
D[2 X 3] = (по 5 свойству дисперсии) = 22 D[ X ] D[3] 4D[ X ] 0 4 0,8 3,2 .
Пример 2. (Ранее рассматривали задачу, п.2, пример 2)
Стрелок производит 3 выстрела по мишени. Вероятность попадания в мишень при каждом
выстреле равна 0,4. СВ Х – число попаданий. Определить: 1) математическое ожидание, 2) дисперсию,
3) среднее квадратическое отклонение, 4) моду, 5) асимметрию, 6) среднее арифметическое
отклонение.
Решение.
Ранее мы построили ряд распределения числа попаданий, который имеет вид:
xi 0
1
2
3
pi 0,216 0,432 0,288 0,064
4
1) M [X ] xi pi 0 0,216 1 0,432 2 0,288 3 0,064 1,2 . (по формуле 1).
i 1
4
2)D[X] =
(x m
i 1
i
X
) 2 pi (0 1,2) 2 0,216 (1 1,2) 2 0,432 (2 1,2) 2 0,288 (3 1,2) 2 0,064 0,72
4
(нашли по формуле 8). Можно было по формуле (4): D[ X ] 2 mX xi pi mX .
2
2
2
i 1
3) [ X ] D[ X ] 0,72 0,848 (по формуле 11).
4) Найдем моду М: PX xm M max PX xi , следовательно, М = 1.
i
5) По формуле (6)
4
3[ X ] ( xi mX )3 pi = (0 1,2)3 0,216 (1 1,2)3 0,432 (2 1,2)3 0,288 (3 1,2)3 0,064 0,144
i 1
Тогда коэффициент асимметрии по формуле (12) Sk
6)
По
формуле
(14)
найдем
3 0,144
0,236 .
3 0,8483
среднее
арифметическое
отклонение:
4
1[ X ] M [ X mX ] xi mX pi 1,2 0,216 0,2 0,432 0,8 0,288 1,8 0,064 0,6912 .
i 1
Пример 3. Непрерывная случайная величина подчинена закону распределения с плотностью
x
f ( x) Ae . Найти: 1) коэффициент А, 2) математическое ожидание, 3) дисперсию, 4) среднее
квадратическое отклонение, 5) моду, 6) медиану, 7) асимметрию, 8) эксцесс.
Решение.
x
1) Если х < 0 f ( x) Ae , если x 0 f ( x) Ae x .
Воспользуемся свойством плотности распределения для
f(x)
определения А:
1
1
x
x)
f
(
x
)
dx
1
2
A
2
0 e dx 2 A(e 0 2 A(0 1) 1 A 2
x
x
O
Замечание. f ( x) Ae – четная функция, поэтому интеграл можно
представить как два интеграла на полуинтервале.
47
2) M [ X ]
xf ( x)dx
1
2 xe
x
dx 0 , как интеграл в симметричных пределах от нечетной
функции.
(x m
3) D[X] =
X
) 2 f ( x)dx , следовательно,
1
D[X] = 2 ( x 0) 2 e x dx (решаем методом интегрирования по частям, 2 раза) = 2.
2
4) σ X DX 2 .
5) М = 0.
x
1
1 x
1
6) F ( Me) , следовательно, F ( x) e dx ,
2
2
2
тогда F ( x)
x
1 x
1 x
2 e dx 0 2 e dx =
x
1
1
1
1
1
1
1
e x e x 0 e x 1 e x , отсюда, e x 1 , следовательно, х = 0 , т. е., Ме = 0.
2 2
2
2
2
2
2
1 x
e dx 0 , как интеграл в симметричных пределах от нечетной функции.
2
Следовательно, асимметрия Sk = 0.
1 x
1
μ4 [ X ] ( x 0) 4 e dx 2 x 4e x dx 24 ,
8)
следовательно,
эксцесс
2
2
7) μ3[ X ]
Ex
( x 0)
3
μ4
24
3
3 6 3 3.
4
σ
( 2 )4
Пример 4. Случайная величина Х подчинена закону распределения, плотность которого задана
графически. Найти: 1) выражение для плотности, 2)
f(x)
математическое ожидание, 3) дисперсию.
2
О
1
х
Решение.
2 x, 0 x 1
1) f ( x)
.
0, x 0, x 1
2) M [ X ]
xf ( x)dx , следовательно, m
1
X
2 x 2 dx
2
.
3
3) Дисперсию найдем двумя способами.
1 способ (по определению): D[X] =
(x m
1
2
1
) f ( x)dx 2 ( x ) 2 x
.
3
18
2
X
2 способ (через начальные моменты): DX μ2 α2 mX =
2
1
2
3
x f ( x)dx mX 2 x dx
2
4 1
.
9 18
Пример 5. Даны законы распределения независимых случайных величин X, Y:
xi
pi
–1
0,2
0,2
1
0,6
yj
pi
0,3
2
0,5
4
0,2
48
Найти M [ X 3Y 3] , M [ X 3Y ] , D[ X 3Y 3] , D[ X 3Y ] .
Решение.
Найдем математическое ожидание и дисперсию каждой величины.
M [ X ] 0,2 0,6 0,4 , M [Y ] 1 0,8 1,8 ,
D[ X ] 0,2 0,6 0,42 0,64 ,
D[Y ] 2 3,2 1,82 1,96 .
M [ X 3Y 3] M [ X ] 3M [Y ] 3 0,4 3 1,8 3 8,8 .
M [ X 3Y ] M [ X ] 3M [Y ] 0,4 3 1,8 5 .
D[ X 3Y 3] D[ X ] 32 D[Y ] 0,64 9 1,96 18,28.
D[ X 3Y ] D[ X ] 32 D[Y ] 0,64 9 1,96 18,28.
П. 5. Законы распределения вероятностей дискретных случайных величин: биномиальный,
Пуассона, гипергеометрический.
Пп 1. Биномиальное распределение
Постановка задачи: пусть СВ Х выражает число появления события А ( m раз) при n независимых
испытаниях, проводимых в одинаковых условиях. Вероятность появления события А – р – постоянна.
Вероятности возможных значений х0 = 0, х1 = 1,…, хn = n данной СВ определяются по формуле
Бернулли:
Pn(Х = m) = Cnm рmqn-m.
Определение 59. Распределение дискретной случайной величины, для которой ряд распределения
задается формулой Бернулли, называется биномиальным.
Примеры типовых задач: 1) число бракованных изделий в выборке из n деталей, 2) число
попаданий или промахов при выстрелах в мишень.
Найдем математическое ожидание и дисперсию СВ, имеющей биномиальное распределение.
n
n
i 0
m 0
1) M [X ] xi pi mCnm p m q n m .
(*)
Вычислим данную сумму.
Ранее записали следствие из теоремы Бернулли, что
n
p (m) ( p q)
i 0
n
n
1n 1 .
Следовательно,
n
( p q)n Cnm p m q nm .
m 0
Продифференцируем данное равенство по переменной р:
n
[( p q)n ]' p [ Cnm p m q n m ]' p .
n( p q)n 1
m0
n
C
m 0
n
np( p q)n 1
m
n
C
m0
mpm 1q n m , умножим обе части полученного равенства на р:
m
n
mpm q n m , следовательно, из (*):
M [X ] = np( p q)n 1 np1n 1 np .
Вывод: математическое ожидание числа наступления события А в серии независимых и
одинаковых испытаний равно произведению числа испытаний на вероятность появления события при
одном испытании
mX np .
49
2) Можно вывести, что дисперсия СВ Х, распределенной по биномиальному закону, находится по
формуле:
DX npq .
Тогда среднее квадратическое :
X npq .
Пример. Случайная величина Х представляет число бракованных деталей из выборки в 50 штук.
Вероятность брака одной детали р = 0,06. Найти M [X ] , D[X ] , [X ] числа бракованных деталей в
выборке.
Решение.
СВ Х имеет биномиальное распределение, следовательно, сразу по формулам имеем:
mX np 50 0,06 3 (детали в среднем бракованы).
DX npq 50 0,06 0,94 2,82 .
X 2,82 1,68 (детали) – разброс бракованных деталей относительно среднего числа.
Пп 2. Распределение Пуассона
Постановка задачи: пусть СВ Х выражает число появления события А ( m раз) при n независимых
испытаниях, проводимых в одинаковых условиях, причем n очень велико ( n ) . Вероятность
появления события А – р – очень мала. Вероятности возможных значений х0 = 0, х1 = 1,…, хn = n
данной СВ можно вычислить, пользуясь асимптотической формулой Пуассона:
Pn(Х = m) =
n m
e n ,
m!
где n – среднее число появления события в n испытаниях: n np .
Определение 60. Распределение дискретной случайной величины, для которой ряд распределения
задается формулой Пуассона, называется распределением Пуассона.
Примеры типовых задач: 1) число вызовов на телефонной станции за некоторое время t, 2)
число отказов сложной аппаратуры за некоторое время t, 3) распределение изюма в булочках, 4) число
кавалеристов, убитых за год копытом лошади.
Закон распределения Пуассона называют законом массовых (n велико) и редких (р мало) явлений.
Распределение Пуассона зависит только от одного параметра n . Так как это среднее число
появления события в n испытаниях, то это ни что иное как математическое ожидание, следовательно,
mX n np .
Можно вывести, что дисперсия СВ Х, распределенной по закону Пуассона, находится по формуле:
DX np .
Замечание. Мы использовали распределение Пуассона как приближенное в тех случаях, когда
точным распределением СВ является биномиальное распределение, и когда математическое ожидание
мало отличается от дисперсии, т. е. np npq .
Можно было получить распределение Пуассона, рассматривая задачу о числе случайных точек на
оси абсцисс, попадающих на заданный отрезок, причем mX среднее число точек, приходящихся на
единицу длины.
Пример 1. На телефонную станцию в течение определенного часа дня поступает в среднем 30
вызовов. Найти вероятность того, что в течение минуты поступает не более двух вызовов.
Решение.
30 1
n mX – среднее число появления события в n испытаниях, т. е. n mX
.
60 2
СВ Х – число вызовов, ее возможные значения: х0 = 0, х1 = 1, х2 = 2.
50
По условию, в течение минуты поступает не более двух вызовов, т. е. m 2 , тогда,
1
2
1
1
1
1 1 1
1
1 1
2
2
2
P(m 2) P( X 0) P( X 1) P( X 2) e 2 e 2 e 2 e 2 [1 ] 0,98 .
0!
1!
2!
2 8
Пример 2. Завод отправил на базу 500 доброкачественных изделий. Вероятность того, что в пути
изделие повредится, равна 0,002. Найти вероятность того, что на базу прибудет 3 негодных изделия.
Решение.
Дано: р = 0,002; q = 1 – р = 0,998; n = 500. Проверим, можно ли воспользоваться формулой
Пуассона, т. е. проверим истинность равенства: mX np DX npq .
mX np 500 0,002 1 ,
DX npq 500 0,002 0,998 0,998 , отсюда, mX DX , т. е. можно
пользоваться формулой Пуассона.
n m n 13 1 1
P500(Х = 3) =
n mX 1 , следовательно,
0,06 .
e = e
3!
6e
m!
Пп 3. Геометрическое и гипергеометрическое распределения
Постановка задачи геометрического распределения: производится ряд n независимых испытаний,
в каждом из которых с одинаковой вероятностью р наступает событие А. Испытания заканчиваются,
как только появится событие А.
Дискретная случайная величина Х – число испытаний, которые нужно провести до первого
появления события А. Возможные значения данной СВ х1=1, х2=2,…, хn =n, …
Рассмотрим событие, состоящее в том, что событие А появилось в m-ом испытании. По теореме
умножения независимых событий данная вероятность равна Pn ( X m) q m 1 p .
Определение 61. Распределение дискретной случайной величины, описываемой формулой
Pn ( X m) q m 1 p ,
называется геометрическим.
Можно показать, что математическое ожидание СВ, имеющей геометрическое распределение,
1
равно:
mX .
p
Пример. Вероятность поражения цели равна 0,4. Производится стрельба по цели до первого
попадания. Найти вероятность того, что цель будет поражена при пятом выстреле и математическое
ожидание этой величины.
Решение.
По условию задачи p = 0,4; q = 0,6; m = 5. Искомая вероятность находится по формуле
P( X 5) (0,6)4 0,4 0,05184 .
1
1 10 5
2,5.
Математическое ожидание: mX
p 0,4 4 2
Постановка задачи гипергеометрического распределения: производится ряд n независимых
испытаний, в каждом из которых с вероятностью р наступает событие А. Опыты продолжаются до
первого появления события А. Случайная величина Х – число проведенных опытов. х0, х1,…, хn –
возможные значения данной СВ.
Например, в партии из n изделий k стандартных. Из партии случайным образом отбирают m
изделий. Случайная величина Х – число l стандартных изделий среди m отобранных.
Определение 62. Дискретная случайная величина Х с возможными значениями х0 = 0, х1 = 1,…,
хl = l имеет гипергеометрическое распределение, если ее распределение описывается формулой:
C l C m l
P( X l ) k mn k .
Cn
51
Можно
показать,
что
математическое
распределение, равно
ожидание
k
mX m .
n
СВ,
имеющей
гипергеометрическое
Замечание.
В некоторых учебниках гипергеометрическое распределение вводится следующим образом:
1) ДСВ Х с возможными значениями 0, 1, …, m, …, а имеет гипергеометрическое
C mC n m
распределение с параметрами n, а, b, если Pn ( X m) a n b .
Ca b
na
Можно вывести, что mX
,
ab
2
a
nab
a 1
a
DX
n(n 1)
.
( a b) 2
a b a b 1 a b
Случайная величина Х имеет гипергеометрическое распределение, если
Cnm1 Cnm22 ... Cnmnn
, n = n1 + n2 +…+ nn, m = m1 + m2 +…+ mn.
Pn ( X m) 1
Cnm
2)
Пример типовой задачи: из урны, содержащей 5 красных и 7 синих шаров, случайным образом и
без возвращения извлекается 3 шара. Случайная величина Х – число синих шаров в выборке. Описать
закон распределения Х и найти математическое ожидание.
Решение.
По условию задачи n = 5+7 =12, k = 7, m = 3, l - число синих шаров в выборке.
Данная случайная величина имеет возможные значения х1 = 0, х2 = 1, х3 = 2, х4 = 3.
C53
1
C52C71 7
p1 P12 ( X l 0) 3
, p2 P12 ( X l 1) 3
,
C12 22
C12
22
C51C72 21
C73
7
p3 P12 ( X l 2) 3
, p4 P12 ( X l 3) 3
.
C12
44
C12 44
Следовательно, ряд распределения имеет вид:
xi
pi
1
22
2
21
44
3
7
44
4
p
i 1
i
1
k
7 21 7
3
.
n
12 12 4
4
1
7
21
7 77 7
M [X ] xi pi 0
1
2
3
.
22
22
44
44 44 4
i 1
Мат. ожидание найдем по формуле:
или по определению:
1
7
22
mX m
Замечание. Если пользоваться определением 1) из замечания, то по условию задачи можем
na
3 7 21 7
.
записать, что n = 3, а + b = 12, а = 7. Тогда mX
a b 7 5 12 4
П. 6. Законы распределения вероятностей непрерывных случайных величин: равномерный,
показательный, нормальный
Пп 1. Равномерное распределение или закон равномерной плотности
Пусть известно, что все возможные значения х непрерывной случайной величины Х лежат в
пределах определенного интервала (a, b), в некоторых источниках рассматривается [a, b].
52
Определение 63. Равномерным называют распределение вероятностей НСВ Х, если на каждом
1
интервале (a, b) ее плотность распределения f(x) сохраняет постоянное значение, равное
(т. е. все
ba
х одинаково вероятны), а вне этого интервала плотность равна нулю:
1
, x [ a, b]
.
f ( x) b a
0,
x ( a, b)
Примеры типовых задач: равномерное распределение реализуется 1) в экспериментах, в которых
наудачу ставится точка на промежутке (a, b) или [a, b], причем Х – координата поставленной точки; 2)
в экспериментах по измерению тех или иных физических величин с округлением, причем Х – ошибка
округления.
Выведем формулы для вычисления мат. ожидания и дисперсии.
b
1
1 x2
1 b 2 a 2 b 2 a 2 (b a)(b a) b a
M [ X ] xf ( x)dx x
dx
,
ba
b a 2 a b a 2
2 2(b a)
2(b a)
2
a
b
ba
2
x
b
ba 1
1
2
dx
D[X] = ( x mX ) 2 f ( x)dx x
2 ba
ba
3
a
3 b
(b a) 2
.
12
a
ba
(b a)
(b a) 2 b a
, D[X] =
, тогда среднее квадратическое [ X ]
.
2
12
12
2 3
Вероятность попадания случайной величины на участок ( , ) находится по формуле:
2
Итак, M [ X ]
1
1
.
dx
x
b
a
b
a
b
a
P( X ) f ( x)dx
x
Найдем функцию распределения F ( x)
f ( x)dx :
x
Если x a , то f ( x) 0 , следовательно F ( x) 0dx 0 .
1
x
x
a
xa
dx 0
.
Если a x b , то F ( x) 0dx
ba
ba a ba ba ba
a
a
a
x
x
b
b
x
1
x
b
a
dx 0dx 0
0
1.
Если x b , то F ( x) 0dx
ba
ba a
ba ba
a
b
0; x a,
x a
; a x b,
Итак, F ( x)
b
a
1; x b.
F(x)
O
f(x)
1
1
ba
a
b
x
O
а
b
x
53
Пример. Цена деления шкалы амперметра равна 0,1 ампера. Показания амперметра округляют до
ближайшего целого деления. Найти вероятность того, что при отсчете будет сделана ошибка,
превышающая 0,02 ампера.
Решение.
СВ Х – ошибка округления отсчета. Х распределена равномерно в интервале между двумя
соседними целыми делениями:
+0,02
– 0,02
b = 0,1
a=0
0,1
1
1
10, x (0;0,1)
f ( x) b a 0,1
0; x (0; 0,1)
Ошибка отсчета превысит 0,02, если она будет заключена в интервале (0,02; 0,08).
Найдем вероятность попадания Х в этот интервал:
b
P(0,02 X 0,08) f ( x)dx
a
0, 08
10dx 10 x
0 , 08
0 , 02
0,8 0,2 0,6.
0 , 02
P( X )
Можно было найти эту вероятность, сразу подставив в формулу
следовательно, P(0,02 X 0,08)
0,08 0,02
0,6.
0,1 0
ba
,
Пп 2. Показательное или экспоненциальное распределение
Определение 64. НСВ Х распределена по показательному или экспоненциальному закону, если
ее плотность распределения f(x) имеет вид:
e x , x 0,
f ( x)
0; x 0.
– коэффициент распределения, постоянная положительная величина.
Выведем формулы для вычисления мат. ожидания и дисперсии.
M[X ]
xf ( x)dx e
x
xdx
u x, dv ex dx
du dx, v e
x
xe
x
e
x
dx 0 0
e x
0
1
1
.
D[X] = ( x mX ) 2 f ( x)dx ( x 1 ) 2 e x dx 12 .
Итак, M [ X ]
1
, D[X] =
1
2
, тогда среднее квадратическое: [ X ]
1
2
1
.
Найдем функцию распределения F(x):
x
Если x 0 , то f ( x) 0 , следовательно F ( x) 0dx 0 .
x
Если x 0 , то F ( x) 0dx e x dx e x e x 1 .
x
x
Итак,
1 e , x 0,
F ( x)
0; x 0.
54
F(x)
f(x)
1
O
x
O
x
Показательное распределение находит широкое применение в теории надежности, физике,
биологии, теории массового обслуживания.
Если рассматривать в качестве непрерывной случайной величины Т – длительность безотказной
работы элемента, которая, как правило, имеет показательное распределение, тогда интегральная
функция
F (t ) P(T t ) e t 1, t 0,
определяет вероятность отказа элементов за время t.
Вероятность противоположного события, то есть вероятность безотказной работы элемента за
время t, определяется равенством:
R(t ) P(T t ) 1 P(T t ) e t .
Определение 65. Функция R(t) называется функцией надежности, или показательным законом
надежности, где выражает интенсивность отказов.
Пример. Случайная величина Т – время работы радиолампы имеет показательное распределение.
Определить вероятность того, что время работы лампы будет не меньше 600 часов, если среднее время
работы лампы 400 часов.
Решение.
1
1
По условию mX 400 , тогда
, так как mX .
400
P(T 600) 1 P(T 600) 1 F (600) 1 (1 e
1
600
400
)e
600
400
Или сразу через функцию надежности: P(T 600) R(t ) e
e1,5 0,2231.
600
400
e1,5 0,2231 .
Пп 3. Нормальный закон распределения
Определение 66. НСВ Х распределена по нормальному закону, если ее плотность распределения
f(x) имеет вид:
( x m) 2
1
2
f ( x)
e 2 , где m R, 0, x .
2
Нормальный закон называют еще законом распределения Гаусса.
Говорят, что случайная величина Х подчинена нормальному закону и пишут N(m, σ).
Примеры типовых задач: случайные величины в них характеризуют ошибки при измерениях,
боковые отклонения и отклонения по дальности при стрельбе, величину износа деталей…
График плотности или кривая распределения называется гауссовской кривой. Она имеет
1
симметричный холмообразный вид. При x = m max f ( x)
. Ветви кривой быстро приближаются
2
к оси (Ох): площадь под кривой на участке [m 3; m 3] равна 90% площади под всей кривой.
1
2
f(х)
х
О
m
Главная особенность нормального закона состоит в
том, что он является предельным законом, к которому
приближаются другие законы распределения при весьма
часто встречающихся типичных условиях.
55
Кривые распределения по всем другим законам распределения получаются из одной
единственной кривой – гауссовской.
Для наглядной демонстрации нормального закона распределения иногда используют специальное
устройство – доску Гальтона. В нем падающие сверху шарики распределяются между правильными
шестиугольниками и в результате падают на горизонтальную поверхность, образуя картинку, похожую
на подграфик гауссовой кривой.
Распределение пассажиров по вагонам метро – гауссово распределение. Покажем это. Пассажиры
метро бегут по переходу, выходящему на середину станции, на поезд, стоящий напротив выхода из
перехода. Платформа, у которой стоит поезд, равномерно разделена колоннами. Ясно, что большинство
пассажиров войдет в средние вагоны, а по мере удаления вагонов от центра, количество садящихся в
них людей будет уменьшаться.
поезд
Замечание. С гауссовской плотностью f(x) мы встречались при рассмотрении локальной теоремы
Муавра- Лапласа.
1. Убедимся, что f(x) действительно плотность НСВ, для чего проверим равенство
f ( x)dx 1
(условие
нормировки).
Известно,
e
что
x2
dx
(интеграл
Пуассона).
( x m) 2
1
xm
1
1
t 2
2 2
f
(
x
)
dx
e
dx
t
,
dx
2
dt
e
2 dt
2
2
2
Что и требовалось доказать.
t
e dt
2
1.
2. Докажем, что численные параметры m и σ совпадают с основными характеристиками
распределения:
m M [X ] – мат. ожидание, [ X ] D[ X ] – среднеквадратическое отклонение.
Для этого вычислим M [X ] и [X ] .
1
M [ X ] xf ( x)dx x
e
2
1
( x m ) 2
2 2
dx
xm
2 t m t 2
t , x 2 t m, dx 2 dt
e
2 dt
2
2
2
m
e t
t 2
t 2
(
2
t
m
)
e
dt
te
dt
e
dt
2
t 2
2
m
0 m m.
Таким образом, m M [X ] .
Доказать самостоятельно, что [ X ] D[ X ] . (Сначала вычислить дисперсию).
Смысл параметров m и σ
.
m – центр симметрии распределения (т.к. при изменении знака разности (x – m) в формуле
плотности на противоположный, выражение не меняется; f(x) – четная функция, ее график
симметричен относительно оси (Оу)). Если изменять центр рассеивания m, то кривая распределения
будет смещаться вдоль оси (Ох), не изменяя своей формы. Следовательно, m характеризует положение
распределения на оси (Ох).
Размерность m та же, что и размерность случайной величины Х.
56
В задачах m означает систематические ошибки. В задачах стрельбы этот параметр называют
центром рассеивания.
f(х)
1
2
х
О
m1
m2
m3
σ характеризует форму кривой распределения, т.к. это характеристика рассеивания. Площадь под
кривой распределения всегда должна быть равна 1. Наибольшая ордината кривой распределения
обратно пропорциональна σ, следовательно, при увеличении σ максимальная ордината уменьшается.
Размерность σ совпадает с размерностью СВ.
В задачах σ означает стандартные ошибки.
III
f(х)
σI > σII > σIII
II
I
О
х
Замечания.
1. В некоторых курсах теории вероятностей вводят понятие меры точности h
нормальный закон запишется в виде: f ( x)
h
1
2
, тогда
eh ( xm ) функция плотности.
2
2
2. mX np, DX npq .
3. Если НСВ Х распределяется по закону N(0, 1), то она называется стандартизованной случайной
величиной.
x
( x m )
1
2
4. F ( x)
e
dx - функция распределения.
2
2
2
Формула для центральных моментов любого порядка имеет вид:
s ( x m) s f ( x)dx ( s 1) 2 s 2 .
Т.к. 1 0 , то все нечетные моменты равны 0 (это следует из симметричности нормального
закона).
Для четных моментов: s (s 1)!! s , т.е. 2 2 , 4 1 3 4 3 4 , 6 1 3 5 6 15 6 .
Асимметрия нормального закона Sk
3
0,
3
эксцесс
Ex
4
3 0 (назначение эксцесса
4
характеризовать крутость законов по сравнению с нормальным законом),
Me m.
мода M m, медиана
Найдем вероятность попадания НСВ Х, подчиненной нормальному закону с параметрами m и σ,
на участок от α до β.
P( X ) F ( ) F ( ) или P( X ) f ( x)dx , тогда
57
1
e
P( X ) f ( x)dx
2
( x m )2
2 2
dx t x m , x t m, dx dt 1
2
m
e
t2
2
dt
m
(интеграл вычисляется с помощью специальной функции – функции Лапласа Ф(х) [смотри предельную
интегральную теорему Муавра-Лапласа §6 п. 3])
m
m
=
.
m
m
Итак, P( X )
.
m
Вероятность попадания НСВ Х левее β находится по формуле: P( X )
.
Функция распределения НСВ Х, распределенной по нормальному закону, выражается через
xm
функцию Лапласа по формуле: F ( x) 1
1
Свойства функции Лапласа (x)
2
x
e
u2
2
du .
1.
Ф(x) определена для всех действительных х.
2.
Ф(–∞) = 0.
3.
Ф(x) неубывающая, т. е. возрастает на R.
4.
Ф(–x) = 1 – Ф(x) (это следует из симметричности нормального распределения с параметрами
m = 0, σ =1 относительно начала координат).
u
u2
t
2
1
1
2
2
e
du
5.
Ф(+∞) =
e t dt
1.
2
du 2dt
1
.
2
Функция Лапласа затабулирована. Для тех значений x, которых нет в таблице: x 3,5 , Ф(x) = 1.
6.
(0)
Ф(х)
1
1
2
О
х
Вычисление вероятности заданного отклонения, правило трех сигм.
Для характеристики ширины нормальной кривой вместо среднего квадратичного отклонения σ
иногда используется заданное отклонение δ.
Пусть НСВ Х распределена по нормальному закону. Определим вероятность осуществления
равенства: P( X m ) . Из 4 свойства и формулы для вычисления интервальных вероятностей
имеем, что:
m m
m m
P( X m ) P( X m ) P( m X m )
= 1+ 2 1 .
Итак, формула для нахождения вероятности того, что абсолютная величина отклонения СВ Х от
числа m меньше положительного числа δ, где δ – ошибка, имеет вид:
58
P( X m ) 2 1 . (*)
Если m = 0, то P( X ) 2 1 .
Отметим важный случай формулы (*). Положим в формуле (*) t , тогда
P( X m t ) 2t 1 .
При t = 1 ( ) получим «правило одной сигмы»: P( X m ) 21 1 0,6826 .
При t = 2 ( 2 ) получим «правило двух сигм»: P( X m 2 ) 22 1 0,9544 .
При t = 3 ( 3 ) получим «правило трех сигм»: P( X m 3 ) 23 1 0,9973 .
Вывод: если случайная величина имеет нормальный закон распределения, то практически
достоверно, что ее значения заключены в интервале (m 3 ; m 3 ) .
x
u2
1
2
e
du
Замечание. Свойства функции Лапласа (x)
2 0
Ф(x) определена для всех действительных х.
Ф(0) = 0.
Ф(x) неубывающая, т. е. возрастает на R.
Ф(–x) = – Ф(x).
1
5.
(-) .
2
1
6.
() .
2
7. P( X m ) 2 . Если m = 0, то P( X ) 2 .
1.
2.
3.
4.
Функция Лапласа затабулирована. Для тех значений x, которых нет в таблице: x 5 , ( x)
Ф(х)
1
.
2
1
2
О
1
2
х
Пример.
Длина изготовленной автоматом детали представляет собой случайную величину,
1
распределенную по нормальному закону с параметрами m = 10, σ =
. Найти вероятность брака,
10 2
если допустимые размеры детали 10 ± 0,05.
Решение.
P 1 P( X 10 0,05) 1 P(9,95 X 10,05) 1 – [ 2 1 ] = 2 –
Вероятность брака:
0,05
2
2 20,705 = 2 – 2 ∙ 0,7580 ≈ 0,484.
1
10 2
59